隨著汽車制造商逐步加快自動駕駛技術(shù)的部署和預研,一場沒有硝煙的戰(zhàn)爭開始從過去傳統(tǒng)的汽車制造車間向數(shù)據(jù)處理與運營服務平臺轉(zhuǎn)移。
從簡單的改裝幾輛自動駕駛測試車,到真正開始為未來智能駕駛汽車進行全生命周期的規(guī)劃,汽車主機廠必須開始考慮如何設計、構(gòu)建和運行大規(guī)模訓練以深度學習為中心自動駕駛技術(shù)的數(shù)據(jù)中心。
深度神經(jīng)網(wǎng)絡技術(shù)、大數(shù)據(jù)云端處理幾乎可以斷定將成為未來自動駕駛技術(shù)的核心組成部分,而一套完善的自動駕駛功能除了依靠大規(guī)模的常年積累的道路測試,依靠數(shù)據(jù)中心的仿真測試和深度神經(jīng)網(wǎng)絡的訓練不可缺少。
除了特定的傳感器及決策技術(shù)之外,任何自動駕駛系統(tǒng)(包括車輛)的基礎都是數(shù)據(jù)。未來的汽車數(shù)據(jù)生態(tài)系統(tǒng)將包括來自車輛的數(shù)據(jù)、內(nèi)置在道路上的傳感器、與附近車輛的通信、信息娛樂和其他來源。
這個數(shù)據(jù)生態(tài)系統(tǒng)非常復雜,涉及企業(yè)、平臺和政府的多方。在過去的二十年中,隨著汽車越來越依賴軟件,汽車制造商已經(jīng)意識到數(shù)據(jù)的重要性。
目前在車輛中已經(jīng)有相當多的傳感器,但數(shù)據(jù)類型、數(shù)據(jù)的復雜性、數(shù)據(jù)量與我們過去處理的相比,是驚人的。即使那些已經(jīng)部署自動駕駛測試車的公司也只能收集非常少量的數(shù)據(jù)。
這其中除了數(shù)據(jù)中心的后臺處理,還包括車輛端側(cè)的數(shù)據(jù)處理能力的提升。近日,斯坦福大學的研究人員宣布一項能夠基于AI攝像頭來更快,更有效的進行圖像處理分類技術(shù)。
目前,搭載L3級以上圖像識別技術(shù)必須依賴于人工智能,同時在未來域控制器中運行深度學習算法的算力也要求太高,并且對于自動駕駛決策來說速度太慢。
這種新型的人工智能相機系統(tǒng),能夠更快、更有效地對圖像進行分類,并且能夠以足夠小的體積以嵌入到端側(cè)傳感器設備中。未來的應用需要更快的速度和更小運算單元體積來處理龐大的圖像流。
這款AI原型相機的第一層是一種光學計算機,它不需要高能耗的傳統(tǒng)計算模式。第二層是傳統(tǒng)的計算處理。光學計算機層通過物理預處理圖像數(shù)據(jù)來操作,以多種方式對圖像數(shù)據(jù)進行濾波。
通過定制的光學器件,這一層處理幾乎是零能耗,這節(jié)省了系統(tǒng)大量的時間和資源,否則將被消耗計算資源。
其結(jié)果是計算量大大減少,對內(nèi)存的調(diào)用更少,完成過程的時間也少得多。在跳過了這些預處理步驟之后,剩下的分析占用的計算資源就少很多。
在模擬和真實世界的實驗中,研究小組使用該系統(tǒng)成功地識別了飛機、汽車、貓、狗等在自然圖像設置內(nèi)的物體。
實驗室正在研究如何使光學元件做更多的預處理。最終,他們更小、更快的技術(shù)可以取代現(xiàn)在幫助汽車、無人機和其他技術(shù)學會識別周圍環(huán)境的后備箱大小的計算機。
去年10月,Google在其發(fā)布會上推出了一款名為Google Clips的AI微型照相機,售價249美元。這款小巧的產(chǎn)品面向家庭場景,在功能上主要集成了機器學習技術(shù),可對場景中的人物、寵物、環(huán)境等畫面進行識別和分析,能夠讓攝像頭發(fā)現(xiàn)適合拍攝的畫面時進行自動拍攝。
GoogleClips在機身內(nèi)部搭載了一塊AI芯片,就是Intel旗下Movidius推出一款名為Myriad2的VPU(VisionProcessingUnit,視覺處理單元)。
Myriad2發(fā)布于2014年,作為一款視覺處理芯片,它的功能就是專門用于圖像處理;其特點在于功耗很低,能夠在半瓦的功耗下提供浮點運算功能,使用20納米的工藝進行制造。
這也讓行業(yè)看到了AI驅(qū)動攝像頭技術(shù)的提升空間,尤其是在端側(cè)的數(shù)據(jù)處理能力。
同樣在去年11月,亞馬遜AWS發(fā)布了一款名為DeepLens的人工智能攝像機,用以運行實時計算機視覺模型,為開發(fā)者提供機器學習的實踐經(jīng)驗。
DeepLens擁有一顆計算能力為100gflops的英特爾凌動處理器,內(nèi)置一顆400萬像素攝像頭,能夠拍攝1080p高清視頻。同時還具備8GBRAM、16GB可擴展存儲容量,用于視頻、預先訓練的模型和代碼的存儲。
軟件上DeepLens搭載了Ubuntu16.04LTS操作系統(tǒng),且自帶AWSGreenGrass云服務功能。內(nèi)置的對象識別功能可以識別寵物、日常物品、特定動作,還可以訓練AI模型識別更多的物體。
該攝像頭可以運行預先訓練或定制的人工智能模型來執(zhí)行復雜的計算機視覺任務,如面部識別、情感分析或?qū)ο笞R別。
而在車載領(lǐng)域,不少初創(chuàng)公司和大公司也都在瞄準基于深度學習的攝像頭視覺系統(tǒng)的研發(fā),一方面在視覺端提升數(shù)據(jù)處理能力,另一方面在攝像頭端進行數(shù)據(jù)預處理。
CalmCar(天瞳威視)目前推出的產(chǎn)品CalmCar Vision System,就是一套基于“深度學習技術(shù)”的人工智能視覺系統(tǒng),搭載微型嵌入式芯片(GPU),擁有針對汽車視覺系統(tǒng)設計優(yōu)化的深度學習架構(gòu)。
這套視覺系統(tǒng)以提高部分遮擋物體的識別精度,解決了形變物體的識別問題,減少了光線變化對物體識別的精度影響。
多于30幀每秒的實時檢測率,可實現(xiàn)140米車輛檢測(可追蹤到170米)、70米行人以及騎車人檢測(追蹤到80米)、80米行車線檢測與追蹤、路牌路標的檢測與識別以及交通燈的檢測與識別。
今年初,日本三菱公司推出了采用了自主研發(fā)的Maisart AI的新車載攝像頭(用于替代傳統(tǒng)外后視鏡),它能夠準確地區(qū)分行人、汽車和摩托車。后續(xù)版本還將解決惡劣天氣、夜晚和曲折的道路上的性能表現(xiàn)。
Maisart AI是基于計算視覺認知模型的相對簡單的算法為實時性能釋放系統(tǒng)資源,為低成本設備實現(xiàn)緊湊型的人工智能處理能力。
以每秒60幀運行的2百萬像素相機為例,每秒產(chǎn)生大約500兆字節(jié)的數(shù)據(jù)量。這些數(shù)據(jù)需要很快地分析和處理,以便實時響應。尤其是目前L2級以上自動駕駛每輛車配置的攝像頭數(shù)量接近5-12個(包括車內(nèi)車外),數(shù)量處理量巨大。
基于攝像頭前端的數(shù)據(jù)處理模式,可以大幅降低數(shù)據(jù)傳輸和中央數(shù)據(jù)處理的占用。視頻分析算法可以在未經(jīng)壓縮的原始圖像上運行,然后通過以太網(wǎng)進行編碼和傳輸。視頻分析ADAS算法也不會遭受在壓縮期間可能引入的任何噪點,并且保持它們的精度。
當處理移入前端攝像頭模塊時,入門級車型可以用較低成本的控制單元(ECU)。當客戶選擇例如駕駛員監(jiān)視或自動停車選項時,攝像頭模塊可以簡單地插入,并且不要求汽車制造商也將控制單元升級到更高性能、更高成本。這降低了車輛的總成本。
隨著未來車輛搭載攝像頭數(shù)量增加,以及相互之間數(shù)據(jù)處理量增大,如果沒有在攝像頭前端內(nèi)部進行預處理,性能瓶頸將不可避免地出現(xiàn)在中央計算單元上。
一家位于德國的嵌入式視頻處理器公司videantis,推出的嵌入式視頻處理器體系結(jié)構(gòu)可以以更快的速度和更低的功率水平執(zhí)行這些復雜的機器視覺和圖像處理任務,使得該技術(shù)能夠嵌入到較小的ECU中,甚至直接嵌入到攝像頭中。
videantis在今年初推出的新的V-MP6000UDX處理器,包括為運行卷積神經(jīng)網(wǎng)絡而優(yōu)化的擴展指令集,提供的v-CNNDesigner工具,可以方便地移植使用諸如TensorFlow或Caffe等框架設計和訓練的神經(jīng)網(wǎng)絡。
使用這個工具,實現(xiàn)神經(jīng)網(wǎng)絡的任務是完全自動的,并且只需要幾分鐘就可以使CNN在低功耗視頻處理架構(gòu)上運行,并且可以在同一平臺上運行深度學習、計算機視覺、視頻編碼和成像。
相比目前市面上的同類產(chǎn)品,videantis可以做到在單一芯片架構(gòu)上實現(xiàn)CNNs的全部層處理,而無需額外添加深度學習加速模塊。
-
神經(jīng)網(wǎng)絡
+關(guān)注
關(guān)注
42文章
4777瀏覽量
100974 -
車載攝像頭
+關(guān)注
關(guān)注
5文章
138瀏覽量
28104 -
深度學習
+關(guān)注
關(guān)注
73文章
5511瀏覽量
121355
原文標題:車載攝像頭可以賣的貴一些 ,但要有料 | GGAI頭條
文章出處:【微信號:ilove-ev,微信公眾號:高工智能汽車】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論