0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Mobileye和特斯拉差距在哪?

佐思汽車研究 ? 來源:佐思汽車研究 ? 2023-07-12 15:33 ? 次閱讀

對比Mobileye和特斯拉,兩者做事風格截然不同。Mobileye有著十幾年的積累,可靠性經(jīng)過了市場和時間的驗證,傳統(tǒng)大廠無一例外都會選擇Mobileye,但同時意味著有資產(chǎn)包袱,不舍得放棄以前的研究成果,難接受新的研究方向與潮流變化,對學(xué)術(shù)界的東西似乎完全不在意。特斯拉則是博采各家所長,時刻關(guān)注著學(xué)術(shù)界的最新動向,發(fā)現(xiàn)有好的技術(shù)點就努力將其落地,始終走在技術(shù)最前沿。

Mobileye在L2領(lǐng)域占據(jù)絕對霸主地位,市場占有率超過70%,特斯拉則是智能駕駛技術(shù)的引領(lǐng)者。對于感知任務(wù),核心就是建立一個3D的周邊環(huán)境模型,即3D場景重建,這也是L2與L2+系統(tǒng)的本質(zhì)區(qū)別。L2的目的是避免碰撞,遇到可能發(fā)生的碰撞就剎車或減速,而L2+系統(tǒng)是自主駕駛,遇到可能發(fā)生的碰撞時,通過對周邊3D場景重建,找到可行駛空間Freespace繞開障礙物,而不是減速或剎車。3D場景重建的最佳表征形式是BEV即鳥瞰,很多時候BEV幾乎等于3D場景重建。

3D場景重建最佳解決辦法是立體雙目,即基于Depth Map的3D重建。立體雙目可以準確測量出深度信息,但除了博世、奔馳、豐田這些大廠外,雙目的標定和立體匹配是無法跨越的難關(guān),包括特斯拉和Mobileye。還有一個原因是新興造車在單目上累積了豐富的知識產(chǎn)權(quán),跳到立體雙目領(lǐng)域意味著這些累積都作廢了,這是最核心資產(chǎn)的嚴重流失。

特斯拉和Mobileye的思路都是用單目做3D重建,常見方法有SfM和Transformer。此外3D場景重建還可以基于點云、VOXEL和MESH。

SfM(Structure From Motion)是最經(jīng)典技術(shù)路線,通過使用諸如多視圖幾何優(yōu)化之類的數(shù)學(xué)理論從2D圖像序列中確定目標的空間幾何關(guān)系,以通過相機移動恢復(fù)3D結(jié)構(gòu)。SFM方便靈活,但在圖像序列采集中遇到場景和運動退化問題。根據(jù)圖像添加順序的拓撲結(jié)構(gòu),可以將其分為增量/順序SFM、全局SFM、混合SFM和分層SFM。此外,還有語義SFM和基于深度學(xué)習的SFM。步驟包括1.特征提取(SIFT、SURF、FAST等方法);2.配準(主流是RANSAC和它的改進版;3.全局優(yōu)化bundleadjustment用來估計相機參數(shù);4.數(shù)據(jù)融合。

6c81a5de-205f-11ee-962d-dac502259ad0.png

Mobileye的SuperVision

6c9f5278-205f-11ee-962d-dac502259ad0.png

Mobileye的multi-view stereo實際就是SFM的另一種說法,Mobileye還給它取了另一個名字Vidar或者叫偽激光雷達,這就是SuperVision的核心。

6cb3edc8-205f-11ee-962d-dac502259ad0.png

Mobileye的SuperVision,7個800萬像素攝像頭

6d044516-205f-11ee-962d-dac502259ad0.png

7個攝像頭聯(lián)合得到的3D場景重建

6d2617ae-205f-11ee-962d-dac502259ad0.png

偽激光雷達

6d5dee5e-205f-11ee-962d-dac502259ad0.png

VIDAR就是multi-view stereo

6d7dc9cc-205f-11ee-962d-dac502259ad0.png

Mobileye的SFM還混合了REM和視覺道路模型

6da5df66-205f-11ee-962d-dac502259ad0.png

SuperVision也可以得到BEV視角,不過不像特斯拉那樣高精細度,特斯拉的所謂OccupancyGrid,Mobileye也有使用。當然,大部分情況下還是非BEV視角。

SFM的優(yōu)點是設(shè)計簡單,有些類型的SFM可以用非深度學(xué)習算法,對算力需求很低,即使深度學(xué)習算法,因為還是參數(shù)量不到千萬的CNN,對算力需求還是很低。不過SFM精度不高,特別是大范圍場景或者說遠距離使用困難,因為一個大場景環(huán)境是很復(fù)雜的,如各種物體、多樣的光照、反光表面,還有不同焦距、畸變和傳感器噪聲的多樣攝像機。許多先前的方法采用多視角深度估計(MVS)來重建場景,預(yù)測每一幀圖像的稠密深度圖,這種depth-based方法可以估計準確的局部幾何形狀,但需要額外的步驟來融合這些深度圖,例如解決不同視角之間的不一致性,這相當困難。Mobileye的解決辦法是使用高像素攝像頭,7個攝像頭都是8百萬像素,像素越高,有效距離越遠。

再有就是SFM準確度有限,為了從多個輸入視圖中學(xué)習有效的3D表示,大多數(shù)基于CNN的方法遵循分而治之的設(shè)計原則,其中通常的做法是引入CNN進行特征提取和融合模塊來集成多個視圖的特征或重建得到。盡管這兩個模塊之間有很強的關(guān)聯(lián),但它們的方法設(shè)計是分開研究的。另外,在CNN特征提取階段,很少研究不同視圖中的目標關(guān)系。雖然最近的一些方法引入了遞歸神經(jīng)網(wǎng)絡(luò)(RNN)來學(xué)習不同視圖之間的目標關(guān)系,但這種設(shè)計缺乏計算效率,而且RNN模型的輸入視圖是對順序變化敏感的,難以與一組無序的輸入視圖兼容。

輪到特斯拉的BEVFormer閃亮登場了,BEV一直存在,BEV視角下的物體,不會出現(xiàn)圖像視角下的尺度(scale)和遮擋(occlusion)問題。由于視覺的透視效應(yīng),物理世界物體在2D圖像中很容易受到其他物體遮擋,2D感知只能感知可見的目標,而在BEV空間內(nèi),算法可以基于先驗知識,對被遮擋的區(qū)域進行預(yù)測。再有就是BEV視角下,感知和決策規(guī)劃有機地融為一體,依靠Freespace或者說Occupancy Grid提供直接路徑規(guī)劃,無需中間計算環(huán)節(jié),速度和準確度都大幅提升。

6dd164c4-205f-11ee-962d-dac502259ad0.png

BEV可以分為基于深度/幾何信息的和基于深度學(xué)習的兩大類。

基于深度/幾何信息的 BEV 是正向思維,采用自底向上、從2D 到3D 的方式,先在2D視角預(yù)測每個像素的深度再通過內(nèi)外參投影到 BEV空間通過多視角的融合生成BEV特征,但對深度的估計一直都是難點。不過激光雷達和雙目都可以提供準確的深度信息完全不是難點。純單目的方式典型代表就是SFM,用SFM 推測深度信息。Mobileye 可以用SFM 做出BEV,但目前來看還似乎是沒有使用,還是2D 平視。

基于深度學(xué)習的 BEV是逆向思維,采用自頂向下、從3D到2D 的方式,先在 BEV 空間初始化特征,再通過多層transformer 與每個圖像特征進行交互融合,最終再得到 BEV特征。這就是特斯拉的BEVFormer。

早期自動駕駛研究階段都是頭頂64線或128線360度Velodyne機械激光雷達,就是為了制造BEV視角,但是要到落地階段,Velodyne的64線或128線激光雷達顯然無法商業(yè)化。

6df566c6-205f-11ee-962d-dac502259ad0.png

激光雷達制造的BEV

于是才有了純攝像頭的BEV。BEV是連接時空的理想橋梁。對于人類視覺感知系統(tǒng)來說,時間信息在推斷目標的運動狀態(tài)和識別遮擋目標方面起著至關(guān)重要的作用,視覺領(lǐng)域的許多工作已經(jīng)證明了視頻數(shù)據(jù)的有效性。然而,現(xiàn)有最先進的多攝像頭3D檢測方法很少利用時間信息。應(yīng)用Transformer(空域)結(jié)構(gòu)和Temporal結(jié)構(gòu)(時域)從多攝像頭輸入生成鳥瞰圖(BEV)特征。BEVFormer利用查詢查找空域和時域,并相應(yīng)地聚合時-空信息,有利于實現(xiàn)感知任務(wù)的更強表征。

Transformer是一種基于注意力機制(Attention)的神經(jīng)網(wǎng)絡(luò)模型,由Google在2017年提出。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)RNN和CNN不同,Transformer不會按照串行順序來處理數(shù)據(jù),而是通過注意力機制,去挖掘序列中不同元素的聯(lián)系及相關(guān)性,這種機制背后,使得Transformer可以適應(yīng)不同長度和不同結(jié)構(gòu)的輸入。利用多個無序輸入之間的自注意力來探索視圖到視圖的關(guān)系。將多視圖3D重建問題重新表述為一個序列到序列的預(yù)測問題,并將特征提取和視圖融合統(tǒng)一在單個transformer網(wǎng)絡(luò)中。

另一方面,在Transformer模型中,自注意力機制在任意數(shù)量的輸入標記內(nèi)顯示出其學(xué)習復(fù)雜語義抽象的強大能力,并且自然地適合于探索3D目標不同語義部分的視圖到視圖關(guān)系。鑒于此,transformer的結(jié)構(gòu)成為多視圖3D重建最吸引人的解決方案,transformer配合語義分割有更好的效果,傳統(tǒng)的CNN也有不錯的3D重建。

6e2f124a-205f-11ee-962d-dac502259ad0.png

BEVFormer整體架構(gòu)

需要指出BEVFormer有兩個概念,一個是南京大學(xué)、上海AI實驗室和香港大學(xué)提出的,見論文《BEVFormer: Learning Bird’s-Eye-View Representation from Multi-CameraImages via Spatiotemporal Transformers》,另一個是人們根據(jù)特斯拉AI日中的介紹,認為特斯拉的感知結(jié)合了BEV和Transformer,因此稱其為BEVFormer。特斯拉不會公布自己的源代碼,而《BEVFormer: Learning Bird’s-Eye-ViewRepresentation from Multi-Camera Images via Spatiotemporal Transformers》內(nèi)附源代碼。

特斯拉自己對BEV + Transformer的叫法應(yīng)該是Multi-CamVector Space Predictions。

6e4e29f0-205f-11ee-962d-dac502259ad0.png

其內(nèi)部構(gòu)造可以參考FACEBOOK的論文《End-to-End Object Detection with Transformers》

6e6f8a28-205f-11ee-962d-dac502259ad0.png

特斯拉圖像到BEV的Transformer

6e90b374-205f-11ee-962d-dac502259ad0.png

特斯拉視覺系統(tǒng)整體架構(gòu),BEV+Transformer也就是第二層的Multi-camFusion+矢量空間。

特斯拉的第一層的BiFPN也值得一提。BiFPN當然也不是特斯拉創(chuàng)造的,它的詳細理論參見論文《EfficientDet: Scalable and Efficient Object Detection》,作者是谷歌大腦研究小組。

6ecb61d6-205f-11ee-962d-dac502259ad0.png

BiFPN準確率很高,消耗算力比傳統(tǒng)的ResNet要低很多。

Mobileye的算力不高,不是AI算力不高,CPU算力也不高,GPU幾乎為零,因此Mobileye將環(huán)境模型分成4部分,降低計算密度。

6ef2836a-205f-11ee-962d-dac502259ad0.png

針對4個子目錄有不同的處理技術(shù)

6f352e54-205f-11ee-962d-dac502259ad0.png

這其中的語義分割和特斯拉的Occupancy Grid基本一致,只是特斯拉是基于BEV視角的。

6f91617e-205f-11ee-962d-dac502259ad0.png

Mobileye的語義分割,Mobileye早在2018年就提出此項技術(shù)并于2019年商業(yè)化落地,技術(shù)實力還是很不錯的。

表面上看,特斯拉和Mobileye的SuperVision的思路一致,但Transformer的使用讓特斯拉明顯遠比Mobileye要強大,不過一代FSD或者說HW3.0能跑BEVFormer嗎?典型的NLP用Transformer參數(shù)是10億個,針對視頻的可能會有20億個,按照汽車行業(yè)慣用的INT8格式,意味著Transformer模型大小是2GB。特斯拉初代 FSD 使用的 LPDDR4,型號是MT53D512M32D2DS-046 AAT,容量為16Gb,總共 8 片,I/O 頻率 2133MHz,其帶寬為 2.133*64/8,即 17.064GB/s,由于DDR是雙通道,所以帶寬是34.12GB/s,這里非常抱歉,以前的算法有錯誤(錯誤照搬了英偉達的張量并行模式),嚴重高估了內(nèi)存帶寬。

順便指出像ChatGPT這種大模型,英偉達是采用張量并行的方式計算,因此如果是8張H100顯卡,英偉達是將權(quán)重模型一分為8,等同于內(nèi)存帶寬增加了8倍,但是張量并行是針對多張顯卡服務(wù)器設(shè)計的,對于車載領(lǐng)域,Transformer還未聽說用張量并行的,張量并行也是英偉達獨創(chuàng)的。內(nèi)存帶寬僅有34.12GB/s是無法流暢運行Transformer的,因為每分鐘單單讀入權(quán)重模型的次數(shù)最高也不過17次,還未包括處理數(shù)據(jù)的時間和路徑規(guī)劃所需要的時間,而智能駕駛需要幀率至少是每秒30幀,也就是每秒30次以上計算,那么內(nèi)存帶寬至少要能支持每秒60次讀入,也就是帶寬要增加3倍以上。

不僅是內(nèi)存帶寬,Transformer不僅對AI算力需求大,對CPU的標量算力需求也大,初代FSD僅有12個ARM Cortex-A72,這是不夠的。二代FSD或者說HW4.0用了昂貴的GDDR6,帶寬大幅增加,CPU核心也從12個增加到20個,勉強可以跑Transformer。不過GDDR6雖然帶寬高,但速度低,用在CPU領(lǐng)域并不合適。

70cdce24-205f-11ee-962d-dac502259ad0.png

服務(wù)器領(lǐng)域內(nèi)存是分開的,CPU用強調(diào)速度的DDR5,GPU用強調(diào)帶寬的HBM3。但汽車領(lǐng)域是CPU+GPU(AI),一般廠家都選擇LPDDR5(LP是低功耗的意思),照顧CPU更多,特斯拉為了強調(diào)AI算力,用了GDDR6。

初代FSD可能還上不了BEVFormer,與Mobileye的SuperVision效果相比,Mobileye的像素遠高于初代FSD,有效距離更遠,安全系數(shù)更高。但二代FSD就目前來看,是可以全面勝過SuperVision的,不過即使是美國市場,二代FSD估計也要等到2024年才會上市,中國市場估計要到2025年甚至2026年,屆時Mobileye或許也有技術(shù)升級。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2894

    瀏覽量

    107652
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    9234

    瀏覽量

    85638
  • Mobileye
    +關(guān)注

    關(guān)注

    2

    文章

    130

    瀏覽量

    33799

原文標題:Mobileye和特斯拉差距在哪?

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Mobileye牽手Innoviz合作激光雷達用于其Mobile Drive平臺

    自動駕駛和駕駛輔助技術(shù)的全球領(lǐng)導(dǎo)者Mobileye 和Innoviz今天宣布,Mobileye將在Mobileye Drive平臺上使用innoviz的激光雷達。這展示了Innoviz的激光雷達在
    的頭像 發(fā)表于 12-12 18:41 ?816次閱讀

    Mobileye端到端自動駕駛解決方案的深度解析

    自動駕駛技術(shù)正處于快速發(fā)展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領(lǐng)域占據(jù)一席之地。Mobileye作為全球自動駕駛技術(shù)的領(lǐng)軍企業(yè)之一,憑借其獨特的端到端自動駕駛解決方案,展現(xiàn)了
    的頭像 發(fā)表于 10-17 09:35 ?385次閱讀
    <b class='flag-5'>Mobileye</b>端到端自動駕駛解決方案的深度解析

    采用LP875761—Q1的Mobileye EyeQ4高電源設(shè)計

    電子發(fā)燒友網(wǎng)站提供《采用LP875761—Q1的Mobileye EyeQ4高電源設(shè)計.pdf》資料免費下載
    發(fā)表于 09-18 10:42 ?0次下載
    采用LP875761—Q1的<b class='flag-5'>Mobileye</b> EyeQ4高電源設(shè)計

    Mobileye關(guān)閉激光雷達研發(fā)部門

    Mobileye Global近期宣布了一項重大戰(zhàn)略調(diào)整,決定終止其內(nèi)部對下一代調(diào)頻連續(xù)波(FMCW)激光雷達的研發(fā)項目,該項目原旨在增強自動駕駛及高度自動駕駛系統(tǒng)的性能。隨著這一決定的實施,Mobileye的激光雷達研發(fā)部門將于2024年底正式關(guān)閉,此舉預(yù)計將影響約10
    的頭像 發(fā)表于 09-10 15:56 ?381次閱讀

    英特爾醞釀出售Mobileye股權(quán)以應(yīng)對挑戰(zhàn)

    面對全球科技行業(yè)的持續(xù)變革與自身業(yè)務(wù)的戰(zhàn)略調(diào)整,英特爾公司(Intel)正考慮對其自動駕駛系統(tǒng)領(lǐng)域的核心資產(chǎn)——Mobileye Global進行部分股權(quán)的出售。這一舉措標志著英特爾在全面審視其業(yè)務(wù)版圖后,可能采取的重大財務(wù)與戰(zhàn)略調(diào)整。
    的頭像 發(fā)表于 09-06 16:31 ?492次閱讀

    為什么OPA365和OPA2365的輸出電壓vs輸出電流曲線會有很大的差距

    請教一下為什么OPA365和OPA2365的輸出電壓vs輸出電流曲線會有很大的差距。、 在輸出同樣的電流的情況下,例如30mA,25C時,OPA365還能輸出2V以上,而OPA2365只有大概
    發(fā)表于 08-12 08:20

    EyeQ6 High芯片與Chauffeur平臺為2025年鋪路,Mobileye進階智能駕駛系統(tǒng)方案

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)近日,Mobileye發(fā)布2024年第二季度財報顯示,Mobileye營收為4.39億美元,同比下降3%,其中EyeQ SoC的相關(guān)營收下跌10%。調(diào)整后營業(yè)利潤同比
    的頭像 發(fā)表于 08-08 00:19 ?6250次閱讀
    EyeQ6 High芯片與Chauffeur平臺為2025年鋪路,<b class='flag-5'>Mobileye</b>進階智能駕駛系統(tǒng)方案

    極氪與Mobileye攜手加速自動駕駛技術(shù)中國本地化

    近日,新能源汽車品牌極氪汽車與以色列領(lǐng)先的自動駕駛技術(shù)巨頭Mobileye宣布了一項重要合作計劃,旨在加速雙方在中國市場的技術(shù)本地化進程。此次合作的核心是將Mobileye的SuperVision自動駕駛技術(shù)深度整合至極氪汽車的下一代車型中,共同推動駕駛安全與自動駕駛技術(shù)
    的頭像 發(fā)表于 08-06 10:19 ?678次閱讀

    特斯拉線圈的疑惑

    我和大家都一樣,是一位電子線圈愛好者,現(xiàn)在我的心中醫(yī)只有一個疑問,就是聽別人說特斯拉震蕩線圈可以做到把兩節(jié)電池的輸入功率提升到像空調(diào)那么大,真的可以這樣嗎?求解釋。
    發(fā)表于 07-23 08:03

    特斯拉Q1銷量下滑,比亞迪銷量持續(xù)攀升

    另一新能源龍頭企業(yè)比亞迪也交出亮眼成績單,3月份售出新能源汽車30.25萬輛,較去年同期大幅增長;今年以來累積銷售新能源汽車62.63萬輛,增速達13.44%,持續(xù)擴大與特斯拉之間的差距。
    的頭像 發(fā)表于 04-03 15:57 ?617次閱讀

    大眾汽車和Mobileye加強自動駕駛合作

    美國智能駕駛芯片巨頭Mobileye與大眾汽車集團近日宣布,在自動駕駛領(lǐng)域深化合作,共同推動全新自動駕駛功能在大眾旗下量產(chǎn)車型的應(yīng)用。Mobileye依托其領(lǐng)先的Mobileye
    的頭像 發(fā)表于 03-22 11:46 ?952次閱讀

    Mobileye將為大眾旗下豪華品牌提供駕駛輔助軟件

    英特爾旗下的自動駕駛技術(shù)領(lǐng)軍企業(yè)Mobileye Global宣布,將攜手大眾汽車集團旗下的豪華品牌,包括奧迪、賓利、蘭博基尼和保時捷,共同推動駕駛輔助技術(shù)的發(fā)展。Mobileye將為這些品牌提供先進的駕駛輔助軟件,旨在進一步提升駕駛的安全性和便利性。
    的頭像 發(fā)表于 03-22 11:07 ?811次閱讀

    經(jīng)緯恒潤國內(nèi)首個基于Mobileye EyeQ?6的高級駕駛輔助系統(tǒng)即將量產(chǎn)

    邁出了重要一步。EyeQ6是Mobileye系統(tǒng)集成芯片產(chǎn)品中的最新成員,旨在重新定義基礎(chǔ)和高階ADAS產(chǎn)品的性能和效率。搭載Mobileye先進的基于視覺的感知技
    的頭像 發(fā)表于 01-26 10:02 ?686次閱讀
    經(jīng)緯恒潤國內(nèi)首個基于<b class='flag-5'>Mobileye</b> EyeQ?6的高級駕駛輔助系統(tǒng)即將量產(chǎn)

    英特爾子公司Mobileye與馬興達合作打造下一代智能駕駛技術(shù)

    美國芯片巨頭英特爾的子公司Mobileye,近日宣布與印度汽車制造商馬興達拉(Mahindra & Mahindra)達成一項重要合作。根據(jù)協(xié)議,Mobileye將為馬興達拉的下一代汽車提供先進的駕駛輔助系統(tǒng)(ADAS)技術(shù)。
    的頭像 發(fā)表于 01-12 17:05 ?1089次閱讀

    Mobileye和馬恒達合作開發(fā)完全自動駕駛系統(tǒng)

    在拉斯維加斯舉辦的2024年國際消費電子展(CES 2024)上,Mobileye宣布與印度汽車制造商馬恒達達成合作協(xié)議。根據(jù)協(xié)議,Mobileye將為馬恒達的下一代汽車提供高級駕駛輔助技術(shù),助力馬恒達在印度市場取得更大的增長。
    的頭像 發(fā)表于 01-11 15:01 ?685次閱讀