昨天,我們分享了關于Apollo 3.0的介紹(點此閱讀),在本次技術沙龍中,來自Apollo團隊的高級產品經理-王石峰老師帶了關于自動駕駛硬件系統(tǒng)和Apollo硬件開發(fā)平臺的介紹。
這里,我們將整理后的公開課視頻和資料分享給大家,沒能到達現(xiàn)場的開發(fā)者可以通過視頻和PPT資料來詳細了解課程內容。
演講概要:
本次演講將分享傳感器、計算單元、車輛線控、Apollo 硬件開發(fā)平臺的部分原理和簡介,并介紹自動駕駛系統(tǒng)中感知、決策、控制三大系統(tǒng)對應的硬件。使開發(fā)者能根據(jù)自動駕駛汽車的 ODD(Operational Design Domain)選擇更加適用的硬件選型和方案。
自動駕駛硬件系統(tǒng)及 Apollo 硬件開發(fā)平臺簡介
1自動駕駛汽車的事故分析
首先分析一個事故案例。今年3月,北美有一個自動駕駛車肇事撞人致死的一個事故,6月22日,美國公路交通安全委員會發(fā)布了這個事故報告。報告中顯示,在碰撞發(fā)生前6秒傳感器已經探測到了,碰撞發(fā)生前1.5秒,原車的AEB功能已經啟動,但其執(zhí)行機構并沒有自動采取相應制動措施,導致整個系統(tǒng)沒有閉環(huán)。
另外,該事故在交互設計上也有缺陷。當事故發(fā)生前,傳感器探測到這個人時,并沒有提供警報,司機正在低頭看手機視頻,當他抬頭看到這個行人的時候再處理事故已經來不及了。從事故視碰撞前四秒鐘的截圖可以看出,路面照明不足導致司機很難看到有人過馬路。
目前,自動駕駛的車輛以法律法規(guī)來說都是改裝車,事故車輛是SUV的車型自身重心比較高,所有的傳感器都安裝在車頂導致重心進一步上移。當產生碰撞的時候更有可能會側翻。
2自動駕駛汽車的研發(fā)流程
百度提出了“安全是自動駕駛的第一天條”。如何避免類似事故和問題,要從整個研發(fā)流程當中去考慮。
首先當研發(fā)一輛自動駕駛車輛時,有一個基于仿真模擬器的軟件在環(huán)我們可以將這看成一個賽車的游戲。在仿真環(huán)節(jié)中仿真出道路的路面,以及交通的參照物和各種車輛、各種行人,還有一些天氣信息,比如雨霧或者路面照明信息。代碼跑通了以后,再基于必要的硬件在環(huán)平臺,在傳感器、計算單元等硬件系統(tǒng)上檢測有沒有運行當中的BUG和兼容性問題。之后基于車輛在環(huán),將相關的軟硬件系統(tǒng)集成到車輛平臺上在封閉場地中完成相關測試檢測代碼是否出現(xiàn)了問題。
最后基于司機在環(huán),以百度為例,我們在北京智能網(wǎng)聯(lián)示范區(qū),北京市政府規(guī)劃的道路上基于實際的道路情況研發(fā)測試,不僅能檢測自動駕駛系統(tǒng)的情況,還可以獲得司機的主觀評價和可以驗證人機交互的功能。
3自動駕駛汽車的硬件系統(tǒng)
自動駕駛的硬件系統(tǒng),可以粗略地分為感知、決策、控制三部分(還有定位、地圖、預測等模塊)。自動駕駛不能僅僅考慮系統(tǒng),還要考慮到人的因素。
從車輛運動方面會考慮到車的速度、轉角以及橫滾,俯仰、航向等信息。還有一部分是環(huán)境感知,比如激光雷達、超聲波、攝像頭、毫米波雷達、V2X。V2X能提供超視距功能——當車上了路,很難發(fā)現(xiàn)超傳感器范圍的信息,通過V2X設備會發(fā)送和接受相關信息,車會接收到前方交通的情況。
另外,駕駛員監(jiān)測主要是通過攝像頭和生物電傳感器(放在方向盤里),來判斷駕駛員有沒有手脫離方向盤。也可以檢測司機的精神,比如駕駛員困倦還是精神緊張。
目前L3+級自動駕駛的計算單元主要CPU+GPU+FPGA的架構。T—BOX它向上接的是互聯(lián)網(wǎng),向下是接的CAN總線。比如手機有一個APP,通過T-BOX可以控制車門的開關。黑匣子負責記錄控制指令和車輛行使狀態(tài),事故發(fā)生以后可以用黑匣子來進行事故的認定。車輛控制是一些制動、轉向、發(fā)動機、變速箱,還有警告系統(tǒng),聲音、圖像、振動等。
4自動駕駛汽車的傳感器
自動駕駛使用的感知類的傳感器,主要有激光雷達、毫米波雷達、攝像頭、組合導航。
激光雷達安裝在車頂,目前是360度同軸旋轉,可提供周圍一圈的點云信息。激光雷達不僅用于車輛感知,也用于定位和高精度地圖的測繪。
攝像頭光線通過鏡頭、濾光片到后段的CMOS或CCD集成電路,將光信號轉換成電信號,再經過圖像處理器(ISP)轉換成標準的RAW,RGB或YUV等格式的數(shù)字圖像信號,再通過數(shù)據(jù)傳輸接口傳輸?shù)接嬎銌卧?/p>
毫米波雷達和激光雷達有點類似,基本原理是發(fā)射一束電磁波,通過觀察回波和射入波的差異來計算距離和速度,主要分24G和77G,它的安裝是在保險杠上面。
組合導航是兩部分,一部分是GNSS板卡,通過天線接收GPS和RTK信號,解析計算出自身的空間位置。但是當車輛行駛到林蔭路,或者是有些建筑物,GPS就會沒信號或者產生多徑效應,定位就會產生偏移和不準。此時需要通過INS的信息融合來進行組合運算。GNSS+INS融合在一起就是組合導航系統(tǒng)。
此表羅列出了目前一些L1、L2功能所用的傳感器,包括自動駕駛L3及以上的傳感器。L1、L2的功能傳感器也需要多傳感器融合,但是融合前的一些算法就直接傳輸?shù)搅?a target="_blank">MCU。L3+以上的是多傳感器融合后的信息傳輸?shù)接嬎銌卧鼜挠布軜嬌下杂胁町?。從實現(xiàn)上來說,L1、L2會更在意一些誤檢的情況,比如我們開車突然剎車會很不舒服,而L1、L2主要責任在駕駛員上,所以它對誤檢會非常在意。但是L3+以上自動駕駛是通過系統(tǒng)去承擔主要的駕駛責任,就會對傳感器漏檢非常在意,這是L1、L2和自動駕駛之間的差異。
如何得知自己到底需要什么樣的傳感器?我們可以通過這個公式計算出來,剎車距離公式,也就是通過道路摩擦系數(shù)去計算。自動駕駛要求局限設計適用范圍。目前,我國城市封閉道路限速80,高速最高限速120。通過這個公式能計算出剎車距離,限速120的情況下最少需要150米的探測范圍,如果能到200米會更好。如果有冰雪怎么辦,是不是我們要看到更遠距離?實際不是這樣,國家法有規(guī)定,高速公路,霧天能見度低于50米的情況下,要求限速到20公里每小時。
分辨率是通過反正切函數(shù)來計算的。這里多除以一個2,為什么呢?是為了保證我沒有漏檢的情況, L3+自動駕駛必須保證百分之百檢測到這個物體。所以從這個公式也能得出這張圖,0.4度分辨率的傳感器在一百米以外就可以探測到行人或者車輛,或者在32米能測到一個路錐。
再分析一下傳感器未來的發(fā)展趨勢。目前多傳感器融合,相對來說是后融合。其實攝像頭和激光雷達都是光學傳感器,它們部分核心的零部件包括一些處理電路,元器件都是非常相似的,有希望能把攝像頭和激光雷達前融合到一起。左邊的圖是Aeye公司做的智能感知系統(tǒng)的融合,可以看到融合后可以直接輸出R、G、B、X、Y、Z的信息。右邊是Waymo的原形樣機,它用的就是這種前融合系統(tǒng),可以叫LiCam(Lidar+Camera)。
5自動駕駛汽車的計算單元
自動駕駛汽車的計算單元,必須考慮到冗余設計。所有的CPU、GPU、FPGA都是雙冗余備份,包括總線也是雙冗余備份的。當檢測系統(tǒng)失效的狀況下MCU還能繼續(xù)工作,這是最后的保障,它發(fā)出控制指令給剎車系統(tǒng),讓車輛剎停下來保證安全性。
像這種中央集中式的計算也有缺點——整個單元體積比較大,功耗也比較高。自動駕駛車輛后置一個服務器顯然不容易產業(yè)化,未來產業(yè)化是逐步拆分計算量到邊緣計算。比如說激光雷達、毫米波、攝像頭,都接入到一個Sensor BOX,將對準融合后的數(shù)據(jù)再傳輸?shù)接嬎銌卧M行處理。從整個自動駕駛汽車來看,也會根據(jù)不同的功能設計不同的域控制器,比如車身域控制器、車載娛樂域控制器、動力總成域控制器、自動駕駛域控制器。彼此之間隔離,彼此之間互相不干擾。
Sensor+SOC。舉個例子,Dibotics是一個做激光雷達SlAM算法的公司,它將算法寫到Renesas的R-car芯片上,寫完之后將芯片植入到傳感器,在傳感器端完成相關算法的運算。
介紹一下整個芯片的流程,芯片設計、芯片制造、芯片封測三個流程。選擇芯片設計的IP,再經過EDA進行電子電路布局,做成光罩,經過光刻等多種工藝,生產出一個芯片,再進行芯片的封裝。自動駕駛算法芯片主要恒量指標是功耗、算力和面積。目前整個芯片制造是從16納米向7納米發(fā)展,同等面積7納米對比16納米整個運算力會提升40%,功耗會降低60%。
6自動駕駛汽車的線控系統(tǒng)
自動駕駛車輛的線控系統(tǒng),分減速、轉向和加速三大部分。
上圖是大陸的線控制動解決方案。MK C1將制動助力以及制動壓力控制模塊(ABS、ESC)集成一個制動單元當這個失效的時候還有一個MK 100保證冗余。
自動駕駛車輛的線控轉向系統(tǒng),自動駕駛線控和傳統(tǒng)車輛的EPS非常類似,唯一的差異就是在于冗余。右圖是英菲尼迪Q50線控轉向系統(tǒng),基本上還是延續(xù)了傳統(tǒng)轉向系統(tǒng)的結構。只是增加了一套離合、三組ECU、冗余轉向電機和力度回饋器。
自動駕駛車輛的加速線控系統(tǒng),以往的車輛都有一個油門拉線,油門踏板通過拉線控制氣門開合。目前都是直接通過發(fā)動機管理系統(tǒng)來控制電子油門。
自動駕駛汽車的線控系統(tǒng)可分為三個版本,1.0版對原車的踏板及方向盤進行了物理截斷的改裝,也是俗稱的暴力改裝,由于是后改的并不符合安全性,有時候會漏油和燒電機的情況。2.0版是通過借用原車的ADAS系統(tǒng)來實現(xiàn)線控。3.0版則完全是定制化的,百度阿波龍目前是3.0版,所有的線控都是基于自動駕駛的需求,特別定制化的。
7Apollo硬件開發(fā)平臺
7月4號,百度開發(fā)者大會也推出了硬件開發(fā)平臺,新增了15種硬件傳感器,發(fā)布了Apollo傳感器單元,添加了底層硬件抽象層。
硬件開發(fā)平臺的傳感器單元,就是前面介紹的Sensor Box,將所有的傳感器數(shù)據(jù)都統(tǒng)一到傳感器單元中,完成時間戳的同步將獲得的數(shù)據(jù)傳輸?shù)胶蠖说挠嬎銌卧獊磉M行處理。
后續(xù)會發(fā)布AXU可以提供更多的擴展性,支持更多的硬件設備,滿足不同開發(fā)者的需求。Apollo硬件開發(fā)平臺會完成相關硬件廠家設備的準入工作,涉及到的內核驅動也會在Github上完成合入。
用戶空間庫是給用戶進行一些自定義的。比如每一款車的CAN總線協(xié)議是不同的,可以將相關CAN協(xié)議指令寫在這里。硬件抽象層主要提供數(shù)據(jù)格式轉換和API的功能。另外,添加了硬件抽象層可以保證當某一硬件出現(xiàn)故障時不會導致整個系統(tǒng)崩潰。
從VSI發(fā)布自動駕駛產業(yè)布局圖中可以看出自動駕駛產業(yè),是汽車、新能源、IT通訊、交通運輸、半導體、人工智能、互聯(lián)網(wǎng)等多個10萬億巨無霸產業(yè)的跨界融合體。自動駕駛汽車是物質流、能量流、信息流的聚合體,需要行業(yè)各方深度合作。只有軟硬件深度整合,打通藩籬跨界的企業(yè)才能摘得皇冠上的明珠。
-
自動駕駛
+關注
關注
784文章
13892瀏覽量
166687 -
Apollo
+關注
關注
5文章
342瀏覽量
18481
原文標題:技術沙龍 | 自動駕駛硬件系統(tǒng)及Apollo硬件開發(fā)平臺介紹
文章出處:【微信號:Apollo_Developers,微信公眾號:Apollo開發(fā)者社區(qū)】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論