0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

端到端的自動駕駛研發(fā)系統(tǒng)介紹

WpOh_rgznai100 ? 來源:lq ? 2019-07-13 09:30 ? 次閱讀

導(dǎo)讀:近日,吳恩達的 Drive.ai 被蘋果收購的消息給了自動駕駛領(lǐng)域一記警鐘,但這個領(lǐng)域的進展和成果猶在。本文將介紹一些端到端的自動駕駛研發(fā)系統(tǒng),讓讀者可以從系統(tǒng)層面對自動駕駛有更加深刻的認識。

雖然不贊成,但有必要列出來這種研究和demo工作。

英偉達駕駛員模擬

Nvidia是比較早做端到端控制車輛工作的公司,其方法訓(xùn)練CNN模型完成從單個前向攝像頭的圖像像素到車輛控制的映射。 其系統(tǒng)自動學(xué)習(xí)一些處理步驟的內(nèi)部表示,比如只用轉(zhuǎn)向角作為訓(xùn)練信號去檢測道路特征。

下圖是其CNN模型訓(xùn)練的流程圖,采用BP算法。而下下圖是模型推理的框圖,這時候只用一個中間的攝像頭。

下圖給出其數(shù)據(jù)收集系統(tǒng)的框架,包括3個攝像頭(左,右,中)輸入,輸出控制方向盤。

PilotNet如圖CNN模型架構(gòu)細節(jié),有2700萬個連結(jié),25萬個參數(shù)。

駕駛仿真器

可以看出,這個模型不學(xué)習(xí)速度調(diào)整模型,如自適應(yīng)巡航控制(ACC)那樣。當年,該系統(tǒng)曾在舊金山的著名觀景九曲花街做過演示,的確不需要控制速度,但是障礙物造成剎車也會造成人為接管。

Comma.ai 與 OpenPilot 駕駛模擬器

Comma.ai作為向特斯拉和Mobileye的視覺方法挑戰(zhàn)的黑客,的確在端到端的自動駕駛開發(fā)是最早的探索者。

其思想就是克隆駕駛員的駕駛行為,并模擬今后道路的操作規(guī)劃。采用的深度學(xué)習(xí)模型是基于GAN (generative adversarial networks)框架下的VAE(variational autoencoders)。利用一個行動(action)條件RNN模型通過15幀的視頻數(shù)據(jù)來學(xué)習(xí)一個過渡模型(transition model)。下圖給出了這個模擬器模型的架構(gòu),其中基于RNN的過渡模型和GAN結(jié)合在一起。

曾經(jīng)在網(wǎng)上銷售其系統(tǒng):

該方法沒有考慮感知模塊的單獨訓(xùn)練,安全性較差,比如缺乏障礙物檢測,車道線檢測,紅綠燈檢測等等。

從大規(guī)模視頻中學(xué)習(xí) E2E 駕駛模型

目的是學(xué)習(xí)一種通用的車輛運動模型,而這個端到端的訓(xùn)練架構(gòu)學(xué)會從單目相機數(shù)據(jù)預(yù)測今后車輛運動的分布。如圖應(yīng)用一個FCN-LSTM 結(jié)構(gòu)做到這種運動軌跡預(yù)測。

這種通用模型,輸入像素,還有車輛的歷史狀態(tài)和當今狀態(tài),預(yù)測未來運動的似然函數(shù),其定義為一組車輛動作或者運動粒度(離散和連續(xù))。圖將這種方法和其他兩個做比較: “中介感知(Mediated Perception)“ 方法依賴于語義類別標簽;“運動反射(Motion Reflex)” 方法完全基于像素直接學(xué)習(xí)表示; 而 FCN-LSTM ,稱為“特權(quán)訓(xùn)練(Privileged Training)“ 方法,仍然從像素學(xué)習(xí),但允許基于語義分割的附加訓(xùn)練。

基于逆向強化學(xué)習(xí)的人類自主駕駛開放框架

基于一個開放平臺,包括了定位和地圖的車道線檢測模塊,運動目標檢測和跟蹤模塊(DATMO),可以讀取車輛的里程計和發(fā)動機狀態(tài)。采用逆增強學(xué)習(xí)(IRL)建立的行為學(xué)習(xí)規(guī)劃模塊(BEhavior Learning LibrarY,Belly) ,其中特征右橫向偏移,絕對速度,相對車速限制的速度和障礙物的碰撞距離,輸出規(guī)劃的軌跡。圖是其系統(tǒng)框圖。

通過條件模仿學(xué)習(xí)進行端到端駕駛

模擬學(xué)習(xí)有缺陷,無法在測試時候控制,比如在交叉路口打U-turn。

提出條件模擬學(xué)習(xí)(Condition imitation learning),有以下特點:

訓(xùn)練時候,輸入的不僅是感知和控制,還有專家的意圖。

測試時候,直接輸入命令,解決了感知電機(perceptuomotor)的多義性(ambiguity),同時可以直接被乘客或者拓撲規(guī)劃器控制,就像駕駛員的一步一步操作。

無需規(guī)劃,只需考慮駕駛的表達問題。

復(fù)雜環(huán)境下的視覺導(dǎo)航成為可能。

下面是實現(xiàn)條件模擬學(xué)習(xí)的兩個NN架構(gòu):

第一個:命令輸入。命令和圖像等測試數(shù)據(jù)一起作為輸入,可以用指向任務(wù)的向量取代命令構(gòu)成任務(wù)條件的模擬學(xué)習(xí)。

第二個:分支。命令作為一個開關(guān)在專用的子模塊之間的切換。

物理系統(tǒng):

虛擬和實際環(huán)境:

自動駕駛的失敗預(yù)測

駕駛模型在交通繁忙的地區(qū)、復(fù)雜的路口、糟糕的天氣和照明條件下很可能失敗。而這里就想給出一個方法能夠?qū)W習(xí)如何預(yù)測這些失敗出現(xiàn),意識是估價某個場景對一個駕駛模型來說有多困難,這樣可以提前讓駕駛員當心。

這個方法是通過真實駕駛數(shù)據(jù)開發(fā)一個基于攝像頭的駕駛模型,模型預(yù)測和真實操作之間的誤差就稱為錯誤度。 這樣就定義了“場景可駕駛度(Scene Drivability),其量化的分數(shù)即安全和危險(Safe and Hazardous),圖給出整個架構(gòu)圖。

圖是失敗預(yù)測模型訓(xùn)練和測試的流程圖。預(yù)測失敗其實是對駕駛模型的考

驗,能及時發(fā)現(xiàn)不安全的因素。

結(jié)果如下

基于激光雷達的完全卷積神經(jīng)網(wǎng)絡(luò)

驅(qū)動路徑生成

Note:past path (red),Lidar-IMU-INT’s future path prediction (blue).

這是一個機器學(xué)習(xí)方法,通過集成激光雷達點云,GPS-IMU數(shù)據(jù)和Google地圖導(dǎo)航信息而產(chǎn)生駕駛通路。還有一個FCN模型一起學(xué)習(xí)從真實世界的駕駛序列得到感知和駕駛通路。產(chǎn)生與車輛控制相接近并可理解的輸出,有助于填補低層的景物分解和端到端“行為反射”方法之間的間距。圖給出其輸入-輸出的張量信號,如速度,角速度,意圖,反射圖等等。

下面圖每列中,頂圖是過去/今后(紅/藍)通路預(yù)測,底圖是駕駛意圖近域(左)和駕駛意圖方向(右)。A列是駕駛意圖(右轉(zhuǎn))和直路無出口的分歧,B–D列是存在多個可能方向 。

Note:driving intentionproximity(left),driving

intentiondirection(right).

上圖是FCN模型參數(shù)。

LiDAR視頻駕駛數(shù)據(jù)集:有效學(xué)習(xí)駕駛政策

離散動作預(yù)測,預(yù)測所有可能動作的概率分布。但離散預(yù)測的局限是,只能在有限的定義好的動作進行預(yù)測。連續(xù)預(yù)測是把預(yù)測車輛的現(xiàn)行狀態(tài)作為一個回歸任務(wù),如果準確預(yù)測在實際狀態(tài)的駕駛策略,那么被訓(xùn)練的模型可以成功駕駛車輛。所以,把駕駛過程看成一個連續(xù)的預(yù)測任務(wù),訓(xùn)練一個模型在輸入多個感知信息(包括視頻和點云)后能預(yù)測正確的方向盤轉(zhuǎn)角和車輛速度。

如圖是其系統(tǒng)框圖,其中深度學(xué)習(xí)模型是DNN加LSTM,激光雷達點云通過PointNet提取特征送入深度學(xué)習(xí)模型。

如圖給出傳感器數(shù)據(jù)在進入NN模型之前的預(yù)處理流水線框圖,需要時間同步,空間對齊。

下面圖是深度學(xué)習(xí)模型DNN和DNN+LSTM的架構(gòu)圖

使用環(huán)視攝像機和路線規(guī)劃器進行駕駛模型的端到端學(xué)習(xí)

ETH的工作,采用一個環(huán)視視覺系統(tǒng),一個路徑規(guī)劃器,還有一個CAN總線閱讀器。 采集的駕駛數(shù)據(jù)包括分散的駕駛場景和天氣/照明條件。集成環(huán)視視覺系統(tǒng)和路徑規(guī)劃器(以O(shè)penStreetMap為地圖格式的GPS坐標或者TomTom導(dǎo)航儀)的信息,學(xué)習(xí)基于CNN,LSTM和FCN的駕駛模型,如圖所示。

實驗中,與采用單前向攝像頭訓(xùn)練的模型還有人工操作比較(藍/黃/紅),如圖所示:其中(1)-(3)對應(yīng)三種不同的模型訓(xùn)練結(jié)果,即(1)只用TomTom路徑規(guī)劃器訓(xùn)練,(2)只用環(huán)視視覺系統(tǒng)訓(xùn)練, (3)用環(huán)視視覺和TomTom路徑規(guī)劃器一起訓(xùn)練。

深度學(xué)習(xí)的模型架構(gòu),包括路徑規(guī)劃器和環(huán)視系統(tǒng)5個輸入通道,輸出到方向

盤和加速踏板。

下面結(jié)果是左右拐彎時候的三種方法比較:人,前向攝像頭和環(huán)視視覺加TomTom導(dǎo)航儀。

目前,該還沒有加入目標檢測和跟蹤的模塊(當然還有紅綠燈識別,車道線檢測之類的附加模塊),但附加的這些模型能夠改進整個系統(tǒng)的性能。

佐治亞理工學(xué)院端到端學(xué)習(xí)自動駕駛

還是模擬學(xué)習(xí):采用DNN直接映射感知器數(shù)據(jù)到控制信號。下面系統(tǒng)框圖:

下面是DNN 控制策略:

TRI自動駕駛端到端控制

端到端DNN訓(xùn)練,提出一種自監(jiān)督學(xué)習(xí)方法去處理訓(xùn)練不足的場景。下圖是自監(jiān)督端到端控制的框架:NN編碼器訓(xùn)練學(xué)習(xí)監(jiān)督控制命令,還有量化圖像內(nèi)容的各種非監(jiān)督輸出。

提出新的VAE架構(gòu),如下圖,做端到端控制: 編碼器卷積層之后的圖像特征,進入一個監(jiān)督學(xué)習(xí)方向盤控制的潛在變量(latent variables )的可變空間。最后潛在向量進入解碼器自監(jiān)督學(xué)習(xí)重建原始圖像。

特斯拉 SW 2.0

特斯拉的2.0軟件思想,2018年8月提出。

自動雨刷:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1091

    瀏覽量

    40869
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3899

    瀏覽量

    92831
  • 自動駕駛
    +關(guān)注

    關(guān)注

    788

    文章

    14097

    瀏覽量

    168627

原文標題:從特斯拉到英偉達,那些端到端自動駕駛研發(fā)系統(tǒng)有何不同?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦

    自動駕駛中基于規(guī)則的決策和大模型有何區(qū)別?

    自動駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的大模型,尤其是在2024年特斯拉推出FSD V12后,各車企更是陸續(xù)推出自家的
    的頭像 發(fā)表于 04-13 09:38 ?2092次閱讀
    <b class='flag-5'>自動駕駛</b>中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有何區(qū)別?

    東風(fēng)汽車推出自動駕駛開源數(shù)據(jù)集

    近日,智能網(wǎng)聯(lián)汽車智駕數(shù)據(jù)空間構(gòu)建研討會暨中汽協(xié)會智能網(wǎng)聯(lián)汽車分會、數(shù)據(jù)分會2024年度會議在上海舉辦。會上,東風(fēng)汽車發(fā)布行業(yè)規(guī)模最大、涵蓋125萬組高質(zhì)量數(shù)據(jù)的自動駕駛開源數(shù)據(jù)
    的頭像 發(fā)表于 04-01 14:54 ?369次閱讀

    小米汽車智駕技術(shù)介紹

    后起之秀,小米在宣布造車前被非常多的人質(zhì)疑,但在“真香”定律下,小米創(chuàng)下了很多友商所不能及的成就。作為科技企業(yè),小米也在智能駕駛領(lǐng)域也不斷研發(fā)及突破,并推送了
    的頭像 發(fā)表于 03-31 18:17 ?3067次閱讀
    小米汽車<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>智駕技術(shù)<b class='flag-5'>介紹</b>

    動量感知規(guī)劃的自動駕駛框架MomAD解析

    自動駕駛框架實現(xiàn)了感知與規(guī)劃的無縫集成,但通常依賴于一次性軌跡預(yù)測,這可能導(dǎo)致控制不穩(wěn)定,并且對單頓感知中的遮擋問題較為敏感。為解決這一問題,我們提出了動量感知
    的頭像 發(fā)表于 03-18 09:31 ?595次閱讀
    動量感知規(guī)劃的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>框架MomAD解析

    DiffusionDrive首次在自動駕駛中引入擴散模型

    ? ? 近年來,自動駕駛成為研究熱點,其核心在于從傳感器數(shù)據(jù)直接學(xué)習(xí)駕駛決策。然而,駕駛
    的頭像 發(fā)表于 03-08 13:59 ?425次閱讀
    DiffusionDrive首次在<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>中引入擴散模型

    自動駕駛技術(shù)研究與分析

    傳遞和全局優(yōu)化的優(yōu)勢,成為智能駕駛技術(shù)發(fā)展的重要方向。與傳統(tǒng)模塊化架構(gòu)相比,技術(shù)通過深度神經(jīng)網(wǎng)絡(luò)實現(xiàn)從傳感器數(shù)據(jù)輸入車輛控制信號輸出
    的頭像 發(fā)表于 12-19 13:07 ?645次閱讀

    自動泊車的應(yīng)用

    與城市環(huán)境的復(fù)雜性和高速公路駕駛的風(fēng)險相比,停車場景的特點是低速、空間有限和高可控性。這些特點為在車輛中逐步部署自動駕駛能力提供了可行
    的頭像 發(fā)表于 12-18 11:38 ?715次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>在<b class='flag-5'>自動</b>泊車的應(yīng)用

    爆火的如何加速智駕落地?

    自動駕駛,唯有?)技術(shù)通過消除模塊間數(shù)據(jù)
    的頭像 發(fā)表于 11-26 13:17 ?709次閱讀
    爆火的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>如何加速智駕落地?

    從車企實踐看自動駕駛解決方案

    中的重要性日益凸顯,這也促使眾多汽車制造商加快了智能化技術(shù)的研發(fā)和工程投入,未能跟上智能化步伐的汽車品牌可能會逐漸失去市場競爭力,自動駕駛技術(shù)的發(fā)展已然進入關(guān)鍵階段,其中
    的頭像 發(fā)表于 11-19 10:55 ?943次閱讀
    從車企實踐看<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>解決方案

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然
    的頭像 發(fā)表于 11-07 15:15 ?544次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>

    Waymo利用谷歌Gemini大模型,研發(fā)自動駕駛系統(tǒng)

    邁新步,為其機器人出租車業(yè)務(wù)引入了一種基于谷歌多模態(tài)大語言模型(MLLM)“Gemini”的全新訓(xùn)練模型——“多模態(tài)自動駕駛模型”(EMMA)。
    的頭像 發(fā)表于 10-31 16:55 ?1448次閱讀

    Mobileye自動駕駛解決方案的深度解析

    強大的技術(shù)優(yōu)勢。 Mobileye的解決方案概述 1.1 什么是
    的頭像 發(fā)表于 10-17 09:35 ?675次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度解析

    實現(xiàn)自動駕駛,唯有

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?1147次閱讀
    實現(xiàn)<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    FPGA在自動駕駛領(lǐng)域有哪些應(yīng)用?

    是FPGA在自動駕駛領(lǐng)域的主要應(yīng)用: 一、感知算法加速 圖像處理:自動駕駛中需要通過攝像頭獲取并識別道路信息和行駛環(huán)境,這涉及大量的圖像處理任務(wù)。FPGA在處理圖像上的運算速度快,可并行性強,且功耗
    發(fā)表于 07-29 17:09

    理想汽車加速自動駕駛布局,成立“”實體組織

    近期,理想汽車在其智能駕駛領(lǐng)域邁出了重要一步,正式成立了專注于“自動駕駛”的實體組織,該組織規(guī)模超過200人,標志著理想在
    的頭像 發(fā)表于 07-17 15:42 ?1501次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品