0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

動量感知規(guī)劃的端到端自動駕駛框架MomAD解析

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 2025-03-18 09:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

端到端自動駕駛框架實現(xiàn)了感知與規(guī)劃的無縫集成,但通常依賴于一次性軌跡預測,這可能導致控制不穩(wěn)定,并且對單頓感知中的遮擋問題較為敏感。為解決這一問題,我們提出了動量感知駕駛框架Momentum-Aware Driving(MomAD),該框架引I入了軌跡動量和感知動量,以穩(wěn)定和優(yōu)化軌跡預測。

MomAD包含兩個核心組件:一是拓撲軌跡匹配(TTM),采用豪斯多夫距離選擇與先前路徑一致的最優(yōu)規(guī)劃查詢,以確保連貫性;二是動量規(guī)劃交互器(MPI),通過交叉注意力機制將選定的規(guī)劃查詢與歷史查詢相結合,擴展靜態(tài)和動態(tài)感知文件。這種豐富的查詢反過來有助于重新生成長時間跨度的軌跡,并降低碰撞風險。為了減輕動態(tài)環(huán)境和檢測誤差帶來的噪聲,我們在訓練過程中引入了魯棒的實例去噪,使規(guī)劃模型能夠專注于關鍵信號并提高其魯棒性。我們還提出了一種新的軌跡預測一致性(TPC)指標,用于定量評估規(guī)劃的穩(wěn)定性。

在nuScenes數(shù)據(jù)集上的實驗表明,MomAD在長期一致性(>3s)方面優(yōu)于現(xiàn)有的最先進方法。此外,在精心設計的Turning-nuScenes數(shù)據(jù)集上的評估顯示,MomAD在6秒預測時間范圍內(nèi)將碰撞率降低了26%,并將TPC提高了0.97米(33.45%),而在Bench2Drive上的閉環(huán)測試中,成功率提高了16.3%。

? 論文鏈接:

https://arxiv.org/abs/2503.03125

?論文代碼:

https://github.com/adept-thu/MomAD

研究背景

自動駕駛技術經(jīng)歷了從模塊化到更集成化的端到端范式的轉變。傳統(tǒng)方法將檢測、跟蹤、地圖構建、運動預測和規(guī)劃等任務分開處理,而端到端框架則強調(diào)這些任務的無縫集成。通過優(yōu)先考慮規(guī)劃,端到端框架能夠戰(zhàn)略性地引導來自上游感知模塊的信息,從而增強動態(tài)駕駛環(huán)境中的魯棒性和可靠性。高質量的規(guī)劃依賴于準確預測自車未來的軌跡,這需要對靜態(tài)和動態(tài)環(huán)境因素(如地圖元素和與周圍交通參與者的交互)有長遠的理解。

然而,由于其他道路使用者意圖的不確定性、道路條件的變化以及人類駕駛行為引入的模糊性,軌跡預測本質上是隨機的,這使得確定性預測變得次優(yōu)甚至具有風險。現(xiàn)有的多模態(tài)軌跡規(guī)劃方法雖然能夠考慮多種可能的交通參與者行為,但它們通常是基于當前感知幀的一次性預測,容易受到遮擋或關鍵視覺線索丟失的影響,導致軌跡質量下降。此外,缺乏時間一致性可能導致連續(xù)軌跡缺乏連貫性,引發(fā)不穩(wěn)定的車輛控制。為了解決這些問題,本文提出了動量感知駕駛框架 (MomAD) ,通過引入軌跡動量和感知動量來穩(wěn)定和優(yōu)化軌跡預測,從而在動態(tài)駕駛環(huán)境中實現(xiàn)更平滑和一致的規(guī)劃結果。

81471886-fff7-11ef-9310-92fbcf53809c.png

根據(jù)上圖對比我們可以看到,(a) 確定性規(guī)劃的方案,缺乏動作多樣性,存在安全風險;(b)多模態(tài)軌跡規(guī)劃方案,通過選擇最高分軌跡,但存在最大分數(shù)偏移問題導致穩(wěn)定性不足;(c)我們提出的MomAD巧妙利用“慣性”的思想,通過動量規(guī)劃,利用歷史和感知動量提升時序一致性,解決端到端自動駕駛中不穩(wěn)定行駛的問題。

研究方法

Topological Trajectory Matching

該模塊通過Hausdorff距離選擇與歷史路徑最匹配的多模態(tài)軌跡提案,以確保時序一致性和軌跡的連續(xù)性。具體來說,TTM模塊通過最小化不同時間步之間的規(guī)劃差異,防止軌跡偏離歷史軌跡。

Momentum Planning Interactor

該模塊通過長時查詢混合器將當前最佳規(guī)劃查詢與歷史規(guī)劃查詢進行交叉注意力處理,擴展靜態(tài)和動態(tài)感知文件,從而豐富當前查詢的上下文信息。MPI模塊通過結合歷史查詢和當前查詢,生成改進的軌跡預測,增強了對周圍環(huán)境的感知能力。

Robust Instance Denoising via

Perturbation

在訓練過程中引入受控噪聲擾動,使模型能夠區(qū)分關鍵和無關特征,提高對感知噪聲的魯棒性。通過這種方式,模型在測試時能夠更好地應對實例特征的波動,生成更穩(wěn)定和平滑的軌跡。

81517bfa-fff7-11ef-9310-92fbcf53809c.png

結果與分析

816282c4-fff7-11ef-9310-92fbcf53809c.png

如表所示,MomAD在L2誤差、碰撞率和TPC(軌跡預測一致性)上分別達到了0.60米、0.09%和0.54米。與UniAD、VAD和SparseDrive等最先進方法相比,我們的方法在規(guī)劃結果上表現(xiàn)出色。值得注意的是,我們在TPC指標上取得了顯著改進,在nuScenes數(shù)據(jù)集上1秒、2秒和3秒的TPC分別提升了0.30米、0.53米和0.78米,直接證明了我們在時間一致性方面的有效性。

總體而言,MomAD有效利用了動量的平滑優(yōu)勢,在提升時間一致性方面效果顯著。

816f19c6-fff7-11ef-9310-92fbcf53809c.png

準確的長軌跡預測對于提升自動駕駛的穩(wěn)定性至關重要,同時也有助于評估模型解決多模態(tài)軌跡規(guī)劃中時間一致性問題的能力。如表所示,我們在nuScenes和Turning-nuScenes數(shù)據(jù)集上對比了SparseDrive和MomAD在4-6秒長軌跡預測中的表現(xiàn),結果顯示MomAD在性能上有顯著提升。

具體而言,在nuScenes數(shù)據(jù)集中,與SparseDrive相比,MomAD在4秒、5秒和6秒的L2誤差分別降低了0.09米(5.14%)、0.34米(14.66%)和0.50米(16.95%),碰撞率分別降低了0.04%、0.11%和0.20%,TPC(軌跡預測一致性)分別降低了0.14米(10.53%)、0.21米(12.65%)和0.38米(19.10%)。

此外,在Turning-nuScenes數(shù)據(jù)集中,與SparseDrive相比,MomAD在4秒、5秒和6秒的L2誤差分別降低了0.27米(13.04%)、0.64米(23.62%)和0.85米(25.30%),碰撞率分別降低了0.06%、0.14%和0.26%,TPC分別降低了0.17米(11.04%)、0.73米(31.60%)和0.97米(32.45%)。

可以觀察到,MomAD在更遠距離的軌跡預測上表現(xiàn)顯著提升,尤其是在6秒時的改進幅度最大??傮w而言,MomAD提升了長軌跡預測的性能,進一步證明了其能夠有效緩解時間一致性問題。

817ee928-fff7-11ef-9310-92fbcf53809c.png

我們已在Bench2Drive數(shù)據(jù)集上進行了具有挑戰(zhàn)性的閉環(huán)評估,結果如表所示。該數(shù)據(jù)集涵蓋44個交互場景,例如切入、超車、繞行,以及220條路線,覆蓋多種天氣條件和地點。我們的MomAD框架在成功率上分別比VAD多模態(tài)變體和SparseDrive分別提高了16.3%和8.4%,并在舒適度評分(軌跡平滑度)上分別提升了7.2%和5.3%,證明了其有效性。

結論

MomAD框架通過引入軌跡動量和感知動量,顯著提高了端到端自動駕駛系統(tǒng)在軌跡規(guī)劃中的穩(wěn)定性和魯棒性。未來工作將探索擴散模型和推測解碼方法,以進一步提高軌跡多樣性和效率。

.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3517

    瀏覽量

    50379
  • 數(shù)據(jù)集

    關注

    4

    文章

    1223

    瀏覽量

    25430
  • 自動駕駛
    +關注

    關注

    788

    文章

    14307

    瀏覽量

    170536

原文標題:CVPR 2025|MomAD:動量感知規(guī)劃的端到端自動駕駛

文章出處:【微信號:horizonrobotics,微信公眾號:地平線HorizonRobotics】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    自動駕駛中基于規(guī)則的決策和大模型有何區(qū)別?

    自動駕駛架構的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構到現(xiàn)在火熱的大模型,尤其是在2024年特斯拉推出FSD V12后,各
    的頭像 發(fā)表于 04-13 09:38 ?2897次閱讀
    <b class='flag-5'>自動駕駛</b>中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有何區(qū)別?

    未來已來,多傳感器融合感知自動駕駛破局的關鍵

    巨大的進展;自動駕駛開始摒棄手動編碼規(guī)則和機器學習模型的方法,轉向全面采用的神經(jīng)網(wǎng)絡AI系統(tǒng),它能模仿學習人類司機的駕駛,遇到場景直接
    發(fā)表于 04-11 10:26

    即插即用的自動駕駛LiDAR感知算法盒子 RS-Box

    ,即可快速、無縫地將激光雷達感知模塊嵌入自己的無人駕駛方案中,真正實現(xiàn)“一鍵獲得自動駕駛激光雷達環(huán)境感知能力”。RS-BoxLiDAR
    發(fā)表于 12-15 14:20

    自動駕駛技術的實現(xiàn)

    的帶寬有了更高的要求。從而使用以太網(wǎng)技術及中央域控制(Domain)和區(qū)域控制(Zonal)架構是下一代車載網(wǎng)絡的發(fā)展方向。然而對于自動駕駛技術的實現(xiàn),涉及感知、規(guī)劃、執(zhí)行三個層面。
    發(fā)表于 09-03 08:31

    如何基于深度神經(jīng)網(wǎng)絡設計一個自動駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡設計一個自動駕駛模型?如何設計一個基于增強學習的自動駕駛決策系統(tǒng)?
    的頭像 發(fā)表于 04-29 16:44 ?5289次閱讀
    如何基于深度神經(jīng)網(wǎng)絡設計一個<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>自動駕駛</b>模型?

    自動駕駛到底是什么?

    UniAD 統(tǒng)一自動駕駛關鍵任務,但是的訓練難度極大,對數(shù)據(jù)的要求和工程能力的要求比常規(guī)的技術棧要高,但是由此帶來的全局一致性讓整個系統(tǒng)變得更加簡潔,也能夠防止某個模塊進入局部最
    發(fā)表于 06-28 14:47 ?4302次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>到底是什么?

    基于矢量化場景表征的自動駕駛算法框架

    在ICCV 2023上,地平線和華中科技大學提出基于矢量化場景表征的自動駕駛算法——VAD。VAD擯棄了柵格化表征,對整個駕駛場景進行
    發(fā)表于 08-31 09:28 ?1681次閱讀
    基于矢量化場景表征的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>算法<b class='flag-5'>框架</b>

    理想汽車自動駕駛模型實現(xiàn)

    理想汽車在感知、跟蹤、預測、決策和規(guī)劃等方面都進行了模型化,最終實現(xiàn)了的模型。這種模型不僅完全模型化,還能夠虛擬化,即在模擬環(huán)境中進行
    發(fā)表于 04-12 12:17 ?710次閱讀
    理想汽車<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型實現(xiàn)

    實現(xiàn)自動駕駛,唯有

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?1513次閱讀
    實現(xiàn)<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    Mobileye自動駕駛解決方案的深度解析

    強大的技術優(yōu)勢。 Mobileye的解決方案概述 1.1 什么是
    的頭像 發(fā)表于 10-17 09:35 ?831次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度<b class='flag-5'>解析</b>

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復雜罕見的
    的頭像 發(fā)表于 11-07 15:15 ?702次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>

    自動駕駛技術研究與分析

    編者語:「智駕最前沿」微信公眾號后臺回復:C-0450,獲取本文參考報告:《自動駕駛行業(yè)研究報告》pdf下載方式。 自動駕駛進入202
    的頭像 發(fā)表于 12-19 13:07 ?881次閱讀

    一文帶你厘清自動駕駛架構差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術飛速發(fā)展,智能駕駛系統(tǒng)的設計思路也經(jīng)歷了從傳統(tǒng)模塊化架構
    的頭像 發(fā)表于 05-08 09:07 ?288次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構差異

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術落地,(End-to-End)大模型也成為行業(yè)研究與應用的熱門方向。相較于傳統(tǒng)自動駕駛
    的頭像 發(fā)表于 07-04 16:50 ?201次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD
    的頭像 發(fā)表于 07-05 15:40 ?388次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品