2023 年 11 月 4 號,“激光雷達助力城市 NOA 駛?cè)肓慨a(chǎn)快車道”技術(shù)分享會在禾賽麥克斯韋智造中心舉辦。禾賽戰(zhàn)略負責(zé)人施葉舟、輕舟智航產(chǎn)品負責(zé)人許諾,與行業(yè)媒體專家、先鋒用戶等,一起就激光雷達如何加速賦能城市 NOA 功能落地進行了深入交流。
激光雷達:
車企競逐城市 NOA 的
“秘密武器”
激光雷達成為車企落地高階智駕功能的必選項
據(jù)近期媒體報道,熱門車型的高階智駕版選裝率已經(jīng)突破了 60% 的占比,消費者對智能駕駛功能的認可和熱情持續(xù)高漲。主機廠方面,國內(nèi)率先落地城市 NOA 的智能車型均搭載了激光雷達;海外布局 L3 智駕功能的頭部車企也都配備了激光雷達。
率先在美國獲得 L3 級智能駕駛運營許可的梅賽德斯-奔馳官方表示:奔馳的 DRIVE PILOT 搭載包含激光雷達在內(nèi)的多個傳感器,足夠的安全冗余對實現(xiàn)安全可靠的 L3 級別智能駕駛是必不可少的。其 2024 年款 S 級和 EQS 轎車車型將會搭載此智駕系統(tǒng)。
本質(zhì)上,是激光雷達具有「抗干擾」「真三維」「高置信度」的優(yōu)勢,能為算法預(yù)測和規(guī)控提供高質(zhì)量的感知輸入。
激光雷達既是智能汽車的「隱形安全氣囊」,更是加速算法開發(fā)落地的「秘密武器」。
MIT:激光雷達夜間融合感知精度是攝像頭的 3 倍
工作原理上,激光雷達能主動發(fā)射人眼安全的不可見光,可以“自己照亮道路”,不依賴外界環(huán)境光,在視線較差的夜晚,也能清晰地還原行車環(huán)境,穩(wěn)定地為算法提供感知數(shù)據(jù)。
在一項 MIT 的研究論文中,作者對比基于攝像頭數(shù)據(jù)的算法和融合了激光雷達數(shù)據(jù)的算法結(jié)果發(fā)現(xiàn):攝像頭算法到了夜晚感知精度有明顯的下降,而通過融合激光雷達,可以將夜晚環(huán)境的感知精度提升至 3 倍。這項研究結(jié)果非常直接地展現(xiàn)了激光雷達對夜晚感知的重要性,能進一步提升夜晚行車的安全。
同樣,在「大光比」「對向強光」等其他攝像頭感知相對較差的場景下,激光雷達仍然能憑借接收自身發(fā)出的紅外光,進行穩(wěn)定的感知輸出。
感知更精準,直擊 AEB 誤觸發(fā)行業(yè)痛點
AEB 功能的推出,是為了幫助車輛減少碰撞,讓行車更加安全。但實際使用過程中,受限于感知精準度,會出現(xiàn) AEB 誤觸發(fā)事件,即在不該剎車的時候剎車,輕的會使得乘坐體驗下降,嚴重的甚至?xí)?dǎo)致后車追尾、車內(nèi)人員受傷。
出現(xiàn)誤觸發(fā)的主要原因是車輛感知精度不足,導(dǎo)致決策失誤,比如在遇到減速帶、車庫轉(zhuǎn)彎、隔離帶、路邊樁桶,如果對距離、尺寸的感知精度不高,會誤以為這些物體阻礙了車輛行駛,威脅到行駛安全,從而觸發(fā) AEB。但通過激光雷達的厘米級精度,車輛能做出更加準確的判斷,諸如:減速帶非常低矮可以通過,隔離帶不在行車路徑上……
從實際效果看,融合了激光雷達的理想 L9 AEB 誤觸發(fā)率已經(jīng)低至 0.31 次/10 萬公里,遠低于行業(yè)水平 1 次/10 萬公里,把誤觸發(fā)率降低了 70%。
極大降低“算法+算力+數(shù)據(jù)”等隱性成本
施葉舟指出,特斯拉堅持視覺算法路線,背后隱含的是數(shù)據(jù)驅(qū)動的邏輯。與這套方案相匹配的是特斯拉通過數(shù)百萬輛車源源不斷采集的數(shù)據(jù),官方統(tǒng)計,截止 2023 年 10 月,Autopilot 累計行駛里程超 90 億英里,F(xiàn)SD beta 累計行駛里程超 5 億英里。
而為了處理這些海量數(shù)據(jù),特斯拉儲備了 14000 塊總價值數(shù)十億的 AI 芯片,可同時處理 1600 億幀圖像。與此同時,特斯拉從 2014 年開始自研芯片,21 年發(fā)布了 7 nm AI 訓(xùn)練芯片以更好地適配算法模型。
“算法+算力+數(shù)據(jù)”,構(gòu)成了后來者難以追趕的競爭壁壘。
從全局看,不光要關(guān)注看得見的顯性成本,更要關(guān)注看不見的隱性成本。拿掉激光雷達看似節(jié)省了一些硬件成本,但車端感知能力的下降,需要在云端投入更多的資源進行開發(fā),極大抬高了隱性成本,在車輛銷量沒有非常高的情況下,這些隱性成本均攤下來實際上遠高于硬件成本。
激光雷達的加入, 讓感知精度領(lǐng)先視覺算法 3 年以上
Nuscenes 是全世界影響力最大的開源數(shù)據(jù)集之一,各大頂尖算法在該數(shù)據(jù)集上進行測試打分。統(tǒng)計發(fā)現(xiàn),視覺算法 2023 年所達到的平均感知精度仍然不及融合激光雷達算法在 3 年前的水平。5
與此同時,激光雷達融合算法也在快速迭代升級,多傳感器數(shù)據(jù)的融合方法從基于目標識別結(jié)果的「后融合」,到特征級的「中融合」,再向著更加底層的「前融合」發(fā)展,平均感知精度在近兩年呈現(xiàn)出了加速提升的趨勢。
無論是語義識別還是占用網(wǎng)絡(luò),
有限的數(shù)據(jù)訓(xùn)練不能覆蓋所有通用障礙物
首先傳統(tǒng)的基于“語義識別”的視覺算法,由于需要預(yù)先設(shè)定物體種類“白名單”,這樣的白名單往往只能涵蓋高頻出現(xiàn)的道路元素和障礙物,例如:機動車、自行車、行人、小孩、水馬、紅綠燈等,最多幾十種類型。按照語義識別的規(guī)則,只有白名單以內(nèi)的物體,才會被準確地標上“標簽”,其余不認識的物體都不能被“框住”,也就是會被算法「漏識別」。
例如 2021 年 FSD 推出之后,2022 年 11 月公開測試6中,特斯拉面對擺在路上的“黑色小狗”模型,仍然徑直開過去,沒有剎車。原因在于,視覺算法模型對于道路出現(xiàn)黑色小狗這樣的場景訓(xùn)練還不足夠,而類似這樣的場景難以通過數(shù)據(jù)訓(xùn)練全部覆蓋,總會有沒見過的“例外”。
視覺占用網(wǎng)絡(luò)的推出仍然不能完全解決以上難題。在一項研究占用網(wǎng)絡(luò)的論文7中,算法在對道路進行網(wǎng)格處理時,不常見的“黑色消防栓”就沒有被檢測為障礙物。究其原因是因為占用網(wǎng)絡(luò)同樣依賴數(shù)據(jù)訓(xùn)練。為了覆蓋更多障礙物的識別,必然伴隨著數(shù)據(jù)采集標注量的增大,對于算法的訓(xùn)練成本投入會持續(xù)增加,但是帶來的邊際效應(yīng)會越來越小。
相比之下,激光雷達則直接得多,不用訓(xùn)練,有無障礙物可以直接基于空間點云的有無進行判斷。
厘米級感知低矮物體,高效追蹤近距離物體
低矮物體的準確判斷也是視覺算法的難點,考慮到低矮物體往往只有十幾厘米或更矮,視覺算法的精度不足以準確測量,因此在沒有明顯的語義特征時,低矮物體“是否識別到”“有多高”“能不能通過”,成為了影響行車體驗?zāi)酥涟踩牟豢煽匾蛩亍?/p>
而激光雷達對高度的測量精度穩(wěn)定在「幾厘米」水準8,即使是低矮物體,也不會出現(xiàn)遺漏。
視覺算法的另一難點是,對于近距離物體的速度監(jiān)測,需要結(jié)合多幀圖像以及海量的算法過程,這樣的復(fù)雜運算大大增加了延時,從而降低了及時性,因此單純靠視覺算法,應(yīng)對「近距離加塞」「擁堵跟車」顯得力不從心,更別提各種突然竄出來的電動車了。
相比而言,激光雷達憑借三維位置信息,通過簡單高效的幾何運算就能獲取速度,就顯得游刃有余的多。從輕舟智航的實測視頻來看,融合激光雷達的感知算法很好地應(yīng)對了各類近距離極限場景。
最后,施葉舟指出,加速城市 NOA 功能量產(chǎn)意味著建立先發(fā)優(yōu)勢,而激光雷達正是加速智駕算法開發(fā)的利器。誰能將感知算法做到好用,將城市 NOA 功能盡快量產(chǎn),誰才能盡早獲得消費者的認可,在智駕的“戰(zhàn)場”上領(lǐng)先一個身位。
城市 NOA 規(guī)模化落地,
迎來“ iPhone 時刻”
——by 輕舟智航產(chǎn)品負責(zé)人許諾
輕舟智航多款標桿產(chǎn)品搭載激光雷達
許諾首先分享了輕舟智航在 L4 自動駕駛、L2+ 高階輔助駕駛量產(chǎn)等多款標桿產(chǎn)品中使用了激光雷達,包括在無人駕駛小巴等“龍舟”系列產(chǎn)品上標配了多個「360° 旋轉(zhuǎn)式圖像級激光雷達 Pandar128」,在高階輔助駕駛解決方案“輕舟”系列 MAX 產(chǎn)品上配置了「超高清遠距激光雷達 AT128」。
在談到激光雷達的作用時,許諾直言,現(xiàn)階段單純依靠視覺方案,很難應(yīng)對中國城市道路中的各類 Corner Case。
“激光雷達,是以投入換時間,加速城市 NOA 落地的捷徑?!?/strong> 許諾這樣概括。
具體表現(xiàn)為四點:
擅長處理城市復(fù)雜場景
當高階輔助駕駛在開放多樣的城區(qū)場景落地過程中,會不斷地遇到從未見過的棘手問題,如何靈活地與近距離車輛博弈,如何在夜間攝像頭視線不佳時穩(wěn)定行駛,如何在沒有車道線的停車樓穿行。輕舟認為,激光雷達對環(huán)境的精準感知,能夠幫助車輛更好地應(yīng)對城市的復(fù)雜場景。
許諾還在 Q&A 時提到:
不同的傳感器是一定會帶來不同的系統(tǒng)差別。舉例來看,如果是視覺感知,當遇到眩光或者當有物體遮擋住傳感器就會降低感知能力,但增加一顆其他的傳感器,比如說激光雷達,就會增加一份安全冗余。
以 AEB 為例,如果車輛配備激光雷達,作為算法公司一定會去使用激光雷達,因為已經(jīng)有了這樣一個很好的硬件配置在里面,如果不用,那相當于浪費了。
穩(wěn)定識別通用障礙物
輕舟具備行業(yè)領(lǐng)先的通用障礙物識別能力,融合了激光雷達數(shù)據(jù),算法可以在不檢測物體類別的情況下對物體進行檢出,保證行車安全。
而如果 OmniNet 感知大模型,將多傳感器時序穿插融合,通過在重點區(qū)域激光雷達與圖像的結(jié)合將提升感知精度,采用 120° 激光雷達對前向進行了 3D 感知覆蓋,幫助算法解決難處理的低速和靜態(tài)物體,從而用一顆激光雷達方案實現(xiàn)了非常好的城市 NOA 體驗。
采用視覺算法,許諾提到:“即便是隨著數(shù)據(jù)量越來越多,能處理更多的長尾場景,但是要把長尾場景全部處理完,實際上是一個非常困難的一個事情?!?/p>
輕舟展現(xiàn)了行業(yè)領(lǐng)先的 OmniNet 感知大模型,將多傳感器時序穿插融合,通過在重點區(qū)域激光雷達與圖像的結(jié)合將提升感知精度,采用 120° 激光雷達對前向進行了 3D 感知覆蓋,幫助算法解決難處理的低速和靜態(tài)物體,從而用一顆激光雷達方案實現(xiàn)了非常好的城市 NOA 體驗。
加速算法迭代, 提供精準真值數(shù)據(jù),高效挖掘長尾數(shù)據(jù)
作為高精度的傳感器,激光雷達數(shù)據(jù)可以在點云大模型的解析下進行自動化標注,為算法提供真值,加速算法進化迭代。
許諾在分享時舉了兩個例子:一個是在夜晚道路上,視覺算法漏檢了一輛隔離帶對面的車輛,而通過點云標注正確識別了這輛車;另外一個是視覺算法誤檢了一輛兩輪車為三輪車,而通過點云標注同樣糾正了這個問題。
最后,激光雷達對物體的識別不依賴預(yù)設(shè)的語義信息,舉例來說,下圖中躺在路邊的行人,如果沒有激光雷達作為感知補充,可能很難識別到。
因此,利用激光雷達數(shù)據(jù)可以更好地挖掘長尾場景,高效地實現(xiàn)數(shù)據(jù)積累,進一步加速算法的進化,更早實現(xiàn)量產(chǎn)落地。
審核編輯:劉清
-
傳感器
+關(guān)注
關(guān)注
2551文章
51099瀏覽量
753606 -
智能駕駛
+關(guān)注
關(guān)注
3文章
2521瀏覽量
48763 -
激光雷達
+關(guān)注
關(guān)注
968文章
3972瀏覽量
189930
原文標題:激光雷達如何加速城市 NOA 落地?我們這次展開聊聊
文章出處:【微信號:hesaitech_sh,微信公眾號:禾賽科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論