0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Transformer的相機(jī)-毫米波雷達(dá)融合3D目標(biāo)檢測方法

3D視覺工坊 ? 來源:TJ雷達(dá)成像實驗室 ? 2023-07-10 14:55 ? 次閱讀

編者按

為了發(fā)展低成本全場景自動駕駛環(huán)境感知技術(shù),針對毫米波雷達(dá)與視覺的融合感知技術(shù)的研究成為當(dāng)前熱點,然而毫米波雷達(dá)和視覺兩種模態(tài)各有優(yōu)缺點,如何充分利用兩種模態(tài)的信息提高3D目標(biāo)檢測的性能,成為業(yè)界的一個重要關(guān)注點。本文提出了一種利用Transformer實現(xiàn)相機(jī)-毫米波雷達(dá)融合3D目標(biāo)檢測,并在nuScenes 3D檢測基準(zhǔn)上實現(xiàn)了最先進(jìn)的性能,從而啟發(fā)我們研究基于Transformer的傳感器融合感知技術(shù)。

摘要

盡管雷達(dá)在汽車行業(yè)很受歡迎,但對于基于融合的3D目標(biāo)檢測,現(xiàn)有的工作大多集中在激光雷達(dá)和相機(jī)融合上。在本文中,我們提出了TransCAR,一種基于Tansformer的相機(jī)和雷達(dá)融合解決方案,用于3D目標(biāo)檢測。我們的TransCAR由兩個模塊組成。第一個模塊從環(huán)繞視圖相機(jī)圖像中學(xué)習(xí)2D特征,然后使用一組稀疏的3D對象查詢來索引到這些2D特征。然后,視覺更新的查詢通過transformer自我注意層相互交互。第二個模塊從多次雷達(dá)掃描中學(xué)習(xí)雷達(dá)特征,然后應(yīng)用transformer解碼器學(xué)習(xí)雷達(dá)特征與視覺更新查詢之間的交互;transformer解碼器內(nèi)部的交叉注意層可以自適應(yīng)學(xué)習(xí)雷達(dá)特征與視覺更新查詢之間的軟關(guān)聯(lián),而不是只基于傳感器標(biāo)定的硬關(guān)聯(lián)。最后,我們的模型使用集對集的匈牙利損失估計每個查詢的邊界框,使該方法能夠避免非最大抑制。TransCAR利用無時間信息的雷達(dá)掃描提高了速度估計。我們的TransCAR再具有挑戰(zhàn)性的nuScenes數(shù)據(jù)集上的卓越實驗結(jié)果表明,我們的TransCAR由于最先進(jìn)的基于相機(jī)-雷達(dá)融合的3D目標(biāo)檢測方法。

1 簡介

雷達(dá)以用于高級駕駛輔助系統(tǒng)(ADAS)多年。然而,盡管雷達(dá)在汽車行業(yè)中很流行,考慮到3D目標(biāo)檢測時,大多數(shù)工作集中在激光雷達(dá)[14,23,25,26,40 - 42,45]、相機(jī)[2,7,24,35],和激光雷達(dá)-相機(jī)融合[6,11,12,15,16,21 - 23,37,38,43]。其中一個原因是,沒有那么多帶有3D邊界框注釋的開放數(shù)據(jù)集,其中包括雷達(dá)數(shù)據(jù)[3,5,9,29]。另一個原因是,與激光雷達(dá)點云相比,汽車?yán)走_(dá)信號更加稀疏并缺乏高度信息。這些屬性使得區(qū)分感興趣的對象和背景的回波變得很困難。然而,雷達(dá)與激光雷達(dá)相比有其優(yōu)勢:(1)雷達(dá)在惡劣天氣和光照條件下具有魯棒性;(2)雷達(dá)可以通過多普勒效應(yīng)精確測量目標(biāo)的徑向速度,而不需要多幀時間信息;(3)雷達(dá)的成本比激光雷達(dá)低得多。因此,我們認(rèn)為,通過雷達(dá)相機(jī)融合研究,有很大的潛力提高表現(xiàn)。 3D目標(biāo)檢測是自動駕駛和ADAS系統(tǒng)的關(guān)鍵。3D物體檢測的目標(biāo)是預(yù)測一組感興趣物體的3D邊界框和類別標(biāo)簽。由于汽車?yán)走_(dá)數(shù)據(jù)的稀疏性和高度信息的缺乏,僅從汽車?yán)走_(dá)數(shù)據(jù)中直接估計和分類3D邊界框具有一定的挑戰(zhàn)性?;趩文肯鄼C(jī)的3D探測器[2,7,19,24,35]可以對目標(biāo)進(jìn)行分類,準(zhǔn)確預(yù)測目標(biāo)的航向角和方位角。然而,深度估計中的誤差是顯著的,因為從單個圖像回歸深度本質(zhì)上是一個不適定的逆問題。雷達(dá)可以提供精確的深度測量,而基于單目相機(jī)的解決方案不能。相機(jī)可以產(chǎn)生基于雷達(dá)的解決方案不能產(chǎn)生的分類和3D邊界框估計。因此,將雷達(dá)和相機(jī)相融合,以獲得更好的3D目標(biāo)檢測表現(xiàn)是一個自然的想法。

a16cc280-1ec8-11ee-962d-dac502259ad0.png

圖1:一個來自nuScenes[3]的例子,展示了TransCAR融合的工作原理。僅視覺檢測有顯著的距離誤差。我們的TransCAR融合可以學(xué)習(xí)基于視覺的查詢與相關(guān)雷達(dá)信號之間的交互,并預(yù)測改進(jìn)的檢測。通過查詢雷達(dá)注意屏蔽,不相關(guān)的雷達(dá)點不會被注意。 不同傳感器模態(tài)之間的數(shù)據(jù)關(guān)聯(lián)是傳感器融合技術(shù)面臨的主要挑戰(zhàn)?,F(xiàn)有的工作主要依靠多傳感器標(biāo)定來做像素級[31]、特征級[6,12,15,16,39]或檢測級[21,22]關(guān)聯(lián)。然而,這對雷達(dá)和相機(jī)關(guān)聯(lián)來說是一個挑戰(zhàn)。首先,雷達(dá)缺乏高度測量,使得雷達(dá)-相機(jī)投影在高度方向上包含了很大的不確定性。其次,雷達(dá)波束比典型的圖像像素寬得多,并且可以四處反射。這可能導(dǎo)致雷達(dá)可以看到一些命中,但攝像頭無法感知。第三,雷達(dá)測量數(shù)據(jù)稀疏且分辨率低。許多相機(jī)可見的物體并沒有被雷達(dá)擊中。由于這些原因,基于傳感器標(biāo)定的硬編碼數(shù)據(jù)關(guān)聯(lián)算法在雷達(dá)和相機(jī)融合中的表現(xiàn)較差。 具有深遠(yuǎn)影響的Transformer框架最初是作為自然語言處理(NLP)的革命性技術(shù)提出的[30],隨后在計算機(jī)視覺應(yīng)用中顯示了其通用性,包括對象分類[8]和檢測[4,47]。Transformer內(nèi)部的自注意和交叉注意機(jī)制可以學(xué)習(xí)多個信息集之間的交互[1,4,30]。我們相信,這使得Transformer框架是一個可行的適合解決相機(jī)-雷達(dá)融合中的數(shù)據(jù)關(guān)聯(lián)。在本文中,我們提出了一種新的基于Transformer的雷達(dá)和相機(jī)融合網(wǎng)絡(luò),稱為TransCAR,以解決上述問題。 我們的TransCAR首先使用DETR3D[35]生成基于圖像的對象查詢。然后,TransCAR從多次累積的雷達(dá)掃描中學(xué)習(xí)雷達(dá)特征,并應(yīng)用transformer解碼器學(xué)習(xí)雷達(dá)特征與視覺更新查詢之間的交互。Transformer解碼器內(nèi)部的交叉注意可以自適應(yīng)地學(xué)習(xí)雷達(dá)特征與視覺更新查詢之間的軟關(guān)聯(lián),而不是只基于傳感器標(biāo)定的硬關(guān)聯(lián)。最后,我們的模型使用集對集匈牙利損失來預(yù)測每個查詢的邊界框。圖1說明了TransCAR的主要想法。我們還加入速度差異作為匈牙利二部匹配的指標(biāo),因為雷達(dá)可以提供精確的徑向速度測量。雖然我們的重點是融合多臺單目相機(jī)和雷達(dá),但提出的TransCAR框架也適用于立體相機(jī)系統(tǒng)。我們使用具有挑戰(zhàn)性的nuScenes數(shù)據(jù)集[3]來演示我們的TransCAR。TransCAR的表現(xiàn)大大超過了所有其他先進(jìn)的(SOTA)基于相機(jī)雷達(dá)融合的方法。擬議的體系結(jié)構(gòu)提供了以下貢獻(xiàn): ?我們研究了雷達(dá)數(shù)據(jù)的特點,提出了一種新型的相機(jī)-雷達(dá)融合網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠自適應(yīng)地學(xué)習(xí)軟關(guān)聯(lián),并在基于雷達(dá)-相機(jī)標(biāo)定的基礎(chǔ)上顯示出比硬關(guān)聯(lián)更好的3D檢測表現(xiàn)。 ?提出了查詢-雷達(dá)注意屏蔽,以協(xié)助交叉注意層,避免遠(yuǎn)處視覺查詢與雷達(dá)特征之間的不必要交互,并更好地學(xué)習(xí)關(guān)聯(lián)。 ?在不需要時間信息的情況下,TransCAR改進(jìn)了雷達(dá)的速度估計。 ?提交時,在nuScenes 3D檢測基準(zhǔn)上,TransCAR在已發(fā)表的基于相機(jī)-雷達(dá)融合的方法中排名第一。

a1a0f230-1ec8-11ee-962d-dac502259ad0.png

圖2:TransCAR系統(tǒng)架構(gòu)。該系統(tǒng)主要由三個部分組成:(1)基于transformer解碼器的相機(jī)網(wǎng)絡(luò)(DETR3D[35])生成基于圖像的3D對象查詢。初始對象查詢是隨機(jī)生成的;(2)對雷達(dá)點位進(jìn)行編碼,提取雷達(dá)特征的雷達(dá)網(wǎng)絡(luò);(3)基于三個transformer交叉注意解碼器的TransCAR融合模塊。我們提出使用transformer來學(xué)習(xí)雷達(dá)特征與視覺更新對象查詢之間的交互,以實現(xiàn)自適應(yīng)相機(jī)-雷達(dá)關(guān)聯(lián)。

2TransCAR

所提的TransCAR體系架構(gòu)圖如圖2所示。相機(jī)網(wǎng)絡(luò)首先利用環(huán)繞視圖圖像來生成視覺更新的對象查詢。雷達(dá)網(wǎng)絡(luò)對雷達(dá)點位進(jìn)行編碼并提取雷達(dá)特征。然后,TransCAR融合模塊將視覺更新的目標(biāo)查詢與有用的雷達(dá)特征融合。下面,我們將詳細(xì)介紹TransCAR中的各個模塊。

2.1

相機(jī)網(wǎng)絡(luò)

我們的攝像頭網(wǎng)絡(luò)將6個攝像頭采集的環(huán)繞主車360度的全景圖像和初始3D對象查詢作為輸入,并輸出一組在3D空間的視覺更新的3D對象查詢。我們將DETR3D[35]應(yīng)用于相機(jī)網(wǎng)絡(luò),并遵循自上而下的迭代設(shè)計。它利用初始的3D查詢?yōu)?D特征建立索引,以細(xì)化3D查詢。輸出的3D視覺更新查詢是TransCAR融合模塊的輸入。2.1.1為什么從相機(jī)開始我們使用環(huán)繞視圖圖像生成用于融合的3D物體查詢。雷達(dá)不適合這項任務(wù),因為許多感興趣的物體沒有雷達(dá)回波。這背后有兩個主要原因。首先,與相機(jī)和激光雷達(dá)相比,典型的汽車?yán)走_(dá)的垂直視場非常有限,而且它通常安裝在較低的位置。因此,任何位于雷達(dá)小垂直視場之外的物體都將被忽略。其次,與激光雷達(dá)不同,雷達(dá)波束更寬,方位角分辨率有限,因此很難探測到小型物體。根據(jù)我們在補(bǔ)充資料中的統(tǒng)計,在nuScenes訓(xùn)練集中,雷達(dá)有很高的漏檢率,特別是對于小目標(biāo)。對于道路上最常見的兩個類別——汽車和行人,雷達(dá)漏掉了36.05%的汽車和78.16%的行人。相機(jī)有更好的物體可視性。因此,我們首先利用圖像預(yù)測用于融合的3D物體的查詢。2.1.2 研究方法相機(jī)網(wǎng)絡(luò)使用ResNet-101[10]和特征金字塔網(wǎng)絡(luò)(FPN)[17]學(xué)習(xí)多尺度特征金字塔。這些多尺度特征圖為探測不同大小的目標(biāo)提供了豐富的信息。效仿[36,47],我們的相機(jī)網(wǎng)絡(luò)(DETR3D[35])是迭代的。它有6個Transformer解碼器層來產(chǎn)生視覺更新的3D對象查詢;每一層都將前一層的輸出查詢作為輸入。下面解釋了每個層中的步驟。 對于第一解碼器層,一組N (對于nuScenes N = 900)個可學(xué)習(xí)3D對象查詢Q0= {Q01,Q02,…,q0N}∈RC在3D監(jiān)視區(qū)域內(nèi)隨機(jī)初始化。上標(biāo)0表示到第一層的輸入查詢,下標(biāo)是查詢的索引。網(wǎng)絡(luò)從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)這些3D查詢位置的分布。網(wǎng)絡(luò)從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)這些3D查詢位置的分布。對于下面的層,輸入查詢是來自上一層的輸出查詢。每個3D對象查詢編碼一個潛在對象的3D中心位置pi∈R3。通過雙線性插值,將這些3D中心點投影到基于相機(jī)內(nèi)外參數(shù)的圖像特征金字塔中以提取圖像特征。假設(shè)圖像特征金字塔中有k層,對于一個3D點pi,采樣后的圖像特征fi∈RC是所有k層采樣特征的總和,C為特征通道數(shù)。一個給定的3D中心點pi可能在任何相機(jī)圖像中都不可見。我們用零填充這些視點對應(yīng)的采樣圖像特征。 Transformer自注意層用于學(xué)習(xí)N個3D對象查詢之間的交互,并生成注意分?jǐn)?shù)。然后將對象查詢與通過注意力分?jǐn)?shù)加權(quán)的采樣的圖像特征相結(jié)合,形成更新后的對象查詢Ql= {ql1,ql2,…,qlN}∈RC,其中l(wèi)為當(dāng)前層。Ql是第(l + 1)層查詢的輸入集。 對于每個更新的對象查詢qli,使用兩個神經(jīng)網(wǎng)絡(luò)預(yù)測一個3D邊界框和一個類標(biāo)簽。邊界框編碼和丟失函數(shù)的細(xì)節(jié)在2.4節(jié)中描述。訓(xùn)練過程中,每一層后計算一次損失。在推理模式中,僅使用來自最后一層的視覺更新查詢輸出進(jìn)行融合。

2.2

雷達(dá)網(wǎng)絡(luò)

該雷達(dá)網(wǎng)絡(luò)的設(shè)計目的是學(xué)習(xí)有用的雷達(dá)特征,并對其3D位置進(jìn)行編碼以進(jìn)行融合。我們首先根據(jù)x和y距離對雷達(dá)點進(jìn)行過濾,因為只有在BEV中+/?50米范圍內(nèi)的物體才會在nuScenes[3]中進(jìn)行評估。由于雷達(dá)是稀疏的,我們將前5幀的雷達(dá)積累起來,并將其轉(zhuǎn)換為當(dāng)前幀。nuScenes數(shù)據(jù)集為每個雷達(dá)點提供了18個通道,包括主車幀中的3D位置x, y, z,徑向速度vx和vy,主車運動補(bǔ)償速度vxc和vyc,虛警概率pdh0,動態(tài)屬性通道dynProp指示群集是移動還是靜止,和其他狀態(tài)通道1。為了使?fàn)顟B(tài)通道對網(wǎng)絡(luò)具有學(xué)習(xí)的可行性,我們將狀態(tài)通道轉(zhuǎn)化為獨熱向量。由于我們使用了5個累積的幀,每個幀相對于當(dāng)前時間戳的時間偏移對于指示位置偏移是有用的,所以我們還為每個點添加了一個時間偏移通道。通過這些預(yù)處理操作,每個輸入雷達(dá)點有36個通道。 使用多層感知器(MLP)網(wǎng)絡(luò)學(xué)習(xí)雷達(dá)特征Fr∈RM×C和雷達(dá)點位置編碼Pr∈RM×C,其中M和C分別為雷達(dá)點數(shù)和特征通道數(shù)。在本文中,我們對nuScenes數(shù)據(jù)集設(shè)置M = 1500, C = 256。注意,即使在nuScenes數(shù)據(jù)集中累積,每個時間步長的雷達(dá)點也少于1500個。因此,為了尺寸兼容性,我們用超出范圍的位置和零特征填充空點。圖3顯示了雷達(dá)網(wǎng)絡(luò)的詳細(xì)信息。我們將學(xué)習(xí)到的特征和位置編碼結(jié)合起來,作為最終的雷達(dá)特征Fradar= (Fr+ Pr)∈RM×C。這些最終的雷達(dá)特征和相機(jī)網(wǎng)絡(luò)的視覺更新查詢將用于下一步的TransCAR融合。

a1e024aa-1ec8-11ee-962d-dac502259ad0.png

圖3:雷達(dá)網(wǎng)絡(luò)細(xì)節(jié)。位置編碼網(wǎng)絡(luò)(左)以雷達(dá)點位置(xyz)作為輸入。預(yù)處理后的雷達(dá)數(shù)據(jù)(章節(jié)2.2)發(fā)送到雷達(dá)特征提取網(wǎng)絡(luò)(右側(cè)),學(xué)習(xí)有用的雷達(dá)特征。由于雷達(dá)信號非常稀疏,所以每個雷達(dá)點都是獨立處理的。方括號內(nèi)的數(shù)字表示數(shù)據(jù)的形狀。

2.3

TransCAR融合

TransCAR融合模塊將前一步的視覺更新查詢和雷達(dá)特征作為輸入,輸出融合查詢進(jìn)行3D邊界框預(yù)測。在TransCAR融合模塊中,三個Transformer解碼器以迭代方式工作。提出了查詢-雷達(dá)注意屏蔽,以幫助交叉注意層更好地學(xué)習(xí)視覺更新查詢與雷達(dá)特征之間的交互和關(guān)聯(lián)。2.3.1查詢-雷達(dá)注意屏蔽如果輸入查詢、鍵和值的數(shù)量都很大,那么訓(xùn)練一個transformer是很有挑戰(zhàn)性和耗時的[4,8]。對于我們的transformer解碼器,有N個3D對象查詢Q∈RN×C和M個雷達(dá)特性Frad∈RM×C作為鍵和值,其中對于nuScenes N = 900和M = 1500。不需要學(xué)習(xí)它們之間的每一個成對的交互(900 × 1500)。對于查詢qi∈Q,只有附近的雷達(dá)特征是有用的。沒有必要將qi與其他雷達(dá)特征進(jìn)行交互。因此,我們定義一個二進(jìn)制N×M 查詢-雷達(dá)注意屏蔽M∈{0,1}N×M,以防止對某些位置的注意,其中0表示不注意,1表示允許注意。只有當(dāng)?shù)趇個查詢qi與第j個雷達(dá)特征fj之間的xy歐氏距離小于閾值時,才允許注意M中的位置(i,j)。在TransCAR融合中,三個transformer解碼器對應(yīng)3個查詢-雷達(dá)注意屏蔽。這三種屏蔽的半徑分別為2m、2m和1m。2.3.2 transformer相機(jī)與雷達(dá)交叉注意在我們的TransCAR融合中,通過級聯(lián)3個transformer交叉注意解碼器來學(xué)習(xí)視覺更新查詢和雷達(dá)特征之間的關(guān)聯(lián)。圖4顯示了一個transformer交叉注意解碼器的詳細(xì)信息。對于初始解碼器,相機(jī)網(wǎng)絡(luò)輸出的視覺更新查詢Qimg∈RN×C為輸入查詢。Frad∈RM×C的雷達(dá)特性是輸入鍵和值。查詢-雷達(dá)注意屏蔽M1用于防止注意某些不必要的配對。解碼器內(nèi)的交叉注意層將輸出注意分?jǐn)?shù)矩陣A1∈[0,1]N×M。對于A1第i行中的M個元素,表示第i個視覺更新查詢與所有M個雷達(dá)特征之間的注意力得分,總和為1。注意,對于每個查詢,只允許注意與之接近的雷達(dá)特性,因此對于A1中的每一行,它們中的大多數(shù)都是0。這些注意力分?jǐn)?shù)是視覺更新查詢和雷達(dá)特性之間的關(guān)聯(lián)指示器。然后,用于視覺更新查詢的注意力加權(quán)雷達(dá)特征計算為F?rad1= (A1·Frad)∈RN×C。這些加權(quán)雷達(dá)特征與原始的視覺更新查詢相結(jié)合,然后通過前饋網(wǎng)絡(luò)(FFN) ΦFFN1進(jìn)行增強(qiáng)。這形成了初始階段的融合查詢:Qf1= ΦFFN1(Qimg+F?rad1)∈RN×C。

a1f2436a-1ec8-11ee-962d-dac502259ad0.png

圖4:transformer相機(jī)-雷達(dá)解碼器層的細(xì)節(jié)。視覺更新的3D目標(biāo)Q是對多頭交叉注意模塊的Q。雷達(dá)的特性是K和V。詳見第2.3.2節(jié)。括號內(nèi)的數(shù)字表示數(shù)據(jù)的形狀。 中間和最后的transformer解碼器的工作原理與最初的解碼器相似。但是它們使用之前的融合查詢Qf1而不是視覺更新查詢作為輸入。以中間查詢?yōu)槔?,新的查?雷達(dá)注意屏蔽M2是根據(jù)Qf1和雷達(dá)點位置之間的距離計算的。當(dāng)查詢位置在初始解碼器中更新時,我們還使用Qf1中的編碼過的查詢位置重新采樣圖像特征ff2。與初始解碼器類似,Qf1的注意力加權(quán)雷達(dá)特征被定義為F?rad2= (A2·Frad)∈RN×C,其中A2包括初始階段融合查詢Qf1和雷達(dá)特征Frad的注意力分?jǐn)?shù)。輸出融合查詢是通過Qf2= ΦFFN2(Qf1+ F?rad2+ ff2)∈RN×C學(xué)習(xí)的。在兩個解碼器之后,我們使用兩組FFN進(jìn)行邊界框預(yù)測。我們在訓(xùn)練過程中計算兩個解碼器的損耗,在推理過程中只使用最后一個解碼器的邊界框輸出。由于能見度的限制,一些查詢可能沒有附近的雷達(dá)信號。我們在訓(xùn)練過程中計算兩個解碼器的損耗,在推理過程中只使用最后一個解碼器的邊界框輸出。 由于能見度的限制,一些查詢可能沒有附近的雷達(dá)信號。這些查詢不會與任何雷達(dá)信號交互,它們的注意力分?jǐn)?shù)都是0。來自這些查詢的檢測將只基于視覺。

2.4

框編碼和損失函數(shù)

框編碼:我們將一個3D邊界框b3D編碼為一個11位向量:

a21db2d4-1ec8-11ee-962d-dac502259ad0.png

其中cls = {c1,…,cn}為類標(biāo)號,x、y、z為3D中心位置,h、w、l為3D維度,θ為航向角,vx、vy為沿x、y軸的速度。對于每個輸出對象查詢q,網(wǎng)絡(luò)預(yù)測它的類分?jǐn)?shù)c∈[0,1]n(n為類數(shù),對于nuScenes n = 10)和3D邊界框參數(shù)b∈R10:

a238c9fc-1ec8-11ee-962d-dac502259ad0.png

其中?x,?y和?z是預(yù)測和上一層查詢位置之間的偏移量。與DETR3D估算Sigmoid空間[35]中的位置偏移不同,我們直接回歸3D笛卡爾坐標(biāo)中的位置偏移。DETR3D使用Sigmoid空間,因為他們希望將位置輸出保持在[0,1]之間,所以所有的查詢位置都在距離邊界內(nèi)。而對于TransCAR,我們從優(yōu)化的視覺更新查詢開始,其位置相對更準(zhǔn)確。因此,我們可以避免可能會影響學(xué)習(xí)的冗余的非線性激活。損失:我們使用集對集匈牙利損失來指導(dǎo)訓(xùn)練,并測量網(wǎng)絡(luò)預(yù)測與以下事實之間的差異[4,28,35]。損失函數(shù)中有兩個部分,一個用于分類,另一個用于邊界框回歸。我們將焦點損失[18]用于分類以解決類的不平衡,并將L1損失用于邊界框回歸。假設(shè)N和K表示同一幀中預(yù)測和基本事實的個數(shù),由于N明顯大于K,我們將φ(無對象)填充基本事實集合。效仿[4,28,35],我們使用匈牙利算法[13]來解決預(yù)測和基本事實之間的二部匹配問題:

a258da9e-1ec8-11ee-962d-dac502259ad0.png

式中,Θ為排列集合,p?σ(i)(ci)為排列指數(shù)為σ(i)的ci類概率,Lbox為邊界框的L1差值,bi和b?σ(i)分別為基本事實框和預(yù)測框。這里,請注意,我們還將速度估計vx和vy合并到Lbox中,以便更好地匹配和估計速度。采用最優(yōu)排列σ?,最終匈牙利損失可表示為:

a27dd308-1ec8-11ee-962d-dac502259ad0.png

其中α和γ是焦點損失的參數(shù)。

3 實驗結(jié)果

我們在具有挑戰(zhàn)性的nuScenes 3D檢測基準(zhǔn)[3]上評估了我們的TransCAR,因為它是唯一包含雷達(dá)的開放大規(guī)模標(biāo)注數(shù)據(jù)集。

3.1

數(shù)據(jù)集

在nuScenes數(shù)據(jù)收集車輛上安裝有6臺相機(jī)、5臺雷達(dá)和1臺激光雷達(dá)。nuScenes 3D檢測數(shù)據(jù)集包含1000個20秒的駕駛片段(場景),其中訓(xùn)練片段700個,驗證片段150個,測試片段150個。標(biāo)注率為2Hz,因此分別有28k、6k和6k標(biāo)注幀用于訓(xùn)練、驗證和測試。有10類對象。真陽指標(biāo)是基于BEV中心距離的。

3.2

評價結(jié)果

我們在表1中展示了nuScenes測試集的3D檢測結(jié)果。我們的TransCAR在提交時優(yōu)于所有其他的相機(jī)雷達(dá)融合方法。與基線僅相機(jī)方法相比,DETR3D[35]、TransCAR具有更高的mAP和NDS (nuScenes Detection Score[3])。注意,DETR3D是用CBGS[46]訓(xùn)練的,而TransCAR不是。從表1中可以看出,在10個等級中,汽車等級提升幅度最大(+2.4%)。汽車和行人是駕駛場景的主要興趣對象。在nuScenes數(shù)據(jù)集中,轎車類在訓(xùn)練集中所占比例最高,占總實例的43.74%,其中63.95%的汽車實例被雷達(dá)命中。因此,這些汽車實例為我們的TransCAR學(xué)習(xí)融合提供了足夠的訓(xùn)練實例。行人類在訓(xùn)練集中所占比例第二高,占總實例數(shù)的19.67%,但雷達(dá)返回僅占21.84%。TransCAR仍可將行人mAP提高1.2%。這說明,對于有雷達(dá)命中的目標(biāo),TransCAR可以利用雷達(dá)命中來提高檢測表現(xiàn),對于無雷達(dá)命中的目標(biāo),TransCAR可以保持基線表現(xiàn)。 表1:nuScenes測試集與SOTA方法的定量比較。在‘Sensor’欄中,‘C’、‘L’和‘CR’分別代表相機(jī)、激光雷達(dá)和相機(jī)-雷達(dá)融合。‘C.V.’, ‘Ped’, ‘Motor’和‘T.C’分別是工程車輛、行人、摩托車和交通錐的縮寫。TransCAR是目前最好的基于相機(jī)雷達(dá)融合的方法,擁有最高的NDS和mAP,甚至優(yōu)于早期發(fā)布的基于激光雷達(dá)的方法。表現(xiàn)最好的用粗體突出顯示,排除了僅使用激光雷達(dá)的解決方案。

a298c208-1ec8-11ee-962d-dac502259ad0.png

表2為轎車類的基線DETR3D[35] 與不同中心距離評價指標(biāo)的定量比較。在nuScenes數(shù)據(jù)集中,真陽指標(biāo)基于中心距離,即真陽指標(biāo)與基本真實值之間的中心距離應(yīng)小于閾值。nuScenes定義了從0.5米到4.0米的四個距離閾值。如表2所示,TransCAR針對所有4個指標(biāo)改進(jìn)了AP。特別是對于更加嚴(yán)格和重要的指標(biāo)0.5和1.0米閾值,改進(jìn)分別為5.84%和6.19%。 表2:在nuScenes驗證集上,不同中心距離評價指標(biāo)的轎車類與基線DETR3D的平均精度(AP)比較。我們的TransCAR在所有評估指標(biāo)上都大大提高了AP。

a2c9f65c-1ec8-11ee-962d-dac502259ad0.png

3.3

定性結(jié)果

圖5顯示了在nuScenes數(shù)據(jù)集[3]上,TransCAR與基線DETR3D[35]之間的定性比較。藍(lán)色和紅色的框分別是來自TransCAR和DETR3D的預(yù)測,綠色填充的矩形是基本事實。較大的暗點為雷達(dá)點,較小的色點為激光雷達(dá)參考點(黃色至綠色表示距離的增加)。左列的橢圓區(qū)域突出了TransCAR所做的改進(jìn),圖像上的橙色框突出了自上向下視圖中相應(yīng)的橢圓區(qū)域。TransCAR融合了基線DETR3D的檢測結(jié)果,顯著改善了3D邊界框估計。

a30e40f0-1ec8-11ee-962d-dac502259ad0.png

圖5:在nuScenes數(shù)據(jù)集[3]上,TransCAR與基線DETR3D的定性比較。藍(lán)色和紅色的框分別是來自TransCAR和DETR3D的預(yù)測,綠色填充的矩形是基本事實。較大的暗點為雷達(dá)點,較小的色點為激光雷達(dá)參考點(黃色至綠色表示距離的增加)。左列的橢圓區(qū)域突出了TransCAR所做的改進(jìn),圖像上的橙色框突出了自上向下視圖中相應(yīng)的橢圓區(qū)域。包含放大和彩色的最佳視角。

3.4

消融與分析

由于篇幅限制,我們在本節(jié)展示了部分消融研究,更多的消融研究在補(bǔ)充材料中顯示。各組件的貢獻(xiàn):我們評估每個組件在我們的TransCAR網(wǎng)絡(luò)中的貢獻(xiàn)。nuScenes驗證集的消融研究結(jié)果如表3所示。僅限視覺的基線是DETR3D[35]。徑向速度是雷達(dá)可以提供的唯一測量結(jié)果之一;雖然它不是真實的速度,但它仍然可以引導(dǎo)網(wǎng)絡(luò)在沒有時間信息的情況下預(yù)測物體的速度。如表3第二行所示,在沒有雷達(dá)徑向速度時,網(wǎng)絡(luò)只能利用雷達(dá)點的位置進(jìn)行融合,且mAVE (m/s)顯著較高(0.906 vs. 0.523)。查詢雷達(dá)注意屏蔽可以根據(jù)查詢和雷達(dá)特征之間的距離來防止對它們的注意。如果沒有它,每個查詢都必須與場景中的所有雷達(dá)特征(在我們的工作中是1500)交互。 表3:TransCAR組件在nuScenes 驗證集上的消融。

a3797712-1ec8-11ee-962d-dac502259ad0.png

迭代改進(jìn):在TransCAR中有三個迭代工作的transformer交叉注意解碼器。我們研究了迭代設(shè)計在TransCAR融合中的有效性,結(jié)果如表4所示。從表4的定量結(jié)果可以看出,TransCAR融合中的迭代細(xì)化可以提高檢測表現(xiàn),有利于充分利用我們提出的融合架構(gòu)。 表4:對不同數(shù)量transformer解碼器在TransCAR中檢測結(jié)果的評價。

a39d1b86-1ec8-11ee-962d-dac502259ad0.png

不同距離范圍的表現(xiàn):表5和表6顯示了不同距離范圍下nuScenes數(shù)據(jù)集的檢測表現(xiàn),表5顯示了10個類的平均結(jié)果,表6僅為轎車類。這兩個表的結(jié)果表明,僅視覺基線法(DETR3D)和我們的TransCAR在較短的距離中表現(xiàn)更好。在20~40米范圍內(nèi),TransCAR的改進(jìn)更為顯著。這主要是因為對于20米以內(nèi)的目標(biāo),位置誤差較小,利用雷達(dá)進(jìn)行改進(jìn)的空間有限。對于超過40米的物體,該基線的表現(xiàn)很差,因此TransCAR只能提供有限的改進(jìn)。請注意,表5中所有10個類的平均精度(mAP)和相應(yīng)的改進(jìn)比表6中轎車類的要小。這主要有兩個原因。首先,mAP是所有類ap的均值,在nuScenes數(shù)據(jù)集中,雷達(dá)傳感器對于小型目標(biāo)類(行人、自行車、交通錐等)有較高的失誤率。例如,78.16%的行人和63.74%的騎自行車的人沒有雷達(dá)信號。因此,與大型對象(汽車、公共汽車等)相比,這些類的表現(xiàn)更差。因此,對于這類目標(biāo),TransCAR所帶來的改進(jìn)是有限的,對于有雷達(dá)回波的目標(biāo)類,TransCAR可以利用雷達(dá)信號來提高檢測表現(xiàn),對于無雷達(dá)回波的目標(biāo)類,TransCAR只能保持基線表現(xiàn)。其次,nuScenes數(shù)據(jù)集存在明顯的類失衡現(xiàn)象,轎車類占訓(xùn)練實例的43.74%,而其他類如自行車和摩托車僅占1.00%和1.07%。這些稀少的類的訓(xùn)練例子是不夠的。對于主要的轎車類,也是駕駛場景中最常見的對象,TransCAR可以大幅度提高檢測表現(xiàn)和速度估計(表6)。 表5:nuScenes驗證集上所有不同距離范圍的平均精度(mAP, %)、nuScenes檢測分?jǐn)?shù)(NDS)和平均速度誤差(AVE, m/s)。我們的TransCAR在所有距離范圍內(nèi)都優(yōu)于基線(DETR3D)。

a3c1378c-1ec8-11ee-962d-dac502259ad0.png

表6:nuScenes驗證集上不同距離范圍的轎車類的平均精度(AP, %)和平均速度誤差(AVE, m/s)。給出了雷達(dá)傳感器在不同距離下的漏檢率。被雷達(dá)錯過的轎車被定義為沒有雷達(dá)回波的轎車。我們的TransCAR改進(jìn)了AP,并在所有距離范圍內(nèi)大大降低了速度估計誤差。

a3e83d14-1ec8-11ee-962d-dac502259ad0.png

不同的天氣和光照條件:與相機(jī)相比,雷達(dá)在不同的天氣和光照條件下魯棒性更強(qiáng)。我們對雨天和夜間的檢測表現(xiàn)進(jìn)行了評估,結(jié)果如表7和表8所示。注意nuScenes不為每個帶注釋的幀提供天氣標(biāo)簽,天氣信息在場景描述部分提供(場景是一個20秒的數(shù)據(jù)段[3])。在人工檢查了一些帶注解的幀后,我們發(fā)現(xiàn)“雨”下的幀并不是在下雨的時候捕獲的,有些是在下雨之前或之后采集的。然而,與在晴天采集的圖像相比,這些圖像的質(zhì)量較低。因此,它們適合于我們的評價實驗。 表7顯示了轎車類在下雨和無雨場景下的AP和AVE。與無雨場景相比,在下雨場景中,TransCAR有更高的AP改善(+5.1% vs. +3.6%)。下雨場景的AVE小于無雨場景;這是因為雨幀存在偏差,這些雨場景中的車輛更接近主車,更容易被檢測到。 表8為夜間和白天場景的檢測表現(xiàn)比較。夜間光照條件差,基線法的表現(xiàn)不如白天(AP為52.2% vs.54.8%,AVE為1.691m/s vs.0.866m/s), TransCAR可以利用雷達(dá)數(shù)據(jù)提高AP 6.9%, 降低AVE 1.012m/s。雖然夜間場景有限(15個場景,602幀),但該結(jié)果仍然可以證明TransCAR在夜間場景中的有效性。 表7:在nuScenes驗證集上,轎車類在下雨和無雨場景下的平均精度(AP)和平均速度誤差(AVE, m/s)的比較。nuScenes驗證集中6019幀(150個場景)中有1088幀(27個場景)被標(biāo)注為下雨。在下雨條件下,TransCAR能夠顯著提高探測表現(xiàn),降低速度估計誤差。

a40e166a-1ec8-11ee-962d-dac502259ad0.png

表8:轎車類在nuScenes驗證集的夜間和白天場景的平均精度(AP)和平均速度誤差(AVE, m/s)的比較。夜間采集nuScenes驗證集6019幀中的602幀。TransCAR可以利用雷達(dá)數(shù)據(jù)顯著提高表現(xiàn),降低夜間相機(jī)受到影響時的速度估計誤差。

a43d0074-1ec8-11ee-962d-dac502259ad0.png

4補(bǔ)充材料

4.1

雷達(dá)和激光雷達(dá)漏檢率的比較

與激光雷達(dá)相比,雷達(dá)具有更高的漏檢率。主要有兩個原因:第一,與激光雷達(dá)相比,汽車?yán)走_(dá)的視野非常有限。并且雷達(dá)通常安裝在較低的位置。因此,任何位于雷達(dá)小垂直視場之外的物體都將被忽略。其次,雷達(dá)波束較寬,方位角分辨率有限,難以探測到小型目標(biāo)。nuScenes訓(xùn)練集的LiDAR和radar失誤率統(tǒng)計如表9所示。我們計算了不同類別的物體數(shù)量,雷達(dá)或激光雷達(dá)漏檢的物體數(shù)量以及相應(yīng)的漏檢率。雷達(dá)有很高的漏檢率,特別是對小目標(biāo)。對于道路上最常見的兩個類別——汽車和行人,雷達(dá)漏掉了36.05%的汽車和78.16%的行人。 請注意,我們不是在批評雷達(dá)。表9顯示了在目標(biāo)探測任務(wù)中使用雷達(dá)所面臨的挑戰(zhàn)。了解雷達(dá)測量的性質(zhì)有助于我們設(shè)計合理的融合系統(tǒng)。正如在主論文中討論的,基于這些統(tǒng)計數(shù)據(jù),我們得出結(jié)論,雷達(dá),配置在nuScenes車輛上,不適合用于生成3D查詢。 表9:nuScenes訓(xùn)練集中,主車50米范圍內(nèi)不同類別對象的統(tǒng)計。* ‘C.V.’, ‘Ped’,‘Motor’ 和‘T.C’分別代表工程車輛、行人、摩托車及交通錐。被雷達(dá)或激光雷達(dá)錯過的目標(biāo)被定義為該目標(biāo)沒有命中/回波。雷達(dá)漏掉了更多的目標(biāo)。對于自動駕駛應(yīng)用中最常見的兩個類別,汽車和行人,雷達(dá)忽略了36.05%的汽車和78.16%的行人。雖然nuScenes沒有提供圖像中物體的詳細(xì)可見性,但我們相信它比雷達(dá)高得多。因此,我們使用相機(jī)而不是雷達(dá)來生成3D目標(biāo)查詢進(jìn)行融合。

a46d8be0-1ec8-11ee-962d-dac502259ad0.png

*在“傳感器”一欄中,C表示僅攝相機(jī)。L代表只使用激光雷達(dá), CR代表基于相機(jī)和雷達(dá)融合的方法。 我們注意到,盡管雷達(dá)傳感器有這些物理限制,但我們的結(jié)果表明,與雷達(dá)融合可以顯著改善僅對圖像的檢測。這開啟了以不同方式配置雷達(dá)的可能性,例如在車頂上,以減少漏檢率,并可能進(jìn)一步提高融合表現(xiàn)。

4.2

二級評價指標(biāo)的更多結(jié)果

為了完整起見,我們展示了表10,以顯示nuScenes測試集上的其他二級評價指標(biāo)與其他SOTA方法的比較。在與雷達(dá)融合后,與其他方法相比,我們的TransCAR在所有二級評價指標(biāo)上都具有更好或相同水平的表現(xiàn)。特別是在雷達(dá)信號融合的情況下,TransCAR在速度估計方面有很大的優(yōu)勢。與基線(DETR3D)相比,TransCAR提高了所有評估指標(biāo)的表現(xiàn)。 表10:nuScenes測試集上nuScenes數(shù)據(jù)集定義的其他二級評價指標(biāo)與其他SOTA方法的比較。排除激光雷達(dá)唯一的解決方案,最好的表現(xiàn)突出在粗體。

a48ce21a-1ec8-11ee-962d-dac502259ad0.png

4.3

更多消融研究

用于融合的雷達(dá)幀數(shù):由于雷達(dá)點云稀疏,我們累積了多個具有自車運動補(bǔ)償?shù)睦走_(dá)幀進(jìn)行融合。我們評估了累積不同雷達(dá)幀數(shù)的影響,結(jié)果如表11和表12所示。表11顯示了nuScenes驗證集中所有10個類的評估結(jié)果,表12是僅針對轎車類的結(jié)果。累積5幀雷達(dá)整體效果最好,累積10幀時速度誤差mAVE略低。積累更多的雷達(dá)幀可以提供更密集的雷達(dá)點云進(jìn)行融合,但同時也會包含更多的噪聲點。此外,對于快速移動的物體,積累更多的雷達(dá)幀會產(chǎn)生更長的“軌跡”,因為在這個階段物體的運動無法得到補(bǔ)償。這可能會潛在地?fù)p害邊界框位置估計。 表11:累積不同雷達(dá)幀數(shù)進(jìn)行融合的各類檢測結(jié)果評價。

a4b87984-1ec8-11ee-962d-dac502259ad0.png

表12:累積不同雷達(dá)幀數(shù)進(jìn)行融合的車輛檢測結(jié)果評價。

a4dd8c1a-1ec8-11ee-962d-dac502259ad0.png

注意屏蔽半徑:在我們的TransCAR融合系統(tǒng)中,我們將圓形注意屏蔽應(yīng)用于transformer解碼器。對于每個transformer解碼器,圓形注意屏蔽的半徑可以不同。我們在nuScenes驗證集上測試了不同的圓注意屏蔽半徑組合,結(jié)果如表13所示。如表13所示,所有半徑配置都能顯著提高3D檢測表現(xiàn)。大的和小的注意屏蔽之間存在一種權(quán)衡。大的注意屏蔽可以增加合并正確的雷達(dá)特征的概率,特別是對于大的物體,但包含噪聲和附近其他物體的雷達(dá)特征的可能性也更高。對于小的注意屏蔽,我們更確定所包含的雷達(dá)特征是好的,但我們更有可能錯過正確的雷達(dá)特征。由表13可知,(2m, 2m, 1m)的綜合表現(xiàn)最好。開始時較大的半徑提供了較高的探測機(jī)會,以捕獲正確的雷達(dá)特征。最后半徑越小,估計結(jié)果越精確。 表13:在我們的TransCAR中,每個transformer解碼器的不同注意屏蔽半徑的比較。

a5038780-1ec8-11ee-962d-dac502259ad0.png

5結(jié)論

在本文中,我們提出了一種基于transformer的高效、魯棒的相機(jī)與雷達(dá)3D檢測框架TransCAR,它可以學(xué)習(xí)雷達(dá)特征與視覺查詢之間的軟關(guān)聯(lián),而不是基于傳感器標(biāo)定的硬關(guān)聯(lián)。相關(guān)的雷達(dá)特性提高了距離和速度估計。相關(guān)的雷達(dá)特性改善了距離和速度估計。我們的TransCAR在具有挑戰(zhàn)性的nuScenes探測基準(zhǔn)上成為了最先進(jìn)的相機(jī)-雷達(dá)探測方法。我們希望我們的工作可以啟發(fā)雷達(dá)相機(jī)融合的進(jìn)一步研究,并激勵使用transformer進(jìn)行傳感器融合。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2878

    瀏覽量

    107548
  • 雷達(dá)
    +關(guān)注

    關(guān)注

    50

    文章

    2936

    瀏覽量

    117533
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    209

    瀏覽量

    15611
  • 毫米波雷達(dá)
    +關(guān)注

    關(guān)注

    107

    文章

    1044

    瀏覽量

    64378

原文標(biāo)題:TransCAR:基于Transformer的相機(jī)-毫米波雷達(dá)融合3D目標(biāo)檢測方法

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    毫米波雷達(dá)方案對比

    越強(qiáng),信號損失衰減越小,傳輸距離越遠(yuǎn)。因此24GHz雷達(dá)比77GHz的繞射能力更強(qiáng),但77GHz雷達(dá)得益于更小的波長,相比24GHz距離檢測精度高,因此在使用的時候各有利弊。圖1、毫米波
    發(fā)表于 08-04 09:16

    車載毫米波雷達(dá)的技術(shù)原理與發(fā)展

    交通行業(yè)。1 車載雷達(dá)技術(shù)原理車載毫米波雷達(dá)利用天線發(fā)射電磁后,對前方或后方障礙物反射的回波進(jìn)行不斷檢測,并通過
    發(fā)表于 05-10 06:20

    淺析車載毫米波雷達(dá)

    的車輛采用一個或者多個毫米波雷達(dá)來輔助駕駛員的駕駛操作,以提高駕駛的舒適性和安全性,避免交通事故的發(fā)生。 車載毫米波雷達(dá)的工作原理車載毫米波
    發(fā)表于 09-19 09:05

    毫米波雷達(dá)(一)

    )等方式?! ∮捎诳蓽y量多個目標(biāo)、分辨率較高、信號處理復(fù)雜度低、成本低廉、技術(shù)成熟,F(xiàn)WCW雷達(dá)成為最常用的車載毫米波雷達(dá),德爾福、電裝、博世等Tier1供應(yīng)商均采用FMCW調(diào)制方式。
    發(fā)表于 12-16 11:09

    毫米雷達(dá)概述

    ”與法線的夾角,用于目標(biāo)定位,從而獲得目標(biāo)與本車位置信息。天線一般需設(shè)置為一發(fā)兩收,采用比相法來實現(xiàn)測角功能。毫米波雷達(dá)測角原理圖如圖六所示。其中接收天線之間相隔距離為
    發(fā)表于 12-16 11:11

    求大佬分享一種基于毫米波雷達(dá)和機(jī)器視覺的前方車輛檢測方法

    為研究夜間追尾事故中本車智能防撞預(yù)警方法,本文提出了一種基于毫米波雷達(dá)和機(jī)器視覺的前方車輛檢測方法。利用多傳感器
    發(fā)表于 06-10 10:23

    毫米波雷達(dá)工作原理,雷達(dá)感應(yīng)模塊技術(shù),有什么優(yōu)勢呢?

    。毫米波和大多數(shù)微波雷達(dá)一樣,有波束的概念,也就是發(fā)射出去的電磁是一個錐狀的波束,而不像激光是一條線。這是因為這個波段的天線,主要以電磁輻射,而不是光粒子發(fā)射為主要方法。
    發(fā)表于 09-22 16:17

    雷達(dá)傳感器模塊,智能存在感應(yīng)方案,毫米波雷達(dá)工作原理

    的頻率差來確定目標(biāo)存在以及相對速度。毫米波雷達(dá)應(yīng)用于汽車的盲點監(jiān)測、變道輔助以及倒車雷達(dá)檢測。用于監(jiān)測車輛后方兩側(cè)的車道是否有人有車、可否進(jìn)
    發(fā)表于 10-28 15:14

    漫談車載毫米波雷達(dá)歷史

    5. 最大不模糊測速范圍擴(kuò)展技術(shù),滿足高速場景精準(zhǔn)測速的要求6. 擴(kuò)展目標(biāo)的聚類跟蹤技術(shù),得到目標(biāo)精準(zhǔn)的3D BoundingBox信息當(dāng)然,以上介紹的幾項技術(shù)只是簡單的舉例,要想實現(xiàn)毫米波
    發(fā)表于 03-09 10:24

    加特蘭基于AiP毫米波雷達(dá)芯片率先實現(xiàn)3D目標(biāo)跟蹤等功能

    對室內(nèi)人員有無及生命體征狀態(tài)的判斷。 在此基礎(chǔ)上,加特蘭基于AiP毫米波雷達(dá)芯片的新方案又率先實現(xiàn)了3D目標(biāo)跟蹤、房間面積測量等功能,為智能家居、消費電子、養(yǎng)老等市場提供了新方向和選擇
    的頭像 發(fā)表于 03-05 11:53 ?4213次閱讀

    采埃孚4D毫米波雷達(dá)結(jié)構(gòu)拆解分析

    傳統(tǒng)毫米波雷達(dá)也叫3D毫米波雷達(dá),具有3個維度的信息,分別是距離、速度、方位角。而4
    發(fā)表于 05-25 11:46 ?2562次閱讀
    采埃孚4<b class='flag-5'>D</b><b class='flag-5'>毫米波</b><b class='flag-5'>雷達(dá)</b>結(jié)構(gòu)拆解分析

    毫米波雷達(dá)(RADAR)

    1所示,對應(yīng)的外觀如圖2、圖3所示:各毫米波雷達(dá)產(chǎn)品對應(yīng)的功能如下:MRR安裝于車身正前方,能夠?qū)?b class='flag-5'>目標(biāo)區(qū)域內(nèi)的障礙物進(jìn)行檢測與參數(shù)測量、跟蹤
    的頭像 發(fā)表于 01-25 09:31 ?3292次閱讀
    <b class='flag-5'>毫米波</b><b class='flag-5'>雷達(dá)</b>(RADAR)

    毫米波雷達(dá)(RADAR)

    1所示,對應(yīng)的外觀如圖2、圖3所示:各毫米波雷達(dá)產(chǎn)品對應(yīng)的功能如下:MRR安裝于車身正前方,能夠?qū)?b class='flag-5'>目標(biāo)區(qū)域內(nèi)的障礙物進(jìn)行檢測與參數(shù)測量、跟蹤
    的頭像 發(fā)表于 01-25 10:11 ?8533次閱讀
    <b class='flag-5'>毫米波</b><b class='flag-5'>雷達(dá)</b>(RADAR)

    毫米波雷達(dá)模塊的目標(biāo)檢測與跟蹤

    毫米波雷達(dá)技術(shù)在目標(biāo)檢測與跟蹤方面具有獨特的優(yōu)勢,其高精度、不受光照影響等特點使其在汽車、軍事、工業(yè)等領(lǐng)域廣泛應(yīng)用。本文深入探討毫米波
    的頭像 發(fā)表于 11-14 15:50 ?677次閱讀

    基于毫米波雷達(dá)和多視角相機(jī)鳥瞰圖融合3D感知方法

    RCBEVDet針對毫米波雷達(dá)的特性,設(shè)計了一種高效的毫米波雷達(dá)主干網(wǎng)絡(luò)(RadarBEVNet),進(jìn)行點云鳥瞰圖特征提取,RadarBEVNet使用兩種特征表征方式對
    發(fā)表于 04-06 15:06 ?1081次閱讀
    基于<b class='flag-5'>毫米波</b><b class='flag-5'>雷達(dá)</b>和多視角<b class='flag-5'>相機(jī)</b>鳥瞰圖<b class='flag-5'>融合</b>的<b class='flag-5'>3D</b>感知<b class='flag-5'>方法</b>