0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

評(píng)估3D-CoCo在三個(gè)廣泛使用的自動(dòng)駕駛數(shù)據(jù)集上的有效性和泛化性

工程師鄧生 ? 來(lái)源:3D視覺(jué)工坊 ? 作者:HT ? 2022-09-13 10:14 ? 次閱讀

摘要

大多數(shù)現(xiàn)有的點(diǎn)云檢測(cè)模型都需要大規(guī)模、密集標(biāo)注的數(shù)據(jù)集。由于不同的物理環(huán)境或激光雷達(dá)傳感器配置引起的幾何變化,它們通常在域適應(yīng)設(shè)置中表現(xiàn)不佳。因此,在不訪問(wèn)目標(biāo)域的標(biāo)簽的情況下,學(xué)習(xí)有標(biāo)記的源域和新的目標(biāo)域之間的可遷移特征具有挑戰(zhàn)性但很有價(jià)值。為了解決這個(gè)問(wèn)題,我們引入了3D對(duì)比協(xié)同訓(xùn)練(3D-CoCo)框架,該框架有兩項(xiàng)技術(shù)貢獻(xiàn)。

1)首先,3D-CoCo 的靈感來(lái)自于我們的觀察,即鳥(niǎo)瞰圖 (BEV) 特征比低級(jí)幾何特征更容易轉(zhuǎn)移。因此,我們提出了一種新的協(xié)同訓(xùn)練架構(gòu),其中包括具有特定域參數(shù)的單獨(dú) 3D 編碼器,以及用于學(xué)習(xí)域不變特征的 BEV 轉(zhuǎn)換模塊。

2)其次,3D-CoCo 將對(duì)比實(shí)例對(duì)齊的方法擴(kuò)展到點(diǎn)云檢測(cè),其性能在很大程度上受到偽標(biāo)簽導(dǎo)致的BEV特征的虛擬分布與真實(shí)分布之間不匹配的阻礙。通過(guò)考慮特定幾何先驗(yàn),精心設(shè)計(jì)的具有變換點(diǎn)云的3D-CoCo,大大減少了不匹配。 我們使用三個(gè)大型 3D 數(shù)據(jù)集構(gòu)建新的域適應(yīng)benchmarks。實(shí)驗(yàn)結(jié)果表明,我們提出的 3D-CoCo 有效地縮小了域差距,并大大優(yōu)于SOTA方法。

一、引言

3D 點(diǎn)云檢測(cè)在現(xiàn)實(shí)場(chǎng)景中顯示出重要的意義,例如自動(dòng)駕駛 ,而最近的進(jìn)展主要是由高精度 LiDAR 傳感器和大規(guī)模、密集標(biāo)注的點(diǎn)云數(shù)據(jù)集 的出現(xiàn)推動(dòng)的。

大多數(shù)現(xiàn)有的 3D 檢測(cè)模型都假設(shè)訓(xùn)練域和測(cè)試域是獨(dú)立且同分布的。然而,在實(shí)踐中,由于物理環(huán)境或 LiDAR 傳感器配置的差異,包括不同數(shù)量的激光束和安裝位置等,域轉(zhuǎn)移通常是不可避免的。

為了解決這個(gè)問(wèn)題,關(guān)于點(diǎn)云檢測(cè)的無(wú)監(jiān)督域適應(yīng)問(wèn)題的早期研究,其目的是通過(guò)學(xué)習(xí)可遷移特征,將3D檢測(cè)器從有標(biāo)記的源域有效地適配到新的無(wú)標(biāo)記的目標(biāo)域。

以前的圖像數(shù)據(jù)的域適應(yīng)方法并不容易適用于點(diǎn)云。如圖 1 所示,與 2D 場(chǎng)景的域偏移通常存在于圖像外觀不同,3D 場(chǎng)景的域偏移主要體現(xiàn)在點(diǎn)云的幾何變化上。由于來(lái)自不同域的 2D 圖像具有相同的均勻分布像素的網(wǎng)格拓?fù)?,因此大多?shù)域適應(yīng)方法都利用了具有域共享參數(shù)的圖像編碼器,現(xiàn)有的 3D 遷移學(xué)習(xí)模型(如 PointDAN )也采用了這種方法。然而,由于不同點(diǎn)集之間存在嚴(yán)重的low-level幾何偏移,我們認(rèn)為某些特征是可遷移的,而某些特征不能用于 3D 目標(biāo)檢測(cè),這需要重新考慮不同級(jí)的點(diǎn)云表征的可遷移性。

為此,我們提出了一個(gè)名為 3D Contrastive Co-training (3D-CoCo) 的新框架,其架構(gòu)包含具有特定域參數(shù)的單獨(dú) 3D 編碼器、與領(lǐng)域無(wú)關(guān)的 BEV 轉(zhuǎn)換模塊和最終檢測(cè)頭。架構(gòu)設(shè)計(jì)的關(guān)鍵思想是,具有類(lèi)似于圖像的網(wǎng)格結(jié)構(gòu)的 BEV 特征可以比低級(jí) 3D 特征更具可遷移性,從而可以更好地與 2D 視覺(jué)中的高級(jí)遷移學(xué)習(xí)技術(shù)集成,從而大大減少幾何偏移。與特定域編碼器協(xié)同訓(xùn)練架構(gòu)的另一個(gè)好處是,除了改善域適應(yīng)結(jié)果外,它還保持了域內(nèi)的性能。

5e221d0a-32f0-11ed-ba43-dac502259ad0.png

圖 1:2D場(chǎng)景 和 3D 場(chǎng)景之間域偏移的比較。

1)左圖:2D 場(chǎng)景中的域偏移主要體現(xiàn)在外觀變化上,例如自動(dòng)駕駛中的天氣或環(huán)境變化。

2)右圖:3D 域偏移通常表示為幾何變化,這不僅來(lái)自外部環(huán)境,還來(lái)自內(nèi)部傳感器配置。 此外,3D-CoCo 還具有一個(gè)新的端到端對(duì)比學(xué)習(xí)框架,該框架包含兩個(gè)主要組件,即基于鳥(niǎo)瞰圖 (BEV) 特征的對(duì)比實(shí)例對(duì)齊,以及使用轉(zhuǎn)換的點(diǎn)云的困難樣本挖掘。對(duì)比實(shí)例對(duì)齊的目的是,將由偽標(biāo)簽誘導(dǎo)的相似樣本簇的特征質(zhì)心推到彼此更近的位置,無(wú)論它們是在同一域還是不同域中。

此外,我們考慮了 BEV 特征的真實(shí)分布與用于對(duì)比學(xué)習(xí)的虛擬特征分布之間的不匹配,這是由有偏差的偽標(biāo)簽引起的。具體來(lái)說(shuō),我們利用點(diǎn)云的可編輯性,通過(guò)對(duì) 3D 數(shù)據(jù)應(yīng)用特定的變換函數(shù)來(lái)執(zhí)行困難樣本挖掘。困難樣本作為對(duì)比協(xié)同訓(xùn)練的有效補(bǔ)充,可以進(jìn)一步減少跨域的幾何偏移,防止自適應(yīng)模型陷入局部最小值。 值得注意的是,還有另一項(xiàng)工作討論了點(diǎn)云檢測(cè)的遷移學(xué)習(xí),它利用了自訓(xùn)練pipeline,使用目標(biāo)域數(shù)據(jù)上的偽標(biāo)簽重新訓(xùn)練模型。

與這些方法相比,我們采用了不同的問(wèn)題設(shè)置,使用有標(biāo)記的源域數(shù)據(jù)和未標(biāo)記的目標(biāo)域數(shù)據(jù)進(jìn)行協(xié)同訓(xùn)練。通過(guò)消融研究,我們觀察到單獨(dú)編碼器和對(duì)比協(xié)同訓(xùn)練方案,可以逐步過(guò)濾特定域的特征,并學(xué)習(xí)更多跨域的可轉(zhuǎn)移知識(shí)。 我們?cè)u(píng)估了 3D-CoCo 在三個(gè)廣泛使用的自動(dòng)駕駛數(shù)據(jù)集上的有效性和泛化性,這些數(shù)據(jù)集由異構(gòu)激光雷達(dá)傳感器收集,包括Waymo、nuScenes和KITTI。

3D-CoCo 被證明在不同的無(wú)監(jiān)督域適應(yīng)benchmarks上,顯著優(yōu)于現(xiàn)有的點(diǎn)云檢測(cè)方法。

二、預(yù)備工作 問(wèn)題設(shè)置。

點(diǎn)云檢測(cè)的傳統(tǒng)設(shè)置是學(xué)習(xí)一個(gè)基本的 3D對(duì)象檢測(cè)器 D,它從點(diǎn)云P中對(duì)由Y表示的m個(gè)對(duì)象進(jìn)行分類(lèi)和定位:

5e4a584c-32f0-11ed-ba43-dac502259ad0.png

5e6a49a4-32f0-11ed-ba43-dac502259ad0.png


與點(diǎn)云檢測(cè)的典型設(shè)置相比,我們更關(guān)注模型在目標(biāo)域測(cè)試集上的性能,這需要額外的精心設(shè)計(jì)的模塊來(lái)學(xué)習(xí)可遷移的特征。

當(dāng)前的點(diǎn)云探測(cè)器。

當(dāng)前的 3D 點(diǎn)云檢測(cè)器通常由三個(gè)模塊組成:3D 編碼器 E、鳥(niǎo)瞰圖 (BEV) 轉(zhuǎn)換模塊 U 和檢測(cè)頭 H。

5e8c6c32-32f0-11ed-ba43-dac502259ad0.png



為了證明所提出方法的通用性,我們采用了兩種主流架構(gòu),即 VoxelNet 和 PointPillars ,并使用不同的點(diǎn)云處理pipelines作為 3D 編碼器的替代方案。VoxelNet 將點(diǎn)云量化為小的 3D 體素特征,然后使用 3D CNN 沿體素高度將它們壓縮成 2D BEV 空間,而 PointPillars 將點(diǎn)云量化為固定尺寸大小的 2D 網(wǎng)格上的垂直柱,然后對(duì)每個(gè)柱執(zhí)行線性轉(zhuǎn)換和最大池化以獲得 BEV 表征。但他們都沒(méi)有明確考慮遷移學(xué)習(xí)設(shè)置中的域偏移。

5eabd806-32f0-11ed-ba43-dac502259ad0.png

圖 2:所提出的 3D-CoCo 模型的示意圖,其中包含特定域的 3D 編碼器,并對(duì) BEV 特征執(zhí)行對(duì)比自適應(yīng)以實(shí)現(xiàn)實(shí)例級(jí)的特征對(duì)齊。

三、方法

我們提出 3D-CoCo 作為點(diǎn)云檢測(cè)中無(wú)監(jiān)督域適應(yīng)任務(wù)的可行解決方案。它對(duì)從異構(gòu)幾何中學(xué)習(xí)可遷移特征有兩個(gè)貢獻(xiàn),分別是:位于新架構(gòu)設(shè)計(jì)中,如圖 2 所示;以及通過(guò)困難樣本挖掘來(lái)增強(qiáng)的對(duì)比實(shí)例對(duì)齊框架,如圖 3所示。

3.1 3D-CoCo 架構(gòu) 特定域的 3D 編碼器。

由于不同的物理環(huán)境和傳感器配置,3D 場(chǎng)景中的遷移學(xué)習(xí)可能會(huì)遭受劇烈的幾何變化,例如點(diǎn)云的密度變化和不同的遮擋率。盡管一些工作已經(jīng)探索了 3D 前置任務(wù)的模型預(yù)訓(xùn)練 ,但與 2D 場(chǎng)景相比,3D 視覺(jué)仍然缺乏可轉(zhuǎn)移的、經(jīng)過(guò)良好預(yù)訓(xùn)練的backbone。一個(gè)可能的原因是很難減少 3D 編碼器底層幾何表示的域偏移。

直觀地說(shuō),我們期望 3D 檢測(cè)網(wǎng)絡(luò)能夠逐步處理特定域的不可遷移特征,并學(xué)習(xí)領(lǐng)域不變的語(yǔ)義特征。如圖 2 所示,我們提出了一種具有特定域 3D 編碼器的新型模型架構(gòu),它學(xué)習(xí)不同的映射函數(shù)來(lái)解析 LiDAR 點(diǎn),并將其轉(zhuǎn)換為不同領(lǐng)域的鳥(niǎo)瞰圖 (BEV) 空間。值得注意的是,協(xié)同訓(xùn)練架構(gòu)不僅有利于目標(biāo)域的適應(yīng)性能,而且有助于保持源域的性能,因?yàn)樵诓煌幋a器上學(xué)習(xí)可遷移特征可以促進(jìn)雙向的知識(shí)共享。

與領(lǐng)域無(wú)關(guān)的 BEV 轉(zhuǎn)換模塊。

2D 轉(zhuǎn)換模塊與來(lái)自源域和目標(biāo)域的數(shù)據(jù)樣本共同訓(xùn)練。它進(jìn)一步將特定域的 3D 編碼器的輸出壓縮到 BEV 特征圖 M 中。BEV 特征應(yīng)該更具可遷移性,因?yàn)樗鼈兣c 2D 視覺(jué)中基于網(wǎng)格的特征圖具有相似的結(jié)構(gòu),因此可以輕松集成到現(xiàn)有的遷移學(xué)習(xí)技術(shù)?;?M,我們執(zhí)行對(duì)比對(duì)齊訓(xùn)練方案,以鼓勵(lì)學(xué)習(xí)域不變特征。

檢測(cè)頭。

檢測(cè)頭對(duì) BEV 特征圖 M 中的 3D 對(duì)象進(jìn)行分類(lèi)和定位。給定來(lái)自源域的標(biāo)記樣本,檢測(cè)頭被訓(xùn)練以最小化:

5ee0a54a-32f0-11ed-ba43-dac502259ad0.png


算法 1: 3D 對(duì)比協(xié)同訓(xùn)練 (3D-CoCo) 的學(xué)習(xí)過(guò)程

5f053bc6-32f0-11ed-ba43-dac502259ad0.png

5f355784-32f0-11ed-ba43-dac502259ad0.png

3.2 困難樣本增強(qiáng)對(duì)比對(duì)齊

由于點(diǎn)云的特征分布稀疏,使用全局分布對(duì)齊很難實(shí)現(xiàn)域間的有效匹配。因此,我們建議在實(shí)例級(jí)別利用細(xì)粒度對(duì)齊,這通過(guò)困難樣本挖掘得到增強(qiáng),以避免不良的局部最小值。

5f612bde-32f0-11ed-ba43-dac502259ad0.png

5f92a61e-32f0-11ed-ba43-dac502259ad0.png

5fbd2cc2-32f0-11ed-ba43-dac502259ad0.png

5fdccbd6-32f0-11ed-ba43-dac502259ad0.png

圖 3:困難樣本增強(qiáng)對(duì)比對(duì)齊的idea。

(a-b) 一個(gè)簡(jiǎn)單的對(duì)比對(duì)齊的使用,引入了目標(biāo)域中偽標(biāo)簽的樣本分布和ground truth之間的點(diǎn)密度和遮擋率不匹配。

(c) 困難樣本挖掘通過(guò)考慮特定的幾何不匹配來(lái)轉(zhuǎn)換點(diǎn)云。

(d) 原始的對(duì)比對(duì)齊更側(cè)重于對(duì) 3D 場(chǎng)景中 easy samples對(duì)齊,而不是易被忽略的、具有嚴(yán)重遮擋或密度變化的困難樣本。

(e) 3D-CoCo的對(duì)比對(duì)齊方案,通過(guò)轉(zhuǎn)換后的困難樣本有效地增強(qiáng),以實(shí)現(xiàn)進(jìn)一步的對(duì)齊

點(diǎn)云轉(zhuǎn)換為困難樣本。

對(duì)比實(shí)例對(duì)齊的直接使用,往往會(huì)導(dǎo)致由偽標(biāo)簽獲得的樣本分布與目標(biāo)域上的ground truths之間的不匹配。

首先,圖 3(a) 所示,偽標(biāo)簽更集中在點(diǎn)云密集的模式中,而不是點(diǎn)云稀疏的模式中。

其次,圖 3(b) 所示,偽標(biāo)簽不能完全覆蓋嚴(yán)重遮擋的模式。 因此,大多數(shù)由正偽標(biāo)簽誘導(dǎo)的實(shí)例,可以被視為具有足夠點(diǎn)或完整幾何的“簡(jiǎn)單樣本”。然而,我們認(rèn)為被忽視的“困難樣本”更可能分布在如圖 3(d) 所示的邊緣區(qū)域,對(duì)于 3D 遷移學(xué)習(xí)同樣重要。 如圖 3(e) 所示,挖掘困難樣本可以進(jìn)一步促進(jìn)分布對(duì)齊,并防止模型過(guò)擬合不良的局部最小值。創(chuàng)建虛擬困難樣本的關(guān)鍵是考慮圖 3(a-b) 所示的幾何變化的先驗(yàn)。我們?cè)谶@里提出了兩種機(jī)制來(lái)創(chuàng)建虛擬的困難樣本。

圖 3(c) 所示,第一種變換方法,均勻地丟棄現(xiàn)有密集點(diǎn)云中的點(diǎn),模擬激光束數(shù)量的變化。第二種方法通過(guò)破壞簡(jiǎn)單樣本的完整幾何形狀,來(lái)模擬對(duì)象遮擋。具體來(lái)說(shuō),我們計(jì)算某個(gè)樣本的視點(diǎn),隨機(jī)選擇一部分視點(diǎn),丟棄這些角度上的點(diǎn)云。與以前應(yīng)用于 3D 檢測(cè)的常見(jiàn)增強(qiáng)策略(例如旋轉(zhuǎn)和翻轉(zhuǎn))相比 ,變換后的點(diǎn)云通過(guò)減少偽標(biāo)簽引起的目標(biāo)域的分布不匹配,來(lái)專注于有效的對(duì)比實(shí)例對(duì)齊,而不是旨在豐富源域的樣本多樣性。

整體訓(xùn)練流程。

我們提出了一個(gè)帶有 warm-up 過(guò)程的逐步訓(xùn)練程序,如算法1所示。具體來(lái)說(shuō),我們首先在有標(biāo)記的源域上預(yù)訓(xùn)練一個(gè)源檢測(cè)器,并使用它在目標(biāo)集上生成偽標(biāo)簽。然后我們進(jìn)行困難樣本挖掘(HSM)并增加目標(biāo)集。接下來(lái),我們按照方程式 (6) 來(lái)預(yù)熱 3D-CoCo 檢測(cè)模型。這允許在訓(xùn)練的早期階段,更穩(wěn)定的收斂。對(duì)于剩余的epochs,我們使用集成和投票機(jī)制,更新偽標(biāo)簽。在逐步協(xié)同訓(xùn)練中, 逐漸適應(yīng)目標(biāo)域,同時(shí)保持域內(nèi)的性能。

四、實(shí)驗(yàn)

4.1 實(shí)驗(yàn)設(shè)置 數(shù)據(jù)集。

我們?cè)谌齻€(gè)廣泛使用的、基于 LiDAR 的數(shù)據(jù)集上評(píng)估 3D-CoCo,包括 Waymo 、nuScenesKITTI 。每個(gè)數(shù)據(jù)集在外部環(huán)境(即交通狀況)和內(nèi)部傳感器配置(即光束數(shù)量)中,都有特定的屬性,因此它們之間存在巨大的域差距。具體來(lái)說(shuō):

1)Waymo 數(shù)據(jù)集,在美國(guó)全天使用 5 光束LiDAR 傳感器,在多種天氣條件下收集的。

2)nuScenes 數(shù)據(jù)集,由 32 光束激光雷達(dá)傳感器在美國(guó)和新加坡收集。

3)KITTI數(shù)據(jù)集,在陽(yáng)光明媚的白天由德國(guó)的 64 光束 LiDAR 傳感器收集。 我們?cè)跀?shù)據(jù)集之間構(gòu)建了 4 個(gè)域適應(yīng)benchmarks,包括:(i)Waymo→nuScenes,(ii)nuScenes→Waymo,(iii)Waymo→KITTI,和(iv)nuScenes→KITTI。我們使用三個(gè)數(shù)據(jù)集的共同類(lèi)別,即 Car/Vehicle。在這里,KITTI 僅用作目標(biāo)域,因?yàn)樗绕渌麅蓚€(gè)數(shù)據(jù)集小得多。

5ffab074-32f0-11ed-ba43-dac502259ad0.png

表 1:無(wú)監(jiān)督域適應(yīng)的平均精度和相應(yīng)的封閉差距的結(jié)果。請(qǐng)參閱文本以了解度量的定義。

NnuScenes ;KKITTI WWaymo 。

模型比較。

如表 1 所示,首先將 3D-CoCo 與僅使用源域數(shù)據(jù)訓(xùn)練的“Source Only”模型進(jìn)行比較。我們使用包括兩種現(xiàn)有的跨域 3D 檢測(cè)方法: 1)SN 通過(guò)利用目標(biāo)域的對(duì)象級(jí)統(tǒng)計(jì)數(shù)據(jù),來(lái)規(guī)范源域的對(duì)象大小。 2)ST3D [35] 是一種自訓(xùn)練pipeline,通過(guò)使用目標(biāo)域數(shù)據(jù)的偽標(biāo)簽進(jìn)行再訓(xùn)練,實(shí)現(xiàn)了SOTA的域適應(yīng)結(jié)果。

在與我們相同的base檢測(cè)器上,我們重新實(shí)現(xiàn)了 SN 和 ST3D。最后,還將 3D-CoCo 與“Oracle”模型進(jìn)行了比較,該模型使用有標(biāo)記的目標(biāo)域數(shù)據(jù)進(jìn)行訓(xùn)練,以粗略地表示一個(gè)適應(yīng)模型在目標(biāo)域上的最佳性能。

603f9a04-32f0-11ed-ba43-dac502259ad0.png

實(shí)施細(xì)節(jié)。

我們關(guān)注Yin等人,用兩個(gè)交替的 3D 編碼器構(gòu)建base檢測(cè)器,包括 VoxelNet PointPillars。對(duì)于 VoxelNet,我們將體素大小設(shè)置為 (0.1, 0.1, 0.15) m,對(duì)于 PointPillars,我們將體素大小設(shè)置為 (0.1, 0.1) m。我們使用學(xué)習(xí)率為 1.5 × 10?3 的 Adam 優(yōu)化器 。我們將 KITTI 數(shù)據(jù)集的最大訓(xùn)練 epoch 數(shù)設(shè)置為 30,Waymo 數(shù)據(jù)集和 nuScenes 數(shù)據(jù)集設(shè)置為 20,warm-up占總 epoch 的一半。

對(duì)于偽標(biāo)簽生成,我們將 0.7 的high-pass閾值應(yīng)用于 IoU ,以獲得前景樣本,并將 0.2 的low-pass閾值應(yīng)用于背景樣本。為了減少數(shù)據(jù)集之間對(duì)象大小的域偏移,我們使用隨機(jī)對(duì)象縮放 (ROS) 策略 ,在使模型適應(yīng) KITTI 數(shù)據(jù)集時(shí),縮放因子在 [0.75, 0.9] 范圍內(nèi)。這樣,與統(tǒng)計(jì)歸一化(SN)不同,我們的方法不需要目標(biāo)域統(tǒng)計(jì)的準(zhǔn)確先驗(yàn)知識(shí)。

4.2 主要結(jié)果

如表 1 所示,3D-CoCo 在所有適應(yīng)benchmarks上,都大大優(yōu)于所有其他模型。尤其是在基于 VoxelNet 主干的 nuScenes→KITTI 和 Waymo→KITTI 上,3D-CoCo 將 AP3D 中的域差距縮小了大約 81% ~89%。此外,對(duì)于兩個(gè)大規(guī)模數(shù)據(jù)集(即 Waymo 和 nuScenes)之間的適應(yīng)任務(wù),3D-CoCo 也取得了相當(dāng)大的改進(jìn),在 VoxelNet 上將 AP3D 的域差距縮小了 37%,在 PointPillars 上縮小了 50%。

值得注意的是,盡管考慮了 3D 域偏移,SN 和 ST3D 在域適應(yīng)設(shè)置下取得了相對(duì)較小的改進(jìn),甚至對(duì)base模型產(chǎn)生了負(fù)面影響(僅源域)。相比之下,盡管從低質(zhì)量的偽標(biāo)簽開(kāi)始,3D-CoCo 仍然表現(xiàn)良好,因?yàn)橛行У膮f(xié)同訓(xùn)練結(jié)合了有標(biāo)記的源數(shù)據(jù)和增強(qiáng)的困難樣本??傮w結(jié)果驗(yàn)證了 3D-CoCo 在不同無(wú)監(jiān)督域適應(yīng)benchmarks上的可遷移性,以及其泛化到不同檢測(cè)網(wǎng)絡(luò)的能力。

4.3 消融研究 架構(gòu)設(shè)計(jì)。

所有消融研究都是在 nuScenes→KITTI 上進(jìn)行的,使用 VoxelNet 作為網(wǎng)絡(luò)backbone。首先,表2 (I) 比較了在模型架構(gòu)中使用不同參數(shù)共享策略的結(jié)果。通過(guò)用域共享編碼器替換 3D-CoCo 的特定域 3D 編碼器,我們觀察到 AP3D 的域內(nèi)性能下降了 6.5%,跨域性能下降了 5.3%,這表明由于低級(jí)幾何偏移,難以在原始點(diǎn)云上學(xué)習(xí)可遷移的特征。

我們進(jìn)一步評(píng)估了一個(gè)包含單獨(dú) BEV 轉(zhuǎn)換模塊的baseline模型,發(fā)現(xiàn)域適應(yīng)性能在 AP3D 中下降了 5.3%。它展示了 BEV 特征的可轉(zhuǎn)移性。此外,我們的模型可以很好地與 ROS 配合使用,ROS 旨在減少目標(biāo)域上的對(duì)象大小偏差,但不可避免地會(huì)降低源域上的定位精度。使用不同的 ROS 比例因子值,如表 2(II) 所示,我們的模型在域內(nèi)和跨域評(píng)估設(shè)置中始終實(shí)現(xiàn)性能提升。

605e5016-32f0-11ed-ba43-dac502259ad0.png

表 2:架構(gòu)設(shè)計(jì)的消融研究。

圖1E和2E分別表示使用域共享3D編碼器和單獨(dú)的特定域編碼器。1U/2U 表示使用共享/分離的 BEV 轉(zhuǎn)換模塊。所有模型都在所提出的對(duì)比對(duì)齊框架中,使用了隨機(jī)對(duì)象縮放ROS 技術(shù)進(jìn)行訓(xùn)練。在 (I) 中,ROS 比例因子在 [0.75, 0.9] 范圍內(nèi);在 (II) 中,它的范圍在 [0.75, 1.1]。我們報(bào)告了域內(nèi)和跨域的性能。

對(duì)比學(xué)習(xí)方案。

通過(guò)比較表3中的baseline模型 (a) 和 (b) ,我們觀察到平衡背景采樣策略有效地提高了適應(yīng)結(jié)果。通過(guò)進(jìn)一步將模型 (c) 納入比較,這是最終提出的模型,我們驗(yàn)證了使用相似性優(yōu)先標(biāo)準(zhǔn)的有效性。我們進(jìn)一步將 3D-CoCo 與現(xiàn)有的prototype-level 對(duì)齊方法 進(jìn)行比較,這些方法計(jì)算每個(gè)類(lèi)別的所有樣本的歸一化特征作為對(duì)齊的類(lèi)別級(jí)prototypes。

從表 3 中可以看出,由于原型的模糊性,baseline模型 (d) 在實(shí)例級(jí)對(duì)齊情況下比提出的模型 (c) 的性能差得多。此外,如表 4 所示,困難樣本挖掘 (i) 顯著提高了原始的對(duì)比實(shí)例對(duì)齊算法 (e) 的性能,mAP 為 6.8%。通過(guò)比較模型(e-g-i),我們可以看到均勻去除和遮擋模擬兩種變換方法,漸進(jìn)地提高了模型性能。

60862ff0-32f0-11ed-ba43-dac502259ad0.png


表 3:對(duì)比對(duì)齊方案的消融研究。

Bkgd:平衡背景采樣策略;Sim:相似性優(yōu)先準(zhǔn)則;Proto:prototype-level對(duì)齊,而不是instance-level對(duì)齊。


60862ff0-32f0-11ed-ba43-dac502259ad0.png


表 4:困難樣本挖掘的消融研究。

Rand
:隨機(jī)地去除點(diǎn);Unif:均勻地去除點(diǎn);Pers:去除某些視角的點(diǎn)以模擬遮擋。

與自訓(xùn)練pipeline的比較。

基于相同的初始化預(yù)訓(xùn)練源模型,我們將協(xié)同訓(xùn)練過(guò)程(在圖 4 中表示為 CT)與自訓(xùn)練(表示為 ST)進(jìn)行比較。在圖 4(a1) 中,在不更新偽標(biāo)簽的情況下,兩個(gè)模型在早期訓(xùn)練階段都有波動(dòng),但 3D-CoCo 收斂更快、更穩(wěn)定,比自訓(xùn)練模型具有更高的性能。圖 4(a2)顯示了true positive和false positive預(yù)測(cè)的比率,表示為 TPs/FPs。這表明我們的協(xié)同訓(xùn)練方法比自訓(xùn)練baseline產(chǎn)生了更低的檢測(cè)噪聲。

此外,通過(guò)在訓(xùn)練過(guò)程中更新偽標(biāo)簽,如圖 4(b1-b2) 所示,所提出的協(xié)同訓(xùn)練框架在檢測(cè)精度上始終優(yōu)于自訓(xùn)練,并且隨著偽標(biāo)簽的逐步改善,產(chǎn)生的檢測(cè)噪聲極低。

最后,我們對(duì)通過(guò)不同置信度分?jǐn)?shù)過(guò)濾后的偽標(biāo)簽進(jìn)行敏感性分析,其中較低的置信度分?jǐn)?shù)會(huì)帶來(lái)更多的噪聲標(biāo)簽,而較高的置信度分?jǐn)?shù)往往會(huì)錯(cuò)過(guò)positive標(biāo)簽。如圖 4(c1) 所示,由于自訓(xùn)練完全依賴于偽標(biāo)簽,因此它對(duì)過(guò)濾分?jǐn)?shù)更敏感,而我們的協(xié)同訓(xùn)練框架對(duì)偽標(biāo)簽的質(zhì)量更加魯棒。

60be4af2-32f0-11ed-ba43-dac502259ad0.png

圖 4:自訓(xùn)練 (ST) 和提出的協(xié)同訓(xùn)練 (CT) 方法的比較。(a1-a2) 不更新偽標(biāo)簽的訓(xùn)練。(b1-b2) 使用逐步更新的偽標(biāo)簽進(jìn)行訓(xùn)練。(c1-c2) 使用由不同置信度分?jǐn)?shù)過(guò)濾的偽標(biāo)簽進(jìn)行訓(xùn)練。AP3D 表示檢測(cè)精度。TPs/FPs 的比率表示檢測(cè)噪聲。HSM:困難樣本挖掘。

五、相關(guān)工作 3D點(diǎn)云檢測(cè)。

基于 LiDAR 的 3D 檢測(cè)器旨在從點(diǎn)云中定位并分類(lèi) 3D 對(duì)象,點(diǎn)云可大致分為兩類(lèi):基于點(diǎn)的和基于網(wǎng)格的?;邳c(diǎn)的方法將原始點(diǎn)作為輸入,并應(yīng)用 PointNet 來(lái)提取逐點(diǎn)特征并為每個(gè)點(diǎn)生成proposals?;诰W(wǎng)格的方法 提出將點(diǎn)云轉(zhuǎn)換為規(guī)則網(wǎng)格作為模型輸入,其中 Voxelization 是將點(diǎn)云映射為規(guī)則3D 體素的常用技術(shù)。其他方法將點(diǎn)云量化為某些類(lèi)型的 2D 視圖,例如鳥(niǎo)瞰圖 和范圍視圖 。

與基于點(diǎn)的方法相比,它們效率更高,加速了大規(guī)模數(shù)據(jù)集的訓(xùn)練,如 nuScenes 和 Waymo 。在這項(xiàng)工作中,為了計(jì)算效率,我們采用基于anchor-free檢測(cè)頭的 VoxelNet 和 PointPillars作為base檢測(cè)器。

2D 無(wú)監(jiān)督域適應(yīng)。

在 2D 視覺(jué)任務(wù)中提出了多種解決方案,包括分類(lèi) 、檢測(cè) 和分割 ,大致可分為兩類(lèi):分布對(duì)齊 和自訓(xùn)練 。對(duì)于第一組,對(duì)抗學(xué)習(xí)被用來(lái)在特征空間中執(zhí)行對(duì)齊。此外,對(duì)比學(xué)習(xí)也被用于細(xì)粒度的特征對(duì)齊[10,31,24,40]。此外,一些作品借用圖像轉(zhuǎn)換技術(shù)在像素級(jí)別執(zhí)行對(duì)齊 。至于第二組,自訓(xùn)練方法通常分配偽標(biāo)簽來(lái)指導(dǎo)目標(biāo)域上的再訓(xùn)練過(guò)程。

與這些方法相比,3D-CoCo 源于 3D 幾何位移的獨(dú)特屬性。通過(guò)使用特定域的編碼器、與領(lǐng)域無(wú)關(guān)的 BEV 轉(zhuǎn)換模塊和轉(zhuǎn)換后的點(diǎn)集,它有效地將原始的對(duì)比適應(yīng)方法擴(kuò)展到 3D 對(duì)象檢測(cè)。

3D 無(wú)監(jiān)督域適應(yīng)。

最近的一些工作有效地減少了點(diǎn)云分類(lèi) 和語(yǔ)義分割 中的域偏移。在本文中,我們專注于 3D 目標(biāo)檢測(cè)的域適應(yīng)任務(wù),該任務(wù)只有少數(shù)研究工作進(jìn)行了討論。統(tǒng)計(jì)歸一化方法 通過(guò)使用目標(biāo)域的已知統(tǒng)計(jì)數(shù)據(jù)來(lái)歸一化源域的對(duì)象大小,進(jìn)而縮小 3D 域偏移,這在無(wú)監(jiān)督自適應(yīng)任務(wù)中通常是不可用的。

為了解決這個(gè)問(wèn)題,SF-UDA 使用時(shí)間相關(guān)性來(lái)估計(jì)目標(biāo)域中的尺度,并通過(guò)轉(zhuǎn)換偽標(biāo)簽的尺度來(lái)重新訓(xùn)練目標(biāo)域數(shù)據(jù)上的檢測(cè)模型。目前的工作 進(jìn)一步探索了目標(biāo)域數(shù)據(jù)上的偽標(biāo)簽生成機(jī)制,作為自訓(xùn)練的監(jiān)督信號(hào)。由于自訓(xùn)練方法的適應(yīng)過(guò)程可能會(huì)被有噪聲的偽標(biāo)簽誤導(dǎo),這些方法利用復(fù)雜的策略來(lái)提高偽標(biāo)簽的質(zhì)量。與自訓(xùn)練相比,3D-CoCo 利用協(xié)同訓(xùn)練框架,在該框架中,有標(biāo)記的源數(shù)據(jù)可以在適應(yīng)過(guò)程中為檢測(cè)模型提供更穩(wěn)定的監(jiān)督。

六、結(jié)論

在本文中,我們提出了用于點(diǎn)云檢測(cè)的無(wú)監(jiān)督域適應(yīng)的 3D-CoCo。3D-CoCo 包含一個(gè)新穎的模型架構(gòu)和一個(gè)新的對(duì)比學(xué)習(xí)框架?;?BEV 特征在 3D 場(chǎng)景中比低級(jí)幾何特征更具可轉(zhuǎn)移性的特點(diǎn),我們創(chuàng)新性地提出集成領(lǐng)域特定的 3D 編碼器與領(lǐng)域無(wú)關(guān)的 BEV 轉(zhuǎn)換模塊。然后,我們對(duì) BEV 特征進(jìn)行了對(duì)比實(shí)例對(duì)齊,通過(guò)困難樣本挖掘來(lái)增強(qiáng)。三個(gè)自動(dòng)駕駛數(shù)據(jù)集的實(shí)驗(yàn),顯示了 3D-CoCo 的有效性。作為 3D 點(diǎn)云檢測(cè)關(guān)于遷移學(xué)習(xí)問(wèn)題的試點(diǎn)工作,我們遵循無(wú)監(jiān)督域適應(yīng)的典型訓(xùn)練設(shè)置,在訓(xùn)練時(shí)比現(xiàn)有的自訓(xùn)練方法占用更多的內(nèi)存。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3647

    瀏覽量

    134702
  • 檢測(cè)器
    +關(guān)注

    關(guān)注

    1

    文章

    865

    瀏覽量

    47714
  • 轉(zhuǎn)換模塊
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    7139

原文標(biāo)題:3D-CoCo: 3D 對(duì)比協(xié)同訓(xùn)練學(xué)習(xí)點(diǎn)云檢測(cè)的可遷移特征(NeurIPS2021)

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    從《自動(dòng)駕駛地圖數(shù)據(jù)規(guī)范》聊高精地圖在自動(dòng)駕駛中的重要

    自動(dòng)駕駛地圖作為L(zhǎng)3級(jí)及以上自動(dòng)駕駛技術(shù)的核心基礎(chǔ)設(shè)施,其重要隨著智能駕駛技術(shù)的發(fā)展愈發(fā)顯著?!?b class='flag-5'>自動(dòng)駕
    的頭像 發(fā)表于 01-05 19:24 ?439次閱讀
    從《<b class='flag-5'>自動(dòng)駕駛</b>地圖<b class='flag-5'>數(shù)據(jù)</b>規(guī)范》聊高精地圖在<b class='flag-5'>自動(dòng)駕駛</b>中的重要<b class='flag-5'>性</b>

    自動(dòng)駕駛中常提的魯棒個(gè)啥?

    隨著自動(dòng)駕駛技術(shù)的快速發(fā)展,魯棒(Robustness)成為評(píng)價(jià)自動(dòng)駕駛系統(tǒng)的重要指標(biāo)之一。很多小伙伴也會(huì)在自動(dòng)駕駛相關(guān)的介紹中,對(duì)某些功能用魯棒
    的頭像 發(fā)表于 01-02 16:32 ?802次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>中常提的魯棒<b class='flag-5'>性</b>是<b class='flag-5'>個(gè)</b>啥?

    淺析基于自動(dòng)駕駛的4D-bev標(biāo)注技術(shù)

    4D-bev標(biāo)注技術(shù)是指在3D空間中以時(shí)間作為第四個(gè)維度進(jìn)行標(biāo)注的過(guò)程。4D-bev通常在地場(chǎng)景較為復(fù)雜的自動(dòng)駕駛場(chǎng)景中使用,其可以通過(guò)精準(zhǔn)
    的頭像 發(fā)表于 12-06 15:01 ?1054次閱讀
    淺析基于<b class='flag-5'>自動(dòng)駕駛</b>的4<b class='flag-5'>D</b>-bev標(biāo)注技術(shù)

    一文聊聊自動(dòng)駕駛測(cè)試技術(shù)的挑戰(zhàn)與創(chuàng)新

    ,包括場(chǎng)景生成的多樣與準(zhǔn)確、多傳感器數(shù)據(jù)融合的精度驗(yàn)證、高效的時(shí)間同步機(jī)制,以及仿真平臺(tái)與實(shí)際場(chǎng)景的匹配等問(wèn)題。 自動(dòng)駕駛測(cè)試的必要
    的頭像 發(fā)表于 12-03 15:56 ?208次閱讀
    一文聊聊<b class='flag-5'>自動(dòng)駕駛</b>測(cè)試技術(shù)的挑戰(zhàn)與創(chuàng)新

    標(biāo)貝科技:自動(dòng)駕駛中的數(shù)據(jù)標(biāo)注類(lèi)別分享

    自動(dòng)駕駛訓(xùn)練模型的成熟和穩(wěn)定離不開(kāi)感知技術(shù)的成熟和穩(wěn)定,訓(xùn)練自動(dòng)駕駛感知模型需要使用大量準(zhǔn)確真實(shí)的數(shù)據(jù)。據(jù)英特爾計(jì)算,L3+級(jí)自動(dòng)駕駛每輛汽
    的頭像 發(fā)表于 11-22 15:07 ?914次閱讀
    標(biāo)貝科技:<b class='flag-5'>自動(dòng)駕駛</b>中的<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注類(lèi)別分享

    標(biāo)貝科技:自動(dòng)駕駛中的數(shù)據(jù)標(biāo)注類(lèi)別分享

    自動(dòng)駕駛訓(xùn)練模型的成熟和穩(wěn)定離不開(kāi)感知技術(shù)的成熟和穩(wěn)定,訓(xùn)練自動(dòng)駕駛感知模型需要使用大量準(zhǔn)確真實(shí)的數(shù)據(jù)。據(jù)英特爾計(jì)算,L3+級(jí)自動(dòng)駕駛每輛汽
    的頭像 發(fā)表于 11-22 14:58 ?597次閱讀
    標(biāo)貝科技:<b class='flag-5'>自動(dòng)駕駛</b>中的<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注類(lèi)別分享

    Apollo自動(dòng)駕駛開(kāi)放平臺(tái)10.0版即將全球發(fā)布

    ,更為自動(dòng)駕駛行業(yè)的未來(lái)發(fā)展注入了新的活力。 Apollo ADFM大模型在設(shè)計(jì)充分考慮了技術(shù)的安全化性,通過(guò)先進(jìn)的算法和模型訓(xùn)練,
    的頭像 發(fā)表于 11-07 11:24 ?842次閱讀

    MXeval操作與評(píng)估結(jié)果展示#MXeval #主觀評(píng)估 #ADAS #自動(dòng)駕駛

    自動(dòng)駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月16日 17:08:16

    自動(dòng)駕駛HiL測(cè)試方案 ——場(chǎng)景仿真3D演示#ADAS #自動(dòng)駕駛 #VTHiL

    自動(dòng)駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月16日 10:55:35

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些優(yōu)勢(shì)?

    。 硬件級(jí)安全: 自動(dòng)駕駛系統(tǒng)對(duì)安全有極高的要求。FPGA的硬件級(jí)安全使其能夠在硬件層面實(shí)現(xiàn)數(shù)據(jù)加密、防篡改和防攻擊等安全功能,確保自動(dòng)駕駛
    發(fā)表于 07-29 17:11

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些應(yīng)用?

    FPGA(Field-Programmable Gate Array,現(xiàn)場(chǎng)可編程門(mén)陣列)在自動(dòng)駕駛領(lǐng)域具有廣泛的應(yīng)用,其高性能、可配置、低功耗和低延遲等特點(diǎn)為自動(dòng)駕駛的實(shí)現(xiàn)提供了強(qiáng)有
    發(fā)表于 07-29 17:09

    未來(lái)已來(lái),多傳感器融合感知是自動(dòng)駕駛破局的關(guān)鍵

    模態(tài)精準(zhǔn)感知信息,使自動(dòng)駕駛系統(tǒng)可以實(shí)時(shí)精準(zhǔn)地感知道路上的各種狀況。 昱感微融合感知產(chǎn)品方案創(chuàng)新性地 將可見(jiàn)光攝像頭、紅外攝像頭以及4D毫米波雷達(dá)的探測(cè)數(shù)據(jù)在前端(數(shù)據(jù)獲取時(shí))交互,
    發(fā)表于 04-11 10:26

    自動(dòng)駕駛數(shù)據(jù)的生成模型之WoVoGen框架原理

    生成多攝像頭的街景視頻對(duì)于增加自動(dòng)駕駛數(shù)據(jù)至關(guān)重要,解決了對(duì)廣泛而多樣的數(shù)據(jù)的迫切需求。由于多樣
    發(fā)表于 01-25 15:26 ?601次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>的生成模型之WoVoGen框架原理

    自動(dòng)駕駛領(lǐng)域的數(shù)據(jù)匯總

    發(fā)自動(dòng)駕駛論文哪少的了數(shù)據(jù),今天筆者將為大家推薦一篇最新的綜述,總結(jié)了200多個(gè)自動(dòng)駕駛領(lǐng)域的數(shù)據(jù)
    的頭像 發(fā)表于 01-19 10:48 ?1018次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>領(lǐng)域的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>匯總

    萬(wàn)激光基于車(chē)路協(xié)同的自動(dòng)駕駛方案亮相

    如何同時(shí)兼顧安全與成本?是自動(dòng)駕駛的一大難題。萬(wàn)獨(dú)創(chuàng)基于C-V2X的車(chē)路協(xié)同自動(dòng)駕駛解決方案給出了自己的答案。通過(guò)將道路的實(shí)時(shí)交通信息應(yīng)用進(jìn)來(lái),可以降低單車(chē)智能對(duì)于過(guò)多傳感器的依賴和過(guò)多數(shù)據(jù)
    的頭像 發(fā)表于 01-15 11:37 ?1056次閱讀