0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何直接建立2D圖像中的像素和3D點(diǎn)云中的點(diǎn)之間的對(duì)應(yīng)關(guān)系

3D視覺工坊 ? 來(lái)源:3D視覺工坊 ? 作者:HT ? 2022-10-18 09:20 ? 次閱讀

摘 要

準(zhǔn)確描述和檢測(cè) 2D 和 3D 關(guān)鍵點(diǎn)對(duì)于建立跨圖像和點(diǎn)云的對(duì)應(yīng)關(guān)系至關(guān)重要。盡管已經(jīng)提出了大量基于學(xué)習(xí)的 2D 或 3D 局部特征描述符和檢測(cè)器,但目前的研究對(duì)直接地匹配像素和點(diǎn)的共享描述符,以及聯(lián)合關(guān)鍵點(diǎn)檢測(cè)器的推導(dǎo)仍未得到充分探索。

這項(xiàng)工作主要在 2D 圖像和 3D 點(diǎn)云之間建立細(xì)粒度的對(duì)應(yīng)關(guān)系。

為了直接匹配像素和點(diǎn),提出了一個(gè)雙全卷積框架,將 2D 和 3D 輸入映射到共享的潛在表示空間中,進(jìn)而同時(shí)描述并檢測(cè)關(guān)鍵點(diǎn)。此外,設(shè)計(jì)了一種超寬接收機(jī)制和一種新穎的損失函數(shù),以減輕像素和點(diǎn)的局部區(qū)域間的內(nèi)在信息變化。廣泛的實(shí)驗(yàn)結(jié)果表明,我們的框架在圖像和點(diǎn)云之間的細(xì)粒度匹配方面,表現(xiàn)出具有競(jìng)爭(zhēng)力的性能,并在室內(nèi)視覺定位任務(wù)中取得了SOTA的結(jié)果。 696614a8-4e72-11ed-a3b6-dac502259ad0.png

圖 1:P2-Net 獲得的 2D-3D 匹配的示例。所提出的方法,可以通過(guò)學(xué)習(xí)的聯(lián)合特征描述和檢測(cè),直接建立跨圖像和點(diǎn)云的對(duì)應(yīng)關(guān)系。

一、引言

在圖像和點(diǎn)云之間,分別建立準(zhǔn)確的像素級(jí)和點(diǎn)級(jí)的匹配是一項(xiàng)基本的計(jì)算機(jī)視覺任務(wù),這對(duì)于多種應(yīng)用至關(guān)重要,例如SLAM [34]、SFM [44] 、位姿估計(jì) [35]、3D 重建 [25] 和視覺定位 [42]。 大多數(shù)方法的典型流程是:

首先,在給定圖像序列 [24, 41] 的情況下恢復(fù) 3D 結(jié)構(gòu);

然后,根據(jù) 2D 到 3D 重投影特征,執(zhí)行像素和點(diǎn)之間的匹配。

這些特征將是同質(zhì)的,因?yàn)橹亟ǖ?3D 模型中的點(diǎn),從圖像序列的相應(yīng)像素來(lái)繼承描述符。然而,這個(gè)兩步過(guò)程需要精確的 3D 重建,這并不總是可行的,例如,在具有挑戰(zhàn)性的光照?qǐng)鼍盎蛞朁c(diǎn)變化很大的情況下。更關(guān)鍵的是,這種方法將 RGB 圖像視為首要考量,并忽略了能夠直接捕獲 3D 點(diǎn)云的傳感器的等效性,例如激光雷達(dá)、成像雷達(dá)和深度相機(jī)。

這些因素促使我們考慮像素和點(diǎn)匹配的統(tǒng)一方法,其中可以提出一個(gè)懸而未決的問(wèn)題:如何直接建立 2D 圖像中的像素和 3D 點(diǎn)云中的點(diǎn)之間的對(duì)應(yīng)關(guān)系,反之亦然。這本質(zhì)上是具有挑戰(zhàn)性的,因?yàn)?2D 圖像捕捉場(chǎng)景外觀,而 3D 點(diǎn)云編碼結(jié)構(gòu)。 為此,我們制定了直接的 2D 像素和 3D 點(diǎn)匹配的新任務(wù)(參見圖 1),無(wú)需任何輔助的步驟(例如:3D重建)。

這項(xiàng)任務(wù)對(duì)于現(xiàn)有的傳統(tǒng)和基于學(xué)習(xí)的方法來(lái)說(shuō),無(wú)疑是具有挑戰(zhàn)性的,它們無(wú)法彌合 2D 和 3D 特征表示之間的差距,因?yàn)閱为?dú)提取的 2D 和 3D 局部特征是不同的,并且不共享共同的embedding。一些最近的研究工作 [20, 39],嘗試通過(guò)將 2D 和 3D 輸入映射到共享的潛在空間來(lái)關(guān)聯(lián)來(lái)自不同域的描述符。然而,他們構(gòu)建了patch-wise描述符,僅具有粗粒度匹配結(jié)果。 即使可以成功獲得細(xì)粒度且準(zhǔn)確的描述符,直接的像素和點(diǎn)間的對(duì)應(yīng)關(guān)系仍然很難建立。

首先,根據(jù)不同的策略來(lái)提取2D和3D關(guān)鍵點(diǎn),這導(dǎo)致 2D 中具有良好匹配的因素(例如:平面、視覺上不同的區(qū)域,如海報(bào)),但不一定對(duì)應(yīng)于3D中強(qiáng)匹配的因素(例如:房間中照明不佳的角落)。

此外,由于點(diǎn)云的稀疏性,一個(gè)3D點(diǎn)的局部特征可以映射到許多像素特征,從空間上接近或來(lái)自該點(diǎn)的像素中提取得到,從而這也增加了匹配的模糊度。

其次,由于 2D 和 3D 數(shù)據(jù)屬性之間的巨大差異,以及不靈活的優(yōu)化方式,用于 2D 或 3D 局部特征描述的現(xiàn)有描述符損失公式 [18, 31, 2] 不能保證在新環(huán)境下的收斂。此外,目前檢測(cè)器的設(shè)計(jì)只專注于懲罰來(lái)自安全區(qū)域的混雜描述符,在實(shí)際中這會(huì)導(dǎo)致次優(yōu)匹配結(jié)果。

為了應(yīng)對(duì)所有的這些挑戰(zhàn),我們提出了一個(gè)雙全卷積框架,稱為像素和點(diǎn)網(wǎng)絡(luò) (P2-Net),它能夠同時(shí)實(shí)現(xiàn)2D和3D視圖之間的特征描述和檢測(cè)。此外,在提取描述符時(shí)應(yīng)用了超寬接收機(jī)制(ultra-wide reception),用于解決2D像素和3D點(diǎn)的局部區(qū)域間的內(nèi)在信息變化。為了優(yōu)化網(wǎng)絡(luò),我們?cè)O(shè)計(jì)了 P2-Loss,它由兩個(gè)部分組成:

圓形引導(dǎo)的描述符損失(circle-guided descriptor loss)與完整的采樣策略相結(jié)合,允許通過(guò)在self-paced中優(yōu)化正匹配和負(fù)匹配,從而穩(wěn)健地學(xué)習(xí)獨(dú)特的描述符;

Batch-hard檢測(cè)器損失(batchhard detector loss,),它通過(guò)鼓勵(lì)正匹配和全局最難匹配之間的差異,從而額外尋求檢測(cè)的可重復(fù)性。

總的來(lái)說(shuō),我們的貢獻(xiàn)如下: 1. 我們提出了一個(gè)具有超寬接收機(jī)制的聯(lián)合學(xué)習(xí)框架,用于同時(shí)描述并檢測(cè) 2D和3D 局部特征,以實(shí)現(xiàn)直接的2D 像素和3D 點(diǎn)的匹配。 2. 我們?cè)O(shè)計(jì)了一種新穎的損失函數(shù),由circle-guided的描述符損失和batch-hard的檢測(cè)器損失組成,以穩(wěn)健地學(xué)習(xí)獨(dú)特的描述符,同時(shí)準(zhǔn)確地引導(dǎo)像素和點(diǎn)的檢測(cè)。 3. 我們進(jìn)行了廣泛的實(shí)驗(yàn)和消融研究,證明了所提出框架的實(shí)用性和新?lián)p失的泛化能力,并說(shuō)明了我們選擇的道理。 據(jù)我們所知,這是第一個(gè)為直接像素和點(diǎn)匹配,處理 2D和3D 局部特征描述和檢測(cè)的聯(lián)合學(xué)習(xí)框架。

二、相關(guān)工作

2.1 2D局部特征的描述和檢測(cè)

以前2D 域中基于學(xué)習(xí)的方法,只是用可學(xué)習(xí)的替代方法替換了描述符 [50、51、30、19、38] 或檢測(cè)器 [43、59、4]。最近,二維局部特征的聯(lián)合描述和檢測(cè)方法,引起了越來(lái)越多的關(guān)注。LIFT [57] 是第一個(gè)完全基于學(xué)習(xí)的架構(gòu),通過(guò)使用神經(jīng)網(wǎng)絡(luò)重建 SIFT 的主要步驟來(lái)實(shí)現(xiàn)這一目標(biāo)。受 LIFT 的啟發(fā),SuperPoint [16] 還將關(guān)鍵點(diǎn)檢測(cè)作為監(jiān)督任務(wù)處理,在描述之前使用標(biāo)記的合成數(shù)據(jù),然后擴(kuò)展到無(wú)監(jiān)督版本 [13]。不同的是,DELF [36] 和 LF-Net [37] 分別利用注意力機(jī)制和不對(duì)稱梯度反向傳播方案,來(lái)實(shí)現(xiàn)無(wú)監(jiān)督學(xué)習(xí)。

與之前單獨(dú)學(xué)習(xí)描述符和檢測(cè)器的研究不同,D2-Net [18] 設(shè)計(jì)了一個(gè)基于非極大值抑制的聯(lián)合優(yōu)化框架。為了進(jìn)一步鼓勵(lì)關(guān)鍵點(diǎn)的可靠和可重復(fù),R2D2 [40] 提出了一種基于可微平均精度的list-wise排序損失。同時(shí),基于相同的目的,ASLFeat [31] 中引入了可變形卷積。

2.2 3D局部特征的描述和檢測(cè)

3D 領(lǐng)域的大多數(shù)先前工作,集中在描述符的學(xué)習(xí)上。早期的嘗試 [46, 60] 不是直接處理 3D 數(shù)據(jù),而是從多視圖圖像中提取特征表示,從而進(jìn)行3D 關(guān)鍵點(diǎn)的描述。相比之下,3DMatch [58] 和 PerfectMatch [23] 通過(guò)將 3D-Patch分別轉(zhuǎn)換為截?cái)嗑嚯x函數(shù)值和平滑密度值表示的體素網(wǎng)格,從而來(lái)構(gòu)造描述符。Ppf-Net 及其擴(kuò)展 [14, 15] 直接對(duì)無(wú)序點(diǎn)集進(jìn)行操作,以描述 3D 關(guān)鍵點(diǎn)。然而,這種方法需要點(diǎn)云Patch作為輸入,導(dǎo)致效率問(wèn)題。這種約束嚴(yán)重限制了它的實(shí)用性,特別是在需要細(xì)粒度應(yīng)用時(shí)。

除此之外,FCGF [12] 中提出了具有全卷積設(shè)置的密集特征描述。對(duì)于檢測(cè)器學(xué)習(xí),USIP [27] 利用概率倒角損失,以無(wú)監(jiān)督的方式檢測(cè)和定位關(guān)鍵點(diǎn)。受此啟發(fā),3DFeat-Net [56] 首次嘗試在點(diǎn)塊上進(jìn)行 3D 關(guān)鍵點(diǎn)聯(lián)合描述和檢測(cè),然后由 D3Feat [2] 改進(jìn)以處理全幀點(diǎn)集。

2.3 2D-3D 局部特征的描述

與在單個(gè) 2D或3D 域中,經(jīng)過(guò)充分研究的學(xué)習(xí)描述符領(lǐng)域不同,很少有人關(guān)注 2D-3D 特征描述的學(xué)習(xí)。[29] 通過(guò)將手工制作的 3D描述符直接綁定到學(xué)習(xí)的圖像描述符,為對(duì)象級(jí)的檢索任務(wù)生成 2D-3D 描述符。類似地,3DTNet [54] 為 3D-Patch學(xué)習(xí)獨(dú)特的 3D 描述符,并從 2D-Patch中提取輔助 2D 特征。

最近,2D3DMatch-Net [20] 和 LCD [39] 都提出學(xué)習(xí)的描述符,以便在 2D和3D局部Patch之間直接匹配,以解決檢索問(wèn)題。但是,所有這些方法都是基于Patch的,不適用于需要高分辨率輸出的實(shí)際用途。相比之下,我們的目標(biāo)是在單個(gè)前向傳遞中,提取每個(gè)3D點(diǎn)的描述符并檢測(cè)關(guān)鍵點(diǎn)的位置,以實(shí)現(xiàn)有效應(yīng)用。 6b36fc7a-4e72-11ed-a3b6-dac502259ad0.png

圖 2:提出的 P2-Net 框架的概述

我們的架構(gòu)是一個(gè)雙分支全卷積網(wǎng)絡(luò),用于同時(shí)進(jìn)行 2D和3D 特征的描述 (A) 以及關(guān)鍵點(diǎn)的檢測(cè) (B)。

該網(wǎng)絡(luò)與描述符損失 聯(lián)合優(yōu)化,以增強(qiáng)相應(yīng)特征表示的相似性;同時(shí),檢測(cè)器損失 鼓勵(lì)更高的判別對(duì)應(yīng)的檢測(cè)分?jǐn)?shù)。

三、像素和點(diǎn)匹配

在本節(jié)中,我們首先詳細(xì)介紹了所提出的P2-Net的架構(gòu),包括聯(lián)合特征描述和關(guān)鍵點(diǎn)檢測(cè)[18]。接下來(lái),我們展示我們?cè)O(shè)計(jì)的 P2-Loss,它由循環(huán)引導(dǎo)的描述符損失和批量硬檢測(cè)器損失組成。最后,提供了訓(xùn)練和測(cè)試階段的實(shí)驗(yàn)細(xì)節(jié)。

3.1 P2-Net 架構(gòu)

6b706758-4e72-11ed-a3b6-dac502259ad0.png

在被 L2 歸一化后,這些描述符可以很容易地在圖像和點(diǎn)云之間進(jìn)行比較,使用余弦相似度作為度量來(lái)建立對(duì)應(yīng)關(guān)系。在訓(xùn)練期間,描述符將被優(yōu)化,以便場(chǎng)景中的像素和點(diǎn)對(duì)應(yīng)產(chǎn)生相似的描述符,即使圖像或點(diǎn)云包含強(qiáng)烈的變化或噪聲。為清楚起見,我們?cè)谙挛闹腥匀皇褂?d 來(lái)表示其規(guī)范化形式。

如圖 2.A 所示,利用兩個(gè)全卷積網(wǎng)絡(luò)分別對(duì)圖像和點(diǎn)云進(jìn)行特征描述。然而,由于 2D和3D 局部區(qū)域之間信息密度的內(nèi)在變化,通過(guò)描述符將像素與點(diǎn)正確關(guān)聯(lián)并非易事(圖 3.A)。具體來(lái)說(shuō),由于點(diǎn)云的稀疏性,一個(gè)3D點(diǎn)提取的局部信息通常大于一個(gè)2D像素。

為了解決不對(duì)稱嵌入的關(guān)聯(lián)問(wèn)題并更好地捕獲局部幾何信息,我們?cè)O(shè)計(jì)了基于超寬接收機(jī)制(ultra-wide reception mechanism)的 2D 提取器,如圖 3.B 所示。為了計(jì)算效率,這種機(jī)制是通過(guò)9個(gè) 3×3 卷積層實(shí)現(xiàn)的,膨脹值從 1 到 16 逐漸加倍。最后,生成 H×W×128 特征圖,然后生成其對(duì)應(yīng)的 H×W×1 檢測(cè)圖可以計(jì)算。同樣,我們修改 KPconv [49] 以輸出 128D 的描述符,以及輸入的點(diǎn)云中每個(gè)點(diǎn)的分?jǐn)?shù)。

6bb49ab8-4e72-11ed-a3b6-dac502259ad0.png


在訓(xùn)練期間,使用峰值[40]將上述過(guò)程軟化為可訓(xùn)練且密度不變:

6c108d96-4e72-11ed-a3b6-dac502259ad0.png

6c3c364e-4e72-11ed-a3b6-dac502259ad0.png

在測(cè)試過(guò)程中,將選擇得分最高的像素或點(diǎn)作為匹配的關(guān)鍵點(diǎn)。

6c63577e-4e72-11ed-a3b6-dac502259ad0.png

圖 3:為了減輕 2D和3D 局部區(qū)域之間的內(nèi)在信息變化 (A),在特征描述的 2D分支中應(yīng)用了具有逐漸加倍膨脹值的超寬接收機(jī)制 (B),最高可達(dá) 16。

3.2 P2-loss 公式

為了使所提出的網(wǎng)絡(luò),在單個(gè)前向傳遞中描述和檢測(cè) 2D和3D 關(guān)鍵點(diǎn),我們?cè)O(shè)計(jì)了一種新的損失,它聯(lián)合優(yōu)化了像素和點(diǎn)的描述和檢測(cè)目標(biāo),稱為 P2-Loss:

6ca32034-4e72-11ed-a3b6-dac502259ad0.png


圓形引導(dǎo)(Circle-guided)的描述符損失。

為了學(xué)習(xí)獨(dú)特的描述符,各種優(yōu)化策略,如hard三元組和hard對(duì)比損失 [18,31,2] 已廣泛用于 2D 或 3D 領(lǐng)域。然而,這些公式只關(guān)注hard負(fù)匹配,并且通過(guò)實(shí)驗(yàn)我們發(fā)現(xiàn):它們?cè)谖覀兊?2D-3D 上下文中沒有收斂。受使用權(quán)重因子和圓形決策邊界的 Circle Loss [47] 的啟發(fā),我們?cè)O(shè)計(jì)了一個(gè)具有完整采樣策略的圓形引導(dǎo)的描述符損失,而不是僅考慮hard負(fù)匹配,這允許self-paced優(yōu)化并避免收斂模糊。

6cdeb9e6-4e72-11ed-a3b6-dac502259ad0.png

6ddfdbae-4e72-11ed-a3b6-dac502259ad0.png

6e0c1da4-4e72-11ed-a3b6-dac502259ad0.png


Batch-hard檢測(cè)器損失。

在檢測(cè)的情況時(shí),關(guān)鍵點(diǎn)應(yīng)該足夠獨(dú)特,且可以重復(fù)檢測(cè)。然而,實(shí)現(xiàn)這一目標(biāo)面臨兩個(gè)實(shí)際挑戰(zhàn): 1)特征描述中的超寬接收機(jī)制,可能會(huì)使空間上接近的像素具有非常相似的描述符; 2)我們的描述符損失中的全采樣策略,僅對(duì)安全區(qū)域之外的負(fù)匹配有效。它們都會(huì)降低關(guān)鍵點(diǎn)的獨(dú)特性,從而導(dǎo)致錯(cuò)誤的分配。 為此,我們?cè)O(shè)計(jì)了一個(gè)Batch-hard檢測(cè)器損失,在整個(gè)圖像或點(diǎn)云空間而不是特定區(qū)域上,應(yīng)用hardest-in-batch策略 [33],以鼓勵(lì)最佳匹配的獨(dú)特性和可重復(fù)性。

6e9f03b2-4e72-11ed-a3b6-dac502259ad0.png


3.3 實(shí)驗(yàn)細(xì)節(jié)

訓(xùn)練。

我們使用 PyTorch 實(shí)現(xiàn)我們的方法。在訓(xùn)練期間,我們使用 1 的batch size,具有超過(guò)128個(gè)像素點(diǎn)對(duì)應(yīng)關(guān)系的圖像點(diǎn)云對(duì)。為了計(jì)算效率,個(gè)對(duì)應(yīng)從每對(duì)隨機(jī)采樣,以在每一步中進(jìn)行優(yōu)化。我們?cè)O(shè)置平衡因子λ=1,邊距m=0.2,比例因子ζ=10,圖像鄰域像素,點(diǎn)云鄰域。最后,我們使用 ADAM 求解器訓(xùn)練網(wǎng)絡(luò),并使用 10-4 的初始學(xué)習(xí)率和指數(shù)衰減。

測(cè)試。

在測(cè)試過(guò)程中,我們利用方程式2中展示的硬選擇策略。而不是軟選擇來(lái)掩蓋空間上太近的檢測(cè)。此外,類似 SIFT 的邊緣消除,應(yīng)用于圖像的關(guān)鍵點(diǎn)檢測(cè)。為了評(píng)估,我們選擇與方程式 4中計(jì)算的檢測(cè)分?jǐn)?shù)相對(duì)應(yīng)的前 K 個(gè)關(guān)鍵點(diǎn)。

四、實(shí)驗(yàn)

我們首先證明了 P2-Net 在直接的2D像素和3D點(diǎn)匹配任務(wù)上的有效性,然后在下游任務(wù)(即視覺定位)上對(duì)其進(jìn)行評(píng)估。此外,我們通過(guò)分別與圖像匹配和點(diǎn)云配準(zhǔn)任務(wù)中的最新方法進(jìn)行比較,檢查了我們?cè)O(shè)計(jì)的 P2-Loss 在單個(gè) 2D 和 3D 域中的泛化能力。最后,我們研究了損失選擇的影響。

4.1 圖像和點(diǎn)云匹配

為了實(shí)現(xiàn)細(xì)粒度的圖像和點(diǎn)云匹配,需要一個(gè)帶有2D像素和3D點(diǎn)對(duì)應(yīng)標(biāo)注的圖像和點(diǎn)云對(duì)數(shù)據(jù)集。據(jù)我們所知,沒有具有此類對(duì)應(yīng)標(biāo)簽的公開可用數(shù)據(jù)集。為了解決這個(gè)問(wèn)題,我們?cè)诎?RGB-D 掃描的現(xiàn)有 3D 數(shù)據(jù)集上標(biāo)注了 2D-3D 對(duì)應(yīng)標(biāo)簽。

具體來(lái)說(shuō),我們數(shù)據(jù)集的 2D-3D 對(duì)應(yīng)關(guān)系是在 7Scenes 數(shù)據(jù)集 [21, 45] 上生成的,該數(shù)據(jù)集由 7 個(gè)室內(nèi)場(chǎng)景和 46 個(gè) RGB-D 序列組成,包括各種相機(jī)運(yùn)動(dòng)狀態(tài),以及不同條件(例如運(yùn)動(dòng)模糊)的感知混疊和室內(nèi)沒有紋理特征的情況。眾所周知,這些條件對(duì)于圖像和點(diǎn)云匹配都具有挑戰(zhàn)性。

4.1.1 特征匹配評(píng)估

我們對(duì) 7Scenes 數(shù)據(jù)集采用與 [21, 45] 中相同的數(shù)據(jù)拆分策略,來(lái)準(zhǔn)備訓(xùn)練集和測(cè)試集。具體來(lái)說(shuō),選擇了 18 個(gè)序列進(jìn)行測(cè)試,其中包含部分重疊的圖像和點(diǎn)云對(duì)應(yīng),以及 ground-truth 變換矩陣。

評(píng)估指標(biāo)。

為了全面評(píng)估我們提出的 P2-Net 和 P2-Loss 在細(xì)粒度圖像和點(diǎn)云匹配上的性能,在以前的圖像或點(diǎn)云匹配任務(wù)中,五個(gè)指標(biāo)廣泛使用 [31、18、3、27、58、17、2]:

Feature Matching Recall,內(nèi)點(diǎn)比例高于閾值(τ1 = 0.5)的圖像和點(diǎn)云對(duì)的百分比;

Inlier Ratio,正確的像素點(diǎn)匹配,在所有可能匹配中的百分比。如果像素和點(diǎn)對(duì)之間的距離在其ground-truth變換下低于閾值(τ2 = 4.5cm),則接受為正確匹配;

Keypoint Repeatability,可重復(fù)的關(guān)鍵點(diǎn)占所有檢測(cè)到的關(guān)鍵點(diǎn)的百分比,其中圖像中的關(guān)鍵點(diǎn)在真實(shí)變換下,如果與點(diǎn)云中最近關(guān)鍵點(diǎn)的距離小于閾值(τ3 = 2cm),則認(rèn)為圖像中的關(guān)鍵點(diǎn)是可重復(fù)的;

Recall,正確匹配占所有真實(shí)匹配的百分比;

Registration Recall,圖像和點(diǎn)云對(duì)的估計(jì)轉(zhuǎn)換誤差小于閾值(RMSE < 5cm)的百分比。

描述符和網(wǎng)絡(luò)的比較。為了研究描述符的影響,我們報(bào)告了

傳統(tǒng) SIFT 和 SIFT3D 描述符的結(jié)果;

使用 D2-Net 損失 (P2[D2 Triplet]) [18] 訓(xùn)練的 P2-Net ;

使用 D3Feat 損失 (P2[D3 Contrastive]) [2] 訓(xùn)練的 P2-Net。

此外,為了證明 P2-Net 中 2D 分支的優(yōu)越性,我們將其替換為 4) R2D2 網(wǎng)絡(luò) (P2[R2D2]) [40] 和 5) ASL 網(wǎng)絡(luò) (P2[ASL]) [31]。 其他的訓(xùn)練或測(cè)試設(shè)置使用,與我們提出的損失 (P2[Full]) 訓(xùn)練的架構(gòu)相同,以進(jìn)行公平比較。其中,P2[R2D2] 和 P2[Full] 都采用 L2-Net 風(fēng)格的 2D 特征提取器[50],但后者通過(guò)我們的超寬接收機(jī)制進(jìn)行了改進(jìn)。

如表1中所示。傳統(tǒng)的描述符無(wú)法匹配,因?yàn)槭止ぴO(shè)計(jì)的 2D 和 3D 描述符是異構(gòu)的。P2[D2 Triplet] 和 P2[D3 Contrastive] 都不能保證像素和點(diǎn)的匹配任務(wù)收斂。

然而,當(dāng)采用我們的損失時(shí),由于 R2D2 和 ASL 的固有特征提取器限制,P2[R2D2] 和 P2[ASL] 模型不僅收斂,而且在大多數(shù)場(chǎng)景中表現(xiàn)出更好的性能,除了具有挑戰(zhàn)性的樓梯場(chǎng)景。此外,P2[R2D2]和P2[Full]的比較也證明了超寬接收機(jī)制的有效性??傮w而言,我們的 P2[Full] 在所有評(píng)估指標(biāo)上始終表現(xiàn)更好,在所有場(chǎng)景中都遠(yuǎn)遠(yuǎn)優(yōu)于所有的競(jìng)爭(zhēng)方法。

檢測(cè)器的比較。

為了證明聯(lián)合學(xué)習(xí)檢測(cè)器和描述符的重要性,我們報(bào)告了使用我們的圓形引導(dǎo)描述符損失,以及:

沒有檢測(cè)器但在推理過(guò)程中隨機(jī)采樣關(guān)鍵點(diǎn)(P2[w/o Det]),訓(xùn)練的 P2-Net 的結(jié)果;

沒有檢測(cè)器但具有傳統(tǒng)的 SIFT 和 SIFT3D 關(guān)鍵點(diǎn) (P2[Mixed]);

用原始的D2Net檢測(cè)器(P2[D2 Det])[18];

使用 D3Feat 檢測(cè)器 (P2[D3 Det]) [2];

我們的 batch-hard檢測(cè)器損失,但使用隨機(jī)采樣的關(guān)鍵點(diǎn)進(jìn)行測(cè)試(P2[Rand]),用來(lái)表明我們提出的檢測(cè)器的優(yōu)越性。

從表1可以看出,當(dāng)檢測(cè)器沒有與整個(gè)模型聯(lián)合訓(xùn)練時(shí),P2[w/o Det] 在所有評(píng)估指標(biāo)和場(chǎng)景上表現(xiàn)最差。在引入傳統(tǒng)檢測(cè)器后,P2[Mixed]對(duì)此類指標(biāo)略有改進(jìn)。然而,當(dāng)使用所提出的檢測(cè)器時(shí),P2[Rand] 比 P2[Mixed] 取得了更好的結(jié)果。

這些結(jié)果最終表明,檢測(cè)器的聯(lián)合學(xué)習(xí)也有利于加強(qiáng)描述符學(xué)習(xí)本身。在 P2[D2 Det] 和 P2[D3 Det] 中也可以觀察到類似的改進(jìn)。顯然,如果我們的損失完全使用,我們的 P2[Full] 能夠在所有評(píng)估指標(biāo)方面保持有競(jìng)爭(zhēng)力的匹配質(zhì)量。值得一提的是,特別是在樓梯的場(chǎng)景中,P2[Full] 是唯一在所有指標(biāo)上都達(dá)到出色匹配性能的方法。

相比之下,由于在這種具有挑戰(zhàn)性的場(chǎng)景中高度重復(fù)的紋理,大多數(shù)其他競(jìng)爭(zhēng)方法都失敗了。這表明即使在具有挑戰(zhàn)性的條件下,關(guān)鍵點(diǎn)也能被穩(wěn)健地檢測(cè)并匹配,這是可靠關(guān)鍵點(diǎn)擁有的理想屬性。

定性結(jié)果。

圖 1 顯示了來(lái)自不同場(chǎng)景中,圖像和點(diǎn)云的前1000個(gè)檢測(cè)到的關(guān)鍵點(diǎn)。圖像中檢測(cè)到的像素(左,綠色)和點(diǎn)云中檢測(cè)到的點(diǎn)(右,紅色)顯示在國(guó)際象棋和樓梯上。為清楚起見,我們隨機(jī)突出顯示一些好的匹配項(xiàng)(藍(lán)色、橙色),以便更好地展示對(duì)應(yīng)關(guān)系。

可以看出,通過(guò)我們提出的描述符,這些檢測(cè)到的2D像素和3D點(diǎn)直接且穩(wěn)健地關(guān)聯(lián),這對(duì)于現(xiàn)實(shí)世界的下游應(yīng)用至關(guān)重要(例如,跨域信息檢索和定位任務(wù))。此外,由于我們的網(wǎng)絡(luò)與檢測(cè)器聯(lián)合訓(xùn)練,因此關(guān)聯(lián)能夠繞過(guò)無(wú)法準(zhǔn)確匹配的區(qū)域,例如重復(fù)模式。

更具體地說(shuō),我們的檢測(cè)器主要關(guān)注具有幾何意義的區(qū)域(例如:物體的角和邊緣),而不是無(wú)特征區(qū)域(例如:地板、屏幕和桌面),因此在環(huán)境變化中表現(xiàn)出更好的一致性。
6f6a275e-4e72-11ed-a3b6-dac502259ad0.png


表 1:7Scenes 數(shù)據(jù)集上的比較 [21, 45]。評(píng)估指標(biāo)在給定閾值時(shí)報(bào)告。

4.1.2 在視覺定位上的應(yīng)用

為了進(jìn)一步說(shuō)明 P2-Net 的實(shí)際用途,我們?cè)?7-Scenes 數(shù)據(jù)集上執(zhí)行視覺定位的下游任務(wù) [52, 28]。這里的關(guān)鍵定位挑戰(zhàn)在于,在顯著運(yùn)動(dòng)模糊、感知混疊和無(wú)紋理模式下,像素和點(diǎn)之間的細(xì)粒度匹配。我們針對(duì)基于 [48、55] 和場(chǎng)景坐標(biāo)回歸pipeline的 2D 特征匹配 [6、32、5、7、55、28] 來(lái)評(píng)估我們的方法。請(qǐng)注意,現(xiàn)有baseline只能定位 3D 地圖中的查詢圖像,而我們的方法不受此限制,也可以通過(guò)反向查詢從 3D 定位到 2D。進(jìn)行以下實(shí)驗(yàn),以顯示我們方法的獨(dú)特性:

在給定的 3D 地圖(P2[3D Map])中恢復(fù)查詢圖像的相機(jī)位姿;

在給定的 2D 中恢復(fù)查詢點(diǎn)云的位姿地圖(P2[2D 地圖])。

評(píng)估標(biāo)準(zhǔn)。

我們遵循 [42, 48, 55] 中使用的相同評(píng)估pipeline。該pipeline通常將輸入作為查詢圖像和3D點(diǎn)云子圖(例如:由 NetVLAD [1] 檢索),并利用傳統(tǒng)的手工制作的或預(yù)訓(xùn)練的深度描述符來(lái)建立像素和點(diǎn)之間的匹配。然后將此類匹配作為帶有RANSAC [5] 的 PnP 的輸入,以恢復(fù)最終的相機(jī)位姿。

在這里,我們采用 [55] 中的相同設(shè)置,來(lái)構(gòu)建覆蓋范圍高達(dá) 49.6 厘米的 2D或3D 子圖。由上可知,我們的目標(biāo)是評(píng)估匹配質(zhì)量對(duì)視覺定位的影響,因此我們假設(shè)子圖已被檢索,并更多地關(guān)注比較關(guān)鍵點(diǎn)的獨(dú)特性。在測(cè)試期間,我們選擇前10000個(gè)檢測(cè)到的像素和點(diǎn),用來(lái)生成用于相機(jī)姿態(tài)估計(jì)的匹配。

結(jié)果。

我們按照 [48, 55] 在 110 個(gè)測(cè)試幀上評(píng)估模型。定位精度是根據(jù)落在 (5cm, 5°) 閾值內(nèi)的預(yù)測(cè)姿態(tài)的百分比來(lái)衡量的。如圖 5 所示,在將 2D 特征與 3D 地圖匹配時(shí),我們的 P2[3D 地圖] (68.8%) 分別比 InLoc [48] 和 SAMatch [55] 高 2.6% 和 5%,其中傳統(tǒng)的特征匹配方法用于定位查詢圖像。

此外,我們的 P2[3D Map] 比大多數(shù)基于場(chǎng)景協(xié)調(diào)的方法(如 RF1 [6]、RF2[32]、DSAC [5] 和 SANet [55])提供了更好的結(jié)果。DSAC* [8] 和 HSC-Net [28] 仍然表現(xiàn)出比我們更好的性能,因?yàn)樗鼈儗iT針對(duì)單個(gè)場(chǎng)景進(jìn)行了訓(xùn)練,并使用單個(gè)模型進(jìn)行測(cè)試。相比之下,我們直接使用從 P2[Full] 訓(xùn)練的單一模型。

在將 3D 查詢定位到 2D 地圖中的獨(dú)特應(yīng)用場(chǎng)景中,我們的 P2[2D Map] 也顯示出可觀的性能,達(dá)到 65.1%。然而,其他baseline無(wú)法實(shí)現(xiàn)這種反向匹配。

6fad6d52-4e72-11ed-a3b6-dac502259ad0.png


圖 5:視覺定位的比較。估計(jì)的相機(jī)位姿的百分比落在(5cm,5°) 范圍內(nèi)

4.2. 單域下匹配

在這個(gè)實(shí)驗(yàn)中,我們展示了提出的新的 P2-Loss ,如何極大地提高最先進(jìn)的 2D和3D 匹配網(wǎng)絡(luò)的性能。

7007c662-4e72-11ed-a3b6-dac502259ad0.png

表 2:HPatches 的比較。HEstimation、Precision Recall

以 3 個(gè)像素的閾值計(jì)算。方法中最好的分?jǐn)?shù)用下劃線表示,損失之間較好的用粗體表示。

4.2.1 圖像匹配

在圖像匹配實(shí)驗(yàn)中,我們使用 HPatches 數(shù)據(jù)集 [3],該數(shù)據(jù)集已被廣泛用于評(píng)估圖像匹配的質(zhì)量 [33、16、40、30、51、38、53]。在 D2-Net [18] 和 ASLFeat [31] 之后,我們排除了 8 個(gè)高分辨率序列,分別留下 52 個(gè)和 56 個(gè)具有照明或視點(diǎn)變化的序列。

為了精確再現(xiàn),我們直接使用兩種最先進(jìn)的局部特征聯(lián)合描述和檢測(cè)方法 ASLFeatD2-Net ,用我們的方法替換它們的損失。Super-Point (SP) [16] 也是一種強(qiáng)大的圖像匹配方法。然而,它采用了興趣點(diǎn)預(yù)訓(xùn)練和自標(biāo)記,需要合成形狀和單應(yīng)性適應(yīng),而我們的損失很難直接采用。

盡管如此,我們?nèi)匀辉诒?中報(bào)告了 Super-Point 的 2D 匹配結(jié)果。以更好地展示其他Baseline的增強(qiáng)功能。特別地是,我們?cè)谟?xùn)練和測(cè)試中保持與原論文相同的評(píng)估設(shè)置。

HPatches 上的結(jié)果。

在這里,使用了三個(gè)指標(biāo)[38]:

單應(yīng)性估計(jì)(HEstimation),圖像對(duì)之間正確單應(yīng)性估計(jì)的百分比;

精度,正確匹配與可能匹配的比率;

Recall,正確預(yù)測(cè)匹配占所有真實(shí)匹配的百分比。

如表中所示。當(dāng)使用我們的損失時(shí),幾乎所有指標(biāo),都可以在光照變化下看到明顯的改進(jìn)(高達(dá) 3.9%)。唯一的例外發(fā)生在 D2-Net 于Recall ,以及 ASLFeat 于 HEstimation,我們的損失幾乎可以忽略不計(jì)。另一方面,可以在視圖變化下的所有指標(biāo)上觀察到,我們方法的性能增益。這一增益范圍從 1.2% 到 5.6%。我們提出的優(yōu)化策略在視圖變化下顯示出比光照變化時(shí)更顯著的改進(jìn)。

4.2.2 點(diǎn)云配準(zhǔn)

在 3D 域方面,我們使用 3DMatch [58],這是一種流行的室內(nèi)數(shù)據(jù)集,用于點(diǎn)云配準(zhǔn) [26、15、23、12、11、22、10]。我們遵循 [58] 中相同的評(píng)估協(xié)議,準(zhǔn)備了訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù),54 個(gè)場(chǎng)景用于訓(xùn)練,其余 8 個(gè)場(chǎng)景用于測(cè)試。由于 D3Feat [2] 是唯一聯(lián)合檢測(cè)和描述 3D 局部特征的工作,我們將其損失替換為我們的損失進(jìn)行了比較。為了更好地展示改進(jìn),還包括 FCGF [12] 的結(jié)果。

3DMatch 上的結(jié)果

我們報(bào)告了三個(gè)評(píng)估指標(biāo)的性能:1)配準(zhǔn)召回(Reg),2)內(nèi)部比率(IR)和3)特征匹配召回(FMR)。如表3中所示,當(dāng)采用我們的 P2-Loss(D3 Ours)時(shí),Reg 和 FMR 分別可以有 4% 和 3% 的改進(jìn)(與 D3Feat 相比)。相比之下,FCGF D3Feat 分別只有 2% 和 0% 的差異。特別是,對(duì)于 Inlier Ratio,我們的損失表現(xiàn)出更好的魯棒性,比 D3Feat 高出 13%,與 FCGF 相當(dāng)。總體而言,P2-Loss 在所有指標(biāo)方面始終保持最佳性能。

7082216e-4e72-11ed-a3b6-dac502259ad0.png

表 3:3DMatch [58] 上的比較。Reg、FMR 和 IR 在閾值 0.2 m、5% 和 0.1 m 處進(jìn)行評(píng)估。

4.3. 描述符損失的影響

最后,我們分析損失選擇對(duì)同質(zhì) 或 )和異質(zhì)(2D3D)特征匹配的影響。基于方程式中的檢測(cè)器損失公式。如圖 9 所示,我們可以看到它的優(yōu)化緊緊地依賴于描述符。因此,我們對(duì)描述符優(yōu)化的三個(gè)主要度量學(xué)習(xí)損失,進(jìn)行了全面研究,旨在回答:為什么圓形引導(dǎo)的描述符損失最適合特征匹配。

為此,我們使用各種損失公式和架構(gòu)跟蹤正相似度 dp 和最負(fù)相似度 dn* (max(dn)) 之間的差異。 如圖 6(左)顯示,在單個(gè)/同質(zhì) 2D或3D 域中,D2-NetD3Feat 都可以逐漸學(xué)習(xí)獨(dú)特的描述符。D2-Net始終確保收斂,無(wú)論選擇的損失,而D3Feat失敗時(shí),hard-triplet損失被選擇。這與[2]中的結(jié)論一致。

在跨域圖像和點(diǎn)云匹配中(圖6(右),我們比較了不同的損失和 2D 特征提取器。這壓倒性地證明了hard-triplet和hard對(duì)比損失都不能在任何框架(ASL、R2D2 或P2-Net)。triplet和對(duì)比損失都是不靈活的,因?yàn)槊總€(gè)相似性的懲罰強(qiáng)度被限制為相等。

此外,它們的決策邊界等價(jià)于 dp = dn,這會(huì)導(dǎo)致模糊收斂 [9, 33]。但是,我們的損失使所有架構(gòu)都能夠收斂,顯示出學(xué)習(xí)獨(dú)特描述符的可觀趨勢(shì)。由于引入了圓形決策邊界,所提出的描述符損失為相似性分配了不同的梯度,從而促進(jìn)了更穩(wěn)健的收斂[47]。

有趣的是,我們可以觀察到,與同質(zhì)匹配不同,異構(gòu)匹配的描述符的可區(qū)別性最初是倒置的。由于2D像素和3D點(diǎn)描述符最初是不同的,因此對(duì)于初始階段的正匹配和負(fù)匹配,它們的相似性可能非常低。在這種情況下,相對(duì)于 dp 和 dn 范圍在 [0, 1] 之間的 Abs(梯度)幾乎分別接近 1和0 [47]。由于急劇的梯度差異,網(wǎng)絡(luò)訓(xùn)練中的損失最小化傾向于過(guò)分強(qiáng)調(diào) dp 的優(yōu)化,而犧牲描述符的獨(dú)特性。隨著 dp 的增加,我們的損失減少了它的梯度,因此對(duì) dn 施加了逐漸加強(qiáng)的懲罰,鼓勵(lì)了 dp 和 dn 之間的獨(dú)特性。

70b430b4-4e72-11ed-a3b6-dac502259ad0.png

圖 6:隨著時(shí)間的推移,帶有不同網(wǎng)絡(luò)及損失的正相似度 dp 和最負(fù)相似度 dn* 之間的差異。左:?jiǎn)斡蚱ヅ?;右:跨域匹配?/p>

五、結(jié)論

在這項(xiàng)工作中,我們提出了 P2-Net,這是一個(gè)雙全卷積框架,結(jié)合超寬接收機(jī)制,共同描述并檢測(cè) 2D和 D 局部特征,以實(shí)現(xiàn)2D像素和3D點(diǎn)之間的直接匹配。此外,提出一種新穎的損失函數(shù) P2-Loss ,由圓形引導(dǎo)的描述符損失和 batch-hard的檢測(cè)器損失組成,旨在明確地引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)獨(dú)特的描述符,并檢測(cè)2D像素和3D點(diǎn)的可重復(fù)關(guān)鍵點(diǎn)。在2D像素和3D點(diǎn)匹配、視覺定位、圖像匹配和點(diǎn)云配準(zhǔn)方面的大量實(shí)驗(yàn),不僅展示了我們 P2-Net 的有效性和實(shí)用性,還展示了我們的 P2-Loss 的泛化能力和優(yōu)越性。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2551

    文章

    51134

    瀏覽量

    753887
  • 檢測(cè)器
    +關(guān)注

    關(guān)注

    1

    文章

    864

    瀏覽量

    47699
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    425

    瀏覽量

    31844

原文標(biāo)題:P2-Net:用于2D像素與3D點(diǎn)匹配的局部特征的聯(lián)合描述符和檢測(cè)器(ICCV 2021)

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    360萬(wàn)像素3D打印機(jī)參考設(shè)計(jì)

    電子發(fā)燒友網(wǎng)站提供《360萬(wàn)像素3D打印機(jī)參考設(shè)計(jì).pdf》資料免費(fèi)下載
    發(fā)表于 10-31 09:47 ?0次下載
    360萬(wàn)<b class='flag-5'>像素</b><b class='flag-5'>3D</b>打印機(jī)參考設(shè)計(jì)

    3D封裝熱設(shè)計(jì):挑戰(zhàn)與機(jī)遇并存

    隨著半導(dǎo)體技術(shù)的不斷發(fā)展,芯片封裝技術(shù)也在持續(xù)進(jìn)步。目前,2D封裝和3D封裝是兩種主流的封裝技術(shù)。這兩種封裝技術(shù)在散熱路徑和熱設(shè)計(jì)方面有著各自的特點(diǎn)和挑戰(zhàn)。本文將深入探討2D封裝和3D
    的頭像 發(fā)表于 07-25 09:46 ?1441次閱讀
    <b class='flag-5'>3D</b>封裝熱設(shè)計(jì):挑戰(zhàn)與機(jī)遇并存

    蘇州吳中區(qū)多色PCB板元器件3D視覺檢測(cè)技術(shù)

    3D視覺檢測(cè)相較于2D視覺檢測(cè),有其獨(dú)特的優(yōu)勢(shì),不受產(chǎn)品表面對(duì)比度影響,精確檢出產(chǎn)品形狀,可以測(cè)出高度(厚度)、體積、平整度等。在實(shí)際應(yīng)用可以與2D結(jié)合做檢測(cè)。利用
    的頭像 發(fā)表于 06-14 15:02 ?418次閱讀
    蘇州吳中區(qū)多色PCB板元器件<b class='flag-5'>3D</b>視覺檢測(cè)技術(shù)

    英倫科技的15.6寸2D-3D可切換光場(chǎng)裸眼3D顯示屏有哪些特點(diǎn)?

    隨著科技的快速發(fā)展,人類對(duì)于視覺體驗(yàn)的追求也在不斷攀升。從平面的2D圖像到立體的3D影像,我們一直在探索如何讓虛擬世界更加逼真。如今,英倫科技憑借其創(chuàng)新實(shí)力,推出了一款革命性的顯示設(shè)備——15.6寸
    的頭像 發(fā)表于 05-28 11:17 ?369次閱讀
    英倫科技的15.6寸<b class='flag-5'>2D-3D</b>可切換光場(chǎng)裸眼<b class='flag-5'>3D</b>顯示屏有哪些特點(diǎn)?

    Teledyne e2v公司和Airy3D公司合作,提供更實(shí)惠的3D視覺解決方案

    。 △Topaz5D?是一款1,920 x 1,080分辨率的低噪聲全局快門2D3D圖像傳感器。Teledyne e2v Teledyne
    的頭像 發(fā)表于 05-11 10:12 ?413次閱讀
    Teledyne e<b class='flag-5'>2</b>v公司和Airy<b class='flag-5'>3D</b>公司合作,提供更實(shí)惠的<b class='flag-5'>3D</b>視覺解決方案

    NVIDIA Instant NeRF將多組靜態(tài)圖像變?yōu)?b class='flag-5'>3D數(shù)字場(chǎng)景

    想象一幅風(fēng)光旖旎的畫面,比如水畔的懸崖峭壁。即便只是 2D 圖像,如此美景依舊令人心馳神往。如果同一畫面能以 3D 效果展現(xiàn),那么無(wú)需跋涉就能身臨其境。
    的頭像 發(fā)表于 05-07 09:15 ?417次閱讀

    通過(guò)2D/3D異質(zhì)結(jié)構(gòu)精確控制鐵電材料弛豫時(shí)間

    受經(jīng)典德拜弛豫啟發(fā)的米勒模型提供了通過(guò)操縱弛豫時(shí)間來(lái)控制自發(fā)極化的理論框架。作者通過(guò)使用層轉(zhuǎn)移技術(shù)形成的2D/C-3D/2D異質(zhì)結(jié)構(gòu)克服了傳統(tǒng)異質(zhì)結(jié)存在的鐵電性惡化和能量損失的問(wèn)題。
    的頭像 發(fā)表于 04-29 10:27 ?694次閱讀
    通過(guò)<b class='flag-5'>2D</b>/<b class='flag-5'>3D</b>異質(zhì)結(jié)構(gòu)精確控制鐵電材料弛豫時(shí)間

    機(jī)器人3D視覺引導(dǎo)系統(tǒng)框架介紹

    通過(guò)自主開發(fā)的3D掃描儀可獲準(zhǔn)確并且快速地獲取場(chǎng)景的點(diǎn)圖像,通過(guò)3D識(shí)別算法,可實(shí)現(xiàn)在對(duì)點(diǎn)云圖中的多種目標(biāo)物體進(jìn)行識(shí)別和位姿估計(jì)。
    發(fā)表于 04-29 09:31 ?342次閱讀
    機(jī)器人<b class='flag-5'>3D</b>視覺引導(dǎo)系統(tǒng)框架介紹

    有了2D NAND,為什么要升級(jí)到3D呢?

    2D NAND和3D NAND都是非易失性存儲(chǔ)技術(shù)(NVM Non-VolatileMemory),屬于Memory(存儲(chǔ)器)的一種。
    的頭像 發(fā)表于 03-17 15:31 ?1030次閱讀
    有了<b class='flag-5'>2D</b> NAND,為什么要升級(jí)到<b class='flag-5'>3D</b>呢?

    Nullmax提出多相機(jī)3D目標(biāo)檢測(cè)新方法QAF2D

    今天上午,計(jì)算機(jī)視覺領(lǐng)域頂會(huì)CVPR公布了最終的論文接收結(jié)果,Nullmax感知部門的3D目標(biāo)檢測(cè)研究《Enhancing 3D Object Detection with 2D Detection-Guided Query A
    的頭像 發(fā)表于 02-27 16:38 ?1147次閱讀
    Nullmax提出多相機(jī)<b class='flag-5'>3D</b>目標(biāo)檢測(cè)新方法QAF<b class='flag-5'>2D</b>

    基于深度學(xué)習(xí)的方法在處理3D點(diǎn)云進(jìn)行缺陷分類應(yīng)用

    背景部分介紹了3D點(diǎn)云應(yīng)用領(lǐng)域中公開可訪問(wèn)的數(shù)據(jù)集的重要性,這些數(shù)據(jù)集對(duì)于分析和比較各種模型至關(guān)重要。研究人員專門設(shè)計(jì)了各種數(shù)據(jù)集,包括用于3D形狀分類、3D物體檢測(cè)和
    的頭像 發(fā)表于 02-22 16:16 ?1164次閱讀
    基于深度學(xué)習(xí)的方法在處理<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b>云進(jìn)行缺陷分類應(yīng)用

    高分工作!Uni3D3D基礎(chǔ)大模型,刷新多個(gè)SOTA!

    我們主要探索了3D視覺scale up模型參數(shù)量和統(tǒng)一模型架構(gòu)的可能性。在NLP / 2D vision領(lǐng)域,scale up大模型(GPT-4,SAM,EVA等)已經(jīng)取得了很impressive
    的頭像 發(fā)表于 01-30 15:56 ?892次閱讀
    高分工作!Uni<b class='flag-5'>3D</b>:<b class='flag-5'>3D</b>基礎(chǔ)大模型,刷新多個(gè)SOTA!

    介紹一種使用2D材料進(jìn)行3D集成的新方法

    美國(guó)賓夕法尼亞州立大學(xué)的研究人員展示了一種使用2D材料進(jìn)行3D集成的新穎方法。
    的頭像 發(fā)表于 01-13 11:37 ?1074次閱讀

    友思特C系列3D相機(jī):實(shí)時(shí)3D點(diǎn)圖像

    3D相機(jī)
    虹科光電
    發(fā)布于 :2024年01月10日 17:39:25

    一種用于2D/3D圖像處理算法的指令集架構(gòu)以及對(duì)應(yīng)的算法部署方法

    二維(2D)和三維(3D)雙模視覺信息在自動(dòng)駕駛、工業(yè)機(jī)器人、人機(jī)交互等前沿領(lǐng)域具有廣泛的應(yīng)用前景。
    的頭像 發(fā)表于 01-05 10:35 ?464次閱讀
    一種用于<b class='flag-5'>2D</b>/<b class='flag-5'>3D</b><b class='flag-5'>圖像</b>處理算法的指令集架構(gòu)以及<b class='flag-5'>對(duì)應(yīng)</b>的算法部署方法