0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)基于學(xué)習(xí)的LiDAR點(diǎn)云3D線特征分割和描述模型

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-01-12 17:33 ? 次閱讀

這個(gè)工作來(lái)自于浙江大學(xué)和DAMO academy。在點(diǎn)云配準(zhǔn)領(lǐng)域,盡管已經(jīng)有很多方法被提出來(lái),但是無(wú)論是傳統(tǒng)方法,還是近年來(lái)蓬勃發(fā)展的基于深度學(xué)習(xí)的三維點(diǎn)云配置方法,其實(shí)在真正應(yīng)用到真實(shí)的LiDAR掃描點(diǎn)云幀時(shí)都會(huì)出現(xiàn)一些問(wèn)題。造成這種困窘的一個(gè)主要的原因在于LiDAR掃描到的點(diǎn)云分布極不均勻。

具體而言,相較于RGBD相機(jī),LiDAR的有效掃描深度要大很多。隨著深度的增大,其激光發(fā)射出去的扇面將會(huì)變得稀疏。因此,即使是掃描同一目標(biāo)或場(chǎng)景的點(diǎn)云幀之間,其尺度并不一致。導(dǎo)致想要研究的關(guān)鍵點(diǎn)周?chē)泥徲螯c(diǎn)分布也存在較大不同,難以通過(guò)這些3D點(diǎn)的特征描述關(guān)聯(lián)起點(diǎn)云幀。

這個(gè)問(wèn)題一直以來(lái)都十分棘手。這個(gè)工作獨(dú)辟蹊徑,提出對(duì)于這種點(diǎn)云數(shù)據(jù),不再通過(guò)3D點(diǎn)來(lái)構(gòu)建關(guān)聯(lián)以實(shí)現(xiàn)點(diǎn)云配準(zhǔn),而是研究點(diǎn)云數(shù)據(jù)中的高層次的幾何原語(yǔ)。這種做法直觀來(lái)說(shuō)是有道理的,因?yàn)檫@些高層次的幾何原語(yǔ)通常會(huì)有較大的支撐點(diǎn)集,換句話(huà)說(shuō),其對(duì)于點(diǎn)云掃描和采樣具有較大的魯棒性,通常不會(huì)因?yàn)槟硞€(gè)點(diǎn)沒(méi)有被記錄而影響相應(yīng)幾何原語(yǔ)的提取。

同時(shí),幾何原語(yǔ)通常具有更具體的特征和幾何結(jié)構(gòu),例如一條直線、一個(gè)平面等,其更容易構(gòu)建不同幀間的關(guān)聯(lián),避免誤匹配。但是,這種研究思路通常難度較大,原因在于缺乏足夠的有標(biāo)簽的數(shù)據(jù)集。在這種情況下,這個(gè)工作顯得極其重要,它不僅僅提供了一個(gè)數(shù)據(jù)集自動(dòng)標(biāo)注模型,同樣也是少數(shù)真正開(kāi)始探索幾何原語(yǔ)用于點(diǎn)云配準(zhǔn)任務(wù)的先河性的工作。

摘要:交通桿和建筑物邊緣是城市道路上經(jīng)??梢杂^察到的物體,為各種計(jì)算機(jī)視覺(jué)任務(wù)傳達(dá)了可靠的提示。為了重復(fù)提取它們作為特征并在離散的LiDAR幀之間進(jìn)行關(guān)聯(lián)以進(jìn)行配準(zhǔn),我們提出了第一個(gè)基于學(xué)習(xí)的LiDAR點(diǎn)云3D線特征分割和描述模型。

為了在沒(méi)有耗時(shí)和繁瑣的數(shù)據(jù)標(biāo)記過(guò)程的情況下訓(xùn)練我們的模型,我們首先為目標(biāo)線的基本外觀生成合成原語(yǔ),并構(gòu)建一個(gè)迭代線自動(dòng)標(biāo)注過(guò)程以逐漸調(diào)整真實(shí)LiDAR掃描的線標(biāo)簽。我們的分割模型可以在任意尺度擾動(dòng)下提取線,并且我們使用共享的EdgeConv編碼器層來(lái)聯(lián)合訓(xùn)練兩個(gè)分割和描述符提取頭。

基于該模型,我們可以在沒(méi)有初始變換提示的情況下構(gòu)建一個(gè)用于點(diǎn)云配準(zhǔn)的高可用性全局配準(zhǔn)模塊。實(shí)驗(yàn)表明,我們的基于線的配準(zhǔn)方法與最先進(jìn)的基于點(diǎn)的方法相比具有很強(qiáng)的競(jìng)爭(zhēng)力。

主要貢獻(xiàn):

1.據(jù)我們所知,我們提出了第一個(gè)基于學(xué)習(xí)的激光雷達(dá)掃描線分割和描述網(wǎng)絡(luò),為全局配準(zhǔn)提出了一個(gè)適用的特征類(lèi)別。

2.我們提出了一種用于點(diǎn)云線標(biāo)注方法,該方法可以將從合成數(shù)據(jù)中學(xué)習(xí)的模型遷移到真實(shí)的LiDAR掃描點(diǎn)云以進(jìn)行自動(dòng)標(biāo)注。

3.我們探索了點(diǎn)云特征的尺度不變性,并通過(guò)消除Sim(3)變換中的尺度因子,為改善點(diǎn)云上基于學(xué)習(xí)的任務(wù)在尺度擾動(dòng)下的泛化提供了可行的思路

560cada8-84fb-11ed-bfe3-dac502259ad0.png

Fig1:整體網(wǎng)絡(luò)框架。a):我們?cè)诤铣蓴?shù)據(jù)上訓(xùn)練尺度不變的分割,并在多次幾何自適應(yīng)迭代后得到精確的線標(biāo)簽。b):我們同時(shí)在標(biāo)注的LiDAR掃描點(diǎn)云上訓(xùn)練分割和描述符提取網(wǎng)絡(luò),其中紅色、紫色和綠色層分別代表編碼器、分割網(wǎng)絡(luò)頭和描述符提取網(wǎng)絡(luò)頭。

方法介紹: 考慮到缺乏可用的LiDAR掃描點(diǎn)云的有標(biāo)簽線數(shù)據(jù)集,我們遵循SuperPoint的自監(jiān)督思想來(lái)訓(xùn)練我們的線分割模型,首先構(gòu)建一個(gè)簡(jiǎn)單的合成數(shù)據(jù)來(lái)初始化一個(gè)基礎(chǔ)模型,然后使用幾何自適應(yīng)的自動(dòng)標(biāo)記真實(shí)LiDAR掃描點(diǎn)云進(jìn)行迭代來(lái)調(diào)整模型。之后我們收集不同LiDAR掃描點(diǎn)云幀之間的線對(duì)應(yīng)關(guān)系,并以端到端的方法聯(lián)合訓(xùn)練線分割和描述符提取網(wǎng)絡(luò)。

一、線分割模型

1)合成數(shù)據(jù)生成.

兩種類(lèi)型的可靠線段可以檢測(cè)

1)平面之間的交線,以及2)交通桿。因此,我們選擇使用圖2(a)所示的以下兩個(gè)網(wǎng)格原語(yǔ)分別模擬它們的局部外觀。這兩個(gè)網(wǎng)格模型首先被均勻采樣成4000個(gè)點(diǎn),如圖 2(b) 所示,每個(gè)點(diǎn)添加5%的相對(duì)3自由度位置擾動(dòng)。然后,為了模擬附近可能的背景點(diǎn),我們隨機(jī)裁剪了40 個(gè)基本原語(yǔ),每個(gè)原語(yǔ)包含1000個(gè)來(lái)自真實(shí)掃描點(diǎn)云的點(diǎn),并將它們放在一起組成最終的合成數(shù)據(jù)。我們總共生成了5000個(gè)合成點(diǎn)云,每個(gè)點(diǎn)云有5000個(gè)點(diǎn)。

?2)尺度不變線分割.

我們將線檢測(cè)視為點(diǎn)云分割問(wèn)題,主要挑戰(zhàn)是原語(yǔ)尺度縮放問(wèn)題:在真實(shí)的LiDAR點(diǎn)云幀中,點(diǎn)的密度隨著掃描距離的增加而降低,而當(dāng)目標(biāo)特征遠(yuǎn)離傳感器時(shí),體素網(wǎng)格下采樣不能完全歸一化密度。此外,我們的合成數(shù)據(jù)生成也沒(méi)有考慮線的尺度(如圖 2(e)放在一起時(shí)所示)。如果不處理這個(gè)問(wèn)題,當(dāng)訓(xùn)練和測(cè)試數(shù)據(jù)在不同的尺度上時(shí),模型將不會(huì)產(chǎn)生合理的預(yù)測(cè)。 我們的網(wǎng)絡(luò)通過(guò)消除Sim(3)變換的尺度因子s和使用相對(duì)距離來(lái)解決這個(gè)問(wèn)題,如:

56899fac-84fb-11ed-bfe3-dac502259ad0.png

在上式中,我們搜索點(diǎn)p的k=20個(gè)最近點(diǎn)56a29cd2-84fb-11ed-bfe3-dac502259ad0.png,并計(jì)算尺度不變的局部特征f(p與其近鄰點(diǎn)之間的曼哈頓距離與歐幾里得距離之比)。這種特征定義的損失在于f不能反映原點(diǎn)在歐幾里德空間中的位置,因此此變換存在信息損失。 3)模型結(jié)構(gòu). 我們選擇DGCNN作為我們的主干,因?yàn)樗苯訉?duì)點(diǎn)及其最近的近鄰點(diǎn)進(jìn)行編碼而無(wú)需復(fù)雜的操作。下式展示了其被稱(chēng)為EdgeConv的局部特征編碼函數(shù),其中56bc6fc2-84fb-11ed-bfe3-dac502259ad0.png是第j個(gè)特征,56d251de-84fb-11ed-bfe3-dac502259ad0.png是特征空間 S中 56bc6fc2-84fb-11ed-bfe3-dac502259ad0.png的鄰居, h是學(xué)習(xí)的模型。 56fb3c66-84fb-11ed-bfe3-dac502259ad0.png 在第一個(gè)EdgeConv層中,x表示歐氏空間中的點(diǎn)坐標(biāo)。在我們的實(shí)現(xiàn)中,我們收集每個(gè)點(diǎn)的k=20個(gè)最近鄰點(diǎn)并計(jì)算尺度不變特征f。然后我們把第一個(gè)EdgeConv層變成: 5719a80e-84fb-11ed-bfe3-dac502259ad0.png 它用尺度不變的特征f代替了歐氏空間中的坐標(biāo),但57318f78-84fb-11ed-bfe3-dac502259ad0.png仍然是歐氏空間中第i個(gè)鄰居點(diǎn)5746e602-84fb-11ed-bfe3-dac502259ad0.png的特征,而不是57626eae-84fb-11ed-bfe3-dac502259ad0.png在特征空間中的鄰居。由于在生成尺度不變特征時(shí),原始?xì)W氏空間中的部分信息已經(jīng)丟失,保留原始?xì)W氏空間中的鄰域關(guān)系可以減少進(jìn)一步的信息丟失。

57795da8-84fb-11ed-bfe3-dac502259ad0.png

Fig2:合成數(shù)據(jù)生成步驟。我們通過(guò)對(duì)原始網(wǎng)格模型進(jìn)行采樣并將真實(shí)掃描散點(diǎn)作為噪聲來(lái)增強(qiáng)生成合成數(shù)據(jù)。

4)自動(dòng)線標(biāo)注.

當(dāng)前沒(méi)有可用的 LiDAR點(diǎn)云有標(biāo)簽線數(shù)據(jù)集,并且難以對(duì)點(diǎn)云進(jìn)行手動(dòng)標(biāo)記。因此,我們構(gòu)建了一個(gè)自動(dòng)線標(biāo)注框架(圖 3)。受SuperPoint啟發(fā),我們對(duì)LiDAR掃描點(diǎn)云執(zhí)行幾何自適應(yīng)。首先,我們僅在合成數(shù)據(jù)上訓(xùn)練一個(gè)尺度不變的分割模型,并將XOY中20m和偏航 360°的均勻分布的2D變換應(yīng)用于LiDAR掃描點(diǎn)云。

然后,我們使用經(jīng)過(guò)訓(xùn)練的模型來(lái)預(yù)測(cè)擾動(dòng)數(shù)據(jù)上的標(biāo)簽,聚合來(lái)自所有擾動(dòng)幀的結(jié)果,并將超過(guò)80%預(yù)測(cè)屬于線的點(diǎn)作為候選點(diǎn)。為了將點(diǎn)聚類(lèi)成線,我們使用區(qū)域增長(zhǎng)算法。點(diǎn)之間的連通性通過(guò)0.5m搜索半徑的KD-Tree定義。我們使用標(biāo)注點(diǎn)作為種子,生長(zhǎng)到附近的標(biāo)注點(diǎn),并擬合線。

一旦提取了此類(lèi)線,我們將繼續(xù)在獲得的有標(biāo)簽LiDAR掃描點(diǎn)云上調(diào)整分割模型。我們重復(fù)幾何自適應(yīng)3次以在KITTI里程計(jì)序列上生成12989個(gè)自動(dòng)標(biāo)注的 LiDAR幀。

582b28f8-84fb-11ed-bfe3-dac502259ad0.png

Fig3:自動(dòng)標(biāo)注框架。我們使用幾何自適應(yīng)和線擬合來(lái)減少網(wǎng)絡(luò)預(yù)測(cè)噪聲,并通過(guò)迭代訓(xùn)練提高真實(shí)LiDAR掃描點(diǎn)云的模型精度。

二、聯(lián)系訓(xùn)練線分割和描述符提取網(wǎng)絡(luò)

1)線描述符的定義.

不同于只需要線段兩個(gè)端點(diǎn)的幾何定義,每條線的描述符應(yīng)通過(guò)其所有所屬點(diǎn)傳達(dá)局部外觀,因?yàn)橛^察到的端點(diǎn)可能由于可能的遮擋而在幀之間變化。因此,我們將描述符定義為其所有所屬點(diǎn)的平均值。

58584856-84fb-11ed-bfe3-dac502259ad0.png

Fig4: 網(wǎng)絡(luò)架構(gòu)。該網(wǎng)絡(luò)使用EdgeConv模塊來(lái)提取特征。分割網(wǎng)絡(luò)頭和描述符提取頭分別用于預(yù)測(cè)每個(gè)點(diǎn)的標(biāo)簽和描述符。

2)網(wǎng)絡(luò)結(jié)構(gòu).

我們的網(wǎng)絡(luò)結(jié)構(gòu)(圖4)由堆疊的三個(gè)EdgeConv層組成,用于特征編碼,兩個(gè)解碼器分別用于線分割和描述。每個(gè)EdgeConv層輸出一個(gè)588bb768-84fb-11ed-bfe3-dac502259ad0.png張量,在max-pooling層之后用于3層的分割和描述。我們使用ReLU進(jìn)行激活。分割網(wǎng)絡(luò)頭將特征向量卷積后變成一個(gè)58a246fe-84fb-11ed-bfe3-dac502259ad0.png大小的張量(N為輸入點(diǎn)數(shù)),然后通過(guò)softmax層得到每個(gè)點(diǎn)的布爾坐標(biāo),預(yù)測(cè)是否屬于一條線。描述符提取網(wǎng)絡(luò)頭輸出一個(gè)大小為58b7cd94-84fb-11ed-bfe3-dac502259ad0.png的張量,然后進(jìn)行L2歸一化得到一個(gè)d維的描述符。 3)損失函數(shù).我們的分割損失58d1f1ce-84fb-11ed-bfe3-dac502259ad0.png是一個(gè)標(biāo)準(zhǔn)的交叉熵?fù)p失,對(duì)于描述符損失,我們首先使用線段標(biāo)簽得到每條線段的均值描述符u,然后使用58e3e816-84fb-11ed-bfe3-dac502259ad0.png將點(diǎn)描述符拉向u。58fa4a48-84fb-11ed-bfe3-dac502259ad0.png的提出是為了讓不同行的描述符相互排斥。此外,對(duì)于點(diǎn)云對(duì),我們計(jì)算匹配損失59127528-84fb-11ed-bfe3-dac502259ad0.png和非匹配線之間的損失59318dc8-84fb-11ed-bfe3-dac502259ad0.png。每一個(gè)損失項(xiàng)都可以寫(xiě)成如下形式:

594d8eb0-84fb-11ed-bfe3-dac502259ad0.png

其中N是檢測(cè)到的線數(shù),5a043e6c-84fb-11ed-bfe3-dac502259ad0.png代表兩條線的所有對(duì)。i和j是兩個(gè)迭代器,分別用于直線和直線上的點(diǎn)。5a199d98-84fb-11ed-bfe3-dac502259ad0.png是一條線的平均描述符,5a2f10ba-84fb-11ed-bfe3-dac502259ad0.png是其相關(guān)點(diǎn)j的描述符。5a47b1d8-84fb-11ed-bfe3-dac502259ad0.png5a6544a0-84fb-11ed-bfe3-dac502259ad0.png是另一個(gè)關(guān)聯(lián)點(diǎn)云的平均描述符,5a83fee0-84fb-11ed-bfe3-dac502259ad0.png5aa05b08-84fb-11ed-bfe3-dac502259ad0.png分別為正負(fù)邊緣。5ab636ee-84fb-11ed-bfe3-dac502259ad0.png, 且表示L1距離。最后,我們使用5ad42898-84fb-11ed-bfe3-dac502259ad0.png來(lái)平衡最終的損失: 5aed13e4-84fb-11ed-bfe3-dac502259ad0.png

3)基于線的配準(zhǔn).

我們的網(wǎng)絡(luò)為每個(gè)點(diǎn)輸出標(biāo)簽和描述符。我們首先提取線,然后我們執(zhí)行描述符匹配以獲得行對(duì)應(yīng)。匹配描述符的閾值設(shè)置為0.1。用于將源云5b0636ee-84fb-11ed-bfe3-dac502259ad0.png注冊(cè)到目標(biāo)點(diǎn)云的變換通過(guò)最小化所有線匹配代價(jià)5b21852a-84fb-11ed-bfe3-dac502259ad0.png中的點(diǎn)到線距離進(jìn)行優(yōu)化: 5b3956dc-84fb-11ed-bfe3-dac502259ad0.png 其中5b683182-84fb-11ed-bfe3-dac502259ad0.png是源點(diǎn)云中的線上的點(diǎn),5b7ca658-84fb-11ed-bfe3-dac502259ad0.png5b95138c-84fb-11ed-bfe3-dac502259ad0.png是線i的匹配線5baaa0b2-84fb-11ed-bfe3-dac502259ad0.png的端點(diǎn)。









審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3656

    瀏覽量

    134895
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    968

    文章

    4003

    瀏覽量

    190140
  • RGBD數(shù)據(jù)
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1037

原文標(biāo)題:SuperLine3D:從3D點(diǎn)到3D線

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    LiDAR如何構(gòu)建3D點(diǎn)?如何利用LiDAR提供深度信息

    3D模型。LiDAR 系統(tǒng)捕獲的圖像中的每個(gè)像素都將具有與之關(guān)聯(lián)的深度。這樣可以更好地識(shí)別物體,并消除僅采用圖像傳感器獲得的2D圖像中可能存在的模糊。
    的頭像 發(fā)表于 04-06 12:00 ?4390次閱讀
    <b class='flag-5'>LiDAR</b>如何構(gòu)建<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>?如何利用<b class='flag-5'>LiDAR</b>提供深度信息

    基于3D點(diǎn)的多任務(wù)模型在板端實(shí)現(xiàn)高效部署

    對(duì)于自動(dòng)駕駛應(yīng)用來(lái)說(shuō),3D 場(chǎng)景感知至關(guān)重要。3D點(diǎn)數(shù)據(jù)就是具有3D特征的數(shù)據(jù)。
    的頭像 發(fā)表于 12-28 16:35 ?1537次閱讀
    基于<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>的多任務(wù)<b class='flag-5'>模型</b>在板端實(shí)現(xiàn)高效部署

    基于深度學(xué)習(xí)的方法在處理3D點(diǎn)進(jìn)行缺陷分類(lèi)應(yīng)用

    背景部分介紹了3D點(diǎn)應(yīng)用領(lǐng)域中公開(kāi)可訪問(wèn)的數(shù)據(jù)集的重要性,這些數(shù)據(jù)集對(duì)于分析和比較各種模型至關(guān)重要。研究人員專(zhuān)門(mén)設(shè)計(jì)了各種數(shù)據(jù)集,包括用于3D
    的頭像 發(fā)表于 02-22 16:16 ?1249次閱讀
    基于深度<b class='flag-5'>學(xué)習(xí)</b>的方法在處理<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>進(jìn)行缺陷分類(lèi)應(yīng)用

    浩辰3D軟件中如何創(chuàng)建槽特征3D模型設(shè)計(jì)教程!

    ,然后單擊新槽(2) 的路徑,最后單擊以放置新槽 (3)。 可以每次個(gè)或每個(gè)圍欄個(gè)地添加更多槽,或者選擇多個(gè)路徑來(lái)同時(shí)創(chuàng)建多個(gè)槽。以上就
    發(fā)表于 09-28 16:16

    3D軟件中如何應(yīng)用文本特征?3D文本特征應(yīng)用技巧

    精準(zhǔn)的標(biāo)注。浩辰3D軟件的文本特征應(yīng)用,能幫助設(shè)計(jì)工程師以順序建模設(shè)計(jì)方式,快速創(chuàng)建特征,實(shí)現(xiàn)精準(zhǔn)化標(biāo)注。下面,小編給大家介紹下如何使用浩辰3D
    發(fā)表于 04-22 17:28

    點(diǎn)問(wèn)題的介紹及3D點(diǎn)技術(shù)在VR中的應(yīng)用

    。即便是掃描最小的對(duì)象,系統(tǒng)都會(huì)創(chuàng)建上百萬(wàn)這樣的點(diǎn),所以要管理這樣的海量數(shù)據(jù)并不容易。CAD軟件可以連接各個(gè)點(diǎn),但這過(guò)程需要大量的計(jì)算資源,完善成品模型往往是
    發(fā)表于 09-27 15:27 ?17次下載

    散亂點(diǎn)數(shù)據(jù)特征信息提取算法

    特征提取不僅可以更好地刻畫(huà)三維模型特征,并且其在模型重建、點(diǎn)
    發(fā)表于 01-30 16:35 ?0次下載
    散亂<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>數(shù)據(jù)<b class='flag-5'>特征</b>信息提取算法

    3D模型的加權(quán)特征點(diǎn)調(diào)和表達(dá)

    大規(guī)模的3D模型庫(kù)中準(zhǔn)確快速地找到自己需要的模型。近年來(lái)許多學(xué)者在這方面進(jìn)行了大量的研究,但主要都是針對(duì)模型的整體特征進(jìn)行檢索,本文是在以往
    發(fā)表于 02-10 10:19 ?5次下載

    如何在LiDAR點(diǎn)上進(jìn)行3D對(duì)象檢測(cè)

    該項(xiàng)目將借助KV260上的PYNQ-DPU覆蓋,從而能夠使我們?cè)?b class='flag-5'>LiDAR點(diǎn)上進(jìn)行3D對(duì)象檢測(cè)比以往任何時(shí)候都更加高效!
    的頭像 發(fā)表于 04-26 17:41 ?2210次閱讀
    如何在<b class='flag-5'>LiDAR</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>上進(jìn)行<b class='flag-5'>3D</b>對(duì)象檢測(cè)

    何為3D點(diǎn)語(yǔ)義分割

    融合標(biāo)注使用的3D標(biāo)注工具仍以3D立體框?yàn)橹鳎?b class='flag-5'>3D點(diǎn)數(shù)據(jù)以外,還需要使用2D標(biāo)注工具在
    的頭像 發(fā)表于 07-21 15:52 ?8726次閱讀

    如何直接建立2D圖像中的像素和3D點(diǎn)云中的點(diǎn)之間的對(duì)應(yīng)關(guān)系

    準(zhǔn)確描述和檢測(cè) 2D3D 關(guān)鍵點(diǎn)對(duì)于建立跨圖像和點(diǎn)的對(duì)應(yīng)關(guān)系至關(guān)重要。盡管已經(jīng)提出了大量
    的頭像 發(fā)表于 10-18 09:20 ?8906次閱讀

    基于深度學(xué)習(xí)3D分割綜述(RGB-D/點(diǎn)/體素/多目)

    數(shù)據(jù)集對(duì)于使用深度學(xué)習(xí)訓(xùn)練和測(cè)試3D分割算法至關(guān)重要。然而,私人收集和標(biāo)注數(shù)據(jù)集既麻煩又昂貴,因?yàn)樗枰I(lǐng)域?qū)I(yè)知識(shí)、高質(zhì)量的傳感器和處理設(shè)備。
    的頭像 發(fā)表于 11-04 11:36 ?2066次閱讀

    NeuralLift-360:將野外的2D照片提升為3D物體

    3D點(diǎn)云中生成可渲染的3D網(wǎng)格:使用個(gè)基于深度學(xué)習(xí)的方法來(lái)將
    的頭像 發(fā)表于 04-16 10:02 ?2201次閱讀

    基于深度學(xué)習(xí)點(diǎn)分割的方法介紹

      摘 要:點(diǎn)分割點(diǎn)數(shù)據(jù)理解中的個(gè)關(guān)鍵技術(shù),
    發(fā)表于 07-20 15:23 ?3次下載

    基于深度學(xué)習(xí)3D點(diǎn)實(shí)例分割方法

    3D實(shí)例分割3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問(wèn)題。給定由點(diǎn)云表示的
    發(fā)表于 11-13 10:34 ?2523次閱讀
    基于深度<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>實(shí)例<b class='flag-5'>分割</b>方法