0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TRO新文:用于數(shù)據(jù)關(guān)聯(lián)、建圖和高級任務(wù)的對象級SLAM框架

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-07-14 16:49 ? 次閱讀

對象SLAM被認(rèn)為對于機器人高級感知和決策制定越來越重要。現(xiàn)有研究在數(shù)據(jù)關(guān)聯(lián)、對象表示和語義映射方面存在不足,并且經(jīng)常依賴于額外的假設(shè),從而限制了它們的性能。在本文中,我們提出了一個綜合的對象SLAM框架,該框架專注于基于對象的感知和面向?qū)ο蟮臋C器人任務(wù)。首先,我們提出了一種集成數(shù)據(jù)關(guān)聯(lián)方法,用于通過結(jié)合參數(shù)和非參數(shù)統(tǒng)計測試來關(guān)聯(lián)復(fù)雜條件下的對象。此外,我們建議基于iForest和線對齊的對象建模的離群魯棒質(zhì)心和尺度估計算法。然后由估計的通用對象模型表示輕量級和面向?qū)ο蟮牡貓D??紤]到對象的語義不變性,我們將對象圖轉(zhuǎn)換為拓?fù)鋱D以提供語義描述符以實現(xiàn)多圖匹配。最后,我們提出了一種對象驅(qū)動的主動探索策略,以在抓取場景中實現(xiàn)自主建圖。

0922e6aa-21d2-11ee-962d-dac502259ad0.png

提出的對象SLAM框架。

1 系統(tǒng)框架

本框架主要包含4個模塊:

1.Tracking module:基于ORB-SLAM2實現(xiàn)相機軌跡跟蹤并生成稀疏點云。

2.Semantic module:采用YOLO物體檢測網(wǎng)絡(luò),結(jié)合點云測量與2D檢測結(jié)果進行數(shù)據(jù)關(guān)聯(lián)。利用iForest和線段對齊算法優(yōu)化點云和線段。基于關(guān)聯(lián)和優(yōu)化結(jié)果參數(shù)化物體。

3.Object map:實現(xiàn)基于物體的輕量語義地圖表示。

4.Application module:Augmented reality:基于實際物體姿態(tài)實現(xiàn)虛實模型配準(zhǔn),考慮遮擋和碰撞效果。Scene matching:將對象地圖轉(zhuǎn)換為拓?fù)鋱D,設(shè)計物體描述子實現(xiàn)多情景匹配。Active exploration:利用物體不完整度量式信息熵驅(qū)動主動構(gòu)建全局對象地圖,實現(xiàn)抓握場景。

總的來說,框架實現(xiàn)穩(wěn)健的數(shù)據(jù)關(guān)聯(lián)、精確的物體參數(shù)化以及基于語義對象地圖的高層應(yīng)用,解決了對象SLAM涉及的主要挑戰(zhàn)。語義對象地圖能為機器人抓取、導(dǎo)航、規(guī)劃等復(fù)雜任務(wù)提供必要信息,有助于實現(xiàn)智能機器人

2 對象級數(shù)據(jù)關(guān)聯(lián)

本文提出一個集成方法來執(zhí)行多幀間的對象數(shù)據(jù)關(guān)聯(lián)。關(guān)聯(lián)算法主要包含4部分:

(1) 運動IOU模型:如果全局物體在前兩幀(t-1和t-2)可觀測,則基于勻速運動假設(shè)預(yù)測當(dāng)前幀(t)的邊界框,與檢測到的本地物體計算IOU值。

(2) 非參數(shù)檢驗?zāi)P?如果連續(xù)觀測到物體失敗,則直接應(yīng)用非參數(shù)Wilcoxon檢驗對P和Q(代表物體點云)進行驗證。假設(shè)它們來自同一物體,則應(yīng)滿足同一分布 fP = fQ 。

(3) 單樣本t檢驗?zāi)P?分析不同視角下物體質(zhì)心C和c是否來自同一物體。建立t統(tǒng)計量并與臨界值比較:

09415004-21d2-11ee-962d-dac502259ad0.png

(4)投影IOU模型:將三維點云投影到二維圖像,擬合投影邊界框與檢測框的IOU(5) 雙樣本t檢驗?zāi)P?如果存在重復(fù)物體,則對兩個物體的歷史質(zhì)心C1和C2建立t統(tǒng)計量并比較,實現(xiàn)合并:

094b5b94-21d2-11ee-962d-dac502259ad0.png

095731d0-21d2-11ee-962d-dac502259ad0.png

其中d為兩個物體的池化標(biāo)準(zhǔn)差。通過集成利用不同統(tǒng)計特征,提高了數(shù)據(jù)關(guān)聯(lián)的魯棒性和成功率。實驗結(jié)果表明,與單一方法相比,集成方法能更有效地關(guān)聯(lián)不同視角下的物體,為下一步的參數(shù)化奠定基礎(chǔ)??偟膩碚f,該方法充分利用了點云和質(zhì)心分別顯示的非高斯分布和高斯分布特性,通過不同統(tǒng)計模型集成提高關(guān)聯(lián)性能。

0961c74e-21d2-11ee-962d-dac502259ad0.png

對象級數(shù)據(jù)關(guān)聯(lián)示意圖

3 對象參數(shù)化

我們利用立方體和二次曲面、圓柱體來表示對象,而不是復(fù)雜的實例級或類別級模型。對于具有規(guī)則形狀的對象,例如書本、鍵盤和椅子,我們使用立方體(由它們的頂點 Po 編碼)來表示它們。對于球、瓶、杯等沒有明確方向的非規(guī)則物體,采用二次/圓柱(由其半軸Qo編碼)表示,忽略其方向參數(shù)。這里,Po 和 Qo 在對象坐標(biāo)系中表示,僅取決于尺度 s。為了將這些元素對準(zhǔn)到全局地圖,我們還需要估計它們的平移 t 和方向 θ。全局坐標(biāo)系中的立方體和二次曲面表示如下:

096c835a-21d2-11ee-962d-dac502259ad0.png

隨后,提出了基于iForest和線段對齊的離群點過濾算法,實現(xiàn)精確的對象尺度、位置和方位估計。主要包括以下部分:

(1) 平移和尺度估計:利用iForest去除點云中的離群點,剩余點云實現(xiàn)對象的初始尺度s和位置t估計。算法1描述了基于iForest的算法:

097719d2-21d2-11ee-962d-dac502259ad0.png

(2) 方位估計:分為初始化和優(yōu)化兩個階段。

算法2描述了初始化算法:

098473ca-21d2-11ee-962d-dac502259ad0.png

(3) 對象表示:根據(jù)物體形狀使用立方體或?qū)悄P捅硎?編碼尺度s、位置t和方位角θ。

總的來說,采用iForest過濾離群點和線段對齊初始化方位角,有效實現(xiàn)了精確的6DOF姿態(tài)估計。最終構(gòu)建了基于物體類型的通用模型,實現(xiàn)了輕量級語義對象地圖:

098fcd42-21d2-11ee-962d-dac502259ad0.png

3 對象描述子

為了描述不同物體間的關(guān)系,文章構(gòu)建了語義拓?fù)鋱D和基于此的隨機游走描述子。

拓?fù)鋱D:通過物體的語義標(biāo)簽、位置、姿態(tài)和尺寸信息,構(gòu)建不同物體及物體與情景的關(guān)系圖:

099ac0da-21d2-11ee-962d-dac502259ad0.png表示物體節(jié)點,編碼物體信息

09a59ae6-21d2-11ee-962d-dac502259ad0.png表示邊,編碼兩個物體的距離d和角度α

描述子:基于拓?fù)鋱D中不同物體間的關(guān)系,采用隨機游走的方式構(gòu)建物體描述子υ:

09af3b96-21d2-11ee-962d-dac502259ad0.png

r是一個隨機行走路徑,起始于被描述的物體,最多到達i個物體。每行重復(fù)j次隨機行走。

多維度信息:為了提高魯棒性,描述子中考慮物體標(biāo)簽l、尺寸s、距離d和角度α四個維度:

09c8c048-21d2-11ee-962d-dac502259ad0.png4. 場景匹配:基于多個物體對的描述子匹配,求解兩個情景的轉(zhuǎn)換矩陣T:

· 生成兩個情景T1和T2的描述子V1和V2。

· 對每個對象v1在V1中找到在V2中的最佳匹配v2。

· 根據(jù)多個物體對,利用奇異值分解(SVD)求解轉(zhuǎn)換矩陣T。

魯棒性:采用RANSAC算法去除誤匹配物體對,提高匹配的魯棒性??偟膩碚f,基于拓?fù)鋱D實現(xiàn)的物體描述子充分利用了物體的語義、尺寸和相對關(guān)系,能有效實現(xiàn)不同視角下的場景匹配??紤]更多非物體的語義特征可能進一步提高魯棒性和準(zhǔn)確性。

4 實驗結(jié)果

數(shù)據(jù)關(guān)聯(lián):實驗結(jié)果表明,集成不同統(tǒng)計模型超過單一方法。表明點云和質(zhì)心確實呈現(xiàn)非高斯分布和高斯分布。

09d8d3ac-21d2-11ee-962d-dac502259ad0.png

2. 對象參數(shù)化: 實驗結(jié)果表明, iForest和線段對齊有效實現(xiàn)精確的6DOF姿態(tài)估計。并構(gòu)建了基于形狀的通用對象模型

09e2eb62-21d2-11ee-962d-dac502259ad0.png

09ed9e4a-21d2-11ee-962d-dac502259ad0.png

3. 對象地圖構(gòu)建:可在不同數(shù)據(jù)集上構(gòu)建語義對象地圖,處理不同類、數(shù)量、尺寸和方位角的物體。實驗表明系統(tǒng)的魯棒性。

0a176c70-21d2-11ee-962d-dac502259ad0.png

4. 增強現(xiàn)實:基于精確的物體姿態(tài)信息,實現(xiàn)虛擬模型與實物精準(zhǔn)配準(zhǔn)??紤]遮擋和碰撞效果,提高虛擬可信度。

0a2b2562-21d2-11ee-962d-dac502259ad0.png

5. 場景匹配:基于物體描述子,可在不同視角和照明條件下實現(xiàn)場景匹配和多地圖融合。具有魯棒性。

0a372cfe-21d2-11ee-962d-dac502259ad0.png

6. 主動地圖構(gòu)建:通過信息熵量化物體觀測完整度,驅(qū)動主動建設(shè)語義對象地圖。實驗表明比隨機探索和全面覆蓋策略更高效和更準(zhǔn)確。

0a464d9c-21d2-11ee-962d-dac502259ad0.png

7. 機器人抓取:基于語義對象地圖信息,實現(xiàn)機器人抓握。在虛擬環(huán)境和實際環(huán)境下的成功率分別達到86%和81%。

0a6f8838-21d2-11ee-962d-dac502259ad0.png

局限性:數(shù)據(jù)關(guān)聯(lián)在極端情況下存在問題;對象姿態(tài)估計受離群點影響而不準(zhǔn)確;場景匹配依賴精確的對象建模。改進方向:優(yōu)化數(shù)據(jù)關(guān)聯(lián)魯棒性;采用機器學(xué)習(xí)提高姿態(tài)估計精度;構(gòu)建更通用的物體描述子;采用多源感知實現(xiàn)全景對象地圖。

總的來說,實驗結(jié)果充分證明了對象SLAM框架在不同應(yīng)用上的有效性和潛力。同時指出了當(dāng)前的局限性和未來的改進方向。這對促進對象SLAM技術(shù)的發(fā)展至關(guān)重要。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    403

    瀏覽量

    17487
  • 智能機器人
    +關(guān)注

    關(guān)注

    17

    文章

    868

    瀏覽量

    82296
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    424

    瀏覽量

    31832

原文標(biāo)題:TRO新文:用于數(shù)據(jù)關(guān)聯(lián)、建圖和高級任務(wù)的對象級SLAM框架

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于多模態(tài)語義SLAM框架

    本文提出了一個魯棒且快速的多模態(tài)語義 SLAM 框架,旨在解決復(fù)雜和動態(tài)環(huán)境中的 SLAM 問題。具體來說,將僅幾何聚類和視覺語義信息相結(jié)合,以減少由于小尺度對象、遮擋和運動模糊導(dǎo)致的
    的頭像 發(fā)表于 08-31 09:39 ?1718次閱讀

    讓機器人完美SLAM 3.0到底是何方神圣?

    引擎,讓機器人在復(fù)雜、大面積的場景下也能輕松應(yīng)對,穩(wěn)定發(fā)揮,完成定位導(dǎo)航任務(wù)。 傳統(tǒng)SLAMSLAM 3.0的
    發(fā)表于 01-21 10:57

    請問為什么不采用優(yōu)先繼承機制時高優(yōu)先級任務(wù)競爭不過中優(yōu)先級任務(wù)?

    如圖,請問畫線部分怎么理解,為什么不采用優(yōu)先繼承機制時高優(yōu)先級任務(wù)競爭不過中優(yōu)先級任務(wù)?希望各位大神幫小弟解決一下,謝謝~
    發(fā)表于 07-11 04:35

    請問ucosii任務(wù)響應(yīng)時會出現(xiàn)低優(yōu)先級任務(wù)沒法響應(yīng)的情況嗎?

    剛學(xué)ucosii有一個理論上的問題沒搞懂,在ucosii中任務(wù)總是響應(yīng)已經(jīng)準(zhǔn)備好的最高優(yōu)先,那會不會出現(xiàn)這樣一種情況:任務(wù)優(yōu)先高的任務(wù)
    發(fā)表于 11-11 04:35

    任務(wù)優(yōu)先問題

    同優(yōu)先任務(wù)可以通過時間片輪轉(zhuǎn)調(diào)度來實現(xiàn)任務(wù)切換。在不同優(yōu)先任務(wù)中,如果高優(yōu)先
    發(fā)表于 04-02 04:35

    UCOSII中斷級任務(wù)調(diào)度是返回被中斷處嗎?

    UCOSII中斷級任務(wù)調(diào)度是返回被中斷處還是調(diào)度去執(zhí)行優(yōu)先最高的任務(wù),如果去執(zhí)行優(yōu)先最高的任務(wù)那被中斷的
    發(fā)表于 04-03 00:45

    FreeRTOS任務(wù)調(diào)度優(yōu)先,會直接在就緒列表中調(diào)用低優(yōu)先級任務(wù)么?

    由于剛開始使用FreeRTOS,所以有很多問題,也正在學(xué)習(xí)。請問各位,假如優(yōu)先高的任務(wù)時間片用完后,會直接在就緒列表中調(diào)用低優(yōu)先級任務(wù)么?假設(shè):Task_A 優(yōu)先為2,Task_B
    發(fā)表于 06-14 09:01

    FREERTOS 高優(yōu)先級任務(wù)不能調(diào)度低優(yōu)先級任務(wù)照常運行怎么辦

    建立四個任務(wù),兩個優(yōu)先相同的任務(wù),兩個比此優(yōu)先高的任務(wù),開始
    發(fā)表于 06-17 02:36

    在gazebo中構(gòu)建一個用于和導(dǎo)航的虛擬環(huán)境

    完整任務(wù)內(nèi)容在gazebo中構(gòu)建一個用于和導(dǎo)航的虛擬環(huán)境,可以使用Building Editor工具創(chuàng)建,也可以使用其他功能包中已有的虛擬環(huán)境;將前面作業(yè)完成的帶傳感器的移動機器人
    發(fā)表于 12-17 07:06

    如何實現(xiàn)基于RK3399開發(fā)板的cartographer激光SLAM模塊的設(shè)計?

    如何實現(xiàn)基于RK3399開發(fā)板的cartographer激光SLAM模塊的設(shè)計?
    發(fā)表于 03-07 07:05

    基于三維激光數(shù)據(jù)的層級式SLAM方法

    課題組已將該研究成果應(yīng)用于智能駕駛即時定位與SLAM任務(wù)中,提出了基于三維激光數(shù)據(jù)的層級
    的頭像 發(fā)表于 04-20 09:19 ?2081次閱讀
    基于三維激光<b class='flag-5'>數(shù)據(jù)</b>的層級式<b class='flag-5'>SLAM</b>方法

    面向優(yōu)先級任務(wù)的移動邊緣資源分配方法

    處理價值賦予其相應(yīng)的優(yōu)先,對不同優(yōu)先任務(wù)進行計算資源加杈分配,在保證高優(yōu)先級任務(wù)獲取充足計算資源的同時,減少完成所有任務(wù)計算的總時間及
    發(fā)表于 05-12 11:38 ?4次下載

    相關(guān)VI-SLAM算法內(nèi)容總結(jié)

    框架包括傳感器數(shù)據(jù)、 前端、 后端、 回環(huán)檢測與,如圖1所示,其中,前端將傳感器的數(shù)據(jù)抽象成適
    的頭像 發(fā)表于 11-03 09:45 ?2442次閱讀
    相關(guān)VI-<b class='flag-5'>SLAM</b>算法內(nèi)容總結(jié)

    用于神經(jīng)場SLAM的矢量化對象

    vMAP 是一種基于神經(jīng)場的對象密集 SLAM 系統(tǒng),可根據(jù) RGB-D 輸入流實時自動構(gòu)建對象場景模型。
    的頭像 發(fā)表于 06-15 09:29 ?827次閱讀
    <b class='flag-5'>用于</b>神經(jīng)場<b class='flag-5'>SLAM</b>的矢量化<b class='flag-5'>對象</b><b class='flag-5'>建</b><b class='flag-5'>圖</b>

    利用VLM和MLLMs實現(xiàn)SLAM語義增強

    語義同步定位與SLAM)系統(tǒng)在對鄰近的語義相似物體進行時面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向
    的頭像 發(fā)表于 12-05 10:00 ?160次閱讀
    利用VLM和MLLMs實現(xiàn)<b class='flag-5'>SLAM</b>語義增強