0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于激光雷達和視覺融合的機器人SLAM應用研究

iotmag ? 來源:物聯(lián)網(wǎng)技術(shù) ? 作者:物聯(lián)網(wǎng)技術(shù) ? 2022-09-20 10:31 ? 次閱讀

摘 要 :通過研究激光雷達和視覺傳感器融合 SLAM,實現(xiàn)雙目視覺傳感器對單線激光雷達點云的補充,以提高建圖精度。實現(xiàn)方案以 2D 激光雷達點云數(shù)據(jù)為主,雙目視覺傳感器作為激光雷達點云盲區(qū)的補充,搭建 SLAM實驗平臺,完成機器人實時地圖構(gòu)建并獲取當前位置信息,同時降低攜帶傳感器的成本。

0 引 言

隨著機器人技術(shù)的發(fā)展,越來越多的機器人已經(jīng)實現(xiàn)自主運動,但可靠性和制作成本依然制約著機器人的普及。通過使用相較3D激光雷達傳感器成本更低的2D激光雷達和視覺傳感器進行點云數(shù)據(jù)融合,實現(xiàn)平臺搭建,優(yōu)化機器人的SLAM技術(shù),解決當前2D激光雷達存在的感知單一平面點云數(shù)據(jù)不足、視覺傳感器數(shù)據(jù)計算量大等問題[1-2],提升地圖精度,減少SLAM應用過程中的不確定性。

1 實驗平臺搭建

研究基于ROS構(gòu)建由2D激光雷達和深度相機點云融合的SLAM[3]平臺,通過NVIDIA Jetson TX2運算平臺和STM32微控制器通信傳送數(shù)據(jù),實現(xiàn)機器人自主運動。實驗平臺包括點云數(shù)據(jù)識別部分和運動部分,整體結(jié)構(gòu)如圖1所示。

云數(shù)據(jù)識別部分包括激光雷達獲取平面點云數(shù)據(jù)和雙目相機深度點云計算。運行時激光雷達獲取2D平面內(nèi)障礙物點云信息,雙目相機獲取機器人正面范圍的影像[4],通過Stereo Matching 計算可視范圍內(nèi)的深度點云數(shù)據(jù),并對其進行范圍剔除和距離篩選 ;最后將雙目相機獲得的點云與激光雷達點云序列進行比較更新,融合點云數(shù)據(jù)后根據(jù)占據(jù)柵格地圖算法構(gòu)建地圖[5]。點云數(shù)據(jù)融合過程如圖1所示。

運動部分通過單片機STM32F4從NUC獲取運動速度向量或從遙控中獲取控制信息,經(jīng)PID解算將電流或電壓值發(fā)送給底盤電機,電機連接聯(lián)軸器帶動麥克納姆輪轉(zhuǎn)動,從而實現(xiàn)全方向移動[6]。機器人整體設計如圖1所示。

7a630f70-388a-11ed-ba43-dac502259ad0.png

2 研究與測試

圍繞ROS節(jié)點話題進行研究和測試。雙目相機點云生成節(jié)點(cameraNode),將相機點云(/camera_cloud)傳送給點云數(shù)據(jù)處理節(jié)點(/transNode)處理,得到深度數(shù)據(jù)(/depth);激光雷達點云生成節(jié)點,得到點云數(shù)據(jù)(/laser),二者由點云合成節(jié)點(/mergeNode)融合得到點云數(shù)據(jù)(/scan),再將其輸出到 HectorMapping 的節(jié)點。點云融合建圖部分 ROS 節(jié)點與話題如圖2 所示 [7]。

7aaea426-388a-11ed-ba43-dac502259ad0.png

2.1 雙目校正與像素匹配

使用金乾象工業(yè)相機中的兩個自制雙目深度相機,需要保證左右畫面的同步和亮度,否則會導致深度圖的計算結(jié)果不佳。因此,在相機點云生成(/camera_cloud)之前,需要對左右相機讀取的原圖像進行雙目校正和像素匹配。

雙目校正根據(jù)攝像頭標定后獲得的單目內(nèi)參(焦距、成像原點、畸變系數(shù))和雙目相對位置關(guān)系(旋轉(zhuǎn)矩陣和平移向量),分別對左右視圖進行消除畸變和行對準,使得左右視圖的成像原點坐標一致、攝像頭光軸與對極線行對齊。原圖像與校正后圖像對比情況如圖3所示。

7aceade8-388a-11ed-ba43-dac502259ad0.png

像素匹配通過匹配代價計算、代價聚合、視差計算和視差優(yōu)化等步驟 [8],對左右視圖上對應的像素點進行匹配得到視差圖。依靠視差圖,結(jié)合雙目相機的內(nèi)參,計算得到正交空間下的點云數(shù)據(jù)。

2.2 點云數(shù)據(jù)處理

由于雙目相機參數(shù)的差異,幀速率不能完全同步,獲取的點云數(shù)據(jù)存在一定誤差,需要先通過點云數(shù)據(jù)處理節(jié)點(/transNode)變換和剔除數(shù)據(jù),再通過點云合成節(jié)點(/mergeNode)融合同種格式的數(shù)據(jù)。

正交空間下的點云通過透視除法的逆變換得到相機空間下的點云數(shù)據(jù),獲得相對于相機實際位置的坐標。坐標變換與效果如圖4所示。

7b37d098-388a-11ed-ba43-dac502259ad0.png

數(shù)據(jù)轉(zhuǎn)換部分將點云投影到二維平面,并轉(zhuǎn)換為激光雷達點云格式的數(shù)據(jù),即角度和對應方向的深度值[9]。轉(zhuǎn)換時,通過反正切函數(shù),根據(jù)點云位置的水平偏移與深度值計算出角度和距離值,篩選取得各個角度上距離最近的點云,效果如圖5所示。在融合點云之前,應當剔除視錐內(nèi)不需要的部分,效果如圖5中截取點云后的投影圖所示 ;否則地面和天花板將對投影后的點云造成影響,效果如圖5中的原點云投影圖所示??紤]到雙目左右圖像的邊緣缺少完整的匹配信息,點云可能出現(xiàn)極不穩(wěn)定的深度值,效果如圖5中未進行邊緣剔除的投影圖所示。因此,在能夠反映完整深度值的情況下,剔除部分邊緣深度值,效果如圖5中邊緣剔除后的投影圖所示。

7b882d72-388a-11ed-ba43-dac502259ad0.png

2.3 點云融合建圖

點云合成節(jié)點將深度數(shù)據(jù)和激光雷達點云數(shù)據(jù)融合,并篩選出各個角度距離最近的點云輸出到 HectorMapping 的節(jié)點。

經(jīng)過測試,增加雙目相機后的建圖能夠獲取單線雷達掃描平面外的細節(jié),自身位姿估計和建圖結(jié)果更加精確,測試對比結(jié)果如圖6所示。但與工業(yè)級產(chǎn)品相比穩(wěn)定性差,建圖過程中會有微小偏差。

7ba9c234-388a-11ed-ba43-dac502259ad0.png

3 結(jié) 語

本文通過激光雷達提供大范圍點云信息,視覺傳感器提供機器人正面區(qū)域補充激光雷達缺失的點云,較單線雷達大范圍稀疏點云提高了計算準確度,使用Hector SLAM算法融合點云數(shù)據(jù),更好地實現(xiàn)機器人點云獲取和建圖[10]。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28467

    瀏覽量

    207334
  • 雷達
    +關(guān)注

    關(guān)注

    50

    文章

    2940

    瀏覽量

    117609
  • 視覺傳感器
    +關(guān)注

    關(guān)注

    3

    文章

    250

    瀏覽量

    22897
  • 激光雷達
    +關(guān)注

    關(guān)注

    968

    文章

    3981

    瀏覽量

    190024

原文標題:論文速覽 | 基于激光雷達和視覺融合的機器人 SLAM 應用研究

文章出處:【微信號:iotmag,微信公眾號:iotmag】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI驅(qū)動的人形機器人,成為激光雷達產(chǎn)業(yè)的下一個爆發(fā)點

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)過去兩年,激光雷達跟隨ADAS在電動汽車上大放異彩。作為視覺感知基礎上的進階感知硬件,激光雷達機器人領(lǐng)域的應用,也開始隨著人形
    的頭像 發(fā)表于 12-23 09:07 ?822次閱讀

    禾賽科技成為全球首個單月交付10 萬臺的激光雷達企業(yè)

    禾賽科技 12 月激光雷達交付量突破 100,000 臺,成為全球首個達成單月交付量超過 10 萬臺的激光雷達企業(yè)。值得一提的是,禾賽面向機器人市場單月交付激光雷達超過 20,000
    的頭像 發(fā)表于 12-31 18:41 ?490次閱讀
    禾賽科技成為全球首個單月交付10 萬臺的<b class='flag-5'>激光雷達</b>企業(yè)

    禾賽科技激光雷達交付量突破十萬臺大關(guān)

    尤為亮眼,特別是在機器人市場領(lǐng)域。據(jù)悉,禾賽科技面向機器人市場的單月激光雷達交付量超過了20,000臺,這一數(shù)字覆蓋了移動機器人、配送機器人
    的頭像 發(fā)表于 12-31 14:45 ?107次閱讀

    禾賽科技12月激光雷達交付量突破10萬臺

    禾賽科技 12 月激光雷達交付量突破 100,000 臺,成為全球首個達成單月交付量超過 10 萬臺的激光雷達企業(yè)。值得一提的是,禾賽面向機器人市場單月交付激光雷達超過 20,000
    的頭像 發(fā)表于 12-30 14:52 ?100次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    。 多模態(tài)融合的創(chuàng)新與突破 機器人控制技術(shù)的另一個重要突破在于多模態(tài)大模型的應用。相比于僅通過文字進行人機交互的傳統(tǒng)方法,現(xiàn)代機器人能夠融合視覺
    發(fā)表于 12-29 23:04

    《具身智能機器人系統(tǒng)》第1-6章閱讀心得之具身智能機器人系統(tǒng)背景知識與基礎模塊

    關(guān)鍵路徑:利用GNSS和IMU等傳感器直接獲取位置信息,同時通過攝像頭、激光雷達獲取環(huán)境距離信息反向推算位置。在數(shù)據(jù)處理環(huán)節(jié),采用卡爾曼濾波器和最大后驗估計方法融合多傳感器數(shù)據(jù),優(yōu)化機器人位置和運動狀態(tài)
    發(fā)表于 12-19 22:26

    禾賽將推出機器人領(lǐng)域迷你3D激光雷達

    據(jù)傳感器專家網(wǎng)獲悉,2025年1月7日至10日,禾賽將參加在拉斯維加斯舉行的國際消費類電子產(chǎn)品展CES 2025。在本屆CES上,禾賽計劃于1月7日隆重推出其最新產(chǎn)品——全新迷你型高性能3D激光雷達
    的頭像 發(fā)表于 12-11 09:12 ?248次閱讀
    禾賽將推出<b class='flag-5'>機器人</b>領(lǐng)域迷你3D<b class='flag-5'>激光雷達</b>

    激光雷達SLAM:全面掌握同步定位與地圖構(gòu)建指南

    ? SLAM 背后的核心思想是讓機器人或自主系統(tǒng)能夠探索未知環(huán)境并創(chuàng)建該環(huán)境的地圖,同時確定其在生成的地圖中的位置。這是通過融合來自各種傳感器(例如激光雷達、攝像頭和慣性測量單元 (I
    的頭像 發(fā)表于 11-16 10:57 ?640次閱讀

    激光雷達SLAM算法中的應用綜述

    一、文章概述 1.1 摘 要 即時定位與地圖構(gòu)建(simultaneous localization and mapping,SLAM)是自主移動機器人和自動駕駛的關(guān)鍵 技術(shù)之一,而激光雷達則是支撐
    的頭像 發(fā)表于 11-12 10:30 ?702次閱讀
    <b class='flag-5'>激光雷達</b>在<b class='flag-5'>SLAM</b>算法中的應用綜述

    激光雷達技術(shù)的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應用前景。 二、深度學習技術(shù)的發(fā)展 深度學習是機器學習的一個分支,它通過模擬人腦的神經(jīng)網(wǎng)絡結(jié)構(gòu)來處理和分析數(shù)據(jù)。近年來,深度學習技術(shù)在圖像識別、語音
    的頭像 發(fā)表于 10-27 10:57 ?420次閱讀

    AGV智能小車自動避障繞行#AGV #智能小車 #搬運機器人 #激光雷達 #SLAM導航

    AGV激光雷達
    fuweizn
    發(fā)布于 :2024年07月01日 15:31:03

    基于FPGA的激光雷達控制板

    激光雷達作為一種高精度、高性能的傳感技術(shù),廣泛應用于自動駕駛、機器人導航、工業(yè)自動化、無人機等應用領(lǐng)域。激光雷達控制板可以很好的滿足這些領(lǐng)域中對于精準控制和數(shù)據(jù)處理的需求?;贔PGA的激光雷
    的頭像 發(fā)表于 05-28 08:11 ?699次閱讀
    基于FPGA的<b class='flag-5'>激光雷達</b>控制板

    視覺機器人焊接的研究現(xiàn)狀

    視覺機器人焊接技術(shù)是將計算機視覺機器人技術(shù)相結(jié)合,實現(xiàn)自動焊接過程中的實時檢測、跟蹤和控制。這一領(lǐng)域的研究一直處于不斷發(fā)展之中,吸引了眾多
    的頭像 發(fā)表于 04-02 15:34 ?536次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>機器人</b>焊接的<b class='flag-5'>研究</b>現(xiàn)狀

    視覺、激光、結(jié)構(gòu)光?掃地機器人導航避障技術(shù)盤點

    的核心標準。 目前主流的掃地機器人導航避障技術(shù)路徑為雙目視覺、激光雷達、3D結(jié)構(gòu)光(線激光)三條,每條技術(shù)路徑都存在著各自的特點。 視覺方案
    的頭像 發(fā)表于 02-01 16:01 ?1327次閱讀

    做一個激光雷達,需要哪些基本部件?

    激光雷達(LiDAR)是激光探測及測距系統(tǒng)的簡稱,目前廣泛應用在無人駕駛和掃地機器人等領(lǐng)域。這種廣泛的應用一方面得益于激光雷達的性能提升,一方面也得益于其成本的下降。
    發(fā)表于 01-19 14:22 ?1143次閱讀
    做一個<b class='flag-5'>激光雷達</b>,需要哪些基本部件?