0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視覺SLAM方案和硬件選型調(diào)研的總結(jié)

新機(jī)器視覺 ? 來源:CSDN博主 ? 作者:CSDN博主 ? 2021-03-20 09:13 ? 次閱讀

SLAM是機(jī)器人自動(dòng)駕駛等應(yīng)用重要的基礎(chǔ)技術(shù),如果離開了SLAM,相當(dāng)于人類失去了雙眼。SLAM可分為激光SLAM和視覺SLAM,視覺SLAM主要是基于相機(jī)來完成環(huán)境的感知工作,相對(duì)而言,相機(jī)成本較低,容易放到商品硬件上,且圖像信息豐富,因此視覺SLAM也備受關(guān)注。本文主要是對(duì)之前關(guān)于視覺SLAM方案和硬件選型調(diào)研的總結(jié),文中有關(guān)的視頻是從youtube上收集的,上傳到了百度網(wǎng)盤,有需自取。

01

SLAM的引入

1.1定義

SLAM 是 Simultaneous Localization and Mapping 的縮寫,中文譯作“同時(shí)定位與地圖構(gòu)建”。它是指搭載特定傳感器的主體,在沒有環(huán)境先驗(yàn)信息的情況下,于運(yùn)動(dòng)過程中建立環(huán)境的模型,同時(shí)估計(jì)自己的運(yùn)動(dòng)。如果這里的傳感器主要為相機(jī),那就稱為“視覺 SLAM”。

1.2開發(fā)背景

圖1-1 SLAM中建圖的分類與作用

引入SLAM的主要目的如下:

1)建圖。使用SLAM可在傳感器具有良好表現(xiàn)的環(huán)境下建立精度較高的全局地圖,建立好的地圖會(huì)為后面的定位、導(dǎo)航等功能提供服務(wù)。

2)定位。視覺SLAM中可通過幀間數(shù)據(jù)匹配計(jì)算相機(jī)的相對(duì)變換,對(duì)應(yīng)的就是機(jī)器人的位姿信息,不過該計(jì)算結(jié)果中存在累計(jì)誤差的影響;利用SLAM建立的全局地圖,通過相機(jī)采集到的環(huán)境信息與地圖進(jìn)行匹配可以減小累積誤差的影響,獲得更加精準(zhǔn)的機(jī)器人位姿。

3)導(dǎo)航。如果我們建立的地圖中包含了“哪些地方可以通過,哪些地方不能通過”的信息,那么我們可以以此實(shí)現(xiàn)機(jī)器人在地圖中從某一起點(diǎn)到某一終點(diǎn)的路徑規(guī)劃與跟蹤,并能夠?qū)Φ貓D中固定障礙物實(shí)現(xiàn)避障。但這對(duì)我們能夠建立的地圖有要求,需要是“稠密”地圖。

02

視覺SLAM

2.1 經(jīng)典視覺SLAM框架

SLAM至今已歷經(jīng)三十多年的研究,這里給出經(jīng)典視覺SLAM框架,這個(gè)框架本身及其包含的算法已經(jīng)基本定型,并且已經(jīng)在許多視覺程序庫和機(jī)器人程序庫中提供。

a1751f38-88ee-11eb-8b86-12bb97331649.png

圖2-1 經(jīng)典視覺SLAM框架

我們把整個(gè)視覺 SLAM 流程分為以下幾步:

1)傳感器信息讀取。在視覺 SLAM 中主要為相機(jī)圖像信息的讀取和預(yù)處理。如果在機(jī)器人中,還可能有碼盤、慣性傳感器等信息的讀取和同步。

2)視覺里程計(jì) (Visual Odometry, VO)。視覺里程計(jì)任務(wù)是估算相鄰圖像間相機(jī)的運(yùn)動(dòng),以及局部地圖的樣子,VO 又稱為前端(Front End)。

3)后端優(yōu)化(Optimization)。后端接受不同時(shí)刻視覺里程計(jì)測(cè)量的相機(jī)位姿,以及回環(huán)檢測(cè)的信息,對(duì)它們進(jìn)行優(yōu)化,得到全局一致的軌跡和地圖。由于接在 VO 之后,又稱為后端(Back End)。

4)回環(huán)檢測(cè)(Loop Closing)?;丨h(huán)檢測(cè)判斷機(jī)器人是否曾經(jīng)到達(dá)過先前的位置。如果檢測(cè)到回環(huán),它會(huì)把信息提供給后端進(jìn)行處理。

5)建圖(Mapping)。它根據(jù)估計(jì)的軌跡,建立與任務(wù)要求對(duì)應(yīng)的地圖。

某些使用場(chǎng)合中,我們只截取SLAM的部分功能應(yīng)用到實(shí)際場(chǎng)景中。舉例來說只使用VO部分我們可以得到連續(xù)的相機(jī)相對(duì)運(yùn)動(dòng)信息,雖然該運(yùn)動(dòng)信息存在累計(jì)誤差,但應(yīng)用中對(duì)此要求不高甚至不做要求,譬如VR頭顯中計(jì)算頭顯設(shè)備運(yùn)動(dòng)時(shí)的位姿。

不過一般在機(jī)器人應(yīng)用場(chǎng)景中,個(gè)人認(rèn)為建圖功能也是不可或缺的。因?yàn)榍岸税ê蠖藘?yōu)化得到的運(yùn)動(dòng)信息始終包含累積誤差,該累積誤差在SLAM中只能通過回環(huán)檢測(cè)(機(jī)器人回到某一處曾經(jīng)經(jīng)過的地方且系統(tǒng)識(shí)別出來)或者與事先建立好的具有較高精度的全局地圖匹配來消除。但是機(jī)器人在實(shí)際運(yùn)動(dòng)中,不能保證全局路徑一定會(huì)有重疊處,也就是說在SLAM計(jì)算中很可能出現(xiàn)不存在回環(huán)的情況,此時(shí)累積誤差只能通過與全局地圖匹配來消除,因此SLAM的建圖功能也不可或缺。

圖2-2 回環(huán)檢測(cè)消除累積誤差

這一點(diǎn)在VINS開源項(xiàng)目(香港科技大學(xué)團(tuán)隊(duì)基于單目+IMU開發(fā)的開源SLAM方案)中的測(cè)試視頻(見“視頻/VINS/[Open Source] VINS-Mono_ Monocular Visual-Inertial System in EuRoC MAV Dataset (MH_05 V1_03).mp4”)中也有體現(xiàn)。在回環(huán)檢測(cè)前,SLAM計(jì)算得到的位姿與真實(shí)位姿之間已經(jīng)產(chǎn)生了很大的偏差,如圖2-3所示;該偏差只有在相機(jī)回到了曾經(jīng)經(jīng)過的地方且SLAM成功執(zhí)行了回環(huán)檢測(cè)后才得到了消除,如圖2-4所示。

圖2-3 未進(jìn)行回環(huán)檢測(cè)前的位姿累積誤差

圖2-4 回環(huán)檢測(cè)消除累計(jì)誤差

2.2視覺SLAM方案的分類

視覺SLAM方案可按照傳感器的不同(單目、雙目、RGBD、與IMU的組合等)、前端方法的不同(主要分為直接法和特征點(diǎn)法)、后端優(yōu)化方案的不同(濾波或者非線性優(yōu)化)、生成地圖形式的不同(稀疏地圖、稠密地圖等)具有不同的劃分。這里主要以傳感器的不同對(duì)slam方案進(jìn)行簡(jiǎn)單的介紹。

1)單目slam。只使用一個(gè)攝像頭采集信息,在尺度完成初始化的情況下(即相機(jī)初始階段進(jìn)行了一段位移且確定了該段位移的實(shí)際大小作為參考),能夠完成連續(xù)圖像間相機(jī)位姿的計(jì)算與建圖。優(yōu)點(diǎn)在于設(shè)備簡(jiǎn)單,成本低。缺點(diǎn)在于存在尺度漂移現(xiàn)象;圖像的深度信息只能通過三角測(cè)量計(jì)算得到,對(duì)環(huán)境適應(yīng)性差;在相機(jī)位移較小時(shí)計(jì)算誤差較大,建圖精度不高。

2)雙目slam。使用雙目相機(jī)采集信息,雙目相機(jī)可以通過立體視覺原理計(jì)算得到像素深度,這樣就不存在單目slam中深度未知的情況。優(yōu)點(diǎn)在于對(duì)環(huán)境的適應(yīng)性要高于單目slam,且能夠計(jì)算得到像素真實(shí)深度;缺點(diǎn)在于像素深度計(jì)算量較大,一般通過FPGA或者GPU加速實(shí)現(xiàn)實(shí)時(shí)計(jì)算輸出。

3)RGBD SLAM。RGBD相機(jī)是指能夠同時(shí)輸出RGB圖像和對(duì)應(yīng)的深度圖的相機(jī),其測(cè)量像素深度不再通過耗時(shí)的被動(dòng)雙目匹配計(jì)算,而是通過激光散斑增加圖像紋理加速計(jì)算或者硬件測(cè)量(結(jié)構(gòu)光、TOF等)實(shí)現(xiàn)。因此它可以看做減小了計(jì)算量的雙目SLAM,但是RGBD相機(jī)普遍在室外表現(xiàn)效果不佳,更多用于室內(nèi)環(huán)境。

4)近年來有學(xué)者提出單目/雙目+IMU的slam方案,其中IMU主要起到的作用包括(1)解決單目slam的初始化尺度問題(2)追蹤中提供較好的初始位姿(3)提供重力方向(4)提供一個(gè)時(shí)間誤差項(xiàng)以供優(yōu)化。理論上來說IMU提供了冗余的運(yùn)動(dòng)信息,通過數(shù)據(jù)融合可以得到更加精確的運(yùn)動(dòng)估計(jì)。

從實(shí)現(xiàn)難度上來看:?jiǎn)文縎LAM>雙目SLAM>RGBD SLAM。

2.3 開源視覺SLAM方案匯總

目前比較流行的開源視覺SLAM方案如表2-1所示:

表2-1 開源SLAM方案匯總

03

視覺SLAM設(shè)備選型

3.1 設(shè)備選型的重要性說了這么多,終于到了設(shè)備選型這一部分。設(shè)備選型的重要性不言而喻,畢竟“好模型架不住壞數(shù)據(jù)”,SLAM模型建立得再好,如果設(shè)備采集的數(shù)據(jù)本身誤差過大,計(jì)算結(jié)果必定也不夠理想。先以VINS項(xiàng)目為例,根據(jù)論文內(nèi)容他們的設(shè)備型號(hào)和具體信息如下。 相機(jī)模塊:?jiǎn)文肯鄼C(jī),型號(hào)為MatrixVision的mvBlueFOX-MLC200w,具有全局快門;cmos型號(hào)為MT9V034,單色,分辨率為752X480,幀率20Hz IMU:該模塊使用的是大疆的集成飛控模塊A3的內(nèi)置IMU模塊,芯片型號(hào)為ADXL278和ADXRS290(都為工業(yè)級(jí)IMU芯片);可以確定A3內(nèi)置對(duì)IMU的校準(zhǔn)去躁等處理算法。

圖3-1 VINS中設(shè)備型號(hào) 由此看來VINS選用的硬件是具有一定要求的,其采集數(shù)據(jù)的精度也對(duì)SLAM算法最終的效果產(chǎn)生正向作用。所以如果我們選用了精度沒那么高的消費(fèi)級(jí)IMU配合單目相機(jī)采集數(shù)據(jù)時(shí),VINS的輸出結(jié)果就不一定能夠達(dá)到論文中的精度了。3.2 設(shè)備類型選擇我們的項(xiàng)目中工作環(huán)境為室外,對(duì)傳感器選型提出了較高要求。以RGBD相機(jī)為例,很多基于結(jié)構(gòu)光或者TOF方案的深度攝像頭在室外表現(xiàn)不佳,主要原因是室外自然光的影響。個(gè)人初步傾向于選用雙目或者RGBD(雙目某些情況下可視為RGBD)+IMU的方案,主要理由如下: 1)雙目/RGBD+IMU的硬件,可在此基礎(chǔ)上嘗試基于單目/雙目/RGBD/單目+IMU/雙目+IMU等多種開源SLAM方案;反之單目+IMU的設(shè)備對(duì)開源方案的限制較大(只能是單目/單目+IMU) 2)單目SLAM在建圖方面,尤其是深度估計(jì)方面,對(duì)場(chǎng)景適應(yīng)性不好且精度較差。雙目/RGBD因?yàn)榭梢杂?jì)算得到深度,在建圖方面相對(duì)具有優(yōu)勢(shì),更容易建立“稠密”地圖 3)SLAM定位實(shí)現(xiàn)中,基于單目的方案其計(jì)算量也要比基于雙目/RGBD要大,且因?yàn)橐肓巳菧y(cè)量部分,對(duì)于環(huán)境適應(yīng)性較差 所以在選型方面,我主要聚焦在雙目/RGBD類型;同時(shí)為了加快開發(fā)進(jìn)程,若選擇能夠提供開發(fā)SDK等工具的廠家,可以省去對(duì)于相機(jī)的標(biāo)定、數(shù)據(jù)同步等開發(fā)工作。 經(jīng)過一些篩選后,個(gè)人列出如下備選設(shè)備。有關(guān)設(shè)備的參數(shù)信息在下方鏈接中都有詳細(xì)說明,我只列出一些重要參數(shù)。3.2.1 ZED

圖3-2 zed雙目相機(jī) 1)官網(wǎng):https://www.stereolabs.com/zed/ 2)基本參數(shù):基于雙目原理匹配計(jì)算深度信息,分辨率最高可達(dá)2.2K@15fps(4416X1242);Field of View: 90°(H) X 60°(V) X 110°(D);室內(nèi)外最遠(yuǎn)20m深度感知;使用GPU加速運(yùn)算(支持TX1、TX2) 3)SDK:提供SDK,支持包括Windows、Linux、ROS等開發(fā)平臺(tái);使用SDK能夠獲得雙目圖像和深度圖像、機(jī)器人位姿跟蹤(官網(wǎng)稱頻率可達(dá)100Hz,位置精度達(dá)到1mm,角度精度達(dá)到0.1°)、3D重建等功能 4)應(yīng)用:在網(wǎng)上搜到一些評(píng)測(cè)和應(yīng)用視頻,主要內(nèi)容總結(jié)如下。 A.視頻1(見“視頻/zed/Realtime depth test using ZED stereo camera.mp4”)表明zed在深度計(jì)算方面室外表現(xiàn)較好,距離方面應(yīng)該可以達(dá)15m以上;測(cè)距精度方面官方未給出參數(shù),從雙目原理上來說深度測(cè)距精度與測(cè)量距離的平方成正比,僅從zed輸出的深度圖上來看,深度圖數(shù)據(jù)比較連續(xù),未出現(xiàn)明顯的誤差情況。

圖3-3 zed在室外測(cè)量深度的表現(xiàn) B. 3D重建也是SLAM的一種應(yīng)用,使用SLAM輸出的全局世界坐標(biāo)結(jié)合RGB信息可實(shí)現(xiàn)真實(shí)世界中場(chǎng)景的三維繪制,所以3D重建的效果好壞能夠在一定程度上代表設(shè)備的深度計(jì)算精度與SLAM效果。從官方視頻和youtube上視頻(見“視頻/zed/Introducing ZED for Live 3D Mapping.mp4”,“視頻/zed/Outdoor Test for Graph-based RGB-D SLAM using ZED camera on UGV and UAV.mp4”,“視頻/zed/ZEDfu - Real-time 3D Mapping using ZED stereo camera.mp4”)的測(cè)試效果來看,3D重建效果還是不錯(cuò)的,物體輪廓比較連續(xù),未出現(xiàn)明顯的邊界不重合的情況。

圖3-4 使用zed進(jìn)行三維重建 C.有研究人員在室外汽車上使用zed采集信息接入ORB-SLAM2計(jì)算車輛的位姿(見“視頻/zed/Evaluation of ORB-SLAM2 in outdoor urban scenes using ZED stereo camera.mp4”)。測(cè)量結(jié)果表明(1)在停車場(chǎng)環(huán)境和街道環(huán)境下大都能夠?qū)崿F(xiàn)閉環(huán)檢測(cè)(2)非極端情況下相機(jī)采集的圖像滿足特征提取需求(3)車速越快對(duì)于相機(jī)幀率要求越高,zed在WVGA分辨率下幀率可到100Hz,滿足了圖像采集頻率要求。

圖3-5 使用zed接入ORB_SLAM2進(jìn)行室外定位 5)價(jià)格:國(guó)外官網(wǎng)上為$449,國(guó)內(nèi)淘寶上價(jià)格3200-3800元不等3.2.2 Intel D415/D435系列

圖3-6 Intel D415/D435 1)官網(wǎng):https://software.intel.com/zh-cn/realsense/d400 2)基本參數(shù):基于主動(dòng)紅外測(cè)距(激光散斑增加紋理后立體匹配測(cè)距);RGB分辨率和幀率為1920X1080@30fps;內(nèi)置視覺處理器可直接輸出計(jì)算深度,深度流輸出分辨率和幀率為1280X720@90fps;室內(nèi)外檢測(cè)范圍為0.16m-10m;D415為卷簾快門,D435為全局快門

圖3-7 D415/D435詳細(xì)參數(shù)對(duì)比 3)SDK:支持Linux/windows/Mac OS,可獲得彩色圖像與深度圖像,設(shè)置相機(jī)參數(shù)等 4)應(yīng)用:根據(jù)網(wǎng)上相關(guān)測(cè)評(píng)視頻整理如下 A.有人對(duì)比了D415和D435在室內(nèi)的表現(xiàn)(見“視頻/Intel/Intel RealSense D435 vs D415.mp4”),攝像頭如圖3-8所示放置。分別比較了彩色圖、遠(yuǎn)距離深度圖、近距離深度圖的效果,具體如圖3-9所示。結(jié)果表明D435在遠(yuǎn)距離深度圖上效果要優(yōu)于D415,后者出現(xiàn)較大面積的空洞(計(jì)算不出深度信息)。不過由于兩個(gè)攝像頭的測(cè)量環(huán)境并不完全一致,同時(shí)存在發(fā)射的紅外光互相干涉影響的可能性,該結(jié)論是否成立不予保證。

圖3-8 D435與D415對(duì)比

圖 3-9 D435(左邊)與D415(右邊)室內(nèi)表現(xiàn)效果對(duì)比 B.有人在室外街道中使用D415觀察其深度信息(見“視頻/Intel/Review on Intel Realsense D415 RGBD Camera Part 2_ Outdoor test.mp4”),具體效果如圖3-10所示。結(jié)果表明: (1)室外D415的深度檢測(cè)距離應(yīng)該可以達(dá)到10m (2)相對(duì)于室內(nèi),室外的深度圖噪點(diǎn)較多,這應(yīng)該是自然光對(duì)于D415發(fā)射的紅外光的影響,造成圖像匹配失敗或者誤匹配

圖3-10 D415在室外的深度測(cè)距表現(xiàn) C.有人將D435固定在汽車上查看道路的深度信息(見“視頻/Intel/Realsense D435 - Outdoor test on road.mp4”),這里截取幾幅圖像如圖3-11所示。可以得出: (1)D435在室外能夠獲得比較豐富的深度信息 (2)D435深度計(jì)算錯(cuò)誤/失敗的情況多于zed 5)價(jià)格:官網(wǎng)上D435為$179.00,國(guó)內(nèi)價(jià)格¥1500不等;官網(wǎng)上D415為$149.00,國(guó)內(nèi)淘寶價(jià)格¥1300不等

圖3-11 D435在室外深度測(cè)距表現(xiàn)3.2.3小覓雙目攝像頭

圖3-12 小覓雙目攝像頭外觀 1)官網(wǎng)鏈接 http://www.myntai.com/camera 2)基本參數(shù):基于雙目測(cè)距,內(nèi)置6軸IMU(ICM2060,消費(fèi)級(jí)IMU)。有常規(guī)版(即被動(dòng)雙目)和IR增強(qiáng)版(原理應(yīng)該是激光散斑增加紋理后立體匹配測(cè)距),黑白CMOS,分辨率752X480@50FPS。

圖3-13 小覓雙目攝像頭詳細(xì)參數(shù) 3)SDK:支持Windows、Linux、TX1、TX2;基于CPU/GPU計(jì)算深度信息;提供接入了OKVIS、ORB-SLAM2、VINS、VIORB(都是開源SLAM工程)的sample 4)應(yīng)用:目前尚未找到相關(guān)評(píng)測(cè)信息,不過據(jù)知乎上一些問題的回答,該模塊的售后支持不錯(cuò)。深度圖效果方面,只有天貓旗艦店上提供的一小段室內(nèi)測(cè)試視頻(見“視頻/MYNT-EYE/室內(nèi)景深測(cè)試.mp4”),截圖如圖3-14所示。個(gè)人感覺深度效果計(jì)算較差,有較多的計(jì)算錯(cuò)誤點(diǎn)出現(xiàn);無法判斷深度范圍大小能否達(dá)到宣稱的20m。

圖3-14 MYNT-EYE室內(nèi)深度測(cè)試效果 5)價(jià)格:天貓¥1999.00 現(xiàn)在對(duì)以上幾款設(shè)備進(jìn)行一個(gè)信息的對(duì)比整理,如表3-1所示。

ab109126-88ee-11eb-8b86-12bb97331649.png

表3-1 三款設(shè)備主要信息對(duì)比3.3 個(gè)人意見整體看來,個(gè)人首先推薦zed,其次推薦DM435和MYNT-EYE。若選用zed或者D435后準(zhǔn)備測(cè)試融合了IMU的開源SLAM方案時(shí),可使用IMU模塊采集相關(guān)信息,之后自己做數(shù)據(jù)同步。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2552

    文章

    51294

    瀏覽量

    755198
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28560

    瀏覽量

    207697
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    425

    瀏覽量

    31881

原文標(biāo)題:超全總結(jié)!視覺SLAM方案整理及硬件選型(附項(xiàng)目地址)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種基于MASt3R的實(shí)時(shí)稠密SLAM系統(tǒng)

    精心設(shè)計(jì)的集成式硬件與軟件堆棧,實(shí)現(xiàn)穩(wěn)健且精準(zhǔn)的視覺SLAM已成為可能。然而,SLAM尚未能成為一種即插即用的算法,因其需要硬件方面的專業(yè)知
    的頭像 發(fā)表于 12-27 15:25 ?340次閱讀

    利用VLM和MLLMs實(shí)現(xiàn)SLAM語義增強(qiáng)

    語義同步定位與建圖(SLAM)系統(tǒng)在對(duì)鄰近的語義相似物體進(jìn)行建圖時(shí)面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο?b class='flag-5'>SLAM的語義增強(qiáng)(SEO-SLAM)的新型SLAM系統(tǒng),借
    的頭像 發(fā)表于 12-05 10:00 ?233次閱讀
    利用VLM和MLLMs實(shí)現(xiàn)<b class='flag-5'>SLAM</b>語義增強(qiáng)

    激光雷達(dá)在SLAM算法中的應(yīng)用綜述

    SLAM算法運(yùn)行的重要傳感器?;诩す饫走_(dá)的SLAM算法,對(duì)激光雷達(dá)SLAM總體框架進(jìn)行介紹,詳細(xì)闡述前端里程計(jì)、后端優(yōu)化、回環(huán)檢測(cè)、地圖構(gòu)建模塊的作用并總結(jié)所使用的算法;按由2D到
    的頭像 發(fā)表于 11-12 10:30 ?902次閱讀
    激光雷達(dá)在<b class='flag-5'>SLAM</b>算法中的應(yīng)用綜述

    MG-SLAM:融合結(jié)構(gòu)化線特征優(yōu)化高斯SLAM算法

    同步定位與地圖構(gòu)建 (SLAM) 是計(jì)算機(jī)視覺中的一個(gè)基本問題,旨在在同時(shí)跟蹤相機(jī)姿勢(shì)的同時(shí)對(duì)環(huán)境進(jìn)行地圖構(gòu)建?;趯W(xué)習(xí)的密集 SLAM 方法,尤其是神經(jīng)輻射場(chǎng) (NeRF) 方法,在捕獲密集光度
    的頭像 發(fā)表于 11-11 16:17 ?383次閱讀
    MG-<b class='flag-5'>SLAM</b>:融合結(jié)構(gòu)化線特征優(yōu)化高斯<b class='flag-5'>SLAM</b>算法

    一種適用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)視覺SLAM系統(tǒng)

    既能保證效率和精度,又無需GPU,行業(yè)第一個(gè)達(dá)到此目標(biāo)的視覺動(dòng)態(tài)SLAM系統(tǒng)。
    的頭像 發(fā)表于 09-30 14:35 ?551次閱讀
    一種適用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)

    機(jī)器視覺硬件組成有哪些

    機(jī)器視覺是一種利用計(jì)算機(jī)和圖像處理技術(shù)來模擬人類視覺系統(tǒng)的技術(shù)。它涉及到圖像的獲取、處理、分析和理解,廣泛應(yīng)用于工業(yè)自動(dòng)化、醫(yī)療診斷、智能交通、安防監(jiān)控等領(lǐng)域。本文將詳細(xì)介紹機(jī)器視覺硬件
    的頭像 發(fā)表于 07-04 10:51 ?1750次閱讀

    下位機(jī)硬件選型與配置研究

    在工業(yè)自動(dòng)化、嵌入式系統(tǒng)以及物聯(lián)網(wǎng)等領(lǐng)域,下位機(jī)作為系統(tǒng)的執(zhí)行單元,其硬件選型與配置直接關(guān)系到整個(gè)系統(tǒng)的性能、穩(wěn)定性和可靠性。因此,合理的下位機(jī)硬件選型與配置對(duì)于確保系統(tǒng)的高效運(yùn)行至
    的頭像 發(fā)表于 06-28 16:57 ?665次閱讀

    機(jī)器視覺系統(tǒng)讀取二維碼-軟硬件配置方案

    機(jī)器視覺系統(tǒng)讀取二維碼-軟硬件配置方案
    的頭像 發(fā)表于 05-24 00:56 ?660次閱讀
    機(jī)器<b class='flag-5'>視覺</b>系統(tǒng)讀取二維碼-軟<b class='flag-5'>硬件</b>配置<b class='flag-5'>方案</b>

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測(cè)、識(shí)別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度學(xué)習(xí)技術(shù),使得深度學(xué)習(xí)SLAM系統(tǒng)
    發(fā)表于 04-23 17:18 ?1334次閱讀
    深度解析深度學(xué)習(xí)下的語義<b class='flag-5'>SLAM</b>

    工程實(shí)踐中VINS與ORB-SLAM的優(yōu)劣分析

    ORB-SLAM是一種基于特征的單目視覺SLAM系統(tǒng),廣泛用于實(shí)時(shí)三維地圖構(gòu)建和機(jī)器人定位。該系統(tǒng)使用ORB特征進(jìn)行高效的視覺識(shí)別和地圖重建,支持關(guān)鍵幀技術(shù)和回環(huán)檢測(cè)來優(yōu)化地圖的準(zhǔn)確性
    的頭像 發(fā)表于 04-08 10:17 ?3019次閱讀
    工程實(shí)踐中VINS與ORB-<b class='flag-5'>SLAM</b>的優(yōu)劣分析

    什么是SLAM?SLAM算法涉及的4要素

    SLAM技術(shù)可以應(yīng)用在無人駕駛汽車、無人機(jī)、機(jī)器人、虛擬現(xiàn)實(shí)等領(lǐng)域中,為這些領(lǐng)域的發(fā)展提供了支持。SLAM技術(shù)的發(fā)展已經(jīng)逐漸從單純的定位和地圖構(gòu)建轉(zhuǎn)向了基于場(chǎng)景理解的功能。
    發(fā)表于 04-04 11:50 ?2591次閱讀

    什么是SLAM?基于3D高斯輻射場(chǎng)的SLAM優(yōu)勢(shì)分析

    基于NeRF的SLAM算法采用全局地圖和圖像重建損失函數(shù),通過可微分渲染捕獲稠密的光度信息,具有高保真度。
    的頭像 發(fā)表于 04-01 12:44 ?775次閱讀

    機(jī)器視覺選型方式!

    我們將向各位毫無保留地介紹機(jī)器視覺入門核心技巧,這些信息正是菲特高級(jí)工程們?cè)谏习俅蔚膽?yīng)用案例中提取的學(xué)習(xí)精華。機(jī)器視覺初學(xué)者也可以輕松入門,不擔(dān)心起步難度;且今日所學(xué)是“充分且必要”的,可以應(yīng)用在日后工作中,邊學(xué)邊練,早日成為“選型
    的頭像 發(fā)表于 01-23 16:33 ?915次閱讀
    機(jī)器<b class='flag-5'>視覺</b><b class='flag-5'>選型</b>方式!

    動(dòng)態(tài)環(huán)境中基于神經(jīng)隱式表示的RGB-D SLAM

    神經(jīng)隱式表示已經(jīng)被探索用于增強(qiáng)視覺SLAM掩碼算法,特別是在提供高保真的密集地圖方面。
    的頭像 發(fā)表于 01-17 10:39 ?929次閱讀
    動(dòng)態(tài)環(huán)境中基于神經(jīng)隱式表示的RGB-D <b class='flag-5'>SLAM</b>