0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何利用立體視覺實現(xiàn)距離估計?

新機器視覺 ? 來源:智車科技 ? 作者:智車科技 ? 2021-07-01 09:15 ? 次閱讀

/ 導讀 /

雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,它是基于視差原理并利用成像設備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應點間的位置偏差,來獲取物體三維幾何信息的方法。

1偽激光雷達-雙目立體相機

深度學習計算機視覺自動駕駛系統(tǒng)中已經非常流行且被廣泛應用。計算機視覺領域在過去的十年里得到了迅猛的發(fā)展,特別是在障礙物檢測方面。障礙物檢測算法,如YOLO或RetinaNet提供了二維邊界框,用邊界框給出了障礙物在圖像中的位置。

目前,大多數(shù)的目標檢測算法都是基于單目RGB攝像機的,不能返回每個障礙物的距離。為了能夠返回每個障礙物的距離,工程師們將相機與激光雷達(LiDAR,光探測和測距)傳感器進行融合,后者使用激光來返回深度信息。將計算機視覺信息和激光雷達輸出進行傳感器的融合。這種方法的問題是使用激光雷達,就會導致價格昂貴。所以經常有人使用的一個雙目攝像頭進行替代,并使用幾何信息來定義每個障礙物的距離,故可以將雙目相機獲取的數(shù)據(jù)稱之為偽激光雷達

雙目視覺利用幾何學來構建深度圖,并將其與目標檢測相結合以獲得三維距離。那么如何利用立體視覺實現(xiàn)距離估計?以下是雙目障礙物檢測的5步偽代碼:

標定 2 個攝像頭(內外參的標定)

創(chuàng)建極線約束

先構建視差圖,然后構建深度圖

然后將深度圖與障礙物檢測算法相結合

估計邊界框內像素的深度。

2相機內外參標定

每個攝像機都需要標定。相機的標定是指將三維世界中的[X,Y,Z]坐標的三維點轉換為具有[X,Y]坐標的二維像素。這里簡單的介紹一下針孔相機模型。顧名思義就是用一個針孔讓少量光線穿過相機,從而得到清晰的圖像。

針孔相機模型可以設置焦距,使得圖像更加的清晰。為了相機標定,我們需要通過攝像機坐標系計算世界坐標點到像素坐標的變換關系。

從世界坐標系到相機坐標的轉換稱為外參標定,外部參數(shù)稱為R(旋轉矩陣)和T(平移矩陣)。

從攝像機坐標到像素坐標的轉換稱為內參標定,它獲取的是相機的內部參數(shù),如焦距、光心等…

內參我們常稱之為K的矩陣。

內參標定,通常使用棋盤和自動算法獲得,如下圖我們在采集標定板時,將告訴算法棋盤上的一個點(例如世界坐標系點 0, 0 , 0)對應于圖像中的一個像素為(545,343)。

為此,相機標定必須用攝像機拍攝棋盤格的圖像,在得到一些圖像和對應的點之后,標定算法將通過最小化平方誤差來確定攝像機的標定矩陣。得到標定參數(shù)后為了得到校正后的圖像,需要進行畸變校正?;兛梢允菑较虻?,也可以是切向的?;冃U兄谙龍D像失真。

以下是攝像機標定返回的矩陣形式

f是焦距-(u?,v?) 是光學中心:這些是固有參數(shù)。

我認為每一個計算機視覺工程師都應該必須知道并掌握相機的標定,這是最基本且重要的要求。

在相機標定的過程中涉及到一些齊次坐標轉換的問題,這里簡單的介紹一下有兩個公式可以得到從世界坐標系到像素坐標系的關系:

(1)世界坐標系到相機坐標系的轉換(外參標定公式)

e627d60e-d9d2-11eb-9e57-12bb97331649.png

(2)相機坐標系到圖像坐標系的轉換(內參標定公式)

e633d9b8-d9d2-11eb-9e57-12bb97331649.png

所以從三維空間坐標系到圖像坐標系下的關系可以總結為

e63f9c94-d9d2-11eb-9e57-12bb97331649.png

但是我們知道這個公式是齊次坐標才可以這么寫,也就是需要將O_world從[X Y Z]修改為[X Y Z 1],加這個“1”后稱為齊次坐標。

e67fd156-d9d2-11eb-9e57-12bb97331649.png

3雙目視覺的對極幾何

我們知道雙目立體視覺是基于兩幅圖像來尋找深度的,人類的眼睛就像兩個相機,因為兩只眼睛從不同的角度觀察圖像,所以他們可以計算兩個視角之間的差異,并建立距離估計。下圖是一個雙目立體相機的例子

那么我們如何根據(jù)雙目立體相機如何估計深度?想象一下你有兩個攝像頭,一個左攝像頭和一個右攝像頭。這兩個攝像頭在同一Y軸和Z軸上對齊。那么唯一的區(qū)別是它們的X值。

根據(jù)上圖我們的目標是估計O點(代表圖像中的任何像素)的Z值,即距離。X是對齊軸,Y是高度值,Z是深度值,兩個藍色的平面圖對應于每個攝像頭的圖像。假設我們從從俯視的角度來考慮這個問題。

已知:

(1)xL對應于左側相機圖像中的點。xR是與左側圖像中該點的對應位置。(2)b是基線,是兩個攝像頭之間的距離。

針對左相機,如下圖,我們可以得到一個公式:Z = X*f / xL.

針對右相機,如下圖,我們可以得到另一個公式:Z = (X — b)*f/xR.

此時根據(jù)兩個公式我們可以計算出正確的視差d=xL-xR和一個物體的正確XYZ位置。

4視差和深度圖

什么是視差?視差是指同一個三維點在兩個不同的攝像機角度獲得的圖像中位置的差異。視差圖是指一對立體圖像之間明顯的像素差異或運動。要體驗這一點,試著閉上你的一只眼睛,然后快速地閉上它,同時打開另一只眼睛。離你很近的物體看起來會跳一段很長的距離,而離你較遠的物體移動很少,這種運動就是視差。

e7742be8-d9d2-11eb-9e57-12bb97331649.png

由于立體視覺,我們可以估計任何物體的深度,假設我們得到了正確的矩陣參數(shù),則可以計算深度圖或視差圖:

為了計算視差,我們必須從左邊的圖像中找到每個像素,并將其與右邊圖像中的每個像素進行匹配。這就是所謂的雙目相機的立體匹配的問題。為了解決像素匹配的問題,引入對極幾何約束,只需在對極線上搜索它,就不需要二維搜索,對應點一定是位于這條線上,搜索范圍縮小到一維。

之所以能夠引入對極約束,這是因為兩個相機是沿同一軸對齊的。以下是極線搜索的工作原理

取左圖中這一行上的每個像素

在同一極線上比較左圖像像素和右圖像中的每個像素

選擇 cost 最低的像素

計算視差 d

5構建偽激光雷達效果

現(xiàn)在,是時候把這些應用到一個真實的場景中,看看我們如何使用雙目立體視覺來估計物體的深度。假設我們有以下兩張實際場景下的圖片,并且我們我們已經獲取了雙目相機的外參矩陣。

此時我們計算視差圖的步驟。將投影矩陣分解為攝像機內參矩陣

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RGB
    RGB
    +關注

    關注

    4

    文章

    799

    瀏覽量

    58568
  • 計算機視覺
    +關注

    關注

    8

    文章

    1698

    瀏覽量

    46030
  • 深度學習
    +關注

    關注

    73

    文章

    5506

    瀏覽量

    121265
  • 自動駕駛系統(tǒng)

    關注

    0

    文章

    65

    瀏覽量

    6781

原文標題:自動駕駛汽車的偽激光雷達-雙目立體視覺

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    友思特與Stereolabs建立合作伙伴關系

    友思特與國際領先的立體視覺相機技術公司 Stereolabs正式建立了合作伙伴關系!
    的頭像 發(fā)表于 01-06 10:07 ?78次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎模塊

    目前高速發(fā)展的大模型能給具身智能帶來一些突破性的進展。 對于感知系統(tǒng),要做的主要任務是物體檢測,語義分割,立體視覺,鳥瞰視角感知。 有很多算法都可以實現(xiàn)物體檢測,比如文章提到的HOG + SVM算法
    發(fā)表于 01-04 19:22

    產品快訊 | Teledyne FLIR IIS發(fā)布最新產品信息

    (IP67)立體視覺解決方案,具有板載處理功能,可為倉庫自動化、機器人導引和物流構建成功的系統(tǒng)。BumblebeeX立體相機設計用于在不同距離內準確操作??蛻艨梢?/div>
    的頭像 發(fā)表于 12-20 17:05 ?196次閱讀
    產品快訊 | Teledyne FLIR IIS發(fā)布最新產品信息

    實現(xiàn)利用ads1292短距離測量心電信號的嗎?這種想法可行嗎?

    大俠們,有實現(xiàn)利用ads1292短距離(例如,兩個電極都在左手或右手)測量心電信號的嗎?這種想法可行嗎?
    發(fā)表于 12-16 08:25

    建筑物邊緣感知和邊緣融合的多視圖立體三維重建方法

    航空建筑深度估計是三維數(shù)字城市重建中的一項重要任務,基于深度學習的多視圖立體(MVS)方法在該領域取得了較好的成果。目前的主要方法通過修改MVS 框架實現(xiàn)建筑物的深度估計,缺乏對建筑物
    的頭像 發(fā)表于 11-07 10:16 ?242次閱讀
    建筑物邊緣感知和邊緣融合的多視圖<b class='flag-5'>立體</b>三維重建方法

    TLV320ADC3101如何實現(xiàn)立體聲-雙聲道

    TLV320ADC3101: 如何實現(xiàn)立體聲-雙聲道 1、項目中,我們只接一個模擬MIC(IN2RP),IN2LP不接MIC-懸空。 2、ADC3101做slave 問:我們錄音后,播放錄音發(fā)現(xiàn)只有右邊喇叭有聲音,我們想實現(xiàn)
    發(fā)表于 10-09 06:48

    立體視覺新手必看:英特爾? 實感? D421深度相機模組

    入門級立體深度模組,旨在以高性價比將先進的深度感應技術帶給更廣泛的用戶群體,為尋求深度成像技術及消費產品潛力的開發(fā)者、研究人員和計算機視覺專家提供卓越的價值,將先進的3D視覺技術拓展至更廣泛的應用領域。 英特爾? 實感? 深度相
    的頭像 發(fā)表于 09-26 13:33 ?273次閱讀
    <b class='flag-5'>立體視覺</b>新手必看:英特爾? 實感? D421深度相機模組

    居然還有這樣的10.1寸光場裸眼3D視覺訓練平板電腦?

    在這個科技飛速發(fā)展的時代,我們?yōu)槟鷰砹艘豢罡锩缘漠a品——10.1寸光場裸眼3D視覺訓練平板電腦。這款平板電腦不僅讓您無需佩戴3D眼鏡就能享受逼真的立體視覺效果,還通過先進的技術幫助您緩解眼疲勞,提升視覺健康。
    的頭像 發(fā)表于 07-25 14:09 ?286次閱讀
    居然還有這樣的10.1寸光場裸眼3D<b class='flag-5'>視覺</b>訓練平板電腦?

    機器視覺的應用流程是如何實現(xiàn)

    機器視覺是一種利用計算機和圖像處理技術,模擬人類視覺系統(tǒng)對圖像進行處理、分析和理解的技術。它在工業(yè)自動化、智能交通、醫(yī)療診斷、安防監(jiān)控等領域有著廣泛的應用。 在機器視覺應用的初期,需要
    的頭像 發(fā)表于 07-04 10:47 ?446次閱讀

    新品 | Bumblebee X系列用于高精度機器人應用的新型立體視覺產品

    TeledyneFLIRIIS推出一款用于高精度機器人應用的新型立體視覺產品BumblebeeX系列。BumblebeeX產品圖BumblebeeX系列,一個基于一流立體視覺產品組合的
    的頭像 發(fā)表于 05-07 08:34 ?472次閱讀
    新品 | Bumblebee X系列用于高精度機器人應用的新型<b class='flag-5'>立體視覺</b>產品

    Teledyne FLIR IIS推出一款用于高精度機器人的新型立體視覺產品

    Bumblebee X是最新的GigE驅動立體成像解決方案,為機器人引導和拾取應用帶來高精度和低延遲
    的頭像 發(fā)表于 05-06 09:23 ?579次閱讀

    一文讀懂雙眼立體顯示技術 四種主流立體顯示技術介紹

    實現(xiàn)基于雙眼視覺立體顯示需要經過兩大步驟,首先,要準備好兩套分別供左眼和右眼觀看的畫面。
    發(fā)表于 04-24 11:48 ?1589次閱讀
    一文讀懂雙眼<b class='flag-5'>立體</b>顯示技術 四種主流<b class='flag-5'>立體</b>顯示技術介紹

    銀牛微電子3D視覺感知方案賦能小米CyberDog系列仿生四足機器人

    2024年3月21日,合肥銀牛微電子宣布小米CyberDog系列仿生四足機器人的AI多模態(tài)融合感知決策系統(tǒng)正式采用銀牛的雙目立體視覺產品解決方案。
    的頭像 發(fā)表于 03-21 13:55 ?842次閱讀

    通過視覺助手檢測PCB板金手指插入到位距離和判斷插針歪斜

    清除,減少誤判的幾率。 ②檢測卡扣插入距離的方法:依舊通過粒子化,將不需要的測量部分清除,減少誤判的幾率。 3.1檢測插針歪斜-測量插針角度:通過粒子化和找點來實現(xiàn)。(也可以使用尋找直線的方法,但是尋找
    發(fā)表于 02-28 10:15

    總投資1.5億!蘇州清研微視立體視覺傳感器項目落戶安徽蕪湖

    2月1日,清研年產3萬臺立體視覺傳感器項目簽約落戶安徽蕪湖三山經濟開發(fā)區(qū)。項目計劃總投資15000萬元,建設年產3萬臺立體視覺傳感器(產業(yè)創(chuàng)新融合產品)。該項目的落地加強了三山經開區(qū)與清華大學未來在
    的頭像 發(fā)表于 02-20 08:36 ?354次閱讀
    總投資1.5億!蘇州清研微視<b class='flag-5'>立體視覺</b>傳感器項目落戶安徽蕪湖