0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

計(jì)算機(jī)視覺中不同的特征提取方法對(duì)比

新機(jī)器視覺 ? 來源:深藍(lán)AI ? 作者:深藍(lán)AI ? 2022-07-11 10:28 ? 次閱讀

概述

特征提取是計(jì)算機(jī)視覺中的一個(gè)重要主題。不論是SLAM、SFM、三維重建等重要應(yīng)用的底層都是建立在特征點(diǎn)跨圖像可靠地提取和匹配之上。特征提取是計(jì)算機(jī)視覺領(lǐng)域經(jīng)久不衰的研究熱點(diǎn),總的來說,快速、準(zhǔn)確、魯棒的特征點(diǎn)提取是實(shí)現(xiàn)上層任務(wù)基本要求。

特征點(diǎn)是圖像中梯度變化較為劇烈的像素,比如:角點(diǎn)、邊緣等。FAST(Features from Accelerated Segment Test)是一種高速的角點(diǎn)檢測(cè)算法;而尺度不變特征變換SIFT(Scale-invariant feature transform)仍然可能是最著名的傳統(tǒng)局部特征點(diǎn)。也是迄今使用最為廣泛的一種特征。特征提取一般包含特征點(diǎn)檢測(cè)和描述子計(jì)算兩個(gè)過程。描述子是一種度量特征相似度的手段,用來確定不同圖像中對(duì)應(yīng)空間同一物體,比如:BRIEF(Binary Robust IndependentElementary Features)描述子??煽康奶卣魈崛?yīng)該包含以下特性:

(1)對(duì)圖像的旋轉(zhuǎn)和尺度變化具有不變性;(2)對(duì)三維視角變化和光照變化具有很強(qiáng)的適應(yīng)性;(3)局部特征在遮擋和場(chǎng)景雜亂時(shí)仍保持不變性;(4)特征之間相互區(qū)分的能力強(qiáng),有利于匹配;(5)數(shù)量較多,一般500×500的圖像能提取出約2000個(gè)特征點(diǎn)。

近幾年深度學(xué)習(xí)的興起使得不少學(xué)者試圖使用深度網(wǎng)絡(luò)提取圖像特征點(diǎn),并且取得了階段性的結(jié)果。圖1給出了不同特征提取方法的特性。本文中的傳統(tǒng)算法以O(shè)RB特征為例,深度學(xué)習(xí)以SuperPoint為例來闡述他們的原理并對(duì)比性能。

09d91f8c-00be-11ed-ba43-dac502259ad0.png

圖1 不同的特征提取方法對(duì)比

傳統(tǒng)算法—ORB特征

盡管SIFT是特征提取中最著名的方法,但是因?yàn)槠溆?jì)算量較大而無法在一些實(shí)時(shí)應(yīng)用中使用。為了研究一種快速兼顧準(zhǔn)確性的特征提取算法,Ethan Rublee等人在2011年提出了ORB特征:“ORB:An Efficient Alternative to SIFT or SURF”。ORB算法分為兩部分,分別是特征點(diǎn)提取和特征點(diǎn)描述。ORB特征是將FAST特征點(diǎn)的檢測(cè)方法與BRIEF特征描述子結(jié)合起來,并在它們?cè)瓉淼幕A(chǔ)上做了改進(jìn)與優(yōu)化。其速度是SIFT的100倍,是SURF的10倍。Fast特征提取從圖像中選取一點(diǎn)P,如圖2。按以下步驟判斷該點(diǎn)是不是特征點(diǎn):以P為圓心畫一個(gè)半徑為3 pixel的圓;對(duì)圓周上的像素點(diǎn)進(jìn)行灰度值比較,找出灰度值超過 l(P)+h 和低于 l(P)-h 的像素,其中l(wèi)(P)是P點(diǎn)的灰度, h是給定的閾值;如果有連續(xù)n個(gè)像素滿足條件,則認(rèn)為P為特征點(diǎn)。一般n設(shè)置為9。為了加快特征點(diǎn)的提取,首先檢測(cè)1、9、5、13位置上的灰度值,如果P是特征點(diǎn),那么這四個(gè)位置上有3個(gè)或3個(gè)以上的像素滿足條件。如果不滿足,則直接排除此點(diǎn)。

09fa913a-00be-11ed-ba43-dac502259ad0.png

圖2 FAST特征點(diǎn)判斷示意圖上述步驟檢測(cè)出的FAST角點(diǎn)數(shù)量很大且不確定,因此ORB對(duì)其進(jìn)行改進(jìn)。對(duì)于目標(biāo)數(shù)量K為個(gè)關(guān)鍵點(diǎn),對(duì)原始FAST角點(diǎn)分別計(jì)算Harris響應(yīng)值,,然后根據(jù)響應(yīng)值來對(duì)特征點(diǎn)進(jìn)行排序,選取前K個(gè)具有最大響應(yīng)的角點(diǎn)作為最終的角點(diǎn)集合。除此之外,F(xiàn)AST不具有尺度不變性和旋轉(zhuǎn)不變性。ORB算法構(gòu)建了圖像金字塔,對(duì)圖像進(jìn)行不同層次的降采樣,獲得不同分辨率的圖像,并在金字塔的每一層上檢測(cè)角點(diǎn),從而獲得多尺度特征。最后,利用灰度質(zhì)心法計(jì)算特征點(diǎn)的主方向。作者使用矩來計(jì)算特征點(diǎn)半徑范圍內(nèi)的質(zhì)心,特征點(diǎn)坐標(biāo)到質(zhì)心形成一個(gè)向量作為該特征點(diǎn)的方向。矩定義如下:

0a154318-00be-11ed-ba43-dac502259ad0.png

計(jì)算圖像的0和1階矩:

0a264398-00be-11ed-ba43-dac502259ad0.png

則特征點(diǎn)的鄰域質(zhì)心為:

0a3e2738-00be-11ed-ba43-dac502259ad0.png

進(jìn)一步得到特征點(diǎn)主方向:

0a50d298-00be-11ed-ba43-dac502259ad0.png

描述子計(jì)算BRIEF算法計(jì)算出來的是一個(gè)二進(jìn)制串的特征描述符,具有高速、低存儲(chǔ)的特點(diǎn)。具體步驟是在一個(gè)特征點(diǎn)的鄰域內(nèi),選擇n對(duì)像素點(diǎn)pi、qi(i=1,2,…,n)。然后比較每個(gè)點(diǎn)對(duì)的灰度值的大小。如果I(pi)》 I(qi),則生成二進(jìn)制串中的1,否則為0。所有的點(diǎn)對(duì)都進(jìn)行比較,則生成長(zhǎng)度為n的二進(jìn)制串。一般n取128、256或512。另外,為了增加特征描述符的抗噪性,算法首先需要對(duì)圖像進(jìn)行高斯平滑處理。在選取點(diǎn)對(duì)的時(shí)候,作者測(cè)試了5種模式來尋找一種特征點(diǎn)匹配的最優(yōu)模式(pattern)。

0a64705a-00be-11ed-ba43-dac502259ad0.png

圖3 測(cè)試分布方法最終的結(jié)論是,第二種模式(b)可以取得較好的匹配結(jié)果。

深度學(xué)習(xí)的方法—SuperPoint

深度學(xué)習(xí)解決特征點(diǎn)提取的思路是利用深度神經(jīng)網(wǎng)絡(luò)提取特征點(diǎn)而不是手工設(shè)計(jì)特征,它的特征檢測(cè)性能與訓(xùn)練樣本、網(wǎng)絡(luò)結(jié)構(gòu)緊密相關(guān)。一般分為特征檢測(cè)模塊和描述子計(jì)算模塊。在這里以應(yīng)用較為廣泛的SuperPoint為例介紹該方法的主要思路。該方法采用了自監(jiān)督的全卷積網(wǎng)絡(luò)框架,訓(xùn)練得到特征點(diǎn)(keypoint)和描述子(descriptors)。自監(jiān)督指的是該網(wǎng)絡(luò)訓(xùn)練使用的數(shù)據(jù)集也是通過深度學(xué)習(xí)的方法構(gòu)造的。該網(wǎng)絡(luò)可分為三個(gè)部分(見圖1),(a)是BaseDetector(特征點(diǎn)檢測(cè)網(wǎng)絡(luò)),(b)是真值自標(biāo)定模塊。(c)是SuperPoint網(wǎng)絡(luò),輸出特征點(diǎn)和描述子。雖然是基于深度學(xué)習(xí)的框架,但是該方法在Titan X GPU上可以輸出70HZ的檢測(cè)結(jié)果,完全滿足實(shí)時(shí)性的要求。

0a80843e-00be-11ed-ba43-dac502259ad0.png

圖4 SuperPoint 網(wǎng)絡(luò)結(jié)構(gòu)示意圖下面分別介紹一下三個(gè)部分:BaseDetector特征點(diǎn)檢測(cè):首先創(chuàng)建一個(gè)大規(guī)模的合成數(shù)據(jù)集:由渲染的三角形、四邊形、線、立方體、棋盤和星星組成的合成數(shù)據(jù),每個(gè)都有真實(shí)的角點(diǎn)位置。渲染合成圖像后,將單應(yīng)變換應(yīng)用于每個(gè)圖像以增加訓(xùn)練數(shù)據(jù)集。單應(yīng)變換對(duì)應(yīng)著變換后角點(diǎn)真實(shí)位置。為了增強(qiáng)其泛化能力,作者還在圖片中人為添加了一些噪聲和不具有特征點(diǎn)的形狀,比如橢圓等。該數(shù)據(jù)集用于訓(xùn)練 MagicPoint 卷積神經(jīng)網(wǎng)絡(luò),即BaseDetector。注意這里的檢測(cè)出的特征點(diǎn)不是SuperPoint,還需要經(jīng)過Homographic Adaptation操作。

0a940838-00be-11ed-ba43-dac502259ad0.png

圖5 預(yù)訓(xùn)練示意圖特征檢測(cè)性能表現(xiàn)如下表:

0aae18f4-00be-11ed-ba43-dac502259ad0.png

圖 6 MagicPoint 模型在檢測(cè)簡(jiǎn)單幾何形狀的角點(diǎn)方面優(yōu)于經(jīng)典檢測(cè)器真值自標(biāo)定:Homographic Adaptation 旨在實(shí)現(xiàn)興趣點(diǎn)檢測(cè)器的自我監(jiān)督訓(xùn)練。它多次將輸入圖像進(jìn)行單應(yīng)變換,以幫助興趣點(diǎn)檢測(cè)器從許多不同的視點(diǎn)和尺度看到場(chǎng)景。以提高檢測(cè)器的性能并生成偽真實(shí)特征點(diǎn)。

0ac7abfc-00be-11ed-ba43-dac502259ad0.png

圖7 Homographic Adaptation操作Homographic Adaptation可以提高卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的特征點(diǎn)檢測(cè)器的幾何一致性。該過程可以反復(fù)重復(fù),以不斷自我監(jiān)督和改進(jìn)特征點(diǎn)檢測(cè)器。在我們所有的實(shí)驗(yàn)中,我們將Homographic Adaptation 與 MagicPoint 檢測(cè)器結(jié)合使用后的模型稱為 SuperPoint。

0adc737a-00be-11ed-ba43-dac502259ad0.png

圖8 Iterative Homographic AdaptationSuperPoint網(wǎng)絡(luò):SuperPoint 是全卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),它在全尺寸圖像上運(yùn)行,并在單次前向傳遞中產(chǎn)生帶有固定長(zhǎng)度描述符的特征點(diǎn)檢測(cè)(見圖 9)。該模型有一個(gè)共享的編碼器來處理和減少輸入圖像的維數(shù)。在編碼器之后,該架構(gòu)分為兩個(gè)解碼器“頭”,它們學(xué)習(xí)特定任務(wù)的權(quán)重——一個(gè)用于特征檢測(cè),另一個(gè)用于描述子計(jì)算。大多數(shù)網(wǎng)絡(luò)參數(shù)在兩個(gè)任務(wù)之間共享,這與傳統(tǒng)系統(tǒng)不同,傳統(tǒng)系統(tǒng)首先檢測(cè)興趣點(diǎn),然后計(jì)算描述符,并且缺乏在兩個(gè)任務(wù)之間共享計(jì)算和表示的能力。

0afc38f4-00be-11ed-ba43-dac502259ad0.png

圖 9 SuperPoint DecodersSuperPoint 架構(gòu)使用類似VGG編碼器來降低圖像的維度。編碼器由卷積層、通過池化的空間下采樣和非線性激活函數(shù)組成。解碼器對(duì)圖片的每個(gè)像素都計(jì)算一個(gè)概率,這個(gè)概率表示的就是其為特征點(diǎn)的可能性大小。描述子輸出網(wǎng)絡(luò)也是一個(gè)解碼器。先學(xué)習(xí)半稠密的描述子(不使用稠密的方式是為了減少計(jì)算量和內(nèi)存),然后進(jìn)行雙三次插值算法(bicubic interpolation)得到完整描述子,最后再使用L2標(biāo)準(zhǔn)化(L2-normalizes)得到單位長(zhǎng)度的描述。最終損失是兩個(gè)中間損失的總和:一個(gè)用于興趣點(diǎn)檢測(cè)器 Lp,另一個(gè)用于描述符 Ld。我們使用成對(duì)的合成圖像,它們具有真實(shí)特征點(diǎn)位置和來自與兩幅圖像相關(guān)的隨機(jī)生成的單應(yīng)性 H 的地面實(shí)況對(duì)應(yīng)關(guān)系。同時(shí)優(yōu)化兩個(gè)損失,如圖 4c 所示。使用λ來平衡最終的損失:

0b19fb3c-00be-11ed-ba43-dac502259ad0.png

實(shí)驗(yàn)效果對(duì)比:

0b366970-00be-11ed-ba43-dac502259ad0.png

圖10 不同的特征檢測(cè)方法定性比較

0b524bd6-00be-11ed-ba43-dac502259ad0.png

圖 11 檢測(cè)器和描述符性能的相關(guān)指標(biāo)

結(jié)論

在特征檢測(cè)上,傳統(tǒng)方法通過大量經(jīng)驗(yàn)設(shè)計(jì)出了特征檢測(cè)方法和描述子。盡管這些特征在光照變化劇烈,旋轉(zhuǎn)幅度大等情況下還存在魯棒性問題,但仍然是目前應(yīng)用最多、最成熟的方法,比如ORB-SLAM使用的ORB特征、VINS-Mono使用的FAST特征等都是傳統(tǒng)的特征點(diǎn)。深度學(xué)習(xí)的方法在特征檢測(cè)上表現(xiàn)了優(yōu)異的性能,但是:(1)存在模型不可解釋性的問題;(2)在檢測(cè)和匹配精度上仍然沒有超過最經(jīng)典的SIFT算法。(3)大部分深度學(xué)習(xí)的方案在CPU上運(yùn)實(shí)時(shí)性差,需要GPU的加速。(4)訓(xùn)練需要大量不同場(chǎng)景的圖像數(shù)據(jù),訓(xùn)練困難。本文最后的Homograpyhy Estimation指標(biāo),SuperPiont超過了傳統(tǒng)算法,但是評(píng)估的是單應(yīng)變換精度。單應(yīng)變換在并不能涵蓋所有的圖像變換。比如具有一般性質(zhì)的基礎(chǔ)矩陣或者本質(zhì)矩陣的變換,SurperPoint表現(xiàn)可能不如傳統(tǒng)方法。

原文標(biāo)題:特征提?。簜鹘y(tǒng)算法 vs 深度學(xué)習(xí)

文章出處:【微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:特征提?。簜鹘y(tǒng)算法 vs 深度學(xué)習(xí)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    計(jì)算機(jī)視覺有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像和視頻的信息。這一技術(shù)的發(fā)展不僅推動(dòng)了多個(gè)行業(yè)的變革,也帶來了諸多優(yōu)勢(shì),但同時(shí)也伴隨著一些挑戰(zhàn)和局限
    的頭像 發(fā)表于 08-14 09:49 ?1945次閱讀

    計(jì)算機(jī)視覺技術(shù)的AI算法模型

    計(jì)算機(jī)視覺技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像及視頻的信息。為了實(shí)現(xiàn)這一目標(biāo),計(jì)算機(jī)
    的頭像 發(fā)表于 07-24 12:46 ?1667次閱讀

    圖像識(shí)別算法的核心技術(shù)是什么

    圖像識(shí)別算法是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要研究方向,其目標(biāo)是使計(jì)算機(jī)能夠像人類一樣理解和識(shí)別圖像的內(nèi)容。圖像識(shí)別算法的核心技術(shù)包括以下幾個(gè)方面: 特征
    的頭像 發(fā)表于 07-16 11:02 ?1229次閱讀

    什么是機(jī)器視覺opencv?它有哪些優(yōu)勢(shì)?

    Vision Library)是一個(gè)開源的計(jì)算機(jī)視覺庫(kù),提供了大量的圖像處理和計(jì)算機(jī)視覺算法,廣泛應(yīng)用于機(jī)器視覺領(lǐng)域。 機(jī)器
    的頭像 發(fā)表于 07-16 10:33 ?1293次閱讀

    機(jī)器視覺計(jì)算機(jī)視覺有什么區(qū)別

    機(jī)器視覺計(jì)算機(jī)視覺是兩個(gè)密切相關(guān)但又有所區(qū)別的概念。 一、定義 機(jī)器視覺 機(jī)器視覺,又稱為計(jì)算機(jī)
    的頭像 發(fā)表于 07-16 10:23 ?1048次閱讀

    計(jì)算機(jī)視覺的五大技術(shù)

    計(jì)算機(jī)視覺作為深度學(xué)習(xí)領(lǐng)域最熱門的研究方向之一,其技術(shù)涵蓋了多個(gè)方面,為人工智能的發(fā)展開拓了廣闊的道路。以下是對(duì)計(jì)算機(jī)視覺五大技術(shù)的詳細(xì)解析,包括圖像分類、對(duì)象檢測(cè)、目標(biāo)跟蹤、語義分割
    的頭像 發(fā)表于 07-10 18:26 ?2342次閱讀

    計(jì)算機(jī)視覺的工作原理和應(yīng)用

    圖像和視頻中提取有用信息,進(jìn)而進(jìn)行決策和行動(dòng)。自1960年代第一批學(xué)術(shù)論文問世以來,計(jì)算機(jī)視覺技術(shù)已經(jīng)取得了長(zhǎng)足的發(fā)展,并在多個(gè)領(lǐng)域展現(xiàn)出巨大的應(yīng)用潛力和價(jià)值。
    的頭像 發(fā)表于 07-10 18:24 ?3236次閱讀

    機(jī)器人視覺計(jì)算機(jī)視覺的區(qū)別與聯(lián)系

    ,而計(jì)算機(jī)視覺則更側(cè)重于從圖像和視頻中提取信息。盡管它們?cè)谀承┓矫嬗兴丿B,但它們?cè)谀繕?biāo)、方法和應(yīng)用上存在明顯差異。 2. 機(jī)器人視覺概述
    的頭像 發(fā)表于 07-09 09:27 ?1126次閱讀

    計(jì)算機(jī)視覺與人工智能的關(guān)系是什么

    引言 計(jì)算機(jī)視覺是一門研究如何使計(jì)算機(jī)能夠理解和解釋視覺信息的學(xué)科。它涉及到圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等多個(gè)領(lǐng)域的知識(shí)。人工智能則是研究如何使計(jì)算
    的頭像 發(fā)表于 07-09 09:25 ?1270次閱讀

    計(jì)算機(jī)視覺與智能感知是干嘛的

    引言 計(jì)算機(jī)視覺(Computer Vision)是一門研究如何使計(jì)算機(jī)能夠理解和解釋視覺信息的學(xué)科。它涉及到圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等多個(gè)領(lǐng)域,是人工智能的重要組成部分。智能
    的頭像 發(fā)表于 07-09 09:23 ?1684次閱讀

    計(jì)算機(jī)視覺和機(jī)器視覺區(qū)別在哪

    計(jì)算機(jī)視覺和機(jī)器視覺是兩個(gè)密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 一、定義 計(jì)算機(jī)視覺 計(jì)算機(jī)
    的頭像 發(fā)表于 07-09 09:22 ?813次閱讀

    計(jì)算機(jī)視覺和圖像處理的區(qū)別和聯(lián)系

    計(jì)算機(jī)視覺和圖像處理是兩個(gè)密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 1. 基本概念 1.1 計(jì)算機(jī)視覺 計(jì)算機(jī)視覺
    的頭像 發(fā)表于 07-09 09:16 ?2141次閱讀

    計(jì)算機(jī)視覺屬于人工智能嗎

    屬于,計(jì)算機(jī)視覺是人工智能領(lǐng)域的一個(gè)重要分支。 引言 計(jì)算機(jī)視覺是一門研究如何使計(jì)算機(jī)具有視覺
    的頭像 發(fā)表于 07-09 09:11 ?2052次閱讀

    計(jì)算機(jī)視覺怎么給圖像分類

    圖像分類是計(jì)算機(jī)視覺領(lǐng)域中的一項(xiàng)核心任務(wù),其目標(biāo)是將輸入的圖像自動(dòng)分配到預(yù)定義的類別集合。這一過程涉及圖像的特征提取特征表示以及分類器的
    的頭像 發(fā)表于 07-08 17:06 ?1625次閱讀

    深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)在計(jì)算機(jī)視覺領(lǐng)域取得了顯著的成果。計(jì)算機(jī)視覺,作為計(jì)算機(jī)科學(xué)的一個(gè)重要分支,
    的頭像 發(fā)表于 07-01 11:38 ?1676次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品