0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于邊緣的模板匹配適用部分遮擋和光照變化情形(附源碼)

新機器視覺 ? 來源:Shiju PK ? 作者:Shiju PK ? 2021-10-13 15:20 ? 次閱讀

介紹

模板匹配是一個圖像處理問題,當(dāng)其姿態(tài)(X,Y,θ)未知時,使用另一張搜索圖像中的模板圖像找到對象的位置。在本文中,我們實現(xiàn)了一種算法,該算法使用對象的邊緣信息來識別搜索圖像中的對象。

背景

由于其速度和可靠性問題,模板匹配本質(zhì)上是一個棘手的問題。當(dāng)對象部分可見或與其他對象混合時,該解決方案應(yīng)對亮度變化具有魯棒性,最重要的是,該算法應(yīng)具有計算效率。解決這個問題主要有兩種方法,基于灰度值的匹配(或基于區(qū)域的匹配)和基于特征的匹配(非基于區(qū)域的匹配)。

基于灰度值的方法:在基于灰度值的匹配中,歸一化互相關(guān) (NCC) 算法早在過去就已為人所知。這通常在每一步通過減去平均值并除以標(biāo)準(zhǔn)偏差來完成。模板 t(x, y) 與子圖像 f(x, y) 的互相關(guān)為:

其中 n 是 t(x, y) 和 f(x, y) 中的像素數(shù)。[維基]

盡管該方法對線性光照變化具有魯棒性,但當(dāng)對象部分可見或?qū)ο笈c其他對象混合時,該算法將失敗。此外,該算法的計算成本很高,因為它需要計算模板圖像中所有像素與搜索圖像之間的相關(guān)性。

基于特征的方法:在圖像處理領(lǐng)域中使用了幾種基于特征的模板匹配方法。與基于邊緣的物體識別一樣,物體邊緣是用于匹配的特征,在廣義霍夫變換中,物體的幾何特征將用于匹配。

在本文中,我們實現(xiàn)了一種算法,該算法使用對象的邊緣信息來識別搜索圖像中的對象。此實現(xiàn)使用開源計算機視覺庫作為平臺。

編譯示例代碼

我們使用 OpenCV 2.0 和 Visual Studio 2008 來開發(fā)此代碼。要編譯示例代碼,我們需要安裝 OpenCV。

OpenCV 可以從這里免費下載。OpenCV的(開放源碼?動態(tài)數(shù)值V ision)是一種用于實時計算機視覺編程功能的庫。下載 OpenCV 并將其安裝在您的系統(tǒng)中。安裝信息可以從這里閱讀。

我們需要配置我們的 Visual Studio 環(huán)境??梢詮拇颂庨喿x此信息。

算法

在這里,我們將解釋基于邊緣的模板匹配技術(shù)。邊緣可以定義為數(shù)字圖像中圖像亮度急劇變化或具有不連續(xù)性的點。從技術(shù)上講,它是一種離散微分運算,計算圖像強度函數(shù)的梯度近似值。

邊緣檢測的方法有很多,但大多數(shù)可以分為兩類:基于搜索的和基于過零的?;谒阉鞯姆椒ㄍㄟ^首先計算邊緣強度的度量來檢測邊緣,通常是一階導(dǎo)數(shù)表達(dá)式,例如梯度幅度,然后使用計算的局部方向的估計來搜索梯度幅度的局部方向最大值邊緣,通常是梯度方向。在這里,我們使用了一種由 Sobel 實現(xiàn)的方法,稱為 Sobel 算子。操作員計算每個點的圖像強度梯度,給出從明到暗的最大可能增加方向以及該方向的變化率。

我們在 X 方向和 Y 方向使用這些梯度或?qū)?shù)進行匹配。

該算法包括兩個步驟。首先,我們需要為模板圖像創(chuàng)建一個基于邊緣的模型,然后我們使用這個模型在搜索圖像中進行搜索。

創(chuàng)建基于邊緣的模板模型

我們首先從模板圖像的邊緣創(chuàng)建一個數(shù)據(jù)集或模板模型,用于在搜索圖像中查找該對象的姿態(tài)。

在這里,我們使用 Canny 邊緣檢測方法的變體來查找邊緣。您可以在此處閱讀有關(guān) Canny 邊緣檢測的更多信息。對于邊緣提取,Canny 使用以下步驟:

第一步:求圖像的強度梯度

在模板圖像上使用 Sobel 過濾器,它返回 X (Gx) 和 Y (Gy) 方向的梯度。根據(jù)這個梯度,我們將使用以下公式計算邊緣大小和方向:

我們正在使用 OpenCV 函數(shù)來查找這些值。

cvSobel( src, gx, 1,0, 3 ); //gradient in X directioncvSobel( src, gy, 0, 1, 3 ); //gradient in Y direction
for( i = 1; i < Ssize.height-1; i++ ){    for( j = 1; j < Ssize.width-1; j++ )    {                  _sdx = (short*)(gx->data.ptr + gx->step*i);        _sdy = (short*)(gy->data.ptr + gy->step*i);        fdx = _sdx[j]; fdy = _sdy[j];        // read x, y derivatives
        //Magnitude = Sqrt(gx^2 +gy^2)        MagG = sqrt((float)(fdx*fdx) + (float)(fdy*fdy));        //Direction = invtan (Gy / Gx)        direction =cvFastArctan((float)fdy,(float)fdx);        magMat[i][j] = MagG;
        if(MagG>MaxGradient)            MaxGradient=MagG;            // get maximum gradient value for normalizing.

        // get closest angle from 0, 45, 90, 135 set        if ( (direction>0 && direction < 22.5) ||               (direction >157.5 && direction < 202.5) ||               (direction>337.5 && direction<360)  )            direction = 0;        else if ( (direction>22.5 && direction < 67.5) ||                   (direction >202.5 && direction <247.5)  )            direction = 45;        else if ( (direction >67.5 && direction < 112.5)||                  (direction>247.5 && direction<292.5) )            direction = 90;        else if ( (direction >112.5 && direction < 157.5)||                  (direction>292.5 && direction<337.5) )            direction = 135;        else            direction = 0;
        orients[count] = (int)direction;        count++;    }}

一旦找到邊緣方向,下一步就是關(guān)聯(lián)圖像中可以追蹤的邊緣方向。有四種可能的方向來描述周圍的像素:0 度、45 度、90 度和 135 度。我們將所有方向分配給這些角度中的任何一個。

步驟 2:應(yīng)用非極大值抑制

找到邊緣方向后,我們會做一個非極大值抑制算法。非極大值抑制沿邊緣方向跟蹤左右像素,如果當(dāng)前像素幅度小于左右像素幅度,則抑制當(dāng)前像素幅度。這將導(dǎo)致圖像變薄。

for( i = 1; i < Ssize.height-1; i++ ){    for( j = 1; j < Ssize.width-1; j++ )    {        switch ( orients[count] )        {            case 0:                leftPixel  = magMat[i][j-1];                rightPixel = magMat[i][j+1];                break;            case 45:                leftPixel  = magMat[i-1][j+1];                rightPixel = magMat[i+1][j-1];                break;            case 90:                leftPixel  = magMat[i-1][j];                rightPixel = magMat[i+1][j];                break;            case 135:                leftPixel  = magMat[i-1][j-1];                rightPixel = magMat[i+1][j+1];                break;        }        // compare current pixels value with adjacent pixels        if (( magMat[i][j] < leftPixel ) || (magMat[i][j] < rightPixel ) )            (nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;        Else            (nmsEdges->data.ptr + nmsEdges->step*i)[j]=                                 (uchar)(magMat[i][j]/MaxGradient*255);        count++;    }}

第三步:做滯后閾值

用滯后做閾值需要兩個閾值:高和低。我們應(yīng)用高閾值來標(biāo)記那些我們可以相當(dāng)確定是真實的邊緣。從這些開始,使用先前導(dǎo)出的方向信息,可以通過圖像追蹤其他邊緣。在跟蹤邊緣時,我們應(yīng)用較低的閾值,只要我們找到一個起點,我們就可以跟蹤邊緣的微弱部分。

_sdx = (short*)(gx->data.ptr + gx->step*i);_sdy = (short*)(gy->data.ptr + gy->step*i);fdx = _sdx[j]; fdy = _sdy[j];
MagG = sqrt(fdx*fdx + fdy*fdy); //Magnitude = Sqrt(gx^2 +gy^2)DirG =cvFastArctan((float)fdy,(float)fdx);     //Direction = tan(y/x)
////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]= MagG;flag=1;if(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j]) < maxContrast){    if(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j])< minContrast)    {        (nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;        flag=0; // remove from edge        ////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]=0;    }    else    {   // if any of 8 neighboring pixel is not greater than max contraxt remove from edge        if( (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j-1]) < maxContrast) &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j]) < maxContrast)   &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j+1]) < maxContrast) &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j-1]) < maxContrast)     &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j+1]) < maxContrast)     &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j-1]) < maxContrast) &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j]) < maxContrast)   &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j+1]) < maxContrast))        {            (nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;            flag=0;            ////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]=0;        }    }}

第 4 步:保存數(shù)據(jù)集

提取邊緣后,我們將所選邊緣的 X 和 Y 導(dǎo)數(shù)與坐標(biāo)信息一起保存為模板模型。這些坐標(biāo)將重新排列以反映作為重心的起點。

找到基于邊的模板模型

算法中的下一個任務(wù)是使用模板模型在搜索圖像中找到對象。我們可以看到我們從包含一組點的模板圖像創(chuàng)建的模型:

,以及它在 X 和 Y 方向上的梯度

,其中i = 1…n,n是模板 (T) 數(shù)據(jù)集中的元素數(shù)。

我們還可以在搜索圖像 (S) 中找到梯度

,其中 u = 1.。。搜索圖像中的行數(shù),v = 1.。。搜索圖像中的列數(shù)。

在匹配過程中,應(yīng)使用相似性度量將模板模型與所有位置的搜索圖像進行比較。相似性度量背后的思想是取模板圖像梯度向量的所有歸一化點積之和,并在模型數(shù)據(jù)集中的所有點上搜索圖像。這會導(dǎo)致搜索圖像中每個點的分?jǐn)?shù)。這可以表述如下:

如果模板模型和搜索圖像之間存在完美匹配,則此函數(shù)將返回分?jǐn)?shù) 1。該分?jǐn)?shù)對應(yīng)于搜索圖像中可見的對象部分。如果搜索圖像中不存在對象,則分?jǐn)?shù)將為 0。

cvSobel( src, Sdx, 1, 0, 3 );  // find X derivativescvSobel( src, Sdy, 0, 1, 3 ); // find Y derivativesfor( i = 0; i < Ssize.height; i++ ){    for( j = 0; j < Ssize.width; j++ )    {         partialSum = 0; // initilize partialSum measure        for(m=0;m        {            curX    = i + cordinates[m].x ;    // template X coordinate            curY    = j + cordinates[m].y ; // template Y coordinate            iTx    = edgeDerivativeX[m];    // template X derivative            iTy    = edgeDerivativeY[m];    // template Y derivative
            if(curX<0 ||curY<0||curX>Ssize.height-1 ||curY>Ssize.width-1)                continue;
            _Sdx = (short*)(Sdx->data.ptr + Sdx->step*(curX));            _Sdy = (short*)(Sdy->data.ptr + Sdy->step*(curX));
            iSx=_Sdx[curY]; // get curresponding  X derivative from source image            iSy=_Sdy[curY];// get curresponding  Y derivative from source image
            if((iSx!=0 || iSy!=0) && (iTx!=0 || iTy!=0))            {                //partial Sum  = Sum of(((Source X derivative* Template X drivative)                //+ Source Y derivative * Template Y derivative)) / Edge                //magnitude of(Template)* edge magnitude of(Source))                partialSum = partialSum + ((iSx*iTx)+(iSy*iTy))*                            (edgeMagnitude[m] * matGradMag[curX][curY]);
            }

在實際情況下,我們需要加快搜索過程。這可以使用各種方法來實現(xiàn)。第一種方法是使用平均的屬性。在尋找相似性度量時,如果我們可以為相似性度量設(shè)置一個最小分?jǐn)?shù)(Smin,我們就不需要評估模板模型中的所有點。為了檢查特定點 J 處的部分分?jǐn)?shù) Su,v,我們必須找到部分總和 Sm。點 m 處的 Sm 可以定義如下:

0cf1416a-2183-11ec-82a8-dac502259ad0.png

很明顯,和的剩余項小于或等于 1。因此,如果 ,我們可以停止評估

0d2a7502-2183-11ec-82a8-dac502259ad0.png

。

另一個標(biāo)準(zhǔn)可以是任何點的部分分?jǐn)?shù)應(yīng)大于最低分?jǐn)?shù)。即,

0d56cac6-2183-11ec-82a8-dac502259ad0.png

使用此條件時,匹配將非常快。但問題是,如果先檢查對象的缺失部分,部分和會很低。在這種情況下,對象的該實例不會被視為匹配項。我們可以用另一個標(biāo)準(zhǔn)修改它,我們用安全停止標(biāo)準(zhǔn)檢查模板模型的第一部分,用硬標(biāo)準(zhǔn)檢查其余部分,

0d99eb08-2183-11ec-82a8-dac502259ad0.png

.用戶可以指定貪婪參數(shù) (g),其中使用硬標(biāo)準(zhǔn)檢查模板模型的部分。所以如果g=1,模板模型中的所有點都用硬標(biāo)準(zhǔn)檢查,如果g=0,所有點將只用安全標(biāo)準(zhǔn)檢查。我們可以將這個過程表述如下。

部分分?jǐn)?shù)的評估可以在以下位置停止:

0da9e256-2183-11ec-82a8-dac502259ad0.png

// stoping criterias to search for modeldouble normMinScore = minScore /noOfCordinates; // precompute minumum score double normGreediness = ((1- greediness * minScore)/(1-greediness)) /noOfCordinates;// precompute greedniness
sumOfCoords = m + 1;partialScore = partialSum /sumOfCoords ;// check termination criteria// if partial score score is less than the score than// needed to make the required score at that position// break serching at that coordinate.if( partialScore < (MIN((minScore -1) +         normGreediness*sumOfCoords,normMinScore*  sumOfCoords)))    break;

這種相似性度量有幾個優(yōu)點:相似性度量對非線性光照變化是不變的,因為所有梯度向量都是歸一化的。由于邊緣過濾沒有分割,它將顯示對光照任意變化的真實不變性。更重要的是,當(dāng)對象部分可見或與其他對象混合時,這種相似性度量是穩(wěn)健的。

增強功能

該算法有多種可能的增強。為了進一步加快搜索過程,可以使用金字塔方法。在這種情況下,搜索以低分辨率和小圖像尺寸開始。這對應(yīng)于金字塔的頂部。如果在此階段搜索成功,則在金字塔的下一層繼續(xù)搜索,該層代表更高分辨率的圖像。以這種方式,繼續(xù)搜索,從而細(xì)化結(jié)果,直到達(dá)到原始圖像大小,即到達(dá)金字塔底部。

通過擴展旋轉(zhuǎn)和縮放算法,可以實現(xiàn)另一種增強。這可以通過創(chuàng)建用于旋轉(zhuǎn)和縮放的模板模型并使用所有這些模板模型執(zhí)行搜索來完成。

原文作者:Shiju PK 原文鏈接:

https://www.codeproject.com/articles/99457/edge-based-template-matching

翻譯整理:Color Space

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 邊緣檢測
    +關(guān)注

    關(guān)注

    0

    文章

    92

    瀏覽量

    18227
  • OpenCV
    +關(guān)注

    關(guān)注

    31

    文章

    635

    瀏覽量

    41420

原文標(biāo)題:OpenCV實現(xiàn)基于邊緣的模板匹配--適用部分遮擋和光照變化情形(附源碼)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于無操作系統(tǒng)的STM32單片機開發(fā)源碼

    現(xiàn)在非常多的的MCU性能都還不錯,同時用戶也會去擴展一些外部RAM,這樣如果高效便捷的管理這些內(nèi)存是一個重要話題。 今天給大家分享一份源碼:基于無操作系統(tǒng)的STM32單片機開發(fā),功能強大,可申請
    的頭像 發(fā)表于 11-15 11:24 ?561次閱讀

    手寫圖像模板匹配算法在OpenCV中的實現(xiàn)

    OpenCV中的模板匹配是支持基于NCC相似度查找的,但是不是很好用,一個主要的原因是查找最大閾值,只能匹配一個,自己比對閾值,又導(dǎo)致無法正確設(shè)定閾值范圍,所以問題很多。于是我重新寫了純Python版本的NCC圖像
    的頭像 發(fā)表于 11-11 10:12 ?288次閱讀
    手寫圖像<b class='flag-5'>模板</b><b class='flag-5'>匹配</b>算法在OpenCV中的實現(xiàn)

    如何應(yīng)對UWB室內(nèi)定位信號被遮擋

    遇到信號被遮擋的問題,這會影響到定位的準(zhǔn)確性和穩(wěn)定性。那么,面對信號被遮擋的情況,我們應(yīng)該如何解決呢?本文將為您詳細(xì)介紹。  首先,我們需要了解UWB室內(nèi)定位的工作原理。UWB技術(shù)
    的頭像 發(fā)表于 11-01 11:25 ?289次閱讀
    如何應(yīng)對UWB室內(nèi)定位信號被<b class='flag-5'>遮擋</b>

    無人機巡檢系統(tǒng)解決光伏電站遮擋問題

    無人機巡檢系統(tǒng)解決光伏電站遮擋問題 光伏電站中的遮擋問題會顯著影響光伏電板的發(fā)電效率,導(dǎo)致發(fā)電量下降。隨著科技的發(fā)展,光伏電站配備無人機巡檢系統(tǒng)成為了解決光伏電站運維遮擋難題的得力助手。以下是無人機
    的頭像 發(fā)表于 08-29 16:47 ?397次閱讀

    光敏電阻在光照下阻值是減小還是增大

    光敏電阻是一種特殊的電阻元件,其電阻值會隨著光照強度的變化而發(fā)生變化。在光照下,光敏電阻的阻值是減小還是增大,取決于光敏電阻的類型和材料。 一、光敏電阻的工作原理 光敏電阻是一種半導(dǎo)體
    的頭像 發(fā)表于 08-27 10:50 ?1854次閱讀

    光敏電阻在無光照射時呈什么狀態(tài)

    光敏電阻是一種特殊的電阻器,其電阻值會隨著光照強度的變化變化。在無光照射時,光敏電阻的電阻值會顯著增大,表現(xiàn)出高阻抗的特性。 一、光敏電阻的工作原理 光敏電阻的工作原理基于光敏材料的
    的頭像 發(fā)表于 08-27 10:39 ?661次閱讀

    光敏電阻隨光照強度的變化規(guī)律

    光敏電阻是一種半導(dǎo)體材料,其電阻值會隨著光照強度的變化變化。這種特性使得光敏電阻在許多領(lǐng)域得到廣泛應(yīng)用,如光控開關(guān)、光度計、自動控制等。 一、光敏電阻的工作原理 光敏電阻的工作原理基于半導(dǎo)體材料
    的頭像 發(fā)表于 08-27 10:31 ?2543次閱讀

    光敏電阻與光照強度的關(guān)系是什么

    光敏電阻是一種特殊的電阻元件,其電阻值會隨著光照強度的變化變化。 一、光敏電阻的工作原理 光敏電阻是一種半導(dǎo)體材料制成的電阻元件,其電阻值會隨著光照強度的
    的頭像 發(fā)表于 08-27 10:29 ?1724次閱讀

    怎么導(dǎo)出python邊緣計算中的APP?

    怎么導(dǎo)出python邊緣計算中的APP,想進行修改又找不到源碼
    發(fā)表于 07-25 06:13

    DSP國產(chǎn)教學(xué)實驗箱_實驗案例_操作教程:5-11 邊緣檢測

    一、實驗?zāi)康?學(xué)習(xí)Canny邊緣檢測的原理,掌握圖像的讀取方法,并實現(xiàn)邊緣檢測。 二、實驗原理 邊緣檢測 在數(shù)字圖像中,邊緣是指圖像局部變化
    發(fā)表于 07-19 10:38

    鴻蒙ArkTS聲明式開發(fā):跨平臺支持列表【組件可見區(qū)域變化事件】

    組件可見區(qū)域變化事件是組件在屏幕中的顯示區(qū)域面積變化時觸發(fā)的事件,提供了判斷組件是否完全或部分顯示在屏幕中的能力,適用于廣告曝光埋點之類的場景。
    的頭像 發(fā)表于 05-30 10:37 ?439次閱讀
    鴻蒙ArkTS聲明式開發(fā):跨平臺支持列表【組件可見區(qū)域<b class='flag-5'>變化</b>事件】

    源碼系列:基于FPGA的紅外線遙控系統(tǒng)設(shè)計(源工程)

    今天給大俠帶來基于FPGA的紅外線遙控系統(tǒng)設(shè)計,源碼,獲取源碼,請在“FPGA技術(shù)江湖”公眾號內(nèi)回復(fù)“紅外線遙控系統(tǒng)設(shè)計源碼”,可獲取源碼
    發(fā)表于 05-01 19:59

    榮耀終端發(fā)布指紋匹配專利,聚焦電子設(shè)備領(lǐng)域

    此項技術(shù)研究揭示了一種指紋匹配方法及其對應(yīng)的電子設(shè)備應(yīng)用,具有增強指印解鎖圖像與指紋模板圖像配對成功率的優(yōu)勢,從而提升用戶的使用體驗。其具體策略包括:在指印解鎖圖像無法與電子設(shè)備指紋模板圖像相
    的頭像 發(fā)表于 03-21 09:43 ?638次閱讀
    榮耀終端發(fā)布指紋<b class='flag-5'>匹配</b>專利,聚焦電子設(shè)備領(lǐng)域

    LabVIEW模板匹配位置信息導(dǎo)出

    大家好,我在利用ni vision assistant生成的模板匹配界面時,想要將每一個匹配物體的位置信息導(dǎo)出到word或者Excel,但是他這個匹配個數(shù)不確定,怎么樣把
    發(fā)表于 03-11 20:22

    負(fù)載慣量與電動機慣量高度不匹配的應(yīng)用

    國內(nèi)外對伺服系統(tǒng)慣量匹配的理解有較大不同,本文提出工程應(yīng)用中慣量匹配的涵義。在裝備制造業(yè)實際應(yīng)用中,絕大部分是不按慣量匹配來設(shè)計的。同時分析了慣量不
    發(fā)表于 01-26 11:28 ?1247次閱讀