0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖像語(yǔ)義分割的概念與原理以及常用的方法

新機(jī)器視覺 ? 來(lái)源:新機(jī)器視覺 ? 2023-04-20 10:01 ? 次閱讀

1、圖像語(yǔ)義分割的概念

1.1圖像語(yǔ)義分割的概念與原理

圖像語(yǔ)義分割可以說是圖像理解的基石性技術(shù),在自動(dòng)駕駛系統(tǒng)(具體為街景識(shí)別與理解)、無(wú)人機(jī)應(yīng)用(著陸點(diǎn)判斷)以及穿戴式設(shè)備應(yīng)用中舉足輕重。我們都知道,圖像是由許多像素(Pixel)組成,而「語(yǔ)義分割」顧名思義就是將像素按照?qǐng)D像中表達(dá)語(yǔ)義含義的不同進(jìn)行分組(Grouping)/分割(Segmentation)。

8ef92f62-df12-11ed-bfe3-dac502259ad0.jpg

8f112ec8-df12-11ed-bfe3-dac502259ad0.jpg

圖像語(yǔ)義分割的意思就是機(jī)器自動(dòng)分割并識(shí)別出圖像中的內(nèi)容,比如給出一個(gè)人騎摩托車的照片,機(jī)器判斷后應(yīng)當(dāng)能夠生成右側(cè)圖,紅色標(biāo)注為人,綠色是車(黑色表示back ground)。

2、目前常用的算法

2.1 前 DL 時(shí)代的語(yǔ)義分割

從最簡(jiǎn)單的像素級(jí)別“閾值法”(Thresholding methods)、基于像素聚類的分割方法(Clustering-based segmentation methods)到“圖劃分”的分割方法(Graph partitioning segmentation methods),在深度學(xué)習(xí)(Deep learning, DL)“一統(tǒng)江湖”之前,圖像語(yǔ)義分割方面的工作可謂“百花齊放”。在此,我們僅以“Normalized cut” [1]和“Grab cut” [2]這兩個(gè)基于圖劃分的經(jīng)典分割方法為例,介紹一下前DL時(shí)代語(yǔ)義分割方面的研究。

2.1.1 Normalized Cut圖像分割

在Deeplearning技術(shù)快速發(fā)展之前,就已經(jīng)有了很多做圖像分割的技術(shù),其中比較著名的是一種叫做“Normalized cut”的圖劃分方法,簡(jiǎn)稱“ N-cut ”。

Normalized cut (N-cut)方法是基于圖劃分(Graph partitioning)的語(yǔ)義分割方法中最著名的方法之一,于 2000 年 Jianbo Shi 和 Jitendra Malik 發(fā)表于相關(guān)領(lǐng)域頂級(jí)期刊 TPAMI。通常,傳統(tǒng)基于圖劃分的語(yǔ)義分割方法都是將圖像抽象為圖(Graph)的形式 G=(V,E) (V 為圖節(jié)點(diǎn),E 為圖的邊),然后借助圖理論(Graph theory)中的理論和算法進(jìn)行圖像的語(yǔ)義分割。常用的方法為經(jīng)典的最小割算法(Min-cut algorithm)。不過,在邊的權(quán)重計(jì)算時(shí),經(jīng)典 min-cut 算法只考慮了局部信息。如下圖所示,以二分圖為例(將 G 分為不相交的 , 兩部分),若只考慮局部信息,那么分離出一個(gè)點(diǎn)顯然是一個(gè) min-cut,因此圖劃分的結(jié)果便是類似 或 這樣離群點(diǎn),而從全局來(lái)看,實(shí)際想分成的組卻是左右兩大部分。

8f27fcd4-df12-11ed-bfe3-dac502259ad0.jpg

針對(duì)這一情形,N-cut 則提出了一種考慮全局信息的方法來(lái)進(jìn)行圖劃分(Graph partitioning),即,將兩個(gè)分割部分 A,B , 與全圖節(jié)點(diǎn)的連接權(quán)重(assoc(A,V) 和 assoc(B,V))考慮進(jìn)去:

如此一來(lái),在離群點(diǎn)劃分中,中的某一項(xiàng)會(huì)接近 1,而這樣的圖劃分顯然不能使得是一個(gè)較小的值,故達(dá)到考慮全局信息而摒棄劃分離群點(diǎn)的目的。這樣的操作類似于機(jī)器學(xué)習(xí)中特征的規(guī)范化(Normalization)操作,故稱為Normalized cut。N-cut不僅可以處理二類語(yǔ)義分割,而且將二分圖擴(kuò)展為 K 路( -way)圖劃分即可完成多語(yǔ)義的圖像語(yǔ)義分割,如下圖例。

8f428496-df12-11ed-bfe3-dac502259ad0.jpg

2.1.2 Grab cut

Grab cut 是微軟劍橋研究院于 2004 年提出的著名交互式圖像語(yǔ)義分割方法。與 N-cut 一樣,grab cut 同樣也是基于圖劃分,不過 grab cut 是其改進(jìn)版本,可以看作迭代式的語(yǔ)義分割算法。Grab cut 利用了圖像中的紋理(顏色)信息和邊界(反差)信息,只要少量的用戶交互操作即可得到比較好的前后背景分割結(jié)果。

在 Grab cut 中,RGB 圖像的前景和背景分別用一個(gè)高斯混合模型(Gaussian mixture model, GMM)來(lái)建模。兩個(gè) GMM 分別用以刻畫某像素屬于前景或背景的概率,每個(gè) GMM 高斯部件(Gaussian component)個(gè)數(shù)一般設(shè)為 。接下來(lái),利用吉布斯能量方程(Gibbs energy function)對(duì)整張圖像進(jìn)行全局刻畫,而后迭代求取使得能量方程達(dá)到最優(yōu)值的參數(shù)作為兩個(gè) GMM 的最優(yōu)參數(shù)。GMM 確定后,某像素屬于前景或背景的概率就隨之確定下來(lái)。

在與用戶交互的過程中,Grab cut 提供兩種交互方式:一種以包圍框(Bounding box)為輔助信息;另一種以涂寫的線條(Scribbled line)作為輔助信息。以下圖為例,用戶在開始時(shí)提供一個(gè)包圍框,grab cut 默認(rèn)的認(rèn)為框中像素中包含主要物體/前景,此后經(jīng)過迭代圖劃分求解,即可返回扣出的前景結(jié)果,可以發(fā)現(xiàn)即使是對(duì)于背景稍微復(fù)雜一些的圖像,grab cut 仍有不俗表現(xiàn)。

8f561d4e-df12-11ed-bfe3-dac502259ad0.jpg

不過,在處理下圖時(shí),grab cut 的分割效果則不能令人滿意。此時(shí),需要額外人為的提供更強(qiáng)的輔助信息:用紅色線條/點(diǎn)標(biāo)明背景區(qū)域,同時(shí)用白色線條標(biāo)明前景區(qū)域。在此基礎(chǔ)上,再次運(yùn)行 grab cut 算法求取最優(yōu)解即可得到較為滿意的語(yǔ)義分割結(jié)果。Grab cut 雖效果優(yōu)良,但缺點(diǎn)也非常明顯,一是僅能處理二類語(yǔ)義分割問題,二是需要人為干預(yù)而不能做到完全自動(dòng)化。

8f7194fc-df12-11ed-bfe3-dac502259ad0.jpg

其實(shí)大家不難看出,前 DL 時(shí)代的語(yǔ)義分割工作多是根據(jù)圖像像素自身的低階視覺信息(Low-level visual cues)來(lái)進(jìn)行圖像分割。由于這樣的方法沒有算法訓(xùn)練階段,因此往往計(jì)算復(fù)雜度不高,但是在較困難的分割任務(wù)上(如果不提供人為的輔助信息),其分割效果并不能令人滿意。

2.2 DL 時(shí)代的語(yǔ)義分割

前 DL 時(shí)代的語(yǔ)義分割工作多是根據(jù)圖像像素自身的低階視覺信息(Low-level visual cues)來(lái)進(jìn)行圖像分割。由于這樣的方法沒有算法訓(xùn)練階段,因此往往計(jì)算復(fù)雜度不高,但是在較困難的分割任務(wù)上(如果不提供人為的輔助信息),其分割效果并不能令人滿意。

計(jì)算機(jī)視覺步入深度學(xué)習(xí)時(shí)代之后,語(yǔ)義分割同樣也進(jìn)入了全新的發(fā)展階段,以全卷積神經(jīng)網(wǎng)絡(luò)(Fully convolutional networks,F(xiàn)CN)為代表的一系列基于卷積神經(jīng)網(wǎng)絡(luò)「訓(xùn)練」的語(yǔ)義分割方法相繼提出,屢屢刷新圖像語(yǔ)義分割精度。下面就介紹三種在 DL時(shí)代語(yǔ)義分割領(lǐng)域的代表性做法。

2.2.1全卷積神經(jīng)網(wǎng)絡(luò)[3]

全卷積神經(jīng)網(wǎng)絡(luò) FCN 可以說是深度學(xué)習(xí)在圖像語(yǔ)義分割任務(wù)上的開創(chuàng)性工作,出自 UC Berkeley 的 Trevor Darrell 組,發(fā)表于計(jì)算機(jī)視覺領(lǐng)域頂級(jí)會(huì)議 CVPR 2015,并榮獲best paper honorable mention。

FCN 的思想很直觀,即直接進(jìn)行像素級(jí)別端到端(end-to-end)的語(yǔ)義分割,它可以基于主流的深度卷積神經(jīng)網(wǎng)絡(luò)模型(CNN)來(lái)實(shí)現(xiàn)。正所謂‘全卷積神經(jīng)網(wǎng)絡(luò)‘,在FCN中,傳統(tǒng)的全連接層 fc6 和 fc7 均是由卷積層實(shí)現(xiàn),而最后的 fc8 層則被替代為一個(gè) 21 通道(channel)的 1x1 卷積層,作為網(wǎng)絡(luò)的最終輸出。之所以有 21 個(gè)通道是因?yàn)?PASCAL VOC 的數(shù)據(jù)中包含 21 個(gè)類別(20個(gè)object類別和一個(gè)「background」類別)。下圖為 FCN 的網(wǎng)絡(luò)結(jié)構(gòu),若原圖為 H×W×3,在經(jīng)過若干堆疊的卷積和池化層操作后可以得到原圖對(duì)應(yīng)的響應(yīng)張量(Activation tensor)8f8bacf2-df12-11ed-bfe3-dac502259ad0.png?,其中,8f9dcdce-df12-11ed-bfe3-dac502259ad0.png為 i 第 層的通道數(shù)??梢园l(fā)現(xiàn),由于池化層的下采樣作用,使得響應(yīng)張量的長(zhǎng)和寬遠(yuǎn)小于原圖的長(zhǎng)和寬,這便給像素級(jí)別的直接訓(xùn)練帶來(lái)問題。

為了解決下采樣帶來(lái)的問題,F(xiàn)CN 利用雙線性插值將響應(yīng)張亮的長(zhǎng)寬上采樣到原圖大小,另外為了更好的預(yù)測(cè)圖像中的細(xì)節(jié)部分,F(xiàn)CN 還將網(wǎng)絡(luò)中淺層的響應(yīng)也考慮進(jìn)來(lái)。具體來(lái)說,就是將 Pool4 和 Pool3 的響應(yīng)也拿來(lái),分別作為模型 FCN-16s 和 FCN-8s 的輸出,與原來(lái) FCN-32s 的輸出結(jié)合在一起做最終的語(yǔ)義分割預(yù)測(cè)(如下圖所示)。

8fb07744-df12-11ed-bfe3-dac502259ad0.jpg

8fc3ce34-df12-11ed-bfe3-dac502259ad0.jpg

下圖是不同層作為輸出的語(yǔ)義分割結(jié)果,可以明顯看出,由于池化層的下采樣倍數(shù)的不同導(dǎo)致不同的語(yǔ)義分割精細(xì)程度。如 FCN-32s,由于是 FCN 的最后一層卷積和池化的輸出,該模型的下采樣倍數(shù)最高,其對(duì)應(yīng)的語(yǔ)義分割結(jié)果最為粗略;而 FCN-8s 則因下采樣倍數(shù)較小可以取得較為精細(xì)的分割結(jié)果。

8fd563c4-df12-11ed-bfe3-dac502259ad0.jpg

2.2.2 Dilated Convolutions [4]

FCN 的一個(gè)不足之處在于,由于池化層的存在,響應(yīng)張量的大?。ㄩL(zhǎng)和寬)越來(lái)越小,但是FCN的設(shè)計(jì)初衷則需要和輸入大小一致的輸出,因此 FCN 做了上采樣。但是上采樣并不能將丟失的信息全部無(wú)損地找回來(lái)。

對(duì)此,dilated convolution 是一種很好的解決方案——既然池化的下采樣操作會(huì)帶來(lái)信息損失,那么就把池化層去掉。但是池化層去掉隨之帶來(lái)的是網(wǎng)絡(luò)各層的感受野(Receptive field)變小,這樣會(huì)降低整個(gè)模型的預(yù)測(cè)精度。Dilated convolution 的主要貢獻(xiàn)就是,如何在去掉池化下采樣操作的同時(shí),而不降低網(wǎng)絡(luò)的感受野。

以 3×3 的卷積核為例,傳統(tǒng)卷積核在做卷積操作時(shí),是將卷積核與輸入張量中「連續(xù)」的 3×3 的 patch 逐點(diǎn)相乘再求和(如下圖a,紅色圓點(diǎn)為卷積核對(duì)應(yīng)的輸入「像素」,綠色為其在原輸入中的感知野)。而 dilated convolution 中的卷積核則是將輸入張量的 3×3 patch 隔一定的像素進(jìn)行卷積運(yùn)算。如下圖 b 所示,在去掉一層池化層后,需要在去掉的池化層后將傳統(tǒng)卷積層換做一個(gè)「dilation=2」的 dilated convolution 層,此時(shí)卷積核將輸入張量每隔一個(gè)「像素」的位置作為輸入 patch 進(jìn)行卷積計(jì)算,可以發(fā)現(xiàn)這時(shí)對(duì)應(yīng)到原輸入的感知野已經(jīng)擴(kuò)大(dilate)為 ;同理,如果再去掉一個(gè)池化層,就要將其之后的卷積層換成「dilation=4」的 dilated convolution 層,如圖 c 所示。這樣一來(lái),即使去掉池化層也能保證網(wǎng)絡(luò)的感受野,從而確保圖像語(yǔ)義分割的精度。

8fe3f998-df12-11ed-bfe3-dac502259ad0.jpg

從下面的幾個(gè)圖像語(yǔ)義分割效果圖可以看出,在使用了 dilated convolution 這一技術(shù)后可以大幅提高語(yǔ)義類別的辨識(shí)度以及分割細(xì)節(jié)的精細(xì)度。

8ffdbb8a-df12-11ed-bfe3-dac502259ad0.jpg

2.2.3 以條件隨機(jī)場(chǎng)為代表的后處理操作[5]

當(dāng)下許多以深度學(xué)習(xí)為框架的圖像語(yǔ)義分割工作都是用了條件隨機(jī)場(chǎng)(Conditional random field,CRF)作為最后的后處理操作來(lái)對(duì)語(yǔ)義預(yù)測(cè)結(jié)果進(jìn)行優(yōu)化。

一般來(lái)講,CRF 將圖像中每個(gè)像素點(diǎn)所屬的類別都看作一個(gè)變量9016817e-df12-11ed-bfe3-dac502259ad0.png,然后考慮任意兩個(gè)變量之間的關(guān)系,建立一個(gè)完全圖(如下圖所示)。

9024dbde-df12-11ed-bfe3-dac502259ad0.jpg

在全鏈接的 CRF 模型中,對(duì)應(yīng)的能量函數(shù)為:

9039218e-df12-11ed-bfe3-dac502259ad0.png

其中904ab750-df12-11ed-bfe3-dac502259ad0.png是一元項(xiàng),表示Xi像素對(duì)應(yīng)的語(yǔ)義類別, 其類別可以由 FCN 或者其他語(yǔ)義分割模型的預(yù)測(cè)結(jié)果得到;而第二項(xiàng)為二元項(xiàng),二元項(xiàng)可將像素之間的語(yǔ)義聯(lián)系/關(guān)系考慮進(jìn)去。例如,「天空」和「鳥」這樣的像素在物理空間是相鄰的概率,應(yīng)該要比「天空」和「魚」這樣像素的相鄰概率大。最后通過對(duì) CRF 能量函數(shù)的優(yōu)化求解,得到對(duì) FCN 的圖像語(yǔ)義預(yù)測(cè)結(jié)果進(jìn)行優(yōu)化,得到最終的語(yǔ)義分割結(jié)果。值得一提的是,已經(jīng)有工作[5]將原本與深度模型訓(xùn)練割裂開的 CRF 過程嵌入到神經(jīng)網(wǎng)絡(luò)內(nèi)部,即,將 FCN+CRF 的過程整合到一個(gè)端到端的系統(tǒng)中,這樣做的好處是 CRF 最后預(yù)測(cè)結(jié)果的能量函數(shù)可以直接用來(lái)指導(dǎo) FCN 模型參數(shù)的訓(xùn)練,而取得更好的圖像語(yǔ)義分割結(jié)果。

90632344-df12-11ed-bfe3-dac502259ad0.jpg

3、展望

基于深度學(xué)習(xí)的圖像語(yǔ)義分割技術(shù)雖然可以取得相比傳統(tǒng)方法突飛猛進(jìn)的分割效果,但是其對(duì)數(shù)據(jù)標(biāo)注的要求過高:不僅需要海量圖像數(shù)據(jù),同時(shí)這些圖像還需提供精確到像素級(jí)別的標(biāo)記信息(Semantic labels)。因此,越來(lái)越多的研究者開始將注意力轉(zhuǎn)移到弱監(jiān)督(Weakly-supervised)條件下的圖像語(yǔ)義分割問題上。在這類問題中,圖像僅需提供圖像級(jí)別標(biāo)注(如,有「人」,有「車」,無(wú)「電視」)而不需要昂貴的像素級(jí)別信息即可取得與現(xiàn)有方法可比的語(yǔ)義分割精度。

另外,示例級(jí)別(Instance level)的圖像語(yǔ)義分割問題也同樣熱門。該類問題不僅需要對(duì)不同語(yǔ)義物體進(jìn)行圖像分割,同時(shí)還要求對(duì)同一語(yǔ)義的不同個(gè)體進(jìn)行分割(例如需要對(duì)圖中出現(xiàn)的九把椅子的像素用不同顏色分別標(biāo)示出來(lái))

9088b6ae-df12-11ed-bfe3-dac502259ad0.jpg

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4678

    瀏覽量

    94312
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1091

    瀏覽量

    40892
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    788

    文章

    14115

    瀏覽量

    168741

原文標(biāo)題:圖像語(yǔ)義分割的概念與原理以及常用的方法

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 0人收藏

    評(píng)論

    相關(guān)推薦

    目標(biāo)檢測(cè)和圖像語(yǔ)義分割領(lǐng)域性能評(píng)價(jià)指標(biāo)

    目標(biāo)檢測(cè)和圖像語(yǔ)義分割領(lǐng)域的性能評(píng)價(jià)指標(biāo)
    發(fā)表于 05-13 09:57

    圖像分割的基本方法解析

    本文詳細(xì)介紹了圖像分割的基本方法有:基于邊緣的圖像分割方法、閾值
    發(fā)表于 12-20 11:06 ?11w次閱讀
    <b class='flag-5'>圖像</b><b class='flag-5'>分割</b>的基本<b class='flag-5'>方法</b>解析

    基于內(nèi)容的圖像分割方法綜述

    方法、基于像素聚類的方法語(yǔ)義分割方法這3種類型并分別加以介紹對(duì)每類方法所包含的典型算法,尤其
    發(fā)表于 01-02 16:52 ?2次下載
    基于內(nèi)容的<b class='flag-5'>圖像</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>綜述

    聚焦語(yǔ)義分割任務(wù),如何用卷積神經(jīng)網(wǎng)絡(luò)處理語(yǔ)義圖像分割

    CNN架構(gòu)圖像語(yǔ)義分割 圖像分割是根據(jù)圖像內(nèi)容對(duì)指定區(qū)域進(jìn)行標(biāo)記的計(jì)算機(jī)視覺任務(wù),簡(jiǎn)言之就是「這
    發(fā)表于 09-17 15:21 ?628次閱讀

    語(yǔ)義分割算法系統(tǒng)介紹

    圖像語(yǔ)義分割圖像處理和是機(jī)器視覺技術(shù)中關(guān)于圖像理解的重要任務(wù)。語(yǔ)義
    的頭像 發(fā)表于 11-05 10:34 ?6990次閱讀

    分析總結(jié)基于深度神經(jīng)網(wǎng)絡(luò)的圖像語(yǔ)義分割方法

    語(yǔ)義分割和弱監(jiān)督學(xué)習(xí)圖像語(yǔ)義分割,對(duì)每種方法中代表性算法的效果
    發(fā)表于 03-19 14:14 ?21次下載
    分析總結(jié)基于深度神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>圖像</b><b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像語(yǔ)義分割方法

    對(duì)應(yīng)用于圖像語(yǔ)義分割的幾種深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行簡(jiǎn)單介紹,接著詳細(xì)闡述了現(xiàn)有主流的基于深度神經(jīng)網(wǎng)絡(luò)的圖像語(yǔ)義
    發(fā)表于 04-02 13:59 ?11次下載
    基于深度神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>圖像</b><b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    基于SEGNET模型的圖像語(yǔ)義分割方法

    使用原始 SEGNET模型對(duì)圖像進(jìn)行語(yǔ)義分割時(shí),未對(duì)圖像中相鄰像素點(diǎn)間的關(guān)系進(jìn)行考慮,導(dǎo)致同一目標(biāo)中像素點(diǎn)類別預(yù)測(cè)結(jié)果不一致。通過在 SEGNET結(jié)構(gòu)中加入一條自上而下的通道,使得 S
    發(fā)表于 05-27 14:54 ?15次下載

    圖像關(guān)系型KD方法語(yǔ)義分割任務(wù)-CIRKD

    語(yǔ)義分割任務(wù)作為計(jì)算機(jī)視覺中的基礎(chǔ)任務(wù)之一,其目的是對(duì)圖像中的每一個(gè)像素進(jìn)行分類。該任務(wù)也被廣泛應(yīng)用于實(shí)踐,例如自動(dòng)駕駛和醫(yī)學(xué)圖像分割。
    的頭像 發(fā)表于 05-10 11:30 ?2618次閱讀
    跨<b class='flag-5'>圖像</b>關(guān)系型KD<b class='flag-5'>方法語(yǔ)義</b><b class='flag-5'>分割</b>任務(wù)-CIRKD

    PyTorch教程-14.9. 語(yǔ)義分割和數(shù)據(jù)集

    SageMaker Studio Lab 中打開筆記本 在 第 14.3 節(jié)-第 14.8 節(jié)討論對(duì)象檢測(cè)任務(wù)時(shí),矩形邊界框用于標(biāo)記和預(yù)測(cè)圖像中的對(duì)象。本節(jié)將討論語(yǔ)義分割問題,重點(diǎn)關(guān)注如何將
    的頭像 發(fā)表于 06-05 15:44 ?810次閱讀
    PyTorch教程-14.9. <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>和數(shù)據(jù)集

    深度學(xué)習(xí)圖像語(yǔ)義分割指標(biāo)介紹

    深度學(xué)習(xí)在圖像語(yǔ)義分割上已經(jīng)取得了重大進(jìn)展與明顯的效果,產(chǎn)生了很多專注于圖像語(yǔ)義分割的模型與基準(zhǔn)
    發(fā)表于 10-09 15:26 ?558次閱讀
    深度學(xué)習(xí)<b class='flag-5'>圖像</b><b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>指標(biāo)介紹

    機(jī)器視覺圖像分割方法有哪些?

    現(xiàn)有的圖像分割方法主要分以下幾類:基于閾值(threshold)的分割方法、基于區(qū)域的分割
    發(fā)表于 11-02 10:26 ?1753次閱讀
    機(jī)器視覺<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>的<b class='flag-5'>方法</b>有哪些?

    圖像分割語(yǔ)義分割中的CNN模型綜述

    圖像分割語(yǔ)義分割是計(jì)算機(jī)視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο蟆?/div>
    的頭像 發(fā)表于 07-09 11:51 ?1538次閱讀

    圖像分割語(yǔ)義分割的區(qū)別與聯(lián)系

    圖像分割語(yǔ)義分割是計(jì)算機(jī)視覺領(lǐng)域中兩個(gè)重要的概念,它們?cè)?b class='flag-5'>圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1.
    的頭像 發(fā)表于 07-17 09:55 ?1554次閱讀

    圖像語(yǔ)義分割的實(shí)用性是什么

    圖像語(yǔ)義分割是一種重要的計(jì)算機(jī)視覺任務(wù),它旨在將圖像中的每個(gè)像素分配到相應(yīng)的語(yǔ)義類別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動(dòng)駕駛、醫(yī)學(xué)
    的頭像 發(fā)表于 07-17 09:56 ?729次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品