0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

形狀感知零樣本語(yǔ)義分割

3D視覺(jué)工坊 ? 來(lái)源:計(jì)算機(jī)視覺(jué)工坊 ? 2023-04-28 11:26 ? 次閱讀

一、簡(jiǎn)介

由于大規(guī)模視覺(jué)語(yǔ)言預(yù)訓(xùn)練取得了令人矚目的進(jìn)展,最近的識(shí)別模型可以以驚人的高準(zhǔn)確度對(duì)任意對(duì)象進(jìn)行零樣本和開(kāi)放式分類(lèi)。然而,將這種成功轉(zhuǎn)化為語(yǔ)義分割并不容易,因?yàn)檫@種密集的預(yù)測(cè)任務(wù)不僅需要準(zhǔn)確的語(yǔ)義理解,還需要良好的形狀描繪,而現(xiàn)有的視覺(jué)語(yǔ)言模型是通過(guò)圖像級(jí)別的語(yǔ)言描述進(jìn)行訓(xùn)練的。為了彌合這一差距,我們?cè)诒狙芯恐凶非缶哂行螤罡兄芰Φ牧銟颖菊Z(yǔ)義分割。受圖像分割文獻(xiàn)中經(jīng)典的譜方法的啟發(fā),我們提出利用自監(jiān)督像素級(jí)特征構(gòu)建的拉普拉斯矩陣的特征向量來(lái)提升形狀感知分割性能。

盡管這種簡(jiǎn)單而有效的算法完全不使用已知類(lèi)別的掩模,但我們證明它的表現(xiàn)優(yōu)于一種最先進(jìn)的形狀感知范式,在訓(xùn)練期間對(duì)齊地面實(shí)況和預(yù)測(cè)邊緣。我們還深入研究了在不同數(shù)據(jù)集上使用不同的骨干網(wǎng)絡(luò)所實(shí)現(xiàn)的性能提升,并得出了一些有趣且有結(jié)論性的觀察:形狀感知分割性能的提升與目標(biāo)掩模的形狀緊密性和對(duì)應(yīng)語(yǔ)言嵌入的分布都密切相關(guān)。

二、網(wǎng)絡(luò)架構(gòu)

08fb6300-e573-11ed-ab56-dac502259ad0.png

圖1 SAZS的總體框架

零樣本語(yǔ)義分割的目標(biāo)是將語(yǔ)義分割任務(wù)擴(kuò)展到訓(xùn)練數(shù)據(jù)集中未出現(xiàn)的類(lèi)別。引入額外的先驗(yàn)信息的一種潛在方法是利用預(yù)訓(xùn)練的視覺(jué)-語(yǔ)言模型,但是大多數(shù)這些模型都集中于圖像級(jí)別的預(yù)測(cè),無(wú)法轉(zhuǎn)移到密集預(yù)測(cè)任務(wù)。為此,我們提出了一種名為“形狀感知零樣本語(yǔ)義分割(SAZS)”的新方法。

該方法利用了預(yù)訓(xùn)練的CLIP[1]模型中包含的豐富的語(yǔ)言先驗(yàn)信息,在訓(xùn)練期間對(duì)齊地面實(shí)況和預(yù)測(cè)邊緣。同時(shí),利用自監(jiān)督像素級(jí)特征構(gòu)建的拉普拉斯矩陣的特征向量來(lái)提升形狀感知分割性能,并將其與像素級(jí)別的預(yù)測(cè)相結(jié)合。 我們的方法的模型框架如圖1所示。

輸入圖像首先通過(guò)圖像編碼器轉(zhuǎn)換為像素級(jí)嵌入,然后與預(yù)訓(xùn)練的CLIP[1]模型的文本編碼器獲得的預(yù)先計(jì)算的文本嵌入對(duì)齊(圖1中的A部分)。同時(shí),圖像編碼器中的額外頭部用于在補(bǔ)丁中預(yù)測(cè)邊界,并針對(duì)分割地面真值中獲得的地面真值邊緣進(jìn)行優(yōu)化(圖1中的B部分)。此外,在推斷過(guò)程中,我們通過(guò)譜分析分解圖像并將輸出的特征向量與類(lèi)別不可知的分割結(jié)果相結(jié)合(圖1中的C部分)。

我們將訓(xùn)練集表示為09044916-e573-11ed-ab56-dac502259ad0.png,測(cè)試集表示為0914c430-e573-11ed-ab56-dac502259ad0.png091a3ae6-e573-11ed-ab56-dac502259ad0.png,其中0923ce80-e573-11ed-ab56-dac502259ad0.png092bc22a-e573-11ed-ab56-dac502259ad0.png分別表示輸入圖像和相應(yīng)的真實(shí)語(yǔ)義掩碼。S表示 I中的K個(gè)潛在標(biāo)簽,而表示測(cè)試期間未見(jiàn)過(guò)的類(lèi)別。

在我們的設(shè)置中,這兩個(gè)集合嚴(yán)格互斥(即093474a6-e573-11ed-ab56-dac502259ad0.png)。 在針對(duì)的093e6f42-e573-11ed-ab56-dac502259ad0.png進(jìn)行推斷之前,模型使用來(lái)自S的真實(shí)標(biāo)簽在0946354c-e573-11ed-ab56-dac502259ad0.png上進(jìn)行訓(xùn)練。 這意味著在訓(xùn)練過(guò)程中從未看到測(cè)試集中的類(lèi)別,使得任務(wù)在零樣本設(shè)置下進(jìn)行。一旦模型訓(xùn)練得當(dāng),它應(yīng)該能夠泛化到未見(jiàn)過(guò)的類(lèi)別,并在開(kāi)放世界中實(shí)現(xiàn)高效的目標(biāo)密集預(yù)測(cè)。

像素級(jí)別的視覺(jué)-語(yǔ)言對(duì)齊

我們采用擴(kuò)張殘差網(wǎng)絡(luò)(DRN[2])和密集預(yù)測(cè)Transformer(DPT[3])來(lái)將圖像編碼為像素級(jí)嵌入向量。同時(shí),我們采用預(yù)訓(xùn)練的CLIP文本編碼器將來(lái)自S中K個(gè)類(lèi)別的名稱(chēng)映射到CLIP特征空間作為文本特征094fbcb6-e573-11ed-ab56-dac502259ad0.png。其中,視覺(jué)特征09577e38-e573-11ed-ab56-dac502259ad0.png和文本特征具有相同的維度D。

為了實(shí)現(xiàn)視覺(jué)-語(yǔ)言對(duì)齊,此前的工作[5]通過(guò)最小化像素和對(duì)應(yīng)語(yǔ)義類(lèi)別之間的距離,同時(shí)最大化像素和其他類(lèi)別之間的距離來(lái)實(shí)現(xiàn)。在像素級(jí)視覺(jué)和語(yǔ)言特征被嵌入同一特征空間的假設(shè)下,我們利用余弦相似度095f4d02-e573-11ed-ab56-dac502259ad0.png作為特征之間的量化距離度量,并提出對(duì)齊損失,它是所有像素上已見(jiàn)類(lèi)別的交叉熵?fù)p失的總和:

0965630e-e573-11ed-ab56-dac502259ad0.png 其中,09743aa0-e573-11ed-ab56-dac502259ad0.png表示在位置0980996c-e573-11ed-ab56-dac502259ad0.png上的像素視覺(jué)特征,098719d6-e573-11ed-ab56-dac502259ad0.png表示第k個(gè)文本特征,098febe2-e573-11ed-ab56-dac502259ad0.png表示像素 0980996c-e573-11ed-ab56-dac502259ad0.png的類(lèi)別的索引。

形狀約束

由于CLIP是在圖像級(jí)別任務(wù)上訓(xùn)練的,僅僅利用CLIP特征空間中的先驗(yàn)信息可能對(duì)密集預(yù)測(cè)任務(wù)不足夠。為了解決這個(gè)問(wèn)題,我們引入邊界檢測(cè)作為一個(gè)約束任務(wù)。受到之前工作[6]的啟發(fā),我們通過(guò)優(yōu)化真實(shí)邊緣和特征圖中的邊緣之間的仿射變換,使其趨近于單位矩陣。

具體來(lái)說(shuō),如圖1所示,我們提取視覺(jué)編碼器的中間特征,并將其劃分成塊。首先采用Sobel算子獲得邊緣對(duì)應(yīng)的真實(shí)標(biāo)簽。之后將特征塊輸入邊界頭進(jìn)行特征提取。我們利用訓(xùn)練好的形狀網(wǎng)絡(luò)(圖 1中的MLP)計(jì)算第i個(gè)特征塊的變換矩陣09a236c6-e573-11ed-ab56-dac502259ad0.png,該矩陣用于將處理后的特征塊與邊緣的真實(shí)注釋之間進(jìn)行仿射變換。我們使用形狀損失來(lái)優(yōu)化仿射變換矩陣與單位矩陣之間的差異: 09aac700-e573-11ed-ab56-dac502259ad0.png 其中T表示特征塊數(shù)量,表示Frobenius范數(shù)。

此外,我們還計(jì)算了整張?zhí)卣鲌D的預(yù)測(cè)邊緣掩碼與相應(yīng)的真實(shí)標(biāo)注之間的二元交叉熵?fù)p失 09b58dfc-e573-11ed-ab56-dac502259ad0.png,以進(jìn)一步優(yōu)化邊緣檢測(cè)的性能。經(jīng)過(guò)邊緣檢測(cè)任務(wù)的聯(lián)合訓(xùn)練,視覺(jué)編碼器能夠利用輸入圖像中的形狀先驗(yàn)信息。后面的實(shí)驗(yàn)結(jié)果表明,由09bbbd08-e573-11ed-ab56-dac502259ad0.png09b58dfc-e573-11ed-ab56-dac502259ad0.png引入的形狀感知帶來(lái)了顯著的性能提升。

最終,在訓(xùn)練過(guò)程中需要優(yōu)化的總損失為: 09c5f0de-e573-11ed-ab56-dac502259ad0.png 其中,和是損失權(quán)重。

自監(jiān)督譜分解

由于此前譜分解工作[7]的啟發(fā),我們利用無(wú)監(jiān)督譜分解的方式將輸入圖像的拉普拉斯矩陣分解為具有邊界信息的特征段,并在圖1中的融合模塊中將這些特征段與神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果融合。 關(guān)聯(lián)矩陣的推導(dǎo)是譜分解的關(guān)鍵。首先提取預(yù)訓(xùn)練的自監(jiān)督Transformer(DINO[4])最后一層的注意力塊中的特征。像素,的關(guān)聯(lián)矩陣定義為: 09d6d4bc-e573-11ed-ab56-dac502259ad0.png 雖然從DINO特征中的關(guān)聯(lián)矩陣富含語(yǔ)義信息,但缺少包括顏色相似性和空間距離在內(nèi)的低層次近鄰信息。

我們首先將輸入圖像轉(zhuǎn)換為HSV顏色空間:09df8076-e573-11ed-ab56-dac502259ad0.png09e804c6-e573-11ed-ab56-dac502259ad0.png,其中09f70016-e573-11ed-ab56-dac502259ad0.png是各自的HSV坐標(biāo),0a007b32-e573-11ed-ab56-dac502259ad0.png是像素i的空間坐標(biāo)。然后,像素關(guān)聯(lián)矩陣被定義為: 0a085f1e-e573-11ed-ab56-dac502259ad0.png 這里的0a195a1c-e573-11ed-ab56-dac502259ad0.png表示二范數(shù)。整體的關(guān)聯(lián)矩陣定義為這兩者的加權(quán)和: 0a22c89a-e573-11ed-ab56-dac502259ad0.png

推理過(guò)程

在進(jìn)行推理時(shí),我們首先使用預(yù)訓(xùn)練的CLIP文本編碼器對(duì)類(lèi)別的進(jìn)行編碼,并獲得包含C個(gè)類(lèi)別的文本特征0a2bf4f6-e573-11ed-ab56-dac502259ad0.png,其中每個(gè)類(lèi)別都用一個(gè)D維嵌入表示。然后我們利用訓(xùn)練好的視覺(jué)編碼器獲取視覺(jué)特征圖0a365d42-e573-11ed-ab56-dac502259ad0.png。最終的邏輯回歸值0a419748-e573-11ed-ab56-dac502259ad0.png是視覺(jué)特征和文本特征之間余弦相似性的計(jì)算結(jié)果。同時(shí),我們使用預(yù)訓(xùn)練的DINO以無(wú)監(jiān)督的方式提取語(yǔ)義特征,并計(jì)算出前K個(gè)譜特征區(qū)段0a49d764-e573-11ed-ab56-dac502259ad0.png(我們的實(shí)現(xiàn)中0a53f514-e573-11ed-ab56-dac502259ad0.png)。 最終的預(yù)測(cè)結(jié)果是由融合模塊生成的,該模塊根據(jù)0a49d764-e573-11ed-ab56-dac502259ad0.png0a66df80-e573-11ed-ab56-dac502259ad0.png之間的最大IoU(表示為0a6ff2d2-e573-11ed-ab56-dac502259ad0.png)從預(yù)測(cè)集中進(jìn)行選擇: 0a76a230-e573-11ed-ab56-dac502259ad0.png

三、實(shí)驗(yàn)結(jié)果

我們分別在語(yǔ)義分割數(shù)據(jù)集PASCAL-5i[8]和COCO-20i[9]上進(jìn)行了定量和定性實(shí)驗(yàn),分別如下圖所示

0a7f4bc4-e573-11ed-ab56-dac502259ad0.png

表1:SAZS在PASCAL-5i和COCO-20i上的定量結(jié)果

0a8a5c3a-e573-11ed-ab56-dac502259ad0.png

表2:SAZS跨數(shù)據(jù)零樣本分割的定量結(jié)果(在PASCAL-5i上測(cè)試)

SAZS在PASCAL-5i和COCO-20i上的定性結(jié)果分別如下圖所示。第一列和最后一列是不同類(lèi)別的輸入圖像和相應(yīng)的地面真實(shí)語(yǔ)義掩碼。第二列和第三列分別是 SAZS 沒(méi)有和有形狀感知的預(yù)測(cè)結(jié)果。*表示在訓(xùn)練階段未曾出現(xiàn)的類(lèi)別.

0a969edc-e573-11ed-ab56-dac502259ad0.png0aa48fb0-e573-11ed-ab56-dac502259ad0.png

形狀感知分割驗(yàn)證指標(biāo)IoU與目標(biāo)掩模的形狀緊密性和對(duì)應(yīng)語(yǔ)言嵌入的分布關(guān)系如下圖所示。

0ab03f86-e573-11ed-ab56-dac502259ad0.png

四、總結(jié)

本文提出了一種新穎的框架,用于實(shí)現(xiàn)形狀感知的零樣本語(yǔ)義分割(簡(jiǎn)稱(chēng)SAZS)。該框架利用大規(guī)模預(yù)訓(xùn)練視覺(jué)語(yǔ)言模型的特征空間中包含的豐富先驗(yàn)信息,同時(shí)通過(guò)在邊界檢測(cè)約束任務(wù)上進(jìn)行聯(lián)合訓(xùn)練。此外,采用自監(jiān)督譜分解來(lái)獲取圖像的特征向量,將其與網(wǎng)絡(luò)預(yù)測(cè)融合增強(qiáng)模型感知形狀的能力。相關(guān)性分析進(jìn)一步凸顯了形狀緊密度和語(yǔ)言嵌入分布對(duì)分割性能的影響。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3779

    瀏覽量

    137226
  • DRNN
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6143
  • Clip
    +關(guān)注

    關(guān)注

    0

    文章

    32

    瀏覽量

    6978
  • HSV
    HSV
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    2703

原文標(biāo)題:CVPR2023 | 形狀感知零樣本語(yǔ)義分割

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度感知的應(yīng)用和主要方法

    近年來(lái),3D 感知技術(shù)越來(lái)越多地應(yīng)用于各行各業(yè),尤其是工業(yè)自動(dòng)化、機(jī)器人、自動(dòng)駕駛、醫(yī)療保健、AR/VR 和安全領(lǐng)域。3D 感知是用于捕捉環(huán)境與物體三維形狀并進(jìn)行數(shù)字化處理的技術(shù)的統(tǒng)稱(chēng),而深度
    的頭像 發(fā)表于 05-15 17:17 ?292次閱讀

    移動(dòng)電源EMC整改:解決輻射超標(biāo)的隱藏技巧

    南柯電子|移動(dòng)電源EMC整改:解決輻射超標(biāo)的隱藏技巧
    的頭像 發(fā)表于 05-13 11:25 ?208次閱讀
    移動(dòng)電源EMC整改:<b class='flag-5'>零</b>成<b class='flag-5'>本</b>解決輻射超標(biāo)的隱藏技巧

    如何利用超聲波真空清洗機(jī)清洗復(fù)雜形狀件?

    想象一下,你手中拿著一件精密的機(jī)械件,表面布滿(mǎn)了油污、灰塵和細(xì)小的顆粒。你可能會(huì)覺(jué)得清洗這樣一個(gè)復(fù)雜形狀件,既繁瑣又不易達(dá)成。而你能否想象,一臺(tái)看似簡(jiǎn)單的清洗設(shè)備——超聲波真空清洗機(jī),能夠輕松
    的頭像 發(fā)表于 04-08 16:08 ?231次閱讀
    如何利用超聲波真空清洗機(jī)清洗復(fù)雜<b class='flag-5'>形狀</b>的<b class='flag-5'>零</b>件?

    SparseViT:以非語(yǔ)義為中心、參數(shù)高效的稀疏化視覺(jué)Transformer

    (IML)都遵循“語(yǔ)義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語(yǔ)義特征提取”相結(jié)合的設(shè)計(jì),這種方法嚴(yán)重限制了模型在未知場(chǎng)景的偽影提取能力。 論文標(biāo)題: Can We Get Rid
    的頭像 發(fā)表于 01-15 09:30 ?385次閱讀
    SparseViT:以非<b class='flag-5'>語(yǔ)義</b>為中心、參數(shù)高效的稀疏化視覺(jué)Transformer

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    目前高速發(fā)展的大模型能給具身智能帶來(lái)一些突破性的進(jìn)展。 對(duì)于感知系統(tǒng),要做的主要任務(wù)是物體檢測(cè),語(yǔ)義分割,立體視覺(jué),鳥(niǎo)瞰視角感知。 有很多算法都可以實(shí)現(xiàn)物體檢測(cè),比如文章提到的HOG
    發(fā)表于 01-04 19:22

    利用VLM和MLLMs實(shí)現(xiàn)SLAM語(yǔ)義增強(qiáng)

    語(yǔ)義同步定位與建圖(SLAM)系統(tǒng)在對(duì)鄰近的語(yǔ)義相似物體進(jìn)行建圖時(shí)面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο骃LAM的語(yǔ)義增強(qiáng)(SEO-SLAM)的新型SLAM系統(tǒng),借助視覺(jué)語(yǔ)言模型
    的頭像 發(fā)表于 12-05 10:00 ?1151次閱讀
    利用VLM和MLLMs實(shí)現(xiàn)SLAM<b class='flag-5'>語(yǔ)義</b>增強(qiáng)

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    綜述提供了對(duì)25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類(lèi)法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)的分類(lèi)。摘要
    的頭像 發(fā)表于 10-22 08:04 ?1501次閱讀
    <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    畫(huà)面分割器怎么調(diào)試

    畫(huà)面分割器,通常指的是視頻畫(huà)面分割器,它是一種可以將一個(gè)視頻信號(hào)分割成多個(gè)小畫(huà)面的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會(huì)議、多畫(huà)面顯示等場(chǎng)景。調(diào)試畫(huà)面分割器是一個(gè)技術(shù)性很強(qiáng)的工作,需
    的頭像 發(fā)表于 10-17 09:32 ?959次閱讀

    請(qǐng)問(wèn)模擬開(kāi)關(guān)必須要跟ADC一放在模擬地與數(shù)字地的分割處嗎?

    設(shè)計(jì)的系統(tǒng)中需要用到模擬開(kāi)關(guān)TA5A3160,需要數(shù)字信號(hào)控制來(lái)決定通道的開(kāi)關(guān),那么為了減少對(duì)模擬信號(hào)的干擾需要把該芯片像ADC一放在模擬地與數(shù)字地的分割處嗎,謝謝。
    發(fā)表于 08-30 06:03

    手冊(cè)上新 |迅為RK3568開(kāi)發(fā)板NPU例程測(cè)試

    測(cè)試 6.1 deeplabv3語(yǔ)義分割 6.2 lite_transformer 6.3 LPRNet車(chē)牌識(shí)別 6.4 mobilenet圖像分類(lèi) 6.5 PPOCR-Rec文字識(shí)別 6.6
    發(fā)表于 08-12 11:03

    圖像語(yǔ)義分割的實(shí)用性是什么

    圖像語(yǔ)義分割是一種重要的計(jì)算機(jī)視覺(jué)任務(wù),它旨在將圖像中的每個(gè)像素分配到相應(yīng)的語(yǔ)義類(lèi)別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動(dòng)駕駛、醫(yī)學(xué)圖像分析、機(jī)器人導(dǎo)航等。 一、圖像語(yǔ)義
    的頭像 發(fā)表于 07-17 09:56 ?827次閱讀

    圖像分割語(yǔ)義分割的區(qū)別與聯(lián)系

    圖像分割語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域中兩個(gè)重要的概念,它們?cè)趫D像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像分割簡(jiǎn)介 圖像分割是將圖像劃分為多個(gè)區(qū)
    的頭像 發(fā)表于 07-17 09:55 ?1759次閱讀

    圖像分割與目標(biāo)檢測(cè)的區(qū)別是什么

    的區(qū)別。 定義 圖像分割是將圖像劃分為若干個(gè)區(qū)域或?qū)ο蟮倪^(guò)程,這些區(qū)域或?qū)ο缶哂邢嗨频膶傩?,如顏色、紋理或形狀。圖像分割的目的是將圖像中的不同對(duì)象或區(qū)域分離出來(lái),以便進(jìn)行進(jìn)一步的分析和處理。 目標(biāo)檢測(cè)則是在圖像中
    的頭像 發(fā)表于 07-17 09:53 ?2227次閱讀

    圖像分割語(yǔ)義分割中的CNN模型綜述

    圖像分割語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像
    的頭像 發(fā)表于 07-09 11:51 ?1791次閱讀

    機(jī)器人視覺(jué)技術(shù)中常見(jiàn)的圖像分割方法

    機(jī)器人視覺(jué)技術(shù)中的圖像分割方法是一個(gè)廣泛且深入的研究領(lǐng)域。圖像分割是將圖像劃分為多個(gè)區(qū)域或?qū)ο蟮倪^(guò)程,這些區(qū)域或?qū)ο缶哂心撤N共同的特征,如顏色、紋理、形狀等。在機(jī)器人視覺(jué)中,圖像分割對(duì)
    的頭像 發(fā)表于 07-09 09:31 ?1274次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品