0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR 2023 中的領(lǐng)域適應(yīng):用于切片方向連續(xù)的無監(jiān)督跨模態(tài)醫(yī)學(xué)圖像分割

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-08-17 16:35 ? 次閱讀

CVPR 2023 中的領(lǐng)域適應(yīng):用于切片方向連續(xù)的無監(jiān)督跨模態(tài)醫(yī)學(xué)圖像分割

前言

我們已經(jīng)介紹過 3 篇 CVPR 中的典型領(lǐng)域適應(yīng)工作,他們?nèi)际?TTA(Test-Time Adaptation)的 settings,而這次要介紹的文章是 UDA(Unsupervised domain adaptation)的 setting。之前的三篇文章分別是:

CoTTA

EcoTTA

DIGA

在這篇文章中,提出了 SDC-UDA,一種簡(jiǎn)單而有效的用于連續(xù)切片方向的跨模態(tài)醫(yī)學(xué)圖像分割的體積型 UDA 框架,它結(jié)合了切片內(nèi)和切片間自注意力圖像轉(zhuǎn)換、不確定性約束的偽標(biāo)簽優(yōu)化和體積型自訓(xùn)練。與以前的醫(yī)學(xué)圖像分割 UDA 方法不同之處在于它可以獲得切片方向上的連續(xù)分割(這一點(diǎn)有點(diǎn)重要,因?yàn)橥R床上都是一個(gè) 3D 數(shù)據(jù),而直接處理 3D 數(shù)據(jù)又需要很大的計(jì)算資源),從而確保更高的準(zhǔn)確性和臨床實(shí)踐中的潛力。

0d6a5596-3c43-11ee-ac96-dac502259ad0.png

如上圖所示,以前的醫(yī)學(xué)圖像分割 UDA 方法大多采用 2D UDA,當(dāng)將預(yù)測(cè)堆疊在一起時(shí),會(huì)導(dǎo)致切片方向上的預(yù)測(cè)不一致。SDC-UDA 在翻譯和分割過程中考慮了體積信息,從而改善了分割結(jié)果在切片方向上的連續(xù)性,可以看到在圖的最右側(cè),下面方法的 Dice 值在切片方向上是穩(wěn)定的。

此外,我們?nèi)闹刑岬降摹绑w積”這個(gè)詞,可以理解為 3D 數(shù)據(jù)。

體積型 UDA 框架概述

如下圖所示,SDC-UDA 大致有五個(gè)步驟,從 stage 1 到 stage 5:

stage 1:帶有片內(nèi)和片間注意力的對(duì)抗學(xué)習(xí)過程,這一步是 stage 2 的基礎(chǔ),stage 2 是該步驟的上半部分。后面會(huì)單獨(dú)用一個(gè)小節(jié)介紹。

stage 2:target 模態(tài)數(shù)據(jù)生成,假如 source 數(shù)據(jù)模態(tài)是 MRI,那么在這個(gè)步驟我們會(huì)得到 3D 的 CT 和對(duì)應(yīng)的 label。

stage 3:把生成的 target 數(shù)據(jù)和 label 送入到教師網(wǎng)絡(luò)訓(xùn)練。

stage 4:將真實(shí)的不帶標(biāo)簽的 target 數(shù)據(jù)輸入到 stage 3 的教師網(wǎng)絡(luò)得到偽標(biāo)簽,并通過不確定性抑制優(yōu)化偽標(biāo)簽。

stage 5:將生成的 target 數(shù)據(jù)、真實(shí) target 數(shù)據(jù)和他們的標(biāo)簽用于優(yōu)化學(xué)生網(wǎng)絡(luò),最終的預(yù)測(cè)也是在學(xué)生網(wǎng)絡(luò)上。

0dd80712-3c43-11ee-ac96-dac502259ad0.png

請(qǐng)?zhí)砑訄D片描述

具體實(shí)現(xiàn)

Unpaired 圖像轉(zhuǎn)換

先前的 2D UDA 方法將 3D 體積分割成 2D 切片,并在之后將它們的轉(zhuǎn)換重新堆疊成 3D 體積。由于切片是單獨(dú)處理的,重新構(gòu)建轉(zhuǎn)換后的體積通常需要額外的后處理,如切片方向插值,但這仍然無法完全解決切片方向不連續(xù)等問題。為了解決 2D 方法缺乏對(duì)體積性質(zhì)的考慮和 3D 方法的優(yōu)化效率問題,這篇文章提出了一種簡(jiǎn)單而有效的像素級(jí)領(lǐng)域轉(zhuǎn)換方法,用于醫(yī)學(xué)圖像體積數(shù)據(jù),通過使用切片內(nèi)部和切片間自注意力模塊將一組源域圖像轉(zhuǎn)換為目標(biāo)域圖像。與先前的 2D 方法只在單個(gè)切片內(nèi)進(jìn)行轉(zhuǎn)換,而這篇文章的方法利用了切片方向上相鄰切片的信息。這類似于最近在視頻處理中的進(jìn)展,它利用了幀內(nèi)部和幀之間的信息。與需要昂貴計(jì)算成本的 3D 方法相比,不需要大量計(jì)算(下采樣)。

0df1850c-3c43-11ee-ac96-dac502259ad0.png

如上圖所示,首先我們將一個(gè) 3D MRI 數(shù)據(jù)裁剪出 3 張切片,輸入到 CNN 的 encoder中,encoder 的輸出是三張切片的 feature maps,即在通道維度上被卷積。然后我們?cè)陂L(zhǎng)和寬的方向上裁剪 patches,這樣會(huì)得到若干個(gè) patch 塊,輸入到帶有片內(nèi)和片間的切片注意力模塊中。這個(gè)注意力模塊就是很普通的多頭注意力、殘差和 FFN 的兩次組合。最后我們做相反過程的 decoder,這時(shí)生成的圖像應(yīng)該是 target 模態(tài)的。為了方便理解,可以再去看看我們?cè)谏弦还?jié)提到的 stage 1,對(duì)應(yīng) stage 1 的上半部分。

stage 1 除了包括上面提到的這個(gè)過程,還包括重建的反過程(下半部分),這樣我們才能計(jì)算一致性的 loss,同時(shí)利用對(duì)抗學(xué)習(xí)的判別器,完成自監(jiān)督的訓(xùn)練。

體積自訓(xùn)練和偽標(biāo)簽優(yōu)化

我們已經(jīng)介紹了概述中第一個(gè) stage,這一節(jié)對(duì)應(yīng)后面三個(gè) stage。

通過從源域轉(zhuǎn)換的合成數(shù)據(jù) x?t 和注釋 ys(即帶標(biāo)簽的合成數(shù)據(jù)集),我們首先訓(xùn)練一個(gè)教師分割網(wǎng)絡(luò) teacher,該網(wǎng)絡(luò)最小化分割損失:

訓(xùn)練完教師模型,可以通過將真實(shí)的目標(biāo)域數(shù)據(jù) xt 傳遞給訓(xùn)練好的分割模型 teacher,獲取未標(biāo)記真實(shí)數(shù)據(jù)的偽標(biāo)簽 y?t。

由于 teacher 預(yù)測(cè)出的偽標(biāo)簽是噪聲標(biāo)簽,必須對(duì)其進(jìn)行改進(jìn),以提高準(zhǔn)確性并引導(dǎo)自訓(xùn)練朝更好的方向發(fā)展。這篇文章設(shè)計(jì)了一種增強(qiáng)敏感性(SE)和特異性(SP)的偽標(biāo)簽改進(jìn)模塊,該模塊基于圖像強(qiáng)度、當(dāng)前偽標(biāo)簽和不確定性區(qū)域(高于閾值)來改進(jìn)偽標(biāo)簽。

通過預(yù)測(cè)出的偽標(biāo)簽,計(jì)算與每個(gè)類別相對(duì)應(yīng)的不確定性(即熵)圖:

其中 p 是每個(gè)類別的輸出概率圖。為了增強(qiáng)偽標(biāo)簽的敏感性,檢測(cè)超出偽標(biāo)簽范圍的高度不確定的區(qū)域。然后,如果該區(qū)域中的像素強(qiáng)度在當(dāng)前偽標(biāo)簽包含的圖像強(qiáng)度的某個(gè)范圍內(nèi),該區(qū)域?qū)⒈话閭螛?biāo)簽的一部分。該公式可以表示為:

0e44f296-3c43-11ee-ac96-dac502259ad0.png

其中 分別表示目標(biāo)域圖像、偽標(biāo)簽、改進(jìn)的偽標(biāo)簽和裁剪了高不確定性區(qū)域掩碼。該方法基于假設(shè):在醫(yī)學(xué)圖像中,具有相似強(qiáng)度且相互接近的像素很可能屬于同一類別。

為了增強(qiáng)偽標(biāo)簽的特異性,也是檢測(cè)偽標(biāo)簽范圍內(nèi)的高度不確定的區(qū)域。區(qū)別是,如果該區(qū)域中的像素強(qiáng)度不在當(dāng)前偽標(biāo)簽包含的圖像強(qiáng)度的某個(gè)范圍內(nèi),則將其從當(dāng)前偽標(biāo)簽中排除??梢员硎緸椋?/p>

上面這個(gè)流程,文章中給出了圖示如下,有助于理解這個(gè)流程:

0e5dc19a-3c43-11ee-ac96-dac502259ad0.png

請(qǐng)?zhí)砑訄D片描述

在 stage 5 中,合成的 target scans 與真實(shí) target scans 存在分布差異。這篇文章將這兩種配對(duì)數(shù)據(jù)結(jié)合到自訓(xùn)練中,以最大程度地提高泛化能力,并最小化由于分布差異而引起的性能下降。把帶標(biāo)簽的合成 target scans 和帶偽標(biāo)簽的 target scans 的數(shù)據(jù)合并,訓(xùn)練一個(gè)學(xué)生分割模型 student,以最小化以下?lián)p失:

實(shí)驗(yàn)

下表是 SDC-UDA 與以前的非醫(yī)學(xué)圖像和醫(yī)學(xué)圖像 UDA 方法之間的定量結(jié)果的比較。該表包括非醫(yī)學(xué)圖像 UDA 方法(例如 cycleGan、cycada、ADVENT 和 FDA)的結(jié)果,以及最近的醫(yī)學(xué)圖像 UDA 方法(例如 SIFA 和 PSIGAN)的結(jié)果。對(duì)比發(fā)表在 TMI 2020 上的 PSIGAN 方法,DICE 指標(biāo)上提升了很多,特別是從 T1 到 T2 的跨模態(tài)設(shè)置。MRI 到 CT 也有顯著的提升。

0e805c00-3c43-11ee-ac96-dac502259ad0.png

請(qǐng)?zhí)砑訄D片描述

可視化結(jié)果比較如下圖:

0ec6813a-3c43-11ee-ac96-dac502259ad0.png

請(qǐng)?zhí)砑訄D片描述

總結(jié)

這篇文章提出了 SDC-UDA,一種用于切片方向連續(xù)的跨模態(tài)醫(yī)學(xué)圖像分割的新型 UDA 框架。SDC-UDA 通過切片內(nèi)部和切片間的自注意力有效地轉(zhuǎn)換醫(yī)學(xué)體積,并通過利用不確定性圖,設(shè)計(jì)簡(jiǎn)單而有效的偽標(biāo)簽細(xì)化策略。通過體積級(jí)自訓(xùn)練更好地適應(yīng)目標(biāo)域。

現(xiàn)在的 SDC-UDA 框架中,只有 stage 1 是不需要訓(xùn)練 3D 圖像的,后面的過程仍然是 3D 的訓(xùn)練(可能出于準(zhǔn)確率的角度),也需要消耗更多的計(jì)算資源,其實(shí)也是可以優(yōu)化成一組堆疊切片的。

參考

https://arxiv.org/pdf/2305.11012.pdf

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2885

    瀏覽量

    107609
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    403

    瀏覽量

    17506
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18013

原文標(biāo)題:CVPR 2023 中的領(lǐng)域適應(yīng):用于切片方向連續(xù)的無監(jiān)督跨模態(tài)醫(yī)學(xué)圖像分割

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    PCB的平面分割

    在 PCB 設(shè)計(jì)過程,由于平面的分割,可能會(huì)導(dǎo)致信號(hào)參考平面不連續(xù),對(duì)于低低頻信號(hào),可能沒什么關(guān)系,而在高頻數(shù)字系統(tǒng),高頻信號(hào)以參考平面作返回路徑,即回流路徑,如果參考?面不
    發(fā)表于 10-09 13:10

    FCM聚類算法用于醫(yī)學(xué)圖像分割matlab源程序

    FCM聚類算法以及改進(jìn)模糊聚類算法用于醫(yī)學(xué)圖像分割的matlab源程序
    發(fā)表于 05-11 23:30

    FCM聚類算法以及改進(jìn)模糊聚類算法用于醫(yī)學(xué)圖像分割的matlab源程序

    FCM聚類算法以及改進(jìn)模糊聚類算法用于醫(yī)學(xué)圖像分割的matlab源程序
    發(fā)表于 05-11 23:54

    van-自然和醫(yī)學(xué)圖像的深度語義分割:網(wǎng)絡(luò)結(jié)構(gòu)

    概率值最大的分割結(jié)果,作為最后的分割圖。U-Net中常常會(huì)問為什么適用于醫(yī)學(xué)圖像這個(gè)問題.。首先分析醫(yī)學(xué)
    發(fā)表于 12-28 11:03

    van-自然和醫(yī)學(xué)圖像的深度語義分割:網(wǎng)絡(luò)結(jié)構(gòu)

    概率值最大的分割結(jié)果,作為最后的分割圖。U-Net中常常會(huì)問為什么適用于醫(yī)學(xué)圖像這個(gè)問題.。首先分析醫(yī)學(xué)
    發(fā)表于 12-28 11:06

    基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt相關(guān)資料分享

    1、基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt  方法概述  之前我們解讀過基于 Transformer 的 U-Net變體,近年來一直是領(lǐng)先的醫(yī)學(xué)
    發(fā)表于 09-23 14:53

    深度學(xué)習(xí)在醫(yī)學(xué)圖像分割與病變識(shí)別的應(yīng)用實(shí)戰(zhàn)

    等方面具有重要意義。本文將介紹這一領(lǐng)域的背景、挑戰(zhàn),以及通過一個(gè)代碼實(shí)例展示如何利用深度學(xué)習(xí)方法進(jìn)行醫(yī)學(xué)圖像分割與病變識(shí)別。 背景與挑戰(zhàn)醫(yī)學(xué)
    發(fā)表于 09-04 11:11

    基于改進(jìn)CNN的醫(yī)學(xué)圖像分割方法

    為了提高醫(yī)學(xué)圖像分割的精確性和魯棒性,提岀了一種基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法。首先采用
    發(fā)表于 06-03 16:23 ?6次下載

    全面解讀CVPR2021-MMAct挑戰(zhàn)賽模態(tài)動(dòng)作識(shí)別雙冠方案

    導(dǎo)讀 日前,計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域的三大頂級(jí)會(huì)議之一CVPR正在進(jìn)行,深蘭DeepBlueAI團(tuán)隊(duì)在動(dòng)作識(shí)別國(guó)際挑戰(zhàn)賽 (ActivityNet) 研討會(huì)上,參加了 MMAct 挑戰(zhàn)賽
    的頭像 發(fā)表于 06-25 10:53 ?2415次閱讀

    基于耦合字典學(xué)習(xí)與圖像正則化的模態(tài)檢索

    基于耦合字典學(xué)習(xí)與圖像正則化的模態(tài)檢索
    發(fā)表于 06-27 11:23 ?39次下載

    快速HAC聚類算法的改進(jìn)及應(yīng)用于監(jiān)督語音分割

    快速HAC聚類算法的改進(jìn)及應(yīng)用于監(jiān)督語音分割(電源輸入電容溫度高)-該文檔為快速HAC聚類算法的改進(jìn)及應(yīng)用于
    發(fā)表于 07-26 11:01 ?1次下載
    快速HAC聚類算法的改進(jìn)及應(yīng)<b class='flag-5'>用于</b><b class='flag-5'>無</b><b class='flag-5'>監(jiān)督</b>語音<b class='flag-5'>分割</b>

    改進(jìn)自適應(yīng)GACV的水下圖像分割算法研究

    改進(jìn)自適應(yīng)GACV的水下圖像分割算法研究(通信電源技術(shù)20年第13期)-基于改進(jìn)自適應(yīng)GACV的水下圖像
    發(fā)表于 09-22 15:32 ?11次下載
    改進(jìn)自<b class='flag-5'>適應(yīng)</b>GACV的水下<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>算法研究

    圖像關(guān)系型KD方法語義分割任務(wù)-CIRKD

    語義分割任務(wù)作為計(jì)算機(jī)視覺的基礎(chǔ)任務(wù)之一,其目的是對(duì)圖像的每一個(gè)像素進(jìn)行分類。該任務(wù)也被廣泛應(yīng)用于實(shí)踐,例如自動(dòng)駕駛和
    的頭像 發(fā)表于 05-10 11:30 ?2460次閱讀
    <b class='flag-5'>跨</b><b class='flag-5'>圖像</b>關(guān)系型KD方法語義<b class='flag-5'>分割</b>任務(wù)-CIRKD

    基于Diffusion Probabilistic Model的醫(yī)學(xué)圖像分割

    MedSegDiff 在原版 DPM 的基礎(chǔ)上引入了動(dòng)態(tài)條件編碼,增強(qiáng) DPM 在醫(yī)學(xué)圖像分割上的分步注意力能力。
    的頭像 發(fā)表于 05-04 18:14 ?4106次閱讀
    基于Diffusion Probabilistic Model的<b class='flag-5'>醫(yī)學(xué)</b><b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    CVPR 2023 | 完全無監(jiān)督的視頻物體分割 RCF

    TLDR: 視頻分割一直是重標(biāo)注的一個(gè) task,這篇 CVPR 2023 文章研究了完全不需要標(biāo)注的視頻物體分割。僅使用 ResNet,RCF模型在 DAVIS16/STv2/FBM
    的頭像 發(fā)表于 07-16 20:45 ?624次閱讀
    <b class='flag-5'>CVPR</b> <b class='flag-5'>2023</b> | 完全無<b class='flag-5'>監(jiān)督</b>的視頻物體<b class='flag-5'>分割</b> RCF