0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何利用深度學習修復醫(yī)療影像數(shù)據(jù)集

DPVg_AI_era ? 來源:未知 ? 作者:胡薇 ? 2018-05-20 10:07 ? 次閱讀

醫(yī)學圖像數(shù)據(jù)很難處理,經(jīng)常包含旋轉(zhuǎn)倒置的圖像。這篇文章介紹如何利用深度學習以最小的工作量來修復醫(yī)療影像數(shù)據(jù)集,緩解目前構(gòu)建醫(yī)療 AI 系統(tǒng)中收集和清洗數(shù)據(jù)成本大的問題。

醫(yī)學成像中,數(shù)據(jù)存儲檔案是基于臨床假設(shè)的。不幸的是,這意味著當你想要提取一個圖像時,比如一個正面的胸部x光片,你通常會獲得一個存儲了許多其他圖像的文件夾,并且沒有簡單的方法來對它們加以區(qū)分。

圖1:這些圖片來自于相同的文件夾是有道理的,因為在放射學中我們記錄的是病例而非圖像。這是病人受傷后,同時掃描的所有身體部位。

根據(jù)機構(gòu)的不同,你可能會得到水平或垂直翻轉(zhuǎn)的圖像。它們可能包含反向像素值。他們可能會旋轉(zhuǎn)。問題是,當處理一個巨大的數(shù)據(jù)集,比如5萬到十萬個圖像時,你怎么能在沒有醫(yī)生指導的情況下發(fā)現(xiàn)這些畸變呢?

您可以嘗試編寫一些優(yōu)雅的解決方案,比如:因為大多數(shù)胸部X光高度都比寬度高,因此在X光的兩側(cè)有黑色的邊界,所以如果底部有超過50個黑色的像素行,那么它可能旋轉(zhuǎn)了90度。

但和往常一樣,我們的經(jīng)驗失敗了。

圖2:這里只有中間的圖像有經(jīng)典的“黑色邊框”

這些脆弱的規(guī)則不能解決上述問題。

進入software 2.0,我們使用機器學習來構(gòu)建我們無法自行編碼的解決方案。像旋轉(zhuǎn)的圖像這樣的問題是embarrassingly learnable。這意味著機器可以像人類一樣完美地實現(xiàn)這些任務。

因此,顯而易見的解決辦法是使用深度學習來為我們修復數(shù)據(jù)集。在這篇文章中,我將向您展示這些技術(shù)的可應用領(lǐng)域,如何用最少的努力做到這一點,并展示一些使用方法的示例。舉個例子,我將使用Wang等人開發(fā)的CXR14數(shù)據(jù)集,它看起來是經(jīng)過精心策劃的,但有時仍然包含一些糟糕的圖片。如果你使用CXR14數(shù)據(jù)集,我們甚至可以給你包含430個新標簽的數(shù)據(jù)集,這樣你就不用擔心那些糟糕的圖片了!

如此尷尬的問題

我們真正需要問的第一個問題是現(xiàn)在的問題是embarrassingly learnable么?

考慮到大多數(shù)的研究都是正常的,你需要一個非常高的精確度來防止排除那些“好“的研究。我們應該瞄準99.9%的目標。

很酷的一點是,對于視覺上可以識別的問題,它很簡單,我們也可以很好地解決。一個很好的問題是“你能想象一個單一的視覺規(guī)則來解決這個問題嗎?”“ImageNet數(shù)據(jù)集的主要目的就是區(qū)分區(qū)分狗和貓,而解決辦法也肯定不是這樣。

有太多的變化,有太多的相似之處。我經(jīng)常在演講中使用這個例子:我甚至無法想象如何編寫規(guī)則來直觀地區(qū)分這兩種類型的動物。這并不是令人embarrassingly learnable。

但在醫(yī)學數(shù)據(jù)中,許多問題其實很簡單。因為醫(yī)學圖像的變化是很小的。解剖學、角度、光線、距離和背景都很穩(wěn)定。為了說明這一點,讓我們看一個來自CXR14的簡單示例。在數(shù)據(jù)集中的普通胸部x光中,有一些是旋轉(zhuǎn)的(這在標簽中沒有被識別,所以我們不知道是哪一個)。它們可以旋轉(zhuǎn)90度左右,或180度的上下顛倒。

這是embarrassingly learnable么?

圖3:旋轉(zhuǎn)和垂直的胸部x光的區(qū)別真的非常簡單

答案是肯定的。從視覺上看,異常的研究與正常的研究完全不同。你可以使用一個簡單的視覺規(guī)則,比如“肩膀應該高于心臟”,你會在所有的樣例上得到驗證。鑒于解剖學是非常穩(wěn)定的,而且所有人都有肩膀和心臟,這應該是一個可學習的卷積神經(jīng)網(wǎng)絡規(guī)則。

“嗷嗷待哺”的數(shù)據(jù)

我們要問的第二個問題是:我們有足夠的訓練數(shù)據(jù)嗎?

在旋轉(zhuǎn)圖像的情況下,我們當然有足夠的數(shù)據(jù),我們可以進行數(shù)據(jù)生成。我們所需要的只是幾千個普通的胸部x光片,然后隨機旋轉(zhuǎn)。例如,如果你使用的是numpy數(shù)組,你可能會使用這樣的函數(shù):

def rotate(image):

rotated_image = np.rot90(image, k = np.random.choice(range(1,4)), axes = (1,2))

return rotated_image

這只是在順時針方向旋轉(zhuǎn)90 ,180度或270度。在這種情況下通常繞著第二和第三個軸旋轉(zhuǎn),因為第一個軸是通道的數(shù)量(根據(jù)theano矩陣維度的約定)。

注意:在這種情況下,CXR14數(shù)據(jù)集中幾乎沒有旋轉(zhuǎn)的圖像,所以不小心地“糾正”了已經(jīng)旋轉(zhuǎn)的圖像的幾率非常小。我們可以假設(shè)數(shù)據(jù)中沒有旋轉(zhuǎn)圖像,這樣有利于模型的學習。如果大量的不正常圖像,那么你最好同時選擇正常和不正常的圖像。因為像旋轉(zhuǎn)這樣的問題很容易被識別的,我發(fā)現(xiàn)我可以在一個小時內(nèi)給出幾千個標簽,所以這并不需要花費太多的精力。由于這些問題很簡單,我經(jīng)常發(fā)現(xiàn)我只需要幾百個例子來“解決”這個挑戰(zhàn)。

所以我們建立了一個正常圖像的數(shù)據(jù)集,旋轉(zhuǎn)其中的一半,并相應地標記它們。在我的例子中,我選擇了4000個訓練用例,其中2000個是旋轉(zhuǎn)的,2000個驗證集案例中有1000個是經(jīng)過旋轉(zhuǎn)處理的。這似乎是一個相當數(shù)量的數(shù)據(jù)(記住,根據(jù)經(jīng)驗法則,在將誤差考慮在范圍之內(nèi),1000個例子可能是好的,而且它適合于RAM,所以很容易在我的家用電腦上進行訓練。

為了在機器學習中有一個有趣的變化,我不需要一個單獨的測試集。證明在Pudding中可見:我將在整個數(shù)據(jù)集上運行這個模型,并通過對數(shù)據(jù)進行檢查來獲得測試結(jié)果。

總的來說,進行這類工作可以使我們的生活變得輕松。我縮小圖像到256 x 256像素,因為旋轉(zhuǎn)檢測看起來不需要高分辨率,我使用一個經(jīng)過預先訓練的resnet50,它以keras作為基礎(chǔ)網(wǎng)絡。對于使用預先訓練的網(wǎng)絡,并沒有一個明確的理由,因為幾乎所有你使用的網(wǎng)絡都會在一個簡單的解決方案上得到收斂,但是它很簡單,并且不會導致任何速度的減慢,因為無論如何訓練時間都是快的。我使用了一組默認的參數(shù),因為我不為這個簡單的任務需要做任何調(diào)優(yōu)。

您可以使用手邊的任何網(wǎng)絡和編碼。一個VGG-net就行。一個densenet也可以。實際上,任何網(wǎng)絡都是可以實現(xiàn)這個任務的。

在幾十輪的迭代后,我在驗證集上得到了我期待的結(jié)果:

pIYBAFsA2RyAN6QCAACMuX1WXEI117.png

圖4:AUC = 0.999, ACC = 0.996, PREC = 0.998, REC = 0.994 ?

很好,如果這是一項embarrassingly learnable任務,我發(fā)現(xiàn)的正是我所期待的。

結(jié)果檢驗

就像我之前說過的,在醫(yī)學圖像分析中,我們總是需要檢查我們的結(jié)果。通過對照圖片,確保模型或過程實現(xiàn)了你的目標。

因此,最后一步是在整個數(shù)據(jù)集上運行模型,進行預測,然后排除旋轉(zhuǎn)的研究。因為在數(shù)據(jù)中幾乎沒有旋轉(zhuǎn)的研究,盡管我知道這樣做以后,召回率會非常高,我可以簡單地看一下所有被預測旋轉(zhuǎn)的圖像。

如果這是一個有大量異常圖像的問題,比方說包括了超過5%的異常數(shù)據(jù),那么收集幾百個隨機的案例并手工標記一個測試集就會更有效率,然后你就可以跟蹤你的模型在適當?shù)闹笜松系木_度。

我特別關(guān)心的是任何被認為是旋轉(zhuǎn)過的正常研究(假陽性),因為我不想失去有價值的訓練案例。這實際上一個超出你想象的擔憂,因為這個模型很可能會過度調(diào)用特定類型的病例(可能是那些病人懶散和傾斜時記錄的病例),如果我們排除這些規(guī)則,我們將引入偏差數(shù)據(jù),不再有“真實世界”的代表數(shù)據(jù)集。這顯然對醫(yī)療數(shù)據(jù)很重要,因為我們的目標是構(gòu)建能夠在真正的診所工作的系統(tǒng)。

該模型總共將171個案例識別為“旋轉(zhuǎn)”的圖像。有趣的是,它實際上是一個“異?!?a target="_blank">探測器,識別出許多實際上并沒有旋轉(zhuǎn)的異常情況。這是有道理的,因為它可能是在學習解剖學上的里程碑。任何不正常的東西,比如旋轉(zhuǎn)的電影或其他身體部位的x光,相比較于這場模型都被標記了不同的標簽。所以我們得到的結(jié)果比找到不正常旋轉(zhuǎn)的圖像要多得多。

在171個被選中的預測中,51個是被旋轉(zhuǎn)過的前胸x光片。鑒于患病率低得離譜(120,000個中有51個),這已經(jīng)是一個非常低的假正率了。

圖5:旋轉(zhuǎn)胸片的例子

在剩下的120個病例中,56個不是正面的胸片。主要是側(cè)面照和腹部x光片。不管怎樣,我還是想把這些都去掉。

其余的呢?有一種混合的研究,就是圖像包含大量黑色或白色的邊界,淘汰性研究,也就是說整個圖像都是灰色的,反向像素水平的研究,等等。

總的來說,有大約10個研究,我稱之為“假陽性”(意思是挑出的圖像是我可能想要保存的正面x射線)。值得慶幸的是,即使你想把它們重新加起來,只有171個預測,因此容易進行人工管理。

所以旋轉(zhuǎn)檢測器看起來像是部分地解決了一些其他的問題(比如像素值的反轉(zhuǎn))。要知道它有多好,我們需要檢查它是否漏掉了其他壞的情況。我們可以測試這個,因為像素值的反轉(zhuǎn)很容易生成數(shù)據(jù)(對于圖像中的x,x=max-x)。

此處需要再一次提及embarrassingly learnable問題。在這種情況下,在沒有機器學習的情況下,可能有一些方法可以做到這一點(柱狀圖應該看起來很不一樣),但這也很簡單。

那么,這個特定的探測器是否發(fā)現(xiàn)了比旋轉(zhuǎn)探測器更多的逆序呢?是的。旋轉(zhuǎn)探測器在整個數(shù)據(jù)集中發(fā)現(xiàn)了4個,而反演探測器發(fā)現(xiàn)了38個反向研究。所以旋轉(zhuǎn)探測器只發(fā)現(xiàn)了部分差的研究。

書歸正傳:訓練單個模型來解決每個問題是正確的方法。

所以,我們需要特定的模型來完成額外的數(shù)據(jù)清洗任務。

滴水穿石

為了證明少量的標簽數(shù)據(jù)是有用的,我使用旋轉(zhuǎn)檢測器(n=56)拍攝了橫向和不良區(qū)域的影片,并在它們上面訓練了一個新模型。由于我沒有很多數(shù)據(jù),我決定用HOGwild,并且不使用驗證集。由于這些任務是embarrassingly learnable,一旦它接近100%,它的泛化能力會有很好的表現(xiàn)。顯然這里有過度訓練的風險,但我仍然選擇冒險。

實驗證明結(jié)果非常好!我還發(fā)現(xiàn)了另外幾百個側(cè)面圖像,腹部圖像和一些骨盆的圖像。

顯然,如果我從頭開始構(gòu)建這個數(shù)據(jù)集,它解決這個問題會更容易,因為我可以獲得很多相關(guān)的非正面胸部圖像。對我來說,要比現(xiàn)在做得更好,我需要從我當?shù)氐尼t(yī)院檔案中提取出一系列的圖像,這超出了這篇文章的論述范圍。所以我不能確定我取得了大部分的成就,但是從這樣一個小的數(shù)據(jù)集里,這是一個相當不錯的努力。

除了關(guān)于CXR14的數(shù)據(jù)外,我注意到的一件事是,我的模型在兒童的圖像上的表現(xiàn)很差。這些兒科圖像在外觀上與成人圖像是不同的,它們被旋轉(zhuǎn)探測器、倒置探測器和bad-部分探測器識別為“異?!?。我建議他們應該被忽略,但是隨著病人年齡被包含在標簽中,這樣就可以在沒有深入學習的情況下完成??紤]到在5歲以下的數(shù)據(jù)集中,只有286個病人,我個人會把所有的病人排除在外,除非我特別想要研究那個年齡段的病人并且真正知道我在做什么,從醫(yī)學成像的角度來看。實際上,我可能會把所有10歲以下的人排除在外,因為這是一個合理的年齡,可以考慮到體型和病理特征更“成熟”。在10歲以下的人群中,約有1400例,約占1%。

書歸正傳:

小兒胸部X光與成人非常不同??紤]到低于10歲的數(shù)據(jù)只占大約1%的數(shù)據(jù),除非有很好的理由,否則應該排除它們。

糟糕的定位和放大的圖像可能會成為一個問題,但這是取決任務的,武斷地定義一個“壞圖像”對于所有任務來說都是不可能的,這不是我想做的。還有一件事是特定于任務的。

總的來說,使用深度學習來解決簡單的數(shù)據(jù)清理問題效果很好。 經(jīng)過大約一個小時的時間,我已經(jīng)清理了數(shù)據(jù)集中大部分旋轉(zhuǎn)和倒置的圖像。我可能已經(jīng)確定了很大一部分的橫向圖像和其他身體部位的圖像,雖然我確信我需要為他們建立特定的探測器。如果沒有原始數(shù)據(jù),這對于這篇簡單博客來說太長了。

從更廣泛的角度來看CXR14數(shù)據(jù),它沒有太多的圖像錯誤。美國國家衛(wèi)生研究院的團隊很好地整理了他們的數(shù)據(jù)。然而在醫(yī)療數(shù)據(jù)集里,情況并非總是如此,如果你想要建立高性能的醫(yī)療人工智能系統(tǒng),就一定需要利用臨床基礎(chǔ)設(shè)施來處理研究任務的噪音。

進一步考慮

到目前為止,我們已經(jīng)解決了一些非常簡單的挑戰(zhàn),但并不是我們在醫(yī)學成像中遇到的所有問題都這么簡單。

我們的團隊在構(gòu)建大型髖部骨折數(shù)據(jù)集時應用了這些技術(shù)。我們排除了來自其他身體區(qū)域的圖像,我們排除了植入金屬的病例,如髖關(guān)節(jié)置換,我們還放大了臀部區(qū)域,刪除了與我們的問題無關(guān)的圖像區(qū)域,如髖部骨折不發(fā)生在臀部的情況。

我們是通過一個自動文本挖掘過程來實現(xiàn)金屬排除的問題的,這些假肢幾乎總是在出現(xiàn)的同時被發(fā)現(xiàn),所以我發(fā)現(xiàn)了與植入物有關(guān)的關(guān)鍵字。這些標簽是在10分鐘左右被創(chuàng)建的。

在身體部分的錯誤檢測和錯誤的邊界框預測的情況下,我們沒有辦法自動生成標簽。所以直接進行手工處理。即使是像邊界框預測這樣復雜的東西(這確實是一個解剖學上的里程碑式的鑒定任務),我們只需要大約750個案例,每個數(shù)據(jù)集只花了一個小時左右的時間。

在這種情況下,我們使用人工標記的測試集來對結(jié)果進行量化。從我們的一篇論文中:

pIYBAFsA2R2AcIkpAACkn2vZhBs154.png

考慮到對骨折問題的標記需要幾個月的時間,花費額外的一個或兩個小時來獲得一個干凈的數(shù)據(jù)集是一個很小的代價。而且該系統(tǒng)現(xiàn)在可以接受任何臨床圖像,并且通過利用我們的知識可以自動排除無關(guān)或低質(zhì)量的圖像。這正是一個醫(yī)學人工智能系統(tǒng)如何在現(xiàn)實應用的案例,除非你想雇一個人來為你處理模型所分析的所有圖像。

總結(jié)

我們都認為深度神經(jīng)網(wǎng)絡和人類解決視覺問題一樣好,只要有足夠的數(shù)據(jù)。然而,“足夠的數(shù)據(jù)”在很大程度上取決于任務的難度。

對于醫(yī)學圖像分析問題的一個分支,它是我們在構(gòu)建醫(yī)學數(shù)據(jù)集時經(jīng)常需要解決的問題,任務非常簡單,這使得問題很容易用少量的數(shù)據(jù)來解決。通常,模型只需要不到一個小時的時間來識別圖像,而醫(yī)生卻需要花費幾個小時的時間來對每個數(shù)據(jù)集進行人工處理。

作為該方法的證明并用于感謝閱讀我博客的讀者,我已經(jīng)提供了一組約430張不良圖像的標簽,以排除CXR14數(shù)據(jù)集,并建議排除約1400名10歲以下兒童,除非你真的知道你為什么要保留這些數(shù)據(jù)。這不會改變?nèi)魏握撐牡慕Y(jié)果,但這些數(shù)據(jù)集的圖像清晰度越高越好。

我在這里所展示的結(jié)論沒有任何技術(shù)上的創(chuàng)新,這就是為什么我不寫一篇相關(guān)的正式論文的原因。但對于我們這些正在構(gòu)建新數(shù)據(jù)集的人,特別是那些沒有深度學習經(jīng)驗的醫(yī)生,我希望這可能會引發(fā)一些關(guān)于軟件2.0如何能夠以數(shù)量級的方式解決您的數(shù)據(jù)問題的想法,因為它比手動方法更省力。目前構(gòu)建令人驚嘆的醫(yī)療AI系統(tǒng)的主要障礙是收集和清理數(shù)據(jù)的巨大成本,在這種情況下,深度神經(jīng)網(wǎng)絡確實沒太大的用處。

我在Windows文件資源管理器中檢查了我所有的圖像!

我在這個博客文章的結(jié)尾附加了我的地址,我在我的空間中進行旋轉(zhuǎn)探測器的預測。

我只是將我想要看到的案例轉(zhuǎn)移到一個新文件夾,然后打開文件夾(使用“超大圖標”的視圖模式)。這種尺寸的圖像大約是屏幕高度的四分之一,而且在大多數(shù)屏幕上都大到可以檢測到旋轉(zhuǎn)等大的異常。當我用大的異常標記圖像時,我只是按下ctrl鍵點擊文件夾中的所有例子,然后將它們剪切/粘貼到一個新文件夾中。這就是我如何做到每小時1000個數(shù)據(jù)處理的的秘密。

就像這個系統(tǒng)的janky一樣,它比我從網(wǎng)上的repos或自己編寫的大多數(shù)東西都要好得多。

用于移動文件的python代碼非常簡單,但在構(gòu)建數(shù)據(jù)時是我最常用的代碼,所以我想我應該包括它:

pos = rotation_labs[rotation_labs[‘Preds’] > 0.5]

在這種情況下,rotationlabs是一個panda的dataframe,它存儲圖像索引/文件名和該案例的模型預測。我把它的子集變成了一個只有正例的dataframe。

for i in pos[‘Index’]:

fname = “F:/cxr8/chest xrays/images/” + i

shutil.copy(fname, “F:/cxr8/data building/rotation/”)

所有這些都是將相關(guān)的圖像復制到我所做的一個名為“rotation”的文件夾中。

然后我就可以去那個文件夾看一看。如果我做了一些手工管理,想要把這些圖像重新讀出來,那么它就很簡單了:

new_list = os.listdir(“F:/cxr8/data building/rotation/”)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 醫(yī)療影像
    +關(guān)注

    關(guān)注

    1

    文章

    89

    瀏覽量

    19257
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121353

原文標題:實用:用深度學習方法修復醫(yī)學圖像數(shù)據(jù)集

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    #硬聲創(chuàng)作季 #深度學習 深度學習基礎(chǔ)-1.2.1 數(shù)據(jù)及其拆分

    數(shù)據(jù)深度學習
    水管工
    發(fā)布于 :2022年10月27日 17:48:02

    2017全國深度學習技術(shù)應用大會

    ?! ?4、報告題目:深度學習醫(yī)療影像數(shù)據(jù)分析  報 告 人:趙地,中國科學院計算機網(wǎng)絡信息中心(CNIC),副研究員  報告摘要:
    發(fā)表于 03-22 17:16

    深度學習數(shù)據(jù)挖掘的關(guān)系

    ;而深度學習使用獨立的層、連接,還有數(shù)據(jù)傳播方向,比如最近大火的卷積神經(jīng)網(wǎng)絡是第一個真正多層結(jié)構(gòu)學習算法,它利用空間相對關(guān)系減少參數(shù)數(shù)目以提
    發(fā)表于 07-04 16:07

    計算機視覺/深度學習領(lǐng)域常用數(shù)據(jù)匯總

    `深度學習領(lǐng)域的“Hello World!”,入門必備!MNIST是一個手寫數(shù)字數(shù)據(jù)庫,它有60000個訓練樣本集和10000個測試樣本集,每個樣本圖像的寬高為28*28。此數(shù)據(jù)
    發(fā)表于 08-29 10:36

    深度學習中開發(fā)和測試的定義

    圖片均取自網(wǎng)站,這就導致了算法不能夠很好地泛化(generalize)到我們所關(guān)心的手機圖片的實際分布(actual distribution)情況上。在大數(shù)據(jù)時代來臨前,機器學習中的普遍做法
    發(fā)表于 11-30 16:58

    如何利用FPGA實現(xiàn)醫(yī)療影像設(shè)計?

    推動力量。為實現(xiàn)這些行業(yè)目標所需要的功能,設(shè)備開發(fā)人員開始采用提供FPGA支持、可更新的現(xiàn)成商用(COTS) CPU平臺進行數(shù)據(jù)采集和協(xié)處理。在靈活高效地開發(fā)可更新醫(yī)療影像設(shè)備時,需要考慮幾個因素,包括
    發(fā)表于 08-23 08:21

    怎么利用FPGA實現(xiàn)醫(yī)療影像?

    推動力量。為實現(xiàn)這些行業(yè)目標所需要的功能,設(shè)備開發(fā)人員開始采用提供FPGA支持、可更新的現(xiàn)成商用(COTS) CPU平臺進行數(shù)據(jù)采集和協(xié)處理。在靈活高效地開發(fā)可更新醫(yī)療影像設(shè)備時,需要考慮幾個因素,包括
    發(fā)表于 08-26 06:29

    如何開發(fā)醫(yī)療影像的算法?

    醫(yī)療影像技術(shù)在醫(yī)療保健行業(yè)扮演了越來越重要的角色。這一行業(yè)的發(fā)展趨勢是通過非置入手段來實現(xiàn)早期疾病預測和治療,降低病人開支。多種診斷影像方法的融合以及算法開發(fā)的進步是設(shè)計新設(shè)備來滿足病
    發(fā)表于 10-11 06:11

    醫(yī)療影像的算法有哪些?

    醫(yī)療影像技術(shù)在醫(yī)療保健行業(yè)扮演了越來越重要的角色。這一行業(yè)的發(fā)展趨勢是通過非置入手段來實現(xiàn)早期疾病預測和治療,降低病人開支。多種診斷影像方法的融合以及算法開發(fā)的進步是設(shè)計新設(shè)備來滿足病
    發(fā)表于 10-15 07:34

    深度學習入門之中根據(jù)源代碼下載到mnist數(shù)據(jù),訓練識別率超級低問題

    深度學習入門 中根據(jù)源代碼下載到mnist數(shù)據(jù),訓練識別率超級低問題
    發(fā)表于 07-08 16:53

    什么是智能影像辨識系統(tǒng)?

    深度學習(Deep Learning)在各種不同應用領(lǐng)域上強大的效能令人驚嘆,影像辨識是目前深度學習技術(shù)應用最廣泛的,大量的數(shù)字
    發(fā)表于 06-15 07:51

    谷歌FHIR標準協(xié)議利用深度學習預測醫(yī)療事件發(fā)生

    使用電子健康記錄(EHR)數(shù)據(jù)的預測建模預計將推動個人化醫(yī)療并提高醫(yī)療質(zhì)量。谷歌發(fā)布消息稱已經(jīng)開源該協(xié)議緩沖區(qū)工具。谷歌FHIR標準協(xié)議利用深度
    發(fā)表于 03-07 17:14 ?8049次閱讀
    谷歌FHIR標準協(xié)議<b class='flag-5'>利用</b><b class='flag-5'>深度</b><b class='flag-5'>學習</b>預測<b class='flag-5'>醫(yī)療</b>事件發(fā)生

    醫(yī)學影像AI進入后深度學習時代 市場規(guī)模不斷擴大

    深度學習技術(shù)在圖像領(lǐng)域的突破使得在醫(yī)療影像中應用AI技術(shù)進行輔助診斷即將普及,在后深度學習時代,
    發(fā)表于 05-24 16:47 ?2819次閱讀

    基于深度學習的圖像修復模型及實驗對比

    深度學習技術(shù)在解決¨大面積缺失圖像修復”問題時具有重要作用并帶來了深遠影響,文中在簡要介紹傳統(tǒng)圖像修復方法的基礎(chǔ)上,重點介紹了基于深度
    發(fā)表于 04-08 09:38 ?20次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的圖像<b class='flag-5'>修復</b>模型及實驗對比

    基于深度學習的遙感影像典型要素提取方法

    為提取髙分辨率遙感影像的典型要素(建筑物及道路),基于深度學習,提出一種語義分割與全連接條件隨機場(CRF)相結(jié)合的提取方法。以 Deeplabv3+作為語義分割模型,提取較完整圖像分割信息,并將
    發(fā)表于 06-03 10:29 ?4次下載