0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何用深度學(xué)習(xí)模型,模仿人類的教練過程?

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-08-17 08:31 ? 次閱讀

DeepMind日前公開了他們首款醫(yī)療AI落地產(chǎn)品,能診斷50多種眼疾,精度超越人類醫(yī)生。為了訓(xùn)練這個系統(tǒng),DeepMind 用了近1.5萬個人工標注的數(shù)據(jù)。盡管這項工作非常了不起,但從更廣闊的視角看,從不會學(xué)習(xí)的電子計算機,到需要大數(shù)據(jù)才能“教會”的深度學(xué)習(xí),有沒有可能更進一步,實現(xiàn)像人類一樣只需要小數(shù)據(jù)就能學(xué)習(xí)的方法?本文作者復(fù)星集團AI首席科學(xué)家、大數(shù)醫(yī)達創(chuàng)始人鄧侃博士認為,Deep Coaching 或許是一種可行之道。

DeepMind是Google旗下專注于人工智能研究的公司,DeepMind最出名的成就是AlphaGo系統(tǒng),它戰(zhàn)勝了當(dāng)今世界所有圍棋高手。

2018年8月13日,DeepMind一組研究員,在Nature Medicine上發(fā)表了一篇論文,題為“Clinically applicabledeep learning for diagnosis and referral in retinal disease”,用深度學(xué)習(xí)算法,學(xué)習(xí)視網(wǎng)膜疾病的診斷和轉(zhuǎn)診,并付諸臨床實踐。

這篇論文的內(nèi)容,媒體上已經(jīng)有不少報導(dǎo),似乎沒有必要進一步讀解。但是我們不妨退后幾步,用更廣闊的視角,審視從電子計算機到智能機器的演進。我們已經(jīng)實現(xiàn)了哪些成就,目前主要的障礙有哪些,并探討如何解決這些問題。

三位大師成就電子計算機,但只能服從指令不會學(xué)習(xí)

說到電子計算機,就必須仰望三位大師:圖靈、馮·諾依曼、香農(nóng)。

電子計算機與傳統(tǒng)機器的本質(zhì)區(qū)別是,計算機把指令與操作分離,機器預(yù)先不知道要進行哪些操作,根據(jù)實時下達的指令完成操作。而且,計算機還可以把一系列指令,編制成程序,動態(tài)地生成指令,讓機器完成更復(fù)雜的復(fù)合操作。

計算機的原理,由圖靈首創(chuàng)。用電子器件完成計算機的工程實現(xiàn),由馮·諾依曼首創(chuàng)。而數(shù)碼信息的通訊,包括編碼解碼和傳輸通道,由香農(nóng)首創(chuàng)。

但是,電子計算機只是機械地執(zhí)行程序賦予的指令,并不會像人類那樣思考,尤其是不會像人類那樣學(xué)習(xí)。

神經(jīng)網(wǎng)絡(luò)會“學(xué)習(xí)”,但需要大數(shù)據(jù),與人腦思考方式不符

那什么是“學(xué)習(xí)”?

有一種觀點認為,學(xué)習(xí)=函數(shù)擬合。如果把函數(shù)表達為y = f(x),又有一大堆訓(xùn)練數(shù)據(jù),也就是一大堆 (x,y)數(shù)組,那么學(xué)習(xí)過程,就是從訓(xùn)練數(shù)據(jù)中,得出對原函數(shù)的近似模擬

。

1940年代,科學(xué)家們模仿神經(jīng)元的解剖學(xué)構(gòu)造,發(fā)明了一種數(shù)據(jù)結(jié)構(gòu)——神經(jīng)元perceptron。科學(xué)家們發(fā)現(xiàn),把多個神經(jīng)元組合在一起,構(gòu)成神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)能夠表達幾乎任何函數(shù)。換而言之,神經(jīng)網(wǎng)絡(luò)是通用的函數(shù),學(xué)習(xí)的過程,等同于猜測神經(jīng)網(wǎng)絡(luò)的參數(shù)。海量訓(xùn)練數(shù)據(jù)的用途,在于不斷地優(yōu)化對神經(jīng)網(wǎng)絡(luò)參數(shù)的猜測,使神經(jīng)網(wǎng)絡(luò)能夠更好地模擬目標函數(shù)。

“學(xué)習(xí)”等于猜測神經(jīng)網(wǎng)絡(luò)的參數(shù),大數(shù)據(jù)用于不斷優(yōu)化對參數(shù)的猜測

但是,要表達復(fù)雜函數(shù),需要規(guī)模龐大的神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)包括上百層神經(jīng)元,每層包含幾千個神經(jīng)元。Geoffrey Hinton教授,給這種超大規(guī)模的神經(jīng)網(wǎng)絡(luò)取了一個名字——深度神經(jīng)網(wǎng)絡(luò)。

深度學(xué)習(xí)(Deep Learning)也是由此而來。

深度學(xué)習(xí)是一種通用的方法,能夠應(yīng)用在很多領(lǐng)域,尤其在圖像識別、語音識別、自然語言處理三大領(lǐng)域的應(yīng)用,與傳統(tǒng)方法相比較,深度學(xué)習(xí)取得了突破性的進展。

但是,深度學(xué)習(xí)經(jīng)常遭人詬病的弱點有三:

1.需要大量訓(xùn)練數(shù)據(jù)。譬如DeepMind昨天發(fā)表的論文中提到,他們用14,884個經(jīng)過人工標注的訓(xùn)練數(shù)據(jù)(醫(yī)學(xué)圖像),學(xué)習(xí)50 多種視網(wǎng)膜疾病的診斷。人工標注14,884張醫(yī)學(xué)圖像,工作量不小。但對于深度學(xué)習(xí)來說,經(jīng)常需要百萬級訓(xùn)練數(shù)據(jù)。從百萬數(shù)量級,降低到14,884張標注圖片,已經(jīng)是很了不起的進步了。

2.黑盒子。神經(jīng)網(wǎng)絡(luò)的內(nèi)部參數(shù),沒有明確的物理意義,無法用人類聽得懂的語言,解釋深度學(xué)習(xí)的結(jié)果。

3.沒有仿生學(xué)基礎(chǔ)。人類不需要幾萬張圖片的訓(xùn)練,就能學(xué)習(xí)掌握讀片的訣竅。很顯然,人類大腦的學(xué)習(xí)過程,與深度學(xué)習(xí)并不相符。

DeepMind的方法:分兩步降低數(shù)據(jù)量,符合人類醫(yī)生診斷習(xí)慣

DeepMind的改進方法,是把讀片分成兩步:第一步從原始圖像中,提取病灶特征,類似于人類醫(yī)生讀片報告中“檢查所見”的段落內(nèi)容;第二步根據(jù)檢查所見的病灶特征,用分類的辦法,診斷出罹患的疾病,類似于人類醫(yī)生撰寫的讀片報告中“檢查結(jié)論”的段落內(nèi)容。

把讀片分成兩步,好處有三,

1.把一大步分解為兩小步,每一小步的復(fù)雜度降低,導(dǎo)致神經(jīng)模型的規(guī)模降低,導(dǎo)致訓(xùn)練神經(jīng)模型所需的訓(xùn)練數(shù)據(jù)的數(shù)量降低。

論文自豪地聲稱,他們只用了14,884個經(jīng)過人工標注的訓(xùn)練數(shù)據(jù),就訓(xùn)練出了圖像識別系統(tǒng),其精度媲美人類醫(yī)生對視網(wǎng)膜疾病的診斷精度。

不同設(shè)備拍攝出的圖像效果不同,因此每一種設(shè)備,最好都配有自己專用的深度學(xué)習(xí)模型(也即N種設(shè)備有N個模型)。但是,這些模型的輸出,卻都是標準化的“檢查所見”的病灶特征。從標準化的病灶特征,到“檢查結(jié)論”的疾病診斷,只需要一個模型(因此,總共需要N+1個模型)。

雖然不同設(shè)備的專屬模型,理論上各不相同。但是在生成新設(shè)備的專屬模型時,可以在已經(jīng)生成了的其它設(shè)備的專屬模型的基礎(chǔ)上,做進一步調(diào)優(yōu)。調(diào)優(yōu)需要的訓(xùn)練數(shù)據(jù),數(shù)量大大降低。

2.通過分析診斷模型的參數(shù),可以窺探到哪些輸入的病灶特征,對診斷結(jié)果的影響更大。也就是說,可以基于從輸入到輸出的敏感性分析,來解釋深度學(xué)習(xí)模型的內(nèi)在邏輯。

3.把讀片的過程,從一個大步,分解為兩個小步(檢查所見與檢查結(jié)論),符合人類醫(yī)生讀片的習(xí)慣。

遺留的問題,是如何進一步降低對訓(xùn)練數(shù)據(jù)(人工標注過的醫(yī)學(xué)圖片)的數(shù)量要求,尤其是第一步,從不同設(shè)備拍攝的照片中,提取病灶特征。

深度教練:讓深度學(xué)習(xí)模仿人類教學(xué)過程,大幅減少訓(xùn)練數(shù)據(jù)

假如我們把深度學(xué)習(xí)(Deep Learning),改進為深度教練(Deep Coaching),或許可以大幅度降低對訓(xùn)練數(shù)據(jù)的數(shù)量要求。

深度教練(Deep Coaching)模仿人類老師指導(dǎo)人類學(xué)生的過程。

人類老師指著一張醫(yī)學(xué)圖片說:“看這里,這里是某種病灶。注意,某種病灶的形狀和紋理,具有這些特點?!?/p>

學(xué)生指著圖片中另一個區(qū)域說:“老師,這里也是病灶嗎?”

老師說:“不是的,因為病灶的面積太小?!?/p>

學(xué)生又指著圖片中第三個區(qū)域說:“老師,這里應(yīng)該是病灶了吧?”

。。。

如何用深度學(xué)習(xí)模型,模仿人類的教練過程?需要解決以下幾個問題:

1.如何識別形狀、紋理和大小?

形狀、紋理、大小,是圖像識別中的通用特征,有大量已經(jīng)被人工標注過了的圖片,可以用于模型的訓(xùn)練。問題在于如何窺探深度學(xué)習(xí)模型中哪一層的哪些神經(jīng)元,分別代表形狀、紋理和大小。這個問題,有多種解決方案,譬如dropout等等。

2.如何讓深度學(xué)習(xí)模型,理解“看這里,這里是某種病灶。注意,某種病灶的形狀和紋理,具有這些特點”。

沿用CNN的辦法,把整個圖像分割成若干小區(qū)域。然后對深度學(xué)習(xí)模型進行調(diào)參,盡可能放大病灶區(qū)域,與其它區(qū)域的差別,假設(shè)其它區(qū)域是無病灶區(qū)域。如果老師明確說,形狀和紋理是關(guān)鍵特征,那么對于深度學(xué)習(xí)模型而言,等同于先驗地放大相關(guān)參數(shù)的初始設(shè)置。

3.如何讓深度學(xué)習(xí)模型模仿學(xué)生,指著圖片中另一個區(qū)域說:“老師,這里也是病灶嗎?”

用第二步訓(xùn)練出來的模型,掃描整個圖像,標記出其它疑似病灶區(qū)域。

4.如何讓深度學(xué)習(xí)模型理解老師的糾正,“不是的,因為病灶的面積太小?!?/p>

等同于對深度學(xué)習(xí)模型進行調(diào)參,尤其是與病灶面積相關(guān)的參數(shù),使得模型的輸出正確。

。。。

完成深度教練的全部過程,應(yīng)該最多只需要幾十個回合。所需的訓(xùn)練數(shù)據(jù),也就是標注過的圖片,估計不超過十張。而且每張標注的圖片,不需要把所有病灶都標注出來。

深度學(xué)習(xí)vs深度教練的比較研究,似乎值得探討。

有志者,不妨來合作。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:深度教練:讓深度學(xué)習(xí)模擬人類教學(xué)過程,大幅減少訓(xùn)練數(shù)據(jù)和時間!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)中過擬合/欠擬合的問題及解決方案

    的數(shù)據(jù)可以對未來的數(shù)據(jù)進行推測與模擬,因此都是使用歷史數(shù)據(jù)建立模型,即使用已經(jīng)產(chǎn)生的數(shù)據(jù)去訓(xùn)練,然后使用該模型去擬合未來的數(shù)據(jù)。 在我們機器學(xué)習(xí)深度
    發(fā)表于 01-28 06:57

    labview調(diào)用深度學(xué)習(xí)tensorflow模型非常簡單,附上源碼和模型

    本帖最后由 wcl86 于 2021-9-9 10:39 編輯 `labview調(diào)用深度學(xué)習(xí)tensorflow模型非常簡單,效果如下,附上源碼和訓(xùn)練過
    發(fā)表于 06-03 16:38

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    到準備模型,然后再在邊緣的嵌入式系統(tǒng)上運行。訓(xùn)練深度學(xué)習(xí)模型過程的工作量和時間密集型部分,其中通過提供需要時間和
    發(fā)表于 10-27 06:34

    深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生?

    2017年,Esteva等人發(fā)表論文,宣布他們創(chuàng)建了一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,可以對圖片進行分類,其中CNN無需被人類的標準所限制,它可以將數(shù)字圖片分解成像素級水平,并最終進
    的頭像 發(fā)表于 06-30 08:40 ?2594次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>優(yōu)于<b class='flag-5'>人類</b>醫(yī)生?

    帶Dropout的訓(xùn)練過程

    Dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時從網(wǎng)絡(luò)中丟棄。
    的頭像 發(fā)表于 08-08 10:35 ?4251次閱讀
    帶Dropout的訓(xùn)<b class='flag-5'>練過程</b>

    模型深度強化學(xué)習(xí)應(yīng)用研究綜述

    深度強化學(xué)習(xí)(DRL)作為機器學(xué)習(xí)的重要分攴,在 Alphago擊敗人類后受到了廣泛關(guān)注。DRL以種試錯機制與環(huán)境進行交互,并通過最大化累積獎賞最終得到最優(yōu)策略。強化
    發(fā)表于 04-12 11:01 ?9次下載
    <b class='flag-5'>模型</b>化<b class='flag-5'>深度</b>強化<b class='flag-5'>學(xué)習(xí)</b>應(yīng)用研究綜述

    深度學(xué)習(xí)基本概念

    深度學(xué)習(xí)基本概念? 深度學(xué)習(xí)是人工智能(AI)領(lǐng)域的一個重要分支,它模仿人類神經(jīng)系統(tǒng)的工作方式,
    的頭像 發(fā)表于 08-17 16:02 ?2131次閱讀

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用 深度學(xué)習(xí)算法被認為是人工智能的核心,它是一種
    的頭像 發(fā)表于 08-17 16:03 ?2215次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?916次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    詳細介紹深度學(xué)習(xí)模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程
    的頭像 發(fā)表于 07-01 16:13 ?1411次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。CNN模型的核心是卷積層
    的頭像 發(fā)表于 07-02 15:26 ?3932次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領(lǐng)域取得了顯著進展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動學(xué)習(xí)并提取特征,進而實
    的頭像 發(fā)表于 07-03 16:06 ?1607次閱讀

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為一個開源的機器學(xué)習(xí)庫,以其動態(tài)計算圖、易于使用的API和強大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全
    的頭像 發(fā)表于 07-03 16:07 ?1126次閱讀

    利用Matlab函數(shù)實現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實現(xiàn)深度學(xué)習(xí)算法是一個復(fù)雜但強大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時間序列預(yù)測等。這里,我將概述一個基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準備、模型設(shè)計、訓(xùn)
    的頭像 發(fā)表于 07-14 14:21 ?2395次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?1048次閱讀