0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳細(xì)剖析神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

zhKF_jqr_AI ? 2017-12-27 17:20 ? 次閱讀

深度網(wǎng)絡(luò),顧名思義,就是有“很多”層的網(wǎng)絡(luò)。

那么到底多少層算深度呢?這個(gè)問(wèn)題可能沒(méi)有一個(gè)明確的答案。某種意義上,這個(gè)問(wèn)題類似“有多少粒沙子才能算沙丘”。但是,一般而言,我們把有兩層或兩層以上隱藏層的網(wǎng)絡(luò)叫做深度網(wǎng)絡(luò)。相反,只有一個(gè)隱藏層的網(wǎng)絡(luò)通常被認(rèn)為是“淺度網(wǎng)絡(luò)”。當(dāng)然,我懷疑我們也許會(huì)經(jīng)歷網(wǎng)絡(luò)層數(shù)的通貨膨脹。十年之后,人們也許會(huì)認(rèn)為10層隱藏層的網(wǎng)絡(luò)都是“淺度網(wǎng)絡(luò)”,只適合幼兒園小孩做練習(xí)用。非正式的說(shuō)法,“深度”暗示應(yīng)對(duì)這樣的網(wǎng)絡(luò)比較困難。

詳細(xì)剖析神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

但是,你真正想問(wèn)的問(wèn)題,其實(shí)是為什么更多的隱藏層有用?

多少讓人吃驚的是,其實(shí)沒(méi)人知道真正的原因。下面我將簡(jiǎn)要地介紹一些常見(jiàn)的解釋,但是這些解釋的真實(shí)性還不能令人信服。我們甚至都不能確信更多的層真的起到了作用。

我說(shuō)這讓人吃驚,是因?yàn)?a target="_blank">深度學(xué)習(xí)在業(yè)界非常流行,年年在圖像辨識(shí)、圍棋、自動(dòng)翻譯等很多領(lǐng)域突破記錄。然而我們卻始終不清楚深度學(xué)習(xí)的效果為什么這么好。

通用逼近理論(universal approximation theorem)表明,一個(gè)“淺度”神經(jīng)網(wǎng)絡(luò)(有一個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò))可以逼近任何函數(shù),也就是說(shuō),淺度神經(jīng)網(wǎng)絡(luò)原則上可以學(xué)習(xí)任何東西。因此可以逼近許多非線性激活函數(shù),包括現(xiàn)在深度網(wǎng)絡(luò)廣泛使用的ReLu函數(shù)。

既然如此,為什么大家還要用深度網(wǎng)絡(luò)?

好吧,一個(gè)樸素的回答是因?yàn)樗鼈冃Ч?。下圖是Goodfellow等著《深度學(xué)習(xí)》中的一張圖片,表明對(duì)某個(gè)特定問(wèn)題而言,隱藏層越多,精確度越高。在其他許多任務(wù)和領(lǐng)域中同樣可以觀察到這個(gè)現(xiàn)象。

詳細(xì)剖析神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

我們知道一個(gè)淺度網(wǎng)絡(luò)本可以做得和深度網(wǎng)絡(luò)一樣好,但是事實(shí)往往并非如此。問(wèn)題來(lái)了——為什么?可能的答案包括:

也許一個(gè)淺度網(wǎng)絡(luò)需要比深度網(wǎng)絡(luò)更多的神經(jīng)元?

也許我們目前的算法不適合訓(xùn)練淺度網(wǎng)絡(luò)?

也許我們通常試圖解決的問(wèn)題不適合淺度網(wǎng)絡(luò)?

其他原因?

Goodfellow等著《深度學(xué)習(xí)》為上面的第一個(gè)和第三個(gè)答案提供了一些理由。淺度網(wǎng)絡(luò)的神經(jīng)元數(shù)量將隨著任務(wù)復(fù)雜度的提升進(jìn)行幾何級(jí)數(shù)的增長(zhǎng),因此淺度網(wǎng)絡(luò)要發(fā)揮作用,會(huì)變得很大,很可能比深度網(wǎng)絡(luò)更大。這個(gè)理由的依據(jù)是很多論文都證明了在某些案例中,淺度網(wǎng)絡(luò)的神經(jīng)元數(shù)量將隨著任務(wù)復(fù)雜度的提升進(jìn)行幾何級(jí)數(shù)的增長(zhǎng),但是我們并不清楚這一結(jié)論是否適用于諸如MNIST分類和圍棋這樣的任務(wù)。

關(guān)于第三個(gè)答案,《深度學(xué)習(xí)》一書是這么說(shuō)的:

選擇深度模型編碼了一個(gè)非常通用的信念,我們想要學(xué)習(xí)的函數(shù)應(yīng)該涉及若干較簡(jiǎn)單的函數(shù)的組合。從表征學(xué)習(xí)的視角來(lái)說(shuō),我們相信正學(xué)習(xí)的問(wèn)題包括發(fā)現(xiàn)一組差異的底層因素,這些因素可以進(jìn)一步用其他更簡(jiǎn)單的差異的底層因素來(lái)描述。

我認(rèn)為目前的“共識(shí)”是上述第一個(gè)和第三個(gè)答案的組合是深度網(wǎng)絡(luò)有效的原因。

但是這離證明還很遠(yuǎn)。2015年提出的150+層的殘差網(wǎng)絡(luò)贏得了多項(xiàng)圖像辨識(shí)競(jìng)賽的冠軍。這是一個(gè)巨大的成功,看起來(lái)是一個(gè)令人難以抗拒的越深越好的論據(jù)。

詳細(xì)剖析神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

然而,2016年提出的廣殘差網(wǎng)絡(luò)(Wide Residual Networks)以16層的網(wǎng)絡(luò)超越了150+層的殘差網(wǎng)絡(luò)。

Ba和Caruana在2014年發(fā)表的論文《Do Deep Nets Really Need to be Deep?》(深度網(wǎng)絡(luò)真的需要那么深嗎?)通過(guò)模型壓縮方案,用淺度網(wǎng)絡(luò)模擬一個(gè)訓(xùn)練好的深度網(wǎng)絡(luò),對(duì)某些深度網(wǎng)絡(luò)而言,模擬它們的淺度網(wǎng)絡(luò)能表現(xiàn)得一樣好,盡管直接在相應(yīng)數(shù)據(jù)集上訓(xùn)練淺度網(wǎng)絡(luò)無(wú)法達(dá)到這樣的表現(xiàn)。

所以,也許真正的答案是上文提到的第二個(gè)答案。

正如我一開(kāi)始說(shuō)的那樣,現(xiàn)在還沒(méi)人確定自己知道真正的答案。

過(guò)去10年來(lái),深度學(xué)習(xí)方面的進(jìn)展令人驚嘆!然而,大多數(shù)進(jìn)展是通過(guò)試錯(cuò)法得到的,我們?nèi)匀蝗狈?duì)到底是什么讓深度網(wǎng)絡(luò)起效的基本理解。甚至,對(duì)到底什么是配置高效的深度網(wǎng)絡(luò)的關(guān)鍵這個(gè)問(wèn)題,人們的答案也經(jīng)常變來(lái)變?nèi)ァ?/p>

Geoffrey Hinton在神經(jīng)網(wǎng)絡(luò)方面工作了20+年,卻長(zhǎng)期沒(méi)有得到多少關(guān)注。直到2006年發(fā)表了一系列突破性的論文,介紹了訓(xùn)練深度網(wǎng)絡(luò)的有效技巧——在梯度下降前先進(jìn)行無(wú)監(jiān)督預(yù)訓(xùn)練。之后很久的一段時(shí)間人們都認(rèn)為無(wú)監(jiān)督預(yù)訓(xùn)練是關(guān)鍵。

接著,在2010年Martens表明Hessian-free優(yōu)化的效果更好。在2013年,Sutskever等人表明隨機(jī)梯度下降加上一些非常聰明的技巧能表現(xiàn)得更好。同時(shí),在2010年大家意識(shí)到用ReLu代替Sigmoid能顯著改善梯度下降的表現(xiàn)。2014年提出了dropout。2015年提出了殘差網(wǎng)絡(luò)。人們提出了越來(lái)越多有效的訓(xùn)練網(wǎng)絡(luò)的方法,10年前至關(guān)重要的洞見(jiàn)在今天常常被人厭煩。這些大部分都是由試錯(cuò)法驅(qū)動(dòng)的,我們對(duì)為什么某種技巧效果這么好,另一種技巧效果不那么好知之甚少。

我們甚至不知道為什么深度網(wǎng)絡(luò)達(dá)到表現(xiàn)高原;10年前人們歸咎于極小值,但現(xiàn)在人們不這么看了(達(dá)到表現(xiàn)高原時(shí)梯度趨向于保持一個(gè)較大值)。這是一個(gè)非常基本的有關(guān)深度網(wǎng)絡(luò)的問(wèn)題,而我們甚至連這也不知道。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:CrossValidated問(wèn)答:神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)有什么不一樣?

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)資料

    基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 05-16 17:25

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用轉(zhuǎn)載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學(xué)習(xí)是機(jī)器學(xué)習(xí)和人工智能研究的最新趨勢(shì),作為一個(gè)
    發(fā)表于 08-02 10:39

    【人工神經(jīng)網(wǎng)絡(luò)基礎(chǔ)】為什么神經(jīng)網(wǎng)絡(luò)選擇了“深度”?

    由 Demi 于 星期四, 2018-09-06 09:33 發(fā)表 現(xiàn)在提到“神經(jīng)網(wǎng)絡(luò)”和“深度神經(jīng)網(wǎng)絡(luò)”,會(huì)覺(jué)得兩者沒(méi)有什么區(qū)別神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 09-06 20:48 ?692次閱讀

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識(shí)。就目前而言,神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的核心,我們所熟知的很多深度學(xué)習(xí)算法的背后其實(shí)都
    的頭像 發(fā)表于 02-23 09:14 ?3539次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動(dòng)調(diào)整神經(jīng)元之間的權(quán)重,從而實(shí)現(xiàn)對(duì)大規(guī)模數(shù)據(jù)進(jìn)行預(yù)
    發(fā)表于 08-21 17:07 ?4129次閱讀

    人工神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)區(qū)別? 人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)是一種模仿人腦神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 08-22 16:45 ?4501次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)區(qū)別

    不同的神經(jīng)網(wǎng)絡(luò)模型,它們?cè)诮Y(jié)構(gòu)、原理、應(yīng)用等方面都存在一定的差異。本文將從多個(gè)方面對(duì)這兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行詳細(xì)的比較和分析。 引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦
    的頭像 發(fā)表于 07-02 14:24 ?3956次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的
    的頭像 發(fā)表于 07-04 13:20 ?874次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1295次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及
    的頭像 發(fā)表于 07-10 15:20 ?1071次閱讀