0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三句話讓你認(rèn)識深度學(xué)習(xí)

汽車玩家 ? 來源:達爾文文 ? 作者:達爾文文 ? 2020-04-21 17:25 ? 次閱讀

開宗明義,三句話認(rèn)識深度學(xué)習(xí)。

深度學(xué)習(xí)是一種機器學(xué)習(xí)

深度學(xué)習(xí)首先是一種機器學(xué)習(xí)。深度學(xué)習(xí)的基礎(chǔ),叫做神經(jīng)網(wǎng)絡(luò),這本身就是一種機器學(xué)習(xí)算法。近年來,隨著深度學(xué)習(xí)的火熱和深入人心,人們漸漸將這一概念獨立出來,由此有了深度學(xué)習(xí)和傳統(tǒng)機器學(xué)習(xí)的區(qū)分。

如今神經(jīng)網(wǎng)絡(luò)快速發(fā)展,傳統(tǒng)的機器學(xué)習(xí)何去何從?

其實,都只是算法,一種解決問題的辦法,而已。

關(guān)于算法,關(guān)于機器學(xué)習(xí),我們引用卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)Tom Michael Mitchell教授在其1997年出版的書籍Machine Learning中的定義, —— “如果一個程序可以在任務(wù)T上,隨著經(jīng)驗E的增加,效果P也可以隨之增加,則稱這個程序可以從經(jīng)驗中學(xué)習(xí)”[1]

怎么理解這句話呢?以推薦系統(tǒng)為例,我們使用某一類機器學(xué)習(xí)算法(“一個程序”),根據(jù)用戶的過往記錄做推薦(“任務(wù)T”),那么隨著用戶的過往記錄不斷積累(“經(jīng)驗E”),能夠做的推薦就更準(zhǔn)確(“效果P”)。

簡而言之,機器的“學(xué)習(xí)”,是通過以往的經(jīng)驗,即數(shù)據(jù),學(xué)習(xí)數(shù)據(jù)內(nèi)部的邏輯,并將學(xué)到的邏輯應(yīng)用在新數(shù)據(jù)上,進行預(yù)測。

深度學(xué)習(xí)是一種機器學(xué)習(xí),要真的追究起來,人工智能、機器學(xué)習(xí)和深度學(xué)習(xí),三者大概是下面這個關(guān)系。

三句話讓你認(rèn)識深度學(xué)習(xí)

人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)三者的關(guān)系

深度學(xué)習(xí)是一個數(shù)學(xué)問題

機器學(xué)習(xí)和數(shù)學(xué),是深度學(xué)習(xí)的一體兩面。

機器學(xué)習(xí)是深度學(xué)習(xí)的方法論,數(shù)學(xué)是其背后的理論支撐。

其實每一種算法,究其根本,都是一種數(shù)學(xué)表達。無論是機器學(xué)習(xí),還是深度學(xué)習(xí),都是試圖找到一個函數(shù),這個函數(shù)可以簡單,可以復(fù)雜,函數(shù)的表達并不重要,只是一個工具,重要的是這個函數(shù)能夠盡可能準(zhǔn)確的擬合出輸入數(shù)據(jù)和輸出結(jié)果間的關(guān)系。就像我們在各個任務(wù)中做的那樣,比如語音識別、圖像識別、下圍棋,人機問答系統(tǒng):

三句話讓你認(rèn)識深度學(xué)習(xí)

機器學(xué)習(xí)在找輸入和輸出之間的關(guān)系

這就是機器學(xué)習(xí)要做到的事,找到一個數(shù)學(xué)表達,即上述例子中的函數(shù)f。

而深度學(xué)習(xí)的魅力在于,它的數(shù)學(xué)表達特別的強!

深度學(xué)習(xí)的強大是有數(shù)學(xué)原理支撐的,這個原理叫做“萬能近似定理”(Universal approximation theorem)。這個定理的道理很簡單 —— 神經(jīng)網(wǎng)絡(luò)可以擬合任何函數(shù),不管這個函數(shù)的表達是多么的復(fù)雜。

因為這個定理,深度學(xué)習(xí)在擬合函數(shù)這一方面的能力十分強大、暴力和神秘。

但是,哪有免費的午餐,深度學(xué)習(xí)的強大也帶來了對應(yīng)的問題 —— 黑箱化

深度學(xué)習(xí)是一個黑箱

黑箱的意思是,深度學(xué)習(xí)的中間過程不可知,深度學(xué)習(xí)產(chǎn)生的結(jié)果不可控。

一方面,我們比較難知道網(wǎng)絡(luò)具體在做些什么;另一方面,我們很難解釋神經(jīng)網(wǎng)絡(luò)在解決問題的時候,為什么要這么做,為什么有效果。

在傳統(tǒng)的機器學(xué)習(xí)中,算法的結(jié)構(gòu)大多充滿了邏輯,這種結(jié)構(gòu)可以被人分析,最終抽象為某種流程圖或者一個代數(shù)上的公式,最典型的比如決策樹,具有非常高的可解釋性。

三句話讓你認(rèn)識深度學(xué)習(xí)

一個決策樹的例子

到了深度學(xué)習(xí),這樣子的直觀就不見了。簡單來說,深度學(xué)習(xí)的工作原理,是通過一層層神經(jīng)網(wǎng)絡(luò),使得輸入的信息在經(jīng)過每一層時,都做一個數(shù)學(xué)擬合,這樣每一層都提供了一個函數(shù)。因為深度學(xué)習(xí)有好多層,通過這每一層的函數(shù)的疊加,深度學(xué)習(xí)網(wǎng)絡(luò)的輸出就無限逼近目標(biāo)輸出了。這樣一種“萬能近似”,很多時候是輸入和輸出在數(shù)值上的一種耦合,而不是真的找到了一種代數(shù)上的表達式。當(dāng)我們在說”擬合“、”函數(shù)“這一類詞的時候,你或許認(rèn)為我們會像寫公式一樣把輸入和輸出之間的關(guān)系列在黑板上。但事實并不是這樣,深度學(xué)習(xí)擬合出來的函數(shù),一般人還真寫不出來……

所以,很多時候,你的深度學(xué)習(xí)網(wǎng)絡(luò)能很好的完成你的任務(wù),可是你并不知道網(wǎng)絡(luò)學(xué)習(xí)到了什么,也不知道網(wǎng)絡(luò)為什么做出了特定的選擇。知其然而不知其所以然,這可以看作是深度學(xué)習(xí)的常態(tài),也是深度學(xué)習(xí)工作中的一大挑戰(zhàn)。

盡管如此,深度學(xué)習(xí)還是好用的……

誰用誰知道!

所以 ——

擁抱不確定性,愛上深度學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?582次閱讀

    開關(guān)電源布線 一句話:要運行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    開關(guān)電源在布線上最大的特點是拓?fù)湟鸬母哳l(高壓)強電流與控制級的弱電信號交織在一起,首先要保證強電流的存在不干擾電源內(nèi)部的控制信號,其次要盡量減少對外部的干擾(EMC)。一句話:要運行最穩(wěn)定、波形
    的頭像 發(fā)表于 10-28 14:06 ?1371次閱讀
    開關(guān)電源布線 一<b class='flag-5'>句話</b>:要運行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?215次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?398次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?743次閱讀

    求助,關(guān)于AIC3254寄存器的問題求解

    不是說AIC3254的寄存器每頁都只有128個寄存器的嗎,那么寄存器的最大地址應(yīng)該是127啊,下圖是PPS生成的base_main_Rate44_pps_driver.h文件,里面對寄存器的配置怎么出現(xiàn)了地址為254和 255的配置啊,這三句話的作用是什么?在哪里能看到相關(guān)的資料?求大神解答
    發(fā)表于 10-23 06:48

    FPGA做深度學(xué)習(xí)能走多遠?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會怎樣發(fā)展,能走多遠,怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    認(rèn)識貼片電阻嗎,對他了解多少?

    認(rèn)識貼片電阻嗎,對他了解多少?
    的頭像 發(fā)表于 08-27 15:49 ?471次閱讀
    <b class='flag-5'>你</b><b class='flag-5'>認(rèn)識</b>貼片電阻嗎,<b class='flag-5'>你</b>對他了解多少?

    簡單認(rèn)識深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),特別是在深度學(xué)習(xí)領(lǐng)域,已經(jīng)取得了顯著的成就。它們通過模擬人類大腦的處理方式,利用多
    的頭像 發(fā)表于 07-10 18:23 ?1032次閱讀

    深度學(xué)習(xí)中的時間序列分類方法

    時間序列分類(Time Series Classification, TSC)是機器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動識別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個領(lǐng)域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?921次閱讀

    句話理解線程和進程

    今天給大家分享一下線程與進程,主要包含以下幾部分內(nèi)容:一句話說明線程和進程操作系統(tǒng)為什么需要進程為什么要引入線程一圖說明線程和進程的關(guān)系一句話理解進程和線程進程:是指?個內(nèi)存中運?
    的頭像 發(fā)表于 06-04 08:04 ?1197次閱讀
    一<b class='flag-5'>句話</b><b class='flag-5'>讓</b><b class='flag-5'>你</b>理解線程和進程

    層交換機的工作原理 層交換機不能完全取代路由器的原因

    層交換機的工作原理可以用一句話概括為:”一次路由,多次交換“。
    的頭像 發(fā)表于 03-29 09:29 ?817次閱讀

    NPN型極管發(fā)射結(jié)電勢和基極電流有關(guān)問題

    教材有一句話:發(fā)射結(jié)電勢減小,導(dǎo)致基極電流減小 這句話如果單看極管的輸入特性曲線確實沒問題,但是極管實際工作的靜態(tài)工作點Q是輸入特性曲線和輸入回路負(fù)載線的交點,這個時候減小,???
    發(fā)表于 03-23 09:36

    百度文心一言支持一鍵生成專屬數(shù)字分身

    百度文心一言APP正式上線了一項令人矚目的新功能:用戶只需一張照片、錄制三句話,就能輕松擁有一個屬于自己的數(shù)字分身。這一功能不僅提供了高度個性化的體驗,還允許用戶根據(jù)需求自定義名稱、聲音以及MBTI性格等。更值得一提的是,這一新功能對iOS和Android用戶完全免費。
    的頭像 發(fā)表于 02-03 09:33 ?803次閱讀

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進人們的視線,通過深度
    的頭像 發(fā)表于 01-11 10:51 ?2053次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用