0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DNN CNN和RNN有什么區(qū)別

汽車玩家 ? 來源:CSDN ? 作者:qq_42219077 ? 2020-03-13 16:49 ? 次閱讀

感知機

包含有輸入層、輸出層和一個隱藏層。輸入的特征向量通過隱藏層變換到達輸出層,由輸出層得到分類結(jié)果。

問題:它對稍微復(fù)雜一些的函數(shù)都無能為力

DNN CNN和RNN有什么區(qū)別

多層感知機

使用sigmoid或tanh等連續(xù)函數(shù)模擬神經(jīng)元對激勵的響應(yīng),在訓(xùn)練算法上則使用Werbos發(fā)明的反向傳播BP算法。這就是現(xiàn)在所說的神經(jīng)網(wǎng)絡(luò)NN。

問題:

其一,隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的加深,優(yōu)化函數(shù)越來越容易陷入局部最優(yōu)解,并且這個“陷阱”越來越偏離真正的全局最優(yōu)。利用有限數(shù)據(jù)訓(xùn)練的深層網(wǎng)絡(luò),性能還不如較淺層網(wǎng)絡(luò)。

其二,隨著網(wǎng)絡(luò)層數(shù)增加,“梯度消失”現(xiàn)象更加嚴重。(具體來說,我們常常使用sigmoid作為神經(jīng)元的輸入輸出函數(shù)。對于幅度為1的信號,在BP反向傳播梯度時,每傳遞一層,梯度衰減為原來的0.25。層數(shù)一多,梯度指數(shù)衰減后低層基本上接受不到有效的訓(xùn)練信號。)

DNN形成

為了克服梯度消失,ReLU、maxout等傳輸函數(shù)代替了sigmoid,形成了如今DNN的基本形式。

問題:全連接DNN(見下圖)的結(jié)構(gòu)里下層神經(jīng)元和所有上層神經(jīng)元都能夠形成連接,從而導(dǎo)致參數(shù)數(shù)量膨脹。

CNN

共享卷積核,對高維數(shù)據(jù)處理無壓力。圖像通過卷積操作后仍然保留原先的位置關(guān)系。

RNN

DNN無法對時間序列上有變化的情況進行處理。然而,樣本出現(xiàn)的時間順序?qū)τ谧匀徽Z言處理、語音識別、手寫體識別等應(yīng)用非常重要。因此出現(xiàn)了——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。
在普通的全連接網(wǎng)絡(luò)或CNN中,每層神經(jīng)元的信號只能向上一層傳播,樣本的處理在各個時刻獨立,因此又被成為前向神經(jīng)網(wǎng)絡(luò)(Feed-forward Neural Networks)。而在RNN中,神經(jīng)元的輸出可以在下一個時間段直接作用到自身,即第i層神經(jīng)元在m時刻的輸入,除了(i-1)層神經(jīng)元在該時刻的輸出外,還包括其自身在(m-1)時刻的輸出?。ㄈ缦聢D)

DNN CNN和RNN有什么區(qū)別

(t+1)時刻網(wǎng)絡(luò)的最終結(jié)果O(t+1)是該時刻輸入和所有歷史共同作用的結(jié)果!

但是出現(xiàn)了一個問題——“梯度消失”現(xiàn)象又要出現(xiàn)了,只不過這次發(fā)生在時間軸上。

所以RNN存在無法解決長時依賴的問題。為解決上述問題,提出了LSTM(長短時記憶單元),通過cell門開關(guān)實現(xiàn)時間上的記憶功能,并防止梯度消失.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4772

    瀏覽量

    100845
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22238
收藏 人收藏

    評論

    相關(guān)推薦

    鋰亞電池 鋰電池什么區(qū)別?

    鋰亞電池 鋰電池什么區(qū)別?
    發(fā)表于 10-30 08:51 ?3271次閱讀

    CNNRNN結(jié)合與對比,實例講解

    橫向可以多個神經(jīng)元共存,縱向可以多層神經(jīng)網(wǎng)絡(luò)連接。 3、不同點 3.1. CNN空間擴展,神經(jīng)元與特征卷積;RNN時間擴展,神經(jīng)元與多個時
    發(fā)表于 09-06 22:32 ?807次閱讀

    hdmi與vga什么區(qū)別

    現(xiàn)在的有線連接一般都是利用HDMI和VGA這兩種接口,但HDMI和VGA接口到底什么區(qū)別呢?
    的頭像 發(fā)表于 01-24 13:58 ?3.9w次閱讀

    一文帶你了解(神經(jīng)網(wǎng)絡(luò))DNN、CNN、和RNN

    歷史記憶的功能,原則上它可以看到無窮長的歷史信息,這非常適合于像語音語言這種具有長時相關(guān)性的任務(wù)。結(jié)語:相信看到這里大家應(yīng)該對DNN、CNN、RNN了一個大致的了解。雖然他們各有特點
    發(fā)表于 03-13 14:32 ?4838次閱讀

    CNNRNN、DNN的內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)什么區(qū)別?

    神經(jīng)網(wǎng)絡(luò)技術(shù)起源于上世紀五、六十年代,當(dāng)時叫感知機(perceptron),擁有輸入層、輸出層和一個隱含層。輸入的特征向量通過隱含層變換達到輸出層,在輸出層得到分類結(jié)果。
    的頭像 發(fā)表于 06-05 11:51 ?4113次閱讀

    RTOS和 TSOS什么區(qū)別?

    RTOS和TSOS什么區(qū)別
    的頭像 發(fā)表于 03-12 11:22 ?4592次閱讀

    單片機和PLC什么區(qū)別?

    單片機和PLC什么區(qū)別
    發(fā)表于 11-13 19:21 ?11次下載
    單片機和PLC<b class='flag-5'>有</b><b class='flag-5'>什么區(qū)別</b>?

    單片機和PLC什么區(qū)別?

    單片機和PLC什么區(qū)別
    發(fā)表于 11-23 16:21 ?79次下載
    單片機和PLC<b class='flag-5'>有</b><b class='flag-5'>什么區(qū)別</b>?

    EML與DML:什么區(qū)別?該如何選擇?

    DML和EML什么區(qū)別?該如何選擇?本文將回答這些問題。
    的頭像 發(fā)表于 06-30 10:43 ?2435次閱讀
    EML與DML:<b class='flag-5'>有</b><b class='flag-5'>什么區(qū)別</b>?該如何選擇?

    FPC與傳統(tǒng)PCB到底什么區(qū)別.zip

    FPC與傳統(tǒng)PCB到底什么區(qū)別
    發(fā)表于 03-01 15:37 ?4次下載

    pcb軟板和硬板什么區(qū)別

    pcb軟板和硬板什么區(qū)別
    的頭像 發(fā)表于 12-19 10:01 ?2001次閱讀

    hdi板與普通pcb什么區(qū)別

    hdi板與普通pcb什么區(qū)別
    的頭像 發(fā)表于 12-28 10:26 ?2822次閱讀

    基于FPGA進行DNN設(shè)計的經(jīng)驗總結(jié)

    DNN中應(yīng)用最廣泛的是CNNRNN,CNN是一種卷積網(wǎng)絡(luò),在圖片識別分類中用的較多,RNN可以處理時間序列的信息,比如視頻識別和語音識別。
    發(fā)表于 04-07 10:23 ?592次閱讀
    基于FPGA進行<b class='flag-5'>DNN</b>設(shè)計的經(jīng)驗總結(jié)

    NLP模型中RNNCNN的選擇

    在自然語言處理(NLP)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨特的優(yōu)勢,適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN
    的頭像 發(fā)表于 07-03 15:59 ?548次閱讀

    CNNRNN的關(guān)系?

    在深度學(xué)習(xí)的廣闊領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是兩種極為重要且各具特色的神經(jīng)網(wǎng)絡(luò)模型。它們各自在圖像處理、自然語言處理等領(lǐng)域展現(xiàn)出卓越的性能。本文將從概念、原理、應(yīng)用場景及代碼示例等方面詳細探討CNN
    的頭像 發(fā)表于 07-08 16:56 ?781次閱讀