0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)

CHANBAEK ? 來源:網(wǎng)絡(luò)整理 ? 2024-07-09 10:31 ? 次閱讀

引言

前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN)是人工神經(jīng)網(wǎng)絡(luò)中最基本且廣泛應(yīng)用的一種結(jié)構(gòu),其結(jié)構(gòu)簡單、易于理解,是深度學(xué)習(xí)領(lǐng)域中的基石。FNN通過多層節(jié)點(diǎn)之間的連接和激活函數(shù)的非線性變換,能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射,從而解決各種監(jiān)督學(xué)習(xí)任務(wù)。本文將詳細(xì)闡述前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),包括其組成層、權(quán)重和偏置、激活函數(shù)等,并介紹幾種常見的激活函數(shù)及其特性。

一、前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)

前饋神經(jīng)網(wǎng)絡(luò)是一種有向無環(huán)圖結(jié)構(gòu),數(shù)據(jù)從輸入層開始,通過隱藏層(可能有多層),最終到達(dá)輸出層,整個(gè)過程中信息只能單向流動(dòng),不能反向傳播。其基本結(jié)構(gòu)包括輸入層、隱藏層和輸出層。

1. 輸入層(Input Layer)

輸入層是神經(jīng)網(wǎng)絡(luò)的第一層,負(fù)責(zé)接收外部輸入數(shù)據(jù)。輸入層的神經(jīng)元數(shù)量通常與輸入數(shù)據(jù)的特征數(shù)相同,每個(gè)神經(jīng)元對應(yīng)一個(gè)輸入特征。輸入層不對數(shù)據(jù)進(jìn)行任何處理,只是將數(shù)據(jù)傳遞給下一層。

2. 隱藏層(Hidden Layer)

隱藏層位于輸入層和輸出層之間,是神經(jīng)網(wǎng)絡(luò)的核心部分。隱藏層可以有一層或多層,每層包含若干神經(jīng)元。每個(gè)神經(jīng)元都與前一層的所有神經(jīng)元相連接,通過權(quán)重和偏置進(jìn)行加權(quán)求和,并通過激活函數(shù)進(jìn)行非線性變換。隱藏層的主要作用是對輸入數(shù)據(jù)進(jìn)行特征提取和模式識別,通過多層隱藏層的疊加,可以學(xué)習(xí)到更加復(fù)雜的特征表示。

3. 輸出層(Output Layer)

輸出層是神經(jīng)網(wǎng)絡(luò)的最后一層,負(fù)責(zé)產(chǎn)生最終的輸出結(jié)果。輸出層的神經(jīng)元數(shù)量取決于具體的任務(wù)需求,如回歸任務(wù)可能只有一個(gè)輸出神經(jīng)元,分類任務(wù)則根據(jù)類別數(shù)設(shè)置相應(yīng)的神經(jīng)元數(shù)。輸出層同樣使用激活函數(shù)進(jìn)行非線性變換,以得到適合任務(wù)需求的輸出結(jié)果。

4. 權(quán)重和偏置(Weights and Biases)

權(quán)重和偏置是神經(jīng)網(wǎng)絡(luò)中的可學(xué)習(xí)參數(shù),用于調(diào)整神經(jīng)元之間的連接強(qiáng)度和激活函數(shù)的輸出。權(quán)重表示連接強(qiáng)度,決定了前一層神經(jīng)元對后一層神經(jīng)元的影響程度;偏置是一個(gè)常數(shù)項(xiàng),用于調(diào)整激活函數(shù)的輸出范圍。在訓(xùn)練過程中,權(quán)重和偏置會(huì)不斷更新,以最小化損失函數(shù),提高模型的預(yù)測性能。

二、前饋神經(jīng)網(wǎng)絡(luò)的常見激活函數(shù)

激活函數(shù)是神經(jīng)網(wǎng)絡(luò)中非常重要的組成部分,它向網(wǎng)絡(luò)引入非線性特性,使得網(wǎng)絡(luò)能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射。常見的激活函數(shù)包括Sigmoid、Tanh、ReLU等。

1. Sigmoid函數(shù)

Sigmoid函數(shù)是一種經(jīng)典的激活函數(shù),其數(shù)學(xué)表達(dá)式為:

[ sigma(x) = frac{1}{1 + e^{-x}} ]

Sigmoid函數(shù)將輸入值映射到(0,1)區(qū)間內(nèi),輸出值可以解釋為概率或置信度。然而,Sigmoid函數(shù)存在梯度消失和梯度爆炸的問題,當(dāng)輸入值遠(yuǎn)離0時(shí),其梯度趨近于0,導(dǎo)致在反向傳播過程中權(quán)重更新緩慢甚至停滯。此外,Sigmoid函數(shù)的輸出均值不為0,這會(huì)導(dǎo)致后一層的神經(jīng)元輸入出現(xiàn)偏移,影響模型的收斂速度。

2. Tanh函數(shù)

Tanh函數(shù)是Sigmoid函數(shù)的改進(jìn)版,其數(shù)學(xué)表達(dá)式為:

[ tanh(x) = frac{ex - e{-x}}{ex + e{-x}} ]

Tanh函數(shù)將輸入值映射到(-1,1)區(qū)間內(nèi),輸出值以0為中心,這有助于加快模型的收斂速度。然而,Tanh函數(shù)同樣存在梯度消失的問題,當(dāng)輸入值遠(yuǎn)離0時(shí),其梯度也會(huì)趨近于0。

3. ReLU函數(shù)

ReLU(Rectified Linear Unit)函數(shù)是目前最常用的激活函數(shù)之一,其數(shù)學(xué)表達(dá)式為:

[ text{ReLU}(x) = max(0, x) ]

ReLU函數(shù)具有計(jì)算簡單、收斂速度快、緩解梯度消失等優(yōu)點(diǎn)。當(dāng)輸入值大于0時(shí),ReLU函數(shù)保持線性增長,這有助于保持梯度的穩(wěn)定性;當(dāng)輸入值小于等于0時(shí),ReLU函數(shù)輸出為0,這有助于增加網(wǎng)絡(luò)的稀疏性,減少計(jì)算量。然而,ReLU函數(shù)也存在死亡ReLU(Dead ReLU)問題,即當(dāng)神經(jīng)元輸入長時(shí)間小于0時(shí),該神經(jīng)元將不再被激活,導(dǎo)致梯度無法傳遞。

4. 其他激活函數(shù)

除了上述三種常見的激活函數(shù)外,還有許多其他激活函數(shù)被廣泛應(yīng)用于神經(jīng)網(wǎng)絡(luò)中,如Leaky ReLU、PReLU、ELU、SELU等。這些激活函數(shù)在ReLU函數(shù)的基礎(chǔ)上進(jìn)行了改進(jìn)和優(yōu)化,旨在解決ReLU函數(shù)存在的問題,提高神經(jīng)網(wǎng)絡(luò)的性能。

三、前饋神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程

前饋神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程主要包括前向傳播、損失函數(shù)計(jì)算、反向傳播和權(quán)重更新四個(gè)步驟。

1. 前向傳播

在前向傳播過程中,輸入數(shù)據(jù)首先進(jìn)入輸入層,然后通過權(quán)重和偏置傳遞到隱藏層。隱藏層中的神經(jīng)元對輸入進(jìn)行加權(quán)求和,并通過激活函數(shù)進(jìn)行非線性變換。最后,輸出層接收到經(jīng)過隱藏層處理的信號,并產(chǎn)生最終的輸出結(jié)果。

2. 損失函數(shù)計(jì)算

損失函數(shù)用于衡量模型預(yù)測值與實(shí)際值之間的差異。在訓(xùn)練過程中,我們需要定義一個(gè)合適的損失函數(shù)來計(jì)算模型的預(yù)測誤差。常見的損失函數(shù)包括均方誤差(MSE)用于回歸任務(wù)、交叉熵?fù)p失(Cross-Entropy Loss)用于分類任務(wù)等。

3. 反向傳播

反向傳播是一種高效計(jì)算損失函數(shù)梯度的算法。在反向傳播過程中,我們從輸出層開始逐層計(jì)算損失函數(shù)關(guān)于權(quán)重的梯度,并將這些梯度反向傳播到每一層。通過鏈?zhǔn)椒▌t和梯度下降優(yōu)化算法來更新權(quán)重和偏置以最小化損失函數(shù)。

4. 權(quán)重更新

在權(quán)重更新過程中我們使用優(yōu)化算法(如SGD、Adam、RMSProp等)來更新權(quán)重和偏置。優(yōu)化算法通過計(jì)算梯度并應(yīng)用學(xué)習(xí)率來調(diào)整權(quán)重和偏置的值以最小化損失函數(shù)。

四、前饋神經(jīng)網(wǎng)絡(luò)的應(yīng)用與前景

前饋神經(jīng)網(wǎng)絡(luò)由于其結(jié)構(gòu)簡單、易于實(shí)現(xiàn)和訓(xùn)練等優(yōu)點(diǎn)被廣泛應(yīng)用于各種領(lǐng)域如圖像識別、語音識別、自然語言處理、推薦系統(tǒng)等。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展和完善前饋神經(jīng)網(wǎng)絡(luò)將繼續(xù)在各個(gè)領(lǐng)域發(fā)揮重要作用并推動(dòng)科學(xué)技術(shù)的進(jìn)步和發(fā)展。

結(jié)論

前饋神經(jīng)網(wǎng)絡(luò)作為人工神經(jīng)網(wǎng)絡(luò)中最基本且廣泛應(yīng)用的結(jié)構(gòu)之一其基本結(jié)構(gòu)和常見激活函數(shù)對于理解和應(yīng)用深度學(xué)習(xí)技術(shù)具有重要意義。通過深入了解和掌握前饋神經(jīng)網(wǎng)絡(luò)的基本原理和訓(xùn)練方法我們可以更好地利用這一工具來解決實(shí)際問題并推動(dòng)科學(xué)技術(shù)的進(jìn)步和發(fā)展。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評論

    相關(guān)推薦

    【案例分享】基于BP算法的神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實(shí)由兩部分組成:
    發(fā)表于 07-21 04:00

    遺傳神經(jīng)網(wǎng)絡(luò)函數(shù)逼近中的應(yīng)用

    人工神經(jīng)網(wǎng)絡(luò)具有高計(jì)算能力、泛化能力和非線性映射等特點(diǎn),被成功應(yīng)用于眾多領(lǐng)域,但缺乏用于確定其網(wǎng)絡(luò)拓?fù)?b class='flag-5'>結(jié)構(gòu)、激活函數(shù)和訓(xùn)練方法的規(guī)則。該文提
    發(fā)表于 04-13 08:42 ?18次下載

    懲罰函數(shù)優(yōu)化的神經(jīng)網(wǎng)絡(luò)盲多用戶檢測

    提出一種神經(jīng)網(wǎng)絡(luò)盲多用戶檢測算法,利用神經(jīng)網(wǎng)絡(luò)替代原有檢測器中的濾波器,通過懲罰
    發(fā)表于 04-22 08:41 ?29次下載

    圖文詳解:神經(jīng)網(wǎng)絡(luò)激活函數(shù)

    什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)?激活函數(shù)有助于決定我們是否需要激活
    的頭像 發(fā)表于 07-05 11:21 ?3784次閱讀
    圖文詳解:<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種神經(jīng)網(wǎng)絡(luò),常用于圖像處理、自然
    的頭像 發(fā)表于 08-17 16:30 ?1233次閱讀

    神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)有哪些

    神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)是一個(gè)至關(guān)重要的組成部分,它決定了神經(jīng)元對于輸入信號的反應(yīng)方式,為神經(jīng)網(wǎng)絡(luò)引入了非線性因素,使得
    的頭像 發(fā)表于 07-01 11:52 ?595次閱讀

    神經(jīng)網(wǎng)絡(luò)激活函數(shù)的定義及類型

    引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)結(jié)構(gòu)的計(jì)算模型,廣泛應(yīng)用于圖像識別、自然語言處理、語音識別等領(lǐng)域。在神經(jīng)網(wǎng)絡(luò)中,激活
    的頭像 發(fā)表于 07-02 10:09 ?536次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是深度學(xué)習(xí)中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。在卷積神經(jīng)網(wǎng)絡(luò)中,
    的頭像 發(fā)表于 07-03 09:18 ?1089次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層神經(jīng)網(wǎng)絡(luò),其核心思想是通過反向傳播算法來調(diào)整網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:02 ?697次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的原理、結(jié)構(gòu)及 訓(xùn)練方法

    神經(jīng)網(wǎng)絡(luò)是一種受人類大腦神經(jīng)結(jié)構(gòu)啟發(fā)的計(jì)算模型,由大量的神經(jīng)元(或稱為節(jié)點(diǎn)、單元)通過權(quán)重連接而成。每個(gè)神經(jīng)元接收輸入信號,通過
    的頭像 發(fā)表于 07-03 10:08 ?642次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    結(jié)構(gòu)、原理、應(yīng)用場景等方面都存在一定的差異。以下是對這兩種神經(jīng)網(wǎng)絡(luò)的比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)是一種多層
    的頭像 發(fā)表于 07-03 10:12 ?1186次閱讀

    bp神經(jīng)網(wǎng)絡(luò)還是反饋

    BP神經(jīng)網(wǎng)絡(luò),即反向傳播(Backpropagation)神經(jīng)網(wǎng)絡(luò),是一種神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network
    的頭像 發(fā)表于 07-03 10:16 ?858次閱讀

    神經(jīng)網(wǎng)絡(luò)的工作原理和應(yīng)用

    神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN),作為最基本且應(yīng)用廣泛的一種人工神經(jīng)網(wǎng)絡(luò)模型,其工作原理和結(jié)構(gòu)
    的頭像 發(fā)表于 07-08 11:28 ?1662次閱讀

    全連接神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的比較

    Neural Network, FCNN)和神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN)因其結(jié)構(gòu)簡單、易于理解和實(shí)現(xiàn),成為了研究者們關(guān)注的熱點(diǎn)。本文
    的頭像 發(fā)表于 07-09 10:31 ?8916次閱讀

    使用NumPy實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)

    要使用NumPy實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network),我們需要從基礎(chǔ)開始構(gòu)建,包括初始化網(wǎng)絡(luò)參數(shù)、定義激活
    的頭像 發(fā)表于 07-11 16:30 ?1641次閱讀