0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的定義及類型

科技綠洲 ? 來源:網(wǎng)絡(luò)整理 ? 作者:網(wǎng)絡(luò)整理 ? 2024-07-02 10:09 ? 次閱讀
  1. 引言

神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,廣泛應(yīng)用于圖像識(shí)別、自然語言處理、語音識(shí)別等領(lǐng)域。在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出值,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。本文將詳細(xì)介紹激活函數(shù)的定義、類型。

  1. 激活函數(shù)的定義和基本功能

2.1 定義

激活函數(shù)(Activation Function)是神經(jīng)網(wǎng)絡(luò)中的一種非線性函數(shù),用于將輸入信號(hào)轉(zhuǎn)換為輸出信號(hào)。在神經(jīng)網(wǎng)絡(luò)中,每個(gè)神經(jīng)元的輸出都是通過激活函數(shù)計(jì)算得到的。激活函數(shù)的引入使得神經(jīng)網(wǎng)絡(luò)能夠模擬復(fù)雜的非線性關(guān)系,從而提高網(wǎng)絡(luò)的表達(dá)能力和性能。

2.2 基本功能

激活函數(shù)的基本功能包括以下幾點(diǎn):

(1)引入非線性:激活函數(shù)將神經(jīng)元的線性輸出轉(zhuǎn)換為非線性輸出,使得神經(jīng)網(wǎng)絡(luò)能夠模擬復(fù)雜的非線性關(guān)系。

(2)控制神經(jīng)元的激活狀態(tài):激活函數(shù)可以控制神經(jīng)元的激活狀態(tài),即決定神經(jīng)元是否對輸入信號(hào)產(chǎn)生響應(yīng)。

(3)加速收斂:合適的激活函數(shù)可以加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,提高收斂速度。

(4)防止梯度消失或爆炸:在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,激活函數(shù)可以防止梯度消失或爆炸,從而保證網(wǎng)絡(luò)的穩(wěn)定性。

  1. 常見的激活函數(shù)類型

3.1 Sigmoid函數(shù)

Sigmoid函數(shù)是一種常見的激活函數(shù),其數(shù)學(xué)表達(dá)式為:

f(x) = 1 / (1 + exp(-x))

Sigmoid函數(shù)的輸出范圍在(0, 1)之間,具有S形曲線的特點(diǎn)。Sigmoid函數(shù)的優(yōu)點(diǎn)是平滑且連續(xù),但其缺點(diǎn)是存在梯度消失問題,即當(dāng)輸入值非常大或非常小時(shí),梯度接近于0,導(dǎo)致網(wǎng)絡(luò)訓(xùn)練速度變慢。

3.2 Tanh函數(shù)

Tanh函數(shù)(雙曲正切函數(shù))是Sigmoid函數(shù)的一種變體,其數(shù)學(xué)表達(dá)式為:

f(x) = (exp(x) - exp(-x)) / (exp(x) + exp(-x))

Tanh函數(shù)的輸出范圍在(-1, 1)之間,其形狀與Sigmoid函數(shù)相似,但中心點(diǎn)在0。Tanh函數(shù)的優(yōu)點(diǎn)是輸出值以0為中心,可以減少學(xué)習(xí)過程中的對稱性問題。然而,Tanh函數(shù)同樣存在梯度消失問題。

3.3 ReLU函數(shù)

ReLU函數(shù)(Rectified Linear Unit,線性整流單元)是一種常用的激活函數(shù),其數(shù)學(xué)表達(dá)式為:

f(x) = max(0, x)

ReLU函數(shù)的優(yōu)點(diǎn)是計(jì)算簡單,訓(xùn)練速度快,且在實(shí)踐中表現(xiàn)出較好的性能。然而,ReLU函數(shù)存在“死亡ReLU”問題,即當(dāng)輸入值為負(fù)時(shí),梯度為0,導(dǎo)致部分神經(jīng)元不再更新。

3.4 Leaky ReLU函數(shù)

Leaky ReLU函數(shù)是對ReLU函數(shù)的一種改進(jìn),其數(shù)學(xué)表達(dá)式為:

f(x) = max(αx, x)

其中α是一個(gè)小于1的常數(shù)。Leaky ReLU函數(shù)在輸入值為負(fù)時(shí),仍然有一定的梯度,從而解決了ReLU函數(shù)的“死亡ReLU”問題。

3.5 ELU函數(shù)

ELU函數(shù)(Exponential Linear Unit,指數(shù)線性單元)是一種自歸一化激活函數(shù),其數(shù)學(xué)表達(dá)式為:

f(x) = x if x > 0 else α(exp(x) - 1)

ELU函數(shù)在輸入值為正時(shí)與線性函數(shù)相同,而在輸入值為負(fù)時(shí),輸出值在(-α, 0)之間。ELU函數(shù)的優(yōu)點(diǎn)是可以自動(dòng)調(diào)節(jié)神經(jīng)元的輸出值,使得網(wǎng)絡(luò)在訓(xùn)練過程中更加穩(wěn)定。

3.6 Softmax函數(shù)

Softmax函數(shù)常用于多分類問題中,其數(shù)學(xué)表達(dá)式為:

f(x_i) = exp(x_i) / Σ(exp(x_j))

其中x_i和x_j分別表示輸入向量的第i個(gè)和第j個(gè)元素。Softmax函數(shù)將輸入向量轉(zhuǎn)換為概率分布,使得每個(gè)類別的輸出值在(0, 1)之間,且所有類別的輸出值之和為1。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4789

    瀏覽量

    101612
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4355

    瀏覽量

    63319
  • 計(jì)算模型
    +關(guān)注

    關(guān)注

    0

    文章

    29

    瀏覽量

    9887
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    624

    瀏覽量

    13736
收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)基本的訓(xùn)練和工作原理是什么

    在兩層神經(jīng)網(wǎng)絡(luò)之間,必須有激活函數(shù)連接,從而加入非線性因素,提高神經(jīng)網(wǎng)絡(luò)的能力。所以,我們先從激活函數(shù)
    發(fā)表于 08-07 10:02 ?820次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>基本的訓(xùn)練和工作原理是什么

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    思考問題的過程。人腦輸入一個(gè)問題,進(jìn)行思考,然后給出答案。神經(jīng)網(wǎng)絡(luò)就是在模擬人的思考這一過程。而我們要做的就是以數(shù)學(xué)的方式,將這一抽象的過程進(jìn)行量化。神經(jīng)元與激活函數(shù)人的大腦有大約10
    發(fā)表于 03-03 22:10

    神經(jīng)網(wǎng)絡(luò)移植到STM32的方法

    神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴于上位機(jī)。所以要解決的主要是兩個(gè)
    發(fā)表于 01-11 06:20

    ReLU到Sinc的26種神經(jīng)網(wǎng)絡(luò)激活函數(shù)可視化大盤點(diǎn)

    本文介紹了26個(gè)激活函數(shù)的圖示及其一階導(dǎo)數(shù),在神經(jīng)網(wǎng)絡(luò),激活函數(shù)決定來自給定輸入集的節(jié)點(diǎn)的輸出
    發(fā)表于 01-11 17:42 ?3.2w次閱讀
    ReLU到Sinc的26種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>可視化大盤點(diǎn)

    圖文詳解:神經(jīng)網(wǎng)絡(luò)激活函數(shù)

    什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)?激活函數(shù)有助于決定我們是否需要激活
    的頭像 發(fā)表于 07-05 11:21 ?3910次閱讀
    圖文詳解:<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

    作者:Mouaad B. 來源:DeepHub IMBA 如果你剛剛開始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),激活函數(shù)的原理一開始可能很難理解。但是如果你想開發(fā)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),理解它們是很重要的。 但在我們深
    的頭像 發(fā)表于 04-18 11:20 ?632次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>初學(xué)者的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>指南

    神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

    作者:MouaadB.來源:DeepHubIMBA如果你剛剛開始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),激活函數(shù)的原理一開始可能很難理解。但是如果你想開發(fā)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),理解它們是很重要的。但在我們深入研究
    的頭像 發(fā)表于 04-21 09:28 ?812次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>初學(xué)者的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>指南

    神經(jīng)網(wǎng)絡(luò)激活函數(shù)有哪些

    神經(jīng)網(wǎng)絡(luò),激活函數(shù)是一個(gè)至關(guān)重要的組成部分,它決定了神經(jīng)元對于輸入信號(hào)的反應(yīng)方式,為神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-01 11:52 ?769次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是深度學(xué)習(xí)中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域。在卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:18 ?1363次閱讀

    神經(jīng)網(wǎng)絡(luò)算法的結(jié)構(gòu)有哪些類型

    : 多層感知器(MLP) 多層感知器是最基本和最簡單的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它由輸入層、隱藏層和輸出層組成。每個(gè)神經(jīng)元都通過權(quán)重和偏置與前一層的神經(jīng)元相連,并使用激活
    的頭像 發(fā)表于 07-03 09:50 ?651次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    ,激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出方式,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。 一、激活
    的頭像 發(fā)表于 07-03 10:02 ?898次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    結(jié)構(gòu)、原理、應(yīng)用場景等方面都存在一定的差異。以下是對這兩種神經(jīng)網(wǎng)絡(luò)的比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。每個(gè)神經(jīng)元之間通過權(quán)重連接,并通
    的頭像 發(fā)表于 07-03 10:12 ?1572次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行建模和預(yù)測

    輸入信號(hào),對其進(jìn)行加權(quán)求和,然后通過激活函數(shù)進(jìn)行非線性轉(zhuǎn)換,生成輸出信號(hào)。通過這種方式,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)輸入數(shù)據(jù)的復(fù)雜模式和關(guān)系。 神經(jīng)網(wǎng)絡(luò)類型
    的頭像 發(fā)表于 07-03 10:23 ?908次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別在哪

    結(jié)構(gòu)、原理、應(yīng)用場景等方面都存在一定的差異。以下是對這兩種神經(jīng)網(wǎng)絡(luò)的詳細(xì)比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。每個(gè)神經(jīng)元之間通過權(quán)重連接,
    的頭像 發(fā)表于 07-04 09:49 ?1.3w次閱讀

    前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)

    激活函數(shù)的非線性變換,能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射,從而解決各種監(jiān)督學(xué)習(xí)任務(wù)。本文將詳細(xì)闡述前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),包括其組成層、權(quán)重和偏置、激活
    的頭像 發(fā)表于 07-09 10:31 ?1231次閱讀