0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

解析激活函數(shù)作用

jf_78858299 ? 來(lái)源:機(jī)器學(xué)習(xí)算法與自然語(yǔ)言 ? 作者:憶臻 ? 2023-02-17 15:46 ? 次閱讀

激活函數(shù)是用來(lái)加入非線性因素的,解決線性模型所不能解決的問(wèn)題。

下面我分別從這個(gè)方面通過(guò)例子給出自己的理解~

@lee philip@顏沁睿倆位的回答已經(jīng)非常好了,我舉的例子也是來(lái)源于他們,在這里加入了自己的思考,更加詳細(xì)的說(shuō)了一下~

開(kāi)講~

首先我們有這個(gè)需求,就是二分類問(wèn)題,如我要將下面的三角形和圓形點(diǎn)進(jìn)行正確的分類,如下圖:

圖片

利用我們單層的感知機(jī), 用它可以劃出一條線, 把三角形和圓形樣本分割開(kāi):

圖片

上圖直線是由

圖片

得到,那么該感知器實(shí)現(xiàn)預(yù)測(cè)的功能步驟如下,就是我已經(jīng)訓(xùn)練好了一個(gè)感知器模型,后面對(duì)于要預(yù)測(cè)的樣本點(diǎn),帶入模型中。

如果y>0,那么就說(shuō)明是直線的右側(cè),也就是正類(我們這里是三角形)。

如果y<0,那么就說(shuō)明是直線的左側(cè),也就是負(fù)類(我們這里是圓形),雖然這和我們的題目關(guān)系不大,但是還是提一下~

好吧,很容易能夠看出,我給出的樣本點(diǎn)根本不是線性可分的,一個(gè)感知器無(wú)論得到的直線怎么動(dòng),都不可能完全正確的將三角形與圓形區(qū)分出來(lái),那么我們很容易想到用多個(gè)感知器來(lái)進(jìn)行組合,以便獲得更大的分類問(wèn)題,好的,下面我們上圖,看是否可行:

圖片

好的,我們已經(jīng)得到了多感知器分類器了,那么它的分類能力是否強(qiáng)大到能將非線性數(shù)據(jù)點(diǎn)正確分類開(kāi)呢~我們來(lái)分析一下:

我們能夠得到

圖片

哎呀呀,不得了,這個(gè)式子看起來(lái)非常復(fù)雜,估計(jì)應(yīng)該可以處理我上面的情況了吧,哈哈哈哈~不一定額,我們來(lái)給它變個(gè)形.上面公式合并同類項(xiàng)后等價(jià)于下面公式:

圖片

嘖嘖,估計(jì)大家都看出了,不管它怎么組合,最多就是線性方程的組合,最后得到的分類器本質(zhì)還是一個(gè)線性方程,該處理不了的非線性問(wèn)題,它還是處理不了。

就好像下圖,直線無(wú)論在平面上如果旋轉(zhuǎn),都不可能完全正確的分開(kāi)三角形和圓形點(diǎn):

圖片

既然是非線性問(wèn)題,總有線性方程不能正確分類的地方~

那么拋開(kāi)神經(jīng)網(wǎng)絡(luò)中神經(jīng)元需不需要激活函數(shù)這點(diǎn)不說(shuō),如果沒(méi)有激活函數(shù),僅僅是線性函數(shù)的組合解決的問(wèn)題太有限了,碰到非線性問(wèn)題就束手無(wú)策了.那么加入激活函數(shù)是否可能能夠解決呢?

在上面線性方程的組合過(guò)程中,我們其實(shí)類似在做三條直線的組合,如下圖:

圖片

下面我們來(lái)講一下激活函數(shù),我們都知道,每一層疊加完了之后,我們需要加入一個(gè)激活函數(shù)(激活函數(shù)的種類也很多,如sigmod等等~)這里就給出sigmod例子,如下圖:

圖片

通過(guò)這個(gè)激活函數(shù)映射之后,輸出很明顯就是一個(gè)非線性函數(shù)!能不能解決一開(kāi)始的非線性分類問(wèn)題不清楚,但是至少說(shuō)明有可能啊,上面不加入激活函數(shù)神經(jīng)網(wǎng)絡(luò)壓根就不可能解決這個(gè)問(wèn)題~

同理,擴(kuò)展到多個(gè)神經(jīng)元組合的情況時(shí)候,表達(dá)能力就會(huì)更強(qiáng)~對(duì)應(yīng)的組合圖如下:(現(xiàn)在已經(jīng)升級(jí)為三個(gè)非線性感知器在組合了)

圖片

跟上面線性組合相對(duì)應(yīng)的非線性組合如下:

圖片

這看起來(lái)厲害多了,是不是最后再通過(guò)最優(yōu)化損失函數(shù)的做法,我們能夠?qū)W習(xí)到不斷學(xué)習(xí)靠近能夠正確分類三角形和圓形點(diǎn)的曲線,到底會(huì)學(xué)到什么曲線,不知道到底具體的樣子,也許是下面這個(gè)

圖片

那么隨著不斷訓(xùn)練優(yōu)化,我們也就能夠解決非線性的問(wèn)題了~

所以到這里為止,我們就解釋了這個(gè)觀點(diǎn),加入激活函數(shù)是用來(lái)加入非線性因素的,解決線性模型所不能解決的問(wèn)題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    具有延遲作用的黑暗激活繼電器

    具有延遲作用的黑暗激活繼電器 可以用有延遲作用
    發(fā)表于 09-22 16:25 ?738次閱讀
    具有延遲<b class='flag-5'>作用</b>的黑暗<b class='flag-5'>激活</b>繼電器

    基于神經(jīng)網(wǎng)絡(luò)的激活函數(shù)和相應(yīng)的數(shù)學(xué)介紹

    希望你理解了激活函數(shù)背后的思想,為什么要使用激活函數(shù),以及如何選用激活函數(shù)。
    的頭像 發(fā)表于 01-10 11:53 ?6391次閱讀
    基于神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>和相應(yīng)的數(shù)學(xué)介紹

    ReLU到Sinc的26種神經(jīng)網(wǎng)絡(luò)激活函數(shù)可視化大盤點(diǎn)

    本文介紹了26個(gè)激活函數(shù)的圖示及其一階導(dǎo)數(shù),在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)決定來(lái)自給定輸入集的節(jié)點(diǎn)的輸出,其中非線性激活
    發(fā)表于 01-11 17:42 ?3.1w次閱讀
    ReLU到Sinc的26種神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>可視化大盤點(diǎn)

    激活函數(shù)中sigmoid、ReLU等函數(shù)的一些性質(zhì)

    非線性:當(dāng)激活函數(shù)是線性的時(shí)候,一個(gè)兩層的神經(jīng)網(wǎng)絡(luò)就可以基本逼近所有的函數(shù),但是,如果激活函數(shù)是恒等激活
    的頭像 發(fā)表于 08-02 14:52 ?1.1w次閱讀
    <b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>中sigmoid、ReLU等<b class='flag-5'>函數(shù)</b>的一些性質(zhì)

    圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

    什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)激活函數(shù)有助于決定我們是否需要激活神經(jīng)元。如果我們需要發(fā)射一個(gè)神經(jīng)元那么信號(hào)的強(qiáng)度是多少。
    的頭像 發(fā)表于 07-05 11:21 ?3801次閱讀
    圖文詳解:神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    詳解十種激活函數(shù)的優(yōu)缺點(diǎn)

    激活函數(shù)(Activation Function)是一種添加到人工神經(jīng)網(wǎng)絡(luò)中的函數(shù),旨在幫助網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式。類似于人類大腦中基于神經(jīng)元的模型,激活
    的頭像 發(fā)表于 03-05 16:15 ?1.3w次閱讀
    詳解十種<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>的優(yōu)缺點(diǎn)

    關(guān)于深度學(xué)習(xí)最常用的10大激活函數(shù)詳解

    那就讓我們來(lái)整理一下深度學(xué)習(xí)中離不開(kāi)的激活函數(shù)!
    的頭像 發(fā)表于 03-12 17:45 ?3235次閱讀
    關(guān)于深度學(xué)習(xí)最常用的10大<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>詳解

    在PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實(shí)現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個(gè)在PyTorch中使用ReLU激活函數(shù)的例子:
    的頭像 發(fā)表于 07-06 15:27 ?2556次閱讀

    PyTorch中激活函數(shù)的全面概覽

    為了更清晰地學(xué)習(xí)Pytorch中的激活函數(shù),并對(duì)比它們之間的不同,這里對(duì)最新版本的Pytorch中的激活函數(shù)進(jìn)行了匯總,主要介紹激活
    的頭像 發(fā)表于 04-30 09:26 ?565次閱讀
    PyTorch中<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>的全面概覽

    神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)有哪些

    在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)是一個(gè)至關(guān)重要的組成部分,它決定了神經(jīng)元對(duì)于輸入信號(hào)的反應(yīng)方式,為神經(jīng)網(wǎng)絡(luò)引入了非線性因素,使得網(wǎng)絡(luò)能夠?qū)W習(xí)和處理復(fù)雜的模式。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù)
    的頭像 發(fā)表于 07-01 11:52 ?610次閱讀

    神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的定義及類型

    引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域。在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出值,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。本文將
    的頭像 發(fā)表于 07-02 10:09 ?559次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)作用

    起著至關(guān)重要的作用,它們可以增加網(wǎng)絡(luò)的非線性,提高網(wǎng)絡(luò)的表達(dá)能力,使網(wǎng)絡(luò)能夠?qū)W習(xí)到更加復(fù)雜的特征。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)作用、常見(jiàn)
    的頭像 發(fā)表于 07-03 09:18 ?1133次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    中,激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出方式,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。 一、激活函數(shù)作用
    的頭像 發(fā)表于 07-03 10:02 ?727次閱讀

    前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見(jiàn)激活函數(shù)

    激活函數(shù)的非線性變換,能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射,從而解決各種監(jiān)督學(xué)習(xí)任務(wù)。本文將詳細(xì)闡述前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),包括其組成層、權(quán)重和偏置、激活
    的頭像 發(fā)表于 07-09 10:31 ?916次閱讀

    神經(jīng)元模型激活函數(shù)通常有哪幾類

    神經(jīng)元模型激活函數(shù)是神經(jīng)網(wǎng)絡(luò)中的關(guān)鍵組成部分,它們負(fù)責(zé)在神經(jīng)元之間引入非線性,使得神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射。以下是對(duì)神經(jīng)元模型激活函數(shù)
    的頭像 發(fā)表于 07-11 11:33 ?1083次閱讀