0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)有哪些

CHANBAEK ? 來(lái)源:網(wǎng)絡(luò)整理 ? 2024-07-01 11:52 ? 次閱讀

一、引言

神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)是一個(gè)至關(guān)重要的組成部分,它決定了神經(jīng)元對(duì)于輸入信號(hào)的反應(yīng)方式,為神經(jīng)網(wǎng)絡(luò)引入了非線性因素,使得網(wǎng)絡(luò)能夠?qū)W習(xí)和處理復(fù)雜的模式。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù),包括其定義、特點(diǎn)、數(shù)學(xué)形式以及在神經(jīng)網(wǎng)絡(luò)中的作用和用途。

二、常用的激活函數(shù)

Sigmoid函數(shù)

Sigmoid函數(shù)是一種常用的S型激活函數(shù),它將輸入的實(shí)數(shù)映射到(0,1)之間。數(shù)學(xué)形式為:f(x) = 1 / (1 + e^(-x))。

優(yōu)點(diǎn):輸出范圍在(0,1)之間,可以表示概率;具有平滑的S形曲線,可以保持梯度的連續(xù)性,有利于反向傳播算法的穩(wěn)定性。

缺點(diǎn):當(dāng)輸入較大或較小時(shí),梯度會(huì)接近于零,導(dǎo)致梯度消失問(wèn)題;輸出不是以零為中心,可能導(dǎo)致梯度更新不均勻,影響訓(xùn)練速度。

Tanh函數(shù)(雙曲正切函數(shù))

Tanh函數(shù)也是一種S型激活函數(shù),將輸入的實(shí)數(shù)映射到(-1,1)之間。數(shù)學(xué)形式為:f(x) = (ex - e(-x)) / (ex + e(-x))。

優(yōu)點(diǎn):輸出范圍在(-1,1)之間,相比Sigmoid函數(shù)更廣泛,可以提供更大的梯度,有利于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí);是Sigmoid函數(shù)的平移和縮放版本,具有相似的S形曲線,但輸出以零為中心,有助于減少梯度更新不均勻的問(wèn)題。

缺點(diǎn):在極端輸入值時(shí),梯度仍然會(huì)變得非常小,導(dǎo)致梯度消失的問(wèn)題。

ReLU函數(shù)(Rectified Linear Unit,修正線性單元)

ReLU函數(shù)是一種簡(jiǎn)單而有效的激活函數(shù),它將輸入的實(shí)數(shù)映射到大于等于零的范圍。數(shù)學(xué)形式為:f(x) = max(0, x)。

優(yōu)點(diǎn):在實(shí)踐中,ReLU函數(shù)比Sigmoid和Tanh函數(shù)更快地收斂;當(dāng)輸入為正時(shí),ReLU函數(shù)的梯度為常數(shù),避免了梯度消失的問(wèn)題;計(jì)算簡(jiǎn)單,只需比較輸入和零的大小即可,運(yùn)算速度快。

缺點(diǎn):當(dāng)輸入為負(fù)時(shí),ReLU函數(shù)的梯度為0,這被稱為“神經(jīng)元死亡”現(xiàn)象,可能導(dǎo)致一些神經(jīng)元永遠(yuǎn)不會(huì)被激活,影響模型的表達(dá)能力;ReLU函數(shù)輸出不包括負(fù)值,這可能會(huì)導(dǎo)致一些神經(jīng)元的輸出偏向于0。

Leaky ReLU函數(shù)

Leaky ReLU函數(shù)是對(duì)ReLU函數(shù)的改進(jìn),它解決了ReLU函數(shù)在負(fù)數(shù)部分輸出為零的問(wèn)題。數(shù)學(xué)形式為:f(x) = max(αx, x),其中α是一個(gè)小的正數(shù)(如0.01)。

優(yōu)點(diǎn):Leaky ReLU函數(shù)解決了ReLU函數(shù)的“死亡”現(xiàn)象,使得神經(jīng)元可以在輸入為負(fù)時(shí)被激活;保留了ReLU函數(shù)的快速計(jì)算速度。

缺點(diǎn):需要額外的超參數(shù)α,這增加了模型的復(fù)雜性;當(dāng)α設(shè)置不當(dāng)時(shí),Leaky ReLU函數(shù)可能會(huì)導(dǎo)致神經(jīng)元輸出過(guò)大或過(guò)小,影響模型的表達(dá)能力。

ELU函數(shù)(Exponential Linear Unit,指數(shù)線性單元)

ELU函數(shù)也是ReLU函數(shù)的一種改進(jìn)形式,它在負(fù)數(shù)部分采用指數(shù)函數(shù)來(lái)避免“死亡”現(xiàn)象。數(shù)學(xué)形式為:f(x) = x(如果x > 0),α(e^x - 1)(如果x ≤ 0),其中α是一個(gè)超參數(shù)。

優(yōu)點(diǎn):解決了ReLU函數(shù)的“死亡”現(xiàn)象;當(dāng)輸入為負(fù)時(shí),ELU函數(shù)具有負(fù)飽和度,這有助于提高模型的魯棒性;ELU函數(shù)的輸出可以被歸一化,這有助于模型的訓(xùn)練。

缺點(diǎn):需要計(jì)算指數(shù)函數(shù),這可能會(huì)增加模型的計(jì)算復(fù)雜度;當(dāng)輸入為正時(shí),ELU函數(shù)的梯度仍然可能變得非常小,導(dǎo)致梯度消失的問(wèn)題。

Softmax函數(shù)

Softmax函數(shù)通常用于多分類問(wèn)題的輸出層,它將神經(jīng)網(wǎng)絡(luò)的原始輸出轉(zhuǎn)換為概率分布。數(shù)學(xué)形式為:f(x)_i = e^(x_i) / Σ_j e^(x_j),其中x_i表示第i個(gè)神經(jīng)元的輸出,Σ_j e^(x_j)表示所有神經(jīng)元輸出的指數(shù)和。

優(yōu)點(diǎn):可以將輸出映射到概率空間,適用于分類問(wèn)題;在多分類問(wèn)題中表現(xiàn)良好。

缺點(diǎn):可能會(huì)導(dǎo)致梯度消失或梯度爆炸的問(wèn)題;計(jì)算復(fù)雜度較高,特別是在輸出維度較大時(shí)。

三、總結(jié)

激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中扮演著重要的角色,它們?yōu)樯窠?jīng)網(wǎng)絡(luò)引入了非線性因素,使得網(wǎng)絡(luò)能夠?qū)W習(xí)和處理復(fù)雜的模式。不同的激活函數(shù)具有不同的特點(diǎn)和優(yōu)缺點(diǎn),適用于不同的任務(wù)和數(shù)據(jù)集。在選擇激活函數(shù)時(shí),需要根據(jù)具體的應(yīng)用場(chǎng)景和需求進(jìn)行權(quán)衡和選擇。同時(shí),隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,新的激活函數(shù)也不斷被提出和應(yīng)用,為神經(jīng)網(wǎng)絡(luò)的優(yōu)化和改進(jìn)提供了新的思路和方法

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    99996
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4235

    瀏覽量

    61965
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    363

    瀏覽量

    18401
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)基本的訓(xùn)練和工作原理是什么

    在兩層神經(jīng)網(wǎng)絡(luò)之間,必須有激活函數(shù)連接,從而加入非線性因素,提高神經(jīng)網(wǎng)絡(luò)的能力。所以,我們先從激活函數(shù)
    發(fā)表于 08-07 10:02 ?620次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>基本的訓(xùn)練和工作原理是什么

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    思考問(wèn)題的過(guò)程。人腦輸入一個(gè)問(wèn)題,進(jìn)行思考,然后給出答案。神經(jīng)網(wǎng)絡(luò)就是在模擬人的思考這一過(guò)程。而我們要做的就是以數(shù)學(xué)的方式,將這一抽象的過(guò)程進(jìn)行量化。神經(jīng)元與激活函數(shù)人的大腦
    發(fā)表于 03-03 22:10

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    是一種常用的無(wú)監(jiān)督學(xué)習(xí)策略,在使用改策略時(shí),網(wǎng)絡(luò)的輸出神經(jīng)元相互競(jìng)爭(zhēng),每一時(shí)刻只有一個(gè)競(jìng)爭(zhēng)獲勝的神經(jīng)激活。ART神經(jīng)網(wǎng)絡(luò)由比較層、識(shí)別層、
    發(fā)表于 07-21 04:30

    神經(jīng)網(wǎng)絡(luò)移植到STM32的方法

    神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴于上位機(jī)。所以要解決的主要是兩個(gè)
    發(fā)表于 01-11 06:20

    ReLU到Sinc的26種神經(jīng)網(wǎng)絡(luò)激活函數(shù)可視化大盤(pán)點(diǎn)

    本文介紹了26個(gè)激活函數(shù)的圖示及其一階導(dǎo)數(shù),在神經(jīng)網(wǎng)絡(luò),激活函數(shù)決定來(lái)自給定輸入集的節(jié)點(diǎn)的輸出
    發(fā)表于 01-11 17:42 ?3.1w次閱讀
    ReLU到Sinc的26種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>可視化大盤(pán)點(diǎn)

    激活函數(shù)sigmoid、ReLU等函數(shù)的一些性質(zhì)

    非線性:當(dāng)激活函數(shù)是線性的時(shí)候,一個(gè)兩層的神經(jīng)網(wǎng)絡(luò)就可以基本逼近所有的函數(shù),但是,如果激活函數(shù)
    的頭像 發(fā)表于 08-02 14:52 ?1.1w次閱讀
    <b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b><b class='flag-5'>中</b>sigmoid、ReLU等<b class='flag-5'>函數(shù)</b>的一些性質(zhì)

    圖文詳解:神經(jīng)網(wǎng)絡(luò)激活函數(shù)

    什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)?激活函數(shù)有助于決定我們是否需要激活
    的頭像 發(fā)表于 07-05 11:21 ?3670次閱讀
    圖文詳解:<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

    作者:Mouaad B. 來(lái)源:DeepHub IMBA 如果你剛剛開(kāi)始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)激活函數(shù)的原理一開(kāi)始可能很難理解。但是如果你想開(kāi)發(fā)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),理解它們是很重要的。 但在我們深
    的頭像 發(fā)表于 04-18 11:20 ?477次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>初學(xué)者的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>指南

    神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

    作者:MouaadB.來(lái)源:DeepHubIMBA如果你剛剛開(kāi)始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),激活函數(shù)的原理一開(kāi)始可能很難理解。但是如果你想開(kāi)發(fā)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),理解它們是很重要的。但在我們深入研究
    的頭像 發(fā)表于 04-21 09:28 ?606次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>初學(xué)者的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>指南

    神經(jīng)網(wǎng)絡(luò)激活函數(shù)的定義及類型

    引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域。在神經(jīng)網(wǎng)絡(luò)激活
    的頭像 發(fā)表于 07-02 10:09 ?307次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是深度學(xué)習(xí)中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。在卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:18 ?317次閱讀

    神經(jīng)網(wǎng)絡(luò)算法的結(jié)構(gòu)哪些類型

    : 多層感知器(MLP) 多層感知器是最基本和最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它由輸入層、隱藏層和輸出層組成。每個(gè)神經(jīng)元都通過(guò)權(quán)重和偏置與前一層的神經(jīng)元相連,并使用激活
    的頭像 發(fā)表于 07-03 09:50 ?267次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    ,激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出方式,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。 一、激活
    的頭像 發(fā)表于 07-03 10:02 ?309次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    結(jié)構(gòu)、原理、應(yīng)用場(chǎng)景等方面都存在一定的差異。以下是對(duì)這兩種神經(jīng)網(wǎng)絡(luò)的比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。每個(gè)神經(jīng)元之間通過(guò)權(quán)重連接,并通
    的頭像 發(fā)表于 07-03 10:12 ?515次閱讀

    前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見(jiàn)激活函數(shù)

    激活函數(shù)的非線性變換,能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射,從而解決各種監(jiān)督學(xué)習(xí)任務(wù)。本文將詳細(xì)闡述前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),包括其組成層、權(quán)重和偏置、激活
    的頭像 發(fā)表于 07-09 10:31 ?226次閱讀