0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

解析激活函數(shù)作用

jf_78858299 ? 來源:機器學習算法與自然語言 ? 作者:憶臻 ? 2023-02-17 15:46 ? 次閱讀

激活函數(shù)是用來加入非線性因素的,解決線性模型所不能解決的問題。

下面我分別從這個方面通過例子給出自己的理解~

@lee philip@顏沁睿倆位的回答已經(jīng)非常好了,我舉的例子也是來源于他們,在這里加入了自己的思考,更加詳細的說了一下~

開講~

首先我們有這個需求,就是二分類問題,如我要將下面的三角形和圓形點進行正確的分類,如下圖:

圖片

利用我們單層的感知機, 用它可以劃出一條線, 把三角形和圓形樣本分割開:

圖片

上圖直線是由

圖片

得到,那么該感知器實現(xiàn)預測的功能步驟如下,就是我已經(jīng)訓練好了一個感知器模型,后面對于要預測的樣本點,帶入模型中。

如果y>0,那么就說明是直線的右側,也就是正類(我們這里是三角形)。

如果y<0,那么就說明是直線的左側,也就是負類(我們這里是圓形),雖然這和我們的題目關系不大,但是還是提一下~

好吧,很容易能夠看出,我給出的樣本點根本不是線性可分的,一個感知器無論得到的直線怎么動,都不可能完全正確的將三角形與圓形區(qū)分出來,那么我們很容易想到用多個感知器來進行組合,以便獲得更大的分類問題,好的,下面我們上圖,看是否可行:

圖片

好的,我們已經(jīng)得到了多感知器分類器了,那么它的分類能力是否強大到能將非線性數(shù)據(jù)點正確分類開呢~我們來分析一下:

我們能夠得到

圖片

哎呀呀,不得了,這個式子看起來非常復雜,估計應該可以處理我上面的情況了吧,哈哈哈哈~不一定額,我們來給它變個形.上面公式合并同類項后等價于下面公式:

圖片

嘖嘖,估計大家都看出了,不管它怎么組合,最多就是線性方程的組合,最后得到的分類器本質還是一個線性方程,該處理不了的非線性問題,它還是處理不了。

就好像下圖,直線無論在平面上如果旋轉,都不可能完全正確的分開三角形和圓形點:

圖片

既然是非線性問題,總有線性方程不能正確分類的地方~

那么拋開神經(jīng)網(wǎng)絡中神經(jīng)元需不需要激活函數(shù)這點不說,如果沒有激活函數(shù),僅僅是線性函數(shù)的組合解決的問題太有限了,碰到非線性問題就束手無策了.那么加入激活函數(shù)是否可能能夠解決呢?

在上面線性方程的組合過程中,我們其實類似在做三條直線的組合,如下圖:

圖片

下面我們來講一下激活函數(shù),我們都知道,每一層疊加完了之后,我們需要加入一個激活函數(shù)(激活函數(shù)的種類也很多,如sigmod等等~)這里就給出sigmod例子,如下圖:

圖片

通過這個激活函數(shù)映射之后,輸出很明顯就是一個非線性函數(shù)!能不能解決一開始的非線性分類問題不清楚,但是至少說明有可能啊,上面不加入激活函數(shù)神經(jīng)網(wǎng)絡壓根就不可能解決這個問題~

同理,擴展到多個神經(jīng)元組合的情況時候,表達能力就會更強~對應的組合圖如下:(現(xiàn)在已經(jīng)升級為三個非線性感知器在組合了)

圖片

跟上面線性組合相對應的非線性組合如下:

圖片

這看起來厲害多了,是不是最后再通過最優(yōu)化損失函數(shù)的做法,我們能夠學習到不斷學習靠近能夠正確分類三角形和圓形點的曲線,到底會學到什么曲線,不知道到底具體的樣子,也許是下面這個

圖片

那么隨著不斷訓練優(yōu)化,我們也就能夠解決非線性的問題了~

所以到這里為止,我們就解釋了這個觀點,加入激活函數(shù)是用來加入非線性因素的,解決線性模型所不能解決的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關推薦

    具有延遲作用的黑暗激活繼電器

    具有延遲作用的黑暗激活繼電器 可以用有延遲作用
    發(fā)表于 09-22 16:25 ?727次閱讀
    具有延遲<b class='flag-5'>作用</b>的黑暗<b class='flag-5'>激活</b>繼電器

    基于神經(jīng)網(wǎng)絡的激活函數(shù)和相應的數(shù)學介紹

    希望你理解了激活函數(shù)背后的思想,為什么要使用激活函數(shù),以及如何選用激活函數(shù)。
    的頭像 發(fā)表于 01-10 11:53 ?6328次閱讀
    基于神經(jīng)網(wǎng)絡的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>和相應的數(shù)學介紹

    ReLU到Sinc的26種神經(jīng)網(wǎng)絡激活函數(shù)可視化大盤點

    本文介紹了26個激活函數(shù)的圖示及其一階導數(shù),在神經(jīng)網(wǎng)絡中,激活函數(shù)決定來自給定輸入集的節(jié)點的輸出,其中非線性激活
    發(fā)表于 01-11 17:42 ?3.1w次閱讀
    ReLU到Sinc的26種神經(jīng)網(wǎng)絡<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>可視化大盤點

    激活函數(shù)中sigmoid、ReLU等函數(shù)的一些性質

    非線性:當激活函數(shù)是線性的時候,一個兩層的神經(jīng)網(wǎng)絡就可以基本逼近所有的函數(shù),但是,如果激活函數(shù)是恒等激活
    的頭像 發(fā)表于 08-02 14:52 ?1.1w次閱讀
    <b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>中sigmoid、ReLU等<b class='flag-5'>函數(shù)</b>的一些性質

    圖文詳解:神經(jīng)網(wǎng)絡的激活函數(shù)

    什么是神經(jīng)網(wǎng)絡激活函數(shù)?激活函數(shù)有助于決定我們是否需要激活神經(jīng)元。如果我們需要發(fā)射一個神經(jīng)元那么信號的強度是多少。
    的頭像 發(fā)表于 07-05 11:21 ?3741次閱讀
    圖文詳解:神經(jīng)網(wǎng)絡的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    詳解十種激活函數(shù)的優(yōu)缺點

    激活函數(shù)(Activation Function)是一種添加到人工神經(jīng)網(wǎng)絡中的函數(shù),旨在幫助網(wǎng)絡學習數(shù)據(jù)中的復雜模式。類似于人類大腦中基于神經(jīng)元的模型,激活
    的頭像 發(fā)表于 03-05 16:15 ?1.3w次閱讀
    詳解十種<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>的優(yōu)缺點

    關于深度學習最常用的10大激活函數(shù)詳解

    那就讓我們來整理一下深度學習中離不開的激活函數(shù)!
    的頭像 發(fā)表于 03-12 17:45 ?3183次閱讀
    關于深度學習最常用的10大<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>詳解

    在PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活函數(shù)的例子:
    的頭像 發(fā)表于 07-06 15:27 ?2470次閱讀

    PyTorch中激活函數(shù)的全面概覽

    為了更清晰地學習Pytorch中的激活函數(shù),并對比它們之間的不同,這里對最新版本的Pytorch中的激活函數(shù)進行了匯總,主要介紹激活
    的頭像 發(fā)表于 04-30 09:26 ?490次閱讀
    PyTorch中<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>的全面概覽

    神經(jīng)網(wǎng)絡中的激活函數(shù)有哪些

    在神經(jīng)網(wǎng)絡中,激活函數(shù)是一個至關重要的組成部分,它決定了神經(jīng)元對于輸入信號的反應方式,為神經(jīng)網(wǎng)絡引入了非線性因素,使得網(wǎng)絡能夠學習和處理復雜的模式。本文將詳細介紹神經(jīng)網(wǎng)絡中常用的激活函數(shù)
    的頭像 發(fā)表于 07-01 11:52 ?478次閱讀

    神經(jīng)網(wǎng)絡中激活函數(shù)的定義及類型

    引言 神經(jīng)網(wǎng)絡是一種模擬人腦神經(jīng)元結構的計算模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。在神經(jīng)網(wǎng)絡中,激活函數(shù)起著至關重要的作用,它決定了神經(jīng)元的輸出值,進而影響整個網(wǎng)絡的性能。本文將
    的頭像 發(fā)表于 07-02 10:09 ?409次閱讀

    卷積神經(jīng)網(wǎng)絡激活函數(shù)作用

    起著至關重要的作用,它們可以增加網(wǎng)絡的非線性,提高網(wǎng)絡的表達能力,使網(wǎng)絡能夠學習到更加復雜的特征。本文將詳細介紹卷積神經(jīng)網(wǎng)絡中激活函數(shù)作用、常見
    的頭像 發(fā)表于 07-03 09:18 ?688次閱讀

    BP神經(jīng)網(wǎng)絡激活函數(shù)怎么選擇

    中,激活函數(shù)起著至關重要的作用,它決定了神經(jīng)元的輸出方式,進而影響整個網(wǎng)絡的性能。 一、激活函數(shù)作用
    的頭像 發(fā)表于 07-03 10:02 ?541次閱讀

    前饋神經(jīng)網(wǎng)絡的基本結構和常見激活函數(shù)

    激活函數(shù)的非線性變換,能夠學習和模擬復雜的函數(shù)映射,從而解決各種監(jiān)督學習任務。本文將詳細闡述前饋神經(jīng)網(wǎng)絡的基本結構,包括其組成層、權重和偏置、激活
    的頭像 發(fā)表于 07-09 10:31 ?503次閱讀

    神經(jīng)元模型激活函數(shù)通常有哪幾類

    神經(jīng)元模型激活函數(shù)是神經(jīng)網(wǎng)絡中的關鍵組成部分,它們負責在神經(jīng)元之間引入非線性,使得神經(jīng)網(wǎng)絡能夠學習和模擬復雜的函數(shù)映射。以下是對神經(jīng)元模型激活函數(shù)
    的頭像 發(fā)表于 07-11 11:33 ?779次閱讀