0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)是什么樣的?

Dbwd_Imgtec ? 來源:未知 ? 作者:胡薇 ? 2018-10-23 14:44 ? 次閱讀

怎樣理解非線性變換和多層網(wǎng)絡(luò)后的線性可分,神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)就是學(xué)習(xí)如何利用矩陣的線性變換加激活函數(shù)的非線性變換。

線性可分:

一維情景:以分類為例,當(dāng)要分類正數(shù)、負(fù)數(shù)、零,三類的時候,一維空間的直線可以找到兩個超平面(比當(dāng)前空間低一維的子空間。當(dāng)前空間是直線的話,超平面就是點(diǎn))分割這三類。但面對像分類奇數(shù)和偶數(shù)無法找到可以區(qū)分它們的點(diǎn)的時候,我們借助 x % 2(除2取余)的轉(zhuǎn)變,把x變換到另一個空間下來比較0和非0,從而分割奇偶數(shù)。

二維情景:平面的四個象限也是線性可分。但下圖的紅藍(lán)兩條線就無法找到一超平面去分割。

神經(jīng)網(wǎng)絡(luò)的解決方法依舊是轉(zhuǎn)換到另外一個空間下,用的是所說的5種空間變換操作。比如下圖就是經(jīng)過放大、平移、旋轉(zhuǎn)、扭曲原二維空間后,在三維空間下就可以成功找到一個超平面分割紅藍(lán)兩線 (同SVM的思路一樣)。

上面是一層神經(jīng)網(wǎng)絡(luò)可以做到的空間變化。若把y?y→ 當(dāng)做新的輸入再次用這5種操作進(jìn)行第二遍空間變換的話,網(wǎng)絡(luò)也就變?yōu)榱硕?。最終輸出是y?y→=a2(W2?(a1(W1?x→+b1))+b2)。設(shè)想當(dāng)網(wǎng)絡(luò)擁有很多層時,對原始輸入空間的“扭曲力”會大幅增加,如下圖,最終我們可以輕松找到一個超平面分割空間。

當(dāng)然也有如下圖失敗的時候,關(guān)鍵在于“如何扭曲空間”。所謂監(jiān)督學(xué)習(xí)就是給予神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)大量的訓(xùn)練例子,讓網(wǎng)絡(luò)從訓(xùn)練例子中學(xué)會如何變換空間。每一層的權(quán)重WW就控制著如何變換空間,我們最終需要的也就是訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的所有層的權(quán)重矩陣。。這里有非常棒的可視化空間變換demo,一定要打開嘗試并感受這種扭曲過程。

線性可分視角:神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)就是學(xué)習(xí)如何利用矩陣的線性變換加激活函數(shù)的非線性變換,將原始輸入空間投向線性可分/稀疏的空間去分類/回歸。

增加節(jié)點(diǎn)數(shù):增加維度,即增加線性轉(zhuǎn)換能力。

增加層數(shù):增加激活函數(shù)的次數(shù),即增加非線性轉(zhuǎn)換次數(shù)。

數(shù)學(xué)表達(dá)式

上面數(shù)學(xué)思維角度學(xué)習(xí)了神經(jīng)網(wǎng)絡(luò)的原理。下面推到數(shù)學(xué)表達(dá)式

神經(jīng)網(wǎng)絡(luò)如下圖:

因?yàn)槊恳粋€節(jié)點(diǎn)都是一個神經(jīng)元。有 Y=a*(W*X+b) a 是激活函數(shù)。w是權(quán)值,b是偏移量。

對于a4有如下

y1有如下的表達(dá)式

所以有如下表達(dá)式:

然后:令

代入上面的的方程得到

再帶入帶入

得到y(tǒng)1 = f(w8*a8)其中w8= [w84 w85 w86 w87 w8b]a = [a4,a5,a6,a7,1]所以對于多次網(wǎng)絡(luò)

可以寫成

訓(xùn)練參數(shù)

因?yàn)樗械膮?shù)都不能通過求解獲得,而是根據(jù)不同的輸入和輸出的比較訓(xùn)練出來的,所以都是監(jiān)督學(xué)習(xí)。

結(jié)論:(這里在下節(jié)會介紹推理過程,為什么要這樣調(diào)整權(quán)值呢?因?yàn)樵綖椋篧ji(新)<-Wji(舊)-(步長*(誤差函數(shù)對權(quán)值的偏導(dǎo)數(shù))))

過程如圖:注意里面的變量符號:&

從輸出層到&有如下表達(dá)式:推倒過程下一個節(jié)分析

其中,&是節(jié)i的誤差項(xiàng),是節(jié)點(diǎn)的輸出值,是樣本對應(yīng)于節(jié)點(diǎn)的目標(biāo)值。舉個例子,根據(jù)上圖,對于輸出層節(jié)點(diǎn)8來說,它的輸出值是,而樣本的目標(biāo)值是,帶入上面的公式得到節(jié)點(diǎn)8的誤差項(xiàng)應(yīng)該是:

同時對于隱含層有

所以有

將③和④合并,然后求出w有所以有:

這個過程叫做BP過程。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深度學(xué)習(xí)——BP神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?1840次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)資料

    基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 05-16 17:25

    卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究及學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》03卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究 學(xué)習(xí)總結(jié)
    發(fā)表于 05-22 17:15

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
    發(fā)表于 06-14 22:21

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的
    發(fā)表于 02-17 16:56

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義
    發(fā)表于 07-20 08:58 ?0次下載

    帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)和人工智能是 2017 年的熱詞;2018 年,這兩個詞愈發(fā)火熱,但也更加容易混淆。我們將深入深度學(xué)習(xí)的核心,也就是神經(jīng)網(wǎng)絡(luò)。
    的頭像 發(fā)表于 04-02 09:47 ?9748次閱讀
    帶你了解深入<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的核心:<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》中文版電子教材免費(fèi)下載

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》是一本免費(fèi)的在線書。本書會教會你: ? 神經(jīng)網(wǎng)絡(luò),一種美妙的受生物學(xué)啟發(fā)的編程范式,可以讓計(jì)算機(jī)從觀測數(shù)據(jù)中進(jìn)行學(xué)習(xí)
    發(fā)表于 08-02 17:47 ?0次下載

    快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載

    本文檔的詳細(xì)介紹的是快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載主要內(nèi)容包括了:機(jī)器學(xué)習(xí)概述,線性模型,前饋神經(jīng)網(wǎng)絡(luò),卷積
    發(fā)表于 02-11 08:00 ?33次下載
    快速了解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的教程資料免費(fèi)下載

    3小時學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)課件下載

    3小時學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)課件下載
    發(fā)表于 04-19 09:36 ?0次下載
    3小時<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>課件下載

    深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)和函數(shù)

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個子集,它使用神經(jīng)網(wǎng)絡(luò)來執(zhí)行學(xué)習(xí)和預(yù)測。深度
    的頭像 發(fā)表于 04-07 10:17 ?1611次閱讀

    深度學(xué)習(xí)與圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)分享:Transformer

    在過去的幾年中,神經(jīng)網(wǎng)絡(luò)的興起與應(yīng)用成功推動了模式識別和數(shù)據(jù)挖掘的研究。許多曾經(jīng)嚴(yán)重依賴于手工提取特征的機(jī)器學(xué)習(xí)任務(wù)(如目標(biāo)檢測、機(jī)器翻譯和語音識別),如今都已被各種端到端的深度學(xué)習(xí)
    的頭像 發(fā)表于 09-22 10:16 ?1281次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與圖<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>學(xué)習(xí)</b>分享:Transformer

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的核心,我們所熟知的很多
    的頭像 發(fā)表于 02-23 09:14 ?3306次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)
    發(fā)表于 08-21 17:07 ?3852次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個領(lǐng)域取得了顯著的應(yīng)用成果。從圖像識別、語音識別
    的頭像 發(fā)表于 07-02 18:19 ?747次閱讀