0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

人工神經(jīng)網(wǎng)絡(梯度下降算法)介紹

RG15206629988 ? 來源:行業(yè)學習與研究 ? 2023-07-28 16:10 ? 次閱讀

在實際問題中,已知量是數(shù)據(jù)和數(shù)據(jù)標簽,決策函數(shù)是未知的,即神經(jīng)網(wǎng)絡的結構未知。

因此,在使用人工神經(jīng)網(wǎng)絡結構解決實際問題時,需先假設人工神經(jīng)網(wǎng)絡結構,再將訓練數(shù)據(jù)輸入到該結構中 ,最后求解待求參數(shù)

一、假設人工神經(jīng)網(wǎng)絡結構

假設人工神經(jīng)網(wǎng)絡結構主要需要確定兩個問題:

(1)人工神經(jīng)網(wǎng)絡結構共有多少層?

(2)每層神經(jīng)元的數(shù)量是多少?

目前,上述兩個問題沒有標準答案,開發(fā)人員需根據(jù)經(jīng)驗解決上述兩個問題。解決上述兩個問題時,開發(fā)人員可根據(jù)以下準則:

(1)若問題是簡單的,兩個類別的分界曲線是不復雜的,則可選用較簡單的人工神經(jīng)網(wǎng)絡結構,即人工神經(jīng)網(wǎng)絡層數(shù)和每層神經(jīng)數(shù)量均可較少。

849f2360-2d1d-11ee-815d-dac502259ad0.png

圖片來源:中國慕課大學《機器學習概論》

(2)若問題是復雜的,例如:人臉識別問題,則可選用較復雜的人工神經(jīng)網(wǎng)絡結構,即人工神經(jīng)網(wǎng)絡層數(shù)和每層神經(jīng)數(shù)量均可較多。

(3)若訓練數(shù)據(jù)較少,則可選用較簡單的人工神經(jīng)網(wǎng)絡結構。

(4)若訓練數(shù)據(jù)較多,則可選用較復雜的人工神經(jīng)網(wǎng)絡結構。

二、求解人工神經(jīng)網(wǎng)絡待求參數(shù)

以兩層神經(jīng)網(wǎng)絡模型為例,如圖一所示,輸入為(X,Y),其中,X=[x1,x2]T,Y是標簽值(label),問題為通過改變ω和b的值,使得標簽值Y與實際的人工神經(jīng)網(wǎng)絡輸出值y最接近。

8532050e-2d1d-11ee-815d-dac502259ad0.png

圖一,圖片來源:中國慕課大學《機器學習概論》

根據(jù)前篇文章,y的表達式為: y=ω1φ(ω11x1+ω12x2+b1)+ω2φ(ω21x1+ω22x2+b1)+b3

使得y和Y最接近可表達為: Minimize:E(ω,b)=E(X,Y)[(Y-y)2]

其中,E(X,Y)為訓練樣本和標簽的數(shù)學期望(平均值)。因為y是(ω,b)的非凸函數(shù),所以該問題無法求得唯一最小值。

因此,采用梯度下降法(Gradient Descent Method)求解局部極小值。梯度下降法的步驟如下:

(1)隨機選取ω和b的初始值(ω(0),b(0))

(2)應用迭代算法求目標函數(shù)的局部極值,在第n步迭代中,ω和b的迭代公式為: ω(n+1)=ω(n)-α·?E/?ω b(n+1)=b(n)-α·?E/?b

其中,α為學習率(Learning rate),α由開發(fā)人員設定,開發(fā)人員需選取合適的α值,若α值被設定得過大,則容易錯過局部極值點,若α值被設定得過小,則可能較長時間不能找到局部極值點,只有當α值被設定得合適時,才能快速收斂至局部極值點。但因為人工神經(jīng)網(wǎng)絡對應的決策函數(shù)未知,所以沒有一種可求解α值的方法,開發(fā)人員需根據(jù)經(jīng)驗設定α值。

85675df8-2d1d-11ee-815d-dac502259ad0.png

圖片來源:中國慕課大學《機器學習概論》

梯度下降法的含義:如圖二所示,通過迭代的方式逐步遍歷x1,x2,x3,…,xn,最終找到函數(shù)的局部極小值,此值即為y和Y最接近的值。

85858c38-2d1d-11ee-815d-dac502259ad0.png

圖片來源:中國慕課大學《機器學習概論》





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:機器學習相關介紹(27)——人工神經(jīng)網(wǎng)絡(梯度下降算法)

文章出處:【微信號:行業(yè)學習與研究,微信公眾號:行業(yè)學習與研究】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    人工神經(jīng)網(wǎng)絡原理及下載

    人工神經(jīng)網(wǎng)絡是根據(jù)人的認識過程而開發(fā)出的一種算法。假如我們現(xiàn)在只有一些輸入和相應的輸出,而對如何由輸入得到輸出的機理并不清楚,那么我們可以把輸入與輸出之間的未知過程看成是一個“網(wǎng)絡”,
    發(fā)表于 06-19 14:40

    MATLAB神經(jīng)網(wǎng)絡工具箱函數(shù)

    MATLAB神經(jīng)網(wǎng)絡工具箱函數(shù)說明:本文檔中所列出的函數(shù)適用于MATLAB5.3以上版本,為了簡明起見,只列出了函數(shù)名,若需要進一步的說明,請參閱MATLAB的幫助文檔。1. 網(wǎng)絡創(chuàng)建函數(shù)newp
    發(fā)表于 09-22 16:10

    神經(jīng)網(wǎng)絡教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡的構成  第2章
    發(fā)表于 03-20 11:32

    人工神經(jīng)網(wǎng)絡課件

    人工神經(jīng)網(wǎng)絡課件
    發(fā)表于 06-19 10:15

    【專輯精選】人工智能之神經(jīng)網(wǎng)絡教程與資料

    電子發(fā)燒友總結了以“神經(jīng)網(wǎng)絡”為主題的精選干貨,今后每天一個主題為一期,希望對各位有所幫助?。c擊標題即可進入頁面下載相關資料)人工神經(jīng)網(wǎng)絡算法的學習方法與應用實例(pdf彩版)卷積
    發(fā)表于 05-07 19:18

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡

    傳播的,不會回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡中的權重。BP神經(jīng)網(wǎng)絡
    發(fā)表于 07-21 04:00

    人工神經(jīng)網(wǎng)絡實現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡的信息處理結構,它的提出是為了解決一些非線性,非平穩(wěn),復雜的實際問題。那有哪些辦法能實現(xiàn)人工
    發(fā)表于 08-01 08:06

    【AI學習】第3篇--人工神經(jīng)網(wǎng)絡

    `本篇主要介紹人工神經(jīng)網(wǎng)絡的起源、簡單神經(jīng)網(wǎng)絡模型、更多神經(jīng)網(wǎng)絡模型、機器學習的步驟:訓練與預測、訓練的兩階段:正向推演與反向傳播、以Te
    發(fā)表于 11-05 17:48

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用

    5]、自然語言處理[6- 7]等領域已被廣泛 應用。在卷積神經(jīng)網(wǎng)絡興起之前,主要依靠人工針對特定的問題設計算法,比如采用 Sobel、LoG(Laplacian of Gaussian)、Canny
    發(fā)表于 08-02 10:39

    不可錯過!人工神經(jīng)網(wǎng)絡算法、PID算法、Python人工智能學習等資料包分享(附源代碼)

    為了方便大家查找技術資料,電子發(fā)燒友小編為大家整理一些精華資料,讓大家可以參考學習,希望對廣大電子愛好者有所幫助。 1.人工神經(jīng)網(wǎng)絡算法的學習方法與應用實例(pdf彩版) 人工
    發(fā)表于 09-13 16:41

    長短時記憶神經(jīng)網(wǎng)絡算法

    通過上一篇文章[人工智能之循環(huán)神經(jīng)網(wǎng)絡(RNN)] 介紹,我們知道,RNN是一類功能強大的人工神經(jīng)網(wǎng)絡
    發(fā)表于 06-29 14:44 ?4612次閱讀

    深度神經(jīng)網(wǎng)絡的困擾 梯度爆炸與梯度消失

    ,LSTM)正是為了解決梯度消失問題而設計的一種特殊的RNN結構。 深度神經(jīng)網(wǎng)絡的困擾:梯度爆炸與梯度消失 在此前的普通深度神經(jīng)網(wǎng)絡和深度卷
    的頭像 發(fā)表于 08-23 09:12 ?4360次閱讀
    深度<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的困擾 <b class='flag-5'>梯度</b>爆炸與<b class='flag-5'>梯度</b>消失

    詳解神經(jīng)網(wǎng)絡中反向傳播和梯度下降

    摘要:反向傳播指的是計算神經(jīng)網(wǎng)絡參數(shù)梯度的方法。
    的頭像 發(fā)表于 03-14 11:07 ?848次閱讀

    卷積神經(jīng)網(wǎng)絡介紹 什么是卷積神經(jīng)網(wǎng)絡算法

    卷積神經(jīng)網(wǎng)絡介紹 什么是卷積神經(jīng)網(wǎng)絡算法 卷積神經(jīng)網(wǎng)絡涉及的關鍵技術 卷積神經(jīng)網(wǎng)絡(Convo
    的頭像 發(fā)表于 08-21 16:49 ?1701次閱讀

    神經(jīng)網(wǎng)絡反向傳播算法的原理、數(shù)學推導及實現(xiàn)步驟

    神經(jīng)網(wǎng)絡反向傳播算法(Backpropagation Algorithm)是一種用于訓練多層神經(jīng)網(wǎng)絡算法,其基本原理是通過梯度
    的頭像 發(fā)表于 07-03 11:16 ?412次閱讀