0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Batch,是深度學(xué)習(xí)中的一個(gè)重要概念

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-04-18 15:44 ? 次閱讀

批量,即Batch,是深度學(xué)習(xí)中的一個(gè)重要概念。批量通常指兩個(gè)不同的概念——如果對(duì)應(yīng)的是模型訓(xùn)練方法,那么批量指的是將所有數(shù)據(jù)處理完以后一次性更新權(quán)重或者參數(shù)的估計(jì);如果對(duì)應(yīng)的是模型訓(xùn)練中的數(shù)據(jù),那么批量通常指的是一次輸入供模型計(jì)算用的數(shù)據(jù)量。

基于批量概念的模型訓(xùn)練通常按照如下步驟進(jìn)行:

初始化參數(shù)

重復(fù)以下步驟

● 處理所有數(shù)據(jù)● 更新參數(shù)

和批量算法相對(duì)應(yīng)的是遞增算法,其步驟如下:

初始化參數(shù)

重復(fù)以下步驟

● A.處理一個(gè)或者一組數(shù)據(jù)點(diǎn)●B.更新參數(shù)。

這里的主要區(qū)別是批量算法一次處理所有的數(shù)據(jù);而在遞增算法中,每處理一個(gè)或者數(shù)個(gè)觀測(cè)值就要更新一次參數(shù)。在后向傳播算法中,“處理”對(duì)應(yīng)的具體操作就是計(jì)算損失函數(shù)的梯度變化曲線。如果是批量算法,則計(jì)算平均或者總的損失函數(shù)的梯度變化曲線;而如果是遞增算法,則計(jì)算損失函數(shù)僅在對(duì)應(yīng)于該觀測(cè)值或者數(shù)個(gè)觀測(cè)值時(shí)的梯度變化曲線?!案隆眲t是從已有的參數(shù)值中減去梯度變化率和學(xué)習(xí)速率的乘積。

在線學(xué)習(xí)和離線學(xué)習(xí)

在深度學(xué)習(xí)中,另外兩個(gè)常見的概念是在線學(xué)習(xí)和離線學(xué)習(xí)。在離線學(xué)習(xí)中,所有的數(shù)據(jù)都可以被反復(fù)獲取,比如上面的批量學(xué)習(xí)就是離線學(xué)習(xí)的一種。而在在線學(xué)習(xí)中,每個(gè)觀測(cè)值在處理以后會(huì)被遺棄,同時(shí)得到更新。在線學(xué)習(xí)永遠(yuǎn)是遞增算法的一種,但是遞增算法卻既可以離線學(xué)習(xí)也可以在線學(xué)習(xí)。

離線學(xué)習(xí)有如下幾個(gè)優(yōu)點(diǎn):

對(duì)于任何固定個(gè)數(shù)的參數(shù),目標(biāo)函數(shù)都可以直接被計(jì)算出來,因此很容易驗(yàn)證模型訓(xùn)練是否在朝著所需要的方向發(fā)展。

計(jì)算精度可以達(dá)到任意合理的程度。

可以使用各種不同的算法來避免出現(xiàn)局部最優(yōu)的情況

可以采用訓(xùn)練、驗(yàn)證、測(cè)試三分法對(duì)模型的普適性進(jìn)行驗(yàn)證

可以計(jì)算預(yù)測(cè)值及其置信區(qū)間

在線學(xué)習(xí)無法實(shí)現(xiàn)上述功能,因?yàn)閿?shù)據(jù)并沒有被存儲(chǔ),不能反復(fù)獲取,因此對(duì)于任何固定的參數(shù)集,無法在訓(xùn)練集上計(jì)算損失函數(shù),也無法在驗(yàn)證集上計(jì)算誤差。這就造成在線算法一般來說比離線算法更加復(fù)雜和不穩(wěn)定。但是離線遞增算法并沒有在線算法的問題,因此有必要理解在線學(xué)習(xí)和遞增算法的區(qū)別。

偏移/閾值

在深度學(xué)習(xí)中,采用sigmoid激活函數(shù)的隱藏層或者輸出層的神經(jīng)元通常在計(jì)算網(wǎng)絡(luò)輸入時(shí)加入一個(gè)偏移值,稱為Bias。對(duì)于線性輸出神經(jīng)元,偏移項(xiàng)就是回歸中的截距項(xiàng)。 跟截距項(xiàng)的作用類似,偏移項(xiàng)可以被視為一個(gè)由特殊神經(jīng)元引起的鏈接權(quán)重,這是因?yàn)槠祈?xiàng)通常鏈接到一個(gè)取固定單位值的偏移神經(jīng)元。比如在一個(gè)多層感知器神經(jīng)網(wǎng)絡(luò)中,某一個(gè)神經(jīng)元的輸入變量為N維,那么這個(gè)神經(jīng)元在這個(gè)高維空間中根據(jù)參數(shù)畫一個(gè)超平面,一邊是正值,一邊為負(fù)值。所使用的參數(shù)決定了這個(gè)超平面在輸入空間的相對(duì)位置。如果沒有偏移項(xiàng),這個(gè)超平面的位置就被限制住了,必須通過原點(diǎn);如果多個(gè)神經(jīng)元都需要各自的超平面,那么就嚴(yán)重限制住了模型的靈活性。這就好比一個(gè)沒有截距項(xiàng)的回歸模型,其斜率的估計(jì)值在大多數(shù)情況下會(huì)大大偏移最優(yōu)估計(jì)值,因?yàn)樯傻臄M合曲線必須通過原點(diǎn)。因此,如果缺少偏移項(xiàng),多層感知器的普適擬合能力就不存在了。 通常來說,每個(gè)隱藏層和輸出層的神經(jīng)元都有自己的偏移項(xiàng)。但是如果輸入神經(jīng)已經(jīng)被等比例轉(zhuǎn)換到一個(gè)有限值域中,比如[0,1]區(qū)間,那么等第一個(gè)隱藏層的神經(jīng)元已經(jīng)設(shè)置過偏移項(xiàng)以后,后面任何層跟這些具備偏移項(xiàng)的神經(jīng)元有鏈接的其他神經(jīng)元就不需要再額外設(shè)置偏移項(xiàng)了。

標(biāo)準(zhǔn)化數(shù)據(jù) 在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,常常會(huì)出現(xiàn)對(duì)數(shù)據(jù)標(biāo)準(zhǔn)化這個(gè)動(dòng)作。那么什么是標(biāo)準(zhǔn)化數(shù)據(jù)呢?其實(shí)這里是用“標(biāo)準(zhǔn)化”這個(gè)詞代替了幾個(gè)類似的但又不同的動(dòng)作。

下面詳細(xì)講解三個(gè)常見的“標(biāo)準(zhǔn)化”數(shù)據(jù)處理動(dòng)作。

(1)重放縮:通常指將一個(gè)向量加上或減去一個(gè)向量,再乘以或者除以一個(gè)常亮。比如將華氏溫度轉(zhuǎn)換成攝氏溫度就是一個(gè)重放縮的過程。

(2)規(guī)范化:通常指將一個(gè)向量除以其范數(shù),比如采用歐式空間距離,即用向量的方差作為范數(shù)來規(guī)范化向量。在深度學(xué)習(xí)中,規(guī)范化通常采用極差為范數(shù),即將向量減去最小值,并除以其極差,從而使數(shù)值范圍在0和1之間。

(3)標(biāo)準(zhǔn)化:通常指將一個(gè)向量移除其位置和規(guī)模的度量。比如一個(gè)服從正態(tài)分布的向量,可以減去其均值,并除以其方差來標(biāo)準(zhǔn)化數(shù)據(jù),從而獲得一個(gè)服從標(biāo)準(zhǔn)正態(tài)分布的向量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深度學(xué)習(xí)中常見概念

文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)與數(shù)據(jù)挖掘的關(guān)系

    深度學(xué)習(xí)概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是深度學(xué)習(xí)結(jié)構(gòu)。
    發(fā)表于 07-04 16:07

    深度學(xué)習(xí)在汽車的應(yīng)用

    安全系統(tǒng)的發(fā)展進(jìn)步中發(fā)揮重要的作用。而這些系統(tǒng)遠(yuǎn)不止僅供典型消費(fèi)者群體掌握和使用。深度學(xué)習(xí)一概念在幾十年前就已提出,但如今它與特定的應(yīng)用程序、技術(shù)以及通用計(jì)算平臺(tái)上的可用性能更密切相
    發(fā)表于 03-13 06:45

    深度學(xué)習(xí)的IoU概念

    深度學(xué)習(xí)的IoU概念理解
    發(fā)表于 05-29 09:24

    改善深層神經(jīng)網(wǎng)絡(luò)--超參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》02改善深層神經(jīng)網(wǎng)絡(luò)--超參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)
    發(fā)表于 06-16 14:52

    討論紋理分析在圖像分類重要性及其在深度學(xué)習(xí)中使用紋理分析

    1、如何在深度學(xué)習(xí)結(jié)構(gòu)中使用紋理特征  如果圖像數(shù)據(jù)集具有豐富的基于紋理的特征,如果將額外的紋理特征提取技術(shù)作為端到端體系結(jié)構(gòu)的部分,則深度學(xué)習(xí)
    發(fā)表于 10-26 16:57

    深度學(xué)習(xí)介紹

    汽車安全系統(tǒng)的發(fā)展進(jìn)步中發(fā)揮重要的作用。而這些系統(tǒng)遠(yuǎn)不止僅供典型消費(fèi)者群體掌握和使用。深度學(xué)習(xí)一概念在幾十年前就已提出,但如今它與特定的應(yīng)用程序、技術(shù)以及通用計(jì)算平臺(tái)上的可用性能更密
    發(fā)表于 11-11 07:55

    超參數(shù)優(yōu)化是深度學(xué)習(xí)重要組成部分

    超參數(shù)優(yōu)化是深度學(xué)習(xí)重要組成部分。其原因在于,神經(jīng)網(wǎng)絡(luò)是公認(rèn)的難以配置,而又有很多參數(shù)需要設(shè)置。最重要的是,個(gè)別模型的訓(xùn)練非常緩慢。 在
    發(fā)表于 09-30 16:22 ?2次下載

    理解Batch NormalizationBatch所代表具體含義的知識(shí)基礎(chǔ)

    所謂“Mini-Batch”,是指的從訓(xùn)練數(shù)據(jù)全集T隨機(jī)選擇的個(gè)訓(xùn)練數(shù)據(jù)子集合。假設(shè)訓(xùn)練數(shù)據(jù)集合T包含N個(gè)樣本,而每個(gè)Mini-
    的頭像 發(fā)表于 10-19 09:19 ?3.5w次閱讀

    Batch的大小、災(zāi)難性遺忘將如何影響學(xué)習(xí)速率

    所以,我們?cè)撊绾卧谙拗朴?xùn)練速度的情況下,還可以提高batch size,同時(shí)不用維持曲率效應(yīng)帶來的不穩(wěn)定性?答案可能是其他因素在限制學(xué)習(xí)速率,而我們并沒有考慮到曲率效應(yīng)。我們認(rèn)為這其他因素就是
    的頭像 發(fā)表于 11-14 08:58 ?3396次閱讀

    batch normalization時(shí)的些缺陷

    導(dǎo)讀 batch normalization時(shí)的些缺陷。 Batch Normalization確實(shí)是深度學(xué)習(xí)領(lǐng)域的重大突破之
    的頭像 發(fā)表于 11-03 17:27 ?3046次閱讀
    <b class='flag-5'>batch</b> normalization時(shí)的<b class='flag-5'>一</b>些缺陷

    深度學(xué)習(xí)的主要概念介紹

      這篇文章是我將為 Parallel Forall 撰寫的系列文章的第篇,該系列文章旨在為 深度學(xué)習(xí) 提供
    的頭像 發(fā)表于 04-28 16:59 ?3517次閱讀

    有關(guān)batch size的設(shè)置范圍

    我們知道,batch size 決定了深度學(xué)習(xí)訓(xùn)練過程,完成每個(gè) epoch 所需的時(shí)間和每次迭代(iteration)之間梯度的平滑程度。bat
    的頭像 發(fā)表于 07-12 10:15 ?6592次閱讀

    深度學(xué)習(xí)基本概念

    深度學(xué)習(xí)基本概念? 深度學(xué)習(xí)是人工智能(AI)領(lǐng)域的個(gè)
    的頭像 發(fā)表于 08-17 16:02 ?1649次閱讀

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)
    的頭像 發(fā)表于 08-17 16:11 ?958次閱讀

    深度學(xué)習(xí)的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的個(gè)重要分支,近年來在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識(shí)別、語音
    的頭像 發(fā)表于 07-09 10:50 ?216次閱讀