0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在深度學(xué)習(xí)中為什么要正則化輸入?

電子工程師 ? 來源:未知 ? 作者:佚名 ? 2017-11-22 09:37 ? 次閱讀

本文作者原創(chuàng),轉(zhuǎn)載請注明出處。

今天我們來講解一下為什么要正則化輸入(也叫標(biāo)準(zhǔn)化輸入)呢?

正則化輸入其實就是論文中說的局部相應(yīng)歸一化,它最早由Krizhevsky和Hinton在關(guān)于ImageNet的論文里面使用的一種數(shù)據(jù)標(biāo)準(zhǔn)化方法。

在實際應(yīng)用中,我們可能會遇到各維度數(shù)據(jù)或者各特征在空間中的分布差別很大。就如同下圖

這給訓(xùn)練增加了難度,我們可以看一下如果是這樣的數(shù)據(jù)我們會得到一個什么樣的梯度下降圖。

很明顯,這是一個狹長的立體圖形,在進(jìn)行反向傳播的過程中,如果在兩端開始梯度下降的話,整個過程就變得很漫長。所以為了解決這種情況,我們使用了正則化輸入去解決。下面就是正則化輸入的計算公式:

按照這個公式來計算的話,我們的梯度下降就變成這樣了。

這樣的話我們無論是從哪一個點開始梯度下降,得到的效果是一樣的。

那我們再來看一下在Tensorflow中是怎么實現(xiàn)的。Tensorflow中的APItf.nn.lrn,別名也叫tf.nn.local_response_normalization,這兩個是一個東西。再來看一下函數(shù)是怎么定義的:

local_response_normalization(  input,  depth_radius=5,  bias=1,  alpha=1,  beta=0.5,  name=None)

里面那么多參數(shù),那分別又是代表什么呢?首先,input是我們要輸入的張量,depth_radius就是上面公式中的n/2,其實這個變量名為什么叫depth_radius呢?radius不是半徑嗎?與半徑又有什么關(guān)系呢,我等下再來講解為什么。接著,bias是偏移量,alpha就是公式中的α,beat就是公式中的β。

其實啊,LRN也可以看作是“每個像素”在零值化后除以“半徑以內(nèi)的其他對應(yīng)像素的平方和”,這個半徑就是給定的變量depth_radius的值。

那我們用代碼來看一下效果怎么樣:

import numpy as npimport tensorflow as tfa = 2 * np.ones([2, 2, 2, 3])print(a)b = tf.nn.local_response_normalization(a, 1, 0, 1, 1)with tf.Session() as sess:    print(sess.run(b))

輸出的結(jié)果a是:

輸出的結(jié)果b是:


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5424

    瀏覽量

    120631
  • 正則化輸入
    +關(guān)注

    關(guān)注

    0

    文章

    1

    瀏覽量

    836

原文標(biāo)題:技術(shù)詳解 | 為什么要正則化輸入?

文章出處:【微信號:gh_a204797f977b,微信公眾號:深度學(xué)習(xí)實戰(zhàn)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)汽車的應(yīng)用

    的“深度”層面源于輸入層和輸出層之間實現(xiàn)的隱含層數(shù)目,隱含層利用數(shù)學(xué)方法處理(篩選/卷積)各層之間的數(shù)據(jù),從而得出最終結(jié)果。視覺系統(tǒng),深度
    發(fā)表于 03-13 06:45

    改善深層神經(jīng)網(wǎng)絡(luò)--超參數(shù)優(yōu)化、batch正則和程序框架 學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》02改善深層神經(jīng)網(wǎng)絡(luò)--超參數(shù)優(yōu)化、batch正則和程序框架 學(xué)習(xí)總結(jié)
    發(fā)表于 06-16 14:52

    深度學(xué)習(xí)預(yù)測和健康管理的應(yīng)用

    深度學(xué)習(xí)預(yù)測和健康管理的應(yīng)用綜述摘要深度學(xué)習(xí)對預(yù)測和健康管理(PHM)引起了濃厚的興趣,因為
    發(fā)表于 07-12 06:46

    一種基于機(jī)器學(xué)習(xí)的建筑物分割掩模自動正則和多邊形方法

    化處理,使其更加逼真,即有更多的直線型輪廓,需要時構(gòu)造直角。這是通過給定輸入圖像為真的概率的鑒別器和從鑒別器響應(yīng)中學(xué)習(xí)創(chuàng)造更真實圖像的生成器之間的相互作用來實現(xiàn)的。最后,從正則
    發(fā)表于 09-01 07:19

    dropout正則技術(shù)介紹

    dropout技術(shù)是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型的一種簡單而有效的正則方式。 本文將向你介紹dropout正則
    發(fā)表于 10-10 10:38 ?2次下載

    基于快速自編碼的正則極限學(xué)習(xí)機(jī)

    正則極限學(xué)習(xí)機(jī)RELM是一種單隱層前饋神經(jīng)網(wǎng)絡(luò),不同于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)算法,RELM通過隨機(jī)設(shè)置輸入層權(quán)重和偏置值,可以快速求得輸出層權(quán)重,并且引入
    發(fā)表于 11-30 16:58 ?0次下載
    基于快速自編碼的<b class='flag-5'>正則</b><b class='flag-5'>化</b>極限<b class='flag-5'>學(xué)習(xí)</b>機(jī)

    三種典型的神經(jīng)網(wǎng)絡(luò)以及深度學(xué)習(xí)正則方法應(yīng)用于無人駕駛

    在前幾十年,神經(jīng)網(wǎng)絡(luò)并沒有受到人們的重視,直到深度學(xué)習(xí)的出現(xiàn),人們利用深度學(xué)習(xí)解決了不少實際問題(即一些落地性質(zhì)的商業(yè)應(yīng)用),神經(jīng)網(wǎng)絡(luò)才成為學(xué)界和工業(yè)界關(guān)注的一個焦點。本文以盡可能直白
    的頭像 發(fā)表于 06-03 09:27 ?9525次閱讀

    【連載】深度學(xué)習(xí)筆記4:深度神經(jīng)網(wǎng)絡(luò)的正則

    今天要寫的是關(guān)于機(jī)器學(xué)習(xí)深度學(xué)習(xí)的一項關(guān)鍵技術(shù):正則。相信
    的頭像 發(fā)表于 08-14 11:58 ?3266次閱讀

    深度學(xué)習(xí)筆記5:正則與dropout

    ? ? ? 筆記 4 ,詳細(xì)闡述了機(jī)器學(xué)習(xí)利用正則防止過擬合的基本方法,對 L1 和 L
    的頭像 發(fā)表于 08-24 18:31 ?3832次閱讀

    詳解機(jī)器學(xué)習(xí)深度學(xué)習(xí)常見的正則

    說到正則大家應(yīng)該都不陌生,這個機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都是非常常見的,常用的
    的頭像 發(fā)表于 01-29 17:52 ?2206次閱讀
    詳解機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>常見的<b class='flag-5'>正則</b><b class='flag-5'>化</b>

    基于AdaBoost框架的彈性正則多核學(xué)習(xí)算法

    正則多核學(xué)習(xí),稀疏的核函數(shù)權(quán)值會導(dǎo)致有用信息丟失和泛化性能退化,而通過非稀疏模型選取所有核函數(shù)則會產(chǎn)生較多的冗余信息并對噪聲敏感。針對
    發(fā)表于 06-03 11:37 ?1次下載

    基于耦合字典學(xué)習(xí)與圖像正則的跨模態(tài)檢索

    基于耦合字典學(xué)習(xí)與圖像正則的跨模態(tài)檢索
    發(fā)表于 06-27 11:23 ?39次下載

    深度學(xué)習(xí)語音識別的應(yīng)用及挑戰(zhàn)

    一、引言 隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,其語音識別領(lǐng)域的應(yīng)用也日益廣泛。深度學(xué)習(xí)技術(shù)可以有效地提高語音識別的精度和效率,并且被廣泛應(yīng)用于各種
    的頭像 發(fā)表于 10-10 18:14 ?759次閱讀

    GPU深度學(xué)習(xí)的應(yīng)用與優(yōu)勢

    人工智能的飛速發(fā)展,深度學(xué)習(xí)作為其重要分支,正在推動著諸多領(lǐng)域的創(chuàng)新。在這個過程,GPU扮演著不可或缺的角色。就像超級英雄電影的主角一樣,GPU
    的頭像 發(fā)表于 12-06 08:27 ?1111次閱讀
    GPU<b class='flag-5'>在</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>的應(yīng)用與優(yōu)勢

    深度學(xué)習(xí)模型的過擬合與正則

    測試數(shù)據(jù)或新數(shù)據(jù)上表現(xiàn)不佳的現(xiàn)象。為了解決這個問題,正則(Regularization)技術(shù)應(yīng)運而生,成為深度學(xué)習(xí)不可或缺的一部分。本文
    的頭像 發(fā)表于 07-09 15:56 ?431次閱讀