0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

本科生又一次刷新了AI的新成績,開發(fā)了一種名為AdaBound的算法

DPVg_AI_era ? 來源:lp ? 2019-03-01 08:56 ? 次閱讀

由北大、浙大兩位本科生為主開發(fā)的AdaBound算法,速度與Adam不相上下,性能媲美SGD,近期被ICLR 2019收錄,網(wǎng)友驚呼太酷太強(qiáng)大。昨天,論文的第一作者、北大大四學(xué)生駱梁宸向新智元進(jìn)行了詳細(xì)解讀。

本科生又一次刷新了AI的新成績。

最近,來自北大和浙大的兩位大四學(xué)生,開發(fā)了一種名為AdaBound的算法,能夠?qū)崿F(xiàn)更快的訓(xùn)練速度和更好的性能,速度與Adam不相上下,性能媲美SGD。

AdaBound算法相關(guān)論文Adaptive Gradient Methods with Dynamic Bound of Learning Rate已經(jīng)被AI頂會 ICLR 2019收錄。

值得一提的是,論文一作第一次在GitHub上公布AdaBound代碼之后,就獲得了300多贊,評論中無數(shù)人感嘆:實(shí)在是太酷了!

昨天,論文一作、北京大學(xué)的駱梁宸向新智元解讀了AdaBound算法。

以下是他的分享:

AdaBound算法:像Adam一樣快,又像SGD一樣好的優(yōu)化器

以隨機(jī)梯度下降 (SGD) 為代表的一階優(yōu)化算法自上世紀(jì)50年代被提出以來,在機(jī)器學(xué)習(xí)領(lǐng)域被廣泛使用,如今也是我們訓(xùn)練模型時(shí)最為常用的工具。

但是,由于SGD在更新參數(shù)時(shí)對各個(gè)維度上梯度的放縮是一致的,這有可能導(dǎo)致訓(xùn)練速度緩慢,并且在訓(xùn)練數(shù)據(jù)分布極不均很時(shí)訓(xùn)練效果很差。為了解決這一問題,近些年來涌現(xiàn)了許多自適應(yīng)學(xué)習(xí)方法,包括 Adam、AdaGrad、RMSprop 等。其中 Adam 由于其快速的收斂速度,成為了如今最流行的 Optimizer 之一。

然而,在許多最新的State of The Art 中,研究者們沒有使用新穎流行的自適應(yīng)學(xué)習(xí)方法,而是仍然使用“過時(shí)的” SGD 或是其 +momentum 和 +nesterov 變種,這是為什么呢?事實(shí)上,Wilson 等人在其NeurIPS 2017的研究中指出,自適應(yīng)方法雖然可以在訓(xùn)練早期展現(xiàn)出快速的收斂速度,但其在測試集上的表現(xiàn)卻會很快陷入停滯,并最終被 SGD 超過。

ICLR 2018的最佳論文中,作者提出了名為 AMSGrad 的新方法試圖更好的避免這一問題,然而他們只提供了理論上的收斂性證明,而沒有在實(shí)際數(shù)據(jù)的測試集上進(jìn)行試驗(yàn)。而后續(xù)的研究者在一些經(jīng)典 benchmarks 比較發(fā)現(xiàn),AMSGrad 在未知數(shù)據(jù)上的最終效果仍然和 SGD 有可觀的差距。

我們每個(gè)人都希望在訓(xùn)練模型時(shí)可以收斂的又快又好,但似乎目前來看我們很難同時(shí)做到這兩點(diǎn),或者至少我們需要對現(xiàn)有優(yōu)化算法的超參數(shù)進(jìn)行精細(xì)的調(diào)整。機(jī)器學(xué)習(xí)和深度學(xué)習(xí)社區(qū)如今非常需要一個(gè)像 Adam 一樣快,又像 SGD 一樣好的優(yōu)化器。

關(guān)鍵點(diǎn):限制極大和極小的實(shí)際學(xué)習(xí)率

最早的對各類流行的自適應(yīng)學(xué)習(xí)器和 SGD 進(jìn)行系統(tǒng)的比較分析的工作來自上文提及的 Wilson 等,在他們的文章中,首次用系統(tǒng)的實(shí)驗(yàn)和樣例問題指出了自適應(yīng)方法的性能問題。Wilson 等同時(shí)猜測,自適應(yīng)方法較差的泛化性能有可能是來源于訓(xùn)練后期不穩(wěn)定的極端學(xué)習(xí)率。然而,他們并沒有給出更多關(guān)于這一猜測的原因,包括理論分析或?qū)嶒?yàn)。

沿著這一思路,在Adaptive Gradient Methods with Dynamic Bound of Learning Rate 這篇文章中,作者首先進(jìn)行了初步的實(shí)驗(yàn)來作參考:他們在 ResNet-34 中隨機(jī)選取了 9 個(gè)卷積核和 1 個(gè)全連接層偏置向量,并從中再各隨機(jī)取樣一個(gè)維度的變量,統(tǒng)計(jì)其在 CIFAR-10 上訓(xùn)練末期的學(xué)習(xí)率。

采樣參數(shù)的學(xué)習(xí)率。每個(gè)單元格包含一個(gè)通過對學(xué)習(xí)率進(jìn)行對數(shù)運(yùn)算得到的值。顏色越淺的單元格代表越小的學(xué)習(xí)率。

我們可以看到,當(dāng)模型接近收斂時(shí),學(xué)習(xí)率中有大量的極端值(包含許多小于 0.01 和大于 1000 的情況)。這一現(xiàn)象表明在實(shí)際訓(xùn)練中,極端學(xué)習(xí)率是實(shí)際存在的。

而還有兩個(gè)關(guān)鍵問題沒有明確:

(1) 過小的學(xué)習(xí)率是否真的對模型收斂產(chǎn)生不良影響?

(2) 實(shí)際的學(xué)習(xí)率很大程度上取決于初始學(xué)習(xí)率的設(shè)定,我們可不可以通過設(shè)定一個(gè)較大的學(xué)習(xí)率還避免這一影響呢?

于是,作者繼續(xù)給出了理論證明:

這一結(jié)果表明了極端學(xué)習(xí)率的潛在負(fù)面影響,在有效解決這一問題之前,我們很可能無法使用自適應(yīng)學(xué)習(xí)器得到足夠好的最終模型;需要設(shè)法對訓(xùn)練末期 Adam 的學(xué)習(xí)率做出限制。

AdaBound:對學(xué)習(xí)率進(jìn)行動態(tài)裁剪

為了解決這一問題,我們希望能有一種優(yōu)化器可以結(jié)合 Adam 和 SGD 的優(yōu)勢,即分別是訓(xùn)練早期快速的收斂速度和訓(xùn)練末期好的最終性能?;蛘咧庇^的形容,我們希望它在訓(xùn)練早期像 Adam,而在訓(xùn)練末期更像 SGD。

基于這一思路,作者通過對學(xué)習(xí)率進(jìn)行動態(tài)裁剪,提出了 Adam 和 AMSGrad 的變種,AdaBound 和 AMSBound。這一方法受到在工程實(shí)現(xiàn)中非常常用的梯度裁剪技術(shù)的啟發(fā)。只不過這時(shí)裁剪發(fā)生在學(xué)習(xí)率而非梯度上??紤]如下的裁剪操作:

其中 Clip 可以將實(shí)際學(xué)習(xí)率限制在下界和上界?之間。很容易發(fā)現(xiàn),SGD 和 Adam 分別是應(yīng)用梯度裁剪的特殊情況:學(xué)習(xí)率為?的 SGD 可視為;Adam 可視為,?。其他取值則介于兩者之間。那么,如果用兩個(gè)關(guān)于 t 的函數(shù)來取代固定值作為新的上下界,其中從 0 逐漸收斂至,也逐漸收斂至

在這一設(shè)置下,在訓(xùn)練早期由于上下界對學(xué)習(xí)率的影響很小,算法更加接近于 Adam;而隨著時(shí)間增長裁減區(qū)間越來越收緊,模型的學(xué)習(xí)率逐漸趨于穩(wěn)定,在末期更加貼近于 SGD。AMSBound 可以對 AMSGrad 采用類似的裁剪得到。

實(shí)驗(yàn)結(jié)果

作者將 AdaBound/AMSBound 和其他經(jīng)典的學(xué)習(xí)器在一些 benchmarks 上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,包括:SGD (或 momentum 變種)、AdaGrad、Adam、AMSGrad。以下是作者在論文中提供的學(xué)習(xí)曲線。

可以看到,在幾項(xiàng) CV 和 NLP 的 benchmark 任務(wù)中,AdaBound/AMSBound 都在訓(xùn)練前期可以快速且平滑收斂的情況下,同時(shí)在末期得到了優(yōu)秀的最終性能,可以取得與 SGD 類似甚至更好的結(jié)果。

額外驚喜:對超參數(shù)更低的敏感性

AdaBound還帶給我們一個(gè)額外驚喜:它對超參數(shù)相對更不敏感,尤其是和 SGD(M) 比較。這一結(jié)果是非常意外也非常讓人驚喜的,因?yàn)檫@意味著AdaBound 有更高的魯棒性。通過使用這一新型優(yōu)化器,我們可能大大節(jié)省花在調(diào)整超參數(shù)上的時(shí)間。在常見的情形下,使用其默認(rèn)參數(shù)即可取得相對優(yōu)秀和穩(wěn)定的最終結(jié)果。

當(dāng)然,作者也同樣指出,盡管 AdaBound 相對 SGD 更加穩(wěn)定,但這并不意味著我們可以一勞永逸再也不需要調(diào)整超參了,機(jī)器學(xué)習(xí)沒有銀彈。一個(gè)模型的最終結(jié)果取決于方方面面的因素,我們?nèi)匀恍枰Y(jié)合具體問題和數(shù)據(jù)特征具體分析,對 AdaBound 做出合適的調(diào)整。而 AdaBound 最大的優(yōu)勢在于,你很可能用在這上邊的時(shí)間會比以前少很多!

代碼已在GitHub開源

AdaBound 的 PyTorch 實(shí)現(xiàn)已經(jīng)在 GitHub 上開源。作者同樣提供了可以簡單只用 pip 安裝的版本,大家可以像使用其他任何一種 PyTorch optimizer 一樣使用 AdaBound。

此外,作者還提供了一個(gè)非常方便的可視化 Jupyter notebook 并提供了相應(yīng)的訓(xùn)練代碼,方便感興趣的同學(xué)復(fù)現(xiàn)和直觀比較新優(yōu)化器的結(jié)果。

論文地址:

https://openreview.net/pdf?id=Bkg3g2R9FX

GitHub地址:

https://github.com/Luolc/AdaBound

以上就是作者的解讀。

這個(gè)工作也在Reddit機(jī)器學(xué)習(xí)社區(qū)引起熱議,不少人表示非常cool,也有人提出建議和疑問:有沒有TensorFlow實(shí)現(xiàn)?能不能在更大的數(shù)據(jù)集工作?在GAN上的結(jié)果如何等等。

作者后來在Reddit帖子更新中表示:

正如許多人以及評審人員所建議的那樣,在更多、更大的數(shù)據(jù)集上,使用更多模型測試AdaBound會更好,但很不幸,我只有有限的計(jì)算資源。我?guī)缀醪豢赡茉贗mageNet這樣的大型基準(zhǔn)上進(jìn)行實(shí)驗(yàn)。如果誰能在更大的基準(zhǔn)上測試AdaBound,并告訴我它的缺點(diǎn)或bug,那就太好了!這對于改進(jìn)AdaBound和進(jìn)一步的工作很有幫助。

我相信在計(jì)算機(jī)科學(xué)領(lǐng)域沒有什么靈丹妙藥。這并不意味著使用AdaBound你就不用調(diào)參了。模型的性能取決于很多東西,包括任務(wù)、模型結(jié)構(gòu)、數(shù)據(jù)分布等等。你仍然需要根據(jù)具體情況決定使用哪些超參數(shù),但是在這上面花的時(shí)間可以比以前少很多!

這是我第一次研究優(yōu)化方法。由于這是一個(gè)由本科生、并且對這個(gè)領(lǐng)域來說完全是新人的團(tuán)隊(duì)做的項(xiàng)目,我相信AdaBound非常需要進(jìn)一步的改進(jìn)。我會盡我最大的努力把它做好。再次感謝大家的建設(shè)性意見!這對我有很大的幫助。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92023
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266228
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131844

原文標(biāo)題:北大95后學(xué)霸親述:AI新算法媲美SGD,這是我第一次研究優(yōu)化方法

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    汽車技術(shù)發(fā)展進(jìn)程中的又一次革命

    近年來,汽車電子在汽車工業(yè)中發(fā)展迅速,已經(jīng)被認(rèn)為是汽車技術(shù)發(fā)展進(jìn)程中的又一次革命,電子產(chǎn)品系統(tǒng)占據(jù)汽車成本的40%左右,其重要性不言而喻。
    的頭像 發(fā)表于 05-17 08:47 ?6786次閱讀
    汽車技術(shù)發(fā)展進(jìn)程中的<b class='flag-5'>又一次</b>革命

    電子信息的本科生考研選擇

    現(xiàn)在電子信息類的本科生越來越多加上在本科學(xué)的都是基礎(chǔ)課,好多人都感覺沒學(xué)到實(shí)用的東西,{:2:}在用人單位面前籌莫展。{:11:}對此各位大神都有什么高見呢{:20:}?希望各位大神暢所欲言,給點(diǎn)建議。{:23:}
    發(fā)表于 04-01 22:12

    本科生課程設(shè)計(jì)-數(shù)字電子鐘

    本科生課程設(shè)計(jì)-數(shù)字電子鐘自己運(yùn)行的話需要改下其中有個(gè)音樂文件的路徑
    發(fā)表于 11-11 11:27

    本科生課程設(shè)計(jì)作品-串口調(diào)試工具

    本科生課程設(shè)計(jì)作品-串口調(diào)試工具
    發(fā)表于 11-11 17:04

    請問本科生想做FPGA相關(guān)項(xiàng)目,去哪里找項(xiàng)目比較好?

    小弟非211本科生枚,不知道本科生在哪里可以找到項(xiàng)目呢?如果想得到指導(dǎo),需要怎么做呢?謝謝大家。
    發(fā)表于 01-17 19:10

    本科生應(yīng)該學(xué)習(xí)FPJA哪方面?

    我是本科生,目前接觸過51,32.想著學(xué)年論文,畢業(yè)設(shè)計(jì)都做個(gè)東西。想著往信號處理上靠下,希望各位前輩給點(diǎn)建議。謝謝啦。
    發(fā)表于 11-19 14:16

    請問本科生學(xué)哪種實(shí)時(shí)操作系統(tǒng)比較合適?

    本科生學(xué)哪種實(shí)時(shí)操作系統(tǒng)合適
    發(fā)表于 05-05 03:29

    工程電路分析電子教材國外本科生教材免費(fèi)下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是工程電路分析電子教材國外本科生教材免費(fèi)下載。
    發(fā)表于 08-02 08:00 ?0次下載
    工程電路分析電子教材國外<b class='flag-5'>本科生</b>教材免費(fèi)下載

    智能音箱又一次迎來發(fā)展熱潮,各大巨頭聚焦兒童智能音箱市場

    自今年 3 月起,以阿里、小米、百度為先鋒的幾家智能音箱大廠,相繼掀起場細(xì)分領(lǐng)域的市場爭奪戰(zhàn)。高額的產(chǎn)品補(bǔ)貼、瘋狂的促銷推廣,已經(jīng)使得智能音箱又一次迎來發(fā)展熱潮;在帶屏音箱、mini 音箱兩輪熱潮過后,這一次大家又不約而同將目
    發(fā)表于 09-30 15:30 ?1410次閱讀

    巨虧之后的聯(lián)建光電,開啟一次又一次的“瘦身”行動

    重壓之下,聯(lián)建光電也在積極尋找出路,其一次又一次的出售子公司股權(quán),就意味著聯(lián)建光電未來計(jì)劃“輕裝上陣”。
    的頭像 發(fā)表于 04-07 09:24 ?3025次閱讀

    人工智能專業(yè)本科生入學(xué),專業(yè)培養(yǎng)瞄向“大師級”

    教育部明確,到2020年建設(shè)100個(gè)“人工智能+X”復(fù)合特色專業(yè),編寫50本具有國際流水平的本科生和研究教材,建設(shè)50門人工智能領(lǐng)域國家級精品在線開放課程,建立50家AI學(xué)院、研究
    的頭像 發(fā)表于 09-09 10:54 ?2480次閱讀

    我國核電站控制系統(tǒng)又一次重大升級

    國家電投集團(tuán)18日發(fā)布包括核電站數(shù)字化控制系統(tǒng)平臺(NuCON?)和操縱員支持系統(tǒng)在內(nèi)的15項(xiàng)重大科技成果,標(biāo)志著我國自主核電站控制技術(shù)實(shí)現(xiàn)又一次重大升級。
    的頭像 發(fā)表于 04-20 17:12 ?4992次閱讀

    微軟開發(fā)了一種新的AI圖像字幕算法

    微軟開發(fā)了一種新的圖像字幕算法,在某些有限的測試中,其準(zhǔn)確率超過了人類。該人工智能系統(tǒng)已被用于更新該公司為視障人士提供的助理應(yīng)用程序 “Seeing AI”,并將很快被納入Word、O
    的頭像 發(fā)表于 10-15 14:09 ?1647次閱讀

    iPhone的小杯產(chǎn)品或許又一次引領(lǐng)業(yè)界

    代iPhone的中杯、大杯、超大杯的配置,還帶來了小杯iPhone12 mini,或許你真的不知道星巴克還真的有小杯。而我們看到的iPhone的小杯產(chǎn)品或許又一次引領(lǐng)業(yè)界。 超大杯拉升產(chǎn)品檔位 去年
    的頭像 發(fā)表于 10-23 17:26 ?1398次閱讀

    箭41顆星,刷新我國一次發(fā)射衛(wèi)星數(shù)量最多的紀(jì)錄

    中國新紀(jì)錄!箭41星!中國航天又一次交出更亮眼的成績單。 就在今天下午13時(shí)30分,太原衛(wèi)星發(fā)射中心成功將吉林號高分06A星等41顆衛(wèi)星準(zhǔn)確送入預(yù)定軌道,今天的發(fā)射任務(wù)取得圓滿成功
    發(fā)表于 06-15 20:49 ?1593次閱讀