0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

mK5P_AItists ? 來源:陳翠 ? 2019-01-01 09:22 ? 次閱讀

OpenAI近期發(fā)布了一個(gè)新的訓(xùn)練環(huán)境 CoinRun,它提供了一個(gè)度量智能體將其學(xué)習(xí)經(jīng)驗(yàn)活學(xué)活用到新情況的能力指標(biāo),而且還可以解決一項(xiàng)長(zhǎng)期存在于強(qiáng)化學(xué)習(xí)中的疑難問題——即使是廣受贊譽(yù)的強(qiáng)化算法在訓(xùn)練過程中也總是沒有運(yùn)用監(jiān)督學(xué)習(xí)的技術(shù),例如 Dropout 和 Batch Normalization。但是在 CoinRun的泛化機(jī)制中,OpenAI的研究人員們發(fā)現(xiàn)這些方法其實(shí)有用,并且他們更早開發(fā)的強(qiáng)化學(xué)習(xí)會(huì)對(duì)特定的 MDP過擬合。 CoinRun 在復(fù)雜性方面取得了令人滿意的平衡:這個(gè)環(huán)境比傳統(tǒng)平臺(tái)游戲如《刺猬索尼克》要簡(jiǎn)單得多,但它仍是對(duì)現(xiàn)有算法的泛化性的有難度的挑戰(zhàn)。

量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

泛化挑戰(zhàn)

任務(wù)間的泛化一直是當(dāng)前深度強(qiáng)化學(xué)習(xí)(RL)算法的難點(diǎn)。雖然智能體經(jīng)過訓(xùn)練后可以解決復(fù)雜的任務(wù),但他們很難將習(xí)得經(jīng)驗(yàn)轉(zhuǎn)移到新的環(huán)境中。即使人們知道強(qiáng)化學(xué)習(xí)智能體傾向于過擬合——也就是說,不是學(xué)習(xí)通用技能,而更依賴于他們環(huán)境的細(xì)節(jié)——強(qiáng)化學(xué)習(xí)智能體始終是通過評(píng)估他們所訓(xùn)練的環(huán)境來進(jìn)行基準(zhǔn)測(cè)試。這就好比,在監(jiān)督學(xué)習(xí)中對(duì)你的訓(xùn)練集進(jìn)行測(cè)試一樣!

之前的強(qiáng)化學(xué)習(xí)研究中已經(jīng)使用了Sonic游戲基準(zhǔn)、程序生成的網(wǎng)格世界迷宮,以及通用化設(shè)計(jì)的電子游戲 AI 框架來解決這個(gè)問題。在所有情況下,泛化都是通過在不同級(jí)別集合上的訓(xùn)練和測(cè)試智能體來進(jìn)行度量的。在OpenAI的測(cè)試中,在 Sonic游戲基準(zhǔn)中受過訓(xùn)練的智能體在訓(xùn)練關(guān)卡上表現(xiàn)出色,但是如果不經(jīng)過精細(xì)調(diào)節(jié)(fine-tuning)的話,在測(cè)試關(guān)卡中仍然會(huì)表現(xiàn)不佳。在類似的過擬合顯示中,在程序生成的迷宮中訓(xùn)練的智能體學(xué)會(huì)了記憶大量的訓(xùn)練關(guān)卡,而 GVG-AI 智能體在訓(xùn)練期間未見過的難度設(shè)置下表現(xiàn)不佳。

游戲規(guī)則

CoinRun 是為現(xiàn)有算法而設(shè)計(jì)的一個(gè)有希望被解決的場(chǎng)景,它模仿了Sonic等平臺(tái)游戲的風(fēng)格。CoinRun 的關(guān)卡是程序生成的,使智能體可以訪問大量且易于量化的訓(xùn)練數(shù)據(jù)。每個(gè) CoinRun 關(guān)卡的目標(biāo)很簡(jiǎn)單:越過幾個(gè)或靜止或非靜止的障礙物,并收集到位于關(guān)卡末尾的一枚硬幣。 如果碰撞到障礙物,智能體就會(huì)立即死亡。環(huán)境中唯一的獎(jiǎng)勵(lì)是通過收集硬幣獲得的,而這個(gè)獎(jiǎng)勵(lì)是一個(gè)固定的正常數(shù)。 當(dāng)智能體死亡、硬幣被收集或經(jīng)過1000個(gè)時(shí)間步驟后,等級(jí)終止。

每個(gè)關(guān)卡的 CoinRun 設(shè)置難度從 1 到 3 .上面顯示了兩種不同的關(guān)卡:難度-1(左)和難度-3(右)

評(píng)估泛化

OpenAI 訓(xùn)練了 9個(gè)智能體來玩 CoinRun,每個(gè)智能體都有不同數(shù)量的可用訓(xùn)練關(guān)卡。其中 8個(gè)智能體的訓(xùn)練關(guān)卡數(shù)目從 100 到 16000 不等,最后一個(gè)智能體的關(guān)卡數(shù)目不受限制,因此它也永遠(yuǎn)不會(huì)經(jīng)歷相同的訓(xùn)練關(guān)卡。OpenAI使用一個(gè)常見的 3 層卷積網(wǎng)絡(luò)架構(gòu)(他們稱之為Nature-CNN),在其上訓(xùn)練智能體的策略。他們使用近端策略優(yōu)化(PPO)對(duì)智能體進(jìn)行了訓(xùn)練,總共完成了 256M 的時(shí)間步驟。由于每輪訓(xùn)練平均持續(xù) 100 個(gè)時(shí)間步驟,具有固定訓(xùn)練集的智能體將會(huì)看到每個(gè)相同的訓(xùn)練級(jí)別數(shù)千到數(shù)百萬次。而最后那一個(gè)不受限制的智能體,經(jīng)過不受限制的集合訓(xùn)練,則會(huì)看到約 200 萬個(gè)不同的關(guān)卡,每個(gè)關(guān)卡一次。

OpenAI收集了數(shù)據(jù)并繪制出了下面的圖,每個(gè)點(diǎn)表示智能體在 10000輪訓(xùn)練中的表現(xiàn)的平均值。在測(cè)試時(shí)使用智能體進(jìn)行從未見過的關(guān)卡。他們發(fā)現(xiàn),當(dāng)訓(xùn)練關(guān)卡數(shù)目低于 4000 時(shí),就會(huì)出現(xiàn)嚴(yán)重的過擬合。事實(shí)上,即使有 16000 個(gè)關(guān)卡的訓(xùn)練,仍會(huì)出現(xiàn)過擬合現(xiàn)象!不出所料,接受了不受限水平訓(xùn)練的智能體表現(xiàn)最好,因?yàn)樗梢栽L問最多的數(shù)據(jù)。這些智能體用下圖中的虛線表示。

他們將 Nature-CNN 基線與 IMPALA 中使用的卷積網(wǎng)絡(luò)進(jìn)行了比較,發(fā)現(xiàn) IMPALA- cnn 智能體在任何訓(xùn)練集下的泛化效果都要好得多,如下所示。

量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

(左)最終訓(xùn)練和測(cè)試cnn - nature agent的性能,經(jīng)過256M的時(shí)間步長(zhǎng),橫軸是訓(xùn)練關(guān)卡數(shù)目。

(右)最終訓(xùn)練并測(cè)試IMPALA-CNN agent的性能,經(jīng)過256M的時(shí)間步長(zhǎng),橫軸是訓(xùn)練關(guān)卡數(shù)目

提高泛化性能

在接下來的實(shí)驗(yàn)中,OpenAI 使用了 500 個(gè)CoinRun級(jí)別的固定訓(xùn)練集。OpenAI的基準(zhǔn)智能體在如此少的關(guān)卡數(shù)目上泛化,這使它成為一個(gè)理想的基準(zhǔn)訓(xùn)練集。他們鼓勵(lì)其他人通過在相同的 500 個(gè)關(guān)卡上進(jìn)行訓(xùn)練來評(píng)估他們自己的方法,直接比較測(cè)試時(shí)的性能。 利用該訓(xùn)練集,他們研究了幾種正則化技術(shù)的影響:

dropout (當(dāng)一個(gè)復(fù)雜的前饋神經(jīng)網(wǎng)絡(luò)在小的數(shù)據(jù)集上訓(xùn)練時(shí)容易造成過擬合。為了防止這種情況的發(fā)生,可以通過在不同的時(shí)候讓不同的特征檢測(cè)器不參與訓(xùn)練的做法來提高神經(jīng)網(wǎng)絡(luò)的性能)和 L2批量正則化(就是在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,讓每一層神經(jīng)網(wǎng)絡(luò)的輸入都保持相同分布的批標(biāo)準(zhǔn)化):兩者都帶來了更好的泛化性能,而 L2 正則化的影響更大

數(shù)據(jù)增強(qiáng)和批量標(biāo)準(zhǔn)化:數(shù)據(jù)增強(qiáng)和批量標(biāo)準(zhǔn)化都顯著改善了泛化。

環(huán)境隨機(jī)性:與前面提到的任何一種技術(shù)相比,具有隨機(jī)性的訓(xùn)練在更大程度上改善了泛化(詳見論文https://arxiv.org/abs/1812.02341)。

量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

額外的環(huán)境

OpenAI 還開發(fā)了另外兩個(gè)環(huán)境來研究過擬合:一個(gè)名為 CoinRun-Platforms的 CoinRun 變體和一個(gè)名為 RandomMazes 的簡(jiǎn)單迷宮導(dǎo)航環(huán)境。 在這些實(shí)驗(yàn)中,他們使用了原始的 IMPALA-CNN 架構(gòu)和 LSTM,因?yàn)樗麄冃枰銐虻膬?nèi)存來保證在這些環(huán)境中良好地運(yùn)行。

在 CoinRun-Platforms 中,智能體試圖在 1000 步時(shí)限內(nèi)收集幾個(gè)硬幣。硬幣被隨機(jī)地分散在關(guān)卡的不同平臺(tái)上。在 CoinRun-Platforms 中,關(guān)卡更大、更固定,因此智能體必須更積極地探索,偶爾還要回溯其步驟。

量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

在 CoinRun-Platforms 上經(jīng)過 20 億個(gè)時(shí)間步驟后的最終訓(xùn)練和測(cè)試性能,橫軸是訓(xùn)練關(guān)卡數(shù)目

當(dāng)他們?cè)诨€智能體實(shí)驗(yàn)中測(cè)試運(yùn)行 CoinRun-Platforms和 RandomMazes 時(shí),智能體在所有情況下都非常嚴(yán)重過擬合。在 RandomMazes中,他們觀察到特別強(qiáng)的過擬合,因?yàn)榧词故褂?20,000 個(gè)訓(xùn)練關(guān)卡是,仍然與無限關(guān)卡的智能體存在相當(dāng)大的泛化差距。

RandomMazes中的一個(gè)級(jí)別,顯示智能體的觀察空間(左)。橫軸是訓(xùn)練關(guān)卡數(shù)目

下一步

OpenAI 的結(jié)果再次揭示了強(qiáng)化學(xué)習(xí)中潛在的問題。使用程序生成的 CoinRun 環(huán)境可以精確地量化這種過擬合。有了這個(gè)度量,研究人員們可以更好地評(píng)估關(guān)鍵的體系結(jié)構(gòu)和算法決策。他相信,從這個(gè)環(huán)境中吸取的經(jīng)驗(yàn)教訓(xùn)將適用于更復(fù)雜的環(huán)境,他們希望使用這個(gè)基準(zhǔn),以及其他類似的基準(zhǔn),向具有通用泛化能力的智能體迭代前進(jìn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:學(xué)界 | 量化深度強(qiáng)化學(xué)習(xí)算法的泛化能力

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    什么是深度強(qiáng)化學(xué)習(xí)?深度強(qiáng)化學(xué)習(xí)算法應(yīng)用分析

    什么是深度強(qiáng)化學(xué)習(xí)? 眾所周知,人類擅長(zhǎng)解決各種挑戰(zhàn)性的問題,從低級(jí)的運(yùn)動(dòng)控制(如:步行、跑步、打網(wǎng)球)到高級(jí)的認(rèn)知任務(wù)。
    發(fā)表于 07-01 10:29 ?1331次閱讀
    什么是<b class='flag-5'>深度</b><b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>?<b class='flag-5'>深度</b><b class='flag-5'>強(qiáng)化學(xué)習(xí)</b><b class='flag-5'>算法</b>應(yīng)用分析

    深度學(xué)習(xí)DeepLearning實(shí)戰(zhàn)

    一:深度學(xué)習(xí)DeepLearning實(shí)戰(zhàn)時(shí)間地點(diǎn):1 月 15日— 1 月18 日二:深度強(qiáng)化學(xué)習(xí)核心技術(shù)實(shí)戰(zhàn)時(shí)間地點(diǎn): 1 月 27 日— 1 月30 日(第一天報(bào)到 授課三天;提前
    發(fā)表于 01-09 17:01

    深度強(qiáng)化學(xué)習(xí)實(shí)戰(zhàn)

    一:深度學(xué)習(xí)DeepLearning實(shí)戰(zhàn)時(shí)間地點(diǎn):1 月 15日— 1 月18 日二:深度強(qiáng)化學(xué)習(xí)核心技術(shù)實(shí)戰(zhàn)時(shí)間地點(diǎn): 1 月 27 日— 1 月30 日(第一天報(bào)到 授課三天;提前
    發(fā)表于 01-10 13:42

    深度學(xué)習(xí)強(qiáng)化學(xué)習(xí)相結(jié)合的深度強(qiáng)化學(xué)習(xí)DRL

    深度強(qiáng)化學(xué)習(xí)DRL自提出以來, 已在理論和應(yīng)用方面均取得了顯著的成果。尤其是谷歌DeepMind團(tuán)隊(duì)基于深度強(qiáng)化學(xué)習(xí)DRL研發(fā)的AlphaGo,將
    發(fā)表于 06-29 18:36 ?2.8w次閱讀

    基于強(qiáng)化學(xué)習(xí)的MADDPG算法原理及實(shí)現(xiàn)

    之前接觸的強(qiáng)化學(xué)習(xí)算法都是單個(gè)智能體的強(qiáng)化學(xué)習(xí)算法,但是也有很多重要的應(yīng)用場(chǎng)景牽涉到多個(gè)智能體之間的交互。
    的頭像 發(fā)表于 11-02 16:18 ?2.2w次閱讀

    深度強(qiáng)化學(xué)習(xí)到底是什么?它的工作原理是怎么樣的

    深度學(xué)習(xí)DL是機(jī)器學(xué)習(xí)中一種基于對(duì)數(shù)據(jù)進(jìn)行表征學(xué)習(xí)的方法。深度學(xué)習(xí)DL有監(jiān)督和非監(jiān)督之分,都已經(jīng)
    的頭像 發(fā)表于 06-13 11:39 ?5874次閱讀

    83篇文獻(xiàn)、萬字總結(jié)強(qiáng)化學(xué)習(xí)之路

    深度強(qiáng)化學(xué)習(xí)深度學(xué)習(xí)強(qiáng)化學(xué)習(xí)相結(jié)合的產(chǎn)物,它集成了深度學(xué)
    的頭像 發(fā)表于 12-10 18:32 ?500次閱讀

    機(jī)器學(xué)習(xí)中的無模型強(qiáng)化學(xué)習(xí)算法及研究綜述

    強(qiáng)化學(xué)習(xí)( Reinforcement learning,RL)作為機(jī)器學(xué)習(xí)領(lǐng)域中與監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)并列的第三種學(xué)習(xí)范式,通過與環(huán)境進(jìn)行
    發(fā)表于 04-08 11:41 ?11次下載
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>中的無模型<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b><b class='flag-5'>算法</b>及研究綜述

    模型深度強(qiáng)化學(xué)習(xí)應(yīng)用研究綜述

    深度強(qiáng)化學(xué)習(xí)(DRL)作為機(jī)器學(xué)習(xí)的重要分攴,在 Alphago擊敗人類后受到了廣泛關(guān)注。DRL以種試錯(cuò)機(jī)制與環(huán)境進(jìn)行交互,并通過最大化累積獎(jiǎng)賞最終得到最優(yōu)策略。強(qiáng)化學(xué)習(xí)可分為無模型
    發(fā)表于 04-12 11:01 ?9次下載
    模型<b class='flag-5'>化</b><b class='flag-5'>深度</b><b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>應(yīng)用研究綜述

    基于深度強(qiáng)化學(xué)習(xí)仿真集成的壓邊力控制模型

    壓邊為改善板料拉深制造的成品質(zhì)量,釆用深度強(qiáng)化學(xué)習(xí)的方法進(jìn)行拉深過程旳壓邊力優(yōu)化控制。提岀一種基于深度強(qiáng)化學(xué)習(xí)與有限元仿真集成的壓邊力控制模型,結(jié)合
    發(fā)表于 05-27 10:32 ?0次下載

    一種新型的多智能體深度強(qiáng)化學(xué)習(xí)算法

    一種新型的多智能體深度強(qiáng)化學(xué)習(xí)算法
    發(fā)表于 06-23 10:42 ?36次下載

    基于深度強(qiáng)化學(xué)習(xí)的無人機(jī)控制律設(shè)計(jì)方法

    基于深度強(qiáng)化學(xué)習(xí)的無人機(jī)控制律設(shè)計(jì)方法
    發(fā)表于 06-23 14:59 ?46次下載

    《自動(dòng)化學(xué)報(bào)》—多Agent深度強(qiáng)化學(xué)習(xí)綜述

    突破.由于融合了深度學(xué)習(xí)強(qiáng)大的表征能力強(qiáng)化學(xué)習(xí)有效的策略搜索能力,深度
    發(fā)表于 01-18 10:08 ?1468次閱讀
    《自動(dòng)<b class='flag-5'>化學(xué)</b>報(bào)》—多Agent<b class='flag-5'>深度</b><b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>綜述

    ESP32上的深度強(qiáng)化學(xué)習(xí)

    電子發(fā)燒友網(wǎng)站提供《ESP32上的深度強(qiáng)化學(xué)習(xí).zip》資料免費(fèi)下載
    發(fā)表于 12-27 10:31 ?0次下載
    ESP32上的<b class='flag-5'>深度</b><b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>

    基于強(qiáng)化學(xué)習(xí)的目標(biāo)檢測(cè)算法案例

    摘要:基于強(qiáng)化學(xué)習(xí)的目標(biāo)檢測(cè)算法在檢測(cè)過程中通常采用預(yù)定義搜索行為,其產(chǎn)生的候選區(qū)域形狀和尺寸變化單一,導(dǎo)致目標(biāo)檢測(cè)精確度較低。為此,在基于深度強(qiáng)化學(xué)習(xí)的視覺目標(biāo)檢測(cè)
    發(fā)表于 07-19 14:35 ?0次下載