深度強化學(xué)習(xí)、多智體強化學(xué)習(xí)以及博弈論,是DeepMind戰(zhàn)勝職業(yè)星際II玩家的智能體AlphaStar的重要技術(shù)。倫敦帝國大學(xué)和NYU研究人員則從進化計算的角度指出,AlphaStar使用的競爭協(xié)同進化算法策略被遠遠低估。
DeepMind首次戰(zhàn)勝星際II職業(yè)玩家的AI——AlphaStar,正如新智元創(chuàng)始人兼CEO楊靜女士在《新智元2019年寄語》中所說的那樣,引爆機器智能無限可能。
AlphaStar是一項壯舉,是建立在DeepMind及其他研究人員多年的研究和工程基礎(chǔ)之上,尤其是深度強化學(xué)習(xí)(DRL)、多智體強化學(xué)習(xí)(MARL)和博弈論。
雖然在官方博文中,DeepMind也提到了進化算法(Evolutionary Algorithm, EA),但這顯然并非其重點。不過,倫敦帝國學(xué)院的Kai Arulkumaran等人,反過來從進化算法的角度來看AlphaStar,希望對深度強化學(xué)習(xí)領(lǐng)域和進化計算的研究者都帶來啟發(fā)。
進化計算和深度學(xué)習(xí)并非對立的兩個陣營。
事實上,Arulkumaran等人最新在Arxiv上貼出的論文《從進化計算角度看AlphaStar》(AlphaStar: An Evolutionary Computation Perspective),也確實提出了很多新的問題。
例如,在DeepMind提出的快速調(diào)參算法PBT中,用Baldwinian進化算法代替拉馬克(Lamarckian)進化,是否能得到元學(xué)習(xí)星際II智能體?
Arulkumaran本人也在Twitter表示,這篇文章是對一系列概念的高級概括,還需要進一步探索,他們在寫作時有意識地省略了演化計算和博弈論之間重疊的部分。
同時,他也指出,不能認為AlphaStar僅僅只是一個演化算法,AlphaStar的混合性質(zhì)有些類似于AlphaGo atm?!癉eepMind官方博文顯示了從IL階段MMR的提升,這一點看起來很重要,但哪些細節(jié)是最重要的,我們目前還不知道?!?/p>
以下是新智元對文章的編譯。
從進化計算角度看AlphaStar
2019年1月,DeepMind向世界展示了AlphaStar——第一個在星際爭霸II游戲中擊敗職業(yè)玩家的人工智能(AI)系統(tǒng),它代表了人工智能技術(shù)進步的一個里程碑。
AlphaStar涉及人工智能研究的許多領(lǐng)域,包括深度學(xué)習(xí),強化學(xué)習(xí),博弈論和進化計算等(EC)。
在本文中,我們主要通過進化計算的角度來分析AlphaStar,為審視該系統(tǒng)提供一個新的視角,并將其與AI領(lǐng)域的許多概念關(guān)聯(lián)起來。我們重點介紹其中一些最有趣的方面:拉馬克進化、協(xié)同競爭進化和質(zhì)量多樣性。希望通過本文,在更廣泛的進化計算社區(qū)與新誕生的這個重要的AI系統(tǒng)之間架起一座橋梁。
在1997年”深藍“擊敗國際象棋世界冠軍后,人工智能與人類博弈的下一個重要里程碑是出現(xiàn)在2016年,圍棋世界冠軍李世乭被AlphaGo擊敗。國際象棋和圍棋此前都被認為是AI取得進展最困難的領(lǐng)域,可以說,與之相比難度相當(dāng)?shù)目简炛痪褪菗魯⌒请H爭霸(SC)游戲中的大師級玩家。
星際爭霸是一款即時戰(zhàn)略(RTS)游戲。《星際1》及其續(xù)作《星際II》都具有幾個特點,使得它甚至比圍棋的挑戰(zhàn)更大。比如只能觀察到戰(zhàn)場的一部分、沒有單一的主導(dǎo)策略、復(fù)雜的游戲規(guī)則、快速建模的難度更大,動作空間極大,且復(fù)雜多變等。可以說,想實現(xiàn)征服《星際爭霸》的目標,一點也不比圍棋上的突破來得容易。
想實現(xiàn)征服《星際爭霸》的目標,一點也不比圍棋上的突破來得容易。圖片來源:Jesus Rodriguez, The Science Behind AlphaStar
最近,DeepMind推出的AlphaStar向著實現(xiàn)這個目標邁出了重要一步,AlphaStar是一個基于神經(jīng)網(wǎng)絡(luò)的AI系統(tǒng),在2018年12月?lián)魯×藢I(yè)的SC II玩家。
該系統(tǒng)與其前身AlphaGo一樣,最初使用模仿學(xué)習(xí)來模仿人類的游戲行為,然后通過強化學(xué)習(xí)(RL)和自我對弈的組合方式進行改進。
算法在這里發(fā)生了分歧,因為AlphaStar利用基于人口的訓(xùn)練(PBT)來明確地保持一群相互訓(xùn)練的智能體。這部分訓(xùn)練過程建立在多智能體強化學(xué)習(xí)和博弈論視角之上,但人口的概念是進化計算的核心,因此我們也可以通過這個視角來考察AlphaStar。
AlphaStar使用了拉馬克進化算法
目前,訓(xùn)練神經(jīng)網(wǎng)絡(luò)參數(shù)的最流行的方法是反向傳播(BP)。但是,有許多方法可以調(diào)整其超參數(shù),包括進化算法。
其中一種方法是使用模因算法(MA),這個算法中,進化作為外部優(yōu)化算法運行,并且各個解決方案可以通過內(nèi)環(huán)中的其他方式(例如反向傳播)來進行優(yōu)化。在這種特定情況下,模因算法可以將進化算法的探索和全局搜索屬性與反向傳播算法的高效本地搜索的優(yōu)勢結(jié)合起來。
AlphaStar的基本架構(gòu)。來源:DeepMind
在AlphaStar中,用于訓(xùn)練智能體的基于人口的訓(xùn)練策略(PBT)是使用拉馬克進化(LE)的模因算法:在內(nèi)環(huán)中,使用反向傳播連續(xù)訓(xùn)練神經(jīng)網(wǎng)絡(luò),而在外環(huán)中,使用幾種選擇方法中的一種來選擇網(wǎng)絡(luò)(比如淘汰制錦標賽選擇),用勝者的參數(shù)覆蓋敗者的參數(shù),敗者也會收到勝者超參數(shù)的“變異”副本。
PBT策略最初是通過一系列監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)任務(wù)展示的,調(diào)整和提升神經(jīng)網(wǎng)絡(luò)的性能。對于具有高度非平穩(wěn)損耗表面的問題,例如深度強化學(xué)習(xí)問題,這種策略可能是最有效的,因為它可以在運行過程中改變超參數(shù)。
AlphaStar vs MaNa,神經(jīng)網(wǎng)絡(luò)如何將觀察到的結(jié)果轉(zhuǎn)換為行動。來源:DeepMind
由于單個網(wǎng)絡(luò)可能需要高達數(shù)G的內(nèi)存,或需要訓(xùn)練長達幾個小時,因此可擴展性是PBT的關(guān)鍵。因此,PBT既是異步的,又是分布式的。與使用靜態(tài)超參數(shù)運行許多實驗不同,使用相同數(shù)量的硬件,利用PBT只需要很少的開銷——外部循環(huán)可以重用內(nèi)部循環(huán)的解決方案進行評估,而且數(shù)據(jù)通信量也比較低。如果考慮非平穩(wěn)超參數(shù)因素和對較弱解決方案的優(yōu)先搶占的影響,PBT方案能夠節(jié)省的成本更多。
這些要求的另一個結(jié)果是PBT是穩(wěn)定狀態(tài),這一點與分代進化算法不同。由于對異步進化算法和拉馬克進化的自然適應(yīng)性,穩(wěn)態(tài)進化算法可以允許各個解決方案的優(yōu)化和評估不間斷地進行,從而實現(xiàn)資源效率最大化。
最適合的解決方案能夠存活更長時間,自然地提供了一種精英主義/名人堂模式,但并非最優(yōu)的前代方案也可以保留下來,保持解決方案多樣性。
自我對弈也體現(xiàn)了競爭性協(xié)同進化(CCEA)
在對AlphaStar一類游戲智能體進行優(yōu)化時,智能體可以使用自對戰(zhàn)來提升水平。
競爭性協(xié)同進化算法(CCEA)可以被視為自我對弈的超集(superset),并非只保留當(dāng)前解決方案及其前身,而是保持和評估整個解決方案的群體。
與自我對弈一樣,CEA形成了一個自然的教學(xué)過程,但也提供了額外的穩(wěn)健性,因為產(chǎn)生的解決方案是基于各種其他解決方案進行評估的。
AlphaStar的訓(xùn)練過程。來源:DeepMind
通過在CCEA環(huán)境中使用PBT策略,利用基于反向傳播的深度強化學(xué)習(xí),再加上進化版的獎勵函數(shù),能夠訓(xùn)練智能體從像素級入手,開始學(xué)習(xí)玩第一人稱游戲。
CEA的設(shè)計包括很多方面,這種方法的特征可能導(dǎo)致許多潛在的變體。
AlphaStar還可以歸為質(zhì)量多樣性算法
在《星際爭霸》中,沒有所謂“最好的策略”。因此,最終的AlphaStar智能體由納什分布的人口組成,構(gòu)成一組互補的、最不可利用的策略。
為了改進訓(xùn)練方式,增加最終解決方案的多樣性,明確鼓勵多樣性是有意義的。
AlphaStar也可以歸為質(zhì)量多樣性(QD)算法。尤其是,智能體可以具有游戲特定的屬性,例如構(gòu)建特定類型的額外單位,以及擊敗某個其他智能體的標準,擊敗一組其他智能體的標準,甚至是上述這些要素的混合。
此外,這些特定標準也可以在線調(diào)整,這對于QD算法而言屬于全新的特性——除了POET以外。這使得智能體可以做到更多的事情:可以從人類數(shù)據(jù)中提取有用的信息,甚至進行無監(jiān)督學(xué)習(xí)。
考慮到一系列不同的策略,下一步將自然而然地推斷哪種策略可能最適合對付給定的對手,從而實現(xiàn)在線適應(yīng)。
討論
雖然AlphaStar是一個復(fù)雜的系統(tǒng),涉及人工智能研究的許多領(lǐng)域,但我們認為,迄今為止被低估的一點是競爭性協(xié)同進化算法策略。它結(jié)合了拉馬克進化,共同進化和質(zhì)量多樣性,達到了驚人的效果。
希望本文能夠讓進化計算和深度強化學(xué)習(xí)社區(qū)更好地欣賞和構(gòu)建這個重要的AI系統(tǒng)。
-
智能體
+關(guān)注
關(guān)注
1文章
126瀏覽量
10556 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5471瀏覽量
120904 -
DeepMind
+關(guān)注
關(guān)注
0文章
129瀏覽量
10813
原文標題:DeepMind首個戰(zhàn)勝星際2職業(yè)玩家的AI為何無敵?新視角揭秘AI里程碑
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論