0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種替代性的基于模擬的搜索方法,即策略梯度搜索

電子工程師 ? 來(lái)源:lq ? 2019-04-29 09:37 ? 次閱讀

蒙特卡羅樹搜索(MCTS)算法執(zhí)行基于模擬的搜索以改進(jìn)在線策略。在搜索過程中,模擬策略適用于探索最有希望的游戲策略。MCTS已被用于處理許多最新的程序問題,但MCTS的一個(gè)缺點(diǎn)是需要評(píng)估狀態(tài)值并存儲(chǔ)其結(jié)果,這在分支樹非常多的游戲場(chǎng)景中并不適用。

作者提出了一種替代性的基于模擬的搜索方法,即策略梯度搜索(PGS),該方法通過策略梯度更新在線調(diào)整神經(jīng)網(wǎng)絡(luò)模擬策略,避免了對(duì)搜索樹的需求。在Hex中,PGS實(shí)現(xiàn)了與MCTS相當(dāng)?shù)男阅?,并且使用專家迭代算法(Expert Iteration)和 PGS訓(xùn)練的模型擊敗了MoHex 2.0,這是目前最強(qiáng)的開源Hex代理。

蒙特卡羅樹搜索(MCTS)在Go和Hex等游戲中實(shí)現(xiàn)最大測(cè)試時(shí)間性能的價(jià)值早已為人所知。最近的研究表明,在許多經(jīng)典的棋盤類游戲中,通過專家迭代算法將規(guī)劃方法納入強(qiáng)化學(xué)習(xí)智能體的訓(xùn)練,可以使用純RL方法實(shí)現(xiàn)最好的性能。

但是,MCTS構(gòu)建一個(gè)顯式搜索樹,每個(gè)節(jié)點(diǎn)會(huì)存儲(chǔ)其訪問數(shù)和估計(jì)值。所以在MCTS中需要多次訪問搜索樹中的節(jié)點(diǎn)。這種方法適用許多經(jīng)典的棋盤游戲,但在許多現(xiàn)實(shí)世界的問題中,分支樹都會(huì)非常大,這使得MCTS難以使用。大量的分支樹可能由非常大的動(dòng)作空間或偶然節(jié)點(diǎn)引起。在動(dòng)作空間很大時(shí),可以使用先前策略來(lái)降低弱動(dòng)作的影響,從而減少有效分支樹。隨機(jī)轉(zhuǎn)換更難以處理,因?yàn)橄惹暗牟呗圆荒苡糜跍p少偶然節(jié)點(diǎn)處的分支因子。

相比之下,蒙特卡羅搜索(MCS)算法沒有這樣的要求。MCTS使用每個(gè)節(jié)點(diǎn)中的值估計(jì)來(lái)調(diào)整模擬策略,而MCS算法在整個(gè)搜索過程中都有固定的模擬策略。但是,由于MCS在搜索過程中不能提高模擬質(zhì)量,因此它的效果會(huì)明顯弱于MCTS。

基礎(chǔ)理論:

1)Markov Decision Processes(MDP):馬爾可夫決策過程在每個(gè)時(shí)間間隔t中,代理觀察狀態(tài)并選擇要采取的動(dòng)作。對(duì)于終止?fàn)顟B(tài),需要最大化階段性獎(jiǎng)勵(lì)R。

2)Hex:Hex 是一個(gè)基于雙人的基于連接的游戲,在n×n六邊形網(wǎng)格上進(jìn)行。游戲雙方分別用黑色和白色棋子表示,雙方輪流在空的位置上放置自己的棋子。如果白棋從左到右連續(xù)成線則白棋贏,若黑色棋子從上到下連成線則黑棋贏,下圖是白棋贏的示意圖。

3)Monte Carlo Tree Search(MCTS):蒙特卡羅樹搜索是一種隨時(shí)可用的最佳樹搜索算法。它使用重復(fù)的游戲模擬來(lái)估計(jì)狀態(tài)值,并使用更優(yōu)的游戲策略進(jìn)一步擴(kuò)展搜索樹。當(dāng)所有分支都模擬完成后,采取reward值最高的action。

4)Monte Carlo Search(MCS):蒙特卡羅搜索是一種比MCTS更簡(jiǎn)單的搜索算法。給定狀態(tài)和策略,通過迭代的模擬選擇評(píng)估值最高的策略。

5)Expert Iteration:搜索算法基于單個(gè)狀態(tài)s0的規(guī)劃模型動(dòng)作,但不學(xué)習(xí)推廣到不同位置的信息。相比之下,深度神經(jīng)網(wǎng)絡(luò)能夠在狀態(tài)空間中推廣知識(shí)。專家迭代算法將基于搜索的規(guī)劃方法和深度學(xué)習(xí)進(jìn)行了結(jié)合,其中規(guī)劃算法作為專家,用于發(fā)現(xiàn)對(duì)當(dāng)前策略的改進(jìn)內(nèi)容。神經(jīng)網(wǎng)絡(luò)算法作為學(xué)員,其模仿專家的策略并計(jì)算值函數(shù)。

Policy Gradient Search

策略梯度搜索通過應(yīng)用無(wú)模型的強(qiáng)化學(xué)習(xí)算法來(lái)適應(yīng)蒙特卡羅搜索中的模擬過程。作者假設(shè)提供先驗(yàn)策略π和先驗(yàn)值函數(shù)V,并在完整MDP上訓(xùn)練。

該算法必須對(duì)它通過非表格函數(shù)逼近器學(xué)習(xí)的所有內(nèi)容進(jìn)行表示,否則它將遇到與MCTS相同的問題。MCTS已經(jīng)是一種自我對(duì)弈強(qiáng)化學(xué)習(xí)方法,但不能直接使其適應(yīng)函數(shù)逼近,因?yàn)閁CT公式依賴于基于訪問量的探索規(guī)則。

作者使用策略梯度強(qiáng)化學(xué)習(xí)方法來(lái)訓(xùn)練模擬策略。模擬策略由具有與全局策略網(wǎng)絡(luò)相同的體系結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)表示。在每個(gè)游戲開始時(shí),策略網(wǎng)絡(luò)的參數(shù)被設(shè)置為全局策略網(wǎng)絡(luò)的參數(shù)。

由于評(píng)估模擬策略代價(jià)很大,所以該算法不會(huì)模擬到終止?fàn)顟B(tài),而是使用截?cái)嗟拿商乜_算法模擬。選擇何時(shí)截?cái)嗄M并不簡(jiǎn)單,最佳選擇策略可能取決于MDP本身。如果模擬太短,可能無(wú)法包含新的信息,或者沒有給出足夠長(zhǎng)的時(shí)間范圍搜索。太長(zhǎng)的模擬則會(huì)導(dǎo)致恨到的時(shí)間開銷。

對(duì)于Hex,作者使用與MCTS算法相同的策略:運(yùn)行每個(gè)模擬過程,直到模擬的動(dòng)作序列是唯一的。一旦我們?cè)趖步之后達(dá)到模擬的終止?fàn)顟B(tài)sL,使用全局值網(wǎng)絡(luò)V估計(jì)該狀態(tài)的值,并使用該估計(jì)更新模擬策略參數(shù)θ,其中α是學(xué)習(xí)率,其值在-1和1之間,對(duì)于其他問題,可能需要非零基線。可以將這些更新視為微調(diào)當(dāng)前子游戲的全局策略。

因?yàn)樵诿看文M中都要訪問根節(jié)點(diǎn),與 MCS 一樣,可以使用基于單狀態(tài)的強(qiáng)化學(xué)習(xí)方法來(lái)選擇每個(gè)模擬的第一個(gè)動(dòng)作。采用PUCT公式,選擇令下式的值的動(dòng)作:

Parameter Freezing during Online Adaptation

在測(cè)試期間,在線搜索算法通常受在時(shí)間約束的情況下使用,因此,與標(biāo)準(zhǔn)RL問題相比,其使用數(shù)量級(jí)更少的模擬。還需要注意的是,要確保該算法在每個(gè)模擬步驟中不需要太多計(jì)算。當(dāng)在專家迭代中用于離線訓(xùn)練時(shí),搜索方法的效率仍然至關(guān)重要。

Note on Batch Normalisation

神經(jīng)網(wǎng)絡(luò)使用批量標(biāo)準(zhǔn)化。在所有情況下,全局神經(jīng)網(wǎng)絡(luò)已經(jīng)在來(lái)自許多獨(dú)立采樣的Hex游戲的狀態(tài)數(shù)據(jù)集上進(jìn)行了訓(xùn)練。

實(shí)驗(yàn)

Policy Gradient Search as an Online Planner

作者在Hex游戲中評(píng)估PGS。Hex具有中等數(shù)量的分支因子和確定性轉(zhuǎn)換,這意味著MCTS在該領(lǐng)域中非常有效,這使作者能夠直接比較PGS與MCTS的強(qiáng)度。作者在原始神經(jīng)網(wǎng)絡(luò)和四個(gè)搜索算法MCS,MCTS,PGS和PGS-UF之間進(jìn)行了循環(huán)對(duì)弈,其中參數(shù)可變。為了克服Hex中第一個(gè)玩家具有的優(yōu)勢(shì),每對(duì)智能體互相打了2*n*n場(chǎng)比賽。

每個(gè)智能體在每次移動(dòng)使用800次搜索迭代,不會(huì)在移動(dòng)之間思考。實(shí)驗(yàn)結(jié)果見下表。

如果策略搜索的能力已經(jīng)飽和,那么PGS的擴(kuò)展可能不如MCTS,但是并沒有發(fā)現(xiàn)在游戲中會(huì)出現(xiàn)這種情況。但是,在每次移動(dòng)中進(jìn)行1600次迭代仍然是一個(gè)相當(dāng)短的搜索,這樣的情況可能會(huì)發(fā)生在較長(zhǎng)時(shí)間的搜索過程中。

Policy Gradient Search Expert Iteration

作者使用PGS作為專家迭代算法中的專家進(jìn)行實(shí)驗(yàn),并與MCS和MCTS進(jìn)行比較。

結(jié)果表明,PGS的性能優(yōu)于MCS,但不如MCTS。在訓(xùn)練過程中,在反復(fù)應(yīng)用更好或更差的專家時(shí),智能體的差異更加復(fù)雜多變。

結(jié)論

作者提出了PGS算法,這是一種在線規(guī)劃的搜索算法,不需要顯式搜索樹。PGS是一種有效的規(guī)劃算法。實(shí)驗(yàn)結(jié)果證明,在9x9和13x13 的Hex游戲中,它的性能略微弱于MCTS,但與MCTS相比具有競(jìng)爭(zhēng)力,同時(shí)其決策時(shí)間顯著性能優(yōu)于MCS。

在專家迭代算法的框架中使用PGS時(shí),PGS在訓(xùn)練期間也很有效,該算法在不使用搜索樹的情況下,訓(xùn)練了第一個(gè)有競(jìng)爭(zhēng)力的Hex代理tabula rasa。相比之下,該算法比類似的強(qiáng)化學(xué)習(xí)算法和使用MCTS專家的專家迭代算法性能要好。

實(shí)驗(yàn)結(jié)果顯示PGS-EXIT在專家迭代算法框架中性能明顯優(yōu)于MCS,并且還提供了第一個(gè)經(jīng)驗(yàn)數(shù)據(jù),表明MCTS-EXIT算法優(yōu)于傳統(tǒng)的策略迭代方法。

這項(xiàng)工作中提出的結(jié)果主要關(guān)注Hex的確定性和離散動(dòng)作空間域。這使得模型的效果可以與MCTS直接比較,但PGS最激動(dòng)人心的潛在應(yīng)用是MCTS不易使用的問題,例如隨機(jī)狀態(tài)轉(zhuǎn)換或連續(xù)動(dòng)作空間的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100002
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92020
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120590

原文標(biāo)題:策略梯度搜索:不使用搜索樹的在線規(guī)劃和專家迭代 | 技術(shù)頭條

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    漸進(jìn)式神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)

    我們提出一種學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)的新方法,該方法比現(xiàn)有的基于強(qiáng)化學(xué)習(xí)和進(jìn)化算法的技術(shù)更有效。使用了基于序列模型的優(yōu)化(SMBO)策略,在這種
    的頭像 發(fā)表于 08-03 09:32 ?5350次閱讀

    一種改進(jìn)的快速搜索算法

    提出了一種基于預(yù)測(cè)的自適應(yīng)六邊形搜索方法,并將此算法與其他常用的快速運(yùn)動(dòng)估計(jì)算法進(jìn)行實(shí)驗(yàn)比較。實(shí)驗(yàn)結(jié)果表明:該算法有效地降低了搜索點(diǎn)數(shù),搜索
    發(fā)表于 07-02 15:53 ?19次下載

    一種新型全搜索運(yùn)動(dòng)估計(jì)IP核設(shè)計(jì)

    為了降低全搜索運(yùn)動(dòng)估計(jì)算法帶來(lái)的巨大計(jì)算量,提高運(yùn)動(dòng)估計(jì)計(jì)算速度,提出了一種新型的用于全搜索運(yùn)動(dòng)估計(jì)硬件結(jié)構(gòu)。該硬件結(jié)構(gòu)能實(shí)時(shí)地通過全搜索運(yùn)動(dòng)估計(jì)來(lái)
    發(fā)表于 07-29 16:07 ?16次下載

    一種改進(jìn)的鄰近粒子搜索算法

    一種改進(jìn)的鄰近粒子搜索算法
    發(fā)表于 01-07 20:32 ?0次下載

    一種改進(jìn)的自由搜索算法_任誠(chéng)

    一種改進(jìn)的自由搜索算法_任誠(chéng)
    發(fā)表于 03-14 17:47 ?3次下載

    一種結(jié)合梯度下降法的二層搜索粒子群算法

    ,采用梯度下降法進(jìn)行二次搜索,并以最優(yōu)極值點(diǎn)為中心、某具體半徑設(shè)定禁忌區(qū)域,防止粒子重復(fù)搜索該區(qū)域;最后,依據(jù)種群多樣準(zhǔn)則生成新粒子,
    發(fā)表于 11-27 17:28 ?5次下載
    <b class='flag-5'>一種</b>結(jié)合<b class='flag-5'>梯度</b>下降法的二層<b class='flag-5'>搜索</b>粒子群算法

    一種解決連續(xù)問題的真實(shí)在線自然梯度行動(dòng)者-評(píng)論家算法

    策略梯度作為一種能有效解決連續(xù)空間決策問題的方法被廣泛研究.然而,由于在策略估計(jì)過程中存在較大的方差,因此基于
    發(fā)表于 12-19 16:14 ?1次下載
    <b class='flag-5'>一種</b>解決連續(xù)問題的真實(shí)在線自然<b class='flag-5'>梯度</b>行動(dòng)者-評(píng)論家算法

    基于增強(qiáng)描述的代碼搜索方法

    如何有效地幫助程序員從目前的各種代碼庫(kù)中搜索與特定編程任務(wù)相關(guān)的代碼,已成為軟件工程重要的研究領(lǐng)域之.提出一種基于增強(qiáng)描述的代碼搜索方法D
    發(fā)表于 12-28 17:17 ?0次下載
    基于增強(qiáng)描述的代碼<b class='flag-5'>搜索</b><b class='flag-5'>方法</b>

    基于語(yǔ)義聚類的資源搜索策略

    非結(jié)構(gòu)化對(duì)等網(wǎng)絡(luò)(P2P)是共享系統(tǒng)的主要實(shí)現(xiàn)方式,但是由于搜索的盲目,其檢索效率又普遍低下。本文將聚類域和語(yǔ)義分組引入到非結(jié)構(gòu)化對(duì)等網(wǎng)絡(luò)搜索技術(shù)中,結(jié)合非結(jié)構(gòu)化對(duì)等網(wǎng)絡(luò)中的洪泛搜索
    發(fā)表于 01-04 16:09 ?0次下載

    基于Skyline的搜索結(jié)果排序方法

    針對(duì)現(xiàn)有垂直搜索引擎的排序結(jié)果存在多樣差和冗余度高的問題,提出了一種基于Skyline的搜索結(jié)果排序方法。該
    發(fā)表于 01-14 10:54 ?0次下載

    一種路徑過濾搜索算法

    現(xiàn)有的信任模型在信任路徑搜索方面存在兩個(gè)方面的不足:搜索過程中影響信任值的因素考慮得尚不夠全面,或者同而論;同時(shí),對(duì)鄰居節(jié)點(diǎn)選取時(shí),忽略了雙方交互次數(shù)的重要。針對(duì)以上兩點(diǎn)問題,基于
    發(fā)表于 01-14 16:15 ?0次下載
    <b class='flag-5'>一種</b>路徑過濾<b class='flag-5'>性</b><b class='flag-5'>搜索</b>算法

    一種利用強(qiáng)化學(xué)習(xí)來(lái)設(shè)計(jì)mobile CNN模型的自動(dòng)神經(jīng)結(jié)構(gòu)搜索方法

    具體來(lái)說,我們提出一種用于設(shè)計(jì)移動(dòng)端的CNN模型的自動(dòng)神經(jīng)結(jié)構(gòu)搜索方法,稱之為Platform-Aware神經(jīng)結(jié)構(gòu)搜索。圖1是Platform-Aware神經(jīng)結(jié)構(gòu)
    的頭像 發(fā)表于 08-07 14:10 ?3752次閱讀

    一種改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索方法

    情況下的網(wǎng)絡(luò)結(jié)構(gòu)性能進(jìn)行分析,基于多樣解的優(yōu)勢(shì),給出一種多樣最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)搜索方法。實(shí)驗(yàn)結(jié)果表明,該
    發(fā)表于 03-16 14:05 ?3次下載
    <b class='flag-5'>一種</b>改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)<b class='flag-5'>搜索</b><b class='flag-5'>方法</b>

    以進(jìn)化算法為搜索策略實(shí)現(xiàn)神經(jīng)架構(gòu)搜索方法

    自動(dòng)化深度學(xué)習(xí)是目前深度學(xué)習(xí)領(lǐng)域的研究熱點(diǎn),神經(jīng)架構(gòu)搜索算法是實(shí)現(xiàn)自動(dòng)化深度學(xué)習(xí)的主要方法,該類算法可以通過對(duì)搜索空間、搜索
    發(fā)表于 03-22 14:37 ?15次下載
    以進(jìn)化算法為<b class='flag-5'>搜索</b><b class='flag-5'>策略</b>實(shí)現(xiàn)神經(jīng)架構(gòu)<b class='flag-5'>搜索</b>的<b class='flag-5'>方法</b>

    一種基于用戶偏好的權(quán)重搜索及告警選擇方法

    用戶在現(xiàn)有交互方式下選擇最為嚴(yán)重的告警時(shí)完全依據(jù)其個(gè)人偏好,而未考慮處理不同告警所需成本的差異性問題。為此,提出一種基于用戶偏好的權(quán)重搜索及告警選擇方法。挖掘用戶對(duì)不同嚴(yán)重程度告警的偏好值,針對(duì)
    發(fā)表于 04-29 16:26 ?4次下載
    <b class='flag-5'>一種</b>基于用戶偏好的權(quán)重<b class='flag-5'>搜索</b>及告警選擇<b class='flag-5'>方法</b>