0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind發(fā)布強(qiáng)化學(xué)習(xí)庫RLax

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 18:43 ? 次閱讀
RLax(發(fā)音為“ relax”)是建立在JAX之上的庫,它公開了用于實(shí)施強(qiáng)化學(xué)習(xí)智能體的有用構(gòu)建塊。。
報(bào)道深度強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)室
作者:DeepRL
來源:Github/DeepMind

RLax及背景

強(qiáng)化學(xué)習(xí)主要用于研究學(xué)習(xí)系統(tǒng)(智能體)的問題,該學(xué)習(xí)系統(tǒng)必須學(xué)習(xí)與環(huán)境進(jìn)行交互的信息。智能體和環(huán)境在不連續(xù)的步驟上進(jìn)行交互。在每個(gè)步驟中,智能體都會(huì)選擇一個(gè)動(dòng)作,并會(huì)提供一個(gè)返回的環(huán)境狀態(tài)(觀察)狀態(tài)(部分)和標(biāo)量反饋信號(hào)(獎(jiǎng)勵(lì))。智能體的行為以行為的概率分布為特征,該分布取決于對(duì)環(huán)境(策略)的過去觀察。智能體尋求一種策略,該策略將從任何給定步驟中最大化從該點(diǎn)開始(返回)將收集的折扣累積獎(jiǎng)勵(lì)。智能體策略或環(huán)境動(dòng)態(tài)本身通常是隨機(jī)的。在這種情況下,回報(bào)是一個(gè)隨機(jī)變量,并且通常將更精確的智能體策略指定為在智能體和環(huán)境的隨機(jī)性下最大化回報(bào)期望(值)的策略。

RLax(發(fā)音為“ relax”)是建立在JAX之上的庫,它公開了用于實(shí)施強(qiáng)化學(xué)習(xí)智能體的有用構(gòu)建塊。

安裝與使用

可以使用以下命令從github直接使用pip安裝RLax:

pip install git+git://github.com/deepmind/rlax.git.

然后可以使用JAX的jax.jit函數(shù)為不同的硬件(例如CPU,GPU,TPU)及時(shí)編譯所有RLax代碼。

強(qiáng)化學(xué)習(xí)算法

增強(qiáng)學(xué)習(xí)算法包含三個(gè)原型系列:

  • 那些估計(jì)狀態(tài)和動(dòng)作的價(jià)值,并通過檢查推斷策略的行為(例如,通過選擇估計(jì)值最高的動(dòng)作)
  • 學(xué)習(xí)環(huán)境模型(能夠預(yù)測(cè)觀察結(jié)果和獎(jiǎng)勵(lì)),并通過計(jì)劃推斷策略。
  • 那些參數(shù)化可以直接執(zhí)行的策略的參數(shù),

無論如何,策略,價(jià)值或模型只是功能。在深度強(qiáng)化學(xué)習(xí)中,此類功能由神經(jīng)網(wǎng)絡(luò)表示。在這種情況下,通常將強(qiáng)化學(xué)習(xí)更新公式化為可區(qū)分的損失函數(shù)(類似于(非)監(jiān)督學(xué)習(xí))。在自動(dòng)區(qū)分下,將恢復(fù)原始更新規(guī)則。

但是請(qǐng)注意,尤其是只有以正確的方式對(duì)輸入數(shù)據(jù)進(jìn)行采樣時(shí),更新才有效。例如,僅當(dāng)輸入軌跡是當(dāng)前策略的無偏樣本時(shí),策略梯度損失才有效。即數(shù)據(jù)是符合政策的。該庫無法檢查或強(qiáng)制執(zhí)行此類約束。但是,在函數(shù)的文檔字符串中提供了指向描述如何使用每種操作的論文的鏈接。

命名約定和開發(fā)人員指南

我們?yōu)榕c單一經(jīng)驗(yàn)流交互的代理定義功能和操作。JAX構(gòu)造vmap可用于將這些相同的功能應(yīng)用于批處理(例如,支持重放和并行數(shù)據(jù)生成)。

許多功能在連續(xù)的時(shí)間步中考慮策略,行動(dòng),獎(jiǎng)勵(lì),價(jià)值,以便計(jì)算其輸出。在這種情況下,qm_t和tm1通常用于說明每個(gè)輸入是在哪個(gè)步驟上生成的,例如:

  • q_tm1:轉(zhuǎn)換的源狀態(tài)中的操作值。
  • a_tm1:在源狀態(tài)下選擇的操作。
  • r_t:在目標(biāo)狀態(tài)下收集的結(jié)果獎(jiǎng)勵(lì)。
  • discount_t:與轉(zhuǎn)換關(guān)聯(lián)的折扣。
  • q_t:目標(biāo)狀態(tài)下的操作值。

為每個(gè)功能提供了廣泛的測(cè)試。當(dāng)使用jax.jit編譯為XLA以及使用jax.vmap執(zhí)行批處理操作時(shí),所有測(cè)試還應(yīng)驗(yàn)證rlax函數(shù)的輸出。

引用

@software{rlax2020github,
  author = {David Budden and Matteo Hessel and John Quan and Steven Kapturowski},
  title = {{RL}ax: {R}einforcement {L}earning in {JAX}},
  url = {http://github.com/deepmind/rlax},
  version = {0.0.1a0},
  year = {2020},
}

專注深度強(qiáng)化學(xué)習(xí)前沿技術(shù)干貨,論文,框架,學(xué)習(xí)路線等,歡迎關(guān)注微信公眾號(hào)。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    265

    瀏覽量

    11197
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    129

    瀏覽量

    10812
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎(jiǎng)勵(lì)。PyTorch 是一個(gè)流行的開源機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 11-05 17:34 ?194次閱讀

    AI實(shí)火!諾貝爾又把化學(xué)獎(jiǎng)?lì)C給AI大模型

    的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)大模型——AlphaFold系列。 今年5月9日,谷歌DeepMind重磅發(fā)布了AlphaFold-3,能夠精準(zhǔn)預(yù)測(cè)蛋白質(zhì)-配體、蛋白質(zhì)-核酸等在內(nèi)的幾乎所有PDB數(shù)據(jù)中存在的分子組合形式
    的頭像 發(fā)表于 10-10 10:38 ?151次閱讀

    谷歌AlphaChip強(qiáng)化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計(jì)領(lǐng)域取得了重要突破,詳細(xì)介紹了其用于芯片設(shè)計(jì)布局的強(qiáng)化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計(jì)流程,并幫助芯片在性能、功耗和面積方面實(shí)現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?369次閱讀

    深度學(xué)習(xí)常用的Python

    深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡(jiǎn)潔的語法和豐富的支持,成為了深度學(xué)習(xí)研究和應(yīng)用的首選工具。本文將深入探討
    的頭像 發(fā)表于 07-03 16:04 ?519次閱讀

    通過強(qiáng)化學(xué)習(xí)策略進(jìn)行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實(shí)現(xiàn)一種新的通過強(qiáng)化學(xué)習(xí)策略的特征選擇。我們先討論強(qiáng)化學(xué)習(xí),尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?310次閱讀
    通過<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>策略進(jìn)行特征選擇

    谷歌DeepMind發(fā)布人工智能模型AlphaFold最新版本

    谷歌DeepMind近日發(fā)布了人工智能模型AlphaFold的最新版本——AlphaFold 3,這一革命性的工具將在藥物發(fā)現(xiàn)和疾病治療領(lǐng)域發(fā)揮巨大作用。
    的頭像 發(fā)表于 05-10 11:26 ?539次閱讀

    鋰電池儲(chǔ)存和電化學(xué)儲(chǔ)能電站應(yīng)配置的消防設(shè)施包括哪些?

    鋰電池儲(chǔ)存和電化學(xué)儲(chǔ)能電站應(yīng)配置的消防設(shè)施包括哪些
    的頭像 發(fā)表于 03-22 10:09 ?626次閱讀
    鋰電池儲(chǔ)存<b class='flag-5'>庫</b>和電<b class='flag-5'>化學(xué)</b>儲(chǔ)能電站應(yīng)配置的消防設(shè)施包括哪些?

    谷歌DeepMind推出SIMI通用AI智能體

    近日,谷歌的DeepMind團(tuán)隊(duì)發(fā)布了其最新研究成果——SIMI(Scalable Instructable Multiworld Agent),這是一個(gè)通用人工智能智能體,能夠在多種3D虛擬環(huán)境
    的頭像 發(fā)表于 03-18 11:39 ?868次閱讀

    谷歌DeepMind推新AI模型Genie,能生成2D游戲平臺(tái)

    據(jù)報(bào)道,谷歌公司的DeepMind團(tuán)隊(duì)近期發(fā)布了AI模型Genie,此模型擁有多達(dá)110億個(gè)參數(shù),能夠依據(jù)用戶提供的圖片及提示詞創(chuàng)建出相當(dāng)完整的2D游戲場(chǎng)景。
    的頭像 發(fā)表于 02-27 14:53 ?708次閱讀

    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    Transformer模型在強(qiáng)化學(xué)習(xí)領(lǐng)域的應(yīng)用主要是應(yīng)用于策略學(xué)習(xí)和值函數(shù)近似。強(qiáng)化學(xué)習(xí)是指讓機(jī)器在與環(huán)境互動(dòng)的過程中,通過試錯(cuò)來學(xué)習(xí)最優(yōu)的行為策略。
    發(fā)表于 02-20 09:55 ?1.2w次閱讀
    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    谷歌DeepMind資深A(yù)I研究員創(chuàng)辦AI Agent創(chuàng)企

    近日,剛從谷歌DeepMind離職的資深A(yù)I研究員Ioannis Antonoglou宣布創(chuàng)辦了一家名為“AI Agent”的創(chuàng)企。Ioannis Antonoglou常駐倫敦,此前曾擔(dān)任谷歌DeepMind的首席開發(fā)人員,自去年9月份以來,他是第4位離開谷歌Gemini
    的頭像 發(fā)表于 02-04 10:02 ?717次閱讀

    兩種端到端的自動(dòng)駕駛系統(tǒng)算法架構(gòu)

    基于學(xué)習(xí)的自動(dòng)駕駛是一個(gè)活躍的研究領(lǐng)域。采用了一些基于學(xué)習(xí)的駕駛方法,例如可供性和強(qiáng)化學(xué)習(xí),取得了不錯(cuò)的性能,模仿方法也被用來回歸人類演示的控制命令。
    發(fā)表于 01-18 09:33 ?1283次閱讀
    兩種端到端的自動(dòng)駕駛系統(tǒng)算法架構(gòu)

    拆解大語言模型RLHF中的PPO算法

    由于本文以大語言模型 RLHF 的 PPO 算法為主,所以希望你在閱讀前先弄明白大語言模型 RLHF 的前兩步,即 SFT Model 和 Reward Model 的訓(xùn)練過程。另外因?yàn)楸疚牟皇羌冎v強(qiáng)化學(xué)習(xí)的文章,所以我在敘述的時(shí)候不會(huì)假設(shè)你已經(jīng)非常了解強(qiáng)化學(xué)習(xí)了。
    的頭像 發(fā)表于 12-11 18:30 ?2020次閱讀
    拆解大語言模型RLHF中的PPO算法

    tcmsp數(shù)據(jù)怎么用

    TCMSP數(shù)據(jù)是一個(gè)用于中藥化學(xué)研究的在線數(shù)據(jù),提供了大量的中藥化學(xué)信息和藥理學(xué)信息。它的使用對(duì)于中藥化學(xué)研究人員來說非常重要,可以幫助
    的頭像 發(fā)表于 12-06 10:11 ?4079次閱讀

    OpenAtom OpenHarmony 三方創(chuàng)建發(fā)布及安全隱私檢測(cè)

    ://ohpm.openharmony.cn/,以下簡(jiǎn)稱“OHPM平臺(tái)”或“本平臺(tái)”)來分享自己的三方(無論是否已經(jīng)開源),能讓更多的開發(fā)者免費(fèi)使用 , 繁榮OpenHarmony應(yīng)用生態(tài)。本文將具體介紹三方發(fā)布與安全
    發(fā)表于 11-13 17:27