近日,據(jù)TechCrunch報道,麻省理工學(xué)院的研究團隊展示了一種創(chuàng)新的機器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)集,而是借鑒了大型語言模型(LLM)如GPT-4等所使用的大規(guī)模信息處理方式,為機器人學(xué)習(xí)新技能開辟了全新的道路。
傳統(tǒng)的模仿學(xué)習(xí)方法中,機器人通過觀察和模仿執(zhí)行任務(wù)的人類或其他代理進行學(xué)習(xí)。然而,這種方法在面對諸如照明變化、不同環(huán)境或新障礙等小挑戰(zhàn)時,往往因為缺乏足夠的數(shù)據(jù)而難以適應(yīng)。為了克服這一難題,麻省理工學(xué)院的研究團隊探索了一種新的解決方案,他們借鑒了大型語言模型的強大數(shù)據(jù)處理能力,并引入了異構(gòu)預(yù)訓(xùn)練變壓器(HPT)這一創(chuàng)新架構(gòu)。
新論文的主要作者王立睿指出,與語言領(lǐng)域的數(shù)據(jù)以句子形式存在不同,機器人領(lǐng)域的數(shù)據(jù)具有高度的異質(zhì)性。因此,如果想以類似語言模型的方式進行預(yù)訓(xùn)練,就需要構(gòu)建一種全新的架構(gòu)。HPT正是這樣一種架構(gòu),它能夠整合來自不同傳感器和環(huán)境的多樣信息,并利用變壓器技術(shù)將這些數(shù)據(jù)匯總到訓(xùn)練模型中。值得注意的是,變壓器的規(guī)模越大,其輸出效果也越好。
在使用該新型訓(xùn)練模型時,用戶只需輸入機器人的設(shè)計、配置以及期望完成的任務(wù),系統(tǒng)便能根據(jù)這些信息為機器人提供所需的技能。這一創(chuàng)新不僅提高了機器人學(xué)習(xí)的效率和靈活性,還為實現(xiàn)更廣泛、更復(fù)雜的機器人應(yīng)用奠定了堅實的基礎(chǔ)。
卡內(nèi)基梅隆大學(xué)副教授戴維·赫爾德對這項研究給予了高度評價。他表示,我們的夢想是擁有一個通用的機器人大腦,用戶可以直接下載并使用它,而無需進行任何額外訓(xùn)練。雖然目前我們還處于這一愿景的早期階段,但借助規(guī)?;膬?yōu)勢,我們有望在機器人策略方面取得像大型語言模型那樣的突破性進展。
-
機器人
+關(guān)注
關(guān)注
210文章
28085瀏覽量
205781 -
LLM
+關(guān)注
關(guān)注
0文章
256瀏覽量
297
發(fā)布評論請先 登錄
相關(guān)推薦
評論