0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用語言建模世界:UC伯克利多模態(tài)世界模型利用語言預(yù)測(cè)未來

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-08-06 22:05 ? 次閱讀
當(dāng)前,人與智能體(比如機(jī)器人)的交互是非常直接的,你告訴它「拿一塊藍(lán)色的積木」,它就會(huì)幫你拿過來。但現(xiàn)實(shí)世界的很多信息并非那么直接,比如「扳手可以用來擰緊螺母」、「我們的牛奶喝完了」。這些信息不能直接拿來當(dāng)成指令,但卻蘊(yùn)含著豐富的世界信息。智能體很難了解這些語言在世界上的含義。

圖源:谷歌機(jī)器人團(tuán)隊(duì)論文「Interactive Language: Talking to Robots in Real Time」。

UC 伯克利 Dynalang 研究的關(guān)鍵思想是,我們可以將語言看作是幫助我們更好地對(duì)世界進(jìn)行預(yù)測(cè)的工具,比如「我們的牛奶喝完了」→打開冰箱時(shí)沒有牛奶;「扳手可以用來擰緊螺母」→使用工具時(shí)螺母會(huì)旋轉(zhuǎn)。Dynalang 在一個(gè)模型中結(jié)合了語言模型(LM)和世界模型(WM),使得這種范式變成多模態(tài)。研究者認(rèn)為,將語言生成和行動(dòng)統(tǒng)一在一個(gè)智能體架構(gòu)中是未來研究的一個(gè)令人興奮的方向。

2f77a8b2-3461-11ee-9e74-dac502259ad0.gif

論文概覽 人工智能長(zhǎng)期以來的目標(biāo)是開發(fā)能夠在物理世界中與人類自然交互的智能體。當(dāng)前的具身智能體可以遵循簡(jiǎn)單的低層指令,比如「拿一塊藍(lán)色的積木」或者「經(jīng)過電梯,然后向右轉(zhuǎn)」。 然而,要實(shí)現(xiàn)自由交流的互動(dòng)智能體,就需要理解人們?cè)凇复藭r(shí)此地」之外使用語言的完整方式,包括:傳遞知識(shí),比如「左上角的按鈕是關(guān)掉電視的」;提供情境信息,如「我們的牛奶喝完了」;以及協(xié)同,比如跟別人說「我已經(jīng)吸過客廳了」。我們?cè)谖谋局虚喿x的很多內(nèi)容或者從他人口中聽到的信息都在傳遞有關(guān)世界的知識(shí),無論是關(guān)于世界如何運(yùn)行還是關(guān)于當(dāng)前世界狀態(tài)的知識(shí)。 我們?nèi)绾问怪悄荏w能夠使用多樣化的語言呢?一種訓(xùn)練基于語言的智能體解決任務(wù)的方法是強(qiáng)化學(xué)習(xí)(RL)。然而,目前的基于語言的 RL 方法主要是學(xué)習(xí)從特定任務(wù)指令生成行動(dòng),例如將目標(biāo)描述「拿起藍(lán)色的積木」作為輸入,輸出一系列運(yùn)動(dòng)控制。 然而,當(dāng)考慮到自然語言在現(xiàn)實(shí)世界中所服務(wù)的多樣功能時(shí),直接將語言映射到最優(yōu)行動(dòng)是一個(gè)具有挑戰(zhàn)性的學(xué)習(xí)問題。以「我把碗放好了」為例:如果任務(wù)是清洗,智能體應(yīng)該繼續(xù)進(jìn)行下一個(gè)清洗步驟;而如果是晚餐服務(wù),智能體應(yīng)該去取碗。當(dāng)語言不涉及任務(wù)時(shí),它只與智能體應(yīng)該采取的最優(yōu)行動(dòng)弱相關(guān)。將語言映射到行動(dòng),尤其是僅使用任務(wù)獎(jiǎng)勵(lì),對(duì)于學(xué)會(huì)使用多樣化語言輸入完成任務(wù)來說是一個(gè)弱學(xué)習(xí)信號(hào)。 不同的是,UC 伯克利的研究者提出,智能體使用語言的一種統(tǒng)一方法是幫助它們預(yù)測(cè)未來。前面提到的語句「我把碗放好了」有助于智能體更好地預(yù)測(cè)未來的觀察結(jié)果(即,如果它采取行動(dòng)打開櫥柜,它將在那里看到碗)。 我們遇到的很多語言可以通過這種方式與視覺體驗(yàn)聯(lián)系起來。先前的知識(shí),比如「扳手可以用來擰緊螺母」,幫助智能體預(yù)測(cè)環(huán)境變化。諸如「包裹在外面」的陳述有助于智能體預(yù)測(cè)未來的觀察結(jié)果。這個(gè)框架還將標(biāo)準(zhǔn)指令遵循歸入預(yù)測(cè)范疇:指令幫助智能體預(yù)測(cè)自己將如何受到獎(jiǎng)勵(lì)。類似于下一個(gè) token 預(yù)測(cè)允許語言模型形成關(guān)于世界知識(shí)的內(nèi)部表示,研究者假設(shè)預(yù)測(cè)未來的表示為智能體理解語言以及它與世界的關(guān)系提供了豐富的學(xué)習(xí)信號(hào)。 361971f0-3461-11ee-9e74-dac502259ad0.png 基于此,他們提出了 Dynalang,一種從在線經(jīng)驗(yàn)中學(xué)習(xí)語言和圖像世界模型,并利用該模型學(xué)習(xí)如何行動(dòng)的智能體。 Dynalang 將學(xué)習(xí)用語言對(duì)世界建模(帶有預(yù)測(cè)目標(biāo)的監(jiān)督學(xué)習(xí))與學(xué)習(xí)根據(jù)該模型采取行動(dòng)(帶有任務(wù)獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí))分離開來。該世界模型接收視覺和文本輸入作為觀察模態(tài),并將它們壓縮到潛在空間。研究者通過在線收集的經(jīng)驗(yàn)訓(xùn)練世界模型,使其能夠預(yù)測(cè)未來的潛在表示,同時(shí)智能體在環(huán)境中執(zhí)行任務(wù)。他們通過將世界模型的潛在表示作為輸入,訓(xùn)練策略來采取最大化任務(wù)獎(jiǎng)勵(lì)的行動(dòng)。由于世界建模與行動(dòng)分離,Dynalang 可以在沒有行動(dòng)或任務(wù)獎(jiǎng)勵(lì)的單模態(tài)數(shù)據(jù)(僅文本或僅視頻數(shù)據(jù))上進(jìn)行預(yù)訓(xùn)練。 此外,他們的框架還可以統(tǒng)一語言生成:智能體的感知可以影響智能體的語言模型(即其對(duì)未來 token 的預(yù)測(cè)),使其能夠通過在動(dòng)作空間輸出語言來描述環(huán)境。 362b8872-3461-11ee-9e74-dac502259ad0.png ?論文鏈接:https://arxiv.org/pdf/2308.01399.pdf項(xiàng)目主頁:https://dynalang.github.io/代碼鏈接:https://github.com/jlin816/dynalang 研究者在具有不同類型語言上下文的多樣化環(huán)境中對(duì) Dynalang 進(jìn)行了評(píng)估。在一個(gè)多任務(wù)家庭清潔環(huán)境中,Dynalang 學(xué)會(huì)利用關(guān)于未來觀察、環(huán)境動(dòng)態(tài)和修正的語言提示,更高效地完成任務(wù)。在 Messenger 基準(zhǔn)測(cè)試中,Dynalang 可以閱讀游戲手冊(cè)來應(yīng)對(duì)最具挑戰(zhàn)性的游戲階段,優(yōu)于特定任務(wù)的架構(gòu)。在視覺 - 語言導(dǎo)航中,研究者證明 Dynalang 可以學(xué)會(huì)在視覺和語言復(fù)雜的環(huán)境中遵循指令。 363dfc96-3461-11ee-9e74-dac502259ad0.pngDynalang 學(xué)會(huì)使用語言來預(yù)測(cè)未來的(文本 + 圖像)觀察結(jié)果和獎(jiǎng)勵(lì),從而幫助解決任務(wù)。在這里,研究者展示了在 HomeGrid 環(huán)境中真實(shí)的模型預(yù)測(cè)結(jié)果。智能體在接收環(huán)境中的視頻和語言觀察的同時(shí),探索了各種房間。根據(jù)過去的文本「瓶子在客廳」,在時(shí)間步 61-65,智能體預(yù)測(cè)將在客廳的最后一個(gè)角落看到瓶子。根據(jù)描述任務(wù)的文本「拿起瓶子」,智能體預(yù)測(cè)將因?yàn)槟闷鹌孔佣@得獎(jiǎng)勵(lì)。智能體還可以預(yù)測(cè)未來的文本觀察:在時(shí)間步 30,給定前半句「盤子在」,并觀察到櫥柜上的盤子,模型預(yù)測(cè)下一個(gè)最可能的 token 是「廚房」。 366ce272-3461-11ee-9e74-dac502259ad0.png研究者考慮了一系列具有視覺輸入和多樣化語言的環(huán)境。HomeGrid 是一個(gè)具有指令和多樣化提示的具有挑戰(zhàn)性的視覺網(wǎng)格世界。Messenger 是一個(gè)具有符號(hào)輸入的基準(zhǔn)測(cè)試,包含數(shù)百個(gè)人工編寫的游戲手冊(cè),需要進(jìn)行多次推理。Habitat 是一個(gè)模擬逼真的 3D 家居環(huán)境,用于視覺 - 語言導(dǎo)航,在其中智能體必須在數(shù)百個(gè)場(chǎng)景中定位物體。LangRoom 是一個(gè)簡(jiǎn)單的視覺網(wǎng)格世界,具有部分可觀察性,智能體需要同時(shí)生成動(dòng)作和語言。 詳解 Dynalang 工作原理 使用語言來理解世界很自然地符合世界建模范式。這項(xiàng)工作構(gòu)建在 DreamerV3 的基礎(chǔ)之上,DreamerV3 是一種基于模型的強(qiáng)化學(xué)習(xí)智能體。Dynalang 不斷地從經(jīng)驗(yàn)數(shù)據(jù)中學(xué)習(xí),這些數(shù)據(jù)是智能體在環(huán)境中執(zhí)行任務(wù)時(shí)收集到的。 如下圖(左)所示,在每個(gè)時(shí)間步,世界模型將文本和圖像壓縮成潛在表示。通過這個(gè)表示,模型被訓(xùn)練用于重建原始觀察結(jié)果、預(yù)測(cè)獎(jiǎng)勵(lì),并預(yù)測(cè)下一個(gè)時(shí)間步的表示。直觀地說,世界模型根據(jù)它在文本中讀到的內(nèi)容,學(xué)習(xí)它應(yīng)該期望在世界中看到什么。 如下圖(右)所示,Dynalang 通過在壓縮的世界模型表示之上訓(xùn)練策略網(wǎng)絡(luò)來選擇行動(dòng)。它通過來自世界模型的想象的模擬結(jié)果進(jìn)行訓(xùn)練,并學(xué)會(huì)采取能夠最大化預(yù)測(cè)獎(jiǎng)勵(lì)的行動(dòng)。 36d2ecde-3461-11ee-9e74-dac502259ad0.png 與之前逐句或逐段消耗文本的多模態(tài)模型不同,研究者設(shè)計(jì)的 Dynalang 將視頻和文本作為一個(gè)統(tǒng)一的序列來建模,一次處理一幀圖像和一個(gè)文本 token。直觀來說,這類似于人類在現(xiàn)實(shí)世界中接收輸入的方式 —— 作為一個(gè)單一的多模態(tài)流,人需要時(shí)間來聆聽語言。將所有內(nèi)容建模為一個(gè)序列使得模型可以像語言模型一樣在文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,并提高強(qiáng)化學(xué)習(xí)的性能。 HomeGrid 中的語言提示 研究者引入了 HomeGrid 來評(píng)估一個(gè)環(huán)境中的智能體。在這個(gè)環(huán)境中,智能體除了任務(wù)指令外還會(huì)收到語言提示。 HomeGrid 是一個(gè)具有指令和多樣化提示的具有挑戰(zhàn)性的視覺網(wǎng)格世界。HomeGrid 中的提示模擬了智能體可能從人類那里學(xué)到或從文本中獲取的知識(shí),提供了對(duì)解決任務(wù)有幫助但不是必需的信息: 未來觀察:描述了智能體未來可能觀察到的情況,比如「盤子在廚房里」。

36df8ade-3461-11ee-9e74-dac502259ad0.gif

Correction:提供了基于智能體當(dāng)前行為的交互式反饋,比如「轉(zhuǎn)身」。 371de784-3461-11ee-9e74-dac502259ad0.gif Dynamics:描述了環(huán)境的動(dòng)態(tài)變化,比如「踩踏板打開垃圾桶」。

37736f74-3461-11ee-9e74-dac502259ad0.gif

HomeGrid 環(huán)境將與代碼一起發(fā)布,以鼓勵(lì)大家進(jìn)一步在這個(gè)方向上進(jìn)行研究。 盡管智能體沒有明確地接受有關(guān)文本對(duì)應(yīng)于什么觀察結(jié)果的明確監(jiān)督,但 Dynalang 通過未來預(yù)測(cè)目標(biāo)學(xué)會(huì)了將各種類型的語言與環(huán)境相聯(lián)系。Dynalang 的性能優(yōu)于基于語言的 IMPALA 和 R2D2,這兩種方法在使用不同類型的語言上遇到困難,通常在超出指令范圍的語言任務(wù)上表現(xiàn)更差。 386ef79a-3461-11ee-9e74-dac502259ad0.png Messenger 中的游戲手冊(cè) 研究者在 Messenger 游戲環(huán)境中進(jìn)行評(píng)估,以測(cè)試智能體如何從更長(zhǎng)、更復(fù)雜的文本中學(xué)習(xí),這需要對(duì)文本和視覺觀察進(jìn)行多次推理。智能體必須對(duì)描述每個(gè)任務(wù)動(dòng)態(tài)的文本手冊(cè)進(jìn)行推理,并將其與環(huán)境中實(shí)體的觀察結(jié)果結(jié)合起來,以確定哪些實(shí)體應(yīng)該接收消息,哪些應(yīng)該避免。Dynalang 的表現(xiàn)優(yōu)于 IMPALA、R2D2 以及使用專門架構(gòu)對(duì)文本和觀察進(jìn)行推理的任務(wù)特定 EMMA 基線,特別是在最困難的第三階段。 387b490a-3461-11ee-9e74-dac502259ad0.png ?

38a8a918-3461-11ee-9e74-dac502259ad0.gif

38b55938-3461-11ee-9e74-dac502259ad0.gif

38db336a-3461-11ee-9e74-dac502259ad0.gif

Habitat 中的指令遵循 研究者還展示了 Dynalang 能夠處理逼真的視覺觀察,并在 Habitat 中執(zhí)行指令跟隨。智能體必須遵循自然語言指令,在家庭逼真掃描中導(dǎo)航到目標(biāo)位置。在 Dynalang 中,指令遵循可以統(tǒng)一在相同的預(yù)測(cè)框架中,將其視為未來獎(jiǎng)勵(lì)預(yù)測(cè)。 38e356ee-3461-11ee-9e74-dac502259ad0.png ?38fbe876-3461-11ee-9e74-dac502259ad0.gif ?

3aa3e7b4-3461-11ee-9e74-dac502259ad0.gif

3aba443c-3461-11ee-9e74-dac502259ad0.gif ?基于 LangRoom 的語言生成 就像語言可以影響智能體對(duì)將要看到的事物的預(yù)測(cè)一樣,智能體觀察到的內(nèi)容也會(huì)影響它對(duì)將要聽到的語言的期望(例如,關(guān)于它所看到的內(nèi)容的真實(shí)陳述)。通過在 LangRoom 中將語言輸出到動(dòng)作空間,研究者展示了 Dynalang 可以生成與環(huán)境相關(guān)聯(lián)的語言,從而進(jìn)行具身問答。LangRoom 是一個(gè)簡(jiǎn)單的視覺網(wǎng)格世界,具有部分可觀察性,智能體需要在其中產(chǎn)生運(yùn)動(dòng)動(dòng)作和語言。 3c0371a6-3461-11ee-9e74-dac502259ad0.png

3c07efba-3461-11ee-9e74-dac502259ad0.gif

文本預(yù)訓(xùn)練 由于使用語言進(jìn)行世界建模與基于世界模型的行動(dòng)學(xué)習(xí)解耦,Dynalang 可以使用離線數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,而無需行動(dòng)或獎(jiǎng)勵(lì)標(biāo)簽。這種能力使得 Dynalang 能夠從大規(guī)模的離線數(shù)據(jù)集中受益,全部都在單一的模型架構(gòu)內(nèi)實(shí)現(xiàn)。研究者使用僅包含文本數(shù)據(jù)的數(shù)據(jù)對(duì) Dynalang 進(jìn)行預(yù)訓(xùn)練,從零開始學(xué)習(xí) token 嵌入。在通用文本數(shù)據(jù)(TinyStories,2M 個(gè)短故事)上預(yù)訓(xùn)練模型,提高了模型在 Messenger 上的下游強(qiáng)化學(xué)習(xí)任務(wù)表現(xiàn),超過了使用預(yù)訓(xùn)練的 T5 嵌入的結(jié)果。 3c1ee7ba-3461-11ee-9e74-dac502259ad0.png 研究者表示,盡管他們的工作專注于用于在世界中行動(dòng)的語言理解,但它也可以像一個(gè)僅文本語言模型一樣從世界模型中生成文本。研究者在潛在空間中對(duì)預(yù)訓(xùn)練的 TinyStories 模型進(jìn)行模擬的抽樣,然后在每個(gè)時(shí)間步驟從表示中解碼 token 觀察。盡管生成的文本質(zhì)量仍然低于當(dāng)前語言模型的水平,但模型生成的文本令人驚訝地連貫。他們認(rèn)為將語言生成和行動(dòng)統(tǒng)一在一個(gè)智能體架構(gòu)中是未來研究的一個(gè)令人興奮的方向。 3c2ebbcc-3461-11ee-9e74-dac502259ad0.png


原文標(biāo)題:用語言建模世界:UC伯克利多模態(tài)世界模型利用語言預(yù)測(cè)未來

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:用語言建模世界:UC伯克利多模態(tài)世界模型利用語言預(yù)測(cè)未來

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式和生成能力。通過預(yù)測(cè)文本中缺失的部分或下一個(gè)詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    的機(jī)會(huì)! 本人曾經(jīng)也參與過語音識(shí)別產(chǎn)品的開發(fā),包括在線和離線識(shí)別,但僅是應(yīng)用語言模型實(shí)現(xiàn)端側(cè)的應(yīng)用開發(fā),相當(dāng)于調(diào)用模型的接口函數(shù),實(shí)際對(duì)模型的設(shè)計(jì)、訓(xùn)練和運(yùn)行機(jī)理并不了解,我想通過學(xué)習(xí)
    發(fā)表于 07-21 13:35

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    能力,它缺乏真正的“思考”過程。對(duì)于任何輸入,大語言模型都會(huì)產(chǎn)生輸出,但這僅僅是基于計(jì)算和預(yù)測(cè)下一個(gè)Token出現(xiàn)的概率。模型并不清楚自己的優(yōu)勢(shì)或劣勢(shì),也無法主動(dòng)進(jìn)行反思和糾正錯(cuò)誤。提
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    數(shù)據(jù)格式的轉(zhuǎn)換、數(shù)據(jù)字段的匹配和整合等。通過數(shù)據(jù)級(jí)凈化,可以進(jìn)一步提高數(shù)據(jù)的質(zhì)量和可用性,為后續(xù)的數(shù)據(jù)分析和建模提供更有價(jià)值的數(shù)據(jù)支持。 在得到了大語言模型的數(shù)據(jù)之后,就是對(duì)其進(jìn)行預(yù)訓(xùn)練。大圓
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    就無法修改,因此難以靈活應(yīng)用于下游文本的挖掘中。 詞嵌入表示:將每個(gè)詞映射為一個(gè)低維稠密的實(shí)值向量。不同的是,基于預(yù)訓(xùn)練的詞嵌入表示先在語料庫中利用某種語言模型進(jìn)行預(yù)訓(xùn)練,然后將其應(yīng)用到下游任務(wù)中,詞
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    的復(fù)雜模式和長(zhǎng)距離依賴關(guān)系。 預(yù)訓(xùn)練策略: 預(yù)訓(xùn)練是LLMs訓(xùn)練過程的第一階段,模型在大量的文本數(shù)據(jù)上學(xué)習(xí)語言的通用表示。常用的預(yù)訓(xùn)練任務(wù)包括遮蔽語言建模(Masked Langu
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》

    未來發(fā)展方向進(jìn)行了展望,包括跨領(lǐng)域、跨模態(tài)和自動(dòng)提示生成能力方向,為讀者提供了對(duì)未來技術(shù)發(fā)展的深刻見解?!洞?b class='flag-5'>語言模型原理與工程實(shí)踐》是一本
    發(fā)表于 04-30 15:35

    fpga通用語言是什么

    FPGA(現(xiàn)場(chǎng)可編程門陣列)的通用語言主要是指用于描述FPGA內(nèi)部邏輯結(jié)構(gòu)和行為的硬件描述語言。目前,Verilog HDL和VHDL是兩種最為廣泛使用的FPGA編程語言。
    的頭像 發(fā)表于 03-15 14:36 ?399次閱讀

    韓國(guó)Kakao宣布開發(fā)多模態(tài)語言模型“蜜蜂”

    韓國(guó)互聯(lián)網(wǎng)巨頭Kakao最近宣布開發(fā)了一種名為“蜜蜂”(Honeybee)的多模態(tài)大型語言模型。這種創(chuàng)新模型能夠同時(shí)理解和處理圖像和文本數(shù)據(jù),為更豐富的交互和查詢響應(yīng)提供了可能性。
    的頭像 發(fā)表于 01-19 16:11 ?547次閱讀

    機(jī)器人基于開源的多模態(tài)語言視覺大模型

    ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機(jī)器人操作模型,只用單機(jī)就可以訓(xùn)練。
    發(fā)表于 01-19 11:43 ?289次閱讀
    機(jī)器人基于開源的多<b class='flag-5'>模態(tài)</b><b class='flag-5'>語言</b>視覺大<b class='flag-5'>模型</b>

    自動(dòng)駕駛和多模態(tài)語言模型的發(fā)展歷程

    模態(tài)語言模型(MLLM) 最近引起了廣泛的關(guān)注,其將 LLM 的推理能力與圖像、視頻和音頻數(shù)據(jù)相結(jié)合,通過多模態(tài)對(duì)齊使它們能夠更高效地執(zhí)行各種任務(wù),包括圖像分類、將文本與相應(yīng)的視頻
    發(fā)表于 12-28 11:45 ?412次閱讀
    自動(dòng)駕駛和多<b class='flag-5'>模態(tài)</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的發(fā)展歷程

    計(jì)算機(jī)視覺迎來GPT時(shí)刻!UC伯克利三巨頭祭出首個(gè)純CV大模型

    在損失函數(shù)上,研究者從自然語言社區(qū)汲取靈感,即掩碼 token 建模已經(jīng)「讓位給了」序列自回歸預(yù)測(cè)方法。一旦圖像、視頻、標(biāo)注圖像都可以表示為序列,則訓(xùn)練的模型可以在
    的頭像 發(fā)表于 12-05 15:34 ?668次閱讀
    計(jì)算機(jī)視覺迎來GPT時(shí)刻!<b class='flag-5'>UC</b><b class='flag-5'>伯克利</b>三巨頭祭出首個(gè)純CV大<b class='flag-5'>模型</b>!

    用語言對(duì)齊多模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個(gè)榜單

    目前的 VL 預(yù)訓(xùn)練方法通常僅適用于視覺和語言模態(tài),而現(xiàn)實(shí)世界中的應(yīng)用場(chǎng)景往往包含更多的模態(tài)信息,如深度圖、熱圖像等。如何整合和分析不同模態(tài)
    的頭像 發(fā)表于 11-23 15:46 ?564次閱讀
    <b class='flag-5'>用語言</b>對(duì)齊多<b class='flag-5'>模態(tài)</b>信息,北大騰訊等提出LanguageBind,刷新多個(gè)榜單

    ESL事務(wù)級(jí)建模語言簡(jiǎn)介

    任何系統(tǒng)級(jí)建模語言,都需要具備在較高層次的抽象能力和對(duì)不同來源的IP的集成能力。建模方法的選擇通?;?b class='flag-5'>語言熟悉程度、建模支持、
    的頭像 發(fā)表于 11-02 15:10 ?575次閱讀