0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Meta開源I-JEPA,“類人”AI模型

OSC開源社區(qū) ? 來(lái)源:OSC開源社區(qū) ? 2023-06-18 17:47 ? 次閱讀

Meta宣布推出一個(gè)全新的AI 模型Image Joint Embedding Predictive Architecture (I-JEPA),可通過(guò)對(duì)圖像的自我監(jiān)督學(xué)習(xí)來(lái)學(xué)習(xí)世界的抽象表征,實(shí)現(xiàn)比現(xiàn)有模型更準(zhǔn)確地分析和完成未完成的圖像。

目前相關(guān)的訓(xùn)練代碼和模型已開源,I-JEPA 論文則計(jì)劃在下周的 CVPR 2023 上發(fā)表。

根據(jù)介紹,I-JEPA 結(jié)合了 Meta 首席 AI 科學(xué)家 Yann LeCun 所提倡的類人推理方式,幫助避免 AI 生成圖像常見(jiàn)的一些錯(cuò)誤,比如多出的手指。

I-JEPA 在多項(xiàng)計(jì)算機(jī)視覺(jué)任務(wù)上表現(xiàn)出色,且計(jì)算效率比其他廣泛使用的計(jì)算機(jī)視覺(jué)模型高得多。

I-JEPA 學(xué)習(xí)的表征也可以用于許多不同的應(yīng)用程序,而無(wú)需進(jìn)行大量微調(diào)。

例如,項(xiàng)目團(tuán)隊(duì)在 72 小時(shí)內(nèi)使用 16 個(gè) A100 GPU 訓(xùn)練了一個(gè) 632M 參數(shù)的視覺(jué)轉(zhuǎn)換器模型,I-JEPA 在 ImageNet 上的 low-shot 分類中性能表現(xiàn)最優(yōu),每個(gè)類只有 12 個(gè)標(biāo)記示例。

其他方法通常需要 2 到 10 倍的 GPU 時(shí)間,并且在用相同數(shù)量的數(shù)據(jù)進(jìn)行訓(xùn)練時(shí)錯(cuò)誤率更高。 I-JEPA 背后的想法是以更類似于人類一般理解的抽象表示來(lái)預(yù)測(cè)缺失的信息。

I-JEPA 使用抽象的預(yù)測(cè)目標(biāo),潛在地消除了不必要的 pixel-level 細(xì)節(jié),從而使模型學(xué)習(xí)更多語(yǔ)義特征。

另一個(gè)引導(dǎo) I-JEPA 產(chǎn)生語(yǔ)義表征的核心設(shè)計(jì)選擇是多塊掩碼策略。

具體來(lái)說(shuō),項(xiàng)目團(tuán)隊(duì)證明了使用信息豐富的(空間分布的)上下文來(lái)預(yù)測(cè)包含語(yǔ)義信息(具有足夠大的規(guī)模)的大塊的重要性。

e452d002-0c36-11ee-962d-dac502259ad0.png

I-JEPA 中的預(yù)測(cè)器可以看作是一個(gè)原始的(和受限的)世界模型,它能夠從部分可觀察的上下文中模擬靜態(tài)圖像中的空間不確定性。

更重要的是,這個(gè)世界模型是語(yǔ)義的,因?yàn)樗A(yù)測(cè)圖像中不可見(jiàn)區(qū)域的高級(jí)信息,而不是 pixel-level 細(xì)節(jié)。

e46f3b5c-0c36-11ee-962d-dac502259ad0.png

為了解模型捕獲的內(nèi)容,團(tuán)隊(duì)還訓(xùn)練了一個(gè)隨機(jī)解碼器,將 I-JEPA 預(yù)測(cè)的表征映射回像素空間。

這種定性評(píng)估表明該模型正確地捕獲了位置不確定性并生成了具有正確姿勢(shì)的高級(jí)對(duì)象部分(例如,狗的頭、狼的前腿)。

簡(jiǎn)而言之,I-JEPA 能夠?qū)W習(xí)對(duì)象部分的高級(jí)表示,而不會(huì)丟棄它們?cè)趫D像中的局部位置信息。

e49929f8-0c36-11ee-962d-dac502259ad0.pnge4b3ea04-0c36-11ee-962d-dac502259ad0.png





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 轉(zhuǎn)換器
    +關(guān)注

    關(guān)注

    27

    文章

    8602

    瀏覽量

    146714
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4673

    瀏覽量

    128594
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    8

    文章

    1694

    瀏覽量

    45901

原文標(biāo)題:Meta開源I-JEPA,“類人” AI 模型

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來(lái)了新進(jìn)展。10月24日,Meta正式推出了這兩個(gè)模型的量化版
    的頭像 發(fā)表于 10-29 11:05 ?267次閱讀

    Llama 3 與開源AI模型的關(guān)系

    在人工智能(AI)的快速發(fā)展中,開源AI模型扮演著越來(lái)越重要的角色。它們不僅推動(dòng)了技術(shù)的創(chuàng)新,還促進(jìn)了全球開發(fā)者社區(qū)的合作。Llama 3,作為一個(gè)新興的
    的頭像 發(fā)表于 10-27 14:42 ?290次閱讀

    聯(lián)想與Meta合作推出AI Now個(gè)人AI智能體

    聯(lián)想集團(tuán)近日在美國(guó)西雅圖舉辦了年度Tech World大會(huì),會(huì)上聯(lián)想CEO楊元慶與Meta創(chuàng)始兼CEO馬克?扎克伯格共同宣布了一項(xiàng)重要合作。雙方基于Meta的Llama大模型,推出了
    的頭像 發(fā)表于 10-17 16:58 ?467次閱讀

    扎克伯格:聯(lián)想運(yùn)用Meta Llama大模型打造個(gè)人AI助手AI Now

    美國(guó)西部時(shí)間10月15日,聯(lián)想集團(tuán)于美國(guó)西雅圖盛大舉辦了一年一度的Tech World大會(huì)。會(huì)上,聯(lián)想集團(tuán)首席執(zhí)行官楊元慶攜手Meta創(chuàng)始兼首席執(zhí)行官馬克·扎克伯格,共同揭曉了一項(xiàng)重大合作成果——基于Meta的Llama大
    的頭像 發(fā)表于 10-16 14:58 ?427次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺(tái)上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon
    的頭像 發(fā)表于 10-11 18:08 ?401次閱讀

    Meta發(fā)布多模態(tài)LLAMA 3.2工智能模型

    Meta Platforms近日宣布了一項(xiàng)重要技術(shù)突破,成功推出了多模態(tài)LLAMA 3.2工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息,還實(shí)現(xiàn)了對(duì)圖像內(nèi)容的精準(zhǔn)理解,標(biāo)志著
    的頭像 發(fā)表于 09-27 11:44 ?346次閱讀

    Meta關(guān)閉明星AI聊天機(jī)器,轉(zhuǎn)向用戶自創(chuàng)AI工具

    7月31日,科技新聞源The Information透露,Meta已悄然終止了其備受矚目的明星AI聊天機(jī)器項(xiàng)目。這些機(jī)器曾因能夠模擬著名人物的性格特征并與用戶進(jìn)行互動(dòng),在去年九月的
    的頭像 發(fā)表于 07-31 16:16 ?592次閱讀

    Meta發(fā)布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI模型——Llama 3.1,這一舉措標(biāo)志著Meta
    的頭像 發(fā)表于 07-24 18:25 ?1373次閱讀

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競(jìng)爭(zhēng)中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個(gè)擁有驚人4050億參數(shù)的開源模型。這一舉措不僅標(biāo)志著Meta
    的頭像 發(fā)表于 07-18 09:58 ?927次閱讀

    英特爾AI產(chǎn)品助力其運(yùn)行Meta新一代大語(yǔ)言模型Meta Llama 3

    英特爾豐富的AI產(chǎn)品——面向數(shù)據(jù)中心的至強(qiáng)處理器,邊緣處理器及AI PC等產(chǎn)品為開發(fā)者提供最新的優(yōu)化,助力其運(yùn)行Meta新一代大語(yǔ)言模型Meta
    的頭像 發(fā)表于 04-28 11:16 ?556次閱讀

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了
    的頭像 發(fā)表于 04-19 17:00 ?787次閱讀

    Meta發(fā)布新型無(wú)監(jiān)督視頻預(yù)測(cè)模型“V-JEPA

    Meta,這家社交媒體和科技巨頭,近日宣布推出一種新型的無(wú)監(jiān)督視頻預(yù)測(cè)模型,名為“V-JEPA”。這一模型在視頻處理領(lǐng)域引起了廣泛關(guān)注,因?yàn)樗ㄟ^(guò)抽象性預(yù)測(cè)生成視頻中缺失或模糊的部分來(lái)
    的頭像 發(fā)表于 02-19 11:19 ?908次閱讀

    Meta發(fā)布CodeLlama70B開源模型

    Meta發(fā)布CodeLlama70B開源模型 Meta發(fā)布了開源模型CodeLlama70B
    的頭像 發(fā)表于 01-31 10:30 ?1346次閱讀

    Meta發(fā)布開源模型Code Llama 70B

    近日,Meta宣布推出了一款新的開源模型Code Llama 70B,這是其“Code Llama家族中體量最大、性能最好的模型版本”。這款新模型
    的頭像 發(fā)表于 01-31 09:24 ?855次閱讀

    Meta推出最新版AI代碼生成模型Code Llama70B

    Meta近日宣布了其最新版本的AI代碼生成模型Code Llama70B,并稱其為“目前最大、最優(yōu)秀的模型”。這一更新標(biāo)志著Meta
    的頭像 發(fā)表于 01-30 18:21 ?1355次閱讀