0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通用視覺(jué)GPT時(shí)刻來(lái)臨?智源推出通用分割模型SegGPT

3D視覺(jué)工坊 ? 來(lái)源:機(jī)器之心 ? 2023-04-09 09:40 ? 次閱讀

ChatGPT 引發(fā)了語(yǔ)言大模型狂潮,AI 另一個(gè)重大領(lǐng)域 —— 視覺(jué) —— 的 GPT 時(shí)刻何時(shí)到來(lái)?

前兩天,機(jī)器之心介紹了Meta 最新研究成果Segment Anything Model (SAM)。該研究引起了AI社區(qū)廣泛討論。

而據(jù)我們所知,幾乎同一時(shí)間,智源研究院視覺(jué)團(tuán)隊(duì)也推出通用分割模型 SegGPT(Segment Everything In Context)—— 利用視覺(jué)提示(prompt)完成任意分割任務(wù)的通用視覺(jué)模型。

a611a0e8-d63a-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/abs/2304.03284

代碼地址:https://github.com/baaivision/Painter

Demo:https://huggingface.co/spaces/BAAI/SegGPT

SegGPT 與 Meta AI 圖像分割基礎(chǔ)模型 SAM 同時(shí)發(fā)布,兩者的差異在于 :

SegGPT “一通百通”:給出一個(gè)或幾個(gè)示例圖像和意圖掩碼,模型就能 get 用戶意圖,“有樣學(xué)樣” 地完成類似分割任務(wù)。用戶在畫(huà)面上標(biāo)注識(shí)別一類物體,即可批量化識(shí)別分割同類物體,無(wú)論是在當(dāng)前畫(huà)面還是其他畫(huà)面或視頻環(huán)境中。

SAM “一觸即通”:通過(guò)一個(gè)點(diǎn)或邊界框,在待預(yù)測(cè)圖片上給出交互提示,識(shí)別分割畫(huà)面上的指定物體。

無(wú)論是 “一觸即通” 還是 “一通百通”,都意味著視覺(jué)模型已經(jīng) “理解” 了圖像結(jié)構(gòu)。SAM 精細(xì)標(biāo)注能力與 SegGPT 的通用分割標(biāo)注能力相結(jié)合,能把任意圖像從像素陣列解析為視覺(jué)結(jié)構(gòu)單元,像生物視覺(jué)那樣理解任意場(chǎng)景,通用視覺(jué) GPT 曙光乍現(xiàn)。

SegGPT 是智源通用視覺(jué)模型 Painter(CVPR 2023)的衍生模型,針對(duì)分割一切物體的目標(biāo)做出優(yōu)化。SegGPT 訓(xùn)練完成后無(wú)需微調(diào),只需提供示例即可自動(dòng)推理并完成對(duì)應(yīng)分割任務(wù),包括圖像和視頻中的實(shí)例、類別、零部件、輪廓、文本、人臉等等。

該模型具有以下優(yōu)勢(shì)能力:

1. 通用能力:SegGPT 具有上下文推理能力,模型能夠根據(jù)提供的分割示例(prompt),對(duì)預(yù)測(cè)進(jìn)行自適應(yīng)的調(diào)整,實(shí)現(xiàn)對(duì) “everything” 的分割,包括實(shí)例、類別、零部件、輪廓、文本、人臉、醫(yī)學(xué)圖像、遙感圖像等。

2. 靈活推理能力:支持任意數(shù)量的 prompt;支持針對(duì)特定場(chǎng)景的 tuned prompt;可以用不同顏色的 mask 表示不同目標(biāo),實(shí)現(xiàn)并行分割推理。

3. 自動(dòng)視頻分割和追蹤能力:以第一幀圖像和對(duì)應(yīng)的物體掩碼作為上下文示例,SegGPT 能夠自動(dòng)對(duì)后續(xù)視頻幀進(jìn)行分割,并且可以用掩碼的顏色作為物體的 ID,實(shí)現(xiàn)自動(dòng)追蹤。

案例展示

1. 作者在廣泛的任務(wù)上對(duì) SegGPT 進(jìn)行了評(píng)估,包括少樣本語(yǔ)義分割、視頻對(duì)象分割、語(yǔ)義分割和全景分割。下圖中具體展示了 SegGPT 在實(shí)例、類別、零部件、輪廓、文本和任意形狀物體上的分割結(jié)果。

a633f49a-d63a-11ed-bfe3-dac502259ad0.png

a699ce8c-d63a-11ed-bfe3-dac502259ad0.png

2. 標(biāo)注出一個(gè)畫(huà)面中的彩虹(上圖),可批量化分割其他畫(huà)面中的彩虹(下圖)

a6c4b84a-d63a-11ed-bfe3-dac502259ad0.gif

3. 用畫(huà)筆大致圈出行星環(huán)帶(上圖),在預(yù)測(cè)圖中準(zhǔn)確輸出目標(biāo)圖像中的行星環(huán)帶(下圖)。

a70d0168-d63a-11ed-bfe3-dac502259ad0.png

a74d39f4-d63a-11ed-bfe3-dac502259ad0.png

4. SegGPT 能夠根據(jù)用戶提供的宇航員頭盔掩碼這一上下文(左圖),在新的圖片中預(yù)測(cè)出對(duì)應(yīng)的宇航員頭盔區(qū)域(右圖)。

a774d70c-d63a-11ed-bfe3-dac502259ad0.png

訓(xùn)練方法

SegGPT 將不同的分割任務(wù)統(tǒng)一到一個(gè)通用的上下文學(xué)習(xí)框架中,通過(guò)將各類分割數(shù)據(jù)轉(zhuǎn)換為相同格式的圖像來(lái)統(tǒng)一各式各樣的數(shù)據(jù)形式。

具體來(lái)說(shuō),SegGPT 的訓(xùn)練被定義為一個(gè)上下文著色問(wèn)題,對(duì)于每個(gè)數(shù)據(jù)樣本都有隨機(jī)的顏色映射。目標(biāo)是根據(jù)上下文完成各種任務(wù),而不是依賴于特定的顏色。訓(xùn)練后,SegGPT 可以通過(guò)上下文推理在圖像或視頻中執(zhí)行任意分割任務(wù),例如實(shí)例、類別、零部件、輪廓、文本等。

a7ad7cce-d63a-11ed-bfe3-dac502259ad0.png

Test-time techniques

如何通過(guò) test-time techniques 解鎖各種能力是通用模型的一大亮點(diǎn)。SegGPT 論文中提出了多個(gè)技術(shù)來(lái)解鎖和增強(qiáng)各類分割能力,比如下圖所示的不同的 context ensemble 方法。所提出的 Feature Ensemble 方法可以支持任意數(shù)量的 prompt 示例,實(shí)現(xiàn)豐儉由人的推理效果。

a7c3990a-d63a-11ed-bfe3-dac502259ad0.png

此外,SegGPT 還支持對(duì)特定場(chǎng)景優(yōu)化專用 prompt 提示。對(duì)于針對(duì)性的使用場(chǎng)景,SegGPT 可以通過(guò) prompt tuning 得到對(duì)應(yīng) prompt,無(wú)需更新模型參數(shù)來(lái)適用于特定場(chǎng)景。比如,針對(duì)某一數(shù)據(jù)集自動(dòng)構(gòu)建一個(gè)對(duì)應(yīng)的 prompt,或者針對(duì)一個(gè)房間來(lái)構(gòu)建專用 prompt。如下圖所示:

a7e70282-d63a-11ed-bfe3-dac502259ad0.png

結(jié)果展示

模型只需少數(shù) prompt 示例,在 COCO 和 PASCAL 數(shù)據(jù)集上取得最優(yōu)性能。SegGPT 顯示出強(qiáng)大的零樣本場(chǎng)景遷移能力,比如在少樣本語(yǔ)義分割測(cè)試集 FSS-1000 上,在無(wú)需訓(xùn)練的情況下取得 state-of-the-art 性能。

a813d762-d63a-11ed-bfe3-dac502259ad0.png

a82daffc-d63a-11ed-bfe3-dac502259ad0.png

無(wú)需視頻訓(xùn)練數(shù)據(jù),SegGPT 可直接進(jìn)行視頻物體分割,并取得和針對(duì)視頻物體分割專門優(yōu)化的模型相當(dāng)?shù)男阅堋?/p>

a8585856-d63a-11ed-bfe3-dac502259ad0.png

以下是基于 tuned prompt 在語(yǔ)義分割和實(shí)例分割任務(wù)上的效果展示:

a8836b54-d63a-11ed-bfe3-dac502259ad0.png

a8b520a4-d63a-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266240
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    347

    瀏覽量

    15182

原文標(biāo)題:通用視覺(jué)GPT時(shí)刻來(lái)臨?智源推出通用分割模型SegGPT

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英偉達(dá)預(yù)測(cè)機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻

    未來(lái)2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來(lái)重大突破,這一時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?523次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出GPT-4o mini模型,用來(lái)取代GPT-3.5.這是目前市場(chǎng)上最具成本效益的小模型。 ? 該
    的頭像 發(fā)表于 07-21 10:20 ?643次閱讀
    OpenAI <b class='flag-5'>推出</b> <b class='flag-5'>GPT</b>-4o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> 4 而且更快 API KEY更便宜

    圖像分割與語(yǔ)義分割中的CNN模型綜述

    圖像分割與語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像
    的頭像 發(fā)表于 07-09 11:51 ?340次閱讀

    OpenAI推出模型CriticGPT,用GPT-4自我糾錯(cuò)

    基于GPT-4的模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯(cuò)誤而設(shè)計(jì),其獨(dú)特的作用在于,讓人們能夠用GPT-4來(lái)查找GP
    的頭像 發(fā)表于 06-29 09:55 ?426次閱讀

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強(qiáng)大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?543次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會(huì)上,OpenAI揭開(kāi)了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。GPT-4o是此前備受矚目的
    的頭像 發(fā)表于 05-15 09:23 ?310次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    下游任務(wù)提供豐富的文本表示,如谷歌公司推出的BERT。(2) Decoder-Only 預(yù)訓(xùn)練語(yǔ)言模型:這類模型一般使用單向的 Decoder 結(jié)構(gòu),通常擅長(zhǎng)生成任務(wù),如OpenAI 推出
    發(fā)表于 05-05 12:17

    OpenAI推出Vision模型GPT-4 Turbo,融合文本與圖像理解

    據(jù)悉,此模型沿用GPT-4 Turbo系列特有的12.8萬(wàn)token窗口規(guī)模及截至2023年12月的知識(shí)庫(kù)架構(gòu),其創(chuàng)新亮點(diǎn)則是強(qiáng)大的視覺(jué)理解功能。
    的頭像 發(fā)表于 04-10 10:49 ?289次閱讀

    OpenAI有望在年中推出全新GPT-5模型

    近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI傳來(lái)了令人振奮的消息。據(jù)悉,他們有望在今年的年中,大約是夏季時(shí)分,推出全新的GPT-5模型。這一消息引發(fā)了業(yè)界的廣泛關(guān)注與期待。
    的頭像 發(fā)表于 03-22 11:29 ?659次閱讀

    微軟Copilot全面更新為OpenAI的GPT-4 Turbo模型

    起初,Copilot作為Bing Chat AI助手推出,初期采用GPT-3.5模型,隨后升級(jí)至GPT-4取得顯著進(jìn)步,如今再次更新至性能卓越的GP
    的頭像 發(fā)表于 03-13 13:42 ?574次閱讀

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語(yǔ)言理解和視覺(jué)方面全面超越了包括
    的頭像 發(fā)表于 03-05 09:58 ?528次閱讀

    OPPO推出GPT模型手機(jī) 搭載天璣9300卷天卷地卷大模型

    OPPO推出GPT模型手機(jī)?是的,只能說(shuō)生成式 AI 實(shí)在是太爆火了,智能手機(jī)市場(chǎng)的競(jìng)爭(zhēng)都只能繼續(xù)卷。 今天OPPO推出 GPT
    的頭像 發(fā)表于 01-08 18:52 ?886次閱讀

    三項(xiàng)SOTA!MasQCLIP:開(kāi)放詞匯通用圖像分割新網(wǎng)絡(luò)

    MasQCLIP在開(kāi)放詞匯實(shí)例分割、語(yǔ)義分割和全景分割三項(xiàng)任務(wù)上均實(shí)現(xiàn)了SOTA,漲點(diǎn)非常明顯。這里也推薦工坊推出的新課程《徹底搞懂視覺(jué)-慣
    的頭像 發(fā)表于 12-12 11:23 ?613次閱讀
    三項(xiàng)SOTA!MasQCLIP:開(kāi)放詞匯<b class='flag-5'>通用</b>圖像<b class='flag-5'>分割</b>新網(wǎng)絡(luò)

    用自己的數(shù)據(jù)集訓(xùn)練YOLOv8實(shí)例分割模型

    YOLOv8 于 2023 年 1 月 10 日推出。截至目前,這是計(jì)算機(jī)視覺(jué)領(lǐng)域分類、檢測(cè)和分割任務(wù)的最先進(jìn)模型。該模型在準(zhǔn)確性和執(zhí)行時(shí)間
    的頭像 發(fā)表于 11-10 16:44 ?3497次閱讀
    用自己的數(shù)據(jù)集訓(xùn)練YOLOv8實(shí)例<b class='flag-5'>分割</b><b class='flag-5'>模型</b>

    高性能計(jì)算與多模態(tài)處理的探索之旅:英偉達(dá)GH200性能優(yōu)化與GPT-4V的算力加速未來(lái)

    隨著人工智能技術(shù)的不斷發(fā)展,多模態(tài)大模型成為越來(lái)越重要的發(fā)展趨勢(shì)。GPT-4V(GPT-4 近日開(kāi)放的視覺(jué)模態(tài))大型多模型(LMMs)擴(kuò)展大
    的頭像 發(fā)表于 10-19 10:45 ?1214次閱讀
    高性能計(jì)算與多模態(tài)處理的探索之旅:英偉達(dá)GH200性能優(yōu)化與<b class='flag-5'>GPT</b>-4V的算力加速未來(lái)