0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一項(xiàng)將2D RGB圖像的所有人類(lèi)像素實(shí)時(shí)映射至3D模型的技術(shù)——DensePose

0wvm_ARchan_TT ? 來(lái)源:未知 ? 作者:李倩 ? 2018-06-25 16:13 ? 次閱讀

我們已經(jīng)介紹過(guò)很多僅用RGB相機(jī)進(jìn)行動(dòng)作捕捉的研究了,其中大多數(shù)是模擬出骨骼進(jìn)行追蹤,少數(shù)則是通過(guò)模擬出的骨骼套上一個(gè)粗糙的模型,便可稱(chēng)為3D模型了。

近日,F(xiàn)acebook AI Reaserch(FAIR)開(kāi)源了一項(xiàng)將2D RGB圖像的所有人類(lèi)像素實(shí)時(shí)映射至3D模型的技術(shù)——DensePose,而且采用的也不是我們經(jīng)常介紹的骨骼追蹤,而是一種十分密集的方案追蹤來(lái)構(gòu)建3D模型。

在戶外和穿著寬松衣服的 也表現(xiàn)良好。

還支持多人同時(shí)追蹤。

那這個(gè)密集如何來(lái)理解呢?

對(duì)于一般的骨骼追蹤,追蹤的點(diǎn)大多在十到二十個(gè)之間,再多也沒(méi)有多少實(shí)際的效果。而DensePose所追蹤的點(diǎn)一共有336個(gè),密密麻麻全身都是點(diǎn)。(密集恐懼癥退避)

之所以要追蹤這么多的點(diǎn),是構(gòu)建一個(gè)平滑流暢的3D模型所必須的數(shù)據(jù)。

辛苦的付出也是值得的,DensePose無(wú)論是在戶外還是多人下都表現(xiàn)良好,還能實(shí)時(shí)更換場(chǎng)景中人的衣服。

那就來(lái)看看他們是怎么做到的吧。

為了讓機(jī)器可以學(xué)習(xí),研究人員手動(dòng)標(biāo)記了5萬(wàn)張照片中的336個(gè)點(diǎn),光這個(gè)步驟就是一個(gè)巨大的工程了,如果按部就班的標(biāo)記注釋?zhuān)恢酪绞裁磿r(shí)候完成了。

研究人員將一個(gè)人拆分成了24個(gè)部分,分別為頭、軀干上部、軀干下部、大臂、小臂、大腿、小腿、手、腳。每個(gè)部分標(biāo)記14的點(diǎn)。

對(duì)于頭部、手部、腳部都由人手動(dòng)標(biāo)記。同時(shí)還要求注釋者在標(biāo)記的時(shí)候標(biāo)出被衣物掩蓋住的部位,比如寬松的裙子。

這些工作做完后進(jìn)入第二階段,研究人員對(duì)每一個(gè)展開(kāi)部位區(qū)域進(jìn)行采樣,會(huì)獲得6個(gè)不同的標(biāo)記圖,提供二維坐標(biāo)地圖使標(biāo)記者更直觀的判斷哪個(gè)標(biāo)記是正確的。

最后再將平面重新組合成3D模型,進(jìn)行最后一步校準(zhǔn)。

這樣兩步下來(lái),研究人員得以高效準(zhǔn)確的獲得了準(zhǔn)確的標(biāo)記。不過(guò)在軀干、背部還有 臀部有較大的誤差。

接下來(lái)就是深度學(xué)習(xí)的階段了,這時(shí)一個(gè)好的方案就好比性能優(yōu)越的催化劑。

研究人員采用與Mask-RCNN架構(gòu)的DenseReg類(lèi)似的方法,構(gòu)成了'DensePose-RCNN'系統(tǒng),還進(jìn)一步開(kāi)發(fā)使得訓(xùn)練的準(zhǔn)確度提高。首先由外觀粗略的估算像素所在的位置,然后將其與準(zhǔn)確的坐標(biāo)對(duì)齊。

DenseReg MaskRCNN的關(guān)鍵點(diǎn)分支中使用相同的體系結(jié)構(gòu),由8個(gè)交替的3×3完全卷積和512個(gè)通道的ReLU層組成。得益于Caffe2,所產(chǎn)生的架構(gòu)實(shí)際上與Mask-RCNN一樣快。

為了降低錯(cuò)誤率,還訓(xùn)練了一個(gè)“教師”網(wǎng)絡(luò)來(lái)重建地面,部署它完整的圖像域,產(chǎn)生一個(gè)密集的監(jiān)督信號(hào)。研究人員將人類(lèi)監(jiān)督者半自動(dòng)監(jiān)督和“教師網(wǎng)絡(luò)”進(jìn)行對(duì)比,結(jié)果是“教師”完勝。

研究人員還將其方法與SMPLify進(jìn)行了對(duì)比,在模型的模擬方面,研究人員的自下而上的前饋方法在很大程度上勝過(guò)了迭代的模型擬合結(jié)果。

同時(shí)在多人處理時(shí),F(xiàn)CN明顯差于'DensePose-RCNN,再與其他方案比較時(shí)優(yōu)勢(shì)也十分突出。

最后,整體呈現(xiàn)的效果如開(kāi)頭所講,能夠處理大量遮擋物,成功的模擬出了衣服后面的人,但有一點(diǎn)需要注意,那就是所有人都是通過(guò)固定的曲率擬合的。而且在多人狀況下表現(xiàn)十分良好。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1429

    瀏覽量

    54479
  • 3D模型
    +關(guān)注

    關(guān)注

    1

    文章

    71

    瀏覽量

    15642
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120597

原文標(biāo)題:Facebook最新開(kāi)源,普通RGB相機(jī)即可實(shí)時(shí)映射3D模型

文章出處:【微信號(hào):ARchan_TT,微信公眾號(hào):AR醬】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    3D LED液晶電視設(shè)計(jì)方案

    2D信號(hào)等功能。圖4 ECT223H信號(hào)處理框圖  信號(hào)模塊的功能:  60Hz的信號(hào)先經(jīng)過(guò)2D檢測(cè)分析將不同運(yùn)動(dòng)速度的信號(hào)進(jìn)行特定的同靜態(tài)算法分析處理;2D轉(zhuǎn)換3D模塊
    發(fā)表于 07-11 18:05

    如何同時(shí)獲取2d圖像序列和相應(yīng)的3d點(diǎn)云?

    如何同時(shí)獲取2d圖像序列和相應(yīng)的3d點(diǎn)云?以上來(lái)自于谷歌翻譯以下為原文How to obtain the sequence of 2d image and corresponding
    發(fā)表于 11-13 11:25

    為什么3D2D模型不能相互轉(zhuǎn)換?

    AD17.1.5軟件,3D2D模型不能相互轉(zhuǎn)換,按3可以進(jìn)入3D模型,按
    發(fā)表于 09-20 05:35

    AD的3D模型繪制功能介紹

    完成后,2D圖如下:    2D圖  我們按下鍵盤(pán)上的數(shù)字3,即可查看繪制的3D模型了,如圖(4)。    圖(4)0805電阻
    發(fā)表于 01-14 16:48

    3D制圖軟件如何進(jìn)行多CAD混合設(shè)計(jì)?

    體化。2D3D數(shù)據(jù)的高效轉(zhuǎn)化浩辰3D可以直接打開(kāi)DWG和DXF圖紙來(lái)進(jìn)行編輯繪圖,并且可以通過(guò)快速建模設(shè)計(jì)環(huán)境DWG圖紙直接轉(zhuǎn)化為
    發(fā)表于 02-24 17:22

    使用DLP技術(shù)3D打印

    使用DLP技術(shù)3D打印光固化成形法 (SLA),個(gè)常見(jiàn)的3D打印工藝,與傳統(tǒng)打印很相似。與硒鼓碳粉沉積在紙張上很類(lèi)似,
    發(fā)表于 11-18 07:32

    如何把OpenGL中3D坐標(biāo)轉(zhuǎn)換成2D坐標(biāo)

    在OpenGL中,切事物都在3D空間中,但我們的屏幕坐標(biāo)確實(shí)2D像素數(shù)組,OpenGL大部分工作就是把3D坐標(biāo)轉(zhuǎn)換成適應(yīng)屏幕的
    的頭像 發(fā)表于 07-09 10:40 ?8471次閱讀

    基于DensePose的姿勢(shì)轉(zhuǎn)換系統(tǒng),僅根據(jù)張輸入圖像和目標(biāo)姿勢(shì)

    DensePose 是 Facebook 研究員 Natalia Neverova、Iasonas Kokkinos 和法國(guó) INRIA 的 R?za Alp Guler 開(kāi)發(fā)的個(gè)令人驚嘆的人體實(shí)時(shí)姿勢(shì)識(shí)別系統(tǒng),它在
    的頭像 發(fā)表于 09-24 09:21 ?1.1w次閱讀

    微軟新AI框架可在2D圖像上生成3D圖像

    已經(jīng)有不少機(jī)構(gòu)在 2D 圖像轉(zhuǎn)換為 3D 形式的方面進(jìn)行了嘗試,包括 Facebook、Nvidia 等公司的 AI 研究實(shí)驗(yàn)室,或是類(lèi)似 Threedy.AI 這樣的初創(chuàng)公司。
    的頭像 發(fā)表于 03-07 14:23 ?2962次閱讀

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團(tuán)隊(duì)研發(fā)了全新3D A
    的頭像 發(fā)表于 12-04 15:49 ?3419次閱讀

    谷歌發(fā)明的由2D圖像生成3D圖像技術(shù)解析

    谷歌發(fā)明的由2D圖像生成3D圖像技術(shù),利用3D估計(jì)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-24 12:55 ?4604次閱讀
    谷歌發(fā)明的由<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>生成<b class='flag-5'>3D</b><b class='flag-5'>圖像</b><b class='flag-5'>技術(shù)</b>解析

    3d人臉識(shí)別和2d人臉識(shí)別的區(qū)別

    首先是3d人臉識(shí)別和2d人臉識(shí)別圖像數(shù)據(jù)獲取不同。3D人臉識(shí)別是以3D攝像頭立體成像,而2D是以
    發(fā)表于 02-05 16:00 ?4w次閱讀

    如何直接建立2D圖像中的像素3D點(diǎn)云中的點(diǎn)之間的對(duì)應(yīng)關(guān)系

    準(zhǔn)確描述和檢測(cè) 2D3D 關(guān)鍵點(diǎn)對(duì)于建立跨圖像和點(diǎn)云的對(duì)應(yīng)關(guān)系至關(guān)重要。盡管已經(jīng)提出了大量基于學(xué)習(xí)的 2D3D 局部特征描述符和
    的頭像 發(fā)表于 10-18 09:20 ?7854次閱讀

    2D/3D圖表和圖形添加到WindowsForms應(yīng)用程序中

    ? 2D/3D圖表和圖形添加到WindowsForms應(yīng)用程序中 包括您可能需要的所有功能,并以100%托管代碼編寫(xiě)。很好地集成到儀表板和商業(yè)智能軟件中。由響應(yīng)迅速的支持團(tuán)隊(duì)提供支持
    的頭像 發(fā)表于 06-15 11:45 ?1982次閱讀

    2D3D視覺(jué)技術(shù)的比較

    作為個(gè)多年經(jīng)驗(yàn)的機(jī)器視覺(jué)工程師,我詳細(xì)介紹2D3D視覺(jué)技術(shù)的不同特點(diǎn)、應(yīng)用場(chǎng)景以及它們能夠解決的問(wèn)題。在這個(gè)領(lǐng)域內(nèi),
    的頭像 發(fā)表于 12-21 09:19 ?909次閱讀