0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

中山大學HCP實驗室PAMI論文:低成本、可擴展的三維人體位姿預測應用

DPVg_AI_era ? 來源:lq ? 2019-01-26 09:43 ? 次閱讀

論文提出的3D人體位姿預測框架:先使用一個輕量級CNN提取2D人體位姿特征和粗略估計3D人體位姿,然后用RNN學習時序相關性以得到流暢的三維人體位姿初步預測結果,最后使用自監(jiān)督學習引導機制,根據三維幾何一致性,優(yōu)化從2D到3D的預測結果。項目主頁:http://www.sysu-hcp.net/3d_pose_ssl/

中山大學使用自監(jiān)督學習精準預測三維人體位姿。新方法減少了對3D標記數據的依賴,還能通過使用現有的大量2D標記數據提高最終預測結果,實現低成本、可擴展的3D人體位姿估計實際應用。

3D人體位姿估計是當前的一個熱點研究課題,也具有廣泛的應用潛力。

深度神經網絡已經在2D人體位姿估計上取得了優(yōu)異的結果,如果想使用深度學習,在3D人體位姿估計中也取得同樣的效果,那么首先就需要大量的3D人體位姿標記數據。

但問題是,現在沒有大量帶精準標記的3D人體位姿數據。

在一篇最新發(fā)表于《IEEE模式分析與機器智能會刊》(PAMI) 的論文[1]中,中山大學的研究人員提出了一種新的方法,讓計算機通過自監(jiān)督學習的方式,精準預測視頻片段中的三維人體位姿,大幅減少對3D標記數據的依賴。

“我們通過有效結合二維時空關系和三維幾何知識,提出了一個由自監(jiān)督學習引導的快速精準三維人體位姿估計方法?!闭撐囊蛔?、目前在加州大學洛杉磯分校 (UCLA) 朱松純教授實驗室擔任博士后研究員的王可澤博士告訴新智元。在完成這篇論文時,王可澤還是中山大學和香港理工大學的博士生,導師是中山大學HCP人機物智能融合實驗室的林倞教授 (林教授也參與了這項工作) 和香港理工大學的張磊博士。

新方法在Human3.6M基準測試中的一些可視化結果。(a)為2D-to-2D位姿變換模塊估計的中間3D人體位姿,(b)為3D-to-2D位姿映射模塊細化的最終3D人體位姿,(c)為ground-truth。估計的3D位姿被重新映射到圖像中,并在側面 (圖像旁邊) 顯示出來。如圖所示,與(a)相比,(b)中預測的3D位姿得到了顯著的修正。紅色和綠色分別表示人體左側和右側。來源:論文《自監(jiān)督學習引導的人體三維位姿估計》[1]

“該方法采用輕量級的神經網絡,有效減少了計算量,并克服了三維人體位姿標注數據不夠豐富的難點,能在實際應用場景中流暢穩(wěn)定地進行三維人體位姿預測?!?/p>

在單個的Nvidia GTX1080 GPU上運行時,新方法處理一幅圖像只需要51毫秒,而其他方法需要880毫秒。

使用自監(jiān)督學習,減少對3D標記數據的依賴

這篇論文題為《自監(jiān)督學習引導的人體三維位姿估計》(3D Human Pose Machines with Self-supervised Learning),作者是王可澤,林倞,江宸瀚,錢晨和魏朋旭。

研究人員向新智元介紹,他們這項工作的背景,是現有的基于彩色圖像視頻數據的三維人體位姿估計研究,在實際場景應用中有兩大明顯的不足:

一是所需要的計算量大:當前,絕大多數的現有三維人體位姿估計方法,都依賴最先進的二維人體位姿估計來獲得精準的二維人體位姿,然后再構建神經網絡,實現從2D到3D人體位姿的映射。由于采用的二維人體位姿估計方法往往需要龐大的計算量,再加上所構建的神經網絡自身的運算開銷,難以滿足三維人體位姿估計在實際應用中的時間需求;

二是應用效果不理想:當前的三維人體位姿數據集都是在受控的實驗環(huán)境下創(chuàng)建的 (攝像機視角固定、背景單一),所包含的三維標注信息不夠豐富,不能全面反映真實生活場景,使得現有方法所預測出的三維人體位姿質量參差不齊,魯棒性差。

為了解決上述的問題,研究人員進行了深入的研究和分析,嘗試利用海量的二維人體位姿數據來彌補三維標注信息不豐富的問題。

同時,他們受二維和三維空間彼此存在的聯系啟發(fā),根據三維人體位姿的映射是二維人體位姿這一幾何特性,結合之前的自監(jiān)督學習工作(參考王可澤博士等人此前的論文[2]),制定了2D到3D變換和3D到2D映射的自監(jiān)督學習任務。

這一關鍵的2D和3D相互轉換自監(jiān)督學習模塊架構示意如下:

3D到2D人體位姿映射模塊訓練階段示意圖

3D到2D人體位姿映射模塊測試階段示意圖

在這項研究中,作者使用MPII數據集,從圖像中提取2D人體位姿。然后,使用另一個名為“Human3.6M”的數據集,提取3D的ground truth數據。Human3.6M數據集包含有360萬張在實驗室拍攝的照片,任務包括跑步、散步、吸煙、吃飯,等等。

初始化后,他們將預測的2D人體位姿和3D人體位姿替換為2D和3D的 ground-truth,從而以自監(jiān)督學習的方式優(yōu)化模型。

3D-to-2D人體位姿映射模塊的學習目標,就是將3D人體位姿的2D映射與預測的2D人體位姿兩者間的差異最小化,以實現對中間3D人體位姿預測的雙向校正 (或細化)。

“模型采用了序列訓練的方法來捕獲人體多個部位之間的長期時間一致性,并通過一種新的自監(jiān)督校正機制進一步增強這種一致性,這包含兩個對偶學習任務,即2D-to-3D位姿變換和3D-to-2D位姿映射,從而生成幾何一致的3D位姿預測?!?/p>

經過自監(jiān)督校正以后的結果 (Ours) 比沒有經過校正的 (Ours w/o self-correction) 更接近 Ground-truth。來源:論文

未來方向:非受限條件下三維人體位姿預測

研究人員在論文中指出,這項工作的主要貢獻有三方面:

提出了一種新的模型,可以學習整合豐富的時空長程依賴性和3D幾何約束,而不是依賴于特定的手動定義的身體平滑度或運動學約束;

開發(fā)了一種簡單有效的自監(jiān)督校正機制,以結合3D位姿幾何結構信息;這一創(chuàng)新機制也可能啟發(fā)其他3D視覺任務;

提出了自監(jiān)督校正機制,使模型能夠使用足夠的2D人體位姿數據,顯著提高3D人體位姿估計的性能。

新方法 (Ours,紅框標識) 顯著優(yōu)于其他同類方法,綠色代表右側手腳,紅色代表左側 (下同):最右邊一列為Ground-truth;使用Human3.6M數據集。

新方法 (Ours) 與ICCV-17微軟危夷晨組在MPII數據集上的結果比較,后者使用弱監(jiān)督遷移學習將2D和3D標記混合在一個統(tǒng)一的深度學習框架里,在2D和3D基準上都取得了較好的結果。新方法在3D預測上更進一步。

自監(jiān)督學習的價值顯然是人工智能研究的一個重點。

其他方法也采用了類似的“弱監(jiān)督”方法來預測位姿,甚至捕捉人體運動。例如,加州大學伯克利分校Sergey Levine教授的機器人實驗室去年10月發(fā)表論文稱,他們能夠訓練模擬機器人模仿人類活動,只使用YouTube視頻的無標注數據。中山大學的這一工作未來或許能與伯克利的方法實現某種結合。

研究人員告訴新智元,接下來,“我們會針對于實際非受限場景中更加復雜多變的三維人體位姿預測問題,開展進一步研究;另外,進一步優(yōu)化我們的方法,希望能在移動端實現實時精準的預測效果”。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2852

    瀏覽量

    107267
  • 神經網絡
    +關注

    關注

    42

    文章

    4733

    瀏覽量

    100420

原文標題:中山大學新突破:自監(jiān)督學習實現精準3D人體姿態(tài)估計

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    中山大學匯編語言視頻教程鏈接

    中山大學匯編語言視頻教程!
    發(fā)表于 11-15 14:12

    機器視覺教學創(chuàng)新實驗室設備視圖像

    機器視覺教學創(chuàng)新實驗室設備視圖像  機器視覺市場是一個技術驅動的市場,隨著各個行業(yè)對機器視覺人才需求的逐步增加,人才如何培養(yǎng)被放在了很重要的位置,而國內還缺少現成的機器視覺教學實驗儀器和專業(yè)
    發(fā)表于 06-14 16:51

    機器視覺教學創(chuàng)新實驗室設備視圖像

    儀器設備價格昂貴,極大的阻礙了機器視覺技術在國內的發(fā)展速度,因此加強國內的機器視覺創(chuàng)新教學實驗室建設便顯得越來越重要。視圖像(Microvision)緊跟行業(yè)發(fā)展步伐,致力于為廣大用戶提供一系列優(yōu)質服務
    發(fā)表于 06-17 09:54

    [招聘]中山大學中山眼科中心招聘工程師

    中山大學中山眼科中心為國內排名第一的眼科中心,也是唯一的眼科學國家重點實驗室的依托單位,現組建成立廣東省眼科診斷與治療新技術工程中心,致力于眼光學成像和血管功能成像技術的探索,包括新型OCT的研發(fā)
    發(fā)表于 06-24 15:06

    實驗室無線充電系統(tǒng)_論文

    實驗室無線充電系統(tǒng)_論文
    發(fā)表于 01-24 17:35

    歐姆龍公司攜手中山大學建自動化實驗室

    歐姆龍公司攜手中山大學建自動化實驗室 近日,全球自動化、傳感和控制領域的領先廠商歐姆龍公司與有80年歷史
    發(fā)表于 08-12 17:58 ?491次閱讀

    中山大學研發(fā)出首個基于人工智能的眼病篩查指導系統(tǒng)

    中山大學中山眼科中心9日發(fā)布消息稱,該中心人工智能與大數據科基于10萬余例超廣域眼底彩照,研發(fā)出首個基于人工智能的眼病篩查指導系統(tǒng)。
    發(fā)表于 01-10 09:55 ?1013次閱讀

    中山大學應用基于RFID技術的智能圖書館

    中山大學是首批國家“雙一流”A類、“985工程”、“211工程”的綜合性全國知名高校,作為其重要組成部分之一的中山大學圖書館是一個擁有1個主館和4個分館的圖書館群,圖書館擁有百余萬冊(件)館藏,其中包括上萬冊的珍稀善本。
    發(fā)表于 08-14 14:49 ?1308次閱讀

    中山大學提出新型行人重識別方法和史上最大最新評測基準

    行人重識別,又稱行人再識別,是利用 CV 技術判斷圖像或視頻序列中是否存在特定行人的技術。常規(guī)的行人重識別方法往往需要高昂的人工標注成本,計算復雜度也很大。在本文中,中山大學研究者提出的弱監(jiān)督行人重
    的頭像 發(fā)表于 01-05 14:29 ?2504次閱讀
    <b class='flag-5'>中山大學</b>提出新型行人重識別方法和史上最大最新評測基準

    中山大學研發(fā)一種基于介孔微針離子泳的集成可穿戴診療一體化系統(tǒng)

    近日,中山大學電子與信息工程學院、光電材料與技術國家重點實驗室謝曦課題組研發(fā)了一種基于介孔微針離子泳的集成可穿戴診療一體化系統(tǒng),應用于糖尿病的原位監(jiān)測和治療。相關研究成果發(fā)表在Advanced
    的頭像 發(fā)表于 06-16 10:28 ?2268次閱讀

    高校大學數字孿生教學實驗室,虛擬仿真實訓系統(tǒng)中心

    北京高校大學學院數字孿生教學實驗室,虛擬仿真實訓系統(tǒng)中心,數字孿生校園場景建設方案。北京高校大學學院數字孿生實驗室教學平臺建設的主要工作:(1)通過
    的頭像 發(fā)表于 05-26 10:43 ?850次閱讀
    高校<b class='flag-5'>大學</b>數字孿生教學<b class='flag-5'>實驗室</b>,虛擬仿真實訓系統(tǒng)中心

    三維天地智能大腦解決方案助力實驗室智慧化管理

    11月27日,第二屆廣東省T20第方檢驗檢測機構高質量發(fā)展論壇暨廣東省分析測試協(xié)會2023分析測試年會、分析測試高峰論壇在廣州圓滿落下帷幕。北京三維天地科技股份有限公司應邀出席會議。 三維天地公司
    的頭像 發(fā)表于 11-28 11:12 ?382次閱讀

    三維天地助力計量實驗室全方位資源管理

    企業(yè)內部的計量實驗室肩負著為企業(yè)內部儀器設備提供周期性校準或委外檢定校準的任務,但如何確保按時、及時地進行這些校準任務,一直是困擾企業(yè)內計量實驗室的挑戰(zhàn)。 北京三維天地科技股份有限公司長期以來專注于
    的頭像 發(fā)表于 12-20 22:43 ?262次閱讀
    <b class='flag-5'>三維</b>天地助力計量<b class='flag-5'>實驗室</b>全方位資源管理

    浙江大學機械工程學院—思看科技三維掃描實踐教學實驗室正式揭牌!

    2024年4月22日,“浙江大學機械工程學院——思看科技三維掃描實踐教學實驗室”揭牌暨簽約儀式在浙江大學機械工程學院實驗教學中心成功舉行。
    的頭像 發(fā)表于 04-25 18:25 ?875次閱讀
    浙江<b class='flag-5'>大學</b>機械工程學院—思看科技<b class='flag-5'>三維</b>掃描實踐教學<b class='flag-5'>實驗室</b>正式揭牌!

    中山大學中山眼科中心與華為聯合發(fā)布ChatZOC眼科大模型

    [2024年6月6日]今天是第29個全國愛眼日,中山大學中山眼科中心與華為技術有限公司攜手合作,聯合發(fā)布基于人工智能技術研究構建的眼科大模型ChatZOC,為守護人民群眾眼健康開辟新路徑。 中山大學
    的頭像 發(fā)表于 06-06 19:04 ?2152次閱讀