0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

匯總幾種開源的深度學(xué)習(xí)模型以及針對姿態(tài)估計(jì)的代碼

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-07-02 14:44 ? 次閱讀

姿態(tài)估計(jì)的目標(biāo)是在RGB圖像或視頻中描繪出人體的形狀,這是一種多方面任務(wù),其中包含了目標(biāo)檢測、姿態(tài)估計(jì)、分割等等。

有些需要在非水平表面進(jìn)行定位的應(yīng)用可能也會用到姿態(tài)估計(jì),例如圖形、增強(qiáng)現(xiàn)實(shí)或者人機(jī)交互。姿態(tài)估計(jì)同樣包含許多基于3D物體的辨認(rèn)。

在這篇文章中,Model Zoo的作者匯總了幾種開源的深度學(xué)習(xí)模型以及針對姿態(tài)估計(jì)的代碼,論智對其進(jìn)行了編譯,如有遺漏請?jiān)谠u論中補(bǔ)充。

DensePose

創(chuàng)作這篇文章的初衷就來源于Facebook研究所的DensePose,上周,F(xiàn)acebook公布了這一框架的代碼、模型和數(shù)據(jù)集,同時(shí)發(fā)布了DensePose-COCO,這是一個為了估計(jì)人類姿態(tài)的大型真實(shí)數(shù)據(jù)集,其中包括了對5萬張COCO圖像手動標(biāo)注的由圖像到表面的對應(yīng)。這對深度學(xué)習(xí)研究者來說是非常詳細(xì)的資源,它對姿態(tài)估計(jì)、身體部位分割等任務(wù)提供了良好的數(shù)據(jù)源。

DensePose的論文中提出了DensePose-RCNN,這是Mask-RCNN的一種變體,可以以每秒多幀的速度在每個人體區(qū)域內(nèi)密集地回歸特定部位的UV坐標(biāo)。它基于一種能將圖像像素通過卷積網(wǎng)絡(luò)映射到密集網(wǎng)格的系統(tǒng)——DenseReg。模型的目標(biāo)是決定每個像素在表面的位置以及它所在部分相對應(yīng)的2D參數(shù)。

DensePose借用了Mask-RCNN的架構(gòu),同時(shí)帶有Feature Pyramid Network(FPN)的特征,以及ROI-Align池化。除此之外,他們在ROI池化的頂層搭建了一個全卷積網(wǎng)絡(luò)。想了解DensePose更多的技術(shù)細(xì)節(jié),請閱讀原論文。

論文地址:https://arxiv.org/abs/1802.00434

GitHub地址:https://github.com/facebookresearch/Densepose

數(shù)據(jù)集地址:https://github.com/facebookresearch/DensePose/blob/master/INSTALL.md#fetch-densepose-data

OpenPose

OpenPose是由卡內(nèi)基梅隆大學(xué)認(rèn)知計(jì)算研究室提出的一種對多人身體、面部和手部形態(tài)進(jìn)行實(shí)時(shí)估計(jì)的框架。

OpenPose同時(shí)提供2D和3D的多人關(guān)鍵點(diǎn)檢測,同時(shí)還有針對估計(jì)具體區(qū)域參數(shù)的校準(zhǔn)工具箱。OpenPose可接受的輸入有很多種,可以是圖片、視頻、網(wǎng)絡(luò)攝像頭等。同樣,它的輸出也是多種多樣,可以是PNG、JPG、AVI,也可以是JSON、XML和YML。輸入和輸出的參數(shù)同樣可以針對不同需要進(jìn)行調(diào)整。

OpenPose提供C++API,以及可以在CPUGPU上工作(包括可與AMD顯卡兼容的版本)。

GitHub地址:https://github.com/CMU-Perceptual-Computing-Lab/openpose

數(shù)據(jù)集地址:http://domedb.perception.cs.cmu.edu/

Realtime Multi-Person Pose Estimation

這一模型和上面的OpenPose高度相關(guān),同時(shí)特征模型能與多種框架相關(guān)聯(lián)。論文的作者提供了一種自下而上的方法,對多人的姿態(tài)進(jìn)行實(shí)時(shí)估計(jì),不需要用任何人物探測器。

這種方法運(yùn)用了一種非參數(shù)表示,我們稱為Part Affinity Fields(PAFs),用它可以學(xué)習(xí)將圖中人物和其身體部位聯(lián)系到一起。有關(guān)該技術(shù)的具體細(xì)節(jié)和理論,可以閱讀原文。

另外,這一方法最棒的特征之一就是它可以在多種不同的框架中實(shí)現(xiàn),針對不同框架,已經(jīng)公開了相關(guān)代碼和模型:

OpenPose C++:https://github.com/CMU-Perceptual-Computing-Lab/openpose

TensorFlow:https://github.com/ZheC/RealtimeMulti-PersonPose_Estimation

Keras(1):https://modelzoo.co/model/keras-realtime-multi-person-pose-estimation

Keras(2):https://github.com/michalfaber/kerasRealtimeMulti-PersonPoseEstimation

PyTorch(1):https://github.com/tensorboy/pytorchRealtimeMulti-PersonPoseEstimation

PyTorch(2):https://github.com/DavexPro/pytorch-pose-estimation

PyTorch(3):https://github.com/MVIG-SJTU/AlphaPose/tree/pytorch

MXNet:https://github.com/dragonfly90/mxnetRealtimeMulti-PersonPoseEstimation

論文地址:https://arxiv.org/abs/1611.08050

GitHub地址:https://github.com/ZheC/RealtimeMulti-PersonPose_Estimation

AlphaPose

AlphaPose是一款精準(zhǔn)的多人姿態(tài)評估工具,并聲稱是第一款開源系統(tǒng)。AlphaPose既可以在圖片、視頻或多圖中進(jìn)行姿態(tài)估計(jì),也能在畫面中對動作進(jìn)行追蹤。它的輸出形式非常廣泛,包括PNG、JPG和AVI等具有關(guān)鍵點(diǎn)的圖片形式,也有JSON格式的輸出,這一特點(diǎn)也使其成為眾多應(yīng)用受歡迎的工具。

目前,這一工具支持TensorFlow和PyTorch兩種實(shí)現(xiàn)。AlphaPose利用一種區(qū)域性的多人動作估計(jì)框架將不精準(zhǔn)的人類邊界框該進(jìn)程精確的動作估計(jì)。這里有三種元素:對稱空間轉(zhuǎn)換網(wǎng)絡(luò)(SSTN)、參數(shù)化姿態(tài)非極大抑制(NMS)以及姿態(tài)導(dǎo)向的生成器(PGPG)。更多技術(shù)細(xì)節(jié)請查看原論文。

論文地址:https://arxiv.org/abs/1612.00137

GitHub地址:https://github.com/MVIG-SJTU/AlphaPose

Human Body Pose Estimation

該模型利用MPII人類姿勢數(shù)據(jù)集進(jìn)行訓(xùn)練,這是一個內(nèi)容十分豐富的數(shù)據(jù)集,專門針對人類姿態(tài)估計(jì)。目前只有TensorFlow的實(shí)現(xiàn)。

這項(xiàng)研究將人類姿態(tài)估計(jì)的任務(wù)應(yīng)用到真實(shí)的圖片中,他們的方法既解決了動作識別,也能進(jìn)行估計(jì),與之前先檢測人類動作在對此進(jìn)行推測的技術(shù)有所區(qū)分。在實(shí)施過程中用到了基于CNN的探測器和整數(shù)線性規(guī)劃法。

ArtTracker論文:https://arxiv.org/abs/1612.01465

DeeperCut論文:https://arxiv.org/abs/1605.03170

網(wǎng)站地址:http://pose.mpi-inf.mpg.de/

GitHub地址:https://github.com/eldar/pose-tensorflow

DeepPose

相比于前面幾種方法來說,DeepPose算是比較“古老”的了,論文發(fā)布與2014年,提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的姿態(tài)估計(jì)方法,是基于DNN向身體關(guān)節(jié)回歸的問題。它以一種整體的方式估計(jì)姿態(tài),并且表述起來非常簡潔強(qiáng)大。

目前網(wǎng)上還沒有官方實(shí)現(xiàn)過程。但是有人做出了復(fù)現(xiàn)結(jié)果:

Chainer:https://github.com/mitmul/deeppose

TensorFlow:https://github.com/asanakoy/deeppose_tf

DeepPose是第一個將深度學(xué)習(xí)應(yīng)用到人類姿態(tài)估計(jì)上的應(yīng)用,并且取得了當(dāng)時(shí)頂尖的結(jié)果,成為了其他方法的baseline。

論文地址:https://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/42237.pdf

小結(jié)

姿態(tài)估計(jì)是計(jì)算機(jī)視覺領(lǐng)域一個非常熱門的話題,F(xiàn)acebook最近發(fā)布的DensePose讓人越來越多地關(guān)注這個問題。進(jìn)行姿態(tài)估計(jì)有很多方法,現(xiàn)有的資源一定可以對你有所啟發(fā)。如果你有其他的好方法,請?jiān)谙旅媪粞苑窒恚?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4723

    瀏覽量

    68237
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1200

    瀏覽量

    24621
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5466

    瀏覽量

    120891

原文標(biāo)題:六種人體姿態(tài)估計(jì)的深度學(xué)習(xí)模型和代碼總結(jié)

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于PoseDiffusion相機(jī)姿態(tài)估計(jì)方法

    介紹 一般意義上,相機(jī)姿態(tài)估計(jì)通常依賴于如手工的特征檢測匹配、RANSAC和束調(diào)整(BA)。在本文中,作者提出了PoseDiffusion,這是一種新穎的相機(jī)姿態(tài)估計(jì)方法,它將
    的頭像 發(fā)表于 07-23 15:22 ?1271次閱讀
    基于PoseDiffusion相機(jī)<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】人體姿態(tài)估計(jì)模型部署前期準(zhǔn)備

    除了Openpose外,筆者還有一個選型,就是谷歌的輕量級人體姿態(tài)估計(jì)模型MoveNet。它是更近的一個輕量級人體姿態(tài)估計(jì)
    發(fā)表于 01-01 01:04

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    微軟、中科大開源基于深度高分辨表示學(xué)習(xí)姿態(tài)估計(jì)算法

    作者在官網(wǎng)指出,深度高分辨率網(wǎng)絡(luò)不僅對姿態(tài)估計(jì)有效,也可以應(yīng)用到計(jì)算機(jī)視覺的其他任務(wù),諸如語義分割、人臉對齊、目標(biāo)檢測、圖像分類中,期待更多具有說服力的結(jié)果公布。
    的頭像 發(fā)表于 03-05 09:55 ?2797次閱讀
    微軟、中科大<b class='flag-5'>開源</b>基于<b class='flag-5'>深度</b>高分辨表示<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法

    基于多孔卷積神經(jīng)網(wǎng)絡(luò)的圖像深度估計(jì)模型

    針對在傳統(tǒng)機(jī)器學(xué)習(xí)方法下單幅圖像深度估計(jì)效果差、深度值獲取不準(zhǔn)確的問題,提出了一種基于多孔卷積神經(jīng)網(wǎng)絡(luò)(ACNN)的
    發(fā)表于 09-29 16:20 ?5次下載
    基于多孔卷積神經(jīng)網(wǎng)絡(luò)的圖像<b class='flag-5'>深度</b><b class='flag-5'>估計(jì)</b><b class='flag-5'>模型</b>

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法通過構(gòu)建特定的神經(jīng)網(wǎng)絡(luò)架構(gòu),將提取的特征信息根據(jù)相應(yīng)的特征融合方法進(jìn)行信息關(guān)聯(lián)處理,最終獲得人體姿態(tài)
    發(fā)表于 03-22 15:51 ?5次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    收藏!姿態(tài)估計(jì)開源項(xiàng)目匯總資料下載

    電子發(fā)燒友網(wǎng)為你提供收藏!姿態(tài)估計(jì)開源項(xiàng)目匯總資料下載的電子資料下載,更有其他相關(guān)的電路圖、源代碼、課件教程、中文資料、英文資料、參考設(shè)計(jì)、
    發(fā)表于 04-21 08:43 ?8次下載
    收藏!<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b><b class='flag-5'>開源</b>項(xiàng)目<b class='flag-5'>匯總</b>資料下載

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    ,更能充分地提取圖像信息,獲取更具有魯棒性的特征,因此基于深度學(xué)習(xí)的方法已成為二維人體姿態(tài)估計(jì)算法研究的主流方向。然而,深度
    發(fā)表于 04-27 16:16 ?7次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法

    深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點(diǎn)以及RNN模型幾種應(yīng)用

    神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的載體,而神經(jīng)網(wǎng)絡(luò)模型中,最經(jīng)典非RNN模型所屬,盡管它不完美,但它具有學(xué)習(xí)歷史信息的能力。后面不管是encode-dec
    的頭像 發(fā)表于 05-13 10:47 ?2.4w次閱讀
    <b class='flag-5'>深度</b>分析RNN的<b class='flag-5'>模型</b>結(jié)構(gòu),優(yōu)缺點(diǎn)<b class='flag-5'>以及</b>RNN<b class='flag-5'>模型</b>的<b class='flag-5'>幾種</b>應(yīng)用

    結(jié)合基擴(kuò)展模型深度學(xué)習(xí)的信道估計(jì)方法

    結(jié)合基擴(kuò)展模型深度學(xué)習(xí)的信道估計(jì)方法
    發(fā)表于 06-30 10:43 ?62次下載

    用NVIDIA遷移學(xué)習(xí)工具箱如何訓(xùn)練二維姿態(tài)估計(jì)模型

      本系列的第一篇文章介紹了在 NVIDIA 遷移學(xué)習(xí)工具箱中使用開源 COCO 數(shù)據(jù)集和 BodyPoseNet 應(yīng)用程序的 如何訓(xùn)練二維姿態(tài)估計(jì)
    的頭像 發(fā)表于 04-10 09:41 ?1712次閱讀
    用NVIDIA遷移<b class='flag-5'>學(xué)習(xí)</b>工具箱如何訓(xùn)練二維<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b><b class='flag-5'>模型</b>

    基于OnePose的無CAD模型的物體姿態(tài)估計(jì)

    基于CAD模型的物體姿態(tài)估計(jì):目前最先進(jìn)的物體6DoF姿態(tài)估計(jì)方法可以大致分為回歸和關(guān)鍵點(diǎn)技術(shù)。第一類方法直接將姿勢參數(shù)與每個感興趣區(qū)域(R
    的頭像 發(fā)表于 08-10 11:42 ?1507次閱讀

    硬件加速人體姿態(tài)估計(jì)開源分享

    電子發(fā)燒友網(wǎng)站提供《硬件加速人體姿態(tài)估計(jì)開源分享.zip》資料免費(fèi)下載
    發(fā)表于 06-25 10:27 ?0次下載
    硬件加速人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b><b class='flag-5'>開源</b>分享

    AI深度相機(jī)-人體姿態(tài)估計(jì)應(yīng)用

    我們非常高興地發(fā)布一個新的代碼示例,展示虹科AI深度相機(jī)SDK的驚人功能。只需6行源代碼,您就可以實(shí)時(shí)準(zhǔn)確地估計(jì)和跟蹤人體姿態(tài)!我們最新的
    的頭像 發(fā)表于 07-31 17:42 ?950次閱讀
    AI<b class='flag-5'>深度</b>相機(jī)-人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>應(yīng)用

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?822次閱讀