0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AlphaPose是一個(gè)實(shí)時(shí)多人姿態(tài)估計(jì)系統(tǒng)

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-09-08 09:11 ? 次閱讀

上海交通大學(xué)盧策吾團(tuán)隊(duì)MVIG實(shí)驗(yàn)室最新上線了他們此前開源的實(shí)時(shí)人體姿態(tài)估計(jì)系統(tǒng)AlphaPose的升級(jí)版。新系統(tǒng)采用 PyTorch 框架,在姿態(tài)估計(jì)標(biāo)準(zhǔn)測(cè)試集COCO上達(dá)到當(dāng)前最高精度71mAP,同時(shí)平均速度20FPS,比Mask-RCNN速度快3倍。

AlphaPose是一個(gè)實(shí)時(shí)多人姿態(tài)估計(jì)系統(tǒng)。

今年2月,上海交通大學(xué)盧策吾團(tuán)隊(duì)MVIG實(shí)驗(yàn)室AlphaPose 系統(tǒng)上線,是首個(gè)在 COCO 數(shù)據(jù)集上可達(dá)到 70+ mAP 的開源姿態(tài)估計(jì)系統(tǒng)。本次更新,在精度不下降情況下,實(shí)時(shí)性是一大提升亮點(diǎn)。

新系統(tǒng)采用 PyTorch 框架,在姿態(tài)估計(jì)(Pose Estimation)標(biāo)準(zhǔn)測(cè)試集COCO validation set上,達(dá)到 71mAP的精度(比 OpenPose 相對(duì)提升17%,Mask-RCNN相對(duì)提升8%),同時(shí),速度達(dá)到了20FPS(比 OpenPose 相對(duì)提高66%,Mask-RCNN相對(duì)提高300%)。

再次感受一下升級(jí)后AlphaPose的速度

檢測(cè)精度不變,平均速度比Mask-RCNN快3倍

人體關(guān)鍵點(diǎn)檢測(cè)對(duì)于描述人體姿態(tài),預(yù)測(cè)人體行為至關(guān)重要。因此,人體關(guān)鍵點(diǎn)檢測(cè)是諸多計(jì)算機(jī)視覺任務(wù)的基礎(chǔ)。其在動(dòng)作分類,異常行為檢測(cè),以及人機(jī)交互等領(lǐng)域有著很廣闊的應(yīng)用前景,是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)既具有研究價(jià)值、同時(shí)又極具挑戰(zhàn)性的熱門課題。

AlphaPose系統(tǒng),是基于上海交大MVIG組提出的 RMPE 二步法框架(ICCV 2017論文)構(gòu)建的,相比其他開源系統(tǒng)在準(zhǔn)確率有很大提高,比OpenPose相對(duì)提高17%,Mask-RCNN相對(duì)提高8.2%。

升級(jí)后,各個(gè)開源框架在COCO-Validation上性能,時(shí)間在單卡1080ti GPU測(cè)出指標(biāo)如下:


基于PyTorch框架,在人體姿態(tài)估計(jì)模型中引入Attention模塊

新版 AlphaPose 系統(tǒng),架設(shè)在 PyTorch 框架上,得益于Python的靈活性,新系統(tǒng)對(duì)用戶更加友好,安裝使用過程更加簡(jiǎn)易,同時(shí)支持Linux與Windows系統(tǒng)使用,方便進(jìn)行二次開發(fā)。此外,系統(tǒng)支持圖片、視頻、攝像頭輸入,實(shí)時(shí)在線計(jì)算出多人的姿態(tài)結(jié)果。

為了在兼顧速度的同時(shí)保持精度,新版AlphaPose提出了一個(gè)新的姿態(tài)估計(jì)模型。模型的骨架網(wǎng)絡(luò)使用 ResNet101,同時(shí)在其下采樣部分添加 SE-block 作為 attention 模塊——已經(jīng)有很多實(shí)驗(yàn)證明,在 Pose Estimation 模型中引入 attention 模塊能提升模型的性能,而僅在下采樣部分添加 SE-block 能使 attention 以更少的計(jì)算量發(fā)揮更好的效果。

除此之外,使用PixelShuffle + Conv進(jìn)行3次上采樣,輸出關(guān)鍵點(diǎn)的熱度圖。傳統(tǒng)的上采樣方法會(huì)使用反卷積或雙線性插值。而使用 PixelShuffle 的好處在于,在提高分辨率的同時(shí),保持特征信息不丟失。對(duì)比雙線性插值,運(yùn)算量低;對(duì)比反卷積,則不會(huì)出現(xiàn)網(wǎng)格效應(yīng)。

在系統(tǒng)架構(gòu)方面,新版 AlphaPose 采用多級(jí)流水的工作方式,使用多線程協(xié)作,將速度發(fā)揮到極致。

AlphaPose 系統(tǒng)目前在COCO的 Validation 集上的運(yùn)行速度是 20FPS(平均每張圖片4.6人),精度達(dá)到71mAP。 在擁擠場(chǎng)景下(平均每張圖片15人),AlphaPose系統(tǒng)速度仍能保持 10FPS 以上。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人機(jī)交互
    +關(guān)注

    關(guān)注

    12

    文章

    1192

    瀏覽量

    55184
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    794

    瀏覽量

    13010

原文標(biāo)題:最高比Mask-RCNN快3倍!上交大實(shí)時(shí)姿態(tài)估計(jì)AlphaPose升級(jí)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于PoseDiffusion相機(jī)姿態(tài)估計(jì)方法

    的約束結(jié)合在起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機(jī)位置,他們?cè)诟怕蕯U(kuò)散框架內(nèi)公式化了SfM問題,對(duì)給定輸入圖像的相機(jī)姿態(tài)的條件分布進(jìn)行建模,用Diffusion模型來輔助進(jìn)行姿態(tài)
    的頭像 發(fā)表于 07-23 15:22 ?1153次閱讀
    基于PoseDiffusion相機(jī)<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】人體姿態(tài)估計(jì)模型部署前期準(zhǔn)備

    部署模型的整體架構(gòu)。接下來就回到最開始定的主線上了——人體姿態(tài)估計(jì)。這篇文章就是記錄對(duì)些輕量化人體姿態(tài)估計(jì)模型的調(diào)研,和前期準(zhǔn)備。 1、人
    發(fā)表于 01-01 01:04

    請(qǐng)問下end-to-end的人臉姿態(tài)估計(jì)器開發(fā)流程有哪些

    請(qǐng)問下end-to-end的人臉姿態(tài)估計(jì)器開發(fā)流程有哪些?
    發(fā)表于 02-16 07:25

    衛(wèi)星姿態(tài)測(cè)量系統(tǒng)中模糊神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    為了提高衛(wèi)星姿態(tài)測(cè)量系統(tǒng)姿態(tài)估計(jì)精度,研究設(shè)計(jì)了個(gè)模糊神經(jīng)網(wǎng)絡(luò),對(duì)各
    發(fā)表于 07-13 11:34 ?22次下載

    針對(duì)姿態(tài)傳感器的姿態(tài)估計(jì)方法的詳細(xì)資料說明免費(fèi)下載

    的連續(xù)時(shí)間預(yù)測(cè)。然后在觀測(cè)器或?yàn)V波器中使用這些預(yù)測(cè)來估計(jì)當(dāng)前的姿態(tài)。本文的主要貢獻(xiàn)是利用姿態(tài)運(yùn)動(dòng)學(xué)的潛在對(duì)稱性,設(shè)計(jì)個(gè)計(jì)算簡(jiǎn)單和通用的遞歸
    發(fā)表于 12-11 08:00 ?4次下載

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法

    基準(zhǔn)、姿態(tài)估計(jì)方法和評(píng)測(cè)標(biāo)準(zhǔn)等方面,對(duì)近年來基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)的諸多研究工作進(jìn)行系統(tǒng)歸納與整理,將現(xiàn)有方法分為單人
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    近年來人體姿態(tài)估計(jì)作為計(jì)算機(jī)視覺領(lǐng)域的熱點(diǎn),在視頻監(jiān)控、人機(jī)交互、智慧校園等領(lǐng)域具有廣泛的應(yīng)用前景。隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,采用深度學(xué)習(xí)方法進(jìn)行二維人體姿態(tài)估計(jì),相較于傳統(tǒng)需要人工設(shè)定
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法

    基于編解碼殘差的人體姿態(tài)估計(jì)方法

    人體姿態(tài)估計(jì)尤其是多人姿態(tài)估計(jì)逐漸滲透到教育、體育等各個(gè)方面,精度高、輕量級(jí)的多人
    發(fā)表于 05-28 16:35 ?2次下載

    基于OnePose的無CAD模型的物體姿態(tài)估計(jì)

    基于CAD模型的物體姿態(tài)估計(jì):目前最先進(jìn)的物體6DoF姿態(tài)估計(jì)方法可以大致分為回歸和關(guān)鍵點(diǎn)技術(shù)。第類方法直接將姿勢(shì)參數(shù)與每個(gè)感興趣區(qū)域(R
    的頭像 發(fā)表于 08-10 11:42 ?1427次閱讀

    種基于去遮擋和移除的3D交互手姿態(tài)估計(jì)框架

    與被充分研究的單手姿態(tài)估計(jì)任務(wù)不同,交互手3D姿態(tài)估計(jì)是近兩年來剛興起的學(xué)術(shù)方向?,F(xiàn)存的工作會(huì)直接同時(shí)預(yù)測(cè)交互手的左右兩手的姿態(tài),而我們則另
    的頭像 發(fā)表于 09-14 16:30 ?855次閱讀

    硬件加速人體姿態(tài)估計(jì)開源分享

    電子發(fā)燒友網(wǎng)站提供《硬件加速人體姿態(tài)估計(jì)開源分享.zip》資料免費(fèi)下載
    發(fā)表于 06-25 10:27 ?0次下載
    硬件加速人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>開源分享

    AI技術(shù):種聯(lián)合迭代匹配和姿態(tài)估計(jì)框架

    由于噪聲和退化,并非所有正確匹配都能給出良好的姿態(tài)。之前的操作僅保證具有判別性高的描述子的特征點(diǎn)有更高的匹配分?jǐn)?shù),并且首先被識(shí)別以參與姿態(tài)估計(jì),但忽略了魯棒姿態(tài)
    發(fā)表于 07-18 12:58 ?416次閱讀
    AI技術(shù):<b class='flag-5'>一</b>種聯(lián)合迭代匹配和<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>框架

    AI深度相機(jī)-人體姿態(tài)估計(jì)應(yīng)用

    我們非常高興地發(fā)布個(gè)新的代碼示例,展示虹科AI深度相機(jī)SDK的驚人功能。只需6行源代碼,您就可以實(shí)時(shí)準(zhǔn)確地估計(jì)和跟蹤人體姿態(tài)!我們最新的代
    的頭像 發(fā)表于 07-31 17:42 ?887次閱讀
    AI深度相機(jī)-人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>應(yīng)用

    基于飛控的姿態(tài)估計(jì)算法作用及原理

    ? 姿態(tài)估計(jì)的作用? 姿態(tài)估計(jì)是飛控算法的個(gè)基礎(chǔ)部分,而且十分重要。為了完成飛行器平穩(wěn)的
    發(fā)表于 11-13 11:00 ?776次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法作用及原理

    個(gè)用于6D姿態(tài)估計(jì)和跟蹤的統(tǒng)基礎(chǔ)模型

    今天筆者將為大家分享NVIDIA的最新開源方案FoundationPose,是個(gè)用于 6D 姿態(tài)估計(jì)和跟蹤的統(tǒng)基礎(chǔ)模型。只要給出CAD模
    的頭像 發(fā)表于 12-19 09:58 ?682次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>用于6D<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>和跟蹤的統(tǒng)<b class='flag-5'>一</b>基礎(chǔ)模型