0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AlphaPose升級了!一個(gè)高效的算法來解決擁擠人群中的姿態(tài)估計(jì)問題

DPVg_AI_era ? 來源:lp ? 2019-03-05 09:26 ? 次閱讀

AlphaPose升級了!上海交大MVIG組(盧策吾團(tuán)隊(duì))構(gòu)建了CrowdPose數(shù)據(jù)集,用來衡量算法在擁擠場景中的性能。同時(shí)提出了一個(gè)高效的算法來解決擁擠人群中的姿態(tài)估計(jì)問題,實(shí)驗(yàn)結(jié)果遠(yuǎn)高于當(dāng)前最好的算法。

AlphaPose升級了!



擁擠人群場景下的AlphaPose

這個(gè)實(shí)時(shí)多人姿態(tài)估計(jì)系統(tǒng),現(xiàn)在可以處理最具挑戰(zhàn)的擁擠人群場景了:

上海交大MVIG組(盧策吾團(tuán)隊(duì))建了一個(gè)新的數(shù)據(jù)集——CrowdPose,用來衡量算法在擁擠場景中的性能;

同時(shí)提出了一個(gè)高效的算法來解決擁擠人群中的姿態(tài)估計(jì)問題:相比OpenPose提升18mAP、相比Mask-RCNN提升8mAP。

論文已被CVPR2019接收。

論文鏈接:

https://arxiv.org/abs/1812.00324

代碼鏈接:

https://github.com/MVIG-SJTU/AlphaPose

CrowdPose——擁擠人群姿態(tài)估計(jì)數(shù)據(jù)集

為了衡量人體姿態(tài)估計(jì)算法的性能,學(xué)術(shù)界與工業(yè)界建立了越來越多的公開數(shù)據(jù)集,如MPII,MSCOCO和AI Challenger。然而,這些數(shù)據(jù)集的圖片通常采集自日常的生活場景,缺乏擁擠人群場景的數(shù)據(jù)。

主流數(shù)據(jù)集的擁擠場景分布如圖1所示。對于由數(shù)據(jù)驅(qū)動(dòng)的深度學(xué)習(xí)方法來說,數(shù)據(jù)集的分布不均衡,意味著算法性能的不均衡。

圖1 主流公開數(shù)據(jù)集于CrowdPose數(shù)據(jù)集的擁擠場景數(shù)據(jù)分布。三個(gè)主流數(shù)據(jù)集的數(shù)據(jù)中,非擁擠數(shù)據(jù)占據(jù)了絕大部分比例,而CrowdPose數(shù)據(jù)集有著均勻的數(shù)據(jù)分布。

隨著學(xué)術(shù)界對人體姿態(tài)研究的深入,算法追求像素級的精度,簡單場景下的性能已經(jīng)逐步逼近人類的精度,但在擁擠場景中往往會失效,如圖2所示。

圖2 隨著擁擠程度的加劇,現(xiàn)有開源系統(tǒng)的性能急劇下降。相較于非擁擠的情況,擁擠時(shí)算法性能最多下降了20mAP。

針對這樣的情況,上海交大MVIG組的研究者開源了CrowdPose數(shù)據(jù)集。CrowdPose數(shù)據(jù)集中的圖片,有著均勻分布的擁擠程度。既可以評估算法在日常非擁擠情況下的表現(xiàn),也可以評估其在極度擁擠時(shí)的性能。

目前,數(shù)據(jù)集開源了2萬張圖片,評估工具也已經(jīng)上線。在未來的幾個(gè)月時(shí)間內(nèi),研究者將會不斷擴(kuò)大數(shù)據(jù)的規(guī)模,開源一個(gè)更大的數(shù)據(jù)集。

實(shí)時(shí)全局競爭匹配算法

在擁擠人群的場景下,傳統(tǒng)的二步法模型往往會失效。主要原因在于:人群過于密集,重合程度太高,每個(gè)人的位置難以用人體檢測框表示。

圖3 人體檢測框難以表達(dá)人的位置。

研究者們提出了一個(gè)全局競爭匹配算法,減少了姿態(tài)估計(jì)模型對于人體框的依賴,同時(shí)提高了模型對于復(fù)雜人體場景的魯棒性,在擁擠場景中的表現(xiàn)超越了現(xiàn)有的方法。

圖4 本研究中的全局競爭匹配算法概覽。模型對于每個(gè)檢測到的人體框輸出一系列候選關(guān)鍵點(diǎn)。人體實(shí)例與關(guān)鍵點(diǎn)實(shí)例構(gòu)建成一個(gè)稀疏圖模型。通過求解稀疏圖模型的最佳匹配問題,可得到全局最優(yōu)的人體姿態(tài)估計(jì)方案,對密集擁擠的場景有很強(qiáng)的魯棒性。

研究者們設(shè)計(jì)了一個(gè)關(guān)節(jié)點(diǎn)候選損失函數(shù),通過控制模型輸出響應(yīng)程度不同的多峰值熱度圖,在人體框不準(zhǔn)確的情況下,模型盡可能地輸出候選關(guān)節(jié)點(diǎn)可能的位置。

在得到每個(gè)人體框的候選關(guān)節(jié)點(diǎn)后,通過聚類與鏈接,消除冗余結(jié)果的同時(shí),構(gòu)建出一個(gè)人體實(shí)例-候選關(guān)節(jié)的圖模型。該圖模型表征了人體實(shí)例與每個(gè)關(guān)節(jié)點(diǎn)之間的連接關(guān)系與概率。

借助此模型,人體姿態(tài)估計(jì)問題可轉(zhuǎn)化成圖模型中的最佳匹配問題。由于人體姿態(tài)問題的特殊,該圖模型具有很強(qiáng)的稀疏性,經(jīng)過研究者們的分析,優(yōu)化匹配問題的時(shí)間復(fù)雜度與傳統(tǒng)的NMS算法相當(dāng)。

該方法由于建立了一個(gè)全局的圖模型,在匹配過程中考慮到了整體的連接方式,因此能很好地改善了二步法中缺乏全局視野的不足。

姿態(tài)估計(jì)各場景性能大幅提升

在實(shí)驗(yàn)中,研究者們對比了該算法與其他開源系統(tǒng)與算法之間的性能。

在CrowdPose數(shù)據(jù)集中,比當(dāng)前最好的算法提升了5.2mAP。除此之外,在極度擁擠的子集中,提升了6.2mAP。相較于OpenPose和Detectron(Mask R-CNN)等姿態(tài)估計(jì)開源系統(tǒng),性能提升的同時(shí),運(yùn)行速度快了2到3倍。

表1 在CrowdPose數(shù)據(jù)集上的定量對比實(shí)驗(yàn)

表2 三個(gè)場景子集中的性能評估與運(yùn)行速度對比(簡單、一般、擁擠)。

本文的方法分?jǐn)?shù)提升的同時(shí),運(yùn)行速度也大大增強(qiáng)。

未來方向

論文中,研究者們提出了一種新的競爭匹配模型,以解決擁擠場景的人體姿態(tài)檢測問題。接下來,研究者們會優(yōu)化競爭匹配模型,對其他形式的擁擠檢測問題(如擁擠實(shí)例分割)開展進(jìn)一步研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:AlphaPose升級!上海交大盧策吾團(tuán)隊(duì)開源密集人群姿態(tài)估計(jì)代碼

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于PoseDiffusion相機(jī)姿態(tài)估計(jì)方法

    的約束結(jié)合在起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機(jī)位置,他們在概率擴(kuò)散框架內(nèi)公式化了SfM問題,對給定輸入圖像的相機(jī)姿態(tài)的條件分布進(jìn)行建模,用Diffusion模型輔助進(jìn)行
    的頭像 發(fā)表于 07-23 15:22 ?1271次閱讀
    基于PoseDiffusion相機(jī)<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    無人機(jī)設(shè)計(jì)姿態(tài)檢測算法、姿態(tài)控制算法有什么區(qū)別 ?

    無人機(jī)設(shè)計(jì)姿態(tài)檢測算法、姿態(tài)控制算法有什么區(qū)別 ?推薦課程:張飛四旋翼飛行器視頻套件,76小時(shí)吃透四軸
    發(fā)表于 07-14 12:12

    基于無跡卡爾曼濾波的四旋翼無人飛行器姿態(tài)估計(jì)算法_朱巖

    基于無跡卡爾曼濾波的四旋翼無人飛行器姿態(tài)估計(jì)算法_朱巖
    發(fā)表于 06-04 08:48

    四軸在飛行的控制過程可以用什么算法控制姿態(tài)

    四軸在飛行的控制過程可以用什么算法控制?姿態(tài)
    發(fā)表于 10-12 07:03

    高效的基音估計(jì)算法

    分析已有的些基音估計(jì)算法,對比其優(yōu)缺點(diǎn),提出種可大大提高計(jì)算速度的高效基音估計(jì)算法。該算法
    發(fā)表于 12-31 17:21 ?0次下載

    基于光流計(jì)算的異常擁擠行為檢測算法

    面向人群場景異常擁擠行為檢測,提出基于光流計(jì)算的檢測方法。該方法首先采用光流微粒矢量場提取人群運(yùn)動(dòng)特征;然后基于社會力模型計(jì)算光流微粒之間的相互作用力;最后對相互作用力進(jìn)行直方圖熵值
    發(fā)表于 11-17 16:40 ?5次下載

    種改進(jìn)擴(kuò)展卡爾曼的四旋翼姿態(tài)估計(jì)算法

    為了提高標(biāo)準(zhǔn)擴(kuò)展卡爾曼姿態(tài)估計(jì)算法的精確度和快速性,將運(yùn)動(dòng)加速度抑制的動(dòng)態(tài)步長梯度下降算法融入擴(kuò)展卡爾曼,提出種改進(jìn)擴(kuò)展卡爾曼的四旋翼
    發(fā)表于 12-04 11:31 ?2次下載
    <b class='flag-5'>一</b>種改進(jìn)擴(kuò)展卡爾曼的四旋翼<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)算法</b>

    AlphaPose個(gè)實(shí)時(shí)多人姿態(tài)估計(jì)系統(tǒng)

    新系統(tǒng)采用 PyTorch 框架,在姿態(tài)估計(jì)(Pose Estimation)標(biāo)準(zhǔn)測試集COCO validation set上,達(dá)到 71mAP的精度(比 OpenPose 相對提升17
    的頭像 發(fā)表于 09-08 09:11 ?8323次閱讀

    3D姿態(tài)估計(jì) 時(shí)序卷積+半監(jiān)督訓(xùn)練

    在這項(xiàng)工作,視頻的3D姿態(tài)可以通過全卷積模型估計(jì),具體是在二維關(guān)鍵點(diǎn)上通過空洞時(shí)間卷積的模型得到3D
    的頭像 發(fā)表于 12-08 22:54 ?918次閱讀

    基于注意力機(jī)制的狹小空間人群擁擠度分析方法

    種基于注意力機(jī)制的狹小空間人群擁擠度分析方法,旨在量化人群,通過卷積神經(jīng)網(wǎng)絡(luò)回歸擁擠率分析當(dāng)前空間內(nèi)的
    發(fā)表于 03-22 11:24 ?7次下載
    基于注意力機(jī)制的狹小空間<b class='flag-5'>人群</b><b class='flag-5'>擁擠</b>度分析方法

    個(gè)破紀(jì)錄的人群計(jì)數(shù)算法!——使用深度學(xué)習(xí)構(gòu)建一個(gè)人群計(jì)數(shù)模型

    人群科學(xué)家們可以通過對圖片區(qū)域劃分,計(jì)算圖像某些部分的人數(shù),然后外推得出估計(jì)值。這種方法是現(xiàn)在較為普遍的方式,但是也存在誤差。幾十年,我們不得不依靠粗略的指標(biāo)
    的頭像 發(fā)表于 04-01 14:42 ?8761次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>破紀(jì)錄的<b class='flag-5'>人群</b>計(jì)數(shù)<b class='flag-5'>算法</b>!——使用深度學(xué)習(xí)構(gòu)建<b class='flag-5'>一個(gè)人群</b>計(jì)數(shù)模型

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    ,更能充分地提取圖像信息,獲取更具有魯棒性的特征,因此基于深度學(xué)習(xí)的方法已成為二維人體姿態(tài)估計(jì)算法研究的主流方向。然而,深度學(xué)習(xí)尚在發(fā)展,仍存在訓(xùn)練規(guī)模大等問題,研究者們主要從設(shè)絡(luò)以及訓(xùn)練方式入手對人體
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)算法</b>

    基于編解碼殘差的人體姿態(tài)估計(jì)方法

    自下而上方法中最困難的步——關(guān)鍵點(diǎn)關(guān)聯(lián)問題,文中提出了種輕量高效姿態(tài)估計(jì)匹配網(wǎng)絡(luò)。該網(wǎng)絡(luò)在編碼階段將基礎(chǔ) Resnet模抉加以改進(jìn)得到
    發(fā)表于 05-28 16:35 ?2次下載

    iNeRF對RGB圖像進(jìn)行類別級別的物體姿態(tài)估計(jì)

    我們提出了iNeRF,個(gè)通過 “反轉(zhuǎn) ”神經(jīng)輻射場(NeRF)進(jìn)行無網(wǎng)格姿勢估計(jì)的框架。NeRFs已經(jīng)被證明對合成真實(shí)世界場景或物體的逼真的新視圖非常有效。在這項(xiàng)工作
    的頭像 發(fā)表于 08-10 11:37 ?1415次閱讀

    基于飛控的姿態(tài)估計(jì)算法作用及原理

    ? 姿態(tài)估計(jì)的作用? 姿態(tài)估計(jì)是飛控算法個(gè)基礎(chǔ)部
    發(fā)表于 11-13 11:00 ?899次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)算法</b>作用及原理