0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IROS'23開源,nuScenes跟蹤第一!無需學(xué)習(xí)的超強(qiáng)多目標(biāo)跟蹤!

3D視覺工坊 ? 來源:3DCV ? 2023-11-20 16:46 ? 次閱讀

多目標(biāo)跟蹤的作用是獲取目標(biāo)在整個圖像/LiDAR序列上的完整軌跡和狀態(tài),這兩年在SLAM、導(dǎo)航、規(guī)劃任務(wù)上應(yīng)用很多。多目標(biāo)跟蹤的基本框架就是預(yù)測+關(guān)聯(lián),很多MOT使用學(xué)習(xí)方法進(jìn)行預(yù)測,但是計算量很大。實時方法一般使用卡爾曼濾波進(jìn)行狀態(tài)更新,但會受限于選擇的是勻速模型還是勻加速模型。

筆者最近閱讀了IROS 2023的開源方案Poly-MOT,來源于哈工大機(jī)器人國重實驗室。這個方案也是基于EKF進(jìn)行更新,但是為不同目標(biāo)建立了不同的物理模型,實現(xiàn)了nuScenues上的跟蹤SOTA效果。因為沒有使用學(xué)習(xí)方案,也就不需要GPU,降低了硬件要求。

今天筆者將為大家分享這項工作,當(dāng)然筆者水平有限,如果有理解不當(dāng)?shù)牡胤綒g迎大家一起討論~

1、效果展示

Poly-MOT跟蹤效果的直接對比,也體現(xiàn)了文章的核心思想,就是為不同類別建立不同的運動模型。汽車使用他們設(shè)計的CTRA模型,摩托車使用他們設(shè)計的Bicycle模型,CA表示勻速模型??梢园l(fā)現(xiàn)引入專用模型后的跟蹤軌跡明顯變好了。

8f0fc460-86a7-11ee-939d-92fbcf53809c.png

Poly-MOT和CBMOT的跟蹤性能對比,Poly-MOT對于小目標(biāo)和密集目標(biāo)的跟蹤魯棒性更高。CBMOT是2021 IROS提出的相機(jī)-雷達(dá)融合方案,同時使用了CenterPoint和CenterTrack兩個檢測器。

8f30726e-86a7-11ee-939d-92fbcf53809c.png

代碼已經(jīng)開源了,感興趣的小伙伴可以實際運行一下。

2、導(dǎo)讀

三維多目標(biāo)跟蹤(MOT)通過提供周圍物體的運動軌跡,使移動機(jī)器人能夠完成明智的運動規(guī)劃和導(dǎo)航任務(wù)。然而,現(xiàn)有的3D MOT方法通常采用單個相似性度量和物理模型來對所有對象執(zhí)行數(shù)據(jù)關(guān)聯(lián)和狀態(tài)估計。在大規(guī)?,F(xiàn)代數(shù)據(jù)集和真實場景中,有各種各樣的對象類別,它們通常表現(xiàn)出獨特的幾何屬性和運動模式。這樣,這種區(qū)分將使各種物體類別在同一標(biāo)準(zhǔn)下表現(xiàn)不同,導(dǎo)致軌跡和探測之間的錯誤匹配,并危及下游任務(wù)(導(dǎo)航等)的可靠性。為此,我們提出了Poly-MOT,一種基于檢測跟蹤框架的高效3D MOT方法,使跟蹤器能夠為每個對象類別選擇最合適的跟蹤標(biāo)準(zhǔn)。具體來說,Poly-MOT利用各種對象類別的不同運動模型來準(zhǔn)確描述不同類型的運動。我們還將物體剛性結(jié)構(gòu)的約束引入到具體的運動模型中,以準(zhǔn)確描述物體的高度非線性運動。此外,我們引入了一個兩階段的數(shù)據(jù)關(guān)聯(lián)策略,以確保對象可以從三個自定義度量中找到其類別的最佳相似性度量,并減少丟失的匹配。在nuScenes數(shù)據(jù)集上,我們提出的方法達(dá)到了75.4% AMOTA的最高性能。

3、算法解析

重新梳理一下問題:

給定每幀LiDAR的3D目標(biāo)檢測結(jié)果,跟蹤多個目標(biāo)在整個序列上的軌跡和狀態(tài)。

現(xiàn)有方法是怎么做的?

現(xiàn)有框架基本就是預(yù)測+關(guān)聯(lián),基于勻速或者勻加速模型,使用卡爾曼濾波預(yù)測當(dāng)前幀目標(biāo)在下一幀的位置和狀態(tài),然后和下一幀目標(biāo)檢測結(jié)果計算IoU,如果超過閾值則認(rèn)為匹配成功,重復(fù)這個過程實現(xiàn)整個序列的關(guān)聯(lián)。

這么做有什么問題?

現(xiàn)有方法是對所有目標(biāo)類別都建立相同的預(yù)測和關(guān)聯(lián)模型,但顯然不同目標(biāo)的運動規(guī)律是不一樣的,通用模型肯定會降低精度。

如何解決?

Poly-MOT將不同目標(biāo)分為CTRA和Bicycle兩類,依據(jù)物理規(guī)律建立兩個不同的預(yù)測模型,并建立多個度量函數(shù)來進(jìn)行重復(fù)性數(shù)據(jù)關(guān)聯(lián)。

具體原理是啥?

Poly-MOT的pipeline包括四個部分:預(yù)處理模塊、多類別軌跡運動模塊、多類別數(shù)據(jù)關(guān)聯(lián)模塊和軌跡管理模塊。

8f5292c2-86a7-11ee-939d-92fbcf53809c.png

(1)、預(yù)處理

這部分主要是做目標(biāo)檢測的NMS,為了降低計算量在NMS之前還加了一步分?jǐn)?shù)閾值處理(SF),直接過濾掉低置信度的檢測結(jié)果。后面也證明了SF不僅可以提高速度,也可以提高精度。感覺如果能用GPU來算NMS會再快一些。

Poly-MOT主要在nuScenes上跑,因此得到的3D目標(biāo)檢測結(jié)果是[x, y, z, w, l, h, θ, vx, vy],xyz表示box中心坐標(biāo),wlh表示box的寬長高,θ是航向角,vx和vy是物體速度,注意有些數(shù)據(jù)集是沒有速度真值的。

(2)、多類別軌跡運動建模

這部分是文章的主要創(chuàng)新點,放棄了恒速或恒加速模型,將目標(biāo)分為CTRA和Bicycle 兩類模型,并引入剛體結(jié)構(gòu)約束來建模目標(biāo)的非線性。

CTRA(汽車和人):角速度ω和加速度a視為常量,航向角θ、速度v和加速度a的方向共線。CTRA類的目標(biāo)狀態(tài)為10維向量[x, y, z, v, a, θ, ω, w, l, h]。

Bicycle(摩托車、自行車等類似物體):速度方向和航向角可變,轉(zhuǎn)向角和速度不變。Bicycle類的目標(biāo)狀態(tài)也是10維向量[x′, y′, z, v, a, θ, δ, w, l, h],x′和y′表示重心坐標(biāo),δ為轉(zhuǎn)向角。注意兩類模型都假設(shè)加速度a、坐標(biāo)z和box尺寸wlh不變。

8f5d928a-86a7-11ee-939d-92fbcf53809c.png

目標(biāo)狀態(tài)更新使用的是擴(kuò)展卡爾曼濾波:

8f6e2726-86a7-11ee-939d-92fbcf53809c.png

其中T表示目標(biāo)狀態(tài),P表示協(xié)方差矩陣,F(xiàn)表示雅可比矩陣,Q表示噪聲,f表示狀態(tài)轉(zhuǎn)移方程。x和y的轉(zhuǎn)移方程為:

8f78bf10-86a7-11ee-939d-92fbcf53809c.png

其中η表示速度和x軸的夾角,其轉(zhuǎn)移方程為:

8f82f3d6-86a7-11ee-939d-92fbcf53809c.png

β表示速度和航向夾角,其轉(zhuǎn)移方程為:

8f9d244a-86a7-11ee-939d-92fbcf53809c.png

其中γ表示物體軸距和車體長度的比值,lr表示物體重心到后輪的距離,β也是CTRA和Bicycle的最主要區(qū)別,物理意義是自行車模型的瞬心不在物體主體上。

速度、航向角、角速度的轉(zhuǎn)移方程依次為:

8fa8115c-86a7-11ee-939d-92fbcf53809c.png

這也就是完整的狀態(tài)更新模型。

(3)、多類別數(shù)據(jù)關(guān)聯(lián)

Poly-MOT數(shù)據(jù)關(guān)聯(lián)部分的核心思想是,為不同類別設(shè)計不同的度量來降低假陽性匹配,并設(shè)計兩階段關(guān)聯(lián)減少假陰性匹配。兩階段關(guān)聯(lián)維護(hù)了兩個大的代價矩陣,主要是為了使用不同的度量來進(jìn)行重復(fù)關(guān)聯(lián)。

B表示預(yù)測或者檢測的狀態(tài),第一級關(guān)聯(lián)包括并集上的3d廣義IoU、并集上的BEV廣義IoU以及歐氏距離:

8fc11972-86a7-11ee-939d-92fbcf53809c.png

第二級關(guān)聯(lián)是給所有類別的目標(biāo)再計算一次BEV的gIoU。進(jìn)行兩階段匹配之后,獲得的是匹配對、當(dāng)前檢測中的未關(guān)聯(lián)目標(biāo)、當(dāng)前預(yù)測中的未關(guān)聯(lián)目標(biāo)。

(4)、軌跡管理

這部分包括軌跡更新、軌跡初始化、軌跡刪除和輸出文件,軌跡更新就是對匹配對應(yīng)用EKF更新狀態(tài),軌跡初始化就是連續(xù)跟蹤幀數(shù)超過閾值就認(rèn)為是活躍軌跡,同理軌跡刪除。

4、實驗結(jié)果

實驗是在nuScenes數(shù)據(jù)集進(jìn)行,主要使用AMOTA來評估。Poly-MOT運行設(shè)備是Intel 9940X,沒有使用深度學(xué)習(xí)也就不需要GPU。運行速度是3 FPS,看起來不快,如果能設(shè)計CUDA加速在GPU上應(yīng)該會跑的很快,而且已經(jīng)超過了同類方案SimpleTrack(0.51 FPS)、Minkowski Tracker(1.7 FPS)。

在nuScenes測試集上的定量對比結(jié)果,截止今天,還是以75.4%的性能實現(xiàn)了nuScenes多目標(biāo)跟蹤的第一!注意Poly-MOT只使用了LiDAR數(shù)據(jù),而第二的CAMO-MOT是多模態(tài)的MOT方案。

8fcf6464-86a7-11ee-939d-92fbcf53809c.png

在nuScenes測試集上的定量對比結(jié)果,同樣實現(xiàn)SOTA。

8fda360a-86a7-11ee-939d-92fbcf53809c.png

Pipeline各部分的消融實驗,Os是原始狀態(tài),Pre是預(yù)處理模塊,Mo是軌跡運動模塊,Ass是數(shù)據(jù)關(guān)聯(lián)模塊。特別注意Os和Os+Pre之間的差距,說明預(yù)處理模塊很重要。

8ff1bf6e-86a7-11ee-939d-92fbcf53809c.png

預(yù)處理模塊中閾值處理和NMS的消融實驗,驗證預(yù)處理模塊不僅可以提高精度,還可以提高運行速度,因為低置信度的box都被濾掉了。

90073c0e-86a7-11ee-939d-92fbcf53809c.png

最后一個消融實驗,驗證對于不同目標(biāo),建模合適的運動規(guī)律可以很大程度提高跟蹤性能。不知道為啥兩個測試對象都是Bicycle類。

9017e6f8-86a7-11ee-939d-92fbcf53809c.png

5、總結(jié)

今天筆者為大家分享了Poly-MOT跟蹤方案,不需要GPU就可以實現(xiàn)SOTA精度,文章寫得很好,各種實驗做得也很全。更有意義的是提出了一種新的設(shè)計思想,而不是單純的堆砌模塊。感興趣的小伙伴可以運行一下代碼~

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2655

    瀏覽量

    47292
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    200

    瀏覽量

    15578
  • 卡爾曼濾波
    +關(guān)注

    關(guān)注

    3

    文章

    162

    瀏覽量

    24622

原文標(biāo)題:IROS'23開源,nuScenes跟蹤第一!無需學(xué)習(xí)的超強(qiáng)多目標(biāo)跟蹤!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    視頻跟蹤目標(biāo)跟蹤算法簡介(上海凱視力成信息科技有限...

    范圍外,如艘船。邊緣跟蹤算法(Edge)當(dāng)跟蹤目標(biāo)個或多個確定邊緣而同時卻又具有不確定的邊緣,這時邊緣
    發(fā)表于 09-29 08:59

    基于聚類融合的多目標(biāo)跟蹤算法

    多目標(biāo)跟蹤是多傳感器數(shù)據(jù)融合中的個重要問題。基于模式識別理論,提出了種通過對傳感器測量數(shù)據(jù)集類,以區(qū)分源于不同目標(biāo)的測量數(shù)據(jù)集合。對各個
    發(fā)表于 07-01 08:40 ?18次下載

    無人機(jī)編隊視頻序列中的多目標(biāo)精確跟蹤

    無人機(jī)編隊視頻序列中的多目標(biāo)精確跟蹤::針對無人機(jī)編隊視頻序列中的多目標(biāo)精確跟蹤的要求,使用STK(satellitetoolkit)三維建模軟件模擬無人機(jī)UA
    發(fā)表于 03-18 16:21 ?19次下載

    多傳感器多目標(biāo)跟蹤中的數(shù)據(jù)關(guān)聯(lián)

    利用多傳感器跟蹤多目標(biāo)技術(shù)中最重要的問題是目標(biāo)關(guān)聯(lián)問題。它包括兩個方面: 同傳感器2 次掃描或多次掃描間各目標(biāo)的關(guān)聯(lián)以及多傳感器各自的
    發(fā)表于 09-06 14:30 ?31次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>中的數(shù)據(jù)關(guān)聯(lián)

    多傳感器多目標(biāo)跟蹤的JPDA算法

    文中提出了種適用于多傳感器多目標(biāo)跟蹤的JPDA算法,它以極大似然估計完成對來自多傳感器的測量集合進(jìn)行同源最優(yōu)分劃,然后采用JPDA方法對多目標(biāo)進(jìn)行
    發(fā)表于 02-03 10:38 ?47次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>的JPDA算法

    基于傳感器網(wǎng)絡(luò)的多目標(biāo)跟蹤和特征管理方法

    針對傳感器網(wǎng)絡(luò)下多目標(biāo)跟蹤目標(biāo)數(shù)量不斷變化這復(fù)雜情況,文中對多目標(biāo)跟蹤和特征管理方法進(jìn)行了
    發(fā)表于 06-07 09:09 ?0次下載
    基于傳感器網(wǎng)絡(luò)的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>和特征管理方法

    改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法

    針對單目視覺對多個相似的目標(biāo)跟蹤因遮擋等因素影響而失效的問題,提出種基于改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法。在將
    發(fā)表于 12-14 17:09 ?0次下載

    深度學(xué)習(xí)多目標(biāo)跟蹤方向調(diào)研報告

    導(dǎo)讀 本文是多目標(biāo)跟蹤方向的調(diào)研報告,從相關(guān)方向、核心步驟、評價指標(biāo)和最新進(jìn)展等維度出發(fā),對MOT進(jìn)行了全面的介紹,不僅適合作為入門科普,而且能夠幫助大家加深理解。 最近做了
    的頭像 發(fā)表于 11-05 10:01 ?3584次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>:<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>方向調(diào)研報告

    新技術(shù)可有效地使用目標(biāo)檢測的對抗示例欺騙多目標(biāo)跟蹤

    對抗機(jī)器學(xué)習(xí)的最新研究開始關(guān)注自主駕駛中的視覺感知,并研究了目標(biāo)檢測模型的對抗示例。然而在視覺感知管道中,在被稱為多目標(biāo)跟蹤的過程中,檢測到的目標(biāo)
    的頭像 發(fā)表于 02-01 11:01 ?3041次閱讀
    新技術(shù)可有效地使用<b class='flag-5'>目標(biāo)</b>檢測的對抗示例欺騙<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>

    多目標(biāo)跟蹤過程中的數(shù)據(jù)關(guān)聯(lián)技術(shù)綜述

    目標(biāo)跟蹤直都是計算視覺領(lǐng)域研究的熱點課題辶,作為計算視覺的基礎(chǔ)學(xué)科,其應(yīng)用已經(jīng)滲透到各個領(lǐng)域,包括智能監(jiān)控、智能人機(jī)交互、無人駕駛以及軍事等方面。
    發(fā)表于 05-08 16:27 ?2次下載

    基于卷積特征的多伯努利視頻多目標(biāo)跟蹤算法

    目標(biāo)漏跟。針對該問題,在多伯努利濾波框架下,深度分析目標(biāo)的特征信息,引λ抗干擾的卷積特征,提出基于卷積特征的多伯努利視頻多目標(biāo)跟蹤算法,并在目標(biāo)
    發(fā)表于 05-12 15:18 ?11次下載

    視頻目標(biāo)跟蹤分析

    視頻目標(biāo)跟蹤要求在已知第一幀感興趣物體的位置和尺度信息的情況下,對該目標(biāo)在后續(xù)視頻幀中進(jìn)行持續(xù)的定位和尺度估計W。廣義的目標(biāo)
    的頭像 發(fā)表于 07-05 11:24 ?1463次閱讀

    最常見的目標(biāo)跟蹤算法

    對象跟蹤問題直是計算機(jī)視覺的熱點任務(wù)之,簡單的可以分為單目標(biāo)跟蹤多目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?2655次閱讀

    基于MobileNet的多目標(biāo)跟蹤深度學(xué)習(xí)算法

    針對深度學(xué)習(xí)算法在多目標(biāo)跟蹤中的實時性問題, 提出種基于MobileNet的多目標(biāo)跟蹤算法.
    的頭像 發(fā)表于 11-09 10:23 ?1030次閱讀
    基于MobileNet的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>深度<b class='flag-5'>學(xué)習(xí)</b>算法

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域中的個重要任務(wù),它旨在從視頻或圖像序列中準(zhǔn)確地檢測和跟蹤多個移動目標(biāo)。不過在落地部署時,有
    的頭像 發(fā)表于 04-28 09:42 ?1582次閱讀
    <b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>算法總結(jié)歸納