0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多目標(biāo)跟蹤在計(jì)算機(jī)視覺中的重要性

3D視覺工坊 ? 來源:自動(dòng)駕駛之心 ? 作者:汽車人 ? 2022-10-12 09:40 ? 次閱讀

摘要

隨著自動(dòng)駕駛技術(shù)的發(fā)展,多目標(biāo)跟蹤已成為計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn)問題之一。MOT 是一項(xiàng)關(guān)鍵的視覺任務(wù),可以解決不同的問題,例如擁擠場景中的遮擋、相似外觀、小目標(biāo)檢測困難、ID切換等。為了應(yīng)對這些挑戰(zhàn),研究人員嘗試?yán)胻ransformer的注意力機(jī)制、利用圖卷積神經(jīng)網(wǎng)絡(luò)獲得軌跡的相關(guān)性、不同幀中目標(biāo)與siamese網(wǎng)絡(luò)的外觀相似性,還嘗試了基于簡單 IOU 匹配的 CNN 網(wǎng)絡(luò)、運(yùn)動(dòng)預(yù)測的 LSTM。

為了把這些分散的技術(shù)綜合起來,作者研究了過去三年中的一百多篇論文,試圖提取出近年來研究者們更加關(guān)注的解決 MOT 問題的技術(shù)。作者羅列了大量的應(yīng)用以及可能的方向,還有MOT如何與現(xiàn)實(shí)生活聯(lián)系起來。作者的綜述試圖展示研究人員長期使用的技術(shù)的不同觀點(diǎn),并為潛在研究人員提供一些未來方向。此外,作者在這篇綜述中還包括了流行的基準(zhǔn)數(shù)據(jù)集和指標(biāo)。

簡介

目標(biāo)跟蹤是計(jì)算機(jī)視覺中非常重要的任務(wù)之一。它剛好在目標(biāo)檢測之后出現(xiàn)。為了完成目標(biāo)跟蹤任務(wù),首先需要將目標(biāo)定位在一幀中。然后給每個(gè)目標(biāo)分配一個(gè)單獨(dú)的唯一id。然后連續(xù)幀中的每個(gè)相同目標(biāo)將生成軌跡。在這里,一個(gè)目標(biāo)可以是任何類別,比如行人、車輛、運(yùn)動(dòng)中的運(yùn)動(dòng)員、天空中的鳥等。

如果作者想在一幀中跟蹤多個(gè)目標(biāo),那么它被稱為多目標(biāo)跟蹤或MOT。 過去幾年也有一些關(guān)于MOT的綜述論文[1]、[2]、[3]、[4]。但它們都有局限性。其中一些方法只包括基于深度學(xué)習(xí)的方法,只關(guān)注數(shù)據(jù)關(guān)聯(lián),只分析問題,沒有很好地對論文進(jìn)行分類,并且缺少現(xiàn)實(shí)中應(yīng)用的介紹。 因此,綜上所述,作者以以下方式組織了本工作:

找出MOT的主要挑戰(zhàn)

列出常用的各種MOT方法

MOT基準(zhǔn)數(shù)據(jù)集簡介

MOT指標(biāo)摘要

探索各種應(yīng)用場景

MOT的主要挑戰(zhàn)

遮擋

當(dāng)想要看到的目標(biāo)被同一幀中的另一個(gè)目標(biāo)完全或部分隱藏或遮擋時(shí),就會(huì)發(fā)生遮擋問題。大多數(shù)MOT方法僅基于沒有傳感器數(shù)據(jù)的相機(jī)。這就是為什么當(dāng)目標(biāo)相互遮擋時(shí),跟蹤器要跟蹤目標(biāo)的位置有點(diǎn)困難的原因。此外,在擁擠的場景中,為了建模人與人之間的交互,遮擋變得更加嚴(yán)重。

隨著時(shí)間的推移,使用邊界框定位目標(biāo)在MOT社區(qū)中非常流行。但在擁擠的場景中,遮擋很難處理,因?yàn)間roundtruth邊界框通常相互重疊。通過聯(lián)合處理目標(biāo)跟蹤和分割任務(wù),可以部分解決這個(gè)問題。在文獻(xiàn)中,作者可以看到外觀信息和圖形信息用于查找全局屬性以解決遮擋問題。

然而,頻繁的遮擋對MOT問題中較低的精度有顯著影響。因此,研究人員試圖在沒有任何提示的情況下解決這個(gè)問題。在下圖a中,對遮擋進(jìn)行了說明。在下圖b中,紅衣女子幾乎被燈柱遮蓋。這是遮擋的一個(gè)示例。


22e3536e-49b9-11ed-a3b6-dac502259ad0.png


輕量化架構(gòu)

盡管大多數(shù)問題的最新解決方案是依賴于重量級架構(gòu),但它們非常吃資源。因此在 MOT 中,重量級架構(gòu)對于實(shí)時(shí)目標(biāo)跟蹤非常不利。因此,研究人員一直很重視輕量級體系結(jié)構(gòu)。對于 MOT 中的輕量級結(jié)構(gòu),還有一些額外的挑戰(zhàn)需要考慮。

Bin 等人提到了輕量級體系結(jié)構(gòu)面臨的三個(gè)挑戰(zhàn),比如: 目標(biāo)跟蹤體系結(jié)構(gòu)需要預(yù)訓(xùn)練權(quán)重來實(shí)現(xiàn)良好的初始化,并對跟蹤數(shù)據(jù)進(jìn)行微調(diào)。因?yàn)?NAS 算法需要來自目標(biāo)任務(wù)的指導(dǎo),同時(shí)還需要可靠的初始化。NAS 算法需要同時(shí)關(guān)注骨干網(wǎng)絡(luò)和特征提取,以便最終的結(jié)構(gòu)能夠完全適合目標(biāo)跟蹤任務(wù)。最終架構(gòu)需要編譯緊湊和低延遲的構(gòu)建模塊。

其它常見挑戰(zhàn)

MOT體系結(jié)構(gòu)經(jīng)常受到不準(zhǔn)確的目標(biāo)檢測的影響。如果沒有正確檢測到目標(biāo),那么跟蹤目標(biāo)的所有努力都將白費(fèi)。有時(shí),目標(biāo)檢測的速度成為MOT體系結(jié)構(gòu)的一個(gè)主要因素。對于背景失真,目標(biāo)檢測有時(shí)變得非常困難。照度在目標(biāo)檢測和識別中也起著至關(guān)重要的作用。

因此,所有這些因素在目標(biāo)跟蹤中變得更加重要。由于相機(jī)或目標(biāo)的運(yùn)動(dòng),運(yùn)動(dòng)模糊使MOT更具挑戰(zhàn)性。很多時(shí)候,MOT體系結(jié)構(gòu)發(fā)現(xiàn)很難確定一個(gè)目標(biāo)是否為真正的輸入目標(biāo)。挑戰(zhàn)之一是檢測和tracklet之間的正確關(guān)聯(lián)。在許多情況下,不正確和不精確的目標(biāo)檢測也是精度低的結(jié)果。

還有一些挑戰(zhàn),例如相似的外觀經(jīng)常混淆模型,軌跡的開始和終止在MOT中是一個(gè)關(guān)鍵的任務(wù),多個(gè)目標(biāo)之間的交互,ID切換(同一目標(biāo)在連續(xù)幀中識別為不同)。由于形狀和其他外觀特性的非剛性變形和類間相似性,在許多情況下,人和車輛會(huì)帶來一些額外的挑戰(zhàn)。

例如,車輛的形狀和顏色與人們的衣服不同。最后,較小尺寸的目標(biāo)可以形成各種不同的視覺元素。Liting等人嘗試用更高分辨率的圖像和更高的計(jì)算復(fù)雜度來解決這個(gè)問題。他們還將分層特征圖與傳統(tǒng)的多尺度預(yù)測技術(shù)相結(jié)合。

MOT方法

多目標(biāo)跟蹤任務(wù)通常分為兩個(gè)步驟:目標(biāo)檢測和目標(biāo)關(guān)聯(lián)。有些側(cè)重于目標(biāo)檢測,有些關(guān)注數(shù)據(jù)關(guān)聯(lián)。這兩個(gè)步驟有多種方法。無論是檢測階段還是關(guān)聯(lián)階段,這些方法都不是完全獨(dú)立的。 2336d142-49b9-11ed-a3b6-dac502259ad0.png


Transformer

Transformer是一個(gè)深度學(xué)習(xí)模型,與其他模型一樣,它有兩個(gè)部分:編碼器和解碼器[16]。編碼器捕獲自注意力,而解碼器捕獲交叉注意力。這種注意機(jī)制有助于長期記憶上下文?;诓樵冩I方式,使用轉(zhuǎn)換器預(yù)測輸出。

盡管過去它僅僅被用作一種語言模型,但近年來,視覺研究人員將重點(diǎn)放在了它上,以利用語境記憶。在大多數(shù)情況下,在MOT中,研究人員試圖根據(jù)之前的信息預(yù)測目標(biāo)下一幀的位置,作者認(rèn)為transformer是最好的方案。由于transformer專門處理序列信息,所以transformer可以完美地完成逐幀處理。下圖是一個(gè)Transformer的跟蹤例子。 2340af78-49b9-11ed-a3b6-dac502259ad0.png


下表給出了MOT中基于transformer的方法的完整總結(jié)。
23515008-49b9-11ed-a3b6-dac502259ad0.png

圖模型

圖卷積網(wǎng)絡(luò)(GCN)是一種特殊的卷積網(wǎng)絡(luò),其中神經(jīng)網(wǎng)絡(luò)以圖形的形式而不是線性的形式應(yīng)用。此外,最近的趨勢是使用圖模型來解決 MOT 問題,其中從連續(xù)幀中檢測到的一組目標(biāo)被視為一個(gè)節(jié)點(diǎn),兩個(gè)節(jié)點(diǎn)之間的鏈接被視為一個(gè)邊緣。通常情況下,數(shù)據(jù)關(guān)聯(lián)是通過應(yīng)用匈牙利算法來完成的[28]。下圖為基于GCN的目標(biāo)跟蹤示例。
2378d754-49b9-11ed-a3b6-dac502259ad0.png

下表給出了用圖模型解決 MOT 問題的概述。

23b49816-49b9-11ed-a3b6-dac502259ad0.png


檢測和目標(biāo)關(guān)聯(lián)

在這種方法中,檢測是通過任何深度學(xué)習(xí)模型來完成的。但主要的挑戰(zhàn)是關(guān)聯(lián)目標(biāo),即跟蹤感興趣的目標(biāo)的軌跡[37]。在這方面,不同的論文遵循不同的方法。

23bfcb82-49b9-11ed-a3b6-dac502259ad0.png

如上表所示,主要介紹部分方案。Margret 等人選擇了自下而上的方法和自上而下的方法。在自底向上的方法,點(diǎn)軌跡確定。但是在自頂向下的方法中,確定了邊界框。然后,通過結(jié)合這兩個(gè),一個(gè)完整的軌跡的目標(biāo)可以找到。在[3中,為了解決關(guān)聯(lián)問題,Hasith 等人簡單地檢測了目標(biāo),并使用著名的匈牙利算法來關(guān)聯(lián)信息。

2019年,Paul 等人提出了 Track-RCNN [40] ,這是 R-CNN 的一個(gè)延伸,顯然是 MOT 領(lǐng)域的一個(gè)革命性任務(wù)。到2022年,作者可以看到 MOT 問題陳述的多樣性。Oluaffunmilola 等人在進(jìn)行目標(biāo)預(yù)測的同時(shí)也進(jìn)行了目標(biāo)跟蹤[50]。他們使用 FairMOT 檢測了邊界框,然后堆疊了一個(gè)預(yù)測網(wǎng)絡(luò),并制作了聯(lián)合學(xué)習(xí)架構(gòu)(JLE)。

智洪等人提取了每個(gè)幀的新特征,以獲得全局信息,并積累了部分特征用于遮擋處理[51]。他們?nèi)诤狭诉@兩種特征來準(zhǔn)確地檢測行人。除了[52]之外,沒有論文采取任何措施來保留重要的邊界框,以便在數(shù)據(jù)關(guān)聯(lián)階段不會(huì)消除它們。在檢測之后,Hong 等人在跟蹤階段應(yīng)用Non-Maskable Suppression(NMS)來減少重要邊界框被移除的概率[53]。Jian 等人還使用 NMS 來減少來自檢測器的冗余邊界框。它們通過比較特征和借助 IoU 重新識別邊界框來重新檢測軌跡定位。最終的結(jié)果是一個(gè)聯(lián)合再檢測和再識別跟蹤器(JDI)。

注意力模塊

為了重新識別被遮擋的目標(biāo),需要注意力。注意力意味著作者只考慮感興趣的目標(biāo),通過消除背景,使其特征被記住很長時(shí)間,甚至在遮擋之后也能如此。注意力模塊在 MOT 領(lǐng)域的應(yīng)用概述見下表。 23ff7476-49b9-11ed-a3b6-dac502259ad0.png

在[41]中,姚野等人引入了一個(gè)條形注意模塊來重新識別被背景遮擋的行人。這個(gè)模塊實(shí)際上是一個(gè)池化層,其中包括 max 和 mean 池化,它能夠更有效地從行人中提取特征,這樣當(dāng)它們被遮擋時(shí),模型不會(huì)忘記它們,并能夠進(jìn)一步重新識別。宋等人希望在數(shù)據(jù)關(guān)聯(lián)中使用目標(biāo)定位的信息,在目標(biāo)定位中使用數(shù)據(jù)關(guān)聯(lián)的信息。

為了將兩者聯(lián)系起來,他們使用了兩個(gè)注意力模塊,一個(gè)用于目標(biāo),另一個(gè)用于分散注意力。然后他們最終應(yīng)用了一個(gè)記憶聚合來制造增強(qiáng)的注意力。天一等人提出了空間注意機(jī)制[60] ,通過在外觀模型中實(shí)現(xiàn)空間轉(zhuǎn)換網(wǎng)絡(luò)(STN)來迫使模型只關(guān)注前景。另一方面,雷等人首先提出了原型交叉注意模塊(PCAM)從過去的幀中提取相關(guān)特征。

然后他們使用原型交叉注意網(wǎng)絡(luò)(PCAN)在整個(gè)幀中傳輸前景和背景的對比特征[61]。匯源等人提出了自注意機(jī)制來檢測車輛[62]。本文[36]還有一個(gè)應(yīng)用于動(dòng)態(tài)圖中的自注意力模塊,用于組合攝像機(jī)的內(nèi)部和外部信息。賈旭等人以一種輕量級的方式使用了交叉注意力和自注意力[58]。如下圖所示,大家可以看到該體系結(jié)構(gòu)的交叉注意力頭。利用自注意模塊提取魯棒特征,減少背景遮擋。然后將數(shù)據(jù)傳遞給交叉注意模塊進(jìn)行實(shí)例關(guān)聯(lián)。 2422b9b8-49b9-11ed-a3b6-dac502259ad0.png

運(yùn)動(dòng)模型

運(yùn)動(dòng)是目標(biāo)的必然屬性。因此,該特征可以用于多目標(biāo)跟蹤領(lǐng)域,無論是檢測還是關(guān)聯(lián)。目標(biāo)的運(yùn)動(dòng)可以通過目標(biāo)在兩幀之間的位置差來計(jì)算。根據(jù)這個(gè)衡量標(biāo)準(zhǔn),可以做出不同的決定,如下表所示。

2441a63e-49b9-11ed-a3b6-dac502259ad0.png

Hasith 等人和 Oluaffunmilola 等人分別在[39]和[63]中使用運(yùn)動(dòng)來計(jì)算差異代價(jià)。根據(jù)實(shí)際位置與預(yù)測位置的差值計(jì)算運(yùn)動(dòng)。為了預(yù)測被遮擋目標(biāo)的位置,Bisheng 等人使用了基于 LSTM 的運(yùn)動(dòng)模型[42]。Wenyuan 等人將運(yùn)動(dòng)模型與深度親和網(wǎng)絡(luò)(DAN)相結(jié)合[64] ,通過消除目標(biāo)不可能位于的位置來優(yōu)化數(shù)據(jù)關(guān)聯(lián)[65]。

倩等人還通過累積多幀差分(AMFD)和低秩矩陣完成(LRMC)測量連續(xù)衛(wèi)星幀的距離來計(jì)算運(yùn)動(dòng)[66] ,并形成了運(yùn)動(dòng)模型基線(MMB)來檢測和減少虛警的數(shù)量。韓等人在車輛駕駛領(lǐng)域使用運(yùn)動(dòng)特征識別前景目標(biāo)[67]。他們通過比較運(yùn)動(dòng)特征和 GLV 模型來檢測相關(guān)目標(biāo)。

Gaoang 等人提出了一種局部-全局運(yùn)動(dòng)(LGM)跟蹤器,它可以找出運(yùn)動(dòng)的一致性,從而將軌跡關(guān)聯(lián)起來[32]。除此之外,Ramana 等人還使用運(yùn)動(dòng)模型來預(yù)測目標(biāo)的運(yùn)動(dòng),而不是數(shù)據(jù)關(guān)聯(lián),這些數(shù)據(jù)關(guān)聯(lián)有三個(gè)模塊: 綜合運(yùn)動(dòng)定位(IML) ,動(dòng)態(tài)重連上下文(DRC) ,3D 積分圖像(3DII)[46]。

在2022年,Shoudong 等人通過提出運(yùn)動(dòng)感知跟蹤器(MAT) ,將運(yùn)動(dòng)模型用于運(yùn)動(dòng)預(yù)測和目標(biāo)關(guān)聯(lián)。智博等人提出了補(bǔ)償跟蹤器(CT) ,它可以獲得具有運(yùn)動(dòng)補(bǔ)償模塊的丟失目標(biāo)[69]。Xiaotong 等使用運(yùn)動(dòng)模型來預(yù)測目標(biāo)的邊界框[18] ,就像在[67]中所做的那樣,但是如Transformer章節(jié)中所討論的那樣制作圖像patches。

Siamese Network

兩幀之間的相似性信息對目標(biāo)跟蹤有很大的幫助。因此,Siamese網(wǎng)絡(luò)試圖學(xué)習(xí)相似之處,并區(qū)分輸入。該網(wǎng)絡(luò)由兩個(gè)并行子網(wǎng)絡(luò)共享相同的權(quán)值和參數(shù)空間。最后將雙子網(wǎng)絡(luò)之間的參數(shù)綁定在一定的損失函數(shù)上進(jìn)行訓(xùn)練,以度量雙子網(wǎng)絡(luò)之間的語義相似度。下表給出了Siamese網(wǎng)絡(luò)在MOT任務(wù)中的應(yīng)用概況。 244ff04a-49b9-11ed-a3b6-dac502259ad0.png

戴濤等人提出了一個(gè)金字塔網(wǎng)絡(luò),嵌入了一個(gè)輕量級的transformer注意力層。他們提出的Siamese transformer金字塔網(wǎng)絡(luò)增強(qiáng)了橫向交叉注意力金字塔特征之間的目標(biāo)特征。因此,它產(chǎn)生了健壯的特定于目標(biāo)的外觀表示[22]。如下圖所示:

2470119a-49b9-11ed-a3b6-dac502259ad0.png


Bing 等人試圖通過結(jié)合運(yùn)動(dòng)建模來提升基于區(qū)域的多目標(biāo)跟蹤網(wǎng)絡(luò)[70]。他們將Siamese網(wǎng)絡(luò)跟蹤框架嵌入到較快的RCNN中,通過輕量級跟蹤和共享網(wǎng)絡(luò)參數(shù)來實(shí)現(xiàn)快速跟蹤。Cong 等人提出了一種使用Siamese雙向GRU(SiaBiGRU)對軌跡進(jìn)行后處理以消除軌跡損壞的切割網(wǎng)絡(luò)。

然后他們建立了重新連接網(wǎng)絡(luò)來連接這些軌跡并制造軌跡[31]。在典型的MOT網(wǎng)絡(luò)中,有預(yù)測和檢測模塊。所述預(yù)測模塊試圖預(yù)測下一幀中目標(biāo)的外觀,所述檢測模塊檢測所述目標(biāo)。這兩個(gè)模塊的結(jié)果用于特征匹配和目標(biāo)軌跡更新。新文等人提出了Siamese RPN(區(qū)域提案網(wǎng)絡(luò))結(jié)構(gòu)作為預(yù)測因子。

他們還提出了一種數(shù)據(jù)關(guān)聯(lián)模塊的自適應(yīng)閾值確定方法[71]。因此,Siamese網(wǎng)絡(luò)的整體穩(wěn)定性得到了改善。與transformer模型相反,賈旭等人提出了一種基于注意力的在Siamese網(wǎng)絡(luò)的結(jié)構(gòu)下的輕量級跟蹤頭,增強(qiáng)了前景目標(biāo)在目標(biāo)框內(nèi)的定位[58]。另一方面,Philippe 等人已經(jīng)將他們的有效transformer層合并到Siamese跟蹤網(wǎng)絡(luò)中,他們用transformer層取代了卷積層[21]。

Tracklet Association

感興趣目標(biāo)的一組連續(xù)幀稱為tracklet。在檢測和跟蹤目標(biāo)時(shí),首先使用不同的算法對軌跡進(jìn)行識別。然后把它們聯(lián)系在一起,建立一個(gè)軌跡。軌跡關(guān)聯(lián)顯然是一個(gè)具有挑戰(zhàn)性的任務(wù)在 MOT 問題。一些論文特別關(guān)注這個(gè)問題。不同的論文采取了不同的方法。如下表所示。 24979d28-49b9-11ed-a3b6-dac502259ad0.png

金龍等人提出了軌跡平面匹配(TPM)[72] ,其中首先從被檢測的目標(biāo)創(chuàng)建短軌跡,并且它們在軌跡平面中對齊,其中每個(gè)軌跡根據(jù)其開始和結(jié)束時(shí)間分配超平面。這樣就形成了巨大的軌跡。這個(gè)過程還可以處理非相鄰和重疊的tracklet。為了改善這種情況,他們還提出了兩個(gè)方案。

Duy 等人首先用3D幾何算法制作了tracklet[73]。他們已經(jīng)形成了多個(gè)攝像機(jī)的軌跡,由于這一點(diǎn),他們通過制定空間和時(shí)間信息優(yōu)化了全局關(guān)聯(lián)。在[31]中,Cong等人提出了位置投影網(wǎng)絡(luò)(PPN)來實(shí)現(xiàn)從局部環(huán)境到全局環(huán)境的軌跡轉(zhuǎn)換。

Daniel等人通過根據(jù)運(yùn)動(dòng)將新來的目標(biāo)分配給先前發(fā)現(xiàn)的被遮擋的目標(biāo)來重新識別被遮擋的目標(biāo)。然后他們實(shí)現(xiàn)了已經(jīng)發(fā)現(xiàn)的進(jìn)一步回歸軌跡,使用by-regression approach。此外,他們還通過提取時(shí)間方向來擴(kuò)展工作,以提高性能。 在[75]中,可以看到與前者不同的策略。

將每個(gè)軌跡作為一個(gè)中心向量,建立了軌跡中心存儲(chǔ)庫(TMB) ,并對其進(jìn)行動(dòng)態(tài)更新和成本計(jì)算。整個(gè)過程稱為多視點(diǎn)軌跡對比學(xué)習(xí)(MTCL)。此外,他們還創(chuàng)建了可學(xué)習(xí)的視圖采樣(LVS) ,它將每個(gè)檢測作為關(guān)鍵點(diǎn),幫助在全局上下文中查看軌跡。

他們還提出了相似引導(dǎo)特征融合(SGFF)方法來避免模糊特征。et,al等人已經(jīng)開發(fā)了軌跡助推器(TBooster)[76]來減輕關(guān)聯(lián)過程中發(fā)生的錯(cuò)誤。TBooster有兩個(gè)組件: 拆分器和連接器。在第一個(gè)模塊中,在ID切換發(fā)生的地方拆分tracklet。因此,可以解決為多個(gè)目標(biāo)分配相同ID的問題。在第二個(gè)模塊中,將同一目標(biāo)的tracklet鏈接起來。通過這樣做,可以避免將相同的ID分配給多個(gè)tracklet。Tracklet嵌入可以通過連接器完成。

MOT Benchmarks

典型的 MOT 數(shù)據(jù)集包含視頻序列。在這些序列中,每個(gè)目標(biāo)都由一個(gè)唯一的 id 標(biāo)識,直到它不再出現(xiàn)。一旦一個(gè)新目標(biāo)進(jìn)入幀,它就會(huì)得到一個(gè)新的唯一標(biāo)識。MOT 有很多基準(zhǔn)。其中,MOT 挑戰(zhàn)基準(zhǔn)有多個(gè)版本。自2015年以來,他們幾乎每年都會(huì)發(fā)布一個(gè)變化更多的新基準(zhǔn)。

還有一些流行的基準(zhǔn),如 PETS、 KITTI、 STEPS 和 DanceTrack。到目前為止,MOT 挑戰(zhàn)有17個(gè)目標(biāo)跟蹤數(shù)據(jù)集,其中包括 MOT15[81] ,MOT16[82] ,MOT20,[6]和其他。MOt15基準(zhǔn)包含威尼斯,KITTI,ADL-Rundle,eTH-Pescross,eTH-Sunnyday,PET,TUd-cross 數(shù)據(jù)集。

這個(gè)基準(zhǔn)是在一個(gè)不受約束的環(huán)境中拍攝的,有靜態(tài)攝像機(jī)和運(yùn)動(dòng)攝像機(jī)。MOT16和 MOT17基本上是從 MOT15更新的基準(zhǔn),具有較高的groundtruth精度和嚴(yán)格遵循的協(xié)議。MOT20是一個(gè)行人探測挑戰(zhàn)賽。這個(gè)基準(zhǔn)有8個(gè)具有挑戰(zhàn)性的視頻序列(4列火車,4測試)在無約束的環(huán)境[6]。

除了目標(biāo)跟蹤,MOTS 數(shù)據(jù)集也有分割任務(wù)[40]。一般來說,跟蹤數(shù)據(jù)集有一個(gè)邊界框,框中的目標(biāo)有一個(gè)唯一標(biāo)識符。 TAO [83]數(shù)據(jù)集有一個(gè)巨大的規(guī)模,由于跟蹤每一個(gè)目標(biāo)在一幀內(nèi)。有一個(gè)叫Head Tracking 21的數(shù)據(jù)集。這個(gè)基準(zhǔn)的任務(wù)是跟蹤每個(gè)行人的頭部。STEP 數(shù)據(jù)集對每個(gè)像素進(jìn)行了分割和跟蹤。

還有一些其他的數(shù)據(jù)集。下圖顯示了作者審閱的論文中使用的數(shù)據(jù)集的頻率。從圖表中可以看出,MOT17數(shù)據(jù)集的使用頻率高于其他數(shù)據(jù)集。

24aa9432-49b9-11ed-a3b6-dac502259ad0.png

24caecd2-49b9-11ed-a3b6-dac502259ad0.png

MOT 指標(biāo)

MOTP

多目標(biāo)跟蹤精度(MOTP)。無論跟蹤器是否有能力識別目標(biāo)形狀和保持一致的軌跡,它都是根據(jù)跟蹤器在尋找目標(biāo)位置時(shí)的精確程度給出的分?jǐn)?shù)。由于 MOTP 只能提供定位精度,因此經(jīng)常與 MOTA (Multiple Object Tracking Accuracy)結(jié)合使用,因?yàn)?MOTA 不能單獨(dú)說明定位誤差。定位(Localization)是 MOT 任務(wù)的輸出之一。它讓大家知道目標(biāo)在本幀中的位置。單憑它不能提供一個(gè)完整的跟蹤器的性能。

24d7b6c4-49b9-11ed-a3b6-dac502259ad0.png

Dit: 在時(shí)間t時(shí)刻,實(shí)際目標(biāo)與其各自假設(shè)之間的距離,在一個(gè)單幀內(nèi),對于集合中的每個(gè)目標(biāo)Oi,跟蹤器分配一個(gè)假設(shè)hi。Ct: 在t時(shí)刻目標(biāo)和假設(shè)之間匹配的數(shù)量。

MOTA

多目標(biāo)跟蹤準(zhǔn)確度。這個(gè)度量衡量跟蹤器在不考慮精度的情況下檢測目標(biāo)和預(yù)測軌跡的能力。這個(gè)度量標(biāo)準(zhǔn)考慮了三種類型的誤差:

24e62f9c-49b9-11ed-a3b6-dac502259ad0.png

Mt: 在t時(shí)刻丟失的數(shù)量;fpt誤檢數(shù)量;mmet: ID切換的數(shù)量 gt: 在t時(shí)刻出現(xiàn)的真實(shí)目標(biāo)的數(shù)量。 MOTA過分強(qiáng)調(diào)精確檢測的效果。它側(cè)重于檢測級別的預(yù)測和真值之間的匹配,并沒有考慮關(guān)聯(lián)。當(dāng)考慮沒有ID切換的MOTA,度量會(huì)更偏向于被較差的精度影響。

上述的局限性可能會(huì)導(dǎo)致研究人員調(diào)整他們的跟蹤器,使其在檢測水平上更具精度和準(zhǔn)確性,同時(shí)忽略了跟蹤的其他重要方面。MOTA 只能考慮短期關(guān)聯(lián)。它只能評估算法執(zhí)行一階關(guān)聯(lián)的效果,而不能評估算法在整個(gè)軌跡中的關(guān)聯(lián)效果。且它根本沒有考慮關(guān)聯(lián)精度/ID轉(zhuǎn)換。事實(shí)上,如果一個(gè)跟蹤器能夠糾正任何關(guān)聯(lián)錯(cuò)誤,它會(huì)懲罰它而不是獎(jiǎng)勵(lì)它。MOTA 的最高分是1,但是沒有一個(gè)固定的最小值,這會(huì)導(dǎo)致 MOTA 的分?jǐn)?shù)為負(fù)。

IDF1

ID度量。它試圖將預(yù)測的軌跡與實(shí)際軌跡進(jìn)行映射,這與MOTA等在檢測級別執(zhí)行雙射線映射的指標(biāo)形成對比。它被設(shè)計(jì)用來測量“識別”,不同于檢測和關(guān)聯(lián),它與軌跡有關(guān).

24f4e186-49b9-11ed-a3b6-dac502259ad0.png

IDTP:代表ID真正例,預(yù)測得到的目標(biāo)軌跡與groundtruth目標(biāo)軌跡匹配。IDFN:ID假反例。任何未被發(fā)現(xiàn)的groundtruth值并且其軌跡未被匹配。IDFP:ID誤檢。任何錯(cuò)誤的預(yù)測結(jié)果。 由于MOTA對檢測精度的高度依賴,一些人更喜歡IDF1,因?yàn)樵撝笜?biāo)更注重關(guān)聯(lián)性。

然而,IDF1也有一些缺陷。在IDF1中,最佳unique的雙映射不會(huì)導(dǎo)致預(yù)測軌跡和實(shí)際軌跡之間的最佳對齊。最終結(jié)果將為更好的匹配留下空間。即使檢測正確,IDF1分?jǐn)?shù)也會(huì)降低。如果有很多不匹配的軌跡,分?jǐn)?shù)也會(huì)降低。這促使研究人員增加unique的總數(shù)量,而不是專注于進(jìn)行合理的檢測和關(guān)聯(lián)。

Track-mAP

這種度量匹配GroundTruth軌跡和預(yù)測軌跡。當(dāng)軌跡相似性得分Str大于或等于閾值αtr時(shí),在軌跡之間進(jìn)行匹配。此外,預(yù)測的軌跡必須具有最高的置信度得分。

25089d70-49b9-11ed-a3b6-dac502259ad0.png251bd96c-49b9-11ed-a3b6-dac502259ad0.png

n:預(yù)測軌跡的總數(shù)。預(yù)測軌跡按照置信度得分降序排列。Prn:計(jì)算跟蹤器的精度。TPTr:真正軌跡。找到匹配的任何預(yù)測軌跡。|TPTr|n:n條預(yù)測軌跡中的真正軌跡數(shù)。Ren:Measures Re-call。|gtTraj |:目標(biāo)軌跡真值,使用精度和召回方程進(jìn)行進(jìn)一步計(jì)算,以獲得最終Track?mAP分?jǐn)?shù)。

25279702-49b9-11ed-a3b6-dac502259ad0.png

作者首先對精度值進(jìn)行插值,得到每個(gè)n值的InterpPr。然后,作者將每個(gè)n值繪制一個(gè)InterpPr與 Ren 對應(yīng)的圖。作者現(xiàn)在有了精確-召回曲線。這條曲線的積分會(huì)給出 Track-mAP 得分。Track-mAP 也有一些缺點(diǎn)。軌跡mAP的跟蹤結(jié)果很難直觀地顯示出來。

它對于單個(gè)軌道有多個(gè)輸出。低置信度得分的軌跡對最終得分的影響是模糊的。有一種方法可以“黑掉”這個(gè)度量標(biāo)準(zhǔn)。研究人員可以得到一個(gè)較高的分?jǐn)?shù),通過創(chuàng)造幾個(gè)有較低置信度分?jǐn)?shù)的預(yù)測。這將增加獲得合適匹配的機(jī)會(huì),從而增加得分。然而,這并不是一個(gè)良好跟蹤的指標(biāo)。跟蹤 mAP 無法指示跟蹤器是否具有更好的檢測和關(guān)聯(lián)。

HOTA

Higher Order Tracking Accuracy。原論文[96]將 HOTA 描述為: “ HOTA 測量匹配檢測的軌跡對齊程度,并對整體匹配檢測進(jìn)行平均,同時(shí)懲罰不匹配的檢測。”HOTA 應(yīng)該是一個(gè)單一的分?jǐn)?shù),可以涵蓋跟蹤評估的所有要素。它還應(yīng)該被分解為子度量。HOTA 彌補(bǔ)了其他常用指標(biāo)的缺點(diǎn)。雖然像 MOTA 這樣的指標(biāo)忽略關(guān)聯(lián)并且嚴(yán)重依賴于檢測(MOTA)或反之亦然(IDF1),但是 TPA,F(xiàn)PA 和 FNA 等新概念的發(fā)展使得關(guān)聯(lián)可以像TP,F(xiàn)Ns 和 FP 用于測量檢測一樣進(jìn)行測量。

2531477a-49b9-11ed-a3b6-dac502259ad0.png

A(c):測量預(yù)測軌跡和groundtruth軌跡的相似程度。TP:真正例,在S ≥ α的條件下,將groundtruth檢測與預(yù)測檢測相匹配。S是定位相似度,α是閾值。FN: 假反例。漏掉的groundtruth檢測 FP: 假正例。一種沒有與任何groundtruth匹配的預(yù)測。TPA: 真正關(guān)聯(lián)正例。與給定的 TPC 具有相同的groundtruth ID和相同的預(yù)測ID的真正正例的集合。

2547fb78-49b9-11ed-a3b6-dac502259ad0.png

FNA: 具有與給定TPC相同的groundtruth ID的一組groundtruth檢測目標(biāo)。然而,這些檢測目標(biāo)被分配了一個(gè)不同于c或根本沒有的預(yù)測ID。

25741370-49b9-11ed-a3b6-dac502259ad0.png

FPA:與給定TPc具有相同預(yù)測ID的預(yù)測檢測集。然而,這些檢測目標(biāo)被分配了一個(gè)不同于c的groundtruth ID,或者根本沒有。

257e5dd0-49b9-11ed-a3b6-dac502259ad0.png

HOTaα 是計(jì)算α的特殊值的HOTA。需要進(jìn)一步計(jì)算才能得到最終的HOTA分?jǐn)?shù)。作者找到了不同α的值對應(yīng)的HOTA,α范圍從0到1,然后計(jì)算它們的平均值。

2598dfde-49b9-11ed-a3b6-dac502259ad0.png


作者能夠?qū)?HOTA 分解為幾個(gè)子指標(biāo)。這很有用,因?yàn)榭梢圆捎酶櫾u估的不同元素,并使用它們進(jìn)行比較??梢愿玫亓私飧櫰髡诋a(chǎn)生的錯(cuò)誤。跟蹤中常見的錯(cuò)誤有五種類型: 假反例、假正例、碎片化、合并和偏差。這些可以分別通過檢測召回、檢測精度、關(guān)聯(lián)召回、關(guān)聯(lián)精度和定位來衡量。

LocA

Localization Accuracy[96].

25a4f7c4-49b9-11ed-a3b6-dac502259ad0.png

S(c): 預(yù)測檢測與groundtruth之間的空間相似性得分。這個(gè)子度量處理錯(cuò)誤類型偏差或定位錯(cuò)誤。當(dāng)預(yù)測檢測和groundtruth不一致時(shí),就會(huì)產(chǎn)生定位誤差。這與 MOTP 類似,但又不同,因?yàn)樗瑤讉€(gè)定位閾值。常用的度量標(biāo)準(zhǔn),如 MOTA 和 IDF1沒有考慮到定位。

AssA:Association Accuracy Score

根據(jù) MOT 基準(zhǔn): “所有匹配檢測的關(guān)聯(lián)Jaccard索引的平均值,平均值超過定位閾值”[96]。關(guān)聯(lián)是MOT 任務(wù)結(jié)果的一部分,它讓大家知道不同幀中的目標(biāo)是屬于同一個(gè)還是不同的目標(biāo)。這些目標(biāo)具有相同的ID,并且是相同軌跡的一部分。關(guān)聯(lián)精度給出了匹配軌跡之間的平均對齊度。它主要關(guān)注關(guān)聯(lián)錯(cuò)誤。這是由于groundtruth中的單個(gè)目標(biāo)被給予了兩種不同的預(yù)測,或者一個(gè)單獨(dú)的預(yù)測被給予了兩種不同的groundtruth目標(biāo)。

25b28ce0-49b9-11ed-a3b6-dac502259ad0.png

DetA:Detection Accuracy

根據(jù) MOT 基準(zhǔn): “檢測 Jaccard 索引平均超過定位閾值”[96]。檢測是 MOT 任務(wù)的另一個(gè)輸出。它只是幀內(nèi)的目標(biāo)。檢測精度是正確檢測的一部分。當(dāng)groundtruth被忽略或者存在虛假檢測時(shí),檢測誤差就會(huì)存在。

25bd0224-49b9-11ed-a3b6-dac502259ad0.png


DetRe:Detection Recall

給出了一個(gè)定位閾值的計(jì)算方程。需要平均所有定位閾值[96]:

25cd3d1a-49b9-11ed-a3b6-dac502259ad0.png

檢測召回錯(cuò)誤是假反例。它們發(fā)生時(shí),跟蹤器錯(cuò)過了一個(gè)真實(shí)目標(biāo),檢測精度可分為檢測召回和檢測精度。

DetPr:

給出了一個(gè)計(jì)算定位閾值的方程,需要對所有定位閾值進(jìn)行平均[96]:

25e0bba6-49b9-11ed-a3b6-dac502259ad0.png

如前所述,檢測精度是檢測精度的一部分。檢測精度誤差為假正例(誤檢)。當(dāng)追蹤器做出不存在于groundtruth中的預(yù)測時(shí),它們就會(huì)發(fā)生。

AssRe:Association Recall

需要計(jì)算下面的公式,然后計(jì)算所有匹配檢測的平均值。最后,平均結(jié)果要超過定位閾值[96]:

25f2fed8-49b9-11ed-a3b6-dac502259ad0.png

當(dāng)跟蹤器將不同的預(yù)測軌跡分配給相同的groundtruth軌跡時(shí),就會(huì)發(fā)生關(guān)聯(lián)召回錯(cuò)誤。關(guān)聯(lián)精度可分為關(guān)聯(lián)召回和關(guān)聯(lián)精度。

AssPr:Association Precision

作者需要計(jì)算下面的方程,然后對所有匹配檢測進(jìn)行平均。最后,結(jié)果的平均值超過定位閾值[96]:

25fdae78-49b9-11ed-a3b6-dac502259ad0.png

關(guān)聯(lián)精度是關(guān)聯(lián)精度的一部分。當(dāng)兩條不同的groundtruth軌跡具有相同的預(yù)測ID時(shí),就會(huì)出現(xiàn)關(guān)聯(lián)錯(cuò)誤。

MOTSA: Multi Object Tracking and Segmentation Accuracy

這是 MOTA 度量的一種變體,因此也可以評估分割任務(wù)的跟蹤器性能。


260d3d52-49b9-11ed-a3b6-dac502259ad0.png


這里 M 是一組 N 個(gè)非空的groundtruth掩模。每個(gè)mask被分配一個(gè)groundtruth跟蹤ID。TP 是一組真正例。當(dāng)一個(gè)假設(shè)的掩碼映射到一個(gè)groundtruth掩碼時(shí),真正例出現(xiàn)。FP 是假正例的,沒有任何groundtruth,F(xiàn)N是一組假反例,有真值但沒有任何相應(yīng)的檢測結(jié)果。

IDS、ID切換是屬于同一軌道但被分配了不同ID的groundtruth掩碼。MOTSA 算法的缺點(diǎn)包括: 使檢測比關(guān)聯(lián)更加重要,并且會(huì)受到匹配閾值選擇的影響。

AMOTA: Average Multiple Object Tracking Precision

這是通過平均所有recall的MOTA值來計(jì)算的:


261cfc10-49b9-11ed-a3b6-dac502259ad0.png

numg數(shù)值是所有幀中g(shù)roundtruth目標(biāo)的數(shù)量。對于一個(gè)特定的召回值r,F(xiàn)P的數(shù)目、FN的數(shù)目和ID切換的數(shù)目表示為 FPr、 FNr 和 IDSr。召回值的數(shù)量用 L 表示。

應(yīng)用

MOT有無數(shù)應(yīng)用程序。許多工作都涉及到跟蹤各種目標(biāo),包括行人、動(dòng)物、魚、車輛、體育運(yùn)動(dòng)員等。實(shí)際上,多目標(biāo)跟蹤的領(lǐng)域不能僅限于幾個(gè)領(lǐng)域。但是,為了從應(yīng)用的角度獲得一個(gè)想法,作者將根據(jù)具體的應(yīng)用涵蓋論文。

自動(dòng)駕駛

自動(dòng)駕駛可以說是多目標(biāo)跟蹤中最常見的任務(wù)。這是近年來人工智能領(lǐng)域的一個(gè)熱門話題。高等人提出了一個(gè)自動(dòng)駕駛的雙重注意力網(wǎng)絡(luò),他們整合了兩個(gè)注意力模塊[97]。傅先生等人首先利用自注意力機(jī)制檢測車輛,然后利用多維信息進(jìn)行關(guān)聯(lián)。他們還通過重新跟蹤失蹤的車輛來處理堵塞問題[62]。

龐等人將車輛檢測與基于隨機(jī)有限集(RFS)引入3D MOT 的多測量模型濾波器(RFS-M3)相結(jié)合[98]。羅等人還應(yīng)用了3D MOT技術(shù),提出了模擬跟蹤技術(shù),該技術(shù)可以通過激光雷達(dá)捕捉到的點(diǎn)云來檢測和關(guān)聯(lián)飛行器。Mackenzie 等人做了兩項(xiàng)研究: 一項(xiàng)是關(guān)于自動(dòng)駕駛汽車的,另一項(xiàng)是關(guān)于運(yùn)動(dòng)的。

他們研究了多目標(biāo)避讓(MOA)的整體表現(xiàn),這是一種測量自動(dòng)駕駛中行動(dòng)注意力的工具。鄒等人提出了一個(gè)輕量級的框架,用于路邊攝像機(jī)拍攝的2D交通場景的全棧感知。Cho等人通過YOLOv4和DeepSORT的交通監(jiān)控?cái)z像頭,在將圖像從局部到全局坐標(biāo)系統(tǒng)投影后,識別并跟蹤了這些車輛[101]。

其它

行人跟蹤:是多目標(biāo)跟蹤系統(tǒng)中最常見的任務(wù)之一。由于街頭攝像頭的視頻很容易被捕捉,人們已經(jīng)做了很多關(guān)于人類或行人跟蹤的工作。 車輛監(jiān)控:與自動(dòng)駕駛一樣,也是一項(xiàng)非常重要的任務(wù)。為了監(jiān)控車輛的活動(dòng),可以應(yīng)用MOT技術(shù)。

運(yùn)動(dòng)員跟蹤:在人工智能時(shí)代,對任何運(yùn)動(dòng)中的運(yùn)動(dòng)員進(jìn)行嚴(yán)格的分析都是最重要的戰(zhàn)術(shù)之一。因此 MOT 在許多方面被用來跟蹤運(yùn)動(dòng)員。 野生動(dòng)物追蹤:MOT 的一個(gè)潛在應(yīng)用案例是野生動(dòng)物跟蹤。它可以幫助野生動(dòng)物研究人員避免昂貴的傳感器,這些傳感器在某些情況下并不那么可靠。

MOT在跟蹤魚類等水下生物方面也發(fā)揮著至關(guān)重要的作用。在[118]中,李等人提出了 CMFTNet,它通過應(yīng)用聯(lián)合檢測和嵌入來提取和關(guān)聯(lián)特征來實(shí)現(xiàn)。在復(fù)雜背景下,采用可變形卷積方法進(jìn)一步提高特征的銳化能力,并借助重量平衡損失的方法實(shí)現(xiàn)對魚的精確跟蹤。

在視覺監(jiān)控領(lǐng)域,Ahmed 等人提出了一個(gè)基于SSD和YOLO的協(xié)作機(jī)器人框架,用于檢測和一系列跟蹤算法的組合[120]。 還可以看到MOT在農(nóng)業(yè)中的實(shí)施。為了跟蹤番茄種植,Ge 等人使用基于YOLO的shufflenetv2作為基線,CBAM 作為注意力機(jī)制,BiFPN 作為多尺度融合結(jié)構(gòu),DeepSORT 作為跟蹤[125]。Tan 等人還使用 YOLOv4作為棉花幼苗的檢測器和一種基于光流的跟蹤方法來跟蹤幼苗[49]。

MOT還可以應(yīng)用于各種現(xiàn)實(shí)生活中的應(yīng)用,如安全監(jiān)控、社會(huì)距離監(jiān)控、雷達(dá)跟蹤、活動(dòng)識別、智能老年護(hù)理、犯罪跟蹤、人員重識別、行為分析等。

未來方向

由于 MOT 是一個(gè)多年來的研究熱點(diǎn),人們已經(jīng)在它上面做了大量的努力。但是,這個(gè)領(lǐng)域仍然有很大的發(fā)展空間。在這里,作者想指出一些MOT的潛在的方向:

在多個(gè)攝像頭下進(jìn)行多目標(biāo)跟蹤有點(diǎn)困難。主要的挑戰(zhàn)是如何融合這些場景。但是,如果將非重疊攝像機(jī)的場景融合在一起,投影到虛擬世界中,那么 MOT 就可以在一個(gè)較長的區(qū)域內(nèi)連續(xù)跟蹤目標(biāo)。類似的努力可以在[31]中看到。一個(gè)相對較新的數(shù)據(jù)集多攝像機(jī)多人跟蹤也可用[126]。Xindi等人提出了一種用于多目標(biāo)多攝像機(jī)跟蹤的實(shí)時(shí)在線跟蹤系統(tǒng)[127]。

基于類的跟蹤系統(tǒng)可以與多目標(biāo)跟蹤相結(jié)合。MOT算法試圖跟蹤一幀中幾乎所有的運(yùn)動(dòng)目標(biāo)。如果可以進(jìn)行基于類的跟蹤,這將更好地應(yīng)用于實(shí)際場景中。例如,鳥類跟蹤MOT系統(tǒng)在機(jī)場非常有用,因?yàn)闉榱朔乐锅B類與飛機(jī)在跑道上相撞,目前采用了一些人工預(yù)防機(jī)制。它可以完全自動(dòng)使用基于類的MOT系統(tǒng)?;陬惖母櫾谠S多方面有助于監(jiān)視。因?yàn)樗兄谟行У馗櫶囟愋偷哪繕?biāo)。

MOT 在二維場景中有著廣泛的應(yīng)用。雖然這是一個(gè)有點(diǎn)具有挑戰(zhàn)性的任務(wù),利用MOT分析3D視頻將是一個(gè)很好的研究課題。三維跟蹤可以提供更精確的跟蹤和遮擋處理。正如在三維場景深度信息保存,因此它有助于克服一個(gè)主要的挑戰(zhàn),MOT中的遮擋問題。

到目前為止,大多數(shù)transformer都被用作黑匣子。但transformer可以更具體地用于解決不同的MOT任務(wù)。一些方法是完全基于檢測和進(jìn)一步的回歸被用來預(yù)測下一幀的邊界框[128]。在這種情況下,DETR[25]可用于檢測,因?yàn)樗跈z測目標(biāo)方面有非常高的效率。

在任何應(yīng)用程序中,輕量級體系結(jié)構(gòu)對于實(shí)際應(yīng)用程序都非常重要。因?yàn)檩p量級體系結(jié)構(gòu)是資源有效的,而且在實(shí)際場景中,資源是有限的。在MOT中,如果想在物聯(lián)網(wǎng)嵌入式設(shè)備中部署一個(gè)模型,輕量級架構(gòu)也是非常關(guān)鍵的。同時(shí)在實(shí)時(shí)跟蹤中,輕量級體系結(jié)構(gòu)起著非常重要的作用。因此,在不降低精度的情況下,如果能夠?qū)崿F(xiàn)更多的fps,那么它就可以在實(shí)際應(yīng)用中實(shí)現(xiàn),在實(shí)際應(yīng)用中,輕量級體系結(jié)構(gòu)是非常必要的。

在現(xiàn)實(shí)生活中,在線多目標(biāo)跟蹤是唯一可行的解決方案。因此,推理時(shí)間起著至關(guān)重要的作用。作者觀察到近年來從研究人員那里獲得更多準(zhǔn)確性的趨勢。但是,如果能夠?qū)崿F(xiàn)超過30幀率的推理時(shí)間,那么就可以使用MOT作為實(shí)時(shí)跟蹤。由于實(shí)時(shí)跟蹤是監(jiān)控的關(guān)鍵,因此它是未來 MOT 研究的主要方向之一。

近年來,量子計(jì)算在計(jì)算機(jī)視覺中的應(yīng)用呈現(xiàn)出一種趨勢。量子計(jì)算也可以用于MOT。Zaech等人在Ising模型的幫助下發(fā)表了MOT使用絕熱量子計(jì)算(AQC)的第一篇論文[129]。他們期望AQC能夠在將來的關(guān)聯(lián)過程中加速N-P硬分配問題。由于量子計(jì)算在不久的將來具有很大的潛力,這可能是一個(gè)非常有前途的研究領(lǐng)域。

總結(jié)

本文試圖對計(jì)算機(jī)視覺在MOT中的最新發(fā)展趨勢進(jìn)行總結(jié)和回顧。作者試圖分析其局限性和重大挑戰(zhàn)。與此同時(shí),作者發(fā)現(xiàn),除了一些主要的挑戰(zhàn),如遮擋,ID切換,也有一些小的挑戰(zhàn)。這項(xiàng)研究包括了與每種方法相關(guān)的簡要理論,試圖平等地關(guān)注每一種方法。

作者也添加了一些流行的基準(zhǔn)數(shù)據(jù)集以及他們自己的見解。根據(jù)最近的MOT趨勢,展望了一些MOT未來可能的方向。作者發(fā)現(xiàn),最近研究人員更多地關(guān)注基于transformer的結(jié)構(gòu),這是因?yàn)閠ransformer的上下文信息存儲(chǔ)能力。由于輕量級架構(gòu)的transformer仍然是很吃資源的,所以開發(fā)新的模塊也很必要。最后,希望本文的研究能夠?qū)Χ嗄繕?biāo)跟蹤領(lǐng)域的研究者起到補(bǔ)充作用,開啟多目標(biāo)跟蹤研究的新篇章。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1685

    瀏覽量

    45814
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    781

    文章

    13449

    瀏覽量

    165279
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    3721

原文標(biāo)題:多目標(biāo)跟蹤最新綜述(基于Transformer/圖模型/檢測和關(guān)聯(lián)/孿生網(wǎng)絡(luò))

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    計(jì)算機(jī)視覺有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像和視頻的信息。這一技術(shù)的發(fā)展不僅推動(dòng)了多個(gè)行業(yè)的變革,也
    的頭像 發(fā)表于 08-14 09:49 ?293次閱讀

    計(jì)算機(jī)視覺技術(shù)的AI算法模型

    計(jì)算機(jī)視覺技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像及視頻的信息。為了實(shí)現(xiàn)這一
    的頭像 發(fā)表于 07-24 12:46 ?356次閱讀

    機(jī)器視覺計(jì)算機(jī)視覺有什么區(qū)別

    。機(jī)器視覺的研究目標(biāo)是讓機(jī)器具有類似人類的視覺能力,能夠自動(dòng)、準(zhǔn)確地完成各種視覺任務(wù)。 計(jì)算機(jī)視覺
    的頭像 發(fā)表于 07-16 10:23 ?289次閱讀

    計(jì)算機(jī)視覺的五大技術(shù)

    計(jì)算機(jī)視覺作為深度學(xué)習(xí)領(lǐng)域最熱門的研究方向之一,其技術(shù)涵蓋了多個(gè)方面,為人工智能的發(fā)展開拓了廣闊的道路。以下是對計(jì)算機(jī)視覺五大技術(shù)的詳細(xì)解析,包括圖像分類、對象檢測、
    的頭像 發(fā)表于 07-10 18:26 ?904次閱讀

    計(jì)算機(jī)視覺的工作原理和應(yīng)用

    計(jì)算機(jī)視覺(Computer Vision,簡稱CV)是一門跨學(xué)科的研究領(lǐng)域,它利用計(jì)算機(jī)和數(shù)學(xué)算法來模擬人類視覺系統(tǒng)對圖像和視頻進(jìn)行識別、理解、分析和處理。其核心
    的頭像 發(fā)表于 07-10 18:24 ?1081次閱讀

    機(jī)器人視覺計(jì)算機(jī)視覺的區(qū)別與聯(lián)系

    機(jī)器人視覺計(jì)算機(jī)視覺是兩個(gè)密切相關(guān)但又有所區(qū)別的領(lǐng)域。 1. 引言 在當(dāng)今科技迅猛發(fā)展的時(shí)代,機(jī)器人和計(jì)算機(jī)視覺技術(shù)
    的頭像 發(fā)表于 07-09 09:27 ?298次閱讀

    計(jì)算機(jī)視覺與智能感知是干嘛的

    感知(Intelligent Perception)則是計(jì)算機(jī)視覺的一個(gè)分支,它強(qiáng)調(diào)計(jì)算機(jī)處理視覺信息時(shí)的智能
    的頭像 發(fā)表于 07-09 09:23 ?353次閱讀

    計(jì)算機(jī)視覺屬于人工智能嗎

    屬于,計(jì)算機(jī)視覺是人工智能領(lǐng)域的一個(gè)重要分支。 引言 計(jì)算機(jī)視覺是一門研究如何使計(jì)算機(jī)具有
    的頭像 發(fā)表于 07-09 09:11 ?588次閱讀

    深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)計(jì)算機(jī)視覺領(lǐng)域取得了顯著的成果。計(jì)算機(jī)視覺,作為
    的頭像 發(fā)表于 07-01 11:38 ?434次閱讀

    機(jī)器視覺計(jì)算機(jī)視覺的區(qū)別

    人工智能和自動(dòng)化技術(shù)的快速發(fā)展,機(jī)器視覺(Machine Vision, MV)和計(jì)算機(jī)視覺(Computer Vision, CV)作
    的頭像 發(fā)表于 06-06 17:24 ?837次閱讀

    計(jì)算機(jī)視覺的主要研究方向

    計(jì)算機(jī)視覺(Computer Vision, CV)作為人工智能領(lǐng)域的一個(gè)重要分支,致力于使計(jì)算機(jī)能夠像人眼一樣理解和解釋圖像和視頻的信息
    的頭像 發(fā)表于 06-06 17:17 ?524次閱讀

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)重要任務(wù),它旨在從視頻或圖像序列準(zhǔn)確地檢測和
    的頭像 發(fā)表于 04-28 09:42 ?1205次閱讀
    <b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>算法總結(jié)歸納

    計(jì)算機(jī)視覺的十大算法

    隨著科技的不斷發(fā)展,計(jì)算機(jī)視覺領(lǐng)域也取得了長足的進(jìn)步。本文將介紹計(jì)算機(jī)視覺領(lǐng)域的十大算法,包括它們的基本原理、應(yīng)用場景和優(yōu)缺點(diǎn)。這些算法
    的頭像 發(fā)表于 02-19 13:26 ?1048次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>的十大算法

    什么是計(jì)算機(jī)視覺?計(jì)算機(jī)視覺的三種方法

    計(jì)算機(jī)視覺是指通過為計(jì)算機(jī)賦予人類視覺這一技術(shù)目標(biāo),從而賦能裝配線檢查到駕駛輔助和機(jī)器人等應(yīng)用。計(jì)算機(jī)
    的頭像 發(fā)表于 11-16 16:38 ?4168次閱讀
    什么是<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>?<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>的三種方法

    最適合AI應(yīng)用的計(jì)算機(jī)視覺類型是什么?

    計(jì)算機(jī)視覺是指為計(jì)算機(jī)賦予人類視覺這一技術(shù)目標(biāo),從而賦能裝配線檢查到駕駛輔助和機(jī)器人等應(yīng)用。計(jì)算機(jī)
    的頭像 發(fā)表于 11-15 16:38 ?348次閱讀
    最適合AI應(yīng)用的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>類型是什么?