0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

ml8z_IV_Technol ? 來源:工程師李察 ? 2019-01-05 09:35 ? 次閱讀

對于智能車輛來說,多傳感器融合對于高精度和魯棒性的感知交通環(huán)境至關(guān)重要。在這篇論文中,我們提出了兩種有效的方法,即時(shí)空證據(jù)生成和獨(dú)立視覺通道,以改善多傳感器跟蹤水平對車輛環(huán)境感知的影響。時(shí)空證據(jù)包括即時(shí)證據(jù)、跟蹤證據(jù)和跟蹤匹配證據(jù),以改進(jìn)存在融合。

獨(dú)立視覺通道利用視覺處理在物體識別上的特殊優(yōu)勢來改進(jìn)分類融合。利用從實(shí)際交通環(huán)境中采集的多傳感器數(shù)據(jù)集對所提出的方法進(jìn)行了評估。實(shí)驗(yàn)結(jié)果表明,該方法在檢測精度和分類精度方面均可顯著提高多傳感器軌道級融合。

Ⅰ.介紹

交通環(huán)境中的物體感知的魯棒性對于自動(dòng)駕駛和高級駕駛輔助系統(tǒng)( ADAS )都具有重要意義。物體感知可以通過不同類型的傳感器來實(shí)現(xiàn),例如激光雷達(dá)、雷達(dá)和攝相機(jī)。激光雷達(dá)和雷達(dá)是有源傳感器,可以測量物體的精確距離,但物體分類的能力較差。而攝像機(jī)在物體識別方面表現(xiàn)出優(yōu)異的性能,但是測量物體距離的能力較差。雷達(dá)對測量物體的速度更敏感,激光雷達(dá)更適合于感知物體的形狀。總之,這些傳感器各有優(yōu)缺點(diǎn)[ 1 ]。因此,融合不同的傳感器有望實(shí)現(xiàn)物體感知的高精度和魯棒性。

傳感器融合系統(tǒng)已經(jīng)被研究了幾十年。通常,傳感器融合方法可分為三類:低級、特征級和高級融合方法。

低級融合架構(gòu)不需要在傳感器級對原始數(shù)據(jù)進(jìn)行預(yù)處理。盡管低級融合[ 2 ]對物體有很強(qiáng)的描述能力,但它需要很高的數(shù)據(jù)帶寬,并且在實(shí)踐中實(shí)施起來可能很復(fù)雜。

特征級融合[ 3 ]試圖在進(jìn)行數(shù)據(jù)融合之前,通過預(yù)處理步驟從原始數(shù)據(jù)中提取某些特征。特征級融合可以降低復(fù)雜性,但在實(shí)踐中仍然難以實(shí)現(xiàn)。

在高級融合[ 4 ]中,每個(gè)傳感器獨(dú)立地執(zhí)行跟蹤算法并生成目標(biāo)列表。高級融合可以產(chǎn)生最佳的感知性能,因?yàn)樗哂心K化、實(shí)用性和可擴(kuò)展性。

因此,在本文中,我們將重點(diǎn)放在高級融合上,也稱為軌道級融合。軌道級融合的一個(gè)潛在缺點(diǎn)是它對物體的描述能力較差。因此,在軌道級融合設(shè)計(jì)中,我們應(yīng)該更加關(guān)注物體的完整描述,如分類、形狀等。

許多軌道級融合方法[ 5 ]–[ 7 ]已經(jīng)被提出,并對目標(biāo)感知做出了巨大貢獻(xiàn)。在跟蹤目標(biāo)時(shí),我們主要關(guān)注三種信息:1 )目標(biāo)的存在概率;2 )目標(biāo)狀態(tài)的準(zhǔn)確性,包括位置、速度和方向,反映在目標(biāo)的全局軌跡上;3 )其他描述信息的完整性,如分類、形狀等。

因此,軌道級融合主要包括存在融合、軌道間融合和分類融合。參考文獻(xiàn)[ 5 ]和[ 6 ]使用基于證據(jù)理論(DST)的存在融合方法來估計(jì)物體的存在概率。然而,它們的存在證據(jù)只考慮瞬時(shí)的空間證據(jù),而忽略了時(shí)間證據(jù),因此會產(chǎn)生相對高的誤報(bào)率和誤報(bào)率,特別是在高度動(dòng)態(tài)的交通環(huán)境下。參考[ 5 ]和[ 7 ]提出了使用信息矩陣融合( IMF )來估計(jì)物體狀態(tài)的軌道間融合方法。然而,它們像其他主動(dòng)傳感器一樣融合圖像對象,同時(shí)忽略圖像對象的不準(zhǔn)確位置,這導(dǎo)致相對高的假陰性率、檢測的假陽性率和相對低的正確識別率。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖1 :最新軌道級融合的框架

為了解決上述兩個(gè)問題,我們提出了兩種方法,即時(shí)空證據(jù)生成( STEG )和獨(dú)立視覺通道( IVC ),以改進(jìn)多傳感器軌道級融合。STEG方法提高了存在估計(jì)的準(zhǔn)確性,從而提高了軌道級融合的檢測精度。IVC方法不僅提高了軌道融合的檢測率,而且提高了軌道融合的正確分類率。利用從實(shí)際交通環(huán)境中收集的多傳感器數(shù)據(jù)集對所提出的方法進(jìn)行了評估。實(shí)驗(yàn)結(jié)果清楚地證明了所提方法在軌道級融合中的有效性。與沒有STIG的方法相比,所提出的STIG方法在相似誤報(bào)率的情況下將目標(biāo)檢測的誤報(bào)率降低了0.06,并且在相似誤報(bào)率的情況下與沒有STIG的方法相比將誤報(bào)率降低了0.08。同時(shí),所提出的IVC方法將目標(biāo)檢測的假陰性率降低了0.01,并將目標(biāo)識別的正確分類率提高了0.19。

Ⅱ.軌道級融合的背景

為了正確檢測室外環(huán)境中的目標(biāo),并且大多數(shù)情況下不會因?yàn)檫M(jìn)入和離開視場而丟失物體信息,多傳感器數(shù)據(jù)應(yīng)該在軌道級融合。如圖1所示,軌道級融合的框架包括傳感器級處理、融合級處理和應(yīng)用級處理。在傳感器級處理中,我們獨(dú)立地從每個(gè)傳感器獲得傳感器局部對象列表:

其中t是時(shí)間戳,Si表示傳感器i,Oj是對檢測對象的描述,包括狀態(tài)xˇ、狀態(tài)協(xié)方差Pˇ、存在概率p和分類c。在融合級處理中,來自不同傳感器的對象列表首先在空間和時(shí)間上與公共坐標(biāo)系對齊。跟蹤到跟蹤關(guān)聯(lián)后,傳感器級對象會列出DtS1...SN通過存在融合、軌道融合和分類融合融合在一起,形成全局目標(biāo)列表DtG。在應(yīng)用程序級處理中,全局對象列表DtG與特定應(yīng)用程序的其他數(shù)據(jù)源相結(jié)合。

存在融合是從獨(dú)立的傳感器級估計(jì)中融合目標(biāo)存在概率,生成全局目標(biāo)存在概率估計(jì)。這對提高目標(biāo)跟蹤的魯棒性非常重要。對于單傳感器目標(biāo)跟蹤,存在概率主要通過歸一化創(chuàng)新平方( NIS )來估計(jì)。最近還提出了幾種更先進(jìn)的方法。例如,[ 8 ]提出了一種利用立體視覺和跟蹤過程中的幾個(gè)線索來估計(jì)物體存在概率的方法。對于多傳感器目標(biāo)跟蹤,在綜合概率數(shù)據(jù)關(guān)聯(lián)( IPDA )框架中開發(fā)了目標(biāo)存在概率估計(jì),作為檢測目標(biāo)的質(zhì)量度量[ 9 ]。參考文獻(xiàn)[ 6 ]提出了一種基于DST的目標(biāo)存在概率估計(jì)的融合方法,其中組合了由每個(gè)傳感器估計(jì)的目標(biāo)存在。

軌道間融合來自獨(dú)立傳感器級估計(jì)的目標(biāo)狀態(tài)及其協(xié)方差,以生成全局目標(biāo)狀態(tài)估計(jì)。參考[ 10 ]提出了目標(biāo)軌道融合( OTF )方法,其中傳感器級軌跡被視為對全局目標(biāo)軌跡的測量,忽略了相關(guān)性和信息冗余。參考文獻(xiàn)[ 11 ]介紹了軌道到軌道融合( T2T )方法,該方法通過近似技術(shù)計(jì)算互相關(guān)度,這種方法存在缺陷。IMF在用于將多傳感器各自的目標(biāo)軌跡融合成全局軌跡,并顯示出出色的性能。基于IMF的方法在[ 7 ]中提出,該方法使用IMF來處理速度相關(guān)性,實(shí)現(xiàn)了集中式架構(gòu)的可比性能。[ 12 ]對現(xiàn)有的用于物體狀態(tài)估計(jì)的軌道間融合方法進(jìn)行了精度比較。它表明IMF對過程噪聲最魯棒,在過程模型偏差期間最準(zhǔn)確和一致。

分類融合旨在改進(jìn)全局對象的分類估計(jì)。大多數(shù)分類融合方法基于證據(jù)理論,這是一種基于不完全和不確定信息的決策工具。對于全局對象分類融合,找到合適的證據(jù)至關(guān)重要。參考[ 13 ]–[ 15 ]使用基于DST的方法來估計(jì)全局目標(biāo)軌跡的分類。[ 13 ]提議的基于DST的融合方法依賴于兩個(gè)主要證據(jù):瞬時(shí)融合證據(jù),從當(dāng)前每個(gè)物體的單個(gè)傳感器提供的證據(jù)組合中獲得;以及動(dòng)態(tài)融合證據(jù),其將來自先前結(jié)果的證據(jù)與瞬時(shí)融合結(jié)果相結(jié)合。在[ 14 ]中,作者提出了一種基于證據(jù)理論的目標(biāo)柵格地圖融合,以決定是否占據(jù)柵格。提出了一種基于DST的分類方法[ 15 ]來融合全局軌跡的瞬時(shí)分類結(jié)果和先前的分類結(jié)果。參考[ 16 ]和[ 17 ]使用Yager規(guī)則組合來自不同傳感器的物體分類證據(jù),進(jìn)一步用于關(guān)聯(lián)來自不同傳感器的物體。

III.軌道級融合

A.總體框架

圖2示出了我們所提出的軌道級融合的框架。整體框架非常類似于最先進(jìn)的軌道級融合框架。特別是,對于時(shí)間和空間對齊,我們采用了我們先前工作[ 8 ]中介紹的相同方法,將獨(dú)立的傳感器級對象列表同步并校準(zhǔn)到公共坐標(biāo)系。然后,我們使用匈牙利算法來關(guān)聯(lián)來自多個(gè)傳感器的時(shí)間和空間對齊的對象列表。我們將DST用于存在融合和分類融合,以及IMF用于軌道到軌道融合。主要原因是DST和IMF分別是最有效的方法。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖2 :軌道級融合框架

本文提出的框架和最新框架之間的主要區(qū)別可以描述如下。

我們提出了一種基于DST的存在融合時(shí)空證據(jù)生成方法。我們同時(shí)考慮空間瞬時(shí)證據(jù)、時(shí)間跟蹤證據(jù)和跟蹤匹配證據(jù),以改進(jìn)存在融合。

我們使用獨(dú)立的視覺通道將圖像對象信息融合到全局軌道中。IVC的使用不僅可以改進(jìn)分類融合,還可以避免對航跡融合的負(fù)面影響。

B.時(shí)空證據(jù)生成

1 )即時(shí)證據(jù)生成:當(dāng)一個(gè)物體出現(xiàn)在感知范圍內(nèi)時(shí),我們需要證據(jù)來即時(shí)支持存在融合。單個(gè)傳感器存在估計(jì)的魯棒性實(shí)際上非常低。因此,直接使用單傳感器存在估計(jì)[ 6 ]進(jìn)行存在融合是不合適的。為了提高目標(biāo)檢測的魯棒性,我們使用瞬時(shí)測量的匹配信息作為證據(jù)來支持目標(biāo)存在估計(jì)。我們使用匈牙利算法從不同傳感器獲取不同目標(biāo)列表的瞬時(shí)匹配信息,其中我們計(jì)算不同列表中目標(biāo)之間的歐氏距離作為權(quán)重矩陣。

我們將臨界距離定義為d1max,并將兩個(gè)獨(dú)立傳感器的距離定義為di,j。如果di,j小于d1max且對象i與對象j匹配,則定義瞬時(shí)證據(jù)質(zhì)量,利用Sigmod函數(shù)將di,j映射到質(zhì)量集[a,b]。Sigmod函數(shù)定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ε是接近于零的正常量。

2 )跟蹤證據(jù)生成:當(dāng)一個(gè)物體在一段時(shí)間內(nèi)只被一個(gè)傳感器檢測到時(shí),我們無法從多個(gè)傳感器獲得證據(jù)。由于單個(gè)傳感器對目標(biāo)的瞬時(shí)測量不穩(wěn)定,我們將目標(biāo)跟蹤歷史作為存在融合的證據(jù)。

我們計(jì)算一段時(shí)間內(nèi)同一軌道上當(dāng)前幀和前一幀的對象之間的平均歐氏距離,以獲得支持存在估計(jì)的質(zhì)量。大量證據(jù)被定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ε是如B1小節(jié)中提到的常數(shù),d2max是與物體速度相關(guān)聯(lián)的臨界距離。davg由軌道的長度和平滑度估計(jì),定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中k是當(dāng)前時(shí)間戳,n - 1是軌道的選定長度。

3 )跟蹤匹配證據(jù)生成:如果一個(gè)物體在一段時(shí)間內(nèi)被幾個(gè)傳感器同時(shí)觀察到,這意味著這個(gè)物體幾乎肯定存在。這是物體存在融合的有力證據(jù)。

在本文中,我們計(jì)算來自不同傳感器的兩個(gè)目標(biāo)軌道的平均歐幾里德距離,以獲得支持存在估計(jì)的質(zhì)量。大量有力的證據(jù)被定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ε是接近零的正常數(shù),dt2t是兩條軌道之間的平均距離。Dt2t定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中ki是時(shí)間戳,而i,j代表不同的傳感器,n是軌道長度。

4 )基于DST的存在融合:對于目標(biāo)存在概率融合,我們獲得了上述三種證據(jù),即瞬時(shí)證據(jù)、跟蹤證據(jù)和跟蹤匹配證據(jù)。

存在概率識別框架定義為

其中彐代表存在。實(shí)際上,我們計(jì)算質(zhì)量m(彐 )和質(zhì)量m(θ),其中θ是未知的命題。在[ 6 ]中,如果一個(gè)物體在傳感器的范圍內(nèi),而傳感器未能檢測到該物體,它們定義了m(彐 )的質(zhì)量。由于遮擋問題和傳感器的不可靠性,這是不合適的。因此,假設(shè)A代表存在或未知的命題,我們有三個(gè)質(zhì)量值來支持如上計(jì)算的命題A、m1(A )、m2(A )和m3(A )。我們使用[ 6 ]中提出的組合和判別規(guī)則計(jì)算融合存在概率,該規(guī)則定義為

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

其中K定義為

C.獨(dú)立視覺通道

在所有傳感器中,攝像機(jī)傳感器的識別能力是最出色的。因此,必須融合圖像信息,以實(shí)現(xiàn)全面的物體感知。然而,由圖像傳感器檢測到的物體的真實(shí)位置并不像其他有源傳感器那樣精確,因?yàn)閿z像機(jī)校準(zhǔn)參數(shù)不能適應(yīng)室外交通環(huán)境的所有條件。例如,安裝在車輛上的攝像機(jī)可能會隨著車輛在不平的道路上行駛而晃動(dòng)。如果IMF方法使用與其他傳感器相同的圖像對象列表,將導(dǎo)致相對較高的對象檢測假陰性和假陽性率,從而導(dǎo)致相對較低的對象識別正確分類率。參考[ 19 ]指出了圖像對象的不準(zhǔn)確位置,因此提出了一種融合圖像信息的方法。然而,該方法要求其他傳感器必須獲得幾何信息以匹配圖像對象的形狀,這對于沒有感知形狀信息能力的傳感器來說通常是不可用的。

為了解決上述問題,我們提出了一種獨(dú)立的視覺通道方法來更恰當(dāng)?shù)厝诤蠄D像對象信息。提出的獨(dú)立視覺通道獨(dú)立處理圖像對象列表,避免了對軌道融合的負(fù)面影響。此外,獨(dú)立的視覺通道將圖像信息傳遞給有源傳感器的目標(biāo),因此也可以改進(jìn)軌道級融合的分類估計(jì)。我們首先使用A3小節(jié)中提到的軌道匹配算法將圖像對象的軌道與其他傳感器的軌道進(jìn)行匹配。當(dāng)當(dāng)前時(shí)間戳或先前時(shí)間戳的dt2t小于d3max時(shí),我們將圖像對象信息(如分類)傳輸?shù)搅硪粋€(gè)活動(dòng)傳感器的對象。之后,我們首先使用DST作為等式( 12 ),將轉(zhuǎn)移的分類c~i和自含分類cSj融合為c~Sj。然后,我們使用DST作為等式( 13 ),將當(dāng)前分類和先前分類進(jìn)行融合。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

Ⅳ.實(shí)驗(yàn)結(jié)果

A.實(shí)驗(yàn)裝置

所有物體感知實(shí)驗(yàn)都在西安交通大學(xué)開發(fā)的“發(fā)現(xiàn)號”自動(dòng)駕駛車輛研究平臺上進(jìn)行。該平臺旨在滿足一般自主駕駛研究的要求,同時(shí)也在努力應(yīng)對環(huán)境感知的挑戰(zhàn)?!鞍l(fā)現(xiàn)”在2017年贏得了中國智能車輛未來挑戰(zhàn)( IVFC )。如圖3 ( a )所示,“發(fā)現(xiàn)號”安裝有一臺德爾菲ESR MMW雷達(dá)、一臺單目點(diǎn)灰色攝像機(jī)和一臺ibeo LUX - 8L。圖3 ( b )示出了三個(gè)傳感器的具體感知范圍。表I列出了這三種傳感器的類型、視場( FOV )、范圍和更新速率。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

實(shí)驗(yàn)中使用的數(shù)據(jù)集是由安裝在西安市城市道路“發(fā)現(xiàn)號”上的多個(gè)傳感器收集的。攝像機(jī)和雷達(dá)的捕獲速率為10fps,激光雷達(dá)的捕獲速率為6.25fps。我們已經(jīng)同時(shí)捕獲了45287幀的同步數(shù)據(jù)集,包括相機(jī)、激光雷達(dá)和雷達(dá)數(shù)據(jù)。從數(shù)據(jù)集中,我們選擇4個(gè)會話來測試建議的方法,如表所示

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖3 : XJTU自動(dòng)駕駛車輛研究平臺“發(fā)現(xiàn)號”的傳感器配置

我們已經(jīng)預(yù)處理了4個(gè)選定的會話。MMW雷達(dá)目標(biāo)直接從雷達(dá)傳感器讀取,圖像目標(biāo)由單鏡頭多盒檢測器( SSD ) [ 20 ]模型檢測,激光雷達(dá)數(shù)據(jù)由基于密度的帶噪聲應(yīng)用空間聚類( DBSCAN ) [ 21 ]處理。雷達(dá)和激光雷達(dá)的目標(biāo)分別被卡爾曼濾波器跟蹤。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

B.時(shí)空證據(jù)生成的結(jié)果

與文獻(xiàn)[6]中提出的時(shí)空證據(jù)生成方法相比,本文提出的時(shí)空證據(jù)生成方法從目標(biāo)檢測的假陰性率和假陽性率兩方面對該方法進(jìn)行了評價(jià)。如果存在一個(gè)對象,則將其與全局軌道相融合。因此,為了評估存在性融合的性能,我們分別計(jì)算了目標(biāo)檢測的全局假陰性率和假陽性率。

在我們的工作中,我們?yōu)镾teg方法選擇了一組參數(shù),d1max=d2max=d3max=2.2m;ε=0:0001。該方法可以通過改變目標(biāo)檢測的參數(shù)來調(diào)整目標(biāo)檢測的假陰性率和假陽性率。因此,我們選擇了兩組參數(shù),即不帶STEG 1的參數(shù),與STEG方法相似的假陽性率參數(shù)和不帶步驟2的參數(shù),與STEG方法的假陰性率相似。表三列出了前面方法的兩組參數(shù)。雷達(dá)信任度是激光雷達(dá)傳感器的感知范圍。在感知范圍內(nèi),如果雷達(dá)傳感器檢測到目標(biāo),而激光雷達(dá)傳感器出現(xiàn)故障,則導(dǎo)致目標(biāo)的不存在。

如圖4所示,在類似假陽性率的情況下,所提出的STEP方法比不帶STG的方法降低了目標(biāo)檢測的假陰性率0.06;在類似假陰性率的情況下,與沒有STIG的方法相比,該方法降低了0.08%的假陽性率。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖4:STEG檢測精度比較

C.獨(dú)立視覺通道的結(jié)果

圖5 :對象ID變化比較的示例

較高的誤檢率會導(dǎo)致全局目標(biāo)軌跡的識別號(ID)發(fā)生較大的變化。IVC方法可以減少假陰性率和ID變化次數(shù)。圖5(A)示出交通場景,其中正面汽車(標(biāo)記為紅色邊框)正在移動(dòng)。圖5(B)分別示出了該方法與IVC提供的汽車軌道的ID變化比較,以及不使用IVC的方法,其中每種顏色代表一個(gè)ID。所提出的IVC方法提供的軌跡ID在20秒內(nèi)不發(fā)生變化,但在沒有IVC的情況下,該方法提供的ID變化了兩次。圖6示出了目標(biāo)檢測的假陰性率和假陽性率的比較。比較結(jié)果表明,與不含IVC的方法相比,采用IVC的方法可使假陰性率降低0.01。雖然對目標(biāo)檢測的假陰性率的提高相對較小,但可以減少ID的平均變化次數(shù),從而有效地提高了分類融合的效果。

本文采用基于DST的分類融合方法,利用現(xiàn)有的傳感器證據(jù)和以往的全局分類證據(jù)來確定目標(biāo)的分類。因此,當(dāng)對象ID發(fā)生變化時(shí),會丟失以前的分類證據(jù),從而導(dǎo)致分類正確率較低。圖7示出了對象id的平均變化時(shí)間和正確的分類率。結(jié)果表明,該方法的平均變化次數(shù)為0.67,比無IVC的方法低3倍以上。該方法的正確分類率為0.78,比不含IVC的方法高0.19。

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖6:IVC檢測精度比較

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

圖7 : IVC分類精度比較

V.結(jié)論

在這篇論文中,我們提出了兩種方法來改進(jìn)用于目標(biāo)感知的軌道級融合。首先,我們提出了一種時(shí)空證據(jù)生成方法,用于目標(biāo)存在概率融合,以降低誤報(bào)率和誤報(bào)率。其次,我們提出了一種獨(dú)立的視覺通道方法來改進(jìn)跟蹤-跟蹤融合和分類融合。最后,通過從實(shí)際交通環(huán)境中采集的多傳感器數(shù)據(jù)集對所提出的方法進(jìn)行了評估。實(shí)驗(yàn)結(jié)果表明,該方法在檢測精度和分類精度方面均可顯著提高多傳感器軌道級融合。在未來的工作中,我們將考慮使用攝像機(jī)對道路場景的理解來幫助物體融合感知。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2545

    文章

    50445

    瀏覽量

    751075
  • 智能
    +關(guān)注

    關(guān)注

    8

    文章

    1700

    瀏覽量

    117365
  • 軌道
    +關(guān)注

    關(guān)注

    0

    文章

    40

    瀏覽量

    11024

原文標(biāo)題:利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    感知融合為自動(dòng)駕駛與機(jī)器視覺解開當(dāng)前無解場景之困

    昱感微的“雷視一體融合感知方案”將可見光攝像頭、紅外攝像頭以及雷達(dá)的探測數(shù)據(jù)在前端(數(shù)據(jù)獲取時(shí))融合,將各傳感器的探測數(shù)據(jù)“坐標(biāo)統(tǒng)一、時(shí)序?qū)R”,圖像與雷達(dá)數(shù)據(jù)完成像素級實(shí)時(shí)“
    的頭像 發(fā)表于 10-29 14:21 ?395次閱讀
    <b class='flag-5'>感知</b><b class='flag-5'>融合</b>為自動(dòng)駕駛與機(jī)器<b class='flag-5'>視覺</b>解開當(dāng)前無解場景之困

    精密制造的革新:光譜共焦傳感器與工業(yè)視覺相機(jī)的融合

    在現(xiàn)代精密制造領(lǐng)域,對微小尺寸、高精度產(chǎn)品的檢測需求日益迫切。光譜共焦傳感器憑借其非接觸、高精度測量特性脫穎而出,而工業(yè)視覺相機(jī)則以其高分辨率、實(shí)時(shí)成像能力著稱。兩者的融合,不僅解決了傳統(tǒng)檢測方式在
    的頭像 發(fā)表于 09-26 11:47 ?255次閱讀

    計(jì)算機(jī)視覺中的圖像融合

    。模態(tài)融合則是將來自不同傳感器的圖像結(jié)合起來,也稱為傳感器融合。其主要應(yīng)用包括醫(yī)學(xué)影像、監(jiān)控
    的頭像 發(fā)表于 08-01 08:28 ?507次閱讀
    計(jì)算機(jī)<b class='flag-5'>視覺</b>中的圖像<b class='flag-5'>融合</b>

    人形機(jī)器人感知系統(tǒng)的特點(diǎn):模態(tài)感知、高精度、實(shí)時(shí)性

    優(yōu)必選、小米科技、宇樹科技等。 ? 人形機(jī)器人感知系統(tǒng)包括哪些傳感器和算法 ? 人形機(jī)器人感知系統(tǒng)包括各種傳感器,如視覺
    的頭像 發(fā)表于 07-30 01:05 ?4173次閱讀

    未來已來,傳感器融合感知是自動(dòng)駕駛破局的關(guān)鍵

    駕駛的關(guān)鍵的是具備人類的感知能力,傳感器融合感知正是自動(dòng)駕駛破局的關(guān)鍵。昱感微的雷視一體
    發(fā)表于 04-11 10:26

    智慧燈桿合一傳感器(創(chuàng)新設(shè)計(jì),實(shí)現(xiàn)多功能融合

      智慧燈桿合一傳感器的最大特點(diǎn)就是創(chuàng)新的設(shè)計(jì),將多種功能集成在一個(gè)燈桿上。它不僅僅能夠提供照明服務(wù),還能夠?qū)崟r(shí)監(jiān)測空氣質(zhì)量、溫度、濕度等環(huán)境數(shù)據(jù),甚至能夠感知人流、車流等信息。這種
    的頭像 發(fā)表于 03-29 15:25 ?319次閱讀

    淺析自動(dòng)駕駛行業(yè)的視覺感知主流框架設(shè)計(jì)

    視覺感知系統(tǒng)主要以攝像頭作為傳感器輸入,經(jīng)過一系列的計(jì)算和處理,對自車周圍的環(huán)境信息做精確感知。目的在于為
    發(fā)表于 01-26 11:25 ?587次閱讀
    淺析自動(dòng)駕駛行業(yè)的<b class='flag-5'>視覺</b><b class='flag-5'>感知</b>主流框架設(shè)計(jì)

    Spring Boot和飛騰派融合構(gòu)建的農(nóng)業(yè)物聯(lián)網(wǎng)系統(tǒng)-改進(jìn)自適應(yīng)加權(quán)融合算法

    接上集: 上次實(shí)驗(yàn)我們已經(jīng)完成傳感器融合算法的設(shè)計(jì),本次實(shí)驗(yàn)注意完成改進(jìn)自適應(yīng)加權(quán)融合算法設(shè)計(jì)。 一、背景 通過利用溫室控制系統(tǒng)來管理溫室
    發(fā)表于 01-06 12:18

    傳感器數(shù)據(jù)融合算法最關(guān)鍵的是

    傳感器數(shù)據(jù)融合是一個(gè)綜合處理傳感器數(shù)據(jù)的過程,以提高對環(huán)境或目標(biāo)的
    的頭像 發(fā)表于 12-13 11:00 ?570次閱讀

    上海微系統(tǒng)所在無人系統(tǒng)的傳感融合技術(shù)方面取得進(jìn)展

    類人多感官的傳感融合是智能無人系統(tǒng)感知環(huán)境、完成決策的重要手段。其中,通過多傳感器校準(zhǔn)獲取
    的頭像 發(fā)表于 12-04 16:09 ?647次閱讀
    上海微系統(tǒng)所在無人系統(tǒng)的<b class='flag-5'>多</b><b class='flag-5'>傳感</b><b class='flag-5'>融合</b>技術(shù)方面取得進(jìn)展

    VD6283TX環(huán)境傳感器驅(qū)動(dòng)開發(fā)(1)----獲取ID

    環(huán)境傳感器是一種光電探測,能夠?qū)⒐廪D(zhuǎn)換為電壓或者電流,使用光譜環(huán)境傳感器為了測量光譜上特
    的頭像 發(fā)表于 12-01 16:05 ?645次閱讀
    VD6283TX<b class='flag-5'>環(huán)境</b>光<b class='flag-5'>傳感器</b>驅(qū)動(dòng)開發(fā)(1)----獲取ID

    車身環(huán)境感知,傳感器要把握哪些趨勢?

    自主式智能汽車ADAS 系統(tǒng)是車輛從被動(dòng)安全技術(shù)向主動(dòng)安全技術(shù)的重要變革,其核心是環(huán)境感知系統(tǒng),主要由感知層、決策層和執(zhí)行層組成,本文重點(diǎn)介紹ADAS 系統(tǒng)
    的頭像 發(fā)表于 11-25 09:58 ?804次閱讀
    車身<b class='flag-5'>環(huán)境</b><b class='flag-5'>感知</b>,<b class='flag-5'>傳感器</b>要把握哪些趨勢?

    利用集成式MEMS慣性傳感器改善工業(yè)控制

    電子發(fā)燒友網(wǎng)站提供《利用集成式MEMS慣性傳感器改善工業(yè)控制.pdf》資料免費(fèi)下載
    發(fā)表于 11-22 16:21 ?0次下載
    <b class='flag-5'>利用</b>集成式MEMS慣性<b class='flag-5'>傳感器</b><b class='flag-5'>改善</b>工業(yè)控制

    自動(dòng)駕駛環(huán)境感知——激光雷達(dá)物體檢測(chapter4)

    激光雷達(dá)不僅可以做到視圖融合,還能進(jìn)行傳感器融合(此時(shí)是一個(gè)狀態(tài)估計(jì)問題,將不同傳感器
    的頭像 發(fā)表于 11-17 17:06 ?962次閱讀
    自動(dòng)駕駛<b class='flag-5'>環(huán)境</b><b class='flag-5'>感知</b>——激光雷達(dá)物體檢測(chapter4)

    傳統(tǒng)基于幀的圖像傳感器輸出和基于事件的視覺傳感器輸出對比

    (EVS)。這兩款專為工業(yè)設(shè)備設(shè)計(jì)的傳感器實(shí)現(xiàn)了業(yè)界最小(相比其它堆疊式基于事件的視覺傳感器)的4.86 μm像素尺寸,并且只有在感知到場景變化時(shí)才會進(jìn)行捕捉記錄。 ? 01 事件相機(jī)
    的頭像 發(fā)表于 11-16 10:12 ?2489次閱讀
    傳統(tǒng)基于幀的圖像<b class='flag-5'>傳感器</b>輸出和基于事件的<b class='flag-5'>視覺</b><b class='flag-5'>傳感器</b>輸出對比