0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CMU&MIT最新開源!超強通用視覺位置識別!

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-08-14 11:58 ? 次閱讀

0. 筆者個人體會

這項工作可以簡稱為"識別一切"!??吹焦俜絛emo的一瞬間,真的是感覺很驚嘆。

視覺位置識別的工作有很多,本質(zhì)上都可以歸類為構(gòu)建圖像數(shù)據(jù)庫+查詢圖像檢索的過程?,F(xiàn)在的主要問題是,很多識別算法都是針對特定環(huán)境進行的,換一個環(huán)境很可能直接就掛掉了。

那么,一個真正通用的位置識別算法,應(yīng)該做到什么呢?

答案就是三個關(guān)鍵詞:任何地點(無縫地運行在任何環(huán)境中,包括空中、地下和水下),任何時間(對場景中的時間變化,如晝夜或季節(jié)變化,或?qū)εR時物體具有魯棒性),以及跨任何視角(對視角變化具有魯棒性,包括完全相反的視角)。也就是說,在任何地點、任何時間、任何視角下都可以魯棒得進行位置識別。這個任務(wù)想想就非常難!

但是最近有一個團隊就推出了這樣的工作,也就是CMU、IIIT Hyderabad、MIT、AIML聯(lián)合開源的AnyLoc,性能非常的魯棒,并且實驗做得很詳細(xì)。今天筆者就將帶領(lǐng)讀者一起欣賞一下這一力作,當(dāng)然筆者水平有限,如果有理解不當(dāng)?shù)牡胤綒g迎大家一起交流。限于篇幅,對本文的的深入思考與理解,我們發(fā)表在了「3D視覺從入門到精通」知識星球。

注:本文使用VPR做為視覺位置識別的簡稱(Visual Place Recognition)。

1. 效果展示

先來看一個最基礎(chǔ)的任務(wù),就是根據(jù)查詢圖像進行位置識別。這也是官方主頁上提供的交互式demo,直接點擊左側(cè)Query圖像上的任一點,就可以在右側(cè)識別出選擇的位置。感興趣的小伙伴可以去官方主頁上進行嘗試!這里也推薦「3D視覺工坊」新課程《面向自動駕駛領(lǐng)域目標(biāo)檢測中的視覺Transformer》。

54bae148-3a2e-11ee-9e74-dac502259ad0.png

558e5d52-3a2e-11ee-9e74-dac502259ad0.png

就像論文中提到的那樣,AnyLoc在任何地點、任何時間、任何視角都可以進行位置識別。最關(guān)鍵的是,在各種結(jié)構(gòu)化、非結(jié)構(gòu)化、光照變化等挑戰(zhàn)性場景中都可以進行準(zhǔn)確識別!

55b91c5e-3a2e-11ee-9e74-dac502259ad0.png

569076d6-3a2e-11ee-9e74-dac502259ad0.png

AnyLoc在室內(nèi)室外、結(jié)構(gòu)化非結(jié)構(gòu)化、光照視角變化等挑戰(zhàn)性場景中的性能都遠(yuǎn)遠(yuǎn)超過了同類算法,簡直是"八邊形戰(zhàn)士"!

56fd2cd6-3a2e-11ee-9e74-dac502259ad0.png

總之,算法已經(jīng)開源了,官方主頁上也提供了很多的demo。感興趣的小伙伴趕快去試試吧,下面來看一下具體的論文信息。

3. 摘要

視覺位置識別( Visual Place Recognition,VPR )對機器人定位至關(guān)重要。迄今為止,性能最高的VPR方法都是針對環(huán)境和任務(wù)的:盡管它們在結(jié)構(gòu)化環(huán)境(以城市駕駛為主)中表現(xiàn)出強勁的性能,但它們在非結(jié)構(gòu)化環(huán)境中的性能嚴(yán)重下降,這使得大多數(shù)方法在實際部署中表現(xiàn)不佳。在這項工作中,我們開發(fā)了一個通用的VPR解決方案------一種跨越廣泛的結(jié)構(gòu)化和非結(jié)構(gòu)化環(huán)境(城市、室外、室內(nèi)、空中、水下和地下環(huán)境)的技術(shù),無需任何重新訓(xùn)練或微調(diào)。我們證明,從沒有VPR特定訓(xùn)練的現(xiàn)成的自監(jiān)督模型中得到的通用特征表示是構(gòu)建這種通用VPR解決方案的正確基礎(chǔ)。將這些派生特征與無監(jiān)督的特征聚合相結(jié)合,使得我們的方法AnyLoc能夠獲得比現(xiàn)有方法高達(dá)4倍的性能。通過表征這些特征的語義屬性,我們進一步獲得了6 %的性能提升,揭示了封裝來自相似環(huán)境的數(shù)據(jù)集的獨特領(lǐng)域。我們詳細(xì)的實驗和分析為構(gòu)建可以在任何地方、任何時間、任何視角部署的VPR解決方案奠定了基礎(chǔ)。我們鼓勵讀者瀏覽我們的項目頁面和互動演示。

4. 算法解析

本質(zhì)上來說,VPR可以被定義為一個圖像檢索問題。機器人首先穿越環(huán)境采集圖像,建立圖像數(shù)據(jù)庫,然后在后續(xù)的運行時提供查詢圖像,在參考數(shù)據(jù)庫中檢索與該圖像最接近的匹配。但是具體的實現(xiàn)方式就多種多樣了,大家可能更熟悉的是描述子方法,包括局部描述子還有全局描述子。

但想要達(dá)到最優(yōu)性能,一般還是要針對特定環(huán)境進行大規(guī)模訓(xùn)練。只是這種高性能帶來的是低泛化性,在自動駕駛場景中訓(xùn)練的模型,幾乎不可能泛化到室內(nèi)場景和非結(jié)構(gòu)化場景中。

這篇文章的亮點就在于,分析了VPR的任務(wù)無關(guān)的ViT特征提取和融合,并開發(fā)了一個通用的解決方案,不需要任何針對特定VPR任務(wù)的訓(xùn)練!作者發(fā)現(xiàn),來自現(xiàn)成基礎(chǔ)模型的逐像素特征表現(xiàn)出顯著的視覺和語義一致性,雖然用于通用VPR時,每個圖像的特性都不是最佳的,但是可以將這些逐像素不變性轉(zhuǎn)移到圖像級別以識別地點。

那么,要選擇何種基礎(chǔ)模型呢?

想要提取任務(wù)無關(guān)的視覺特征,這樣的自監(jiān)督基礎(chǔ)模型有三大類:

(1)聯(lián)合嵌入方法(DINO、DINOv2);

(2)對比學(xué)習(xí)方法(CLIP);

(3)基于掩碼的自編碼方法(MAE)。

作者經(jīng)過實驗,發(fā)現(xiàn)聯(lián)合嵌入學(xué)習(xí)模型可以更好得捕獲長范圍的全局信息,因此AnyLoc使用DINO和DIONv2 ViT模型來提取視覺特征。

另一個問題來了,要從這些預(yù)訓(xùn)練的ViT中提取什么視覺特征呢?

與提取單幅圖像特征(圖像特征向量)相比,提取逐像素特征可以實現(xiàn)更細(xì)粒度的匹配。而ViT的每一層都有多個特征(Query、Key、Value、Token)。因此,作者嘗試從中間層提取特征,而不使用CLS Token。具體來說,就是從數(shù)據(jù)庫圖像中選擇一個點,將其與來自查詢圖像的所有像素特征進行匹配,并繪制熱力圖。

5725481a-3a2e-11ee-9e74-dac502259ad0.png

有什么發(fā)現(xiàn)呢?

首先,即使存在語義文本和尺度變化(第一行)、感知混淆和視點偏移(第二行)、低光照結(jié)合相反視角(第三行),這些匹配關(guān)系也是魯棒的。

最關(guān)鍵的來了。注意如何在匹配點和背景之間表現(xiàn)出最大的對比度,這對于抵抗圖像中干擾物的魯棒性至關(guān)重要。

通過進一步的跨層分析,可以發(fā)現(xiàn)一個很有意思的現(xiàn)象。ViT的較早層(頂行),特別是Key和Query,表現(xiàn)出很高的位置編碼偏差,而第31層(更深的層)的Value在相似度圖中的反差最大。

576b0f30-3a2e-11ee-9e74-dac502259ad0.png

因此,作者選擇Layer 31和Value做為局部特征表征。

特征提取完了,下面該聊聚合了。

也就是如何將局部特征組合在一起以描述圖像的各個部分,并最終描述一個環(huán)境。作者全面探索了多種無監(jiān)督聚合技術(shù):全局平均池化(GAP)、全局最大池化(GMP)、廣義平均池化(GeM)以及VLAD的軟硬對齊變體。最終選擇了內(nèi)部歸一化、級聯(lián)、間歸一化來獲取最終的VLAD描述子。

最后,構(gòu)建詞袋模型。

這一部分的目的是在不同的環(huán)境中,表征全局聚合的局部特征的獨特語義屬性。先前基于VLAD的工作雖然在城市場景中表現(xiàn)良好,但是并不適合基礎(chǔ)模型特征編碼中的開放集語義屬性。因此,作者通過對GeM描述子進行表征來指導(dǎo)VLAD的詞袋選擇。這里也有個trick。就是使用PCA投影全局描述子可以在潛在空間發(fā)現(xiàn)不同的域,并且表征相似屬性(Urban,Indoor,Air,SubT,Degrad和Underwater)。而且可以觀察到查詢圖像的投影特征與各自數(shù)據(jù)庫圖像的投影特征接近,因此,最終VLAD的詞袋構(gòu)建是基于PCA分離進行的。

5. 實驗

AnyLoc的實驗可謂無限創(chuàng)造困難,提供了前所未有的環(huán)境多樣性(任何地方),加上一系列時間(任何時候)和相機視點(任何視圖)的變化。其中結(jié)構(gòu)化環(huán)境使用了6個基準(zhǔn)的室內(nèi)和室外數(shù)據(jù)集,包含劇烈的視點偏移、感知混疊和顯著的視覺外觀變化。非結(jié)構(gòu)化環(huán)境使用空中、水下、地下場景,包含各種視覺退化、衛(wèi)星圖像、低光照以及季節(jié)變化。

57baf838-3a2e-11ee-9e74-dac502259ad0.png

評估指標(biāo)主要使用Recall,實驗都在3090上進行。對比方案也都是SOTA方案,包含在大規(guī)模城市數(shù)據(jù)集上為VPR任務(wù)訓(xùn)練的3個特定baseline,以及使用基礎(chǔ)模型CLS Token的3個新baseline。

5801ad6e-3a2e-11ee-9e74-dac502259ad0.png

首先對比AnyLoc在結(jié)構(gòu)、非結(jié)構(gòu)環(huán)境、視點偏移、時間外觀變化上對比其他SOTA VPR方案的結(jié)果。AnyLoc-VLAD-DINOv2在所有的室內(nèi)數(shù)據(jù)集上都取得了最高的召回率,室外環(huán)境稍差,但在Oxford數(shù)據(jù)集上效果尤其的好。而且比較有意思的是,在DINOv2上簡單地使用GeM池化就可以顯著提高性能。

583b181a-3a2e-11ee-9e74-dac502259ad0.png

在非結(jié)構(gòu)化環(huán)境中,AnyLoc很大程度上優(yōu)于所有baseline,尤其是對于時間和視角變化。而聚合方法也很明顯優(yōu)于CLS方法。另一方面,NetVLAD、CosPlace和MixVPR這三個特定baseline也證實了隨著城市訓(xùn)練數(shù)據(jù)規(guī)模的增加,在特定任務(wù)上回表現(xiàn)得更好。

5872021c-3a2e-11ee-9e74-dac502259ad0.png

之后,對AnyLoc的設(shè)計進行詞袋分析,特定領(lǐng)域的詞袋可以帶來最優(yōu)性能。

58e77e98-3a2e-11ee-9e74-dac502259ad0.png

下面來展示特定領(lǐng)域詞袋的魯棒域內(nèi)一致性,具體做法是使用領(lǐng)域特定的詞匯對局部特征的聚類賦值進行可視化。在Urban域中,道路、路面、建筑物和植被在不斷變化的條件和地點被一致地分配到同一個簇中。對于室內(nèi)域,可以觀察到地板和天花板的域內(nèi)一致性,以及文字標(biāo)志和家具的域內(nèi)一致性。對于航空領(lǐng)域,可以觀察到道路、植被和建筑物在農(nóng)村和城市圖像中都被分配到獨特的簇中。

5906f6a6-3a2e-11ee-9e74-dac502259ad0.png

進一步可以證明,這種域內(nèi)的魯棒一致性能夠在缺乏信息豐富度的小型參考數(shù)據(jù)庫的目標(biāo)環(huán)境中部署AnyLoc-VLAD。對于屬于給定領(lǐng)域的數(shù)據(jù)集,選擇最大的參考數(shù)據(jù)庫來形成詞袋,并在來自該領(lǐng)域的其他數(shù)據(jù)集上進行評估。對于航拍和城市領(lǐng)域,可以觀察到,當(dāng)使用更大的詞袋來源時,與僅僅使用較小的地圖相比,可以實現(xiàn)7-18 %更高的召回率,從而證明了詞袋在同一領(lǐng)域內(nèi)的可遷移性。

59b03fb8-3a2e-11ee-9e74-dac502259ad0.png

作者還對比了不同的ViT架構(gòu)、選擇的Layer以及不同的Facet對性能的影響。

59e17786-3a2e-11ee-9e74-dac502259ad0.png

還詳細(xì)對比了各種無監(jiān)督局部特征聚合方法對性能的影響,顯示GeM聚合性能更優(yōu)。有一點需要注意,就是硬分配比軟分配要快1.4倍。

5a0e00f8-3a2e-11ee-9e74-dac502259ad0.png

最后,還將專門面向VPR(CosPlace)訓(xùn)練的ViT與基于自監(jiān)督(DINO、DINOv2)的ViT進行比較。舉個例子,對比基于ViT-B的方法,即使CosPlace系的整體性能有所改善,但AnyLoc-VLAD-DINOv2仍然比VLAD提高了8-13 %。這里也推薦「3D視覺工坊」新課程《面向自動駕駛領(lǐng)域目標(biāo)檢測中的視覺Transformer》。

5a473d14-3a2e-11ee-9e74-dac502259ad0.png

6. 總結(jié)

非常有意思的工作!

站在上帝視角來看,會覺得AnyLoc的思想很簡單,就是使用任務(wù)無關(guān)的基礎(chǔ)ViT模型來提取逐像素特征,然后進行特征聚合。但其實整個分析問題,解決問題的思路非常巧妙。尤其是AnyLoc的結(jié)果很棒,將機器人定位擴展到任何地點、任何時間、任何視角下,這對于機器人下游任務(wù)至關(guān)重要。

另一方面,模型大一統(tǒng)真的是一個大趨勢,不停的出現(xiàn)一個大模型實現(xiàn)這個領(lǐng)域內(nèi)的所有功能。那么,下一個"一切"是什么呢?讓我們拭目以待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    210

    文章

    28105

    瀏覽量

    205853
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3218

    瀏覽量

    42329
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3115

    瀏覽量

    48660

原文標(biāo)題:CMU&MIT最新開源!超強通用視覺位置識別!任何地點!任何時間!任何視角!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【KV260視覺入門套件試用體驗】六、VITis AI車牌檢測&車牌識別

    視覺技術(shù)實現(xiàn)的自動識別車輛牌照號碼的過程。該技術(shù)通過圖像采集、車牌檢測、字符分割和字符識別等步驟,實現(xiàn)對車牌號碼的自動獲取與識別。車牌識別
    發(fā)表于 09-26 16:28

    CMU200手機專用測試儀表

    CMU200通用無線通信測試儀   生產(chǎn)廠商: ROHDE&SCHWARZ 產(chǎn)品簡述: CMU200通用無線通信
    發(fā)表于 02-09 10:05 ?796次閱讀

    R&S/CMU300特價清銷CMU300基站綜測儀CMU300

    :10MHz~2.7GHz 產(chǎn)品簡介: CMU300通用無線通信測試儀是新一代針對基站RF接口測試緊湊的解決方案。符合各個標(biāo)準(zhǔn)化機構(gòu)所制定的規(guī)范。尤其適合發(fā)射機和接收機的測試。R&S
    的頭像 發(fā)表于 10-09 15:48 ?727次閱讀

    基于CNN的惡意軟件加密C&C通信流量識別方法

    為實現(xiàn)惡意軟件加密C&C通信流量的準(zhǔn)確識別,分析正常網(wǎng)頁瀏覽訪問和C&C通信的htps通信過程,發(fā)現(xiàn)惡意軟件C&C通信的服務(wù)器獨立性特征,提出htps通信序列建
    發(fā)表于 06-11 14:19 ?7次下載

    【新品發(fā)布】教育領(lǐng)域新成果,P &T AI計算機視覺開發(fā)套件

    華為開發(fā)者大會2021開發(fā)者課程與職業(yè)認(rèn)證展臺上,展出了Pegasus &Taurus AI計算機視覺開發(fā)套件,并且呈現(xiàn)了基于OpenHarmony的智能環(huán)?;厥照窘虒W(xué)套件DEMO。
    發(fā)表于 11-05 09:36 ?2796次閱讀
    【新品發(fā)布】教育領(lǐng)域新成果,P &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;T AI計算機<b class='flag-5'>視覺</b>開發(fā)套件

    HUATOOP HT9530識別&amp;修復(fù)小記

    HUATOOP HT9530識別&amp;修復(fù)小記
    發(fā)表于 12-02 20:36 ?30次下載
    HUATOOP HT9530<b class='flag-5'>識別</b>&<b class='flag-5'>amp</b>;修復(fù)小記

    存儲類&amp;作用域&amp;生命周期&amp;鏈接屬性

    目錄前言一、存儲類&amp;amp;作用域&amp;amp;生命周期&amp;amp;鏈接屬性的
    發(fā)表于 12-09 15:51 ?5次下載
    存儲類&<b class='flag-5'>amp</b>;作用域&<b class='flag-5'>amp</b>;生命周期&<b class='flag-5'>amp</b>;鏈接屬性

    2021 Kubernetes on AI &amp;amp;amp;amp; Edge Day圓滿舉行 共探邊緣云融合

    2021年12月11日-12日,由Linux基金會、LF AI &amp;DATA、LF Edge、CNCF、LFN等開源社區(qū)聯(lián)合舉辦,開源科技OSTech和西麗湖人才服務(wù)中心協(xié)辦的Kubernetes on AI &
    的頭像 發(fā)表于 12-16 09:43 ?5255次閱讀
    2021 Kubernetes on AI &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; Edge Day圓滿舉行 共探邊緣云融合

    如何區(qū)分Java中的&amp;amp;和&amp;amp;&amp;amp;

    首先給i賦值為0,如果i大于10,并且i++等于1,則輸出“錯誤”和i的值。否則輸出“正確”和i的值。分別用&amp;和&amp;&amp;運行,觀察運行結(jié)果的不同。
    的頭像 發(fā)表于 02-24 10:46 ?1480次閱讀
    如何區(qū)分Java中的&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;和&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;

    if(a==1 &amp;amp;&amp;amp; a==2 &amp;amp;&amp;amp; a==3),為true,你敢信?

    接下來咱們來嘗試解決這個問題。假設(shè) if(a==1&amp;&amp;a==12)是等于 true的,那么a肯定不可能是一個“普通的變量”。它勢必要有能力在執(zhí)行的時候能夠動態(tài)改動值。
    的頭像 發(fā)表于 05-08 11:01 ?1068次閱讀
    if(a==1 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; a==2 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; a==3),為true,你敢信?

    HarmonyOS &amp;amp;amp;amp;潤和HiSpark 實戰(zhàn)開發(fā),“碼”上評選活動,邀您來賽!??!

    出色的系統(tǒng) 助力優(yōu)秀的設(shè)備 為應(yīng)用開發(fā)者帶來豐富的體驗與想象空間 正如當(dāng)HarmonyOS遇見潤和HiSpark 這萬物互聯(lián)的時代 將由你的&amp;lt; 代碼 &amp;gt;來定義 潤
    的頭像 發(fā)表于 04-11 15:33 ?1119次閱讀
    HarmonyOS &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;潤和HiSpark 實戰(zhàn)開發(fā),“碼”上評選活動,邀您來賽?。。? />    </a>
</div>                            <div   id=

    攝像機&amp;amp;amp;雷達(dá)對車輛駕駛的輔助

    攝像機&amp;amp;雷達(dá)擔(dān)負(fù)著可輔助駕駛員安全駕駛的、高級駕駛輔助系統(tǒng)的傳感功能。尼得科正在進一步推進攝像機&amp;amp;雷達(dá)的高性能化進程。
    的頭像 發(fā)表于 11-26 10:02 ?844次閱讀
    攝像機&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;雷達(dá)對車輛駕駛的輔助

    FS201資料(pcb &amp;amp; DEMO &amp;amp; 原理圖)

    電子發(fā)燒友網(wǎng)站提供《FS201資料(pcb &amp; DEMO &amp; 原理圖).zip》資料免費下載
    發(fā)表于 07-16 11:24 ?0次下載

    onsemi LV/MV MOSFET 產(chǎn)品介紹 &amp;amp;amp; 行業(yè)應(yīng)用

    01直播介紹直播時間2024/10/281430直播內(nèi)容1.onsemiLV/MVMOSFET產(chǎn)品優(yōu)勢&amp;市場地位。2.onsemiLV/MVMOSFETRoadmap。3.onsemiT10
    的頭像 發(fā)表于 10-13 08:06 ?235次閱讀
    onsemi LV/MV MOSFET 產(chǎn)品介紹 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; 行業(yè)應(yīng)用

    視覺傳感器 | 這些常見的Q&amp;amp;amp;A!今天統(tǒng)一回答!

    、二分類、OCR識別等功能。提問Qustions&amp;解答AnswersQ上位機軟件無法檢測到設(shè)備或者設(shè)備連接不穩(wěn)定?可能原因:1.上位機軟件,受PC防火墻隔離。2.殺
    的頭像 發(fā)表于 11-05 08:03 ?192次閱讀
    <b class='flag-5'>視覺</b>傳感器 |  這些常見的Q&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;A!今天統(tǒng)一回答!