0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于RGM的魯棒且通用的特征匹配

3D視覺工坊 ? 來源:計算機視覺工坊 ? 2023-11-27 11:32 ? 次閱讀

作者:泡椒味的口香糖

0. 筆者個人體會

特征匹配包括稀疏匹配和稠密匹配,這方面的深度模型這兩年很多了,效果也都很好。但是同時實現(xiàn)稀疏匹配和稠密匹配的通用模型還比較少,主要是因為聯(lián)合訓(xùn)練會引入大量噪聲,模型架構(gòu)不好設(shè)計。而且相關(guān)的訓(xùn)練數(shù)據(jù)不好找,直接把幾個數(shù)據(jù)集堆一起訓(xùn)練又會出現(xiàn)各種各樣的域問題。

最近,浙大就開源了一項工作,以一個通用模型同時實現(xiàn)稀疏匹配和稠密匹配。筆者認(rèn)為,這篇文章的意義不是提出了一個最新的匹配模型,而在于通用模型的設(shè)計+訓(xùn)練思路。學(xué)習(xí)了這種思路,就可以將這種框架泛化到其他任務(wù)上。

1. 效果展示

浙大最新發(fā)布的RGM實現(xiàn)了一個通用模型,具體效果是同時實現(xiàn)稠密匹配和稀疏匹配。這里面的稠密匹配也就是光流匹配,還可以根據(jù)匹配關(guān)系投影RGB圖像做兩視角重建。

與其他SOTA方法相比,RGM估計的光流更細(xì)膩,邊緣更完整。

目前這篇文章已經(jīng)開放了github,但是暫時代碼還沒有開源,感興趣的小伙伴可以跟蹤一下。下面來看一下具體的論文信息

2. 摘要

在一對圖像中尋找匹配的像素是具有各種應(yīng)用的基本計算機視覺任務(wù)。由于光流估計和局部特征匹配等不同任務(wù)的特定要求,以前的工作主要分為稠密匹配和稀疏特征匹配,側(cè)重于特定的體系結(jié)構(gòu)和特定任務(wù)的數(shù)據(jù)集,這可能在一定程度上阻礙了特定模型的泛化性能。在本文中,我們提出了一個稀疏和稠密匹配的深度模型,稱為RGM (魯棒通用匹配)。特別地,我們精心設(shè)計了一個級聯(lián)的GRU模塊,通過在多個尺度上迭代地探索幾何相似性來進(jìn)行細(xì)化,然后使用一個附加的不確定性估計模塊來進(jìn)行稀疏化。為了縮小合成訓(xùn)練樣本和真實世界場景之間的差距,我們通過以更大的間隔生成光流監(jiān)督,來構(gòu)建具有稀疏匹配真值的新的大規(guī)模數(shù)據(jù)集。因此,我們能夠混合各種稠密和稀疏匹配數(shù)據(jù)集,顯著提高訓(xùn)練多樣性。通過在大規(guī)模混合數(shù)據(jù)上以兩階段的方式學(xué)習(xí)匹配和不確定性估計,我們提出的RGM的泛化能力得到了極大的提高??缍鄠€數(shù)據(jù)集的zero-shot匹配和下游幾何估計實現(xiàn)了卓越的性能,大大超過了以前的方法。

3. 算法解析

RGM這篇文章的目的是要設(shè)計一個統(tǒng)一的框架來同時實現(xiàn)稠密匹配和稀疏匹配,但本身兩個任務(wù)的特性不同,直接設(shè)計多任務(wù)網(wǎng)絡(luò)效果不好。所以作者的思想就很巧妙,先設(shè)計一個光流稠密匹配網(wǎng)絡(luò),再緊跟一個稀疏化網(wǎng)絡(luò)。

整個Pipeline很直觀,可以分成特征提取、稠密匹配、稀疏化三個部分。首先將輸入圖像利用CNN和Transformer提取特征金字塔,然后使用級聯(lián)GRU的網(wǎng)絡(luò)進(jìn)行稠密匹配,之后通過不確定性估計來過濾得到稀疏匹配,匹配結(jié)果就可以直接用于位姿估計、兩視角重建等下游任務(wù)。

c24f1346-7566-11ee-939d-92fbcf53809c.png

這里面還有幾個細(xì)節(jié)需要注意:

1、為什么要提取特征金字塔,而不是使用某個特征層?

雖然感受野更大,但在1/8分辨率下會損失很多細(xì)節(jié)。作者這里使用的是{1/8,1/4,1/2}分辨率的三層金字塔,其中前兩層使用Swin-Transformer的自我注意和交叉注意進(jìn)行特征增強。

2、這個GRU模塊是啥?

這里也是一個trick,就是不在每個尺度上都建立圖像對的關(guān)聯(lián),而在金字塔的兩個底層建立局部關(guān)聯(lián)。對于1/8的低分辨率層執(zhí)行點積運算:

c25acefc-7566-11ee-939d-92fbcf53809c.png

其中Fr和Ft是特征金字塔,D是維度。然后再用平均池化作為RAFT來構(gòu)建相關(guān)金字塔,給定當(dāng)前的光流估計f和半徑r,就可以構(gòu)建兩個高分辨率的特征融合計算:

c25f0fa8-7566-11ee-939d-92fbcf53809c.png

給定相關(guān)性和上下文信息,就可以估計運動信息并將其饋送給GRU優(yōu)化光流殘差,然后迭代得優(yōu)化光流:

c26702f8-7566-11ee-939d-92fbcf53809c.png

3、稀疏化如何實現(xiàn)?

在獲得稠密匹配之后,可以直接凍結(jié)匹配網(wǎng)絡(luò)并開始稀疏化。根據(jù)估計出的光流可以warp特征圖和RGB圖計算差異。然后將差值送給CNN計算損失,具體是根據(jù)mask真值計算的二進(jìn)制交叉熵:

c26b4a7a-7566-11ee-939d-92fbcf53809c.png

4、為什么要解耦訓(xùn)練?

具體訓(xùn)練過程是先訓(xùn)練匹配網(wǎng)絡(luò),然后凍結(jié)這部分,再單獨訓(xùn)練稀疏化網(wǎng)絡(luò)。作者認(rèn)為直接聯(lián)合訓(xùn)練的話,會引入大量噪聲,導(dǎo)致光流預(yù)測不準(zhǔn)確。

4. 實驗

RGM的訓(xùn)練分匹配學(xué)習(xí)+不確定學(xué)習(xí)兩階段進(jìn)行,也就是所謂的解耦訓(xùn)練。

在匹配學(xué)習(xí)階段,首先使用帶稀疏匹配真值的MegaDepth(1.4 M對圖像)來訓(xùn)練(200k次迭代),然后使用ScanNet+FlyingThings3D+TartanAir+MegaDepth的混合數(shù)據(jù)集(4 M對圖像)進(jìn)行增強學(xué)習(xí)(240k次迭代)。Batch size為16,學(xué)習(xí)率從2e-4余弦退火至1e-5。在不確定學(xué)習(xí)階段,直接凍結(jié)稠密匹配網(wǎng)絡(luò)的參數(shù)。在MegaDepth和ScanNet上訓(xùn)練了2個epoch,batch size為4,學(xué)習(xí)率固定1e-4。注意,為了平衡不同數(shù)據(jù)集之間的差異,還對TartanAir進(jìn)行了大間距采樣。

評估也是一個零樣本泛化實驗。匹配估計使用ETH3D+HPatches+KITTI+TUM數(shù)據(jù)集,位姿估計(下游任務(wù))使用TUM+YFCC數(shù)據(jù)集,光流估計使用Sintel數(shù)據(jù)集。

首先是解耦訓(xùn)練和聯(lián)合訓(xùn)練的對比,證明他們做提出的解耦訓(xùn)練是有效的??吹竭@里筆者也有個疑問,有的模型是聯(lián)合訓(xùn)練效果更好,有的模型卻是解耦訓(xùn)練更好,希望有小伙伴能傳授一下經(jīng)驗。

c276b266-7566-11ee-939d-92fbcf53809c.png

訓(xùn)練使用數(shù)據(jù)集的對比,顯然使用的數(shù)據(jù)集越多效果越好。

c27a937c-7566-11ee-939d-92fbcf53809c.png

特征匹配最直觀的定性對比,相同顏色代表預(yù)測的匹配關(guān)系。相較于之前的SOTA方法可以取得更多的匹配關(guān)系,而且語義預(yù)測也更好(大部分匹配關(guān)系都集中在摩托車和人上)。

光流估計的對比,也是一個zero-shot實驗。對比方案包括光流專用模型、稠密幾何估計方法,還有通用匹配模型,RDM效果最優(yōu)。這里也推薦「3D視覺工坊」新課程如何學(xué)習(xí)相機模型與標(biāo)定?(代碼+實戰(zhàn))》。

c28ecbee-7566-11ee-939d-92fbcf53809c.png

最后是一個在TUM和YFCC上進(jìn)行位姿估計的zero-shot評估,也是匹配性能的進(jìn)一步驗證。

c29d6780-7566-11ee-939d-92fbcf53809c.png

5. 總結(jié)

一句話總結(jié):RGM以一個通用模型同時實現(xiàn)了稀疏和稠密匹配。具體創(chuàng)新點是級聯(lián)GRU細(xì)化模塊+用于稀疏化的不確定性估計模塊+解耦訓(xùn)練機制。除了評估特征匹配的精度,作者還做了很多下游任務(wù)的評估,比如位姿估計、兩視角重建。感覺這篇文章還在審稿中,后續(xù)應(yīng)該會上傳新版本的文章和代碼。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Gru
    Gru
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    7471
  • 特征提取
    +關(guān)注

    關(guān)注

    1

    文章

    29

    瀏覽量

    9803
  • 匹配網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    9603

原文標(biāo)題:浙大最新開源RGM | 魯棒且通用的特征匹配!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    數(shù)據(jù)傳輸方案

    MS-2511:集成信號和電源隔離提供緊湊的測量與控制
    發(fā)表于 09-04 11:12

    自適應(yīng)控制綜述A survey of robust ad

    討論了自適應(yīng)控制的產(chǎn)生,現(xiàn)有的自適應(yīng)控制方案及發(fā)展方向。關(guān)鍵詞:性; 自適應(yīng)控制;
    發(fā)表于 05-25 10:27 ?40次下載

    性是什么意思_Robust為什么翻譯成

    性的定義 性是什么意思?頭一次看到這個詞的你可能會想歪(邪惡的笑臉)。但其實性是一個
    發(fā)表于 11-29 09:08 ?12.6w次閱讀
    <b class='flag-5'>魯</b><b class='flag-5'>棒</b>性是什么意思_Robust為什么翻譯成<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性

    性和穩(wěn)定性的區(qū)別

    性和穩(wěn)定性都是反應(yīng)控制系統(tǒng)抗干擾能力的參數(shù)。那么關(guān)于性和穩(wěn)定性的區(qū)別有哪些,我們先來看看兩者的定義。 定義上 所謂
    發(fā)表于 11-29 09:39 ?24.6w次閱讀

    Linux的性度量詳解及性關(guān)聯(lián)測試分析

    軟件(或軟件構(gòu)件)性是衡量軟件在異常輸入和應(yīng)力環(huán)境條件下保持正常工作能力的一種度量。性測試主要用于測試操作系統(tǒng)、應(yīng)用程序、COTS軟件、構(gòu)件及服務(wù)協(xié)議等軟件和協(xié)議的可靠性及健壯
    發(fā)表于 12-02 09:29 ?4642次閱讀
     Linux的<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性度量詳解及<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性關(guān)聯(lián)測試分析

    基于偏最小二乘回歸的特征選擇與分類算法

    提出一種基于偏最小二乘回歸的特征選擇與分類算法( RFSC-PLSR)用于解決特征選擇中特征之間的冗余和多重共線性問題。首先,定義一個
    發(fā)表于 12-05 18:44 ?1次下載
    基于偏最小二乘回歸的<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性<b class='flag-5'>特征</b>選擇與分類算法

    基于導(dǎo)彈視頻特征匹配

    ,依據(jù)準(zhǔn)確性和實時性兩個原則,對快速特征算法做了兩方面的改進(jìn):一是限制特征點提取區(qū)域,定義了圖像區(qū)域限制算子;二是限制特征點數(shù)量,利用
    發(fā)表于 12-06 13:58 ?1次下載
    基于導(dǎo)彈視頻<b class='flag-5'>特征</b><b class='flag-5'>匹配</b>

    改進(jìn)FAST特征點支持下的實時影像地標(biāo)匹配算法

    ;采用FAST特征點表示影像地標(biāo),利用高斯金字塔結(jié)構(gòu)以及仿射增強策略改進(jìn)FAST特征點的尺度和仿射不變性,提升影像地標(biāo)匹配率。將實驗結(jié)果與尺度不變特征變換( SIFT)算法和加速
    發(fā)表于 12-19 14:50 ?0次下載

    如何吧具有光照進(jìn)行圖像匹配詳細(xì)方法說明

    針對現(xiàn)有的基于局部特征的圖像匹配算法對光照變化敏感、匹配正確率低等問題,提出一種具有光照性的圖像匹配
    發(fā)表于 05-06 15:42 ?14次下載
    如何吧具有光照<b class='flag-5'>魯</b><b class='flag-5'>棒</b>進(jìn)行圖像<b class='flag-5'>匹配</b>詳細(xì)方法說明

    如何才能解決圖像匹配算法的光照變化敏感和匹配正確率低的問題

    針對現(xiàn)有的基于局部特征的圖像匹配算法對光照變化敏感、匹配正確率低等問題,提出一種具有光照性的圖像匹配
    發(fā)表于 11-14 15:16 ?12次下載
    如何才能解決圖像<b class='flag-5'>匹配</b>算法的光照變化敏感和<b class='flag-5'>匹配</b>正確率低的問題

    使用光照實現(xiàn)圖像匹配的方法詳細(xì)概述

    針對現(xiàn)有的基于局部特征的圖像匹配算法對光照變化敏感、匹配正確率低等問題,提出一種具有光照性的圖像匹配
    發(fā)表于 11-23 17:46 ?7次下載

    一種長時自適應(yīng)目標(biāo)跟蹤算法

    傳統(tǒng)相關(guān)濾波方法在目標(biāo)運動模糊和光照變化上取得了一定的效果,但當(dāng)目標(biāo)存在形變、顏色變化、重度遮擋等干擾因素時難以實現(xiàn)跟蹤,性差,當(dāng)
    發(fā)表于 04-23 14:31 ?7次下載
    一種<b class='flag-5'>魯</b><b class='flag-5'>棒</b>長時自適應(yīng)目標(biāo)跟蹤算法

    面向SLAM應(yīng)用提出了基于RGB特征點提取算法

    視覺SLAM(Simultaneous Localization And Mapping)的關(guān)鍵是建立圖像間特征匹配關(guān)系,其決定著攝像機運動參數(shù)的求解精度和目標(biāo)點三維世界坐標(biāo)重
    的頭像 發(fā)表于 09-23 10:31 ?1109次閱讀

    一文淺談性(Robustness)

    性(Robustness)
    的頭像 發(fā)表于 10-16 09:50 ?1589次閱讀

    性的含義以及如何提高模型的性?

    性的含義以及如何提高模型的性? 什么是性?
    的頭像 發(fā)表于 10-29 11:21 ?3284次閱讀