0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

無需實(shí)例或類級別3D模型的對新穎物體的6D姿態(tài)追蹤

3D視覺工坊 ? 來源:泡泡機(jī)器人SLAM ? 2023-01-12 17:23 ? 次閱讀

摘要

大家好,今天為大家?guī)淼奈恼率荁undleTrack: 6D Pose Tracking for Novel Objectswithout Instance or Category-Level 3D Models 跟蹤RGBD視頻中物體的6D姿態(tài)對機(jī)器人操作很重要。然而,大多數(shù)先前的工作通常假設(shè)目標(biāo)對象的CAD 模型,至少類別級別,可用于離線訓(xùn)練或在線測試階段模板匹配。

這項(xiàng)工作提出BundleTrack,一個通用的新對象的 6D 姿態(tài)跟蹤框架,它不依賴于實(shí)例或類別級別的 3D 模型。

它結(jié)合了最新視頻分割和魯棒特征提取的深度學(xué)習(xí),以及具有記憶功能的姿勢圖優(yōu)化實(shí)現(xiàn)時空一致性。

這使得它能進(jìn)行長期、低漂移在各種具有挑戰(zhàn)性的場景下的6D姿態(tài)跟蹤,測試了包括重大遮擋和物體運(yùn)動的場景。

在2個公開數(shù)據(jù)集上的大量實(shí)驗(yàn)表明,BundleTrack顯著優(yōu)于最先進(jìn)的類別級別6D 跟蹤或動態(tài)SLAM 方法。

比較時反對依賴于對象實(shí)例 CAD 的最新方法模型,盡管提出了可比的性能方法的信息需求減少。

一個高效的在 CUDA 中的實(shí)現(xiàn)提供了實(shí)時性能。整個框架運(yùn)行速度達(dá)10Hz。

69b0018a-8572-11ed-bfe3-dac502259ad0.gif6a546090-8572-11ed-bfe3-dac502259ad0.gif

背景與貢獻(xiàn)

本文有以下貢獻(xiàn):

1.一個全新的6D物體姿態(tài)算法,不需要實(shí)例或類級別的CAD模型用于訓(xùn)練或測試階段。該算法可立即用于新穎物體的6D姿態(tài)跟蹤

2.在NOCS數(shù)據(jù)集上的創(chuàng)下全新記錄,將以往的表現(xiàn)從33.3%大幅度提升到87.4%。在YCBInEOAT數(shù)據(jù)集上也達(dá)到了跟目前基于CAD模型的領(lǐng)先方法se(3)-TrackNet相近的表現(xiàn)。特別值得注意的是,與以往state of art的6D物體姿態(tài)跟蹤方法相比,BundleTrack并不需要類級別的物體進(jìn)行訓(xùn)練,也不需要測試階段物體的CAD模型作模板匹配,減少了很多假設(shè)。

3.首次將具有記憶功能的位姿圖優(yōu)化引入6D物體姿態(tài)跟蹤。除了相鄰幀的匹配還能夠借助帶記憶功能的歷史幀解決特征匹配不足和跟蹤漂移問題。以MaskFusion為例的tracking-via-reconstruction方法經(jīng)常因?yàn)槿魏我粠⑿″e誤的姿態(tài)估計進(jìn)行錯誤的全局模型構(gòu)建融合,進(jìn)而繼續(xù)影響接下來的全局模型到觀測點(diǎn)云的匹配,造成不可逆轉(zhuǎn)的跟蹤漂移。而BundleTrack則不存在此類問題。

4.高效的CUDA編碼,使得本來計算量龐大的位姿優(yōu)化圖能在線實(shí)時運(yùn)行,達(dá)到10Hz。足夠用于AR/VR,視覺反饋控制操縱,物體級SLAM或動態(tài)場景下的 SLAM等

問題設(shè)置

對于需要6D跟蹤的物體,該方法不需要任何類級別的CAD模型或者當(dāng)前物體的CAD模型。所需要的輸入只有(1)RGBD視頻;(2)初始掩碼,用于指定需要跟蹤的物體。該掩碼可以通過多種途徑獲得,例如語義分割,3D點(diǎn)云分割聚類,平面移除等等。該方法就能輸出跟蹤物體在相機(jī)前相對初始的 6D姿態(tài)變換

72f8dcf8-8572-11ed-bfe3-dac502259ad0.png

算法流程

A. 方法總覽

當(dāng)前觀察到的 RGB-D視頻流首先送到視頻分割模塊對目標(biāo)物體提取ROI。分割后的圖片被裁剪、調(diào)整大小并發(fā)送到關(guān)鍵點(diǎn)檢測網(wǎng)絡(luò)來計算關(guān)鍵點(diǎn)和特征描述符。

一種數(shù)據(jù)關(guān)聯(lián)過程包括特征匹配和以 RANSAC 的方式進(jìn)行修剪識別特征對應(yīng)。基于這些特征匹配,當(dāng)前幀與前一相鄰幀之間進(jìn)行初步粗略匹配。

該比配可以用閉式求解,然后用于提供粗略兩個幀之間的轉(zhuǎn)換估計Tt~。在接下來的位姿圖優(yōu)化中,Tt~講用于初始化當(dāng)前節(jié)點(diǎn)。為了確定位姿圖中的其余節(jié)點(diǎn),我們從歷史保留的關(guān)鍵幀內(nèi)存池中選擇不超過K個關(guān)鍵幀參與位姿圖優(yōu)化。選擇 K 而不用所有歷史幀是為了平衡效率與準(zhǔn)確性權(quán)衡。

姿態(tài)圖邊包括稀疏特征和稠密點(diǎn)到平面的投影殘差,所有這些在 GPU 上并行計算。姿勢圖優(yōu)化步驟在線輸出當(dāng)前時間戳優(yōu)化后姿態(tài)。通過檢查當(dāng)前幀優(yōu)化后的姿態(tài)的視角,如果它來自新的視角,那么它將會存儲在內(nèi)存池中,以備將來用作關(guān)鍵幀參與位姿圖優(yōu)化。

73327404-8572-11ed-bfe3-dac502259ad0.jpg

B.視頻分割

第一步是將對象的圖像區(qū)域從背景分割。先前的工作 MaskFusion 使用 Mask-RCNN 計算視頻每一幀中的對象掩碼。它對每個新幀獨(dú)立處理,效率較低并導(dǎo)致不連貫性。

為了避免這些限制,這項(xiàng)工作采用了現(xiàn)成的用于視頻對象分割的 transductive-VOS 網(wǎng)絡(luò),只需要在Davis 2017和Youtube-VOS 數(shù)據(jù)集上預(yù)訓(xùn)練,泛化到我們的測試場景,而不需要任何物體的CAD模型進(jìn)行訓(xùn)練。雖然當(dāng)前的實(shí)現(xiàn)使用 transductive-VOS,本文所提出的整個框架不依賴于這個特定的網(wǎng)絡(luò)。

如果可以通過更簡單的方法計算對象掩碼意味著,例如在機(jī)械臂操縱場景下,利用前向運(yùn)動學(xué),計算機(jī)械臂的位置進(jìn)行點(diǎn)云過濾操作場景,便可以替代視頻分割網(wǎng)絡(luò)模塊,更為簡單。

C. 特征點(diǎn)檢測,匹配和局部配準(zhǔn) 局部匹配是在連續(xù)的當(dāng)前幀和前一幀之間來計算初始粗略姿態(tài)估計 。

為此,在每個圖像上檢測到的關(guān)鍵點(diǎn)之間進(jìn)行匹配用于6D姿態(tài)配準(zhǔn)。不同于先前的工作 6PACK,6PACK依賴于在類別級別的 3D 模型上離線續(xù)聯(lián),學(xué)習(xí)固定數(shù)量的類別級語義關(guān)鍵點(diǎn)。

相反,本文中BundleTrack旨在提高泛化能力,而不是局限于某些實(shí)例或者類別。選擇 LF-Net進(jìn)行特征點(diǎn)檢測是因?yàn)樗钊藵M意性能和推理速度之間的平衡。

它只需要對一般 2D 圖像進(jìn)行訓(xùn)練,例如此處使用的 ScanNet 數(shù)據(jù)集 ,并推廣到新的場景。該訓(xùn)練過程不需要收集任何CAD模型,并且一旦訓(xùn)練完成,在所有實(shí)驗(yàn)中都不需要finetune。

poYBAGO_0k6AdHWTAAE3NlxyP_Q709.jpg
pYYBAGO_0liAbq1pAAI6Srxbrts527.jpg
pYYBAGO_0meAcIPyAAFtwvIyX3U630.jpg

主要結(jié)果

實(shí)驗(yàn)在2個公開數(shù)據(jù)集上展現(xiàn)了優(yōu)越表現(xiàn)。NOCS是類級別的靜態(tài)桌面物體場景。YCBInEOAT是機(jī)器人操縱場景下的動態(tài)場景。值得注意的是,即使BundleTrack不需要任何CAD模型,反而遠(yuǎn)超此前的state of art方法6PACK:從33.3%提升到87.4%。與實(shí)例級別的state of art方法se(3)-TrackNet相比,僅有微小的差距。

以下曲線圖反映了跟蹤漂移。BundleTrack的6D姿態(tài)跟蹤錯誤從視頻開始到結(jié)束幾乎不變。(左)旋轉(zhuǎn)錯誤隨時間變化。(右)平移錯誤隨時間變化。
pYYBAGO_0p6AW34CAADae5pz5K4432.jpg




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • CAD
    CAD
    +關(guān)注

    關(guān)注

    17

    文章

    1070

    瀏覽量

    72291
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    415

    瀏覽量

    31758
  • CUDA
    +關(guān)注

    關(guān)注

    0

    文章

    121

    瀏覽量

    13585

原文標(biāo)題:論文精讀|BundleTrack:無需實(shí)例或類級別3D模型的對新穎物體的6D姿態(tài)追蹤

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Altium designer 6(AD6)建立器件簡易 3D 模型的方法

    、 電路部門繪制好原理圖,并在原理圖庫原理圖中,正確添加器件屬性里的 PCB 模型名稱和 3D 模型名稱 4、 繪制好最終的PCB 圖后,查看PCB 的
    發(fā)表于 09-25 08:49

    3D模擬飛機(jī)飛行串口

    Labview-3D模擬飛機(jī)飛行-串口通訊通過Labview導(dǎo)入飛機(jī)3模型(.wrl),支持手動調(diào)整姿態(tài),另外支持串口通訊,自動調(diào)整姿態(tài)
    發(fā)表于 04-02 09:40

    分享插件3D模型

    分享插件3D模型
    發(fā)表于 12-18 21:10

    浩辰3D軟件入門教程:如何比較3D模型

    在初始設(shè)計、驗(yàn)證、變更、發(fā)布、優(yōu)化等整個產(chǎn)品生命周期內(nèi),設(shè)計方案會經(jīng)歷無數(shù)次的調(diào)整。而由此產(chǎn)生的多版本3D模型數(shù)據(jù)二維CAD圖紙,已經(jīng)很難憑借肉眼、記憶、經(jīng)驗(yàn)等人工辨別方式進(jìn)行精確區(qū)分和全面分析
    發(fā)表于 12-15 13:45

    AD的3D模型繪制功能介紹

    ,我們可以使用AD自己來構(gòu)建3D模型。這篇文章作者就講到這里了,下一篇文章作者將為你講解如何里用AD畫圓環(huán)3D模型,如下圖(6),如喜歡作者
    發(fā)表于 01-14 16:48

    浩辰3D的「3D打印」你會用嗎?3D打印教程

    設(shè)計。由浩辰CAD公司研發(fā)的浩辰3D作為從產(chǎn)品設(shè)計到制造全流程的高端3D設(shè)計軟件,不僅能夠提供完備的2D+3D一體化解決方案,還能一站式集成3D打印的多元化數(shù)據(jù)處理,
    發(fā)表于 05-27 19:05

    細(xì)數(shù)世界最新穎的幾大3D打印技術(shù)

    本站為您整理世界上最新穎的幾大3D打印技術(shù)。2012年,3D打印技術(shù)取得了突飛猛進(jìn)的發(fā)展。3D打印設(shè)備廠商都拿出各自最新穎最頂尖的產(chǎn)品。
    的頭像 發(fā)表于 12-09 11:47 ?2.5w次閱讀

    3D模型

    3D模型, 淘寶網(wǎng)上買的3D元器件庫需要的自行下載
    發(fā)表于 11-04 15:36 ?0次下載

    基于3D打印的原理及應(yīng)用

    3D打印原理:分層打?。?D)與層疊堆砌(3D), 3D打印(3DP)即快速成型技術(shù)的一種,它是一種以數(shù)字
    發(fā)表于 09-23 10:19 ?20次下載

    一種基于深度神經(jīng)網(wǎng)絡(luò)的迭代6D姿態(tài)匹配的新方法

    在本文工作中,作者提出了DeepIM——一種基于深度神經(jīng)網(wǎng)絡(luò)的迭代6D姿態(tài)匹配的新方法。給定測試圖像中目標(biāo)的初始6D姿態(tài)估計,DeepIM能夠給出相對SE(
    的頭像 發(fā)表于 09-28 10:23 ?3768次閱讀

    3D姿態(tài)估計 時序卷積+半監(jiān)督訓(xùn)練

    在這項(xiàng)工作中,視頻中的3D姿態(tài)可以通過全卷積模型來估計,具體是在二維關(guān)鍵點(diǎn)上通過空洞時間卷積的模型得到3D
    的頭像 發(fā)表于 12-08 22:54 ?918次閱讀

    英偉達(dá)提出了同時對未知物體進(jìn)行6D追蹤3D重建的方法

    一種用于新穎未知動態(tài)物體的因果 6 自由度姿態(tài)跟蹤和 3D 重建的新方法。該方法利用了并發(fā)跟蹤和神經(jīng)重建過程的
    的頭像 發(fā)表于 07-03 10:49 ?456次閱讀
    英偉達(dá)提出了同時對未知<b class='flag-5'>物體</b>進(jìn)行<b class='flag-5'>6D</b><b class='flag-5'>追蹤</b>和<b class='flag-5'>3D</b>重建的方法

    基于未知物體進(jìn)行6D追蹤3D重建的方法

    如今,計算機(jī)視覺社區(qū)已經(jīng)廣泛展開了對物體姿態(tài)6D 追蹤3D 重建。本文中英偉達(dá)提出了同時對未知
    的頭像 發(fā)表于 07-03 11:24 ?543次閱讀
    基于未知<b class='flag-5'>物體</b>進(jìn)行<b class='flag-5'>6D</b><b class='flag-5'>追蹤</b>和<b class='flag-5'>3D</b>重建的方法

    基于深度學(xué)習(xí)的3D點(diǎn)云實(shí)例分割方法

    3D實(shí)例分割(3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由點(diǎn)云表示的 3D 場景,我們尋求為每個點(diǎn)分配語義
    發(fā)表于 11-13 10:34 ?2106次閱讀
    基于深度學(xué)習(xí)的<b class='flag-5'>3D</b>點(diǎn)云<b class='flag-5'>實(shí)例</b>分割方法

    一個用于6D姿態(tài)估計和跟蹤的統(tǒng)一基礎(chǔ)模型

    今天筆者將為大家分享NVIDIA的最新開源方案FoundationPose,是一個用于 6D 姿態(tài)估計和跟蹤的統(tǒng)一基礎(chǔ)模型。只要給出CAD模型
    的頭像 發(fā)表于 12-19 09:58 ?779次閱讀
    一個用于<b class='flag-5'>6D</b><b class='flag-5'>姿態(tài)</b>估計和跟蹤的統(tǒng)一基礎(chǔ)<b class='flag-5'>模型</b>