0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

WACV 2023 I從ScanNeRF到元宇宙:神經(jīng)輻射場(chǎng)的未來

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-09-01 16:14 ? 次閱讀

本文提出了一個(gè)用于評(píng)估神經(jīng)輻射場(chǎng)和神經(jīng)渲染框架的真實(shí)基準(zhǔn)思想,并設(shè)計(jì)了一個(gè)有效的流程用于快速掃描真實(shí)物體。通過不到500美元的硬件預(yù)算,在5分鐘內(nèi)能夠收集到大約4000張被掃描物體的圖像。構(gòu)建了ScanNeRF數(shù)據(jù)集,其中包含多個(gè)訓(xùn)練、驗(yàn)證和測(cè)試集,用于評(píng)估不同條件下現(xiàn)代NeRF方法的性能。通過評(píng)估三個(gè)先進(jìn)的NeRF變種,突出了它們的優(yōu)點(diǎn)和缺點(diǎn)。該數(shù)據(jù)集可以在項(xiàng)目頁(yè)面上獲取,并提供在線基準(zhǔn)測(cè)試,以促進(jìn)更好的NeRF的發(fā)展。

1 前言

本文提出了元宇宙的概念以及使用神經(jīng)渲染技術(shù)將真實(shí)物體轉(zhuǎn)移到虛擬世界中的方法。為了實(shí)現(xiàn)這一目標(biāo),作者構(gòu)建了一個(gè)簡(jiǎn)單而有效的物體掃描站-ScanNeRF,并生成了一種高質(zhì)量的真實(shí)數(shù)據(jù)集,其中包含適用于訓(xùn)練和評(píng)估最先進(jìn)的神經(jīng)輻射場(chǎng)方法的圖像。這個(gè)數(shù)據(jù)集為神經(jīng)渲染領(lǐng)域的研究提供了一個(gè)基準(zhǔn),并探討了如何在從單個(gè)側(cè)面采集的圖像中完全渲染一個(gè)物體的挑戰(zhàn)。此外,作者的工作展示了使用僅500美元的簡(jiǎn)單硬件就可以構(gòu)建來自真實(shí)物體的數(shù)字孿生。

作者的貢獻(xiàn)有三個(gè)方面:

提出了一個(gè)用于收集圖像的簡(jiǎn)單而有效的平臺(tái),用于訓(xùn)練神經(jīng)渲染方法。

發(fā)布了一個(gè)包含真實(shí)物體圖像的新型基準(zhǔn)測(cè)試數(shù)據(jù)集。

評(píng)估了現(xiàn)代神經(jīng)輻射場(chǎng)的性能,并突出了它們?cè)诓煌闆r下的優(yōu)缺點(diǎn)。

66148874-47bf-11ee-97a6-92fbcf53809c.png

2 相關(guān)工作

本文回顧了神經(jīng)輻射場(chǎng)(NeRF)的文獻(xiàn),并介紹了NeRF在新視點(diǎn)合成領(lǐng)域的最新進(jìn)展。NeRF使用多層感知器(MLP)對(duì)隱式連續(xù)的體素表示進(jìn)行編碼,與離散表示相比具有較好的性能。然而,傳統(tǒng)的NeRF存在訓(xùn)練時(shí)間長(zhǎng)、需要為每個(gè)新場(chǎng)景進(jìn)行獨(dú)立訓(xùn)練以及渲染速度慢等限制。為了解決這些問題,文獻(xiàn)中提出了一些加速NeRF訓(xùn)練和渲染的方法,包括預(yù)訓(xùn)練階段、使用額外的深度信息、利用顯式表示以及結(jié)合隱式表示等。最近的研究工作已經(jīng)實(shí)現(xiàn)了更快速訓(xùn)練和渲染的NeRF變體,使得實(shí)時(shí)渲染成為可能。在此基礎(chǔ)上,本文選擇了DirectVoxGo、Plenoxels和Instant-NGP作為基準(zhǔn)模型,建立了ScanNeRF基準(zhǔn)測(cè)試,旨在推動(dòng)神經(jīng)輻射場(chǎng)和相關(guān)技術(shù)領(lǐng)域的進(jìn)一步研究。與現(xiàn)有的基準(zhǔn)測(cè)試相比,ScanNeRF提供了更可擴(kuò)展的數(shù)據(jù)收集框架,并明確定義了測(cè)試集,避免了潛在的偏見結(jié)果。

3 關(guān)于神經(jīng)輻射場(chǎng)的背景

神經(jīng)輻射場(chǎng)(NeRF)通過將三維場(chǎng)景編碼成隱式表示,在視覺領(lǐng)域中廣泛應(yīng)用。通過學(xué)習(xí)多層感知機(jī)(MLP)來建立隱式映射,其中包括中間的MLP(pos)用于推斷密度和嵌入,淺層的MLP(rgb)用于預(yù)測(cè)顏色。為了更準(zhǔn)確地表示底層函數(shù)的高頻部分,使用基于傅里葉特征的位置編碼。渲染圖像時(shí),根據(jù)光學(xué)模型和體繪制渲染,通過累計(jì)透射量和數(shù)值積分來計(jì)算像素顏色。訓(xùn)練NeRF模型時(shí),通過最小化光度誤差平方來優(yōu)化模型參數(shù)。

4 ScanNeRF基準(zhǔn)測(cè)試

在本節(jié)中,作者描述了ScanNeRF框架的硬件和軟件組成部分。作者首先介紹我們的采集平臺(tái),然后描述了用于選擇最終圖像的后處理步驟,以及用于提取物體的掩膜策略。最后,作者強(qiáng)調(diào)了生成數(shù)據(jù)集的整體組織方式。

4.1 掃描站設(shè)置

掃描站使用Lego Mindstorm套件構(gòu)建,配備了OpenCV Oak-D Lite相機(jī)。通過旋轉(zhuǎn)底座和機(jī)械臂的兩個(gè)自由度,可以輕松地收集掃描物體周圍的圖像。相機(jī)姿態(tài)計(jì)算基于ChArUco標(biāo)記和OpenCV庫(kù)的功能實(shí)現(xiàn)。掃描過程中,相機(jī)以30fps的頻率錄制1440×1080分辨率的圖像。整個(gè)掃描站通過Lego Mindstorms桌面應(yīng)用程序的API進(jìn)行Python編程,并通過藍(lán)牙連接進(jìn)行控制。掃描站的硬件預(yù)算低于500美元。

661c7cdc-47bf-11ee-97a6-92fbcf53809c.png

4.2 數(shù)據(jù)集過濾

數(shù)據(jù)集過濾的過程通過計(jì)算相機(jī)姿態(tài)的方位角來檢測(cè)基座的旋轉(zhuǎn),并丟棄方位角與前一個(gè)角度之差小于1.15°的圖像。這樣可以有效地去除在臂下降期間收集的圖像,從而保留只在臂不移動(dòng)且基座旋轉(zhuǎn)時(shí)獲取的圖像。

6641cf46-47bf-11ee-97a6-92fbcf53809c.png

4.3 背景遮罩

為了剔除不一致的背景并獲得只包含掃描物體的圖像,作者采用背景遮罩的方法。通過使用Instant-NGP神經(jīng)渲染框架,作者訓(xùn)練并渲染了與原始圖像相同姿態(tài)的新圖像。在渲染過程中,作者使用渲染體積來裁剪不一致的背景,并根據(jù)像素的alpha值生成遮罩。這些遮罩被應(yīng)用于原始圖像,移除了背景和掃描站基座,使最終的圖像中只保留了物體。

664f6958-47bf-11ee-97a6-92fbcf53809c.png

4.4 數(shù)據(jù)集的組織和劃分

在數(shù)據(jù)集組織和劃分階段,作者將獲取的圖像序列劃分為Train、Val和Test三個(gè)宏劃分,分別包含不同數(shù)量的圖像。作者通過Farthest Point Sampling算法在物體上方半球均勻采樣圖像,并將Train宏劃分的圖像進(jìn)一步細(xì)分為三個(gè)訓(xùn)練子劃分,以探究不同圖像數(shù)量對(duì)NeRF算法性能的影響。同時(shí),作者還構(gòu)建了八個(gè)附加的子劃分,每個(gè)子劃分包含在特定區(qū)域更密集采集的圖像,并從整個(gè)半球分布的位置上隨機(jī)采樣一小部分圖像。這些子劃分的設(shè)計(jì)旨在研究在訓(xùn)練集具有不均勻視角空間分布時(shí)不同NeRF算法的表現(xiàn),并以此促進(jìn)未來的研究。

666b1392-47bf-11ee-97a6-92fbcf53809c.png

4.5 掃描時(shí)間和物體數(shù)量

所述流程允許快速掃描大量物體。一個(gè)完整的獲取周期包括收集約9000張圖像,并經(jīng)過過濾步驟后減少至約4000張。當(dāng)前的ScanNeRF數(shù)據(jù)集包括35個(gè)真實(shí)物體,用于評(píng)估現(xiàn)代NeRF框架的性能。未來計(jì)劃擴(kuò)大數(shù)據(jù)集以包含數(shù)百個(gè)甚至數(shù)千個(gè)物體,并通過基準(zhǔn)網(wǎng)站共享Train/Val拆分。

5 實(shí)驗(yàn)

在本節(jié)中,作者對(duì)作者的創(chuàng)新ScanNeRF數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)。具體而言,作者在作者設(shè)計(jì)的拆分?jǐn)?shù)據(jù)上運(yùn)行了三種現(xiàn)代高效的NeRF框架,以研究它們?cè)诓煌芏群陀?xùn)練圖像數(shù)量的情況下的性能表現(xiàn),以及它們?cè)趦H從掃描對(duì)象周圍的特定區(qū)域密集獲取圖像時(shí)的行為。

5.1 評(píng)估的框架和設(shè)置

在本節(jié)中,我們對(duì)我們的創(chuàng)新ScanNeRF數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)。我們?cè)u(píng)估了三種現(xiàn)代高效的NeRF框架:DVGO、Plenoxels和Instant-NGP。每種方法都具有不同的訓(xùn)練和渲染速度。我們使用每個(gè)框架的官方代碼進(jìn)行實(shí)驗(yàn),并保持默認(rèn)的超參數(shù)設(shè)置。在評(píng)估中,我們訓(xùn)練了420個(gè)實(shí)例,并使用峰值信噪比(PSNR)作為評(píng)估指標(biāo)來衡量渲染圖像的質(zhì)量。

5.2 均勻分布采集的實(shí)驗(yàn)

在均勻分布采集的實(shí)驗(yàn)中,作者訓(xùn)練和評(píng)估了三種方法:DVGO、Plenoxels和Instant-NGP。當(dāng)使用1000張圖像進(jìn)行訓(xùn)練時(shí),所有三種NeRF變體的性能都相當(dāng)出色,達(dá)到了超過30的PSNR。隨著訓(xùn)練圖像密度逐漸減少到500、250和100,三個(gè)框架的性能出現(xiàn)了不同的變化。Instant-NGP幾乎不受訓(xùn)練圖像減少的影響,DVGO的PSNR有輕微下降,而Plenoxels在僅用100張圖像進(jìn)行訓(xùn)練時(shí)出現(xiàn)了最大的渲染質(zhì)量下降。根據(jù)實(shí)驗(yàn)結(jié)果,Instant-NGP在訓(xùn)練和渲染速度、渲染質(zhì)量以及對(duì)訓(xùn)練圖像數(shù)量減少的魯棒性方面表現(xiàn)最佳。這里也推薦「3D視覺工坊」新課程《深度剖析面向機(jī)器人領(lǐng)域的3D激光SLAM技術(shù)原理、代碼與實(shí)戰(zhàn)》。

667fcc24-47bf-11ee-97a6-92fbcf53809c.png

66c342c4-47bf-11ee-97a6-92fbcf53809c.png

5.3 對(duì)密集局部采集的實(shí)驗(yàn)

本實(shí)驗(yàn)主要針對(duì)密集局部采集進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果顯示,三種NeRF算法在訓(xùn)練和測(cè)試相同分布位置的子集時(shí)表現(xiàn)良好,但在來自不同密集采集子集的測(cè)試中,它們的表現(xiàn)有所不同。其中,Plenoxels在這種設(shè)置下表現(xiàn)不穩(wěn)定,而DVGO和Instant-NGP相對(duì)更具魯棒性。作者推測(cè),這一差異可能是因?yàn)榍皟煞N方法中的MLP組件能夠從均勻分布的樣本中學(xué)到強(qiáng)烈的偏差,從而幫助它們推廣到幾乎未見過的半球區(qū)域。

6 結(jié)論

本文介紹了ScanNeRF作為一個(gè)可伸縮的神經(jīng)輻射場(chǎng)基準(zhǔn)和神經(jīng)渲染框架的評(píng)估平臺(tái)。通過ScanNeRF的特殊劃分,作者在不同設(shè)置下研究了現(xiàn)代NeRF框架的潛力,并給研究社區(qū)提出了一些新的挑戰(zhàn)。我們相信ScanNeRF將促進(jìn)神經(jīng)輻射場(chǎng)框架的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • CAN
    CAN
    +關(guān)注

    關(guān)注

    57

    文章

    2695

    瀏覽量

    463158
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4588

    瀏覽量

    92505
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1079

    瀏覽量

    40375
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1200

    瀏覽量

    24621
  • 元宇宙
    +關(guān)注

    關(guān)注

    13

    文章

    1383

    瀏覽量

    11293

原文標(biāo)題:WACV 2023 I 從ScanNeRF到元宇宙:神經(jīng)輻射場(chǎng)的未來

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    宇宙,數(shù)字新世界

    宇宙
    電子學(xué)習(xí)
    發(fā)布于 :2023年02月08日 12:35:35

    首屆META2021宇宙大會(huì)暨頒獎(jiǎng)盛典上海引爆

    。 META2021大會(huì)概述META宇宙探索大會(huì)全稱“META2021宇宙產(chǎn)業(yè)發(fā)展探索大會(huì)”META探索大會(huì)以 “啟
    發(fā)表于 11-25 11:03

    首屆META2021宇宙大會(huì)暨頒獎(jiǎng)盛典上海引爆

    全稱“META2021宇宙產(chǎn)業(yè)發(fā)展探索大會(huì)”META探索大會(huì)以 “啟宇宙重構(gòu)未來”為主題,邀請(qǐng)產(chǎn)業(yè)鏈企業(yè)及經(jīng)濟(jì)金融界投資界大咖與權(quán)威專家
    發(fā)表于 11-25 11:08

    大時(shí)代、大融合、大未來--META宇宙頒獎(jiǎng)盛典

    大時(shí)代、大融合、大未來--META宇宙頒獎(jiǎng)盛典META宇宙元年頒獎(jiǎng)盛典META2021 Metaverse First Year Awa
    發(fā)表于 12-06 17:30

    宇宙有可能在未來實(shí)現(xiàn)嗎

    宇宙有可能在未來實(shí)現(xiàn)嗎?宇宙有可能在未來實(shí)現(xiàn)。
    的頭像 發(fā)表于 11-02 15:12 ?3926次閱讀

    宇宙是騙局還是人類未來

    2021年宇宙迎來了熱潮,宇宙的在捧熱的同時(shí),也招來了外界的質(zhì)疑,宇宙是到底是騙局還是人類
    的頭像 發(fā)表于 11-02 16:16 ?1.6w次閱讀

    宇宙可以實(shí)現(xiàn)嗎

    宇宙把人們科幻帶到現(xiàn)實(shí),又從現(xiàn)實(shí)帶回了科幻,隨著宇宙的不斷發(fā)展,未來人們可以在這個(gè)虛擬的
    的頭像 發(fā)表于 11-03 14:24 ?2943次閱讀

    宇宙是智商稅還是真未來

    Facebook把公司名稱改為“Meta”后,又有更多的人知道了宇宙,A股宇宙板塊也大幅飆漲,對(duì)于
    的頭像 發(fā)表于 11-04 15:40 ?2489次閱讀

    央視解讀宇宙 宇宙的價(jià)值與未來

    今年下半年以來,宇宙概念大火,更是有央視財(cái)經(jīng)報(bào)道讓“宇宙”火臺(tái)面上,
    的頭像 發(fā)表于 11-20 10:24 ?4.4w次閱讀

    2023深圳國(guó)際宇宙展覽會(huì)

    2023深圳國(guó)際宇宙展覽會(huì) 宇宙-創(chuàng)見未來 時(shí)間:202
    的頭像 發(fā)表于 12-12 10:47 ?1072次閱讀

    互聯(lián)網(wǎng)數(shù)字經(jīng)濟(jì),宇宙在商業(yè)領(lǐng)域有哪些應(yīng)用?

    互聯(lián)網(wǎng)數(shù)字經(jīng)濟(jì),宇宙沖擊是當(dāng)前互聯(lián)網(wǎng)流量世界性的天花板后的發(fā)展新探索,它打通了互聯(lián)網(wǎng)、智能硬件、以及流量新的想象空間,也集合了互聯(lián)網(wǎng)+硬件的發(fā)展
    的頭像 發(fā)表于 12-22 15:38 ?775次閱讀

    【洞見芯趨勢(shì)】2023年,宇宙正迎來革命!

    迅速轉(zhuǎn)向落地! 2023伊始,宇宙又有了可講的新故事。工信部最近表示,2023年將落實(shí)落細(xì)已出臺(tái)的各項(xiàng)政策和接續(xù)措施,加快謀劃布局
    的頭像 發(fā)表于 02-10 23:10 ?814次閱讀

    NeRF2NeRF神經(jīng)輻射場(chǎng)的配對(duì)配準(zhǔn)介紹

    我們介紹了一種神經(jīng)場(chǎng)成對(duì)配準(zhǔn)的技術(shù),它擴(kuò)展了基于優(yōu)化的經(jīng)典局部配準(zhǔn)(即ICP)以操作神經(jīng)輻射場(chǎng)(NeRF)。
    的頭像 發(fā)表于 03-31 16:49 ?859次閱讀

    宇宙深度解析—未來未來-風(fēng)口還是泡沫

    宇宙隨著VR的高速發(fā)展,也處于逐步上升的階段,宇宙未來是風(fēng)口還是泡沫?
    發(fā)表于 02-15 10:39 ?231次下載

    基于幾何分析的神經(jīng)輻射場(chǎng)編輯方法

    神經(jīng)輻射場(chǎng)作為近期一個(gè)廣受關(guān)注的隱式表征方法,能合成照片級(jí)真實(shí)的多視角圖像。但因?yàn)槠潆[式建模的性質(zhì),用戶難以直觀編輯神經(jīng)輻射
    的頭像 發(fā)表于 11-20 16:56 ?528次閱讀
    基于幾何分析的<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場(chǎng)</b>編輯方法