0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Block nerf:可縮放的大型場(chǎng)景神經(jīng)視圖合成

3D視覺工坊 ? 來源:泡泡機(jī)器人SLAM ? 作者:paopaoslam ? 2022-10-19 15:15 ? 次閱讀

摘要

我們提出了 Block-NeRF,一種神經(jīng)輻射場(chǎng)的變體,可以表示大規(guī)模的場(chǎng)景。具體來說,我們發(fā)現(xiàn),當(dāng)使用 NeRF 渲染跨越多個(gè)街區(qū)的城市規(guī)模場(chǎng)景時(shí),將場(chǎng)景分解為單獨(dú)訓(xùn)練的子 NeRF 至關(guān)重要。這種分解將渲染時(shí)間與場(chǎng)景大小分離,使渲染能夠擴(kuò)展到任意大的場(chǎng)景,并允許對(duì)環(huán)境進(jìn)行逐塊更新。我們采用了幾項(xiàng)架構(gòu)更改,以使 NeRF 對(duì)在不同環(huán)境條件下數(shù)月捕獲的數(shù)據(jù)具有魯棒性。我們?yōu)槊總€(gè)單獨(dú)的 NeRF 添加了外觀嵌入、可學(xué)習(xí)的位姿細(xì)化和可控曝光,并引入了校準(zhǔn)相鄰 NeRF 之間外觀的程序,以便它們可以無縫組合。我們從 280 萬張圖像中構(gòu)建了一個(gè) Block-NeRF 網(wǎng)格,以創(chuàng)建迄今為止最大的神經(jīng)場(chǎng)景表示,能夠渲染舊金山的整個(gè)社區(qū)。

video: (click the picture to view)

cf1514b0-4f63-11ed-a3b6-dac502259ad0.png

主要貢獻(xiàn)

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

為了在大場(chǎng)景中應(yīng)用神經(jīng)輻射場(chǎng)(NeRF)模型,文章提出將大型場(chǎng)景分解為相互重疊的子場(chǎng)景 (block),每一個(gè)子場(chǎng)景分別訓(xùn)練,在推理時(shí)動(dòng)態(tài)結(jié)合相鄰 Block-NeRF 的渲染視圖。

文章在 mip-NeRF 的基礎(chǔ)上增加了外觀嵌入、曝光嵌入和位姿細(xì)化,以解決訓(xùn)練數(shù)據(jù)橫跨數(shù)月而導(dǎo)致的環(huán)境變化和位姿誤差。

為了保證相鄰 Block-NeRF 的無縫合成,文章提出了在推理時(shí)迭代優(yōu)化這些 Block-NeRF 的輸入外觀嵌入以校準(zhǔn)它們的渲染結(jié)果。

方法概述

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png 神經(jīng)輻射場(chǎng) (NeRF)是使用神經(jīng)網(wǎng)絡(luò)擬合輻射場(chǎng),用于視圖渲染的方法。然而,傳統(tǒng)的 NeRF 很難被直接擴(kuò)展到大場(chǎng)景應(yīng)用。這是因?yàn)閿M合大場(chǎng)景所需的神經(jīng)網(wǎng)絡(luò)也會(huì)很大,這會(huì)導(dǎo)致訓(xùn)練和推理渲染變得很困難。本文提出將大的場(chǎng)景劃分為數(shù)個(gè)相互重合的小場(chǎng)景 (block)。如下圖所示的丁字路口被劃分為三個(gè)小場(chǎng)景(黃圈),針對(duì)每一個(gè)小場(chǎng)景單獨(dú)訓(xùn)練一個(gè) Block-NeRF。推理時(shí)合并覆蓋目標(biāo)視圖范圍的 Block-NeRF 渲染生成最終的視圖。

cf5e8866-4f63-11ed-a3b6-dac502259ad0.png

mip-NeRF 拓展

文章基于 mip-NeRF,但是由于訓(xùn)練視圖在長(zhǎng)達(dá)數(shù)月的時(shí)間內(nèi)采集,不可避免地出現(xiàn)場(chǎng)景光照不同、相機(jī)曝光不同、視圖位姿存在誤差等問題。為了解決這些問題,文章在 mip-NeRF 的基礎(chǔ)上增加了外觀嵌入和曝光作為神經(jīng)網(wǎng)絡(luò)的輸入(如下圖所示,其中 fσ 和 fc 分別為預(yù)測(cè)密度 σ 和顏色 RGB 的神經(jīng)網(wǎng)絡(luò),x 為場(chǎng)景中的三維坐標(biāo)點(diǎn),d 表示視角)。

cfbffd94-4f63-11ed-a3b6-dac502259ad0.png

訓(xùn)練時(shí)使用生成式潛碼優(yōu)化的方法學(xué)習(xí)外觀嵌入,消除天氣光照等原因的影響。曝光則直接可以讀取采集記錄,只需對(duì)其進(jìn)行正弦位置編碼即可。

與此同時(shí),訓(xùn)練視圖的采集跨越了多個(gè)駕駛段,這些駕駛軌跡之間不可避免地存在位姿誤差。Block-NeRF 訓(xùn)練時(shí)還同時(shí)優(yōu)化每一個(gè)駕駛段的位姿偏移以降低位姿誤差帶來的影響。

街道視圖中存在汽車、行人等瞬時(shí)物體,然而場(chǎng)景渲染通常只關(guān)注建筑、街道等靜態(tài)結(jié)構(gòu)。文章于是使用語義分割網(wǎng)絡(luò)對(duì)訓(xùn)練視圖中的動(dòng)態(tài)物體進(jìn)行掩蔽,這樣神經(jīng)輻射場(chǎng)就不會(huì)學(xué)習(xí)這些動(dòng)態(tài)物體,而是只關(guān)注靜態(tài)場(chǎng)景結(jié)構(gòu)。

有時(shí)目標(biāo)視圖的相鄰 Block-NeRF 可能距離上很近,但并不在目標(biāo)視圖的視野之內(nèi),文章在傳統(tǒng) NeRF 的兩個(gè)神經(jīng)網(wǎng)絡(luò) fσ 和 fc 之外,還增加了一個(gè)預(yù)測(cè)能見度的網(wǎng)絡(luò) fv。給定三維坐標(biāo) x 和視角 d , fv 預(yù)測(cè)該點(diǎn)在給定視角下的能見度。合成多個(gè) Block-NeRF 的渲染時(shí),能見度低于閾值的渲染不會(huì)被用于最終的合成。訓(xùn)練時(shí)能見度可以由相應(yīng)點(diǎn)的透光率作為監(jiān)督目標(biāo)。

cfcb833a-4f63-11ed-a3b6-dac502259ad0.png

Block-NeRF 融合

為提高渲染效率,渲染目標(biāo)視圖時(shí)文章僅融合:

中心點(diǎn)在閾值半徑內(nèi)

且平均能見值高于閾值的 Block-NeRFs

滿足這兩個(gè)條件的 Block-NeRFs 以反距離加權(quán)的方式融合渲染視圖。這里的距離選擇相機(jī)到 Block-NeRFs 的二維空間距離。這樣的融合方法既保證了渲染真實(shí)度又能夠滿足時(shí)空一致性。

為了保證不同視角下渲染的天氣、光線等外觀的一致性,文章還在推理時(shí)引入了外觀嵌入迭代優(yōu)化。給定一個(gè) Block-NeRF 的外觀嵌入,文章在鎖定神經(jīng)網(wǎng)絡(luò)權(quán)重不變的基礎(chǔ)上,優(yōu)化相鄰 Block-NeRFs 的外觀嵌入,最大化其渲染視圖的一致性。

實(shí)驗(yàn)結(jié)果

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

文章采集并開源了兩個(gè)數(shù)據(jù)集:San Francisco Alamo Square Dataset 和 San Francisco Mission Bay Dataset,分布包含280萬和1.2萬圖片。Alamo Square Dataset覆蓋大約 0.5km2 ,采集自3個(gè)月周期內(nèi),包括不同光線條件和天氣的數(shù)據(jù)。Mission Bay Dataset 涵蓋的地理范圍遠(yuǎn)遠(yuǎn)小于 Alamo Square Dataset,主要被用來與 NeRF做比較。

Table 2 顯示 Block-NeRF 相較于NeRF 渲染效果更好。并且 block 數(shù)量越多越好。即便是保持神經(jīng)網(wǎng)絡(luò)總參數(shù)量不變,Block-NeRF 仍然優(yōu)于 NeRF 并且推理速度在不考慮并行計(jì)算的前提下也大大提高。

cff1ac22-4f63-11ed-a3b6-dac502259ad0.png

Table 1 和 Figure 7 分別定量和定性地顯示外觀嵌入、曝光輸入以及位姿優(yōu)化都對(duì)提高渲染效果有幫助。

cffe6ffc-4f63-11ed-a3b6-dac502259ad0.png

d0335f32-4f63-11ed-a3b6-dac502259ad0.png

Figure 6 顯示推理時(shí)外觀嵌入優(yōu)化可以將渲染從白天場(chǎng)景轉(zhuǎn)換成黑夜場(chǎng)景,從而更好地與基準(zhǔn) Block-NeRF 匹配,增強(qiáng)渲染地時(shí)空一致性。

d0bb5392-4f63-11ed-a3b6-dac502259ad0.png

總結(jié)

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

本文提出了Block-NeRF,采用 divide-and-conquer 的方法使用多個(gè) Block-NeRFs 學(xué)習(xí)大型場(chǎng)景的不同分塊,最終將這些Block-NeRFs 的渲染合成目標(biāo)視圖。這樣的方法使得利用 NeRF 模型渲染城市規(guī)模的場(chǎng)景成為了可能。

此外 Block-NeRF 還在 mip-NeRF 的基礎(chǔ)上,引入了外觀嵌入優(yōu)化、曝光輸入和位姿細(xì)化等擴(kuò)展,以解決訓(xùn)練數(shù)據(jù)橫跨數(shù)月而導(dǎo)致的環(huán)境變化和位姿誤差。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100010
  • Block
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    14635
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)模型的原理、類型、應(yīng)用場(chǎng)景及優(yōu)缺點(diǎn)

    網(wǎng)絡(luò)模型的原理、類型、應(yīng)用場(chǎng)景以及優(yōu)缺點(diǎn)。 神經(jīng)網(wǎng)絡(luò)模型的原理 神經(jīng)網(wǎng)絡(luò)模型的基本原理是模擬人腦神經(jīng)元的工作方式。人腦由大約860億個(gè)神經(jīng)
    的頭像 發(fā)表于 07-02 09:56 ?560次閱讀

    LiDAR4D:基于時(shí)空新穎的LiDAR視角合成框架

    NeRF-LiDAR將圖像和點(diǎn)云模態(tài)整合到激光雷達(dá)合成中,而諸如LiDAR-NeRF和NFL之類的僅激光雷達(dá)的方法探索了在沒有RGB圖像的情況下進(jìn)行激光雷達(dá)重建和生成的可能性。
    發(fā)表于 04-10 12:34 ?936次閱讀
    LiDAR4D:基于時(shí)空新穎的LiDAR視角<b class='flag-5'>合成</b>框架

    NanoEdge AI的技術(shù)原理、應(yīng)用場(chǎng)景及優(yōu)勢(shì)

    能耗并提高數(shù)據(jù)安全性。本文將對(duì) NanoEdge AI 的技術(shù)原理、應(yīng)用場(chǎng)景以及優(yōu)勢(shì)進(jìn)行綜述。 1、技術(shù)原理 NanoEdge AI 的核心技術(shù)包括邊緣計(jì)算、神經(jīng)網(wǎng)絡(luò)壓縮和低功耗硬件設(shè)計(jì)。邊緣計(jì)算
    發(fā)表于 03-12 08:09

    谷歌模型合成工具怎么用

    谷歌模型合成工具主要是指Dreamfusion,這是Google的大型AI圖像模型Imagen與NeRF的3D功能相結(jié)合的一種技術(shù)。Dreamfusion是Dream Fields的演變,Dream Fields是谷歌于2021
    的頭像 發(fā)表于 02-29 17:33 ?654次閱讀

    NeRF入門基礎(chǔ)知識(shí)詳解

    deep networks 更傾向于學(xué)習(xí)低頻的函數(shù),實(shí)際場(chǎng)景神經(jīng)輻射場(chǎng)基本上都是高頻的
    的頭像 發(fā)表于 02-21 14:21 ?997次閱讀
    <b class='flag-5'>NeRF</b>入門基礎(chǔ)知識(shí)詳解

    基于NeRF/Gaussian的全新SLAM算法

    基于NeRF的SLAM算法采用全局地圖和圖像重建損失函數(shù),通過微分渲染捕獲稠密的光度信息,具有高保真度。
    的頭像 發(fā)表于 01-26 10:48 ?544次閱讀
    基于<b class='flag-5'>NeRF</b>/Gaussian的全新SLAM算法

    Aleth-NeRF:低光增強(qiáng)與曝光糾正的新方向!不良光照場(chǎng)景下的新視角合成

    最經(jīng)典的原始NeRF為例,局部隱蔽場(chǎng)通過NeRF的MLP網(wǎng)絡(luò)產(chǎn)生,與原始NeRF的兩個(gè)輸出color和density相同,屬于voxel-wise,全局隱蔽場(chǎng)則是一組可學(xué)習(xí)的網(wǎng)絡(luò)參數(shù),在每個(gè)場(chǎng)
    的頭像 發(fā)表于 12-21 16:43 ?829次閱讀
    Aleth-<b class='flag-5'>NeRF</b>:低光增強(qiáng)與曝光糾正的新方向!不良光照<b class='flag-5'>場(chǎng)景</b>下的新視角<b class='flag-5'>合成</b>

    基于幾何分析的神經(jīng)輻射場(chǎng)編輯方法

    神經(jīng)輻射場(chǎng)作為近期一個(gè)廣受關(guān)注的隱式表征方法,能合成照片級(jí)真實(shí)的多視角圖像。但因?yàn)槠潆[式建模的性質(zhì),用戶難以直觀編輯神經(jīng)輻射場(chǎng)建模對(duì)象的幾何。面對(duì)這一問題,最新被IEEE TPAMI接收的論文
    的頭像 發(fā)表于 11-20 16:56 ?434次閱讀
    基于幾何分析的<b class='flag-5'>神經(jīng)</b>輻射場(chǎng)編輯方法

    迷你Nerf gun背后的技術(shù)可以應(yīng)用于醫(yī)學(xué)突破

    當(dāng)Mark Rober開始打破世界上最小Nerf gun的紀(jì)錄時(shí),他從未想過自己最終會(huì)制造出比現(xiàn)有實(shí)際Nerf gun總數(shù)更多的迷你Nerf gun。在長(zhǎng)達(dá)一年的過程中,Rober通過與頂尖專家合作
    的頭像 發(fā)表于 11-09 16:30 ?787次閱讀

    NeurlPS&apos;23開源 | 大規(guī)模室外NeRF也可以實(shí)時(shí)渲染

    神經(jīng)輻射場(chǎng) (NeRF)是一種新穎的隱式三維重建方法,顯示出巨大的潛力,受到越來越多的關(guān)注。它能夠僅從一組照片中重建3D場(chǎng)景。然而,它的實(shí)時(shí)渲染能力,尤其是對(duì)于大規(guī)模場(chǎng)景的交互式實(shí)時(shí)渲
    的頭像 發(fā)表于 11-08 16:41 ?824次閱讀
    NeurlPS&apos;23開源 | 大規(guī)模室外<b class='flag-5'>NeRF</b>也可以實(shí)時(shí)渲染

    基于高度感知的鳥瞰圖分割和神經(jīng)地圖的重定位

    本方案的完整算法是在SD地圖中定位一組環(huán)視圖像。它從環(huán)視圖像生成本地BEV表示,并從給定粗略3D位置先驗(yàn)的SD地圖tile中生成神經(jīng)地圖編碼(例如來自航海設(shè)備的嘈雜GPS信號(hào)和指南針)。
    的頭像 發(fā)表于 11-08 15:59 ?462次閱讀
    基于高度感知的鳥瞰圖分割和<b class='flag-5'>神經(jīng)</b>地圖的重定位

    利用PyTorch實(shí)現(xiàn)NeRF代碼詳解

    神經(jīng)輻射場(chǎng)(NeRF)是一種利用神經(jīng)網(wǎng)絡(luò)來表示和渲染復(fù)雜的三維場(chǎng)景的方法。它可以從一組二維圖片中學(xué)習(xí)出一個(gè)連續(xù)的三維函數(shù),這個(gè)函數(shù)可以給出空間中任意位置和方向上的顏色和密度。通過體積渲
    的頭像 發(fā)表于 10-21 09:46 ?644次閱讀

    讀者理解:LEAP泛化到新的物體類別和場(chǎng)景

    本文主要介紹了兩個(gè)與NeRF(Neural Radiance Fields)相關(guān)的工作,分別是針對(duì)稀疏視角輸入的NeRF變體和稀疏視角相機(jī)姿態(tài)估計(jì)。針對(duì)NeRF的稀疏視角輸入,有兩種不同的方法:一種是針對(duì)特定
    的頭像 發(fā)表于 10-17 15:46 ?393次閱讀
    讀者理解:LEAP泛化到新的物體類別和<b class='flag-5'>場(chǎng)景</b>

    圖像放大為什么還能保持清晰度 圖像縮放的原理是什么

    圖像縮放算法可以分為兩類:插值算法和基于變換的算法。下面是一些常見的圖像縮放算法。
    發(fā)表于 10-17 09:52 ?1331次閱讀
    圖像放大為什么還能保持清晰度 圖像<b class='flag-5'>縮放</b>的原理是什么

    神經(jīng)渲染:圖形學(xué)與深度學(xué)習(xí)的完美結(jié)合

    神經(jīng)渲染是一種利用深度學(xué)習(xí)和圖形學(xué)技術(shù),實(shí)現(xiàn)高質(zhì)量、高效率、高靈活性的圖像合成和渲染的方法。神經(jīng)渲染不僅能夠生成逼真的圖像,還能夠?qū)D像進(jìn)行操控、變換和編輯,從而實(shí)現(xiàn)多種創(chuàng)意和應(yīng)用。神經(jīng)
    的頭像 發(fā)表于 09-23 08:30 ?902次閱讀
    <b class='flag-5'>神經(jīng)</b>渲染:圖形學(xué)與深度學(xué)習(xí)的完美結(jié)合