0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度解析MiddleBurry立體匹配數(shù)據(jù)集

3D視覺(jué)工坊 ? 來(lái)源:計(jì)算攝影學(xué) ? 作者:HawkWang ? 2022-12-12 10:30 ? 次閱讀

現(xiàn)在,我們知道立體匹配在實(shí)際應(yīng)用中會(huì)有各種各樣困難的問(wèn)題需要解決,例如之前提到過(guò)的光照、噪聲、鏡面反射、遮擋、重復(fù)紋理、視差不連續(xù)等等導(dǎo)致的匹配錯(cuò)誤或缺失。于是人們就創(chuàng)造了各種各樣的算法來(lái)解決這些問(wèn)題。我們不禁要問(wèn)一個(gè)問(wèn)題:我們?nèi)绾喂降谋容^這些算法的優(yōu)劣呢?這就是我在這篇文章中想要闡述的內(nèi)容。讓我們先從評(píng)價(jià)方法的直覺(jué)理解開(kāi)始,然后進(jìn)入到科學(xué)的部分。

一. 視差結(jié)果的評(píng)價(jià)方法

立體匹配里面提到的最基礎(chǔ)的固定窗口法的匹配結(jié)果:baf15fd0-79b5-11ed-8abf-dac502259ad0.jpg我們可以明顯的看到這個(gè)視差圖中有一些錯(cuò)誤,比如臺(tái)燈支架斷裂了,視差圖上部分區(qū)域是黑色的,還有背景出現(xiàn)不正常的亮區(qū),同時(shí)物體的邊界和原圖的邊界似乎無(wú)法對(duì)應(yīng)上(比如臺(tái)燈燈罩等)。但如何量化的說(shuō)明錯(cuò)誤的量呢?如果能夠?qū)㈠e(cuò)誤量化,似乎就可以公平的比較各個(gè)算法了。我想你也已經(jīng)想到,要想量化錯(cuò)誤,就需要有標(biāo)準(zhǔn)的視差圖作為參考,只需要比較算法的結(jié)果和標(biāo)準(zhǔn)視差圖,并計(jì)算不一樣的像素的比例,就可以進(jìn)行評(píng)價(jià)了。這個(gè)領(lǐng)域的先驅(qū)們也正是這樣做的,其中奠基性的成果就是MiddleBurry大學(xué)的Daniel Scharstein和微軟的Richard Szeliski在2002年發(fā)表的下面這篇文章:bb336d94-79b5-11ed-8abf-dac502259ad0.jpg作者們提出的第一種評(píng)價(jià)方案是構(gòu)造具有理想視差圖的參考圖像集,并利用下面兩大指標(biāo)來(lái)評(píng)價(jià)各種立體匹配算法的優(yōu)劣:
  1. 均方根誤差(RMS Error),這里N是像素總數(shù)
bb53e8da-79b5-11ed-8abf-dac502259ad0.jpg2.錯(cuò)誤匹配像素比例bb7628b4-79b5-11ed-8abf-dac502259ad0.jpg除了在整體圖像上計(jì)算上述兩個(gè)指標(biāo),他們還將參考圖像和視差圖進(jìn)行預(yù)先分割,從而得到三個(gè)特殊的區(qū)域,在這些區(qū)域上利用上述指標(biāo)進(jìn)行更細(xì)節(jié)的比較。1. 無(wú)紋理區(qū)域:這是在原始參考圖像上計(jì)算每個(gè)像素固定大小鄰域窗口內(nèi)的水平梯度平均值。如果這個(gè)值的平方低于某個(gè)閾值,就認(rèn)為它是無(wú)紋理區(qū)域。2. 遮擋區(qū)域:這個(gè)容易理解,在73. 三維重建8-立體匹配4中我介紹了如何獲取到遮擋區(qū)域,一般可以利用左右一致性檢測(cè)得到。只不過(guò)這里記住是利用參考圖像和理想視差值進(jìn)行計(jì)算得到遮擋區(qū)域的。3. 深度不連續(xù)區(qū)域:如果某像素的鄰域內(nèi)像素的視差值差異大于了某個(gè)閾值,那么這個(gè)像素就位于深度不連續(xù)區(qū)域內(nèi)。下面是示意圖:bb97b7c2-79b5-11ed-8abf-dac502259ad0.jpg于是作者就會(huì)在上面三個(gè)區(qū)域,以及無(wú)紋理區(qū)域和遮擋區(qū)域的補(bǔ)集,計(jì)算均方根誤差錯(cuò)誤像素比例這兩個(gè)指標(biāo)。作者還指出了評(píng)價(jià)算法優(yōu)劣的第二種方案:如果我們有多個(gè)視角的原始圖像,那么可以通過(guò)把原始圖像通過(guò)視差圖進(jìn)行變換到其它的視角,并和其他視角已知的圖像做對(duì)比,來(lái)量化所謂的預(yù)測(cè)誤差.這也是一種評(píng)價(jià)算法優(yōu)劣的方式,理論上算法計(jì)算出的視差圖越精準(zhǔn),預(yù)測(cè)誤差越小。比如下面這組圖,其中中間是原始參考圖像,通過(guò)和目標(biāo)圖像一起做立體匹配,可以得到1個(gè)視差圖。通過(guò)此視差圖,我們能將參考圖像中的點(diǎn)投影到三維空間,然后再投影到不同的視角下。這里左起第1/2/4/5幅圖,就是投影的結(jié)果,其中第4幅對(duì)應(yīng)原目標(biāo)圖像所在的視角。如果原本在這幾個(gè)視角有實(shí)拍的圖像,就可以和投影的結(jié)果作對(duì)比,對(duì)比的結(jié)果可以用于計(jì)算預(yù)測(cè)誤差。這種方式被作者稱為前向變換,圖中粉色的像素是在投影后沒(méi)有信息來(lái)填充的像素——這是因?yàn)椴煌暯堑恼趽跫耙暡顖D中的錯(cuò)誤導(dǎo)致的。bbbea436-79b5-11ed-8abf-dac502259ad0.png另外一種投影方式被作者稱為反向變換。比如下面這組圖,中間是原始參考圖像。而其他的圖像,是在各個(gè)視角拍攝的圖像通過(guò)三維重投影變換到參考圖像所在視角后的結(jié)果。這里面粉色像素代表因?yàn)檎趽鯇?dǎo)致的無(wú)法填充的結(jié)果。bbfe31b4-79b5-11ed-8abf-dac502259ad0.png根據(jù)作者描述,反向變換帶來(lái)的渲染問(wèn)題更少,更加適合作為計(jì)算預(yù)測(cè)誤差所需。所以后面的指標(biāo)都采用了反向變換。我們總結(jié)下作者給出的各種評(píng)價(jià)指標(biāo)吧:1. 在全圖上計(jì)算視差圖和理想視差圖之間的均方根誤差,及錯(cuò)誤像素占比2. 在無(wú)紋理區(qū)域,有紋理區(qū)域,遮擋區(qū)域,非遮擋區(qū)域,深度不連續(xù)區(qū)域共5個(gè)區(qū)域計(jì)算和理想視差圖之間的均方根誤差,及錯(cuò)誤像素占比3. 在不同視角下進(jìn)行反向變換,計(jì)算變換后的投影誤差,即所謂預(yù)測(cè)誤差于是在論文中就有了一張很復(fù)雜的表格,主要就在說(shuō)明我剛提到的幾種指標(biāo)。bc3a555e-79b5-11ed-8abf-dac502259ad0.jpg各種視差精度評(píng)價(jià)指標(biāo)我們很明顯能看到,為了計(jì)算上述的指標(biāo),我們的測(cè)試數(shù)據(jù)集中需要包含下面兩類信息中至少一種:1. 輸入的兩視角原始圖像,及對(duì)應(yīng)的理想視差圖2. 輸入的多視角圖像那么,作者是如何構(gòu)造這樣的測(cè)試圖集呢?

二. 最早期的測(cè)試圖集(2001年及以前)

在第1節(jié)提到的論文中,作者說(shuō)明了測(cè)試數(shù)據(jù)集的構(gòu)成,這些數(shù)據(jù)集就是MiddleBurry立體匹配數(shù)據(jù)集網(wǎng)站上的2001版數(shù)據(jù)集。第一類:平面場(chǎng)景數(shù)據(jù)集在vision.middlebury.edu/s上,你可以看到作者制作的6組平面場(chǎng)景數(shù)據(jù)。bc651d98-79b5-11ed-8abf-dac502259ad0.jpg每一組數(shù)據(jù)由9張彩色圖像,和2張理想視差圖構(gòu)成。作者通過(guò)將相機(jī)擺放在水平導(dǎo)軌上,然后通過(guò)移動(dòng)相機(jī)拍攝了這9幅彩色圖像,并進(jìn)行了仔細(xì)的立體校正。而視差圖則是由第3張和第7張圖像進(jìn)行立體匹配,并分別作為參考圖像得到的。這些圖像的尺寸比較小,例如Sawtooth的視差圖尺寸是434x380像素。我們來(lái)看看其中兩組圖像:Sawtooth及Venus。這里第1列是參考圖像,其中作者擺放的都是平面的海報(bào)、繪畫(huà)等,而第2列是對(duì)參考圖像做手動(dòng)標(biāo)記分割為幾個(gè)部分的結(jié)果,屬于同一個(gè)平面的像素被標(biāo)為同樣的顏色。第3列就是理想視差圖。由于現(xiàn)在場(chǎng)景里面都是平面的物體,因此可以通過(guò)特征點(diǎn)匹配的方式計(jì)算穩(wěn)定的匹配點(diǎn)對(duì),再利用平面擬合技術(shù),很準(zhǔn)確的計(jì)算出每個(gè)像素的視差。bc87ba2e-79b5-11ed-8abf-dac502259ad0.jpg第二組圖像是從別的數(shù)據(jù)集中獲得的。這里有Tsukuba大學(xué)的著名數(shù)據(jù)"Head and Lamp"。這組數(shù)據(jù)有5x5=25張彩色圖像,在不同視角拍攝。以中間圖像作為參考圖像,人工標(biāo)注了每個(gè)像素的視差,下面展示了其中1張視差圖。bcac1e28-79b5-11ed-8abf-dac502259ad0.jpg另外還有早期由作者之一Szeliski和另外一位先驅(qū)Zabih制作的單色的Map數(shù)據(jù)集,長(zhǎng)下面這個(gè)樣子。這也是1個(gè)平面物體構(gòu)成的場(chǎng)景,所以理想視差圖也用上面提到的平面擬合的方式得到。bcc3ac5a-79b5-11ed-8abf-dac502259ad0.jpg我們看到,早期的這些數(shù)據(jù)集都比較簡(jiǎn)單,而且數(shù)量有限。大多數(shù)是平面物體構(gòu)成的場(chǎng)景,像Head and Lamp這樣的數(shù)據(jù),雖然由人工標(biāo)注了視差圖,但最大視差值比較小,難度較低。盡管如此,這對(duì)于當(dāng)時(shí)缺乏標(biāo)準(zhǔn)數(shù)據(jù)集的立體匹配研究來(lái)說(shuō),已經(jīng)是一個(gè)里程碑式的事件了。在第一節(jié)開(kāi)篇提到的論文中,作者就是利用這樣的數(shù)據(jù)集和評(píng)價(jià)指標(biāo)進(jìn)行了大量客觀的比較,得出了很多重要的結(jié)論。

三. 2003年開(kāi)始,引入結(jié)構(gòu)光技術(shù)

正如上一節(jié)提出的,2001版的數(shù)據(jù)太簡(jiǎn)單了,導(dǎo)致后面一些改進(jìn)后的算法很容易就能匹配上前述數(shù)據(jù)集中大多數(shù)像素,按照現(xiàn)在流行的說(shuō)法:過(guò)擬合了。于是,前面兩位作者采用了新的方法制作更接近真實(shí)場(chǎng)景,更加具有挑戰(zhàn)性的數(shù)據(jù)集。這次的數(shù)據(jù)集主要包括下面兩個(gè)更加復(fù)雜的場(chǎng)景:Cones和Teddy, 你可以看到現(xiàn)在不再是平面目標(biāo)構(gòu)成的場(chǎng)景了,而是具有更加復(fù)雜的表面特征,以及陰影和更多深度不連續(xù)的區(qū)域。不僅如此,此次提供的圖像的尺寸也很大,完整尺寸是1800x1500,另外還提供了900x750及450x375兩種版本。同時(shí),還包括了遮擋區(qū)域、無(wú)紋理區(qū)域、深度不連續(xù)區(qū)域的掩碼圖像,用于各種指標(biāo)的計(jì)算。Cones:bcdf859c-79b5-11ed-8abf-dac502259ad0.jpgTeddy:bd04b236-79b5-11ed-8abf-dac502259ad0.jpg在2003年CVPR中他們發(fā)表了下面這篇文章,闡述了新數(shù)據(jù)集的制作方法:bd3ed5ec-79b5-11ed-8abf-dac502259ad0.jpg我們從標(biāo)題就可以看出,這次他們采用了結(jié)構(gòu)光技術(shù)自動(dòng)的計(jì)算出每組圖像的高精度稠密視差圖作為理想?yún)⒖?。下面是他們的?shí)驗(yàn)設(shè)置。這里采用的相機(jī)是Canon G1,它被安裝在水平導(dǎo)軌上,這樣就可以以固定間隔移動(dòng)拍攝不同視角的圖像,對(duì)于同一個(gè)場(chǎng)景作者會(huì)拍攝9個(gè)不同視角的圖像,并用其中第3和第7張來(lái)產(chǎn)生理想視差圖。與此同時(shí),有1個(gè)或多個(gè)投影儀照亮場(chǎng)景。bd621aac-79b5-11ed-8abf-dac502259ad0.jpg比如在拍攝Cones場(chǎng)景時(shí),就用了1個(gè)投影儀從斜上方照亮場(chǎng)景,這樣大部分區(qū)域都可以照亮,除了畫(huà)面右上方的格子間有一些陰影,由于陰影前方是平面的柵格,所以這些陰影區(qū)域的視差值能夠通過(guò)插值算法恢復(fù)出來(lái)。bd95cafa-79b5-11ed-8abf-dac502259ad0.jpg而在拍攝Teddy場(chǎng)景時(shí),則是采用了兩個(gè)投影儀從不同的方向打光照亮場(chǎng)景,盡量減少陰影。不過(guò),由于Teddy場(chǎng)景更加復(fù)雜,即便是用了兩個(gè)方向的照明,依然會(huì)有少量的區(qū)域位于陰影中(沒(méi)有任何1個(gè)投影儀能照亮),使得這些區(qū)域的視差不可知。bdbb78cc-79b5-11ed-8abf-dac502259ad0.jpg這里面,投影儀會(huì)按次序發(fā)出N個(gè)結(jié)構(gòu)光圖像照亮場(chǎng)景,相機(jī)則把這一系列圖像拍攝下來(lái)。注意看論文中的示意圖。這里用到的是一種叫做格雷碼的圖案(Gray-Code),是一種黑白條紋圖案。bdd66466-79b5-11ed-8abf-dac502259ad0.jpg為了理解作者是如何獲取高精度視差圖的,我們需要先理解下結(jié)構(gòu)光三維重建的原理。這里我用投影儀發(fā)出最簡(jiǎn)單的黑白條紋圖像來(lái)做一點(diǎn)點(diǎn)介紹,之后我會(huì)寫(xiě)更詳細(xì)的文章來(lái)介紹結(jié)構(gòu)光三維重建。我們看下面這個(gè)場(chǎng)景,投影儀向場(chǎng)景按時(shí)間順序投出7個(gè)圖像,并被相機(jī)拍攝下來(lái)。be043472-79b5-11ed-8abf-dac502259ad0.jpg拍下來(lái)的系列圖像是這樣的:be287cce-79b5-11ed-8abf-dac502259ad0.gif我們?cè)跁r(shí)空兩個(gè)維度上觀察接受到的圖像,就會(huì)發(fā)現(xiàn)每個(gè)場(chǎng)景位置處的信息形成了獨(dú)特的編碼。beceb544-79b5-11ed-8abf-dac502259ad0.jpg比如上面箭頭所指像素的編碼就是1010010,而且在兩個(gè)視角下對(duì)應(yīng)像素的編碼是一致的,這就給了我們精確尋找兩個(gè)圖像的對(duì)應(yīng)像素的方法——我們只需要尋找相同編碼的像素即可。這里編碼有7位,意味著我們可以為128列像素指定不同的編碼。如果再發(fā)出的是水平條紋,那么可以為128行像素指定不同的編碼。這樣,就可以支撐尺寸為128x128的像素陣列的視差計(jì)算了。如果編碼長(zhǎng)度變?yōu)?0位,那么就可以支持精確計(jì)算出1024x1024的視差圖。現(xiàn)在我們回到Daniel Scharstein和Richard Szeliski的研究,他們確實(shí)是采用了類似原理,通過(guò)發(fā)出水平和垂直的條紋結(jié)構(gòu)光來(lái)精確的尋找兩個(gè)視角下圖像間的對(duì)應(yīng)關(guān)系的。作者用的投影儀是Sony VPL-CX10,投出的圖案是1024x768像素,所以用10位編碼足夠了,也就是投出10個(gè)水平序列圖案和10個(gè)垂直序列圖案。下面展示了其發(fā)出的水平和垂直結(jié)構(gòu)光經(jīng)過(guò)閾值分割后的黑白條紋的狀態(tài)。beec7dfe-79b5-11ed-8abf-dac502259ad0.jpg通過(guò)這種方法,就可以得到精確的視差圖了,作者把此時(shí)得到的視差圖稱為View Disparity。這個(gè)過(guò)程可以圖示如下:bf188d90-79b5-11ed-8abf-dac502259ad0.jpg你可以看到,View Dispariy中存在大量的黑色像素,這是怎么回事呢?這里主要由這么幾種情況導(dǎo)致:
  1. 遮擋,部分像素只在1個(gè)視角可見(jiàn),在另外1個(gè)視角不可見(jiàn)
  2. 陰影或反射,導(dǎo)致部分像素的編碼不可靠,使得匹配失敗。
  3. 在匹配時(shí),因?yàn)橄鄼C(jī)分辨率和投影儀分辨率不一致,因此所需的插值或者混疊導(dǎo)致了一些像素?zé)o法完美匹配,從而在左右一致性檢查時(shí)失敗。
  4. 同樣,因?yàn)橥队皟x分辨率不足,導(dǎo)致相機(jī)成像時(shí)多個(gè)像素對(duì)應(yīng)同一個(gè)投影儀像素。這可能導(dǎo)致一個(gè)視角下的1個(gè)像素可能和另外一個(gè)視角下多個(gè)像素匹配上,從而在左右一致性檢查時(shí)失敗。
  5. 還有,就是當(dāng)采用多個(gè)不同的光源方向時(shí),不同光源方向照明時(shí)得到的視差圖不一致。這種不一致的像素也會(huì)被標(biāo)記為黑色像素。
很顯然,這樣的視差圖是不足以作為理想的視差圖的。我們理想中的視差圖,需要絕大多數(shù)像素都有準(zhǔn)確的視差值,那么該如何做呢?我們來(lái)看看剛才這張圖上的這個(gè)部分:bf3c096e-79b5-11ed-8abf-dac502259ad0.jpg這里,我們注意到當(dāng)相機(jī)視角1下的圖像點(diǎn)和投影儀上的圖案點(diǎn)之間是有明顯的投影關(guān)系的。bf76d260-79b5-11ed-8abf-dac502259ad0.jpg我們有大量的通過(guò)前述過(guò)程已知視差值d的像素點(diǎn),因此可以按照上圖建立起超定方程組,并用迭代式的方式求取穩(wěn)定的投影矩陣M。當(dāng)M已求得后,就可以將M當(dāng)成已知量,再次套用p = MS這個(gè)式子,求得每個(gè)像素的視差值——即使這個(gè)像素在此前的view disparity計(jì)算過(guò)程中因?yàn)榉N種原因被標(biāo)為了黑色也沒(méi)關(guān)系,只要投影儀能夠照亮的像素都可以計(jì)算出一個(gè)視差值,作者把這種方式計(jì)算出來(lái)的視差值稱為illumination disparities。由于1個(gè)投影儀可以和左右相機(jī)都計(jì)算出這樣的視差圖,所以我們可以得到2張illumination disparity圖。下面是個(gè)示例圖,(a)是拍攝的序列圖像中的一張,(b)是參考圖像的所謂View Disparity (c)就是Illumination disparitiy。你可以看到,這里標(biāo)為黑色的像素明顯少了很多,大部分都是投影儀無(wú)法照亮的像素。(d)則是將(b)和(c)合并的結(jié)果。bf9c2538-79b5-11ed-8abf-dac502259ad0.jpg如果有多個(gè)投影儀,那么每個(gè)投影儀都可以計(jì)算一次對(duì)應(yīng)的Illumination Disparity,而且是左右圖都可以計(jì)算出自己的Illumination Disparity,最后將所有計(jì)算出的視差圖合并起來(lái)即可。如果我們有N個(gè)投影儀,那么對(duì)應(yīng)于左圖的右圖共有2N個(gè)Illumination Disparities,再加上view disparities 2張,一共就需要合并2N+2張視差圖。比如Teddy場(chǎng)景,有兩個(gè)投影儀,就會(huì)有6張視差圖需要合并,下圖是示例,展示了部分視差圖和最終合并的結(jié)果。bfbb960c-79b5-11ed-8abf-dac502259ad0.jpg通過(guò)上述過(guò)程,就可以得到精度非常高的視差圖了,這就會(huì)被作為最終的理想視差圖。Daniel Scharstein和Richard Szeliski采用的這個(gè)方案精度非常高,非常適合制作立體匹配的理想?yún)⒖紨?shù)據(jù)集,于是2005年,MiddleBurry的Anna Blasiak, Jeff Wehrwein和Daniel Scharstein又用此方法構(gòu)造了更多高精度的數(shù)據(jù)集,共9組,下面是一些例子,我想很多人都看到過(guò)第1組。這次采集數(shù)據(jù)時(shí),每組數(shù)據(jù)有7個(gè)視角,3種照明,還有3種不同的曝光設(shè)置。視差圖基于第2視角和第6視角計(jì)算,完整的圖像尺寸大概在1300x1100。bfe89dd2-79b5-11ed-8abf-dac502259ad0.jpg這個(gè)數(shù)據(jù)集相比之前的數(shù)據(jù)集更加有挑戰(zhàn)性,因?yàn)閳D像中包括了更大的視差,更多的平坦區(qū)域。到了2006年,還是MiddleBurry大學(xué),Brad Hiebert-Treuer, Sarri Al Nashashibi 以及 Daniel Scharstein一起又制作了21組雙目數(shù)據(jù)。跟2005年一樣,依然是7個(gè)視角,3種照明,3種曝光設(shè)置。這次的完整圖像尺寸大概是1380x1100。這次的數(shù)據(jù)很多人都看過(guò),比如下面幾張就非常出名。c00e52fc-79b5-11ed-8abf-dac502259ad0.jpg我們可看到,這些數(shù)據(jù)是越來(lái)越有挑戰(zhàn)性,具有豐富的種類,且更多困難的區(qū)域,非常適合對(duì)各種立體匹配算法進(jìn)行量化的評(píng)價(jià)。

四. 2014年,更加復(fù)雜的制作技術(shù)

前面講的數(shù)據(jù)集在立體匹配的研究中起了非常大的作用,很多重要的方法都是在這時(shí)候的數(shù)據(jù)集上進(jìn)行評(píng)價(jià)和改進(jìn)的。然而,它們的數(shù)量有限,場(chǎng)景有限,人們認(rèn)識(shí)到需要更多更復(fù)雜的場(chǎng)景,來(lái)促進(jìn)立體匹配算法的進(jìn)一步改進(jìn)。于是,2011年到2013年間,MiddleBurry大學(xué)的Nera Nesic, Porter Westling, Xi Wang, York Kitajima, Greg Krathwohl, 以及Daniel Scharstein等人又制作了33組數(shù)據(jù)集,2014年大佬Heiko Hirschmüller完成了對(duì)這批數(shù)據(jù)集的優(yōu)化。他們共同在GCPR2014發(fā)表了下面這篇文章,闡述了這批數(shù)據(jù)集的制作方案:c02ecb04-79b5-11ed-8abf-dac502259ad0.jpg我截取幾組圖像如下,其中很多都是在立體匹配研究中經(jīng)常用到的出名的場(chǎng)景,比如我就特別喜歡圖中那個(gè)鋼琴c0530e60-79b5-11ed-8abf-dac502259ad0.jpg那么,這次的數(shù)據(jù)集制作方法相比以前的有什么貢獻(xiàn)呢?主要有下面這幾點(diǎn):1. 作者采用的是可移動(dòng)的雙目系統(tǒng),包括兩個(gè)單反相機(jī),兩個(gè)數(shù)碼相機(jī),以及相應(yīng)的導(dǎo)軌和支架構(gòu)成。這樣就可以在實(shí)驗(yàn)室外拍攝更加豐富的場(chǎng)景。所以最后的數(shù)據(jù)集里面就包括了各種各樣豐富的、更加真實(shí)的場(chǎng)景。而且,這次作者的光照條件更加豐富,有4種,而曝光設(shè)置則有8種。為了能夠重現(xiàn)照明情況,還單獨(dú)拍攝了環(huán)境圖像。下面是論文中的一個(gè)示意圖,你可以看到,摩托車(chē)表面可能會(huì)有高反射區(qū)域,為了能夠準(zhǔn)確的獲取這些區(qū)域的理想視差圖,作者在車(chē)身表面噴涂了特殊的材質(zhì),我想應(yīng)該是為了減少反光,使得匹配能成功。c083e17a-79b5-11ed-8abf-dac502259ad0.jpg2. 更加復(fù)雜的處理流程,得到高精度的數(shù)據(jù)集:c09d321a-79b5-11ed-8abf-dac502259ad0.jpg這里我們看到:1. 2003年的方法沒(méi)有很好的處理標(biāo)定和校正帶來(lái)的誤差,事實(shí)上這樣的誤差會(huì)影響到最終生成的理想視差圖的精度。這里的新方案采用了Bundle Adjustment來(lái)減小標(biāo)定和校正的誤差,進(jìn)一步提升了精度。2. 相比2003年的方法,這里采用了更加魯棒的方式來(lái)解碼結(jié)構(gòu)光信息,并用更好的方法來(lái)進(jìn)行2D匹配,這樣就可以更準(zhǔn)確的進(jìn)行立體校正。在采用了這兩個(gè)優(yōu)化點(diǎn)后,立體校正的精度和穩(wěn)定性都提升了很多:c0debaf0-79b5-11ed-8abf-dac502259ad0.jpg3. 前面我們提到了Illumination Disparity(照明視差)很重要,因此這里引入了更好的自校正模塊,可以得到更好的照明視差4. 另外,為了挑戰(zhàn)立體匹配算法在輸入圖沒(méi)有精確rectify的表現(xiàn),這里還輸出了兩種圖集。一種是經(jīng)過(guò)精確rectify的,保證滿足對(duì)極線水平對(duì)齊。另外一種則是沒(méi)有經(jīng)過(guò)精確rectify的,對(duì)算法的挑戰(zhàn)更大。 因?yàn)槠?,我就不詳?xì)暫開(kāi)講解了。總之,這33組數(shù)據(jù)集中,10組釋放出來(lái)供大家做訓(xùn)練,10組用于測(cè)試(理想視差圖未公開(kāi)),其他的數(shù)據(jù)用于公開(kāi)研究。這些數(shù)據(jù)完整的尺寸甚至達(dá)到了3000x2000,最大視差有達(dá)到800像素的!不僅僅如此,在MiddleBurry官網(wǎng)上還提供了完善的工具,可以加載、評(píng)估、分析這些數(shù)據(jù),可以在此處訪問(wèn):vision.middlebury.edu/sc0f957c0-79b5-11ed-8abf-dac502259ad0.jpg比如其中有個(gè)叫plyv的工具,實(shí)現(xiàn)了視角合成功能,便于我們可以從各個(gè)視角來(lái)觀察場(chǎng)景:c1155236-79b5-11ed-8abf-dac502259ad0.gif

五. 2021年,增加用移動(dòng)設(shè)備拍攝的數(shù)據(jù)集

之前的數(shù)據(jù)集都是用單反相機(jī)作為主要成像設(shè)備的,因此圖像的質(zhì)量非常高。2019年到2021年間,Guanghan Pan, Tiansheng Sun, Toby Weed, 和Daniel Scharstein嘗試了用移動(dòng)設(shè)備來(lái)拍攝立體匹配數(shù)據(jù)集。這里他們采用的是蘋(píng)果的iPod Touch 6G,它被安裝到一個(gè)機(jī)械臂上,在不同視角下拍攝場(chǎng)景。視差圖的生成還是用了上一章介紹的方法,只不過(guò)做了適當(dāng)?shù)牟眉?。這批數(shù)據(jù)一共24組,每個(gè)場(chǎng)景會(huì)有1到3組數(shù)據(jù),下面是例子:c1dd8b52-79b5-11ed-8abf-dac502259ad0.jpg不過(guò)我看這里的視差圖依然是用較大差異的兩視角生成的,對(duì)于當(dāng)今手機(jī)上的小基距雙攝系統(tǒng)來(lái)說(shuō),這個(gè)數(shù)據(jù)集的參考價(jià)值沒(méi)有那么大,畢竟當(dāng)前手機(jī)上的兩個(gè)攝像頭之間基距大概就10mm左右,與這里的情況差距較大。

六. 總結(jié)

這篇文章里,我為你介紹了幾種核心的立體匹配評(píng)價(jià)指標(biāo),以及MiddleBurry大學(xué)的幾代立體匹配數(shù)據(jù)集的制作方式?,F(xiàn)在做相關(guān)研究的人確實(shí)應(yīng)該感謝包括Daniel Scharstein、Richard Szeliski和Heiko Hirschmüller在內(nèi)的先驅(qū)們,他們創(chuàng)建的MiddleBurry立體匹配數(shù)據(jù)集及評(píng)價(jià)系統(tǒng)極大地推動(dòng)了這個(gè)領(lǐng)域的發(fā)展。到了今年,一些計(jì)算機(jī)視覺(jué)界的頂會(huì)論文依然會(huì)描述自己在MiddleBurry 立體匹配數(shù)據(jù)集上的評(píng)價(jià)結(jié)果。目前排名第1的算法是曠視研究院今年推出的CREStereo,相關(guān)成果也發(fā)表到了CVPR2022,并會(huì)做口頭報(bào)告,我之后如有時(shí)間也會(huì)撰文加以講解。c226c808-79b5-11ed-8abf-dac502259ad0.jpg總之,立體匹配算法要繼續(xù)發(fā)展,需要大量符合真實(shí)場(chǎng)景復(fù)雜性的高精度數(shù)據(jù)集,我們學(xué)習(xí)前人的做法,是為了能夠找出更好的方法,制作更多的數(shù)據(jù)。我還會(huì)在接下來(lái)的文章中,給你介紹其他著名的數(shù)據(jù)集,敬請(qǐng)期待。

七. 參考資料

1、MiddleBurry雙目數(shù)據(jù)集2、D. Scharstein and R. Szeliski.A taxonomy and evaluation of dense two-frame stereo correspondence algorithms.International Journal of Computer Vision, 47(1/2/3):7-42, April-June 20023、D. Scharstein and R. Szeliski.High-accuracy stereo depth maps using structured light. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2003),volume 1, pages 195-202, Madison, WI, June 2003.4、D. Scharstein and C. Pal.Learning conditional random fields for stereo. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007),Minneapolis, MN, June 2007.5、H. Hirschmüller and D. Scharstein.Evaluation of cost functions for stereo matching. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007),Minneapolis, MN, June 2007.6、D. Scharstein, H. Hirschmüller, Y. Kitajima, G. Krathwohl, N. Nesic, X. Wang, and P. Westling.High-resolution stereo datasets with subpixel-accurate ground truth. InGerman Conference on Pattern Recognition (GCPR 2014), Münster, Germany,September 2014.7、CMU 2021 Fall Computational Photography Course 15-463, Lecture 18

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92023
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24538

原文標(biāo)題:深度解析MiddleBurry立體匹配數(shù)據(jù)集

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    溫度補(bǔ)償振蕩器TG-3541CE的深度解析

    溫度補(bǔ)償振蕩器TG-3541CE的深度解析
    的頭像 發(fā)表于 07-18 17:48 ?177次閱讀

    深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)解析與優(yōu)化策略

    堆疊多個(gè)隱藏層,逐步提取和轉(zhuǎn)化輸入數(shù)據(jù)的特征,最終實(shí)現(xiàn)復(fù)雜的預(yù)測(cè)和分類任務(wù)。本文將對(duì)DNN的架構(gòu)進(jìn)行詳細(xì)解析,并探討其優(yōu)化策略,以期為相關(guān)研究和應(yīng)用提供參考。
    的頭像 發(fā)表于 07-09 11:00 ?690次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是一個(gè)廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動(dòng)態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時(shí),數(shù)據(jù)是不可或缺的組成部分。然而,很多時(shí)候,我們可能需要使用自己的
    的頭像 發(fā)表于 07-02 14:09 ?540次閱讀

    請(qǐng)問(wèn)NanoEdge AI數(shù)據(jù)該如何構(gòu)建?

    我想用NanoEdge來(lái)識(shí)別異常的聲音,但我目前沒(méi)有辦法生成模型,我感覺(jué)可能是數(shù)據(jù)的問(wèn)題,請(qǐng)問(wèn)我該怎么構(gòu)建數(shù)據(jù)?或者生成模型失敗還會(huì)有哪些原因?
    發(fā)表于 05-28 07:27

    深度解析電化學(xué)儲(chǔ)能最新官方數(shù)據(jù)

    深度解析電化學(xué)儲(chǔ)能最新官方數(shù)據(jù) 近日,中國(guó)電力企業(yè)聯(lián)合會(huì)發(fā)布了《2023年度電化學(xué)儲(chǔ)能電站行業(yè)統(tǒng)計(jì)數(shù)據(jù)》(以下簡(jiǎn)稱“統(tǒng)計(jì)數(shù)據(jù)”),
    發(fā)表于 05-20 11:29 ?379次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>解析</b>電化學(xué)儲(chǔ)能最新官方<b class='flag-5'>數(shù)據(jù)</b>

    機(jī)器學(xué)習(xí)模型偏差與方差詳解

    數(shù)據(jù)的任何變化都將提供一個(gè)不同的估計(jì)值,若使用統(tǒng)計(jì)方法過(guò)度匹配訓(xùn)練數(shù)據(jù)時(shí),這些估計(jì)值非常準(zhǔn)確。一個(gè)一般規(guī)則是,當(dāng)統(tǒng)計(jì)方法試圖更緊密地
    發(fā)表于 03-26 11:18 ?732次閱讀
    機(jī)器學(xué)習(xí)模型偏差與方差詳解

    arcgis空間參考與數(shù)據(jù)框不匹配如何解決

    當(dāng)使用ArcGIS軟件進(jìn)行空間數(shù)據(jù)處理時(shí),經(jīng)常會(huì)遇到空間參考與數(shù)據(jù)框不匹配的問(wèn)題。這種不匹配可能導(dǎo)致數(shù)據(jù)顯示不正確,分析結(jié)果不準(zhǔn)確,甚至引發(fā)
    的頭像 發(fā)表于 02-25 11:17 ?9433次閱讀

    大模型數(shù)據(jù):力量的源泉,進(jìn)步的階梯

    一、引言 在? ? 的繁榮發(fā)展中,大模型數(shù)據(jù)的作用日益凸顯。它們?nèi)琮嫶蟮闹R(shí)庫(kù),為AI提供了豐富的信息和理解能力。本文將用一種獨(dú)特的風(fēng)格來(lái)探討大模型數(shù)據(jù)的魅力和潛力。 二、大模型
    的頭像 發(fā)表于 12-07 17:18 ?526次閱讀

    大模型數(shù)據(jù):構(gòu)建、挑戰(zhàn)與未來(lái)趨勢(shì)

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,大型預(yù)訓(xùn)練模型如GPT-4、BERT等在各個(gè)領(lǐng)域取得了顯著的成功。這些大模型背后的關(guān)鍵之一是龐大的數(shù)據(jù),為模型提供了豐富的知識(shí)和信息。本文將探討大模型數(shù)據(jù)
    的頭像 發(fā)表于 12-06 15:28 ?1228次閱讀

    機(jī)器視覺(jué)檢測(cè)發(fā)展的幾個(gè)歷程和趨勢(shì)

    主要針對(duì)光學(xué)成像的逆問(wèn)題,是由能從二維光強(qiáng)度陣列恢復(fù)三維可見(jiàn)表面物理性質(zhì)的一系列處理過(guò)程組成。這里各過(guò)程的輸入數(shù)據(jù)及計(jì)算目的都是能夠明確描述的,如邊緣檢測(cè)、立體匹配、由運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)等方法。
    的頭像 發(fā)表于 12-04 10:33 ?844次閱讀

    速銳得如何破解大眾朗逸電動(dòng)汽車(chē)智能網(wǎng)聯(lián)應(yīng)用中儀表CAN總線數(shù)據(jù)

    隨著汽車(chē)電子進(jìn)入電動(dòng)化+智能網(wǎng)聯(lián)的時(shí)代,新能源、車(chē)聯(lián)網(wǎng)、智能化、電動(dòng)化四個(gè)領(lǐng)域帶來(lái)了CAN數(shù)據(jù)的需求,企業(yè)車(chē)隊(duì)管理需要數(shù)據(jù),汽車(chē)運(yùn)營(yíng)需要數(shù)據(jù),改裝、解碼、匹配工具打造需要
    的頭像 發(fā)表于 11-30 16:12 ?1571次閱讀
    速銳得如何破解大眾朗逸電動(dòng)汽車(chē)智能網(wǎng)聯(lián)應(yīng)用中儀表CAN總線<b class='flag-5'>數(shù)據(jù)</b>呢

    速銳得破解大眾朗逸電動(dòng)汽車(chē)智能網(wǎng)聯(lián)應(yīng)用中儀表CAN總線數(shù)據(jù)

    隨著汽車(chē)電子進(jìn)入電動(dòng)化+智能網(wǎng)聯(lián)的時(shí)代,新能源、車(chē)聯(lián)網(wǎng)、智能化、電動(dòng)化四個(gè)領(lǐng)域帶來(lái)了CAN數(shù)據(jù)的需求,企業(yè)車(chē)隊(duì)管理需要數(shù)據(jù),汽車(chē)運(yùn)營(yíng)需要數(shù)據(jù),改裝、解碼、匹配工具打造需要
    的頭像 發(fā)表于 11-30 16:00 ?384次閱讀
    速銳得破解大眾朗逸電動(dòng)汽車(chē)智能網(wǎng)聯(lián)應(yīng)用中儀表CAN總線<b class='flag-5'>數(shù)據(jù)</b>

    基于RGM的魯棒且通用的特征匹配

    在一對(duì)圖像中尋找匹配的像素是具有各種應(yīng)用的基本計(jì)算機(jī)視覺(jué)任務(wù)。由于光流估計(jì)和局部特征匹配等不同任務(wù)的特定要求,以前的工作主要分為稠密匹配和稀疏特征匹配,側(cè)重于特定的體系結(jié)構(gòu)和特定任務(wù)的
    的頭像 發(fā)表于 11-27 11:32 ?436次閱讀
    基于RGM的魯棒且通用的特征<b class='flag-5'>匹配</b>

    計(jì)算機(jī)視覺(jué)中的立體視覺(jué)和深度感知Python示例實(shí)現(xiàn)

    在人工智能和圖像處理的迷人世界中,這些概念在使機(jī)器能夠像我們的眼睛一樣感知我們周?chē)娜S世界中起著關(guān)鍵作用。和我們一起探索立體視覺(jué)和深度感知背后的技術(shù),揭示計(jì)算機(jī)如何從二維圖像中獲得深度、距離和空間理解的秘密。
    的頭像 發(fā)表于 11-21 10:50 ?496次閱讀

    C語(yǔ)言深度解析

    C語(yǔ)言深度解析,本資料來(lái)源于網(wǎng)絡(luò),對(duì)C語(yǔ)言的學(xué)習(xí)有很大的幫助,有著較為深刻的解析,可能會(huì)對(duì)讀者有一定的幫助。
    發(fā)表于 09-28 07:00