0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視差Disparity與深度圖

ml8z_IV_Technol ? 來源:lq ? 2019-02-11 16:32 ? 次閱讀

雙目立體視覺,在百度百科里的解釋是這樣解釋的:雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,它是基于視差原理并利用成像設(shè)備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應(yīng)點間的位置偏差,來獲取物體三維幾何信息的方法。

一 、視差 Disparity與深度圖

提到雙目視覺就不得不提視差圖:雙目立體視覺融合兩只眼睛獲得的圖像并觀察它們之間的差別,使我們可以獲得明顯的深度感,建立特征間的對應(yīng)關(guān)系,將同一空間物理點在不同圖像中的映像點對應(yīng)起來,這個差別,我們稱作視差(Disparity)圖像。

對于視差的理解自己可以體驗一下:將手指頭放在離眼睛不同距離的位置,并輪換睜、閉左右眼,可以發(fā)現(xiàn)手指在不同距離的位置,視覺差也不同,且距離越近,視差越大。

那么提到視差圖,就有深度圖,深度圖像也叫距離影像,是指將從圖像采集器到場景中各點的距離(深度)值作為像素值的圖像。獲取方法有:激光雷達(dá)深度成像法、計算機立體視覺成像、坐標(biāo)測量機法、莫爾條紋法、結(jié)構(gòu)光法。

那么這里引申一下深度圖與點云的區(qū)別,點云:當(dāng)一束激光照射到物體表面時,所反射的激光會攜帶方位、距離等信息。若將激光束按照某種軌跡進(jìn)行掃描,便會邊掃描邊記錄到反射的激光點信息,由于掃描極為精細(xì),則能夠得到大量的激光點,因而就可形成激光點云。

深度圖像經(jīng)過坐標(biāo)轉(zhuǎn)換可以計算為點云數(shù)據(jù);有規(guī)則及必要信息的點云數(shù)據(jù)可以反算為深度圖像。兩者在一定條件下是可以相互轉(zhuǎn)化的,之前的博客里,有使用PCL庫實現(xiàn)過點云提取深度圖,當(dāng)然給出相機參數(shù)也是可以由深度圖轉(zhuǎn)為點云的。截圖一個深度圖:

所以深度與視差的關(guān)系如下

比如絕對差值法絕對差值圖的計算方法如下:

D=|L-R|

式中,L、R和D分別代表左視圖、右視圖和對應(yīng)的絕對差值圖的亮度值。絕對差值圖并不是嚴(yán)格意義上的視差圖,但是它的計算方法最為簡單,速度快,它給出的結(jié)果可以作為參考

那么我們知道視差又有另外一個概念就是UV-disparity mapping,簡單的給個圖表示:

是怎么得到這個結(jié)果的呢?原來是統(tǒng)計統(tǒng)計視差的個數(shù),比如V-disparity Map中的第一行分別統(tǒng)計視差為0,1,2,3,4,5的個數(shù),所以得到了V-disparity Map的第一行分別為

0,2,0,1,1,1,那么在真實的圖喜愛那個中得到的結(jié)果如下:

那么利用視差可以做很多有用的功能,比如列舉一篇文章

UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios

二 Rays

ray就是連接圖像上一點到光心形成的一條射線。這個也是之后的對極約束的基礎(chǔ)。

那么建立世界坐標(biāo)系,我們的兩條rays是相交的。如下圖所示,接下來就是利用rays的相交關(guān)系,來解釋対極幾何(Epipolar geometry)了。

以上的圖文說明明了對極幾何(Epipolar Geometry)描述的是兩幅視圖之間的內(nèi)在射影關(guān)系,與外部場景無關(guān),只依賴于攝像機內(nèi)參數(shù)和這兩幅試圖之間的的相對姿態(tài)。

有以下幾種概念

1. 基線(baseline):直線Oc-Oc'為基線。

2.對極平面束(epipolar pencil):以基線為軸的平面束。

3.對極平面(epipolar plane):任何包含基線的平面都稱為對極平面。

4.對極點(epipole):攝像機的基線與每幅圖像的交點。比如,上圖中的點e和e'。

5. 對極線(epipolar line):對極平面與圖像的交線。比如,上圖中的直線l和l'。

6. 5點共面:點x,x',攝像機中心Oc Oc',空間點X是5點共面的。

7. 極線約束:兩極線上點的對應(yīng)關(guān)系。

說明:

直線l是對應(yīng)于點x'的極線,直線l'是對應(yīng)于點x的極線。極線約束是指點x'一定在對應(yīng)于x的極線l'上,點x一定在對應(yīng)于x'的極線l上。

根據(jù)以上原理就得出了基礎(chǔ)矩陣F和本質(zhì)矩陣E等,網(wǎng)上有很多資料的

這里直接將推導(dǎo)公式貼出來就好了

本質(zhì)矩陣E的基本性質(zhì):秩為2,且僅依賴于外部參數(shù)R和T。其中,P表示世界坐標(biāo)點矢量,p表示像素點矢量

那么基礎(chǔ)矩陣求法:由于本質(zhì)矩陣E并不包含相機內(nèi)參信息,且E是面向相機坐標(biāo)系的。實際上,我們更感興趣的是在像素坐標(biāo)系上去研究一個像素點在另一視圖上的對極線,這就需要用到相機內(nèi)參信息將相機坐標(biāo)系和像素坐標(biāo)系聯(lián)系起來。假設(shè)Pl和Pr是世界坐標(biāo)值,其對應(yīng)的像素坐標(biāo)值為Ql和Qr

相機內(nèi)參矩陣為M,那么

根據(jù)

那么

令基礎(chǔ)矩陣

那么

也就是我們在下圖的第一幅圖找到一個特征點,通過以上対極幾何的知識推導(dǎo)出,該點在第二幅圖位于圖喜的哪個位置

舉個例子,比如kinect

無論是雙目還是kinect都是類似的原理

f=Focal length

b=Baseline

d=Disparity value

ps=Pixel size

D=Depth

Focal length

Baseline

Pixel size

Disparity

備注:

(Pixel size)像素大小是圖像傳感器中單個像素的大小。像素大小用微米表示。由于立體視覺系統(tǒng)使用兩個攝像機,圖像傳感器的像素大小必須相同。隨著像素尺寸的減小,系統(tǒng)的深度范圍增大。

(Disparity value)視差是指在兩個攝像機圖像之間的像素位置的差異。假設(shè)立體視覺相機中的左圖像在位置(1,30)具有像素,并且相同的像素在右圖像中的位置(4,30)存在,視差值或差值為(4-1)=3。視差值與上述公式的深度成反比。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1078

    瀏覽量

    40375
  • 立體視覺
    +關(guān)注

    關(guān)注

    0

    文章

    36

    瀏覽量

    9767
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    967

    文章

    3921

    瀏覽量

    189442

原文標(biāo)題:雙目視覺簡介

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何結(jié)合深度學(xué)習(xí)和深度圖在三個項目中取得有效的成果

    傳統(tǒng)獲取深度圖的方法是利用雙目立體視覺獲取視差信息從而得到環(huán)境的深度的。而今天大多使用的深度傳感器則是基于結(jié)構(gòu)光傳感器的原理,通過將已知模式的紅外光投影到環(huán)境并解算來實現(xiàn)
    的頭像 發(fā)表于 11-01 09:43 ?7692次閱讀

    快速有效提取濃密視差的方法

    快速有效提取濃密視差的方法:采用邊緣匹配和區(qū)域相關(guān)相結(jié)合的辦法,用Gauss-Laplace算子首先對圖像進(jìn)行運算,提取圖像的邊緣像素,并根據(jù)一定約束條件匹配邊緣像素,再將圖像對視作對稱,以相關(guān)值
    發(fā)表于 06-14 00:21

    深度表數(shù)據(jù)結(jié)構(gòu)的疑問

    查看器中看到它可以有兩個值:0和1但我找不到任何關(guān)于它的文檔哪個是深度單位的默認(rèn)單位度量?毫米,厘米或米?這是深度單位和視差偏移的允許值的范圍?我可以考慮在觀察者中顯示的那些嗎?夾具是否僅控制
    發(fā)表于 11-08 11:09

    如何從深度圖像中找到3或5個中心像素

    嗨,大家好,我試圖從深度圖像中找到幾個中心像素。我正在嘗試實現(xiàn)分割,我需要找到分割對象的距離。這就是我的想法,這將是有效的。當(dāng)彩色圖像用于分割時,全幀深度圖像將用于找到距離。在我的下面的代碼中。我
    發(fā)表于 11-19 14:19

    如何從D435獲取16位深度圖像?

    我從realsense查看器中獲取d435深度相機的數(shù)據(jù),當(dāng)我保存深度圖像的快照時,我在規(guī)格中得到8位(1-256)灰度圖像,據(jù)說相機給出了16位深度圖片。你知道我怎么能得到16位圖像?以上
    發(fā)表于 11-27 14:11

    D435深度圖的焦點在哪里?

    我從英特爾 - RealSense-D400系列 - 數(shù)據(jù)表.pdf第94頁的圖紙中推測,深度傳感器的中心距攝像機右側(cè)(USB側(cè))37.5毫米:根據(jù)經(jīng)驗,我推斷深度圖焦點X在相機的臉后面約32mm
    發(fā)表于 12-05 10:52

    基于Dragonboard 410c的kinect應(yīng)用系列之三——獲取深度圖實例介紹

    上篇文章我們介紹了SimpleOpenNI開發(fā)平臺搭建,今天小編繼續(xù)為大家講解用kinect繪制深度圖與繪制人體軀干實例具體操作過程!
    發(fā)表于 02-21 10:43 ?1417次閱讀
    基于Dragonboard 410c的kinect應(yīng)用系列之三——獲取<b class='flag-5'>深度圖</b>實例介紹

    基于深度圖像重建Matlab代碼

    本文檔內(nèi)容介紹了基于深度圖像重建Matlab代碼,供網(wǎng)友參考。
    發(fā)表于 09-15 10:03 ?21次下載
    基于<b class='flag-5'>深度圖</b>像重建Matlab代碼

    各向異性擴散深度圖像增強算法

    深度圖像受其測距原理所限,存在邊緣不匹配、無效像素、噪聲等問題,提出一種基于改進(jìn)的各向異性擴散算法的深度圖像增強方法。首先,校正深度圖像和彩色圖像的位置關(guān)系,并根據(jù)時間連續(xù)性選擇多幀圖像,進(jìn)行多幀
    發(fā)表于 11-25 11:08 ?9次下載
    各向異性擴散<b class='flag-5'>深度圖</b>像增強算法

    小波域分布式深度圖視頻編碼

    針對分布式多視點加深度格式( DMVD)的視頻編碼中深度圖視頻解碼質(zhì)量問題,提出一種結(jié)合予帶層及子帶系數(shù)的小波域分布式深度視頻非均勻量化方案,通過給邊緣分配更多比特來提升深度圖的邊緣質(zhì)
    發(fā)表于 12-20 16:34 ?1次下載

    基于Kinect深度圖預(yù)處理

    針對應(yīng)用在機器人三維(3D)場景感知測量中,Kinect深度圖的聯(lián)合雙邊濾波(JBF)存在降低原始場景深度信息精確度的制約性問題,提出一種新的預(yù)處理算法。首先,通過構(gòu)建深度圖的測量和采樣模型,得到
    發(fā)表于 12-25 16:58 ?0次下載
    基于Kinect<b class='flag-5'>深度圖</b>預(yù)處理

    基于主成分分析方向深度梯度直方圖的特征提取算法

    針對立體視覺深度圖特征提取精確度低、復(fù)雜度高的問題,提出了一種基于主成分分析方向深度梯度直方圖( PCA-HODG)的特征提取算法。首先,對雙目立體視覺圖像進(jìn)行視差計算和深度圖提取,獲
    發(fā)表于 12-26 14:32 ?0次下載
    基于主成分分析方向<b class='flag-5'>深度</b>梯度直方圖的特征提取算法

    如何使用深度圖進(jìn)行3D-HEVC魯棒視頻水印算法資料說明

    針對多視點加深度格式的3D視頻中深度圖魯棒性不足的問題,提出了一種基于深度圖的3D魯棒視頻水印算法。首先,將深度圖不重疊的劃分為4x4大小的塊,計算每一塊像素域的均方差,并設(shè)置一個閡值
    發(fā)表于 04-04 14:54 ?4次下載
    如何使用<b class='flag-5'>深度圖</b>進(jìn)行3D-HEVC魯棒視頻水印算法資料說明

    雙目視覺的原理和應(yīng)用

    視差Disparity):視差是指同一物體在兩個圖像中投影點之間的水平距離,它與物體到相機的距離成反比,因此可以用來估計物體的深度。視差
    發(fā)表于 06-19 10:14 ?2130次閱讀
    雙目視覺的原理和應(yīng)用

    深度圖像的獲取方法主要有哪些

    ? 今天介紹一下深度圖像的獲取方法主要有哪些,以及這些方法會導(dǎo)致深度圖像中存在什么樣的問題。 在計算機視覺系統(tǒng)中,三維場景信息為圖像分割、目標(biāo)檢測、物體跟蹤等各類計算機視覺應(yīng)用提供了更多的可能性,而
    的頭像 發(fā)表于 06-25 16:26 ?1061次閱讀
    <b class='flag-5'>深度圖</b>像的獲取方法主要有哪些