亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于雙權(quán)重聚合的立體匹配方法

文檔序號:6544245閱讀:187來源:國知局
一種基于雙權(quán)重聚合的立體匹配方法
【專利摘要】本發(fā)明公開了一種基于雙權(quán)重聚合的立體匹配方法,涉及立體匹配領(lǐng)域,所述方法包括:獲取參考圖、目標(biāo)圖中每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價;根據(jù)每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價獲取視差空間;對所述視差空間求取最小值分別得到以左圖為參考圖的左圖初始視差圖、以右圖為參考圖的右圖初始視差圖;對左右初始視差圖進(jìn)行一致性校驗(yàn),得到一幅精確的左圖視差圖;對所述視差空間采用雙曲線聯(lián)合拋物線方法平滑獲得精度更高的亞像素級別的視差圖。本發(fā)明能夠得到更準(zhǔn)確的視差圖,對圖像的魯棒性增強(qiáng),具有準(zhǔn)確率高、擴(kuò)展性強(qiáng)等優(yōu)點(diǎn),有著廣泛的應(yīng)用前景。
【專利說明】—種基于雙權(quán)重聚合的立體匹配方法【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及計(jì)算機(jī)立體視覺領(lǐng)域中的立體匹配,尤其涉及一種基于雙權(quán)重聚合的立體匹配方法,可用于圖像的三維重建,在醫(yī)學(xué)圖像、媒體設(shè)備等中提供指導(dǎo)。
【背景技術(shù)】
[0002]立體匹配是根據(jù)同一場景內(nèi)多幅不同視角的二維圖像,來獲得該場景內(nèi)各物體的深度信息,該技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn),近年來得到廣泛的關(guān)注。局部立體匹配方法利用興趣點(diǎn)周圍的局部信息進(jìn)行相關(guān)計(jì)算,涉及信息量較少,相應(yīng)的計(jì)算復(fù)雜度較低,具有速度快、效率高的優(yōu)點(diǎn)。
[0003]傳統(tǒng)的局部立體匹配方法,一般采用基于窗口聚合的匹配方法獲得初始視差圖,然后對初始視差圖進(jìn)行優(yōu)化得到最終視差圖。例如,有的科研人員提出基于固定窗口的匹配方法獲取視差圖, 此方法雖然計(jì)算簡便,但由于低紋理區(qū)域應(yīng)該采用大尺寸窗口進(jìn)行匹配,高紋理區(qū)域應(yīng)該采用小尺寸窗口進(jìn)行匹配,所以采用固定窗口的匹配方法對于不同場景的匹配缺乏自適應(yīng)性。也有一些科研人員提出自適應(yīng)權(quán)重匹配方法,但由于此方法只涉及到單一的權(quán)重,導(dǎo)致匹配效果不理想。上述方法只是對于某一類的圖像匹配效果較為理想,不適用于普通圖像的立體匹配,難以滿足實(shí)際應(yīng)用的需要。
[0004]目前,在低紋理及高紋理交替出現(xiàn)的圖像中誤匹配率較高,難以獲得較高的立體匹配精度,這也是眾多科研人員在立體匹配中所面臨的問題。隨著電子科技的發(fā)展,立體匹配在軍事、工業(yè)、醫(yī)療器材、監(jiān)控系統(tǒng)、視覺導(dǎo)航、人機(jī)交互、虛擬現(xiàn)實(shí)和無人機(jī)等方面都有非常廣泛的應(yīng)用背景,具有很大的商業(yè)價值、使用價值和研究意義。近年來,計(jì)算機(jī)立體視覺理論的發(fā)展為獲得高精度的立體匹配提供了理論依據(jù)。

【發(fā)明內(nèi)容】

[0005]本發(fā)明提供了一種基于雙權(quán)重聚合的立體匹配方法,本發(fā)明從改進(jìn)匹配代價聚合的方式出發(fā)獲取初始視差圖,同時在視差優(yōu)化階段改進(jìn)視差平滑的策略以此來解決傳統(tǒng)局部立體匹配方法在匹配過程中所出現(xiàn)的誤匹配率較高的問題,詳見下文描述:
[0006]一種基于雙權(quán)重聚合的立體匹配方法,所述方法包括以下步驟:
[0007]獲取參考圖、目標(biāo)圖中每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價;
[0008]根據(jù)每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價獲取視差空間;
[0009]對所述視差空間求取最小值分別得到以左圖為參考圖的左圖初始視差圖、以右圖為參考圖的右圖初始視差圖;
[0010]對左右初始視差圖進(jìn)行一致性校驗(yàn),得到一幅精確的左圖視差圖;
[0011]對所述視差空間采用雙曲線聯(lián)合拋物線方法平滑獲得精度更高的亞像素級別的視差圖。
[0012]所述獲取參考圖、目標(biāo)圖中每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價的步驟具體為:[0013]選取預(yù)處理后的左圖作為參考圖,預(yù)處理后的右圖為目標(biāo)圖;
[0014]對參考圖、目標(biāo)圖分別提取各自RGB三個通道的亮度信息并運(yùn)用截斷絕對亮度差值方法獲得每個參考像素點(diǎn)的亮度匹配代價,同時對參考圖,目標(biāo)圖分別提取各自RGB三個通道的水平、豎直方向梯度信息并運(yùn)用截斷絕對梯度差值方法獲得每個參考像素點(diǎn)的梯度匹配代價。
[0015]所述根據(jù)每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價獲取視差空間的步驟具體為:
[0016]采用指數(shù)函數(shù)結(jié)合對數(shù)函數(shù)的方法對每個參考像素點(diǎn)的亮度匹配代價和梯度匹配代價設(shè)置相應(yīng)的亮度聚合權(quán)重和梯度聚合權(quán)重,然后分別進(jìn)行權(quán)重匹配代價聚合獲得每個參考像素點(diǎn)的總亮度匹配代價和總梯度匹配代價,將總亮度匹配代價和總梯度匹配代價賦以相應(yīng)的權(quán)重組成視差空間。
[0017]本發(fā)明提供的技術(shù)方案的有益效果是:本發(fā)明針對傳統(tǒng)局部立體匹配方法的不足,在原有方法上進(jìn)行改進(jìn),首先采用截斷絕對亮度差值(TAD)和截斷絕對梯度差值方法(TAG)分別獲得亮度匹配代價和梯度匹配代價,并類比雙邊濾波特性采用指數(shù)函數(shù)結(jié)合對數(shù)函數(shù)的方法設(shè)置相應(yīng)的亮度聚合權(quán)重和梯度聚合權(quán)重,結(jié)合最小化視差空間方法以獲得原始視差圖;然后通過對左、右視差圖進(jìn)行一致性檢測,提取出有效的像素點(diǎn)集,提高視差圖的準(zhǔn)確性;最后采用雙曲線聯(lián)合拋物線方法平滑視差空間的方法以提高視差圖的精度。本發(fā)明與現(xiàn)有技術(shù)相比的優(yōu)點(diǎn)在于:
[0018](I)將兩種不同聚合匹配代價的權(quán)重分開來考慮,即TAD匹配代價的聚合權(quán)重依賴于亮度信息的差異,TAG匹配代價的聚合權(quán)重依賴于梯度信息的差異,這樣的聚合權(quán)重設(shè)置更能反映不同權(quán)重對不同匹配代價的影響,且權(quán)重的設(shè)置使用RGB三個通道的信息,較使用單一通道信息更為可靠。
[0019](2)在視差優(yōu)化階段采用新的曲線平滑視差空間的策略,獲得更高精度的視差圖,在低紋理和視差連續(xù)區(qū)域都能獲得更準(zhǔn)確的視差圖,在遮擋區(qū)域也取得了比較理想的效果。。
[0020]總之,本發(fā)明將原有的局部立體匹配方法進(jìn)行改進(jìn),提出一種基于雙權(quán)重聚合的立體匹配方法,類比雙邊濾波器的特性采用指數(shù)函數(shù)結(jié)合對數(shù)函數(shù)的方法設(shè)置匹配代價聚合的權(quán)重獲得每一點(diǎn)的聚合匹配代價,并將匹配代價聚合過程分離開來,利用不同聚合權(quán)重進(jìn)行匹配代價聚合。在視差優(yōu)化階段,采用雙曲線聯(lián)合拋物線對視差空間平滑,得到亞像素精度視差。本發(fā)明能夠得到更準(zhǔn)確的視差圖,對圖像的魯棒性增強(qiáng),具有準(zhǔn)確率高、擴(kuò)展性強(qiáng)等優(yōu)點(diǎn),有著廣泛的應(yīng)用前景。
【專利附圖】

【附圖說明】
[0021]圖1本發(fā)明的基于雙權(quán)重聚合的立體匹配方法流程圖;
[0022]圖2為本發(fā)明與傳統(tǒng)局部立體匹配算法對同一幅標(biāo)準(zhǔn)測試圖像匹配效果對比,(a)、 (b)
[0023]圖為矯正過的測試圖像;(C)為經(jīng)過視差優(yōu)化后的傳統(tǒng)方法最終匹配效果圖;(d)為經(jīng)過視差優(yōu)化后的本發(fā)明最終匹配效果圖。
[0024]圖3為本發(fā)明與傳統(tǒng)局部立體匹配算法對同一幅實(shí)際拍得的圖像匹配效果對比,(a)、(b)圖為矯正過的測試圖像;(c)為經(jīng)過視差優(yōu)化后的傳統(tǒng)方法最終匹配效果圖;(d)為經(jīng)過視差優(yōu)化后的本發(fā)明最終匹配效果圖。
【具體實(shí)施方式】
[0025]為使本發(fā)明的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚,下面對本發(fā)明實(shí)施方式作進(jìn)一步地詳細(xì)描述。
[0026]為了解決傳統(tǒng)局部立體匹配方法在匹配過程中所出現(xiàn)的誤匹配率較高的問題,本發(fā)明實(shí)施例提供了一種基于雙權(quán)重聚合的立體匹配方法,參見圖1,詳見下文描述:
[0027]101:對左右兩幅圖像進(jìn)行矯正預(yù)處理;
[0028]102:預(yù)處理后,選取左圖作為參考圖,右圖為目標(biāo)圖(參考圖與目標(biāo)圖的概念是相對的,選擇一方為參考圖,另一方即為目標(biāo)圖),做匹配之時以參考圖為基準(zhǔn),在目標(biāo)圖上進(jìn)行對應(yīng)點(diǎn)的匹配搜索;
[0029]103:對參考圖、目標(biāo)圖分別提取各自RGB三個通道的亮度信息并運(yùn)用截斷絕對亮度差值方法獲得每個參考像素點(diǎn)的亮度匹配代價,同時對參考圖,目標(biāo)圖分別提取各自RGB三個通道的水平、豎直方向梯度信息并運(yùn)用截斷絕對梯度差值方法獲得每個參考像素點(diǎn)的梯度匹配代價;
【權(quán)利要求】
1.一種基于雙權(quán)重聚合的立體匹配方法,其特征在于,所述方法包括以下步驟: 獲取參考圖、目標(biāo)圖中每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價; 根據(jù)每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價獲取視差空間; 對所述視差空間求取最小值分別得到以左圖為參考圖的左圖初始視差圖、以右圖為參考圖的右圖初始視差圖; 對左右初始視差圖進(jìn)行一致性校驗(yàn),得到一幅精確的左圖視差圖; 對所述視差空間采用雙曲線聯(lián)合拋物線方法平滑獲得精度更高的亞像素級別的視差圖。
2.根據(jù)權(quán)利要求1所述的一種基于雙權(quán)重聚合的立體匹配方法,其特征在于,所述獲取參考圖、目標(biāo)圖中每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價的步驟具體為: 選取預(yù)處理后的左圖作為參考圖,預(yù)處理后的右圖為目標(biāo)圖; 對參考圖、目標(biāo)圖分別提取各自RGB三個通道的亮度信息并運(yùn)用截斷絕對亮度差值方法獲得每個參考像素點(diǎn)的亮度匹配代價,同時對參考圖,目標(biāo)圖分別提取各自RGB三個通道的水平、豎直方向梯度信息并運(yùn)用截斷絕對梯度差值方法獲得每個參考像素點(diǎn)的梯度匹配代價。
3.根據(jù)權(quán)利要求1所述的一種基于雙權(quán)重聚合的立體匹配方法,其特征在于,所述根據(jù)每個參考像素點(diǎn)的亮度匹配代價、梯度匹配代價獲取視差空間的步驟具體為: 采用指數(shù)函數(shù)結(jié)合對數(shù)函數(shù)的方法對每個參考像素點(diǎn)的亮度匹配代價和梯度匹配代價設(shè)置相應(yīng)的亮度聚合權(quán)重和梯度聚合權(quán)重,然后分別進(jìn)行權(quán)重匹配代價聚合獲得每個參考像素點(diǎn)的總亮度匹配代價和總梯度匹配代價,將總亮度匹配代價和總梯度匹配代價賦以相應(yīng)的權(quán)重組成視差空間。
【文檔編號】G06T7/00GK103971366SQ201410158102
【公開日】2014年8月6日 申請日期:2014年4月18日 優(yōu)先權(quán)日:2014年4月18日
【發(fā)明者】何凱, 朱程濤, 姚靜嫻, 王曉文 申請人:天津大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1