一種基于深度信息提取的多聚焦圖像融合方法
【專利摘要】本發(fā)明屬于圖像處理【技術(shù)領(lǐng)域】,涉及一種基于深度信息提取的多聚焦圖像融合方法,廣泛應(yīng)用于目標(biāo)識(shí)別,顯微成像,軍事作戰(zhàn),機(jī)器視覺等領(lǐng)域。本發(fā)明首先利用各向異性熱擴(kuò)散理論建模多聚焦圖像的成像過(guò)程,獲取原始的多聚焦圖像的深度信息,根據(jù)圖像信息確定聚焦區(qū)域,得到多聚焦圖像融合模板,最后根據(jù)平滑的多層次融合模板圖進(jìn)行多聚焦圖像的融合。本方法不僅能夠有效的提高融合圖像的質(zhì)量,并且具有良好的實(shí)用性和廣泛的適用性。
【專利說(shuō)明】一種基于深度信息提取的多聚焦圖像融合方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及一種多聚焦圖像融合方法,尤其是涉及一種基于深度信息提取的多聚焦圖像融合方法。
【背景技術(shù)】
[0002]光學(xué)鏡頭在進(jìn)行光學(xué)成像的過(guò)程中,由于光學(xué)成像系統(tǒng)的聚焦范圍有限,會(huì)使處于聚焦區(qū)域外的物體成像模糊.而多聚焦圖像融合能夠?qū)劢箙^(qū)域不同的多個(gè)圖像進(jìn)行融合處理,合成清晰圖像,改善視覺效果.目前多聚焦圖像融合已在目標(biāo)識(shí)別,顯微成像,軍事作戰(zhàn),機(jī)器視覺等領(lǐng)域得到了廣泛應(yīng)用.多聚焦圖像融合的方法主要分為兩類:基于空間域的方法和基于變換域的方法。
[0003]基于空間域的方法主要依據(jù)圖像像素的空間特征信息對(duì)圖像進(jìn)行融合處理.由于單像素?zé)o法表示圖像空間特征信息,一般采用分塊的方法,然后計(jì)算出每個(gè)小塊的清晰度,以此來(lái)進(jìn)行圖像融合的處理,該方法對(duì)于區(qū)域細(xì)節(jié)豐富的圖像有較好的處理效果,但是對(duì)平坦區(qū)域的處理容易造成誤判,分塊的大小也難以選擇,計(jì)算量較大,并且會(huì)使圖像邊緣出現(xiàn)不連續(xù)的小塊,產(chǎn)生嚴(yán)重的塊效應(yīng)。
[0004]而基于變換域的方法則是將圖像進(jìn)行某種變換,然后進(jìn)行融合處理?;诮鹱炙儞Q的多聚焦圖像融合算法是一種經(jīng)典的圖像融合算法,能夠得到不錯(cuò)的融合效果,但是處理過(guò)程復(fù)雜并且容易丟失圖像細(xì)節(jié)信息。小波變換由于其良好的時(shí)域和頻域局部特性以及多分辨特性在圖像融合領(lǐng)域也有廣泛應(yīng)用,但其有限的方向分解性并不能很好的提取出圖像特征。于是,近幾年多尺度幾何分析的方法被人們廣泛應(yīng)用于多聚焦圖像融合領(lǐng)域,如脊波(Ridgelet),曲線波(Curelet),輪廓波(Contourlet),剪切波(Shearlet)等.Ridgelet變換是一種非自適應(yīng)的高維函數(shù)表示方法,對(duì)含直線奇異的多變量函數(shù)能夠達(dá)到最優(yōu)的逼近階;Curvelet變換能夠很好的對(duì)封閉曲線進(jìn)行逼近;Contourlet變換繼承了 Curvelet變換的各向異性尺度關(guān)系;Shearlet變換在頻率域上具有緊支撐性,局部特性較好?;陬l域的方法很大程度上可以解決空間域算法中塊效應(yīng)的問(wèn)題,但是它無(wú)法直接提取多聚焦源圖像中的清晰像素點(diǎn),需要通過(guò)反變換來(lái)進(jìn)行融合圖像的重構(gòu),對(duì)源清晰圖像的信息保留較少,并且會(huì)因?yàn)槎喑叨认聦?duì)應(yīng)融合系數(shù)的來(lái)源不一致而產(chǎn)生偽Gibbs現(xiàn)象,使處理后的圖像邊緣出現(xiàn)虛假輪廓,紋理等人工效應(yīng)。
【發(fā)明內(nèi)容】
[0005]本發(fā)明主要是解決現(xiàn)有技術(shù)所存在的技術(shù)問(wèn)題;提供了一種能夠消除邊緣的塊效應(yīng),抑制虛假邊緣等人工副效應(yīng)的產(chǎn)生,盡可能多地保留原始圖像的信息,維持圖像清晰度,提高融合圖像的質(zhì)量的一種基于深度信息提取的多聚焦圖像融合方法。
[0006]本發(fā)明的上述技術(shù)問(wèn)題主要是通過(guò)下述技術(shù)方案得以解決的:
[0007]—種基于深度信息提取的多聚焦圖像融合方法,其特征在于,包括以下步驟:
[0008]步驟1:采集一組多聚焦圖像,該多聚焦圖像是同一場(chǎng)景下分別聚焦于前景、背景的一組多聚焦圖像;
[0009]步驟2:利用各向異性熱擴(kuò)散理論建模多聚焦圖像的成像過(guò)程,獲取步驟I中采集的原始的多聚焦圖像的深度信息,該深度信息的提取基于帶有正則化項(xiàng)的能量泛函極值求取,并通過(guò)迭代獲得場(chǎng)景的深度信息;包括以下子步驟:
[0010]步驟2.1:獲取拍攝多聚焦圖像的相機(jī)的標(biāo)定參數(shù),并設(shè)定閾值ε,虛擬時(shí)間At,正則化參數(shù)α,步長(zhǎng)β以及迭代次數(shù)Nit ;相機(jī)的標(biāo)定參數(shù)包括焦距f,象距Vl和ν2,鏡頭孔徑D,相機(jī)參數(shù)Y ;
[0011]步驟2.2:初始化深度信息
【權(quán)利要求】
1.一種基于深度信息提取的多聚焦圖像融合方法,其特征在于,包括以下步驟: 步驟1:采集一組多聚焦圖像,該多聚焦圖像是同一場(chǎng)景下分別聚焦于前景、背景的一組多聚焦圖像; 步驟2:利用各向異性熱擴(kuò)散理論建模多聚焦圖像的成像過(guò)程,獲取步驟I中采集的原始的多聚焦圖像的深度信息,該深度信息的提取基于帶有正則化項(xiàng)的能量泛函極值求取,并通過(guò)迭代獲得場(chǎng)景的深度信息;包括以下子步驟: 步驟2.1:獲取拍攝多聚焦圖像的相機(jī)的標(biāo)定參數(shù),并設(shè)定閾值ε,虛擬時(shí)間At,正則化參數(shù)α,步長(zhǎng)β以及迭代次數(shù)Nit ;相機(jī)的標(biāo)定參數(shù)包括焦距f,象距Vl和ν2,鏡頭孔徑D,相機(jī)參數(shù)Y ; 步驟2.2:初始化深度信息
2.根據(jù)權(quán)利要求1所述的一種基于深度信息提取的多聚焦圖像融合方法,其特征在于,所述步驟3中,根據(jù)步驟2得到的最終的深度信息確定聚焦區(qū)域,得到多聚焦圖像融合模板包括以下步驟: 步驟3.1:根據(jù)步驟2得到的最終的深度信息按照下式分別確定兩幅圖的聚焦區(qū)域,得到初步的圖像融合模版;
3.根據(jù)權(quán)利要求2所述的一種基于深度信息提取的多聚焦圖像融合方法,其特征在于,所述步驟4中,根據(jù)步驟3中得到的平滑的多層次融合模板進(jìn)行多聚焦圖像的融合的具體方法是直接在RGB空間或灰度空間進(jìn)行融合處理,所述RGB空間為彩色圖象,所述灰度空間為灰度圖像;如下式所示:
Fus1n* {i, j) = Ika {i, j).Mask s(2, j) + Ikb (2,i).(I — Mask—s[i,7)) 其中,κ = R, G, B or Gray, Fus1nk(i, j)是各通道數(shù)據(jù)最后的融合結(jié)果。
【文檔編號(hào)】G06T7/00GK104036481SQ201410298036
【公開日】2014年9月10日 申請(qǐng)日期:2014年6月26日 優(yōu)先權(quán)日:2014年6月26日
【發(fā)明者】肖進(jìn)勝, 錢超, 鄒白昱, 洪羽萌, 涂超平, 杜康華, 鄢煜塵 申請(qǐng)人:武漢大學(xué)