一種基于相對高度深度線索的深度估計方法
【專利摘要】本發(fā)明公開了一種基于相對高度深度線索的深度估計方法,首先通過邊緣檢測獲得邊緣圖,然后通過霍夫變換判斷出圖像場景,根據(jù)圖像場景選擇相應的模板進行深度估計,獲得初始深度圖,從而實現(xiàn)多種圖像場景的深度估計。此外,通過獲取圖像的顯著圖,使圖像中同一深度的目標得到的深度值會不一致的情況得以改善,提高深度圖準確度。同時采用聯(lián)合雙邊濾波對初始深度圖以及顯著圖進行濾波,使其平滑強度更好,進一步改善深度圖的質(zhì)量。
【專利說明】一種基于相對高度深度線索的深度估計方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于視頻圖像處理【技術(shù)領(lǐng)域】,更為具體地講,涉及一種基于相對高度深度線索的深度估計方法。
【背景技術(shù)】
[0002]深度估計是2D轉(zhuǎn)3D中的關(guān)鍵技術(shù),而2D轉(zhuǎn)3D技術(shù)從二十世紀九十年代開始起步,到現(xiàn)在經(jīng)過約二十年的發(fā)展,已取得了豐碩的成果。
[0003]根據(jù)2D轉(zhuǎn)3D是否實時轉(zhuǎn)換,所采用的方法也不近相同?,F(xiàn)階段,非實時轉(zhuǎn)換可以應用于數(shù)字電視及電影的后期制作,其典型的技術(shù)提供商包括In-Three、PassmoreLab>DDD、CRC 和 Leonis Cinema 等。
[0004]實時轉(zhuǎn)換適用于電視以及其他移動手持設(shè)備,作為真實3D內(nèi)容的一個有益補充。其典型的技術(shù)提供商包括JVC、DDD、HDlogix和CRC等。由于實時處理對于速度要求很高,所以它的深度估計模塊一般不采用復雜的圖像分割技術(shù)。
[0005]而根據(jù)2D轉(zhuǎn)3D的自動化程度,它可分為四種:全手工、半自動、自動非實時和自動實時轉(zhuǎn)換。它們分為適用于不同場合或者不同的轉(zhuǎn)換階段。例如終端放映階段轉(zhuǎn)換的唯一方式為自動實時轉(zhuǎn)換。其中全手工的轉(zhuǎn)換方式能提供最佳的深度品質(zhì),但也是四種轉(zhuǎn)換方式中最耗成本的方式,因為影響轉(zhuǎn)換方式的關(guān)鍵因素為深度估計模塊,因此許多學者開始探討全自動深度估計算法。
[0006]Hoiem在假設(shè)圖像場景內(nèi)的所有景物對象都是垂直直立于地面的前提下,提出了一套完整的基于相對高度深度線索的深度估計方法。該方法以像素塊為單位提取顏色、紋理等特征,然后使用adboost分類方法將整個圖像分解為地面、天空、直立景物等,最后對圖像中的地面區(qū)域建立3維模型,并依據(jù)圖像中景物對象和地面的相交位置重構(gòu)出整個三維場景。李樂等人通過分析理解街景圖像內(nèi)景物之間的構(gòu)圖關(guān)系,依據(jù)其中蘊含的深度認知線索估計街景圖像的深度信息,對Hoiem的上述方法進行了改進。
[0007]當現(xiàn)有的基于相對高度深度線索的深度估計方法都是假設(shè)圖像場景內(nèi)的所有景物對象都是垂直直立于地面即圖像都為下近上遠,但實際的圖像場景還有可能是左近右遠或右近左遠。另外,對圖像中同一深度的目標得到的深度值會出現(xiàn)不一致的情況,估計得到的深度圖準確度有待提高。
【發(fā)明內(nèi)容】
[0008]本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種基于相對高度深度線索的深度估計方法,以實現(xiàn)對多種圖像場景的深度估計,同時提高深度圖準確度。
[0009]為實現(xiàn)上述目的,本發(fā)明基于相對高度深度線索的深度估計方法,其特征在于,包括以下步驟:
[0010](I)、獲取初始深度圖
[0011]對輸入的彩色圖像,首先將彩色圖像轉(zhuǎn)換為灰度圖像,然后通過邊緣檢測得到邊緣圖;
[0012]對邊緣圖進行霍夫變換,檢測直線的交叉點位置,判斷出圖像場景:左近右遠,右近左遠和下近上遠;對于霍夫變換未判斷出的場景,認為為下近上遠場景;然后根據(jù)判斷出的圖像場景,選擇相應的模塊進行深度估計:
[0013]若是下近上遠模板,線軌跡追蹤是在給定約束的條件下得到水平的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌跡圖及下近上遠的順序進行賦值;若是左近右遠模板,線軌跡追蹤是在給定約束的條件下得到垂直的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌跡圖及左近右遠的順序進行賦值;同理,若是右近左遠模板,線軌跡追蹤是在給定約束的條件下得到垂直的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌跡圖及右近左遠的順序進行賦值;賦值后獲得初始深度圖;
[0014]對初始深度圖進行聯(lián)合雙邊濾波得到改善的初始深度圖;
[0015](2)、獲取顯著圖
[0016]對輸入的彩色圖像通過視覺注意計算獲得顯著圖,然后采用聯(lián)合雙邊濾波對其進行濾波;
[0017](3)、將視覺注意計算并濾波獲得的顯著圖疊加到改善的初始深度圖上,獲得最終的深度圖。
[0018]本發(fā)明的發(fā)明目的是這樣實現(xiàn)的:
[0019]本發(fā)明基于相對高度深度線索的深度估計方法,首先通過邊緣檢測獲得邊緣圖,然后通過霍夫變換判斷出圖像場景,根據(jù)圖像場景選擇相應的模板進行深度估計,獲得初始深度圖,從而實現(xiàn)多種圖像場景的深度估計。此外,通過獲取圖像的顯著圖,使圖像中同一深度的目標得到的深度值會不一致的情況得以改善,提高深度圖準確度。同時采用聯(lián)合雙邊濾波對初始深度圖以及顯著圖進行濾波,使其平滑強度更好,進一步改善深度圖的質(zhì)量。
【專利附圖】
【附圖說明】
[0020]圖1是本發(fā)明基于相對高度深度線索的深度估計方法一種【具體實施方式】流程圖;
[0021]圖2是于線軌跡追蹤的深度估計的流程圖;
[0022]圖3是像素點(i,j)周圍的灰度值;
[0023]圖4是Sobel算子的水平模板及垂直模板;
[0024]圖5是下近上遠模板時的初始線軌跡圖的參數(shù)圖;
[0025]圖6是n=52時初始的線軌跡圖及初始的深度圖;
[0026]圖7是邊緣圖中線軌跡追蹤器的一個狀態(tài)示意圖;
[0027]圖8是從左到右追蹤及從右到左追蹤得到的深度圖;
[0028]圖9是左近右遠模板時的初始線軌跡圖的參數(shù)圖;
[0029]圖10是邊緣圖中線軌跡追蹤器的一個狀態(tài)示意圖;
[0030]圖11是深度圖聯(lián)合雙邊濾波的實例;
[0031]圖12是聯(lián)合雙邊濾波后的改善深度圖;
[0032]圖13是視覺注意計算模型的原理流程圖;
[0033]圖14是用于計算當前塊對比度的4相鄰塊的示意圖;[0034]圖15是顯著圖聯(lián)合雙邊濾波實例圖;
[0035]圖16是疊加顯著圖后的深度圖;
[0036]圖17是深度估計實例圖;
[0037]圖18是聯(lián)合雙邊濾波效果圖;
[0038]圖19是綜合從左到右追蹤及從右到左追蹤的實驗結(jié)果;
[0039]圖20是三個不用圖像場景的線軌跡追蹤實驗結(jié)果;
[0040]圖21是四幀彩色圖像改進前及改進后的深度圖和用其生成的合成視圖比較實例。
【具體實施方式】
[0041]下面結(jié)合附圖對本發(fā)明的【具體實施方式】進行描述,以便本領(lǐng)域的技術(shù)人員更好地理解本發(fā)明。需要特別提醒注意的是,在以下的描述中,當已知功能和設(shè)計的詳細描述也許會淡化本發(fā)明的主要內(nèi)容時,這些描述在這里將被忽略。
[0042]圖1是本發(fā)明基于相對高度深度線索的深度估計方法一種【具體實施方式】流程圖。
[0043]在本實施例中,如圖1所示,本發(fā)明基于相對高度深度線索的深度估計方法包括:基于線軌跡追蹤的深度估計1、視覺注意計算2、聯(lián)合雙邊濾波3、深度圖的疊加4。整個方法是輸入為視頻序列的彩色圖像,輸出為最終的深度圖。
[0044]在基于線軌跡追蹤的深度估計I中,對輸入的視頻序列的彩色圖像首先進行彩色圖像轉(zhuǎn)灰度圖像的變換,然后,通過sobel邊緣檢測得到邊緣圖;對邊緣圖進行霍夫變換,檢測直線的交叉點位置,判斷出圖像場景,再根據(jù)判斷出的圖像場景,選用選擇相應的模板即3個模板:左近右遠,右近左遠和下近上遠模板選擇一個。對于霍夫變換未判斷出的場景,使用下近上遠模塊進行深度估計,然后,進行基于線軌跡追蹤的深度估計,獲得初始深度圖。對初始的深度圖進行聯(lián)合雙邊濾波3得到改善的深度圖。
[0045]另一方面,對輸入的視頻序列的彩色圖像,首先進行顏色空間轉(zhuǎn)換,將其他顏色空間的圖片如RGB轉(zhuǎn)換為YCbCr顏色空間圖片,然后通過視覺注意計算2獲得顯著圖。為改善顯著圖的質(zhì)量,采用聯(lián)合雙邊濾波3對其進行濾波。
[0046]最后,通過深度圖疊加4,將視覺注意計算并濾波獲得的顯著圖疊加到改善的初始深度圖上,獲得最終的深度圖。
[0047]由于通過相對高度深度線索得到的深度圖的物體內(nèi)部深度值不連續(xù),并存在一些比較尖銳的毛刺,本發(fā)明中,使用聯(lián)合雙邊濾波(joint bilateral filter)對深度圖進行改善;同時將視覺注意機制的顯著圖(salient map)疊加到濾波后的深度圖上,使物體的內(nèi)
部深度值基本一致。
[0048]下面對各個步驟進行詳細的描述
[0049]1、基于線軌跡追蹤的深度估計
[0050]在本實施例中,基于相對高度深度線索的深度估計采用基于線軌跡追蹤的方式進行,包括5個步驟,如圖2所示。
[0051]視頻序列的彩色圖像轉(zhuǎn)灰度圖像101完成將RGB的彩色圖像轉(zhuǎn)換為8_bit的灰度圖像;邊緣檢測102實現(xiàn)對灰度圖像邊緣特征的提取,得到8-bit的邊緣圖;霍夫變換103檢測邊緣圖中直線的交叉點位置,判斷出圖像場景,并選擇相應的模板,以決定了線軌跡追蹤方式及賦值方式;若是下近上遠模板,線軌跡追蹤104是在給定約束的條件下得到水平的不交叉的線軌跡圖,深度賦值105根據(jù)線軌跡圖及下近上遠的順序進行賦值;若是左近右遠模板,線軌跡追蹤104是在給定約束的條件下得到垂直的不交叉的線軌跡圖,深度賦值105根據(jù)線軌跡圖及左近右遠的順序進行賦值;同理,若是右近左遠模板,線軌跡追蹤104是在給定約束的條件下得到垂直的不交叉的線軌跡圖,深度賦值105根據(jù)線軌跡圖及右近左遠的順序進行賦值;賦值后獲得初始深度圖(initial depth map)。
[0052]對初始深度圖進行聯(lián)合雙邊濾波得到改善的初始深度圖。
[0053]基于線軌跡追蹤的深度估計方法如下:
[0054]輸入:彩色圖像Iref及其分辨率WiXHi ;線軌跡圖的線軌跡數(shù)n,邊緣追蹤約束的控制參數(shù)a ;平滑約束的控制參數(shù)b ;彈性約束的控制參數(shù)c ; α為邊緣追蹤約束的權(quán)重因子(weighting factor), β為平滑約束的權(quán)重因子,Y為彈性約束的權(quán)重因子;
[0055]輸出:初始深度圖。
[0056]1.1)、彩色圖像轉(zhuǎn)灰度圖像
[0057]使用公式(I)將彩色圖像RGB像素值轉(zhuǎn)換為亮度值Y,從而實現(xiàn)彩色圖像到灰度圖像的轉(zhuǎn)換。
[0058]Y=(66R+129G+25B)/256+64.(I)
[0059]在本實施例中,輸入為10-bit像素色深(color depth)的RGB彩色圖像,通過(I)得到亮度值,從而輸出10-bit的灰度圖像。注意,公式(I)采用的是ITU-RBT.601標準。
[0060]1.2)、邊緣檢測
[0061]圖像邊緣可以定義為圖像局部特征的不連續(xù)性,表現(xiàn)為圖像灰度級的突變、紋理結(jié)構(gòu)的突變和彩色的變化等。真實的圖像邊緣一般都具有有限的寬度且呈現(xiàn)出陡峭的斜坡狀。
[0062]在本實施例中,采用Sobel算子進行邊緣檢測,它利用像素的左、右、上、下領(lǐng)域的灰度加權(quán)算法,根據(jù)在邊緣點處達到極值這一原理進行邊緣檢測。設(shè)G(i,j)表示處理后的像素點(i,j)的灰度值,像素點(i,j)周圍的灰度值如圖3所示。
[0063]則:
[0064]G(i, j) = |Sx| + |Sy
[0065]其中Sx和Sy分別為水平模板(掩模)和垂直模板與灰度圖像的卷積,即圖像中的每一個點都用圖4的兩個模板即水平模板(a)及垂直模板(b)做卷積,兩個模板卷積的絕對值之和作為該點的輸出G(i, j)(即梯度的量,gradient magnitude),所以
[0066]G (i, j) = I a2~l~2a3+a4—a0—2a7—a81 +1 a0+2a1+a2~a6-2a5-a4
[0067]邊緣檢測子模塊的輸入為10-bit的灰度圖像(模塊內(nèi)部取高8位),輸出為8-bit的邊緣圖。
[0068]1.3)、霍夫變換
[0069]本發(fā)明霍夫變換對邊緣圖進行處理,檢測直線的交點位置,進而判斷出使用的圖像場景。
[0070]1.4)、線軌跡追蹤
[0071]a、下近上遠模板
[0072]線軌跡追蹤將對邊緣圖中的明顯邊緣從左到右進行追蹤,得到水平不交叉的線軌跡圖。具體包含4步:①、相關(guān)參數(shù)的確定、每條線的線軌跡追蹤器從左到右進行追蹤;③、每條線的線軌跡追蹤器從右到左進行追蹤、對兩幅線軌跡圖深度賦值后,合并為一幅深度圖。
[0073]①、相關(guān)參數(shù)的確定
[0074]>線軌跡圖的線軌跡數(shù)η:為保證深度估計的效果,線軌跡數(shù)η—般大于10 ;同時考慮計算量的大小,線軌跡數(shù)η —般不大于80 ;通常我們設(shè)/J = L〃, /16」,以方便硬件實現(xiàn)時對DDR的讀取操作;對于720P的視頻,n=45 ;
[0075]>初始線軌跡圖中相鄰線軌跡的間距d:所有相鄰的線軌跡的間距均相等,為d = [HiZnj ;對于 720P 的視頻,d=16 ;
[0076] >初始線軌跡圖中線軌跡的橫坐標(圖像素坐標系中的坐標):對第i條線軌跡,其橫坐標為(H1-1) -1Xd(O-based);注意,這里坐標系的選取如圖5所示;
[0077]>線軌跡對應的深度值:為了估計出8-bit的深度圖,需要對第i條線軌跡賦深
度值為255-/X£/’ = 255-Z’><L255/?」,其中d’為兩條線軌跡之間的深度值間隔,η為線軌跡
數(shù),O < i < η-1 ;注意,在這種賦值方式下,最上面的那條線軌跡對應的深度值總是大于O。
[0078]圖6為η=52時初始的線軌跡圖(a)及初始的深度圖(b) (^=720)。
[0079]②、每條線的線軌跡追蹤器從左到右進行追蹤
[0080]每條線的線軌跡追蹤器從第①步確定的線軌跡的最左邊的點開始,沿明顯邊緣進行追蹤。線軌跡追蹤需滿足五條準則:
[0081]a)線軌跡的條數(shù)保持不變;
[0082]b)線軌跡不能交叉;
[0083]c)線軌跡在任一點都不能有無窮大的斜率;
[0084]d)線軌跡必須是從左到右延伸;
[0085]e)線軌跡之間的區(qū)域的都被賦以相同的深度值。
[0086]總的來說,上述線軌跡追蹤準則就是從左端的當前像素點向下一個像素點(在下一列中)追蹤時,被選擇的像素點需有高的邊緣值,在垂直方向變化比較平緩,且與初始位置的垂直距離不能太遠。我們分別用邊緣追蹤約束(edge tracing constraint),平滑約束(smoothness constraint)及彈性約束(elasticity constraint)來表達這三個方面的要求:
[0087]Elt (x, y) =exp (-edge (x, y) /a), (2)
[0088]Es(x, y) =ds(x, y)/b, (3)
[0089]Ee(x, y) =de(x, y)/c, (4)
[0090]其中Elt為邊緣追蹤約束,edge (x, y)是邊緣圖像素點(x, y)的值,a為邊緣追蹤約束的控制參數(shù);ES為平滑約束,b為平滑約束的控制參數(shù),ds(x,y)為當前位置的像素點與下一位置的像素點垂直方向的距離,如圖7所示;Ee為彈性約束,c為彈性約束的控制參數(shù),de (x, y)為左邊起始點位置像素與候選像素點位置的垂直距離。
[0091]最后,采用(5)來決定線軌跡下一像素點的位置:[0092]y = arg Hiinj {?£/((\,y) + βEi(x:ν) +;/E1,(\,y)j( 5 )
[0093]其中α、β、Y分別為邊緣追蹤約束Elt,平滑約束Es,彈性約束艮的權(quán)重因子,它們在計算過程中是常量。(x,y)是一組坐標組成的向量。X—般取x+1,y的值可以取到整列像素的橫坐標。
[0094]③、每條線的線軌跡追蹤器從右到左進行追蹤
[0095]每條線的線軌跡追蹤器從第①步確定的線軌跡的最右邊的點開始,沿明顯邊緣進行追蹤。線軌跡追蹤滿足的約束條件及追蹤方式與從左到右相同。
[0096]增加從右向左追蹤的目的是克服由于邊緣圖走勢原因造成的部分追蹤錯誤。如圖8所示,從右到左追蹤得到的深度圖在橢圓區(qū)域有更理想的深度估計值。
[0097]④、對兩幅線軌跡圖深度賦值后,合并為一幅深度圖[0098]對從左到右追蹤及從右到左追蹤得到兩幅深度圖進行合并,其具體方法為:從上到下,從左到右逐個像素進行比較,取兩幅深度圖的較小值為深度圖的深度值。
[0099]b、左近右遠模板
[0100]線軌跡追蹤將對邊緣圖中的明顯邊緣從左到右進行追蹤,得到垂直不交叉的線軌跡圖。具體包含2步:①、相關(guān)參數(shù)的確定、每條線的線軌跡追蹤器從下到上進行追蹤。
[0101]①、相關(guān)參數(shù)的確定
[0102]>線軌跡圖的線軌跡數(shù)η:為保證深度估計的效果,線軌跡數(shù)η—般大于10 ;同時考慮計算量的大小,線軌跡數(shù)η —般不大于80 ;通常我們設(shè)η = LR /16」,以方便硬件實現(xiàn)時對DDR的讀取操作;對于720Ρ的視頻,η=80 ;
[0103]>初始線軌跡圖中相鄰線軌跡的間距d:所有相鄰的線軌跡的間距均相等,為= 對于720Ρ的視頻,d=16 ;
[0104]>初始線軌跡圖中線軌跡的橫坐標(圖像素坐標系中的坐標):對第i條線軌跡,其橫坐標為(W1-1)-1 X d(o-based);注意,這里坐標系的選取如圖5所示;
[0105]>線軌跡對應的深度值:為了估計出8-bit的深度圖,需要對第i條線軌跡賦深
度值為25*>-/χ/ = 255-/χ[255/π」,其中d’為兩條線軌跡之間的深度值間隔,η為線軌跡
數(shù),O < i < η-1 ;注意,在這種賦值方式下,最左面的那條線軌跡對應的深度值總是大于O。
[0106]②、每條線的線軌跡追蹤器從左到右進行追蹤
[0107]線軌跡追蹤的原則與采用下近上遠模板的d線軌跡必須是從左到右延伸不同外(左近右遠模板的此原則為線軌跡必須是從下到上延伸),其他要求均相同,追蹤方式也相似。
[0108]采用左近右遠模板的線軌跡追蹤準則是從底端的當前像素點向下一個像素點(在下一行中)追蹤時,被選擇的像素點需有高的邊緣值,在垂直方向變化比較平緩,且與初始位置的垂直距離不能太遠。公式(3)中的4指當前點與下一候選點的水平距離。如圖10所示:
[0109]C、右近左遠遠模板
[0110]線軌跡追蹤將對邊緣圖中的明顯邊緣從右到左進行追蹤,得到垂直不交叉的線軌跡圖。具體包含2步:①、相關(guān)參數(shù)的確定、每條線的線軌跡追蹤器從下到上進行追蹤。采用右近左遠模板的線軌跡追蹤模板與采用左近右遠的線軌跡追蹤模塊的追蹤原則完全相同,在此不在多述。
[0111]1.5)、深度賦值
[0112]線軌跡追蹤完成后,將線軌跡圖轉(zhuǎn)換為坐標圖。
[0113]對于下近上遠模板,從下到上對每一列進行掃描,給最初的線軌跡O賦坐標值RX_Hi,對線軌跡O到線軌跡I的區(qū)間均賦值為RX_Hi,對線軌跡I到線軌跡2的區(qū)間(包含
線軌跡I)賦 值為RX_H1-d,此處d = LA_ Z?」,對軌跡線n到軌跡線η+1的區(qū)間賦值為RX_
H1- n*d0
[0114]對于左近右遠模板,從左到右對每一行進行掃描,給最初的線軌跡O賦坐標值RX_Wi,對線軌跡O到線軌跡I的區(qū)間均賦值為RX_Wi,同理,對線軌跡I到線軌跡2的區(qū)間(包
含線軌跡I)賦值為RX_W1-d,此處^ =,對軌跡線η到軌跡線η+1的區(qū)間賦值為RX_
W1- n*d0
[0115]對于右近左遠的模板,從右到左對每一行進行掃描,給最初的線軌跡O賦坐標值RX_Wi,對線軌跡O到線軌跡I的區(qū)間均賦值為RX_Wi,同理,對線軌跡I到線軌跡2的區(qū)間
(包含線軌跡I)賦值為RX_W1-d,此處d =,對軌跡線η到軌跡線η+1的區(qū)間賦值為
RX_ff1- n*d。
[0116]將線軌跡圖轉(zhuǎn)換為坐標圖后,從上到下,從左到右逐點掃描,使用公式(6)完成整幅圖像的深度賦值。當使用下近上遠模板時:wri為0,Wud為I;當使用左近右遠的模板時:Wrl為1,Wud為O;當使用右近左遠的模板時:wri為-1, Wud為O。
[0117]
【權(quán)利要求】
1.一種基于相對高度深度線索的深度估計方法,其特征在于,包括以下步驟: (1)、獲取初始深度圖 對輸入的彩色圖像,首先將彩色圖像轉(zhuǎn)換為灰度圖像,然后通過邊緣檢測得到邊緣圖; 對邊緣圖進行霍夫變換,檢測直線的交叉點位置,判斷出圖像場景:左近右遠,右近左遠和下近上遠;對于霍夫變換未判斷出的場景,認為為下近上遠場景;然后根據(jù)判斷出的圖像場景,選擇相應的模塊進行深度估計: 若是下近上遠模板,線軌跡追蹤是在給定約束的條件下得到水平的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌跡圖及下近上遠的順序進行賦值;若是左近右遠模板,線軌跡追蹤是在給定約束的條件下得到垂直的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌跡圖及左近右遠的順序進行賦值;同理,若是右近左遠模,線軌跡追蹤是在給定約束的條件下得到垂直的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌跡圖及右近左遠的順序進行賦值;賦值后獲得初始深度圖; 對初始深度圖進行聯(lián)合雙邊濾波得到改善的初始深度圖; (2)、獲取顯著圖 對輸入的彩色圖像通過視覺注意計算獲得顯著圖,然后采用聯(lián)合雙邊濾波對其進行濾波; (3)、將視覺注意計算并濾波獲得的顯著圖疊加到改善的初始深度圖上,獲得最終的深度圖。
2.根據(jù)權(quán)利要求1所示的深度估計方法,其特征在于,步驟(1)所述的若是下近上遠模板,線軌跡追蹤是在給定約束的條件下得到水平的不交叉的線軌跡圖,深度賦值子模塊根據(jù)線軌圖及下近上遠的順序進行賦值中,采用從左到右追蹤及從右到左追蹤得到兩幅深度圖進行合并:從上到下,從左到右逐個像素進行比較,取兩幅深度圖的較小值為深度圖的深度值。
3.根據(jù)權(quán)利要求1所示的深度估計方法,其特征在于,步驟(2)所述的對輸入的彩色圖像通過視覺注意計算獲得顯著圖中,計算某個分量的中央-周邊差方法為:將此分量分為MxN塊,每塊大小為mxm ;計算當前塊與其相鄰塊的均值,標準方差和偏度的差異,然后將當前塊與相鄰4塊的差異和作為此塊的對比度;塊Bk、B1的差異MDiff (Bk,B1)為:
MDiff (Bk, B1) = | Ek-E11+ Ok-O1 Ek> E1分別為塊Bk、B1的均值和σ k、σ I為塊Bk、B1的標準方差; 對于第i塊,i=k或I的均值,標準方差的計算公式如下:
【文檔編號】G06T7/00GK103903256SQ201310429867
【公開日】2014年7月2日 申請日期:2013年9月22日 優(yōu)先權(quán)日:2013年9月22日
【發(fā)明者】劉然, 譚迎春, 曹東華, 田逢春, 黃振偉, 李博樂, 譚偉敏 申請人:四川虹微技術(shù)有限公司, 重慶大學