本發(fā)明涉及計算機視覺技術(shù)領(lǐng)域,特別涉及一種深度圖的獲取方法及系統(tǒng)。
背景技術(shù):
獲取準確的深度信息是自動系統(tǒng)環(huán)境感知的重要部分,深度精度是傳感器用于距離估計的最重要特性之一。深度圖在自動系統(tǒng)的定位和尺寸測量中有非常普遍的應(yīng)用。立體攝像系統(tǒng)使用從不同的角度拍攝的兩個圖像之間的像素級對應(yīng),從而實現(xiàn)圖像深度估計。但對于遠距離系統(tǒng),基于整型視差的深度圖精度是不夠的,因為基于整型像素立體匹配的深度圖在視差空間中呈整型離散分布,分層效應(yīng)明顯,這樣沒法達到一些高精度需求的應(yīng)用場景的測量精度要求。為此,需要對以整型視差為單位的深度圖做優(yōu)化處理,使深度圖信息連續(xù),從而在應(yīng)用中能夠得到精確的三維測量信息。
目前,對于深度圖的優(yōu)化方法主要集中于基于圖像信息的深度圖處理,這些方法依賴于深度圖的像素信息、邊緣等,基本上靠濾波、經(jīng)典的插值等方法對二維的深度圖像做處理,在一定程度上能夠?qū)ι疃葓D的成像有一定的改善,但是,遠遠達不到精度要求非常高的測量應(yīng)用場景的要求。因此,如何獲取具有精確深度精度的深度圖,是本領(lǐng)域技術(shù)人員需要解決的技術(shù)問題。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的是提供一種深度圖的獲取方法及系統(tǒng),能夠解決像素鎖定問題,實現(xiàn)亞像素的精確估計,獲得很高的深度精度,同時,算法所需內(nèi)存少,計算簡單,花費時間少,實時性好。
為解決上述技術(shù)問題,本發(fā)明提供一種深度圖的獲取方法,包括:
利用視差獲取方法獲取左圖像和右圖像的視差;
根據(jù)所述視差,計算深度圖中每個像素點與其同名點相鄰兩個像素點之間的匹配代價差;
利用所述匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù),并將整型的視差空間利用所述連續(xù)匹配代價擬合函數(shù)進行多次擬合得到連續(xù)的視差空間,計算亞像素級精度的像素坐標,得到亞像素視差空間;
根據(jù)所述亞像素視差空間計算深度值,獲得深度圖。
可選的,利用視差獲取方法獲取左圖像和右圖像的視差,包括:
利用同名像點快速匹配方法獲取左圖像和右圖像的視差。
可選的,根據(jù)所述視差,計算深度圖中相鄰兩個像素點之間的匹配代價差,包括:
利用計算深度圖中相鄰兩個像素點之間的匹配代價差;
其中,d為當前像素點整型三維重建之后的視差,Cd為當前像素點的視差d對應(yīng)的立體匹配中聚合之后的匹配代價,Cd-1為當前像素點在視差d-1時對應(yīng)的匹配代價,Cd+1為當前像素點在視差d+1時對應(yīng)的匹配代價,LeftDif為當前像素點與其同名點左邊像素點的匹配代價差,RightDif為當前像素點與其同名點右邊像素點的匹配代價差。
可選的,所述匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù),包括:
利用確定擬合變量h;
根據(jù)所述擬合變量h,確定基于整型像素采樣的連續(xù)匹配代價擬合函數(shù)f(h),其中,
可選的,計算亞像素級精度的像素坐標,得到亞像素視差空間,包括:
利用計算亞像素級精度的像素坐標dRefine,并確定亞像素視差空間DNew={dRefine}。
可選的,根據(jù)所述亞像素視差空間計算深度值,獲取深度圖,包括:
利用計算深度圖的世界坐標;
利用將所述世界坐標單位化得到深度圖的點云數(shù)據(jù);
其中,E=(x,y,z)為世界坐標,E1=(X,Y,Z)為單位化世界坐標,e=(u,v)為圖像坐標,Q為重投影矩陣,Z為亞像素優(yōu)化后的深度值。
可選的,獲取深度圖之后,還包括:
通過顯示器輸出所述深度圖。
本發(fā)明還提供一種深度圖的獲取系統(tǒng),包括:
視差計算模塊,用于利用視差獲取方法獲取左圖像和右圖像的視差;
匹配代價差計算模塊,用于根據(jù)所述視差,計算深度圖中每個像素點與其同名點相鄰兩個像素點之間的匹配代價差;
亞像素視差空間獲取模塊,用于利用所述匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù),并將整型的視差空間利用所述連續(xù)匹配代價擬合函數(shù)進行多次擬合得到連續(xù)的視差空間,計算亞像素級精度的像素坐標,得到亞像素視差空間;
深度圖獲取模塊,用于根據(jù)所述亞像素視差空間計算深度值,獲得深度圖。
可選的,所述亞像素視差空間獲取模塊包括:
連續(xù)匹配代價擬合函數(shù)確定單元,用于利用確定擬合變量h;根據(jù)所述擬合變量h,確定基于整型像素采樣的連續(xù)匹配代價擬合函數(shù)f(h);
亞像素視差空間獲取單元,用于利用計算亞像素級精度的像素坐標dRefine,并確定亞像素視差空間DNew={dRefine};
其中,LeftDif為當前像素點與左邊像素點的匹配代價差,RightDif為當前像素點與右邊像素點的匹配代價差,d為當前像素點整型三維重建之后的視差,Cd為當前像素點的視差d對應(yīng)的立體匹配中聚合之后的匹配代價。
可選的,該系統(tǒng)還包括:
輸出模塊,用于通過顯示器輸出所述深度圖。
本發(fā)明所提供的一種深度圖的獲取方法,包括:利用視差獲取方法獲取左圖像和右圖像的視差;根據(jù)視差計算深度圖中每個像素點與其同名點相鄰兩個像素點之間的匹配代價差;利用匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù),并將整型的視差空間利用所述連續(xù)匹配代價擬合函數(shù)進行多次擬合得到連續(xù)的視差空間,計算亞像素級精度的像素坐標得到亞像素視差空間;根據(jù)亞像素視差空間計算深度值,獲得深度圖;
可見,該方法直接在基于整型視差空間的深度圖上做亞像素擬合,相對于基于亞像素空間的立體匹配的深度圖算法,在大大減小了所需內(nèi)存空間的同時,也縮短了算法的運行時間,用連續(xù)函數(shù)擬合的方法對離散的視差空間進行擬合插值,得到連續(xù)的視差空間,從而消除了深度圖的分層效應(yīng),使得基于視差的三維測量的精度得到提高,適用于對測量精度要求不同的三維測量場景,特別是對測量精度要求非常高的三維測量場景;本發(fā)明還提供一種深度圖的獲取系統(tǒng),具有上述有益效果,在此不再贅述。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。
圖1為本發(fā)明實施例所提供的深度圖的獲取方法的流程圖;
圖2為本發(fā)明實施例所提供的立體匹配整型視差空間的示意圖;
圖3為本發(fā)明實施例所提供的深度信息空間示意圖的示意圖;
圖4為本發(fā)明實施例所提供的匹配代價曲線擬合的示意圖;
圖5為本發(fā)明實施例所提供的傳感器整型像素示意圖;
圖6為本發(fā)明實施例所提供的深度圖的獲取系統(tǒng)的結(jié)構(gòu)框圖;
圖7為本發(fā)明實施例所提供的另一深度圖的獲取系統(tǒng)的結(jié)構(gòu)框圖。
具體實施方式
本發(fā)明的核心是提供一種深度圖的獲取方法及系統(tǒng),能夠解決像素鎖定問題,實現(xiàn)亞像素的精確估計,獲得很高的深度精度,同時,算法所需內(nèi)存少,計算簡單,花費時間少,實時性好。
為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例是本發(fā)明一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
目前,深度圖的獲取方法研究通常致力于基于立體匹配的簡單窗口解決方案。Scharstein和Szeliski提出的原始分類法將立體算法分為兩個主要組:局部方法和全局方法。局部算法類使用每個點周圍的有限支持區(qū)域來計算視差,這種方法都基于選定的匹配窗口,通常應(yīng)用匹配代價聚合,達到平滑的效果。大窗口會降低匹配不成功的數(shù)量,也減少深度不連續(xù)區(qū)域的誤匹配率。局部方法的主要優(yōu)勢是計算復(fù)雜度小,能夠?qū)崟r實現(xiàn)。主要不足是在每一步只使用該像素點附近的局部信息,導(dǎo)致這些方法不能夠處理毫無特征的區(qū)域或重復(fù)紋理區(qū)域。全局的方法有很高的計算復(fù)雜度,因此它們并不適用于需要實時性要求高的自動系統(tǒng)。還有提出用半全局匹配(SGM)的立體匹配算法來替代現(xiàn)有的解決方案,這能夠很有效果地減少執(zhí)行時間。這幾種立體算法能夠得到像素級別的誤差,但他們忽略了亞像素的結(jié)果。
近段時間,提出在立體匹配算法中使用一種簡單的拋物線插值方法來實現(xiàn)亞像素的估計。該方法使用最小匹配代價和它鄰域的兩個點對應(yīng)的匹配代價來進行拋物線插值,該拋物線的最小點的位置將代表亞像素點。該解決方案能夠得到精確的精度。然而,這種方法針對于基于立體算法的簡單窗口存在嚴重的問題,會出現(xiàn)像素鎖定現(xiàn)象(“pixel-locking”),即視差所對應(yīng)的點云數(shù)量以整形視差為對稱軸呈高斯分布。Shimitzu和Okutomi最近提出通過建模誤差和建模校正的來解決像素鎖定問題,他們發(fā)現(xiàn),誤差是對稱的,且能夠通過變換圖像來消除,變換圖像將會使誤差函數(shù)轉(zhuǎn)置從而能達到與簡單的匹配吻合。雖然此解決方案是相當有效的,但是仍存在一些缺點,其主要缺點是,立體匹配需要進行三次,會造成計算資源的大量浪費。最后現(xiàn)代立體匹配方法例如的半全局方法為了估計完美的亞像素插值數(shù)學(xué)模型需要使用多個非線性變換,這幾乎是不可能的實現(xiàn)的。
針對現(xiàn)有深度圖的優(yōu)化技術(shù)中存在的復(fù)雜度高、優(yōu)化效果不夠好以及一些基于立體匹配算法實現(xiàn)深度圖亞像素優(yōu)化方法中存在的像素鎖定問題,以及立體匹配方法復(fù)雜繁瑣等不足,本實施例提供一種獲取深度圖的方法;該方法能夠解決像素鎖定問題,實現(xiàn)亞像素的精確估計,獲得很高的深度精度,同時,算法所需內(nèi)存少,計算簡單,花費時間少,實時性好。具體請參考圖1,圖1為本發(fā)明實施例所提供的深度圖的獲取方法的流程圖;該獲取方法可以包括:
S100、利用視差獲取方法獲取左圖像和右圖像的視差;
具體的,該步驟主要的目的是為了獲得像素級精度的視差,即利用視差獲取方法獲取左圖像和右圖像的視差d。本實施例并不限定具體視差的計算方法。由于該視差是后續(xù)計算的基礎(chǔ),因此為了保證后續(xù)計算數(shù)值的可靠性和準確性,這里可以選用精確度較高的視差計算方法,例如同名像點快速匹配方法。這里用戶在選用視差計算方法時,不僅要考慮視差計算的準確程度,還需要考慮硬件的計算速度,以及系統(tǒng)的實時性的要求等指標。
在綜合考慮上述指標后,優(yōu)選的,可以利用同名像點快速匹配方法獲取左圖像和右圖像的視差。
具體的,首先要進行攝像系統(tǒng)標定。
其中,先標定雙目攝像系統(tǒng)中攝像機的內(nèi)部參數(shù)和外部參數(shù),得到雙目攝像系統(tǒng)的相機矩陣K、畸變矩陣D、旋轉(zhuǎn)矩陣R、平移向量T和重投影矩陣Q。
其中,相機矩陣為其中,fx,fy為主距參數(shù),(cx,cy)為主點坐標。
畸變矩陣為D=[k1 k2 p1 p2 k3[k4 k5 k6]],其中,ki,pj,i=1,2,...,6,j=1,2為畸變參數(shù)。
重投影矩陣為其中,Tx的T的x分量,T為平移向量。
其中,旋轉(zhuǎn)矩陣平移向量T=[TxTyTz]。
其次,計算像素級視差d。
其中,視差就是左、右攝像機觀察同一個目標所產(chǎn)生的方向差異,立體視覺中描述為左圖像、右圖像中的同名點在X軸上的距離,數(shù)學(xué)描述為:
d=xl-xr;其中,xl為左圖像中的同名點在X軸上的距離,xr為右圖像中的同名點在X軸上的距離。
S110、根據(jù)所述視差,計算深度圖中每個像素點與其同名點相鄰兩個像素點之間的匹配代價差;
S120、利用所述匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù),并將整型的視差空間利用所述連續(xù)匹配代價擬合函數(shù)進行多次擬合得到連續(xù)的視差空間,計算亞像素級精度的像素坐標,得到亞像素視差空間;
其中,由于傳感器的每一個像素都具有一定的面積,世界坐標系中一理想點在傳感器像素上的精確位置無法在圖像上得到反映,一般的,圖像上獲得的像素坐標位置只是像素的某一部分(諸如中心點)的位置信息,這一坐標所代表的圖像信息無法反映整個像素的圖像信息,這就在根本上對圖像造成像素點坐標定位誤差,即圖像識別誤差。那么,由立體匹配得到的整型視差是不連續(xù)的。如圖2所示的立體匹配整型視差空間。圖2中,d表示視差,x為像平面x軸,y為像平面y軸??梢钥吹?,視差d是不連續(xù)的,在d層視差中,由近到遠依次為第0層,第1層,第2層,…,第d-1層,第d層。由立體匹配得到的整型視差與深度的轉(zhuǎn)換關(guān)系為:
其中,b為基線長度,f為主距,Z為深度值,D=dn8uhelbkzum。
由上所述,整型視差是不連續(xù)的,那么,經(jīng)過三維恢復(fù)后,由整型視差轉(zhuǎn)化的深度信息也是呈離散分層分布的,即對應(yīng)的深度信息空間也是不連續(xù)的,如圖3所示。圖3中,d+1層與d層的距離為:
其中,δ為像元尺寸,即每個像素所占的空間尺寸,b為基線長度,Z為深度值。可以看出,深度值越大時,分層效應(yīng)越明顯,視差越小,帶入的誤差越大。深度值越小,視差越大,誤差越小。
為此,為了減小測量誤差,需要恢復(fù)連續(xù)的深度空間,即恢復(fù)連續(xù)的視差空間,獲取精確的測量尺寸,這一目標通過獲取亞像素級尺寸得以實現(xiàn)?;谏疃葓D亞像素優(yōu)化一般利用基于整形采樣的匹配代價曲線擬合方法來實現(xiàn)。簡單描述為:利用需要優(yōu)化的點以及與它相鄰的兩個點的匹配代價進行曲線擬合。如圖4所示,通過點C1,C2,C3的進行曲線擬合,可以得到極小值點Cs(最小值點)。點Cs就是亞像素級的視差對應(yīng)的匹配代價函數(shù),即對C2優(yōu)化后的點。步驟S110到步驟S120為通過曲線擬合進行亞像素優(yōu)化過程。即步驟S110到步驟S120主要包括匹配代價差計算過程,擬合變量確定過程,連續(xù)匹配代價擬合函數(shù)確定過程,亞像素級精度的像素坐標計算過程。本實施例并不對這幾個過程的具體實現(xiàn)形式進行限定。只要保證利用連續(xù)匹配代價擬合函數(shù)進行匹配代價擬合,確定亞像素視差空間即可。
其中,優(yōu)選的,根據(jù)所述視差,計算深度圖中相鄰兩個像素點之間的匹配代價差可以包括,即匹配代價差計算過程可以包括:
利用計算深度圖中相鄰兩個像素點之間的匹配代價差;
其中,d為當前像素點整型三維重建之后的視差,Cd為當前像素點的視差d對應(yīng)的立體匹配中聚合之后的匹配代價,Cd-1為當前像素點在視差d-1時對應(yīng)的匹配代價,Cd+1為當前像素點在視差d+1時對應(yīng)的匹配代價,LeftDif為當前像素點與其同名點左邊像素點的匹配代價差,RightDif為當前像素點與其同名點右邊像素點的匹配代價差。
本實施例使用連續(xù)函數(shù)擬合的方法對離散的視差空間進行擬合插值,得到連續(xù)的視差空間,從而削弱了深度圖的分層效應(yīng),使得基于視差的三維測量的精度得到提高,適用于對測量精度要求不同的三維測量場景,特別是對測量精度要求非常高的三維測量場景。進一步,為了減小計算過程的復(fù)雜度,優(yōu)選的,可以選用余弦函數(shù)作為連續(xù)匹配代價擬合函數(shù)進行匹配代價擬合。即優(yōu)選的,所述匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù)可以包括,即擬合變量及連續(xù)匹配代價擬合函數(shù)確定過程可以包括:
利用確定擬合變量h;
根據(jù)所述擬合變量h,確定基于整型像素采樣的連續(xù)匹配代價擬合函數(shù)f(h),其中,
具體的,本實施例采用余弦函數(shù)來進行整型像素采樣的匹配代價擬合,可以基本消除了像素鎖定現(xiàn)象。即利用余弦函數(shù)對時差空間進行插值,降低了視差空間擬合的復(fù)雜度,同時消除了視差空間擬合的像素鎖定效應(yīng),提高了視差空間的插值精度。
具體的,在整型視差空間對應(yīng)的深度圖中,分層明顯,這就反映了整型的像素精度不足以描述精確的圖像信息,然而,圖像獲取傳感器獲取到的圖像信息都是基于像素的圖像信息。為了得到精確的圖像深度信息,需要對基于整型時視差空間的深度圖進行亞像素優(yōu)化,即對整型的視差空間進行優(yōu)化。傳感器獲得的圖像像素是占一定空間的,基于整型像素的立體匹配中的像素位置只是像素的某一個點,一般取的是像素的幾何中心點坐標作為整型像素的位置坐標,如圖5所示,a為傳感器中像素A的坐標,但實際上,像素A還包含得有b、c、d等點,因此,僅僅靠點a是不能夠代表整個像素的圖像信息。為了得到連續(xù)的視差空間,需要在基于整型像素匹配得到的視差基礎(chǔ)上做一定的調(diào)整,這個調(diào)整范圍在整型視差的半個像素范圍之內(nèi),即優(yōu)選的,計算亞像素級精度的像素坐標,得到亞像素視差空間可以包括:
利用f計算亞像素級精度的像素坐標dRefine,并確定亞像素視差空間DNew={dRefine}。
即亞像素優(yōu)化是在整型的視差空間擬合得到浮點型的視差空間的過程,利用連續(xù)匹配代價擬合函數(shù)進行多次擬合,把離散的數(shù)據(jù)通過曲線擬合得到連續(xù)的數(shù)據(jù)的過程。
S130、根據(jù)所述亞像素視差空間計算深度值,獲得深度圖。
其中,步驟S110到步驟S120為亞像素優(yōu)化過程。該步驟是將亞像素視差空間進行轉(zhuǎn)換,得到深度值,進而獲得基于深度圖的亞像素優(yōu)化之后的深度圖。本實施例并不限定從亞像素視差空間到深度圖的轉(zhuǎn)換過程。具體的,根據(jù)所述亞像素視差空間計算深度值,獲取深度圖可以包括:
利用計算深度圖的世界坐標;
利用將所述世界坐標單位化得到深度圖的點云數(shù)據(jù);
其中,E=(x,y,z)為世界坐標,E1=(X,Y,Z)為深度圖的點云數(shù)據(jù),e=(u,v)為圖像坐標,Q為重投影矩陣,Z為亞像素優(yōu)化后的深度值。
基于上述技術(shù)方案,本實施例所提供的深度圖的獲取方法,直接在基于整型視差空間的深度圖上做亞像素擬合,相對于基于亞像素空間的立體匹配的深度圖算法,在大大減小了所需內(nèi)存空間的同時,也縮短了算法的運行時間,用連續(xù)函數(shù)擬合的方法對離散的視差空間進行擬合插值,得到連續(xù)的視差空間,從而消除了深度圖的分層效應(yīng),使得基于視差的三維測量的精度得到提高,適用于對測量精度要求不同的三維測量場景,特別是對測量精度要求非常高的三維測量場景;進一步,采用余弦函數(shù)來進行整型像素采樣的匹配代價擬合,可以基本消除了像素鎖定現(xiàn)象。即利用余弦函數(shù)對時差空間進行插值,降低了視差空間擬合的復(fù)雜度,同時消除了視差空間擬合的像素鎖定效應(yīng),提高了視差空間的插值精度。
基于上述實施例,本實施例在獲取深度圖之后還可以包括:
通過顯示器輸出所述深度圖。
具體的,將優(yōu)化之后的深度圖顯示出來。由上述實施例中的方法,得到的深度圖的非常稠密的,即深度信息是連續(xù)的,是高精度的。
其中,這里的顯示器可以是顯示屏等顯示器件。
下面對本發(fā)明實施例提供的深度圖的獲取系統(tǒng)進行介紹,下文描述的深度圖的獲取系統(tǒng)與上文描述的深度圖的獲取方法及可相互對應(yīng)參照。
請參考圖6,圖6為本發(fā)明實施例所提供的深度圖的獲取系統(tǒng)的結(jié)構(gòu)框圖;該獲取系統(tǒng)可以包括:
視差計算模塊100,用于利用視差獲取方法獲取左圖像和右圖像的視差;
匹配代價差計算模塊200,用于根據(jù)所述視差,計算深度圖中每個像素點與其同名點相鄰兩個像素點之間的匹配代價差;
亞像素視差空間獲取模塊300,用于利用所述匹配代價差確定的基于整型像素采樣的連續(xù)匹配代價擬合函數(shù),并將整型的視差空間利用所述連續(xù)匹配代價擬合函數(shù)進行多次擬合得到連續(xù)的視差空間,計算亞像素級精度的像素坐標,得到亞像素視差空間;
深度圖獲取模塊400,用于根據(jù)所述亞像素視差空間計算深度值,獲得深度圖。
基于上述實施例,所述亞像素視差空間獲取模塊300可以包括:
連續(xù)匹配代價擬合函數(shù)確定單元,用于利用確定擬合變量h;根據(jù)所述擬合變量h,確定基于整型像素采樣的連續(xù)匹配代價擬合函數(shù)f(h);
亞像素視差空間獲取單元,用于利用計算亞像素級精度的像素坐標dRefine,并確定亞像素視差空間DNew={dRefine};
其中,LeftDif為當前像素點與左邊像素點的匹配代價差,RightDif為當前像素點與右邊像素點的匹配代價差,d為當前像素點整型三維重建之后的視差,Cd為當前像素點的視差d對應(yīng)的立體匹配中聚合之后的匹配代價。
基于上述任意實施例,請參考圖7,該獲取系統(tǒng)還可以包括:
輸出模塊500,用于通過顯示器輸出所述深度圖。
說明書中各個實施例采用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似部分互相參見即可。對于實施例公開的裝置而言,由于其與實施例公開的方法相對應(yīng),所以描述的比較簡單,相關(guān)之處參見方法部分說明即可。
專業(yè)人員還可以進一步意識到,結(jié)合本文中所公開的實施例描述的各示例的單元及算法步驟,能夠以電子硬件、計算機軟件或者二者的結(jié)合來實現(xiàn),為了清楚地說明硬件和軟件的可互換性,在上述說明中已經(jīng)按照功能一般性地描述了各示例的組成及步驟。這些功能究竟以硬件還是軟件方式來執(zhí)行,取決于技術(shù)方案的特定應(yīng)用和設(shè)計約束條件。專業(yè)技術(shù)人員可以對每個特定的應(yīng)用來使用不同方法來實現(xiàn)所描述的功能,但是這種實現(xiàn)不應(yīng)認為超出本發(fā)明的范圍。
結(jié)合本文中所公開的實施例描述的方法或算法的步驟可以直接用硬件、處理器執(zhí)行的軟件模塊,或者二者的結(jié)合來實施。軟件模塊可以置于隨機存儲器(RAM)、內(nèi)存、只讀存儲器(ROM)、電可編程ROM、電可擦除可編程ROM、寄存器、硬盤、可移動磁盤、CD-ROM、或技術(shù)領(lǐng)域內(nèi)所公知的任意其它形式的存儲介質(zhì)中。
以上對本發(fā)明所提供的深度圖的獲取方法及系統(tǒng)進行了詳細介紹。本文中應(yīng)用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想。應(yīng)當指出,對于本技術(shù)領(lǐng)域的普通技術(shù)人員來說,在不脫離本發(fā)明原理的前提下,還可以對本發(fā)明進行若干改進和修飾,這些改進和修飾也落入本發(fā)明權(quán)利要求的保護范圍內(nèi)。