本發(fā)明涉及圖像處理技術,特別涉及一種圖像處理方法、圖像處理裝置和電子裝置。
背景技術:
現(xiàn)有的人像識別方法主要通過灰度圖像識別人像的邊緣,因此容易受環(huán)境亮度的影響,準確度不理想。
技術實現(xiàn)要素:
本發(fā)明旨在至少解決現(xiàn)有技術中存在的技術問題之一。為此,本發(fā)明需要提供一種圖像處理方法、圖像處理裝置和電子裝置。
本發(fā)明實施方式的圖像處理方法,用于處理成像裝置采集的場景數(shù)據(jù),所述圖像處理方法包括以下步驟:
處理所述場景數(shù)據(jù)以識別人臉區(qū)域;
處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息;和
根據(jù)所述人臉區(qū)域和所述深度信息確定人像區(qū)域。
在某些實施方式中,所述場景數(shù)據(jù)包括場景主圖像和與所述場景主圖像對應的深度圖像,所述處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息的步驟包括以下子步驟:
處理所述深度圖像以獲取對應所述人臉區(qū)域的深度數(shù)據(jù);和
處理所述深度數(shù)據(jù)以得到所述深度信息。
在某些實施方式中,所述場景數(shù)據(jù)包括場景主圖像和與所述場景主圖像對應的場景副圖像,所述處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息的步驟包括以下子步驟:
處理所述場景主圖像和所述場景副圖像以得到所述人臉區(qū)域的深度數(shù)據(jù);和
處理所述深度數(shù)據(jù)以得到所述深度信息。
在某些實施方式中,所述根據(jù)所述人臉區(qū)域和所述深度信息確定人像區(qū)域的步驟包括以下子步驟:
根據(jù)所述人臉區(qū)域確定預估人像區(qū)域;
根據(jù)所述人臉區(qū)域的深度信息確定所述人像區(qū)域的深度范圍;
根據(jù)所述人像區(qū)域的深度范圍確定與所述人臉區(qū)域連接且落入所述深度范圍的計算人像區(qū)域;
判斷所述計算人像區(qū)域與所述預估人像區(qū)域是否匹配;
在所述計算人像區(qū)域與所述預估人像區(qū)域匹配時確定所述計算人像區(qū)域為所述人像區(qū)域。
在某些實施方式中,所述圖像處理方法還包括:
處理所述場景主圖像的人像區(qū)域以得到彩色邊緣圖;
處理所述場景主圖像的人像區(qū)域對應的深度信息以得到深度邊緣圖;和
利用所述彩色邊緣圖和所述深度邊緣圖修正所述人像區(qū)域的邊緣。
本發(fā)明實施方式的圖像處理裝置,用于處理成像裝置采集的場景數(shù)據(jù),所述圖像處理裝置包括第一處理模塊、第二處理模塊和第三處理模塊。第一處理模塊用于處理所述場景數(shù)據(jù)以識別人臉區(qū)域;第二處理模塊用于處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息;第三處理模塊用于根據(jù)所述人臉區(qū)域和所述深度信息確定人像區(qū)域。
在某些實施方式中,所述場景數(shù)據(jù)包括場景主圖像和與所述場景主圖像對應的深度圖像,所述第二處理模塊包括第一處理單元和第二處理單元。所述第一處理單元用于處理所述深度圖像以獲取對應所述人臉區(qū)域的深度數(shù)據(jù);所述第二處理單元用于處理所述深度數(shù)據(jù)以得到所述深度信息。
在某些實施方式中,所述場景數(shù)據(jù)包括場景主圖像和與所述場景主圖像對應的場景副圖像,所述第二處理模塊包括第三處理單元和第四處理單元,所述第三處理單元用于處理所述場景主圖像和所述場景副圖像以得到所述人臉區(qū)域的深度數(shù)據(jù);所述第四處理單元用于處理所述深度數(shù)據(jù)以得到所述深度信息。
在某些實施方式中,所述第三處理模塊包括第五處理單元、第六處理單元、第七處理單元、判斷單元和第八處理單元。所述第五處理單元用于根據(jù)所述人臉區(qū)域確定預估人像區(qū)域;所述第六處理單元用于根據(jù)所述人臉區(qū)域的深度信息確定所述人像區(qū)域的深度范圍;所述第七處理單元用于根據(jù)所述人像區(qū)域的深度范圍確定與所述人臉區(qū)域連接且落入所述深度范圍的計算人像區(qū)域;所述判斷單元用于判斷所述計算人像區(qū)域與所述預估人像區(qū)域是否匹配;所述第八處理單元用于在所述計算人像區(qū)域與所述預估人像區(qū)域匹配時確定所述計算人像區(qū)域為所述人像區(qū)域。
在某些實施方式中,所述圖像處理裝置還包括第四處理模塊、第五處理模塊和修正模塊。所述第四處理模塊用于處理所述場景主圖像的人像區(qū)域以得到彩色邊緣圖;所述第五處理模塊用于處理所述場景主圖像的人像區(qū)域對應的深度信息以得到深度邊緣圖;所述修正模塊用于利用所述彩色邊緣圖和所述深度邊緣圖修正所述人像區(qū)域的邊緣。
本發(fā)明實施方式的電子裝置包括成像裝置和上述任意一項實施方式的圖像處理裝置,所述圖像處理裝置和所述成像裝置電連接。
在某些實施方式中,所述成像裝置包括主攝像頭和副攝像頭。
在某些實施方式中,所述成像裝置包括攝像頭和投射器。
在某些實施方式中,所述成像裝置包括深度攝像頭。
本發(fā)明實施方式的圖像處理方法、圖像處理裝置和成像裝置利用拍攝得的圖像中的人臉區(qū)域的景深信息確定人像區(qū)域及人像區(qū)域的邊緣輪廓,避免采用傳統(tǒng)的基于灰度圖像進行人像區(qū)域及人像區(qū)域的的邊緣輪廓識別的過程中易受環(huán)境亮度影響的問題,可以提升人像區(qū)域識別的準確性。
本發(fā)明的附加方面和優(yōu)點將在下面的描述中部分給出,部分將從下面的描述中變得明顯,或通過本發(fā)明的實踐了解到。
附圖說明
本發(fā)明上述的和/或附加的方面和優(yōu)點從下面結合附圖對實施例的描述中將變得明顯和容易理解,其中:
圖1為本發(fā)明實施方式的圖像處理方法的流程示意圖;
圖2是本發(fā)明實施方式的電子裝置的功能模塊示意圖;
圖3是本發(fā)明實施方式的圖像處理方法的狀態(tài)示意圖;
圖4是本發(fā)明實施方式的圖像處理方法的流程示意圖;
圖5是本發(fā)明某些實施方式的電子裝置的功能模塊示意圖;
圖6是本發(fā)明某些實施方式的圖像處理方法的流程示意圖;
圖7是本發(fā)明某些實施方式的電子裝置的功能模塊示意圖;
圖8是本發(fā)明某些實施方式的圖像處理方法的流程示意圖;
圖9是本發(fā)明某些實施方式的電子裝置的功能模塊示意圖;
圖10是本發(fā)明某些實施方式的圖像處理方法的狀態(tài)示意圖;
圖11是本發(fā)明某些實施方式的圖像處理方法的流程示意圖;
圖12是本發(fā)明某些實施方式的電子裝置的功能模塊示意圖;
圖13是本發(fā)明某些實施方式的圖像處理方法的狀態(tài)示意圖;
圖14是本發(fā)明某些實施方式的圖像處理方法的狀態(tài)示意圖;
圖15是本發(fā)明某些實施方式的圖像處理方法的狀態(tài)示意圖。
具體實施方式
下面詳細描述本發(fā)明的實施例,所述實施例的示例在附圖中示出,其中自始至終相同或類似的標號表示相同或類似的元件或具有相同或類似功能的元件。下面通過參考附圖描述的實施例是示例性的,旨在用于解釋本發(fā)明,而不能理解為對本發(fā)明的限制。
請一并參閱圖1至2,本發(fā)明實施方式的圖像處理方法,用于處理成像裝置20采集的場景數(shù)據(jù),所述圖像處理方法包括以下步驟:
S11:處理所述場景數(shù)據(jù)以識別人臉區(qū)域;
S12:處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息;和
S13:根據(jù)所述人臉區(qū)域和所述深度信息確定人像區(qū)域。
本發(fā)明實施方式的圖像處理方法可以由本發(fā)明實施方式的圖像處理裝置10實現(xiàn)。
本發(fā)明實施方式的圖像處理裝置10包括第一處理模塊11、第二處理模塊12和第三處理模塊13。步驟S11可以由第一處理模塊11實現(xiàn),步驟S12可以由第二處理模塊12實現(xiàn),步驟S13可以由第三處理模塊13實現(xiàn)。
也即是說,第一處理模塊11用于處理所述場景主圖像以識別人臉區(qū)域;第二處理模塊12用于處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息;第三處理模塊13用于根據(jù)所述人臉區(qū)域和所述深度信息確定人像區(qū)域。
本發(fā)明實施方式的圖像處理裝置10應用于本發(fā)明實施方式的電子裝置100,也即是說,本發(fā)明實施方式的電子裝置100包括本發(fā)明實施方式的圖像處理裝置10。當然,本發(fā)明實施方式的電子裝置100還包括成像裝置20。其中,圖像處理裝置10和成像裝置20電連接。
在某些實施方式中,本發(fā)明實施方式的電子裝置10包括手機和/或平板電腦,在此不作限制。在本發(fā)明的具體實施例中,電子裝置100為手機。
請參閱圖3,可以理解,傳統(tǒng)的人像區(qū)域的識別技術是基于灰度圖像進行人像區(qū)域的識別,易受光照變化、陰影、物體遮擋及環(huán)境變化等因素的干擾,導致無法準確識別人像區(qū)域。本發(fā)明實施方式的圖像處理方法通過成像裝置20采集場景數(shù)據(jù)即對應的場景的彩色信息和深度信息,并根據(jù)場景的深度信息獲取人臉區(qū)域的深度信息。由于人臉區(qū)域是人像區(qū)域的一部分,也即是說,人像區(qū)域的深度信息與人臉區(qū)域對應的深度信息同處于一個深度范圍內(nèi),如此,可以根據(jù)人臉區(qū)域及人臉區(qū)域的深度信息即可確定人像區(qū)域。由于深度信息的獲取不易受光照、場景中色彩分布等因素的影響,因此,本發(fā)明實施方式的圖像處理方法可以提升人像區(qū)域識別的準確性。
具體地,步驟S11處理場景數(shù)據(jù)以識別人臉區(qū)域可以采用已訓練好的基于彩色信息和深度信息的深度學習模型檢測場景主圖像中是否存在人臉。其中,步驟S11中成像裝置20采集的場景數(shù)據(jù)包括當前場景的彩色信息和深度信息。深度學習模型在給定訓練集時,訓練集中的數(shù)據(jù)包括人臉的彩色信息和深度信息。因此,訓練過后的深度學習訓練模型可以根據(jù)當前場景的彩色信息和深度信息推斷當前場景中是否存在人臉。如此,由于人臉區(qū)域的深度信息的獲取不易受光照等環(huán)境因素的影響,且在人臉具有一定的偏轉角度時,基于彩色信息和深度信息的深度學習模型仍舊能夠根據(jù)獲得的彩色信息和深度信息檢測出當前場景中存在的人臉,因此可以提升人臉檢測準確性。
請參閱圖4,在某些實施方式中,所述場景數(shù)據(jù)包括場景主圖像和與所述場景主圖像對應的深度圖像,步驟S12處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息包括以下子下步驟:
S121:處理所述深度圖像以獲取對應所述人臉區(qū)域的深度數(shù)據(jù);和
S122:處理所述深度數(shù)據(jù)以得到所述深度信息。
請參閱圖5,第二處理模塊12包括第一處理單元121和第二處理單元122。步驟S121可以由第一處理單元121實現(xiàn),步驟S122可以由第二處理單元122實現(xiàn)。
也即是說,第一處理單元121用于處理所述深度圖像以獲取對應所述人臉區(qū)域的深度數(shù)據(jù);第二處理單元122用于處理所述深度數(shù)據(jù)以得到所述深度信息。
可以理解,場景數(shù)據(jù)包括與場景主圖像對應的深度圖像。其中,場景主圖像為RGB彩色圖像,深度圖像包含場景中各個人或物體的深度信息。由于場景主圖像的色彩信息與深度圖像的深度信息是一一對應的關系,因此,若在步驟S11中檢測到人臉區(qū)域,即可在對應的深度圖像中獲取到人臉區(qū)域的深度信息。
需要說明的是,在場景主圖像中,人臉區(qū)域表現(xiàn)為二維圖像,但由于人臉區(qū)域包括鼻子、眼睛、耳朵等特征,因此,在深度圖像中,人臉區(qū)域中鼻子、眼睛、耳朵等特征在深度圖像中所對應的深度數(shù)據(jù)是不同的,例如對于人臉正對成像裝置20的情況下所拍攝得的深度圖像中,鼻子對應的深度數(shù)據(jù)可能較小,而耳朵對應的深度數(shù)據(jù)可能較大。因此,在本發(fā)明的具體實施例中,處理人臉區(qū)域的深度數(shù)據(jù)得到的人臉區(qū)域深度信息可能為一個數(shù)值或一個數(shù)值范圍。其中,當人臉區(qū)域的深度信息為一個數(shù)值時,該數(shù)值可通過對人臉區(qū)域的深度數(shù)據(jù)取平均值得到,或通過對人臉區(qū)域的深度數(shù)據(jù)取中值得到。
在某些實施方式中,成像裝置20包括深度攝像頭。深度攝像頭可用來獲取深度圖像。其中,深度攝像頭包括基于結構光深度測距的深度攝像頭和基于TOF測距的深度攝像頭。
具體地,基于結構光深度測距的深度攝像頭包括攝像頭和投射器。投射器將一定模式的光結構投射到當前待拍攝的場景中,在場景中的各個人或物體表面形成由該場景中的人或物調(diào)制后的光條三維圖像,再通過攝像頭探測上述的光條三維圖像即可獲得光條二維畸變圖像。光條的畸變程度取決于投射器與攝像頭之間的相對位置以及當前待拍攝的場景中各個人或物體的表面形廓或高度。由于深度攝像頭中的攝像頭和投射器之間的相對位置是一定的,因此,由畸變的二維光條圖像坐標便可重現(xiàn)場景中各個人或物體的表面三維輪廓,從而可以獲取深度信息。結構光深度測距具有較高的分辨率和測量精度,可以提升獲取的深度信息的精確度。
基于TOF(time offlight)測距的深度攝像頭是通過傳感器記錄從發(fā)光單元發(fā)出的調(diào)制紅外光發(fā)射到物體,再從物體反射回來的相位變化,在一個波長的范圍內(nèi)根據(jù)光速,可以實時的獲取整個場景深度距離。當前待拍攝的場景中各個人或物體所處的深度位置不一樣,因此調(diào)制紅外光從發(fā)出到接收所用時間是不同的,如此,便可獲取場景的深度信息。基于TOF深度測距的深度攝像頭計算深度信息時不受被攝物表面的灰度和特征的影響,且可以快速地計算深度信息,具有很高的實時性。
請參閱圖6,在某些實施方式中,所述場景數(shù)據(jù)包括場景主圖像和與所述場景主圖像對應的場景副圖像,步驟S12處理所述場景數(shù)據(jù)以獲取所述人臉區(qū)域的深度信息包括以子下子步驟:
S123:處理所述場景主圖像和所述場景副圖像以得到所述人臉區(qū)域的深度數(shù)據(jù);和
S124:處理所述深度數(shù)據(jù)以得到所述深度信息。
請參閱圖7,在某些實施方式中,第二處理模塊12包括第三處理單元123和第四處理單元124。步驟S123可以由第三處理單元123實現(xiàn),步驟S124可以由第四處理單元124實現(xiàn)。
也即是說,第三處理單元123用于處理所述場景主圖像和所述場景副圖像以得到所述人臉區(qū)域的深度數(shù)據(jù);第四處理單元124用于處理所述深度數(shù)據(jù)以得到所述深度信息。
在某些實施方式中,成像裝置20包括主攝像頭和副攝像頭。
可以理解,深度信息可以通過雙目立體視覺測距方法進行獲取,此時場景數(shù)據(jù)包括場景主圖像和場景副圖像。其中,場景主圖像由主攝像頭拍攝得到,場景副圖像由副攝像頭拍攝得到,且場景主圖像與場景副圖像均為RGB彩色圖像。雙目立體視覺測距是運用兩個規(guī)格相同的攝像頭對同一場景從不同的位置成像以獲得場景的立體圖像對,再通過算法匹配出立體圖像對的相應像點,從而計算出視差,最后采用基于三角測量的方法恢復深度信息。如此,通過對場景主圖像和場景副圖像這一立體圖像對進行匹配便可獲得人臉區(qū)域的深度數(shù)據(jù)。隨后,對人臉區(qū)域的深度數(shù)據(jù)進行處理獲得人臉區(qū)域的深度信息。由于人臉區(qū)域中包含有多個特征,各個特征對應的深度數(shù)據(jù)可能不一樣,因此,人臉區(qū)域的深度信息可以為一個數(shù)值范圍;或者,可對深度數(shù)據(jù)進行求平均值處理以得到人臉區(qū)域的深度信息,或取深度數(shù)據(jù)的中值以獲得人臉區(qū)域的深度信息。
請參閱圖8,在某些實施方式中,步驟S13根據(jù)所述人臉區(qū)域和所述深度信息確定人像區(qū)域包括以下子步驟:
S131:根據(jù)所述人臉區(qū)域確定預估人像區(qū)域;
S132:根據(jù)所述人臉區(qū)域的深度信息確定所述人像區(qū)域的深度范圍;
S133:根據(jù)所述人像區(qū)域的深度范圍確定與所述人臉區(qū)域連接且落入所述深度范圍的計算人像區(qū)域;
S134:判斷所述計算人像區(qū)域與所述預估人像區(qū)域是否匹配;
S135:在所述計算人像區(qū)域與所述預估人像區(qū)域匹配時確定所述計算人像區(qū)域為所述人像區(qū)域。
請參閱圖9,在某些實施方式中,第三處理模塊13包括第五處理單元131、第六處理單元132、第七處理單元133、判斷單元134和第八處理單元135。步驟S131可以由第五處理單元131實現(xiàn);步驟S132可以由第六處理單元132實現(xiàn);步驟S133可以由第七處理單元133實現(xiàn);步驟S134可以由判斷單元134實現(xiàn);步驟S135可以由第八處理單元135實現(xiàn)。
也即是說,第五處理單元131用于根據(jù)所述人臉區(qū)域確定預估人像區(qū)域;第六處理單元132用于根據(jù)所述人臉區(qū)域的深度信息確定所述人像區(qū)域的深度范圍;第七處理單元133用于根據(jù)所述人像區(qū)域的深度范圍確定與所述人臉區(qū)域連接且落入所述深度范圍的計算人像區(qū)域;判斷單元134用于判斷所述計算人像區(qū)域與所述預估人像區(qū)域是否匹配;第八處理單元135用于在所述計算人像區(qū)域與所述預估人像區(qū)域匹配時確定所述計算人像區(qū)域為所述人像區(qū)域。
請參閱圖10,具體地,由于拍攝的人像存在有多種行為姿勢,如站立、蹲坐、直面鏡頭或側對鏡頭等,因此,確定人臉區(qū)域后,首先根據(jù)人臉區(qū)域的當前狀態(tài)確定預估人像區(qū)域,也即是說,根據(jù)人臉區(qū)域的當前狀態(tài)確定人像當前的行為姿勢。其中,預估人像區(qū)域為人像區(qū)域的匹配樣本庫,樣本庫中包含多種人像的行為姿勢的信息。由于人像區(qū)域包含人臉區(qū)域,也即是說,人像區(qū)域與人臉區(qū)域同處于某一個深度范圍內(nèi),因此,確定人臉區(qū)域的深度信息后,可以根據(jù)人臉區(qū)域的深度信息設定人像區(qū)域的深度范圍,并根據(jù)人像區(qū)域的深度范圍提取落入該深度范圍內(nèi)且與人臉區(qū)域相連接的計算人像區(qū)域。由于拍攝人像時人像所處的場景可能較為復雜,也即是說,與人像所處位置相鄰的位置上可能存在有其他物體,這些物體處于人像區(qū)域的深度范圍內(nèi),因此,計算人像區(qū)域的提取僅在人像區(qū)域的深度范圍內(nèi)提取與人臉相連接的部分以去除其他落入人像區(qū)域的深度范圍內(nèi)的物體。在確定計算人像區(qū)域后,需將計算人像區(qū)域與預估人像區(qū)域進行匹配,匹配成功則可將計算人像區(qū)域確定為人像區(qū)域。若匹配不成功,則表明計算人像區(qū)域中還可能包含有除人像外的其他物體,人像區(qū)域的識別失敗。
請參閱圖11,在某些實施方式中,圖像處理方法還包括以下步驟:
S14:處理所述場景主圖像的人像區(qū)域以得到彩色邊緣圖;
S15:處理所述場景主圖像的人像區(qū)域對應的深度信息以得到深度邊緣圖;和
S16:利用所述彩色邊緣圖和所述深度邊緣圖修正所述人像區(qū)域的邊緣。
請參閱圖12,在某些實施方式中,圖像處理裝置10還包括第四處理模塊14:、第五處理模塊15和修正模塊16。步驟S14可以由第四處理模塊14實現(xiàn);步驟S15可以由第五處理模塊15實現(xiàn),步驟S16可以由修正模塊16實現(xiàn)。
也即是說,第四處理模塊14用于處理所述場景主圖像的人像區(qū)域以得到彩色邊緣圖;第五處理模塊15用于處理所述場景主圖像的人像區(qū)域對應的深度信息以得到深度邊緣圖;修正模塊16用于利用所述彩色邊緣圖和所述深度邊緣圖修正所述人像區(qū)域的邊緣。
請參閱圖13,可以理解,由于彩色邊緣圖包含人像區(qū)域內(nèi)部的邊緣信息,如服裝的邊緣信息等,而目前獲取的深度信息的精度有限,如在手指、頭發(fā)、衣領等邊緣存在些許誤差。如此,利用彩色邊緣圖和深度邊緣圖共同修正人像區(qū)域的邊緣一方面可以去除人像區(qū)域包含的人臉、服裝等部分的邊緣及細節(jié)信息,另一方面在手指、頭發(fā)、衣領等邊緣部分有更高的準確度,從而可以獲得較為準確的人像區(qū)域的外輪廓的邊緣信息。由于彩色邊緣圖及深度邊緣圖均只對人像區(qū)域部分對應的數(shù)據(jù)進行處理,因此所需處理的數(shù)據(jù)量較少,圖像處理的速度較快。
請參閱圖14,具體地,彩色邊緣圖可以通過邊緣檢測算法得到。邊緣檢測算法是通過對場景主圖像中人像區(qū)域所對應的圖像數(shù)據(jù)求微分以獲得具有階躍變化或屋頂變化的像素點的集合。常用的邊緣檢測算法那包括Roberts算子、Sobel算子、Prewitt算子、Canny算子、Laplacian算子、LOG算子等。在本發(fā)明的具體實施例中,可以采用上述的任一種邊緣檢測算法進行計算以獲得彩色邊緣圖,在此不做任何限制。
請參閱圖15,進一步地,在深度邊緣圖的獲取過程中,由于只需要對人像區(qū)域對應的深度信息進行處理,因此,首先對步驟S13中獲得的人像區(qū)域進行膨脹處理,擴大人像區(qū)域以保留人像區(qū)域對應的深度信息中深度邊緣的細節(jié)。隨后,對膨脹處理后的人像區(qū)域對應的深度信息進行濾波處理,從而去除深度信息中攜帶的高頻噪聲,以用于平滑步驟S15中深度邊緣圖的邊緣細節(jié)。最后,將濾波后的數(shù)據(jù)轉換為灰度值數(shù)據(jù),并對灰度數(shù)據(jù)進行線性邏輯回歸組合,再利用圖像邊緣概率密度算法計算線性邏輯回歸組合后的灰度數(shù)據(jù)以獲取深度邊緣圖。
電子裝置100還包括殼體、存儲器、電路板和電源電路。其中,電路板安置在殼體圍成的空間內(nèi)部,處理器和存儲器設置在電路板上;電源電路用于為電子裝置100的各個電路或器件供電;存儲器用于存儲可執(zhí)行程序代碼;圖像處理裝置10通過讀取存儲器中存儲的可執(zhí)行程序代碼來運行與可執(zhí)行程序代碼對應的程序以實現(xiàn)上述的本發(fā)明任一實施方式的圖像處理方法。
在本說明書的描述中,參考術語“一個實施方式”、“一些實施方式”、“示意性實施方式”、“示例”、“具體示例”、或“一些示例”等的描述意指結合所述實施方式或示例描述的具體特征、結構、材料或者特點包含于本發(fā)明的至少一個實施方式或示例中。在本說明書中,對上述術語的示意性表述不一定指的是相同的實施方式或示例。而且,描述的具體特征、結構、材料或者特點可以在任何的一個或多個實施方式或示例中以合適的方式結合。
流程圖中或在此以其他方式描述的任何過程或方法描述可以被理解為,表示包括一個或更多個用于實現(xiàn)特定邏輯功能或過程的步驟的可執(zhí)行指令的代碼的模塊、片段或部分,并且本發(fā)明的優(yōu)選實施方式的范圍包括另外的實現(xiàn),其中可以不按所示出或討論的順序,包括根據(jù)所涉及的功能按基本同時的方式或按相反的順序,來執(zhí)行功能,這應被本發(fā)明的實施例所屬技術領域的技術人員所理解。
在流程圖中表示或在此以其他方式描述的邏輯和/或步驟,例如,可以被認為是用于實現(xiàn)邏輯功能的可執(zhí)行指令的定序列表,可以具體實現(xiàn)在任何計算機可讀介質(zhì)中,以供指令執(zhí)行系統(tǒng)、裝置或設備(如基于計算機的系統(tǒng)、包括處理器的系統(tǒng)或其他可以從指令執(zhí)行系統(tǒng)、裝置或設備取指令并執(zhí)行指令的系統(tǒng))使用,或結合這些指令執(zhí)行系統(tǒng)、裝置或設備而使用。就本說明書而言,"計算機可讀介質(zhì)"可以是任何可以包含、存儲、通信、傳播或傳輸程序以供指令執(zhí)行系統(tǒng)、裝置或設備或結合這些指令執(zhí)行系統(tǒng)、裝置或設備而使用的裝置。計算機可讀介質(zhì)的更具體的示例(非窮盡性列表)包括以下:具有一個或多個布線的電連接部(電子裝置),便攜式計算機盤盒(磁裝置),隨機存取存儲器(RAM),只讀存儲器(ROM),可擦除可編輯只讀存儲器(EPROM或閃速存儲器),光纖裝置,以及便攜式光盤只讀存儲器(CDROM)。另外,計算機可讀介質(zhì)甚至可以是可在其上打印所述程序的紙或其他合適的介質(zhì),因為可以例如通過對紙或其他介質(zhì)進行光學掃描,接著進行編輯、解譯或必要時以其他合適方式進行處理來以電子方式獲得所述程序,然后將其存儲在計算機存儲器中。
應當理解,本發(fā)明的各部分可以用硬件、軟件、固件或它們的組合來實現(xiàn)。在上述實施方式中,多個步驟或方法可以用存儲在存儲器中且由合適的指令執(zhí)行系統(tǒng)執(zhí)行的軟件或固件來實現(xiàn)。例如,如果用硬件來實現(xiàn),和在另一實施方式中一樣,可用本領域公知的下列技術中的任一項或他們的組合來實現(xiàn):具有用于對數(shù)據(jù)信號實現(xiàn)邏輯功能的邏輯門電路的離散邏輯電路,具有合適的組合邏輯門電路的專用集成電路,可編程門陣列(PGA),現(xiàn)場可編程門陣列(FPGA)等。
本技術領域的普通技術人員可以理解實現(xiàn)上述實施例方法攜帶的全部或部分步驟是可以通過程序來指令相關的硬件完成,所述的程序可以存儲于一種計算機可讀存儲介質(zhì)中,該程序在執(zhí)行時,包括方法實施例的步驟之一或其組合。
此外,在本發(fā)明各個實施例中的各功能單元可以集成在一個處理模塊中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個模塊中。上述集成的模塊既可以采用硬件的形式實現(xiàn),也可以采用軟件功能模塊的形式實現(xiàn)。所述集成的模塊如果以軟件功能模塊的形式實現(xiàn)并作為獨立的產(chǎn)品銷售或使用時,也可以存儲在一個計算機可讀取存儲介質(zhì)中。
上述提到的存儲介質(zhì)可以是只讀存儲器,磁盤或光盤等。盡管上面已經(jīng)示出和描述了本發(fā)明的實施方式,可以理解的是,上述實施方式是示例性的,不能理解為對本發(fā)明的限制,本領域的普通技術人員在本發(fā)明的范圍內(nèi)可以對上述實施方式進行變化、修改、替換和變型。