亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種用于稀疏表示人臉識別的自適應字典構造方法與流程

文檔序號:12365465閱讀:234來源:國知局
一種用于稀疏表示人臉識別的自適應字典構造方法與流程
本發(fā)明屬于人臉識別領域,尤其是當采用基于分類的稀疏表示算法時,涉及到的一種用于稀疏表示人臉識別的自適應字典構造方法。
背景技術
:人臉識別是利用人的面部圖像進行身份識別的技術,在經(jīng)濟、民用、軍用、公安等領域具有廣闊的應用前景。稀疏表示利用過完備的冗余字典對輸入測試數(shù)據(jù)進行最優(yōu)線性表示,表示系數(shù)為稀疏矢量。基于分類的稀疏表示算法是利用稀疏表示矢量及各類訓練樣本分別對測試數(shù)據(jù)進行逐類重構并分類的一類算法。大量文獻表明,基于分類的稀疏表示算法具有較高的正確識別率。人臉識別在本質(zhì)上可看作是圖像分類問題,因此基于分類的稀疏表示算法在人臉識別中得到了廣泛研究。稀疏表示算法的核心問題包括冗余字典的構造和稀疏表示矢量的快速求解。后者可采用線性規(guī)劃優(yōu)化算法和貪婪算法兩種較成熟算法,而冗余字典的構造依然是研究的重點內(nèi)容。目前,在基于稀疏表示的人臉識別算法中,字典原子以全部訓練樣本為基礎進行選擇,冗余字典是固定不變的。假設有N幅m維的訓練人臉樣本,Yang等用全部訓練人臉圖像作為原子構造超完備冗余字典,字典原子數(shù)量為N。為了提高算法對遮擋的魯棒性,Wright等引入m維的單位矩陣作為遮擋字典,對圖像中的異常像素點進行單獨編碼,冗余字典的原子數(shù)量為(N+m),其中,N和m均為正整數(shù)。Huang等提出將圖像在水平方向和垂直方向上的梯度也作為字典原子,可以解決了圖像的對齊問題,字典原子數(shù)量為3N。為了滿足冗余字典對原子的特征數(shù)量必須小于原子數(shù)量的要求,通常采用圖像降維的方法將高維人臉圖像投影到低維的特征空間,然后進行稀疏表示并分類。Yang等直接提取圖像的低維Gabor特征,利用Gabor特征代替原始人臉圖像作為字典原子。上述這些常用的冗余字典存在明顯的不足。首先,通過增加原子數(shù)量提高表示矢量的稀疏度從而提高識別率,但是任何一種稀疏求解算法的計算速度都會隨著原子數(shù)量的增大而下降。其次,對任何輸入測試圖像來說,冗余字典均為固定不變的,不具有自適應性。技術實現(xiàn)要素:為了解決現(xiàn)有技術的缺點,本發(fā)明提供一種用于稀疏表示人臉識別的自適應字典構造方法。本發(fā)明在局部構造模式(LCP)特征空間選擇圖像的近鄰,用近鄰人臉圖像作為原子構造字典,原子結構與測試圖像具有更高的相似性,同時能夠減少字典原子的數(shù)量;利用這種自適應的冗余字典對測試圖像進行稀疏表示分類時,能夠同時提高識別速度和正確識別率。本發(fā)明首先判斷測試圖像的合法性,分別在LBP和MiC層判斷測試數(shù)據(jù)的合法性,當LBP特征和MiC特性均不屬于合法特征時,才判斷測試圖像為非法數(shù)據(jù),拒絕接收識別;否則,判斷測試圖像為合法數(shù)據(jù)。為實現(xiàn)上述目的,本發(fā)明采用以下技術方案:本發(fā)明提供的用于稀疏表示人臉識別的自適應字典構造方法,包括:步驟(1):獲取待測試人臉圖像和若干人臉圖像樣本,將若干人臉圖像樣本存儲至訓練樣本集中,分別提取待測試人臉圖像和訓練樣本集中每個樣本的LCP特征;其中,LCP特征由LBP特征和MiC特征融合構成;步驟(2):計算待測試人臉圖像與訓練樣本集中任一樣本之間的LBP特征相似性和MiC特征相似性,進而得到待測試人臉圖像與訓練樣本集中全部樣本的平均LBP特征相似性和平均MiC特征相似性;步驟(3):根據(jù)平均LBP特征相似性和平均MiC特征相似性分別與相應合法閾值比較,判斷LBP特征和MiC特性是否屬于合法特征,若LBP特征和MiC特性均不屬于合法特征,則拒絕識別待測試人臉圖像;否則,進入下一步;步驟(4):在合法特征中,當LBP特征相似性不小于LBP特征近鄰閾值且MiC特征相似性不大于MiC特征近鄰閾值時,訓練樣本集中相應的樣本才被標注為待測試人臉圖像的近鄰樣本;步驟(5):將被標注的待測試人臉圖像的近鄰樣本作為原子,進而構造出用于人臉識別自適應冗余字典。所述步驟(1)中的LBP特征是通過二值化鄰域內(nèi)近鄰像素與中心像素的灰度差得到的。所述步驟(1)中,提取MiC特征的具體過程為:分別構建測試人臉圖像或訓練樣本集中每個樣本的LBP特征的m模式下的像素的灰度值矩陣Gm以及所有模式下的像素的中心鄰域內(nèi)的近鄰像素的灰度值矩陣Vm,其中m為正整數(shù);根據(jù)Gm=VmAm,求解Am,進而求解Am的傅里葉變換,最終得到測試人臉圖像或訓練樣本集中每個樣本的MiC特征。所述步驟(2)中LBP特征相似性采用χ2-BRD相似性來度量。χ2-BRD相似性等于χ2-BRD距離對數(shù)的相反數(shù),其中,χ2-BRD距離為BRD距離與χ2距離的結合。所述步驟(2)中的MiC特征相似性采用歐氏距離來度量。其中,步驟(5)中的冗余字典構造如下:第i類訓練樣本中任意一幅測試樣本的近鄰人臉圖像張成的列矢量為第i類訓練樣本中全部的近鄰樣本構成矩陣ni表示第i類訓練樣本訓練圖像的數(shù)量,i為正整數(shù)),則最終構成的自適應冗余字典為R=[R1,…,Ri,…,RC](C表示訓練樣本的類別數(shù),C為正整數(shù))。本發(fā)明的有益效果為:(1)本發(fā)明提出了一種利用LCP特征自適應構造冗余字典的方法。其創(chuàng)新性如下:第一,提出了基于比例直方圖距離的“χ2-BRD相似性”用于度量圖像在LBP特征上的近鄰程度;用簡單的歐氏距離度量圖像在MiC層上的相似性。第二,將兩層特征融合,給出了測試樣本合法性的判決方案和近鄰樣本的選擇方案,并通過大量詳細的實驗,給出了χ2-BRD特征和MiC特征的合法閾值與近鄰閾值的經(jīng)驗值取值范圍。(2)利用近鄰樣本作為原子構造超完備的冗余字典,完成對測試圖像的稀疏表示分類。字典依據(jù)測試圖像自適應生成,字典原子和測試樣本在結構上具有更高的相似性,更符合稀疏表示理論中字典構造的原則,因此正確識別率得以顯著提高,同時字典的“厚度”縮減了一半以上,提高了稀疏表示矢量的求解速度,從而提高了識別速度。附圖說明圖1是本發(fā)明的自適應冗余字典的構造方法的流程示意圖;圖2是以ORL人臉庫中的一幅圖像與其它239幅圖像之間的圖3是ORL人臉庫中圖像的各直方圖間的圖4(a)是ORL數(shù)據(jù)庫的近鄰樣本的數(shù)量分布;圖4(b)是AR數(shù)據(jù)庫的近鄰樣本的數(shù)量分布。具體實施方式下面結合附圖與實施例對本發(fā)明做進一步說明:一、局部構造模式(LCP)特征本發(fā)明的LBP特征是通過二值化鄰域內(nèi)近鄰像素與中心像素的灰度差得到的,增強了光照變化的魯棒性,但削弱了像素間的相互關系,從而丟失了局部構造信息。為了克服這一問題,本發(fā)明采用局部構造模式(Localconfigurationpattern,LCP)編碼,把圖像特征分為兩層。第一層采用LBP提取局部結構信息,稱為LBP特征,第二層稱為微觀構造(MiCroscopicConfiguration,MiC)特征,用于描述近鄰像素之間的線性關系,其提取方法描述如下。局部二值模式(LocalBinaryPattern,LBP),通過簡單計算即可捕捉到圖像的細節(jié)特征,提取出更利于分類的局部鄰域關系模式,成為圖像分類的主流方法之一。設(xc,yc)為圖像中任意一個像素點,其灰度值為gc,用gp(p=0,…,P-1)表示以(xc,yc)為圓心。LBP算法以gc為閾值對近鄰像素的灰度值進行二值化,并從某個指定點開始按照指定順序把P個二進制數(shù)串接起來,該二進制數(shù)對應的十進制數(shù)即為像素點(xc,yc)的LBP模式值,記為LBPP,R(xc,yc)。其中,R為圓周的半徑,R可以取任意正數(shù),P可以取任意正整數(shù)。LBPP,R(xc,yc)=Σp=0P-1s(gp-gc)2p---(1)]]>其中為階躍函數(shù)。把描述LBP模式值的二進制數(shù)串視為首尾鏈接的環(huán)形,定義為0、1之間的轉(zhuǎn)換次數(shù),當U(LBPP,R)≤2時,該模式被定義為“均勻模式”(UniformPattern,也稱為“統(tǒng)一模式”)。為了保證LBP算子具有旋轉(zhuǎn)不變性,令被稱為具有旋轉(zhuǎn)不變性的均勻模式。對一幅w×h的圖像I,計算每個像素點(i,j)處的得到一幅局部二值模式圖像,其中,w和h均可以取任意正整數(shù);i和j均可以取任意正整數(shù)。此局部二值模式圖像的直方圖即是原始圖像I的LBP特征矢量H:H(m)=Σi=1wΣj=1hδ(LBPP,Rriu2(i,j)-m),m∈[0,M-1]---(3)]]>其中M=2P表示的最大取值。給定一個P維的參數(shù)矢量A=(a0,a1,…,aP-1)T,完成對鄰域中心像素的重構,用表示中心像素的重構,最優(yōu)參數(shù)矢量應滿足令hm表示LBP特征圖像中第m種模式出現(xiàn)的次數(shù),H=[h0h1…h(huán)M-1]表示圖像的LBP特征,gm,i(i=0,1,…,hm-1)表示具有m模式的第i個像素的灰度值,其中,m為正整數(shù);vi;0,vi;1,…,vi;P-1(i=0,…,hm-1)表示以第i個具有m模式的像素為中心的鄰域內(nèi)的近鄰像素的灰度值,構造矩陣Gm=(gm,0gm,1…gm,Om-1)T(4)Vm=v0;0v0;1...v0;P-1v1;0v1;1...v1;P-1...vNL-1;0vNL-1;1...vNL-1;P-1---(5)]]>令最優(yōu)參數(shù)矢量應該滿足:Gm=VmAm(6)一般情況下,hm>>P,采用最小二乘法很容易求得方程(6)的唯一解為:Am=(VmTVm)-1VmTGm---(7)]]>若hm≤P,則說明m模式出現(xiàn)的概率很低,是一小概率事件,該模式被定義為不可靠模式,此時參數(shù)矢量中的所有值均置為0,即Am=0。令Fm表示Am的P點傅里葉變換,則Fm的第k個元素為Fm(k)=Σi=0P-1Am(i)*e-j2πki/P---(8)]]>Fm具有旋轉(zhuǎn)不變特性,其中,k為大于或等于0的整數(shù)。令|Fm|=[|Fm(0)||Fm(1)|…|Fm(P-1)|]T(9)圖像的局部微觀構造(MiC)特征被定義為F=[|F0||F1|…|FM-1|]。融合第一層的LBP特征和第二層的MiC特征,構成圖像的LCP特征,即LCP=[[|F0|;O0];[|F1|;O1];…;[|FM-1|;OM-1]](10)二、LCP特征相似性度量本算法分別從LBP和MiC兩層特征計算兩幅圖像在LCP特征空間上的相似性。2.1、LBP特征相似性基于bin-比例直方圖距離(BinRatio-basedDistance,BRD)可以很好地度量直方圖之間的相似性,尤其是在有遮擋時,該直方圖距離具有更好的分類性能。bin-比例直方圖距離定義如下。令表示具有Q個bin值的單位長度直方圖矢量,即其中,Q為正整數(shù)。分別表示兩幅圖像A和B的單位長度直方圖矢量,A、B之間基于bin比例直方圖距離(BRD)為:dBRD(Z~A,Z~B)=Σi=1QdBRD,i(Z~A,Z~B)=Σi=1QΣj=1Q(z~iBz~jA-z~jBz~iAz~iA+z~iB)2---(11)]]>將BRD距離與χ2距離結合定義為χ2-BRD距離:dχ-BRD2(Z~A,Z~B)=dχ2(Z~A,Z~B)-2||Z~A+Z~B||22Σi=1Q(z~iA-z~iB)2z~iAz~iB(z~iA+z~iB)3---(12)]]>其中表示之間的卡方距離。χ2-BRD距離的分類效果優(yōu)于單獨使用χ2距離或者BRD距離。圖2以ORL人臉庫中的一幅圖像為例,畫出了該圖像與其它239幅圖像之間的為單位長度矢量,因此的值域很小,從圖2也可以看出之間的差異過小,不利于區(qū)分它們之間的差異性。為此我們定義圖像間的“χ2-BRD相似性”為Sχ-BRD2=-log[dχ-BRD2(Z~A,Z~B)]---(13)]]>上述對數(shù)運算非線性地擴展了的值域。圖3給出了圖1中各直方圖間的顯然,各數(shù)據(jù)之間的差異得到明顯提高,更利于度量圖像之間相似性的大小。越大,表明兩幅圖像之間的相似性越大,同一幅圖像與它自身的為無窮大。2.2、MiC特征相似性采用歐氏距離度量兩個圖像在MiC特征層上的相似性。令F(x1)和F(x2)表示兩幅圖像的歸一化MiC特征,則ρ(x1,x2)=||F(x1)-F(x2)||2(14)表示了F(x1)和F(x2)之間的結構距離即為MiC相似性。兩者之間的距離越小相似性越大。三、近鄰樣本的選擇3.1、近鄰樣本的選擇準則對測試圖像y,根據(jù)公式(13)和(14)分別計算出其與任意一幅像素點為(i,j)訓練圖像xi,j的和結構距離ρ(y,xi,j)。令和分別表示y與全部N幅訓練圖像的平均和平均MiC相似性,給出以下判據(jù):判據(jù)1:若則認為測試圖像在LBP特征層不合法,標注為非法數(shù)據(jù)。對于合法數(shù)據(jù),若則xi,j在LBP特征層被標定為近鄰樣本,其中,為LBP特征合法閾值,為LBP特征近鄰閾值,和的值均為常數(shù)。判據(jù)2:若則認為測試圖像的MiC特性符合合法數(shù)據(jù)特征。若ρ(y,xi,j)≤ρC,則xi,j在局部微觀構造特征空間被標定為近鄰樣本,其中,ρT為MiC特性合法閾值,ρC為MiC特性近鄰閾值,ρT和ρC的值均為常數(shù)。判據(jù)1和判據(jù)2分別在LCP的兩層特征空間對測試樣本進行了標注。合法閾值用于判斷測試圖像是否為冒充人員,其值可根據(jù)具體應用進行選擇。本發(fā)明按照“任意一層特征滿足合法性即接受識別”的原則進行判決。對于合法數(shù)據(jù),僅當且ρ(y,xi,j)≤ρC時,xi,j才被標注為測試圖像的近鄰樣本。近鄰樣本的選擇流程如圖1中實線方框部分所示。3.2閾值訓練采用ORL、YaleB和AR三個標準人臉庫,分別計算同類樣本間的相似性、同一數(shù)據(jù)庫中異類樣本間的相似性和不同數(shù)據(jù)庫中樣本間的相似性。通過大量實驗發(fā)現(xiàn),樣本間的不依賴于具體的實驗樣本,可以給出LBP特征合法閾值和LBP特征近鄰閾值的經(jīng)驗值,其中可在2.4下方附近選擇,可在2.5上方附近選擇。MiC層上的MiC特性合法閾值ρT根據(jù)錯誤接收率和錯誤拒絕率兩類錯誤率進行選擇,實驗發(fā)現(xiàn),ρT也不依賴于具體的實驗數(shù)據(jù),可以在[0.5,0.6]之間設定經(jīng)驗值。在MiC層上,近鄰閾值與具體的實驗數(shù)據(jù)有關,需要首先利用數(shù)據(jù)庫中的訓練樣本訓練出平均類內(nèi)結構距離和平均類間結構距離,然后再選擇MiC特性近鄰閾值ρC。例如ORL庫選擇ρC=0.48比較合適,而YaleB數(shù)據(jù)庫選擇ρC=0.35比較合適。四、結果4.1、近鄰樣本的數(shù)量分布表1給出了利用ORL和AR數(shù)據(jù)庫,合法性判決分別采用兩種特征融合方案時,全部測試樣本的近鄰樣本的數(shù)量范圍。取近鄰閾值ρc=0.55。其中ORL數(shù)據(jù)庫共有240幅訓練圖像,AR數(shù)據(jù)庫中共有700幅訓練圖像,分別表示合法性采用“兩層特征均符合”和“只要一層特征符合即可”的判決方案。表1ORL庫中各種特征融合方案中的近鄰樣本的數(shù)量雖然不同測試圖像的近鄰樣本數(shù)量的分布范圍較大,但實驗證明大多數(shù)測試圖像的近鄰樣本數(shù)量分布集中于一個小范圍內(nèi)。如圖4(a)表示ORL庫中絕大多數(shù)測試樣本的近鄰樣本數(shù)量均集中在100到170之間,與訓練樣本總數(shù)240相比,原子數(shù)目減少到一半左右,與樣本類別數(shù)40相比,原子數(shù)量相對較多。圖4(b)表明AR數(shù)據(jù)庫中,近鄰樣本的數(shù)量集中在200到500之間,與訓練樣本數(shù)量700相比,減少了三分之一以上,與樣本類別數(shù)100相比,原子數(shù)量較充足。因此這種方法構造的字典既包含了足夠多的字典原子,又極大地減少了原子數(shù)量。4.2、識別速度基于分類的稀疏表示算法的識別速度取決于稀疏表示矢量的求解速度。理論和實驗均表明,當原子數(shù)量增多時,識別速度急速下降。此處列出用一臺i5處理器、內(nèi)存為4G的聯(lián)想PC機,用MATLAB2010作為編程軟件,在不同原子數(shù)量下,求解一次稀疏表示矢量所用的時間,單位為秒(s)。從ORL數(shù)據(jù)庫中選取240幅訓練樣本數(shù),原子特征數(shù)量取95,字典原子數(shù)量分別取240、150和120,表2列出了分別采用線性規(guī)劃優(yōu)化算法(l1~ls)和正則化最小二乘(RLS)算法求解一次稀疏解所需的時間。表2利用ORL人臉庫求解稀疏矢量的時長(s)表3列出了利用AR數(shù)據(jù)庫中700幅人臉圖像作為訓練樣本,在字典原子數(shù)量和原子特征數(shù)量取不同數(shù)值時,分別采用線性規(guī)劃優(yōu)化(l1~ls)算法和正則化最小二乘(RLS)算法求解一次稀疏表示矢量所用的時間。為了保證冗余字典滿足原子特征數(shù)量小于原子數(shù)量的要求,在稀疏求解前,利用PCA對人臉數(shù)據(jù)進行降維,以保證保留的原子特征數(shù)量小于訓練樣本的數(shù)量。表中第一列括號中的數(shù)字表示保留的特征數(shù)量。表3AR人臉庫上求解稀疏矢量的時長(s)利用PCA對人臉圖像進行特征提取時,識別結果受到保留特征的影響,為了克服特征提取和特征選擇對識別的影響,可采用壓縮感知算法對人臉圖像進行感知降維,稀疏求解算法同樣可以采用線性優(yōu)化算法,也可采用正交匹配跟蹤(OMP)算法。表4和表5分別給出了利用ORL和AR人臉庫和OMP算法,在不同原子數(shù)量以及不同維數(shù)的感知矩陣下,求解一個稀疏解所用的時間,單位為秒。表4ORL人臉庫上利用OMP求解稀疏矢量的時長(s)表5AR人臉庫上利用OMP求解稀疏矢量的時長(s)從表2到表5可以看出,所有稀疏求解算法所需的計算時間均隨著原子數(shù)量的降低迅速提高,尤其是在原子特征維數(shù)較多的情況下,速度的提升更加明顯。4.3、利用近鄰樣本自適應構造冗余字典稀疏表示分類的正確識別率稀疏表示理論指出,原子結構與測試圖像之間的相似性越高,其正確識別率也越高。本算法利用測試圖像的近鄰樣本作為原子,原子結構與測試樣本具有更高的相似性。因此,與用全部訓練樣本構成的字典相比,稀疏分類的正確識別率得以提高,在AR、ORL、YALEB數(shù)據(jù)庫上,無遮擋時的正確識別率提高了2%左右,在FERET數(shù)據(jù)庫上提高了3%左右,在AR數(shù)據(jù)庫上,測試圖像采用墨鏡和圍巾遮擋時,正確識別率可以分別達到84%和86.5%,提高了將近15%左右。本發(fā)明提出了一種利用LCP特征自適應構造冗余字典的方法。其創(chuàng)新性如下:第一,提出了基于比例直方圖距離的“χ2-BRD相似性”用于度量圖像在LBP特征上的近鄰程度;用簡單的歐氏距離度量圖像在MiC層上的相似性。第二,將兩層特征融合,給出了測試樣本合法性的判決方案和近鄰樣本的選擇方案,并通過大量詳細的實驗,給出了χ2-BRD特征和MiC特征的合法閾值與近鄰閾值的經(jīng)驗值取值范圍。利用近鄰樣本作為原子構造超完備的冗余字典,完成對測試圖像的稀疏表示分類。字典依據(jù)測試圖像自適應生成,字典原子和測試樣本在結構上具有更高的相似性,更符合稀疏表示理論中字典構造的原則,因此正確識別率得以顯著提高。同時字典的“厚度”縮減了一半以上,提高了稀疏表示矢量的求解速度,從而提高了識別速度。上述雖然結合附圖對本發(fā)明的具體實施方式進行了描述,但并非對本發(fā)明保護范圍的限制,所屬領域技術人員應該明白,在本發(fā)明的技術方案的基礎上,本領域技術人員不需要付出創(chuàng)造性勞動即可做出的各種修改或變形仍在本發(fā)明的保護范圍以內(nèi)。當前第1頁1 2 3 
當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1