亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種迭代重約束組稀疏表示分類的人臉識別方法與流程

文檔序號:12365719閱讀:374來源:國知局
一種迭代重約束組稀疏表示分類的人臉識別方法與流程
本發(fā)明是一種人臉識別方法,具體地說,是一種自適應(yīng)權(quán)值學(xué)習(xí)的迭代重約束組稀疏表示分類的人臉識別方法,其涉及模式識別領(lǐng)域,可用于人臉識別、目標(biāo)識別等。
背景技術(shù)
:在當(dāng)今社會中,身份確認具有十分重要的價值。近年來,人類的生物特征越來越廣泛地應(yīng)用于個人的身份鑒認,相比于傳統(tǒng)方法,利用人的生物特征做身份鑒別更安全、可靠、特征唯一、穩(wěn)定性高,不易被盜竊和破解。對于人臉識別而言,它涉及的領(lǐng)域十分廣泛,包括生物學(xué)、生理學(xué)、心理學(xué)、認知學(xué)、圖形圖像學(xué)、模式識別等領(lǐng)域,而且它與生物特性的識別鑒別方法有密切的聯(lián)系,對于人臉識別的研究最早是源于19世紀末期發(fā)表在Nature雜志上的Calton寫的文章,隨著計算機的發(fā)展和模式識別的發(fā)展,人臉識別以它應(yīng)用范圍廣的特點再次受到人們的重視,成為計算機視覺和模式識別領(lǐng)域的一個熱門子領(lǐng)域。人臉識別相比于其他的生物特征識別方法具有如下的強大優(yōu)勢:(1)無需用戶過多參與,非接觸式采集,無侵犯性;(2)對用戶沒有任何明顯刺激,便于隱藏;(3)設(shè)備成本低廉,主要是采用攝像頭來搜集人臉。因而人臉識別作為一種特殊的生物特征識別技術(shù),擁有許多獨特的應(yīng)用環(huán)境,如罪犯搜捕、自動門禁系統(tǒng)、海關(guān)過境檢查、信用卡確認等。人臉識別已然成為模式識別和圖像處理領(lǐng)域的研究熱點,已有多種回歸表示模型,如LRC(LinearRegressionClassifier)、SRC(SparseRegressionClassifier)、CRC(CollaborativeRegressionClassifier)等。本發(fā)明提出的方法屬于回歸表示的人臉識別,通過訓(xùn)練字典集對人臉圖像進行回歸表示,選取與被測圖像殘差值最小的一類,作為被測圖像的類別。經(jīng)專利查詢統(tǒng)計,國內(nèi)外已有不少人臉識別方面的專利:例如,基于有監(jiān)督的近鄰保持嵌入和支持向量機的人臉識別方法(200710114882.4)、基于廣義非線性判別分析的人臉識別方法(200710300730.3)、一種人臉識別方法(200810030577.1)、基于核的判別隨機近鄰嵌入分析的人臉識別方法(201310125325.8)等。技術(shù)實現(xiàn)要素:本發(fā)明能解決現(xiàn)有的人臉識別技術(shù)的對人臉圖像中一些大面積遮擋圖像、高復(fù)雜度擁塞圖像、偽裝圖像或表情變化劇烈的圖像的分類識別率低,計算復(fù)雜度高等問題,提供了一種基于迭代重約束的組稀疏表示分類器的自適應(yīng)特征權(quán)值學(xué)習(xí)的人臉識別方法。本發(fā)明解決技術(shù)問題采用的技術(shù)方案是:一種迭代重約束組稀疏表示分類的人臉識別方法,包括字典集訓(xùn)練過程、計算系數(shù)和權(quán)值的初值過程、系數(shù)和權(quán)值的更新過程和圖像分類過程:a)字典集訓(xùn)練過程:隨機選擇圖像樣本,按其類別信息將其分成c類,組成訓(xùn)練字典集X=[X1,X2,…,Xc]∈Rm×n,每一類有各自的樣本標(biāo)簽。其中Xi=[xi1,xi2,…,xini]∈Rm×ni是樣本子集,i∈1,2,…,c。xij∈Rm是第i類中的第j個樣本,維度為m,ni表示第i個類別中訓(xùn)練樣本的序數(shù),n=∑i=1cni是樣本總數(shù);b)計算系數(shù)和權(quán)值的初值過程:其中前一部分表示重建圖像的殘差值與其特征權(quán)值s的點乘集,表示依元素相乘。后一部分表示以l2,p(p>0)混合范數(shù)為計算標(biāo)準(zhǔn)的稀疏表示系數(shù)θ的加權(quán)正則項。通過所訓(xùn)練字典集對被測圖像進行回歸表示,得到稀疏表示系數(shù)θ和殘差值e=y(tǒng)-Xθ,并對它們進行加權(quán),權(quán)值分別為η和s。對θ的權(quán)值η進行自適應(yīng)距離權(quán)值學(xué)習(xí),根據(jù)被測圖像與訓(xùn)練字典集的歐式距離的不同產(chǎn)生不同的權(quán)值系數(shù)。對e的權(quán)值s進行自適應(yīng)特征權(quán)值學(xué)習(xí),s的值不同,采用的范數(shù)計算方式不同;具體來說步驟b)包括以下步驟:b1通過所訓(xùn)練字典集X,用回歸方法表示被測圖像y:y=X1θ1+X2θ2+...+Xcθc=x11θ11+x12θ12+...+xcncθcnc=Xθ]]>其中,θ=[θ11,θ12,…,θcnc]T∈Rn是稀疏表示的系數(shù)向量;b2假設(shè)最優(yōu)化的回歸表示系數(shù)向量θ*已知,令δi(θ*)表示第i類中回歸表示系數(shù)θ*中的非零的系數(shù)向量,將被測圖像y通過第i類的訓(xùn)練字典集進行回歸表示,得到y(tǒng)i=Xδi(θ*),i=1,…,c。殘差值e=y(tǒng)-Xδi(θ*);b3建立通用回歸表示框架:其中,p為1,2,分別表示l1范數(shù)和l2范數(shù)??梢昘為X=[r1,r2,…,rm],其中ri∈Rn,為X的第i行。令e=y(tǒng)-Xθ=[e1,e2,…,en],其中ei=y(tǒng)i-riθ,i=1,2,…,m??傻玫綒埐钪礶的權(quán)值s,s=diag([s1,s2,…,sc])∈Rm×m:si=exp(-μei2+μδ)1+exp(-μei2+μδ)]]>其中μ和δ是正標(biāo)量,參數(shù)μ表示收縮率,取值為(0,1),參數(shù)δ決定了局部與整體的界限點;b4通過特征的歐式距離約束,建立自適應(yīng)特征權(quán)值。利用權(quán)值大小排除距離真實目標(biāo)最遠的像素點,建立特征約束的加權(quán)組稀疏表示模型:其中ri用來評估被測樣本被每一類字典樣本所進行的回歸表示后的相對重要程度,S=diag([s1,s2,…,sc])∈Rm×m,S是對角矩陣;b5對被測的干擾點,即無效像素點,建立局部約束距離dik:其中dik=[di1,di2,…,dini]T∈Rni×1表示被測樣本與訓(xùn)練樣本之間的歐式距離,k=1,…,ni;b6建立稀疏表示系數(shù)權(quán)值η,ηi=[ηi1,ηi2,…,ηini]T,i=1,2,…,c。令ηik=ridik,回歸模型可表示為:其中p∈(0,2],表示混合范數(shù)的取值;b7引入下列正則項μ,將上述目標(biāo)模型轉(zhuǎn)化為光滑函數(shù):其中μ是一個極小正標(biāo)量。當(dāng)p≥1時,目標(biāo)模型E(θ,s,μ)為凸函數(shù),即存在一個全局最優(yōu)解;b8迭代求解s和η,以得到期望的稀疏表示系數(shù)θ*,當(dāng)θ為初始值時,上述目標(biāo)模型可更新為:s.t.sT1=1,si≥0,i=1~m1表示元素全為1的列向量;b9通過wi=(yi-riTθ)2,ω∈Rm×1,將上述目標(biāo)模型更新為:s.t.sT1=1,si≥0,i=1~m其拉格朗日方程為:L(s,κ,βi)=12||s+w2γ||22-κ(sT1-1)-βTs]]>其中,κ和β(β≥0)為拉格朗日數(shù)乘算子,根據(jù)KKT優(yōu)化條件,可得到s的優(yōu)化方程為:s=(-w2γ+κ)+]]>b10為了不失一般性,假定w=[wi1,…,wim]中元素按從大到小排列,若優(yōu)化向量s中有l(wèi)(l>0)個0元素,令sm-l=0且sm-1-1>0,可得:-wm-l-12γ+κ>0-wm-l2γ+κ=0.]]>其中wm-l-1為第m-l-1個大于零的元素,wm-l為第m-l等于零的元素,m為維度。b11根據(jù)限制條件,ST1=1,可得:Σj=1m-l-1(-wj2γ+κ)=1⇒κ=1m-l-1+Σj=1m-l-1wj2γ(m-l-1)]]>進一步求解得:γ=(m-l-1)wm-l2-12Σj=1m-l-1wj]]>b12通過上述所得參數(shù)κ和γ,計算出待優(yōu)化參數(shù)s的值:s=(wk+1-w)/[((m-l-1)wk+1-Σj=1m-l-1wj)].]]>此時即可通過調(diào)節(jié)非零元素l的值來優(yōu)化s的取值;b13當(dāng)s的取值固定的時候,b7的目標(biāo)模型可更新為:為了簡化表示,引入∏=diag([η1,η2,…,ηc])∈Rn×n、α=∏θ可得:E(α)=minα(y-X′α)TS(y-X′α)+λΣi=1c(αiTαi+μ2)p/2]]>其中X′=X∏-1;b14通過E(α)對α取偏導(dǎo),且令偏導(dǎo)值為0,即:∂(E(α))∂α=-2X′TSy+2X′TSX′α+2λDα=0]]>其中D是塊對角矩陣,簡化上述公式得到α的值為:α=(X'TSX'+λD)-1X'TSyc)系數(shù)和權(quán)值的更新過程:根據(jù)權(quán)值η和s的變化對θ進行迭代更新,重復(fù)迭代過程直至滿足收斂條件或達到最大迭代次數(shù),輸出最終的θ值;具體來說步驟c)包括以下步驟:c1如步驟b3所示通過回歸表示框架得到殘差值e=y(tǒng)-Xα;c2如步驟b12所示計算特征權(quán)值s;c3如步驟b13所示根據(jù)s值計算S,D和Π;c4如步驟b14所示通過α=(X'TSX'+λD)-1X'TSy得到α的值,依式θ=Π-1α得到稀疏表示系數(shù)θ;c5若滿足收斂條件(||Et+1-Et||2/||Et||2<ζ,ζ是一個極小正標(biāo)量),或達到最大迭代次數(shù)(tmax=50),則輸出最終的θ值。否則跳轉(zhuǎn)至步驟c1,重復(fù)步驟c1-c5過程。d)圖像分類過程:以最終θ值所對應(yīng)的最小殘差值e對被測樣本進行分類,得到分類識別結(jié)果。本發(fā)明的技術(shù)構(gòu)思:解決現(xiàn)有的多種回歸表示模型LRC(LinearRegressionClassifier)、SRC(SparseRegressionClassifier)、CRC(CollaborativeRegressionClassifier)及其加權(quán)模型WSRC(WeightedSpareseRegressionClassifier)和WCRC(WeightedCollaborativeRegressionClassifier)等存在的兩個問題:(1)方法中假定所有訓(xùn)練樣本之間的區(qū)別相同,這明顯是不現(xiàn)實的;(2)對大面積遮擋圖像、高復(fù)雜度擁塞圖像、偽裝圖像或人臉表情變化劇烈的圖像識別率低,魯棒性差。針對以上問題,本發(fā)明提出一種聯(lián)合表示框架模型,并利用l2,p范數(shù)正則項將類別標(biāo)簽信息引入模型,對稀疏表示系數(shù)和殘差值進行加權(quán)迭代,減小受遮擋圖像中無效像素點的影響,增加模型魯棒性。綜上所述,本發(fā)明利用自適應(yīng)權(quán)值學(xué)習(xí)的思想提出了一種自適應(yīng)權(quán)值學(xué)習(xí)的迭代重約束組稀疏表示分類的人臉識別方法,能夠很好的克服現(xiàn)有多種回歸模型的缺點。本發(fā)明的優(yōu)點是:能提高對大面積遮擋圖像、高復(fù)雜度擁塞圖像、偽裝圖像或人臉表情變化劇烈圖像識別的識別率。附圖說明圖1a是AR人臉庫中的原始人臉樣本,圖1b是AR人臉庫中的遮擋人臉樣本,圖1c是利用不同方法進行回歸表示后的殘差值,圖1d是所得殘差值在對數(shù)領(lǐng)域中的映射;圖2a是多種方法在ExYaleB人臉數(shù)據(jù)庫中的識別率對比,圖2b是多種方法在PIE人臉數(shù)據(jù)庫中的識別率對比;圖3是ExYaleB庫中不同擁塞率的人臉圖像樣本;圖4a是ExYaleB庫中不同白塊遮擋程度下的人臉圖像樣本,圖4b是ExYaleB庫中黑塊遮擋程度下的人臉圖像樣本;圖5a是不同白塊遮擋程度下的各方法的識別率,圖5b是不同黑塊遮擋程度下的各方法的識別率;圖6是一種迭代重約束組稀疏表示分類的人臉識別方法的流程圖。具體實施方式下面結(jié)合附圖,進一步說明本發(fā)明的技術(shù)方案。一種迭代重約束組稀疏表示分類的人臉識別方法,包括字典集訓(xùn)練過程、計算系數(shù)和權(quán)值的初值過程、系數(shù)和權(quán)值的更新過程和圖像分類過程:a)字典集訓(xùn)練過程:隨機選擇圖像樣本,按其類別信息將其分成c類,組成訓(xùn)練字典集X=[X1,X2,…,Xc]∈Rm×n,每一類有各自的樣本標(biāo)簽。其中Xi=[xi1,xi2,…,xini]∈Rm×ni是樣本子集,i∈1,2,…,c。xij∈Rm是第i類中的第j個樣本,維度為m,ni表示第i個類別中訓(xùn)練樣本的序數(shù),n=∑i=1cni是樣本總數(shù);b)計算系數(shù)和權(quán)值的初值過程:其中前一部分表示重建圖像的殘差值與其特征權(quán)值s的點乘集,表示依元素相乘。后一部分表示以l2,p(p>0)混合范數(shù)為計算標(biāo)準(zhǔn)的稀疏表示系數(shù)θ的加權(quán)正則項。通過所訓(xùn)練字典集對被測圖像進行回歸表示,得到稀疏表示系數(shù)θ和殘差值e=y(tǒng)-Xθ,并對它們進行加權(quán),權(quán)值分別為η和s。對θ的權(quán)值η進行自適應(yīng)距離權(quán)值學(xué)習(xí),根據(jù)被測圖像與訓(xùn)練字典集的歐式距離的不同產(chǎn)生不同的權(quán)值系數(shù)。對e的權(quán)值s進行自適應(yīng)特征權(quán)值學(xué)習(xí),s的值不同,采用的范數(shù)計算方式不同;具體來說步驟b)包括以下步驟:b1通過所訓(xùn)練字典集X,用回歸方法表示被測圖像y:y=X1θ1+X2θ2+...+Xcθc=x11θ11+x12θ12+...+xcncθcnc=Xθ]]>其中,θ=[θ11,θ12,…,θcnc]T∈Rn是稀疏表示的系數(shù)向量;b2假設(shè)最優(yōu)化的回歸表示系數(shù)向量θ*已知,令δi(θ*)表示第i類中回歸表示系數(shù)θ*中的非零的系數(shù)向量,將被測圖像y通過第i類的訓(xùn)練字典集進行回歸表示,得到y(tǒng)i=Xδi(θ*),i=1,…,c。殘差值e=y(tǒng)-Xδi(θ*);b3建立通用回歸表示框架:其中,p為1,2,分別表示l1范數(shù)和l2范數(shù)??梢昘為X=[r1,r2,…,rm],其中ri∈Rn,為X的第i行。令e=y(tǒng)-Xθ=[e1,e2,…,en],其中ei=y(tǒng)i-riθ,i=1,2,…,m。可得到殘差值e的權(quán)值s,s=diag([s1,s2,…,sc])∈Rm×m:si=exp(-μei2+μδ)1+exp(-μei2+μδ)]]>其中μ和δ是正標(biāo)量,參數(shù)μ表示收縮率,取值為(0,1),參數(shù)δ決定了局部與整體的界限點;b4通過特征的歐式距離約束,建立自適應(yīng)特征權(quán)值。利用權(quán)值大小排除距離真實目標(biāo)最遠的像素點,建立特征約束的加權(quán)組稀疏表示模型:其中ri用來評估被測樣本被每一類字典樣本所進行的回歸表示后的相對重要程度,S=diag([s1,s2,…,sc])∈Rm×m,S是對角矩陣;b5對被測的干擾點,即無效像素點,建立局部約束距離dik:其中dik=[di1,di2,…,dini]T∈Rni×1表示被測樣本與訓(xùn)練樣本之間的歐式距離,k=1,…,ni;b6建立稀疏表示系數(shù)權(quán)值η,ηi=[ηi1,ηi2,…,ηini]T,i=1,2,…,c。令ηik=ridik,回歸模型可表示為:其中p∈(0,2],表示混合范數(shù)的取值;b7引入下列正則項μ,將上述目標(biāo)模型轉(zhuǎn)化為光滑函數(shù):其中μ是一個極小正標(biāo)量。當(dāng)p≥1時,目標(biāo)模型E(θ,s,μ)為凸函數(shù),即存在一個全局最優(yōu)解;b8迭代求解s和η,以得到期望的稀疏表示系數(shù)θ*,當(dāng)θ為初始值時,上述目標(biāo)模型可更新為:s.t.sT1=1,si≥0,i=1~m1表示元素全為1的列向量;b9通過wi=(yi-riTθ)2,ω∈Rm×1,將上述目標(biāo)模型更新為:minsΣi=1m{siwi2+γsi2}=mins||s+w2γ||22]]>s.t.sT1=1,si≥0,i=1~m其拉格朗日方程為:L(s,κ,βi)=12||s+w2γ||22-κ(sT1-1)-βTs]]>其中,κ和β(β≥0)為拉格朗日數(shù)乘算子,根據(jù)KKT優(yōu)化條件,可得到s的優(yōu)化方程為:s=(-w2γ+κ)+]]>b10為了不失一般性,假定w=[wi1,…,wim]中元素按從大到小排列,若優(yōu)化向量s中有l(wèi)(l>0)個0元素,令sm-l=0且sm-1-1>0,可得:-wm-l-12γ+κ>0-wm-l2γ+κ=0.]]>其中wm-l-1為第m-l-1個大于零的元素,wm-l為第m-l等于零的元素,m為維度。b11根據(jù)限制條件,ST1=1,可得:Σj=1m-l-1(-wj2γ+κ)=1⇒κ=1m-l-1+Σj=1m-l-1wj2γ(m-l-1)]]>進一步求解得:γ=(m-l-1)wm-l2-12Σj=1m-l-1wj]]>b12通過上述所得參數(shù)κ和γ,計算出待優(yōu)化參數(shù)s的值:s=(wk+1-w)/[((m-l-1)wk+1-Σj=1m-l-1wj)].]]>此時即可通過調(diào)節(jié)非零元素l的值來優(yōu)化s的取值;b13當(dāng)s的取值固定的時候,b7的目標(biāo)模型可更新為:為了簡化表示,引入∏=diag([η1,η2,…,ηc])∈Rn×n、α=∏θ可得:E(α)=minα(y-X′α)TS(y-X′α)+λΣi=1c(αiTαi+μ2)p/2]]>其中X′=X∏-1;b14通過E(α)對α取偏導(dǎo),且令偏導(dǎo)值為0,即:∂(E(α))∂α=-2X′TSy+2X′TSX′α+2λDα=0]]>其中D是塊對角矩陣,簡化上述公式得到α的值為:α=(X'TSX'+λD)-1X'TSyc)系數(shù)和權(quán)值的更新過程:根據(jù)權(quán)值η和s的變化對θ進行迭代更新,重復(fù)迭代過程直至滿足收斂條件或達到最大迭代次數(shù),輸出最終的θ值;具體來說步驟c)包括以下步驟:c1如步驟b3所示通過回歸表示框架得到殘差值e=y(tǒng)-Xα;c2如步驟b12所示計算特征權(quán)值s;c3如步驟b13所示根據(jù)s值計算S,D和Π;c4如步驟b14所示通過α=(X'TSX'+λD)-1X'TSy得到α的值,依式θ=Π-1α得到稀疏表示系數(shù)θ;c5若滿足收斂條件(||Et+1-Et||2/||Et||2<ζ,ζ是一個極小正標(biāo)量),或達到最大迭代次數(shù)(tmax=50),則輸出最終的θ值。否則跳轉(zhuǎn)至步驟c1,重復(fù)步驟c1-c5過程。d)圖像分類過程:以最終θ值所對應(yīng)的最小殘差值e對被測樣本進行分類,得到分類識別結(jié)果。實驗采用AR數(shù)據(jù)集的一個子集,該子集包括2599個圖像,共100類,包括50種男性圖像,50種女性圖像,所有圖像均調(diào)整至64×50像素大小,每像素的灰度值在0-255范圍之內(nèi)。表1是多種回歸方法對同一圖像庫在不同比例噪聲影響下的識別率的對比。從圖中可知,在噪聲較低時,五種方法均保持了較好的識別率,然而隨著噪聲比例增大,本發(fā)明的IRGSC方法仍然保持較其他算法更高的識別率。表2是AR數(shù)據(jù)庫中,多種方法對真實遮擋物影響下的識別率對比,可明顯看出,本發(fā)明的IRGSC方法對大面積遮擋,如墨鏡和圍巾影響下的圖像仍然有較高的識別率。表1附加了不同比例的噪聲影響下IRGSC,RRC,RSRC,RCRC,和WGSC方法的識別率對比表2AR數(shù)據(jù)庫中多種方法對真實遮擋物影響下的圖像的識別率對比當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1