本發(fā)明涉及模式識別、圖像處理和計算機視覺領(lǐng)域,特別是涉及一種基于gabor張量的mlfda人臉識別方法。
背景技術(shù):
:近年來,人臉識別憑借著其潛在的應(yīng)用價值以及理論挑戰(zhàn)已經(jīng)成為計算機視覺領(lǐng)域的一個研究熱點。人臉識別不僅在信息安全領(lǐng)域得到廣泛的應(yīng)用與發(fā)展,其在日常生活中也有廣泛的應(yīng)用前景。例如現(xiàn)在常見的電子人臉考勤系統(tǒng),對大量圖片按人臉圖像進行歸檔分類,手機客戶端的身份驗證等。同時人臉識別技術(shù)在移動支付平臺也逐漸嶄露頭角,2015年,馬云在信息和通信工程類展覽會(cebit)上演示了“刷臉支付”,paypal也即將推出的“人臉識別”支付工具,這將有望讓人們丟棄傳統(tǒng)意義上的錢包,不過也對人臉識別技術(shù)提出了更高的要求,開啟了人臉識別的新時代。由于人臉圖像容易受到光照、姿態(tài)、表情和遮擋物等外在因素的影響,使得人臉圖像成為一個相對復(fù)雜的樣本數(shù)據(jù)。鑒于gabor小波有著良好的視覺特性和生物學(xué)背景,其在人臉識別的特征提取中表現(xiàn)出巨大的優(yōu)勢,已經(jīng)成為人臉識別中最經(jīng)典的特征提取方法之一。另外,gabor小波能夠為圖像處理提供較好的方向選擇和尺度選擇,即可以將gabor小波變換看做是一個對圖像方向和尺度敏感的顯微鏡,用來捕獲原始圖像在局部區(qū)域內(nèi)的多尺度和多方向特征。故無論從生物學(xué)角度還是技術(shù)角度考慮,經(jīng)gabor變換后的圖像特征表現(xiàn)出極大的優(yōu)越性。雖然gabor特征在人臉識別獲得了成功的應(yīng)用,但是由于使用多尺度多方向的gabor核函數(shù),使得濾波后的圖像特征維數(shù)大幅增加,往往會導(dǎo)致“維數(shù)災(zāi)難”,而如何從gabor濾波圖像的高維特征空間中通過子空間學(xué)習(xí)來提取最具鑒別能力的特征一直是尚未解決的難點。子空間學(xué)習(xí)就是把原始的高維數(shù)據(jù)壓縮到一個數(shù)據(jù)分布更加緊湊的低維空間。karlpearson在1901年最早提出了主成分分析(principalcomponentanalysis,簡稱pca),屬于非監(jiān)督的維數(shù)約簡方法,現(xiàn)在被廣泛應(yīng)用在人臉識別中,旨在最大化樣本在投影空間中的方差。在未來的幾年內(nèi),相繼誕生了許多新的算法,其中線性判別分析(lineardiscriminantanalysis,簡稱lda)比較典型,其目的是通過最小化類內(nèi)離散度矩陣和最大化類間離散度矩陣來嵌入判別信息,與pca相比,lda利用了數(shù)據(jù)的類別信息。局部保持投影(localitypreservingprojections,lpp)是一種新的子空間分析方法,它是非線性方法le的線性近似,不僅可以保持原始數(shù)據(jù)非線性流形的結(jié)構(gòu)特點,而且也能夠獲得新樣本點在低維空間的投影。局部線性判別式分析(localfisherdiscriminantanalysis,lfda)繼承了lda和lpp的優(yōu)點,不僅利用了數(shù)據(jù)的類別信息,還可以保持原始數(shù)據(jù)非線性流形的結(jié)構(gòu)特點。但是,這幾種方法在計算過程中,都需要把圖像數(shù)據(jù)向量化,無形中增加了計算復(fù)雜度。技術(shù)實現(xiàn)要素:發(fā)明目的:本發(fā)明的目的是提供一種能夠解決現(xiàn)有技術(shù)中存在的缺陷的基于gabor張量的mlfda人臉識別方法。技術(shù)方案:為達(dá)到此目的,本發(fā)明采用以下技術(shù)方案:本發(fā)明所述的基于gabor張量的mlfda人臉識別方法,其特征在于:包括訓(xùn)練階段和識別階段;訓(xùn)練階段的方法為:首先,將所有的訓(xùn)練樣本的每張人臉圖像進行二維gabor濾波,一幅人臉圖像得到40個gabor特征,然后,將每個訓(xùn)練樣本求得的gabor特征合成一個三階張量,利用mlfda算法計算得到張量樣本的最佳投影矩陣,利用最佳投影矩陣將張量樣本投影至低維的子空間;識別階段的方法為:進行二維gabor濾波,將求得的gabor特征合成一個三階張量,利用最佳投影矩陣將待測樣本投影至低維的子空間,然后采用最近鄰分類器進行分類識別,預(yù)測待測樣本所屬的對象。進一步,所述訓(xùn)練階段中,每個樣本都是在5個不同的尺度、8個不同的方向上進行采樣。進一步,所述訓(xùn)練階段中,二維gabor濾波利用gabor小波對人臉圖像進行卷積,二維gabor小波如式(1)所示:式(1)中,ψμ,v(z)是二維gabor小波函數(shù)的輸出,σ=2π,z為空間位置坐標(biāo),kv=kmax/fv為采樣尺度,其中v為尺度標(biāo)號,kmax為最大頻率,f是頻率中的內(nèi)核間隔因子,φμ=πμ/8為采樣方向,其中μ為方向標(biāo)號。進一步,所述訓(xùn)練階段中,最佳投影矩陣如式(2)所示:式(2)中,為最佳投影矩陣,n=1,2,…,n,in表示張量樣本在第n-mode的維數(shù),pn為張量樣本被投影至低維子空間后第n-mode的維數(shù),pn<in,為投影之后的張量樣本,m=1,2,…,m,為原始張量,為第i個投影之后的張量樣本,為第j個投影之后的張量樣本,如式(3)所示,如式(5)所示;式(3)中,wij如式(4)所示,其中nc為第c類數(shù)據(jù)的訓(xùn)練樣本數(shù),ci為訓(xùn)練樣本所屬的類別標(biāo)簽,cj為訓(xùn)練樣本所屬的類別標(biāo)簽;式(4)中,為第i個訓(xùn)練樣本,為第j個訓(xùn)練樣本,t為高斯核函數(shù)的參數(shù);有益效果:本發(fā)明公開了一種基于gabor張量的mlfda人臉識別方法,對光照和姿態(tài)變化具有較強的魯棒性,并且這是一種有監(jiān)督的學(xué)習(xí)算法,利用了數(shù)據(jù)的類別信息,提高了人臉的識別率。附圖說明圖1為本發(fā)明具體實施方式的方法流程圖;圖2為本發(fā)明具體實施方式的gabor濾波器的幅值響應(yīng);圖3為本發(fā)明具體實施方式的人臉圖像的gabor濾波結(jié)果;圖4為本發(fā)明具體實施方式的三階張量及其展開示意圖;圖5為本發(fā)明具體實施方式的三階張量與矩陣的1-modeproduct示意圖;圖6為yale、orl、feret人臉庫的一個對象的人臉圖片。具體實施方式下面結(jié)合附圖和具體實施方式對本發(fā)明的技術(shù)方案作進一步的介紹。本具體實施方式公開了一種基于gabor張量的mlfda人臉識別方法,如圖1所示,包括訓(xùn)練階段和識別階段;訓(xùn)練階段的方法為:首先,將所有的訓(xùn)練樣本的每張人臉圖像進行二維gabor濾波,一幅人臉圖像得到40個gabor特征,然后,將每個訓(xùn)練樣本求得的gabor特征合成一個三階張量,利用mlfda算法計算得到張量樣本的最佳投影矩陣,利用最佳投影矩陣將張量樣本投影至低維的子空間;識別階段的方法為:進行二維gabor濾波,將求得的gabor特征合成一個三階張量,利用最佳投影矩陣將待測樣本投影至低維的子空間,然后預(yù)測待測樣本所屬的對象。訓(xùn)練階段中,二維gabor濾波利用gabor小波對人臉圖像進行卷積,二維gabor小波如式(1)所示:式(1)中,ψμ,v(z)是二維gabor小波函數(shù)的輸出,σ=2π,z為空間位置坐標(biāo),kv=kmax/fv為采樣尺度,其中v為尺度標(biāo)號,kmax為最大頻率,f是頻率中的內(nèi)核間隔因子,φμ=πμ/8為采樣方向,其中μ為方向標(biāo)號。在空域中,二維gabor濾波器的參數(shù)φμ,kv和σ分別反映了濾波器紋理方向、紋理的波長和高斯窗口的大小。本具體實施方式采用gabor核函數(shù)的幅值響應(yīng)與圖像進行卷積,圖2顯示了gabor核函數(shù)在5個尺度、8個方向上的幅值響應(yīng)。將原始人臉圖像記為i,通過將其分別與上述40個gabor濾波器進行卷積,可以得到基于gabor變換的人臉圖像,其數(shù)學(xué)表示為:j(z)=i(z)*ψμ,v(z)(2)其中,z=(x,y),j(z)稱為gabor人臉。利用gabor小波對原始圖像進行濾波后得到的人臉特征是復(fù)數(shù)的形式,其可寫成:其中a和分別表示gabor人臉j(z)的幅值特征和相位特征,它們的定義如下:由于gabor的相位信息隨著空間位置變化呈現(xiàn)出周期性,而其幅值變化則相對平滑穩(wěn)定,故本方法這里選取gabor的幅值特征,圖3是orl數(shù)據(jù)庫中一幅原始人臉圖像與其40個gabor幅值特征(每一行代表一個方向,每一列代表一個尺度)的示意圖。圖像中的每個像素點共有40個gabor幅值系數(shù),這可以看作一個40維的gabor特征。所以一個大小為h×w的二維圖像,可以經(jīng)過40個gabor濾波器后形成一個h×w×40的三階gabor張量。為了表示清晰,本方法用花樣字體(monotypecorsiva)表示張量(例如x),用大寫新羅馬字體(timesnewroman)表示矩陣(例如x),用小寫字母表示尺度(例如i)。張量又稱為多階陣列,是向量和矩陣的高階推廣。n階張量可表示成如圖4就是一個的三階張量及其展開示意圖。張量的范數(shù)可表示為:兩個相同維數(shù)大小張量的內(nèi)積可表示為:張量的n模式展開(又稱為n模式矩陣化)矩陣用x(n)表示,張量的n模式纖維(fiber)是矩陣x(n)的列,即張量與矩陣的n模乘積用表示,是一個i1×…in-1×j×in+1×…×in大小的張量,其(i1,…,in-1,j,in+1,…,in)元素定義為如圖5為三階張量與矩陣的1-modeproduct示意圖。訓(xùn)練階段中,最佳投影矩陣如式(9)所示:式(9)中,為最佳投影矩陣,n=1,2,…,n,in表示張量樣本在第n-mode的維數(shù),pn為張量樣本被投影至低維子空間后第n-mode的維數(shù),pn<in,為投影之后的張量樣本,m=1,2,…,m,為原始張量,為第i個投影之后的張量樣本,為第j個投影之后的張量樣本,如式(10)所示,如式(12)所示;式(10)中,wij如式(11)所示,nc為第c類數(shù)據(jù)的訓(xùn)練樣本數(shù),ci為訓(xùn)練樣本所屬的類別標(biāo)簽,cj為訓(xùn)練樣本所屬的類別標(biāo)簽;式(11)中,為第i個訓(xùn)練樣本,為第j個訓(xùn)練樣本,t為高斯核函數(shù)的參數(shù);為了驗證所提方法的有效性,我們分別在orl、feret和yale三個公開數(shù)據(jù)庫上進行實驗。圖6為yale、orl、feret人臉庫的一個對象的人臉圖片。本方法中所用的feret數(shù)據(jù)庫含了100個人的700幅圖片,每人共有7幅包含光照、表情和姿態(tài)變化的圖片。在實驗中,所有圖片均被統(tǒng)一裁剪到40×40大小。在feret實驗中,本方法隨機選取每個人的4張圖片作為訓(xùn)練樣本,剩下的則作為測試樣本,本方法為每組實驗重復(fù)10次并取其平均值作為最終的結(jié)果。orl人臉庫包含40個人,每個人10幅圖像,共400張圖像,每張圖片的大小為92×112。數(shù)據(jù)庫中40個人來自于不同種族,且年齡也不相同。如圖4所示,人的人臉在表情和細(xì)節(jié)上均有變化,主要明顯特征有笑與不笑、眼睛睜著或合著,戴眼鏡或不帶,其中姿態(tài)也有變化。實驗中,每個人隨機抽取一半的圖像作為訓(xùn)練集,剩下的作為測試集。將每組實驗重復(fù)10次取其平均值作為最終的結(jié)果。yale數(shù)據(jù)庫包含15個人臉的165幅圖片,每個人臉共有11張不同表情、光照變化的圖像。如圖4所示,其從左到右依次是中心光照、戴眼鏡、開心、左側(cè)光照、不戴眼鏡、正常、右側(cè)光照、傷心、昏昏欲睡、驚訝和眨眼變化。在我們的實驗中,所有圖片均被裁剪到100×100大小。在yale實驗中,我們隨機選取5張圖片作為訓(xùn)練樣本,剩下的作為測試樣本,我們將每組實驗重復(fù)10次,并取其平均值作為最終的結(jié)果。本方法在多個人臉庫上的實驗結(jié)果表明,其對人臉識別中的光照、姿態(tài)和表情變化具有一定的健壯性,其相比于傳統(tǒng)方法,識別率得到了較大提高,其實驗對比結(jié)果如表1所示。表1各算法在人臉庫上的識別率pcalpplfdampcagabor+mlfdaorl數(shù)據(jù)庫89.50%88.68%82.78%94.77%98.00%feret數(shù)據(jù)庫47.92%54.16%62.50%46.50%80.21%yale數(shù)據(jù)庫81.11%80.44%80.78%76.11%88.33%當(dāng)前第1頁12