本發(fā)明涉及模式識別領(lǐng)域和人工智能領(lǐng)域,具體涉及融合模糊2dpca和模糊2dlda的人臉識別方法。
背景技術(shù):
人臉識別是計算機視覺和模式識別領(lǐng)域研究的一個熱點問題。二維主成分分析(two-dimensionalprincipalcomponentanalysis,2dpca)和二維線性判別分析(two-dimensionallineardiscriminantanalysis,2dlda)是常用的二維特征提取方法,2dpca是直接利用人臉圖像矩陣提取人臉的主成分構(gòu)成特征臉,能保留樣本的整體空間信息,但屬于無監(jiān)督類學習方法,不能有選擇地保留樣本的類別信息;2dlda是利用圖像矩陣直接構(gòu)造離散度矩陣,尋找使類內(nèi)離散度最小、類間離散度最大的投影矩陣對數(shù)據(jù)進行特征提取,因此具有良好的類別鑒定能力,被廣泛應用于人臉識別領(lǐng)域。但是,2dpca和2dlda只能提取圖像矩陣的行或列一個方向上的特征,無法同時提取行和列兩個方向的特征。另外,由于人臉圖像采集過程中存在噪聲信息,2dpca和2dlda在處理噪聲信息方面存在不足。
技術(shù)實現(xiàn)要素:
本發(fā)明將模糊集理論引入2dpca與2dlda,運用模糊2dpca與模糊2dlda的方法分別提取圖像矩陣行和列的特征信息,同時將圖像矩陣壓縮,將壓縮的圖像矩陣按照列拉成向量,并計算該向量的特征值和特征向量,然后將向量投影到特征向量上,最后用最近鄰分類得出結(jié)果。本發(fā)明方法融合了圖像矩陣特征提取和向量特征提取,既能夠有效地考慮圖像樣本的結(jié)構(gòu)信息,又能提取樣本的鑒別特征信息,從而實現(xiàn)準確高效的人臉識別。
本發(fā)明的實現(xiàn)步驟為:
融合模糊2dpca和模糊2dlda的人臉識別方法,包括以下步驟:
步驟一,從orl人臉數(shù)據(jù)庫中獲取人臉圖像作為訓練樣本;
步驟二,利用訓練樣本圖像矩陣得到模糊隸屬度uik的值和類中心vi的值;
步驟三,根據(jù)訓練樣本圖像矩陣構(gòu)造模糊二維總體散射矩陣sf2dt;
步驟四,計算訓練樣本圖像矩陣的模糊二維總體散射矩陣sf2dt的特征值和特征向量;
步驟五,由訓練樣本圖像矩陣得到模糊二維類間散射矩陣sf2db;
步驟六,計算訓練樣本圖像矩陣的模糊二維總體散射矩陣逆矩陣sf2dt-1與模糊二維類間散射矩陣sf2db的乘積矩陣的特征值和特征向量;
步驟七,利用投影矩陣x和y對人臉圖像訓練樣本矩陣和測試樣本矩陣進行壓縮,得到壓縮后的訓練樣本矩陣zk及壓縮后的測試樣本矩陣z′k;
步驟八,對壓縮后的訓練樣本矩陣zk和壓縮后的測試樣本矩陣z′k進行處理,計算出人臉識別率。
進一步,所述步驟二中計算訓練樣本圖像矩陣的模糊隸屬度uik值和類中心vi值的公式分別為:
進一步,所述步驟三中模糊二維總體散射矩陣sf2dt的計算公式為:
進一步,所述步驟四中模糊二維總體散射矩陣sf2dt的特征值和特征向量的計算公式為:sf2dtα=λα,其中:λ為模糊二維總體散射矩陣sf2dt的特征值,α為對應的特征向量。
進一步,所述步驟五中模糊二維類間散射矩陣sf2db的計算公式為:
進一步,所述步驟六中乘積矩陣的特征值和特征向量的計算公式為:sf2dt-1sf2dbγ=γβ,其中:γ為乘積矩陣sf2dt-1sf2db的特征向量,β為對應的特征值。
進一步,所述步驟六中壓縮后的訓練樣本矩陣zk和壓縮后的測試樣本矩陣z′j的計算公式分別為:zk=xtaky、z′j=xtbjy,其中:ak為第k個二維人臉圖像訓練樣本,bj為第j個二維人臉圖像測試樣本。
進一步,所述步驟八具體為:將壓縮后的訓練樣本矩陣zk和和壓縮后的測試樣本矩陣z′k分別按列拉成向量得到向量zk和z′j,然后提取向量zk的鑒別信息,得到特征轉(zhuǎn)換矩陣q;將向量zk和z′j分別投影到特征轉(zhuǎn)換矩陣q上得到投影后的訓練樣本ωk和測試樣本ω′j;最后用最近鄰分類器對訓練樣本ωk和測試樣本ω′j進行分類處理,計算出識別率。
本發(fā)明的有益效果為:人臉圖像中含有噪聲信號,利用本發(fā)明的人臉識別方法在處理含噪圖像方面優(yōu)于2dpca和2dlda;且本發(fā)明從圖像矩陣行和列兩個方向進行壓縮,在圖像壓縮方面要優(yōu)于單方向的2dpca和2dlda;另外,本發(fā)明將圖像矩陣雙向壓縮與向量特征提取相結(jié)合,人臉圖像分類效率更高。
附圖說明
圖1為本發(fā)明融合模糊2dpca和模糊2dlda的人臉識別方法流程圖。
具體實施方式
為了便于理解本發(fā)明,下面結(jié)合附圖和實施例對本發(fā)明作進一步詳細說明,下述僅作為示例性,不限定本發(fā)明的保護范圍。
為計算本發(fā)明的識別率,本發(fā)明從orl人臉數(shù)據(jù)庫(http://down.61eda.com/down/code/61eda_c1584.rar)獲取人臉圖像作為訓練樣本。orl人臉數(shù)據(jù)庫是由英國劍橋大學at&t實驗室創(chuàng)建,該數(shù)據(jù)庫共包含了40個人的臉部圖像,每人10幅,10幅圖像包含了人在不同姿態(tài)、不同光照、不同表情或面部飾物狀態(tài)下的人臉狀態(tài),每幅人臉圖像樣本矩陣為112×92維。
具體實施過程如下所示:
步驟一,計算訓練樣本圖像矩陣的模糊隸屬度uik的值和類中心vi的值;
其中:c為人臉的類別數(shù),在orl數(shù)據(jù)庫中c=40,表示人臉圖像數(shù)據(jù)共有40類,即orl數(shù)據(jù)庫中共有40個人;ak為第k個二維人臉圖像訓練樣本,1≤k≤200;
計算結(jié)果如下(uik為40×200維矩陣;vi(1≤i≤40)為112×92維矩陣):
步驟二,計算訓練樣本圖像矩陣的模糊二維總體散射矩陣sf2dt;
其中:
計算結(jié)果如下(sf2dt為112×112維矩陣):
步驟三,計算模糊二維總體散射矩陣sf2dt的特征值和特征向量(前10個最大特征值對應的特征向量);
sf2dtα=λα(7)
其中:λ為模糊二維總體散射矩陣sf2dt的特征值,α為對應的特征向量;
將特征值從大到小排列,取前d個特征值為[λ1,λ2,…,λd],對應特征向量排列為[α1,α2,…,αd],最大特征值λ1所對應的特征向量α1即為投影矩陣x的第一個列向量,x=[α1,α2,…,αd];本實施例中d=10,則x為112×10維矩陣;計算結(jié)果如下:
[λ1,λ2,…,λ10]=[393.971,244.03,…,25.012](8)
步驟四,計算訓練樣本圖像矩陣的模糊二維類間散射矩陣sf2db:
計算結(jié)果如下(sf2db為92×92維矩陣):
步驟五,計算模糊二維總體散射矩陣逆矩陣sf2dt-1與模糊二維類間散射矩陣sf2db乘積矩陣的特征值和特征向量(前10個最大特征值對應的特征向量):
sf2dt-1sf2dbγ=γβ(12)
式中γ為乘積矩陣sf2dt-1sf2db的特征向量,β為對應的特征值;
將特征值從大到小排列,取前θ個特征向量為[γ1,γ2,…,γθ],對應特征值排列為[β1,β2,…,βθ],最大特征值β1所對應的特征向量γ1即為投影矩陣y的第一個列向量,y=[γ1,γ2,…,γθ];本實施例中θ=10,則y為92×10維矩陣;計算結(jié)果如下:
[β1,β2,…,βθ]=[0.0236,0.0106,…,0.002159](13)
步驟六,利用投影矩陣x和y對人臉圖像矩陣進行壓縮,用模糊二維主成分分析f2dpca的特征向量和模糊二維線性判別分析f2dlda的特征向量實現(xiàn)人臉圖像矩陣的壓縮得到壓縮后的訓練樣本矩陣zk和壓縮后的測試樣本矩陣z′j;
zk=xtaky(15)
z′j=xtbjy(16)
式中,bj為第j(1≤j≤nt,nt為二維人臉圖像的測試樣本總數(shù))個二維人臉圖像測試樣本。
步驟七,將壓縮后的訓練樣本矩陣zk和壓縮后的測試樣本矩陣z′j分別按列拉成向量得到向量zk和z′j,然后提取向量zk的鑒別信息,得到特征轉(zhuǎn)換矩陣q;將向量zk和z′j分別投影到特征轉(zhuǎn)換矩陣q上得到投影后的訓練樣本ωk和測試樣本ω′j;最后用最近鄰分類器對訓練樣本ωk和測試樣本ω′j進行分類處理,計算出識別率;
其中特征轉(zhuǎn)換矩陣q的計算步驟如下:
由n個訓練樣本向量zk(1≤k≤n)組成的樣本矩陣ψ可以被劃分為c個類別,則ψ={ψ1,ψ2,…,ψc},其中ψi是第i類樣本集合,且ni是第i類訓練樣本的數(shù)目,ni=5,1≤i≤40,
類內(nèi)散射矩陣sw、類間散射矩陣sb和總體散射矩陣st定義如下:
sw=hwhwt(17)
sb=hbhbt(18)
st=hthtt(19)
矩陣hw、hb和ht可以進行如下計算:
其中:
計算出矩陣ht的奇異值分解(svd)為ht=u1σtv1t,若矩陣
令
最近鄰分類器對結(jié)果進行分類處理,可計算出人臉識別率為92.5%。
如上所述實施例為本發(fā)明優(yōu)選的實施方式,但本發(fā)明并不限于上述實施方式,在不背離本發(fā)明的實質(zhì)內(nèi)容的情況下,本領(lǐng)域技術(shù)人員能夠做出的任何顯而易見的改進、替換或變型均屬于本發(fā)明的保護范圍。