亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于非線性特征和模型合并的LDA人臉識別方法與流程

文檔序號:12468558閱讀:207來源:國知局
基于非線性特征和模型合并的LDA人臉識別方法與流程
本發(fā)明屬于圖像處理
技術(shù)領(lǐng)域
,更進一步涉及模式識別
技術(shù)領(lǐng)域
中的一種基于非線性特征和模型合并的線性判別式分析LDA(LinearDiscriminantAnalysis)人臉識別方法。本發(fā)明可用于視頻監(jiān)控環(huán)境下通過人臉識別進行人的身份確認,同時還可用于在網(wǎng)絡(luò)入口端,通過人臉識別對人員身份進行判斷,以及在影像拍攝中通過人臉識別對人物進行定位。
背景技術(shù)
:人臉識別不同于虹膜識別、指紋識別等,是比較容易為人們所接受的非侵犯性識別手段,從而成為計算機視覺和模式識別
技術(shù)領(lǐng)域
需要突破的一種技術(shù)。人臉識別的主要任務(wù)是根據(jù)提取的待識別人臉的特征,將其和數(shù)據(jù)庫中的人臉圖像進行比對,確定待識別人臉的身份。目前,對任意人臉圖像進行識別的方法通常分為兩類:第一類是基于特征提取的方法,第二類是基于分類器的方法?;谌四樚卣鞯姆椒ㄐ枰獙θ四樳M行特征提取或選擇,使用LDA提取人臉特征是常用的提取人臉特征的技術(shù),該方法主要通過求解投影矩陣,使得原始數(shù)據(jù)樣本經(jīng)過投影后獲得的特征,具有不同類之間的相似性最小同時同類之間的相似性最大的特點,然后利用分類器對提取到的特征進行人臉識別。該方法存在的不足是,首先無法提取到人臉非線性的特征,使得提取的特征不準確,算法魯棒性較差,識別率較低,其次無法處理實時的問題,當有新樣本加入時需要與原有樣本合并到一起計算投影方向,浪費計算機資源,最后,大數(shù)據(jù)量的情況下,對涉及大矩陣特征分解,計算復(fù)雜并且耗時,計算結(jié)果也無法重復(fù)利用,不能應(yīng)用于分布式的場景。Kim等人在其發(fā)表的論文“Incrementallineardiscriminantanalysisusingsufficientspanningsetsanditsapplications”(InternationalJournalofComputerVision,vol.91,no.2,pp.216-232,2011)中提出了一種增量線性判別分析ILDA(IncrementalLinearDiscriminantAnalysis)特征提取方法。該方法首先將新數(shù)據(jù)的特征空間的主成分向量和均值向量投影到原始數(shù)據(jù)的特征空間,分別計算出對應(yīng)的殘差向量,并進行正交化和旋轉(zhuǎn)處理,獲得最終投影向量;然后利用投影矩陣對訓(xùn)練樣本和測試樣本進行投影提取特征;最后將提取的特征送入分類器得到人臉識別結(jié)果。該方法可以較好的應(yīng)用到在線數(shù)據(jù)量較大的實際情況,但是,該方法仍然存在的不足之處,首先是該方法使用線性的特征提取方式,忽略了數(shù)據(jù)中可能存在的非線性特征,從而降低了人臉識別率,其次是計算復(fù)雜和計算時間長,不能用于分布式場景。西安電子科技大學(xué)在其申請的專利文獻“基于增量線性判別分析的多類標場景分類方法”(申請?zhí)枺篊N201510227553.5,公開號:CN104809475A)中公開了一種基于ILDA的多標場景分類方法。該方法首先將多類標分解成多個單類標;其次使用初始樣本計算初始線性判別分析的變換矩陣,使用新增樣本增量更新線性判別分析的變換矩陣,并將高維數(shù)據(jù)投影到低維空間;再從降維后的樣本集中隨機選取訓(xùn)練樣本和測試樣本,使用單示例多標記的K最近鄰分類器對降維后的特征樣本分類,并得到測試樣本輸出值;最后,預(yù)測出測試樣本的標簽,得到分類結(jié)果。該方法可用于快速處理海量高維度并且類別較多的多類標數(shù)據(jù)分類問題。但是,該方法仍然存在的不足之處是,該方法中使用的是線性的特征提取方式,使得提取的特征不準確,從而降低了識別率。技術(shù)實現(xiàn)要素:本發(fā)明的目的在于克服上述已有技術(shù)的不足,提出一種非線性特征和模型合并的LDA人臉識別方法。本發(fā)明的技術(shù)方案是:在大量的人臉數(shù)據(jù)到來時,劃分人臉數(shù)據(jù)樣本集;提取人臉非線性特征集;劃分特征組;構(gòu)建人臉特征模型庫;獲得全局人臉特征模型;求解線性判別式分析LDA的投影矩陣;投影人臉非線性特征集;采用K最近鄰分類器,對投影后的人臉特征進行分類識別。本發(fā)明實現(xiàn)的具體步驟如下:(1)劃分人臉數(shù)據(jù)樣本集:(1a)采用向量化方法,將人臉圖像庫中所有人臉圖片轉(zhuǎn)化為與其類別標簽對應(yīng)的圖像向量;(1b)從每類圖像向量中隨機選取一定比例的圖像向量作為訓(xùn)練樣本集,其余的圖像向量作為測試樣本集;(2)提取人臉非線性特征集:采用歐拉公式,分別從訓(xùn)練樣本集和測試樣本集中提取對應(yīng)的人臉非線性特征訓(xùn)練集和人臉非線性特征測試集;(3)劃分特征組:將人臉非線性特征訓(xùn)練集隨機分成β個特征組;(4)構(gòu)建人臉特征模型庫:(4a)從所有特征組中任意選取一個特征組,按照下式,計算所選特征組的總離散度矩陣和類間離散度矩陣:其中,St表示所選特征組的總離散度矩陣,N表示所選的特征組中特征樣本總數(shù),Σ表示求和操作,m表示所選特征組中特征樣本的序號,ym表示所選特征組中的第m個特征樣本,μ表示所選特征組的總均值向量,T表示轉(zhuǎn)置操作,Sb表示所選特征組的類間離散度矩陣,c表示所選特征組中特征樣本的類別總數(shù),j表示所選特征組中特征樣本的類別序號,nj表示所選特征組第j類特征樣本的總數(shù),γj表示所選特征組第j類特征樣本的均值;(4b)按照下式,構(gòu)建所選特征組的模型:M={μ,N,P,Λ,Q,Δ,nj,γj}其中,M表示所選特征組的模型,P和Λ分別表示對總離散度矩陣進行特征分解得到特征向量矩陣和特征值矩陣,Q和Δ分別表示對類間離散度矩陣進行特征分解得到特征向量矩陣和特征值矩陣;(4c)判斷是否選完所有的特征組,若是,則執(zhí)行步驟(4d),否則,執(zhí)行步驟(4a);(4d)獲得每一個特征組對應(yīng)的人臉特征模型,用所有人臉特征模型組成人臉特征模型庫;(5)獲得全局人臉特征模型:(5a)從人臉特征模型庫中任意取出兩個模型,合并所選的兩個模型,將合并后的模型再放入人臉特征模型庫中;(5b)判斷人臉特征模型庫中是否只剩一個模型,若是,則執(zhí)行步驟(5c),否則,執(zhí)行步驟(5a);(5c)將人臉特征模型庫中剩下的最后一個模型作為全局人臉模型;(6)求解線性判別式分析LDA的投影矩陣:(6a)按照下式,計算輔助矩陣:其中,Ψ表示輔助矩陣,和分別表示全局人臉特征模型中總離散度矩陣的特征向量矩陣和特征值矩陣,-1/2表示對矩陣中每個元素求-1/2次冪操作,和分別表示全局人臉特征模型中類間離散度矩陣的特征向量矩陣和特征值矩陣;(6b)對輔助矩陣進行特征分解,得到輔助矩陣的特征向量矩陣;(6c)按照下式,計算線性判別式分析LDA的投影矩陣:其中,U表示線性判別式分析LDA的投影矩陣,W表示輔助矩陣的特征向量矩陣;(7)投影人臉非線性特征集:采用投影公式,利用線性判別式分析LDA的投影矩陣,對人臉非線性特征訓(xùn)練集和測試集分別進行投影;(8)采用K最近鄰分類器,對投影后的人臉特征進行分類識別。與現(xiàn)有技術(shù)相比,本發(fā)明有以下優(yōu)點:第一,由于本發(fā)明在人臉識別中提取到了人臉非線性特征,克服了現(xiàn)有技術(shù)因沒有提取到非線性特征,特征不準確,算法魯棒性較差,從而降低了分類精度的不足,使得本發(fā)明在人臉識別的過程中提高了人臉識別率。第二,由于本發(fā)明在大數(shù)據(jù)量的人臉識別中采用劃分特征組,從特征組中提取模型并合并模型的方法,克服了現(xiàn)有技術(shù)因在大數(shù)據(jù)量的情況下,對大矩陣特征分解,計算復(fù)雜并且耗時的不足,使得本發(fā)明在人臉識別的過程中具有運行時間較短,使用計算資源較少的優(yōu)點。第三,由于本發(fā)明在人臉識別中采用劃分特征組,從特征組中提取模型并合并模型的方法,可以將多次的模型構(gòu)建和合并操作并行化處理,可以用模型替換原始數(shù)據(jù)保存計算結(jié)果,克服了現(xiàn)有技術(shù)因數(shù)據(jù)量大,計算結(jié)果無法重復(fù)利用,不能應(yīng)用于分布式場景的不足,使得本發(fā)明具有應(yīng)用范圍更廣,應(yīng)用更靈活的優(yōu)點。附圖說明圖1是本發(fā)明的流程圖;圖2是CMU-PIE數(shù)據(jù)庫人臉樣本示意圖;圖3是對圖2加入不同程度黑白塊噪聲后的人臉樣本示意圖;圖4是本發(fā)明仿真結(jié)果對比的曲線圖。具體實施方式下面結(jié)合附圖對本發(fā)明做進一步的詳細描述參照圖1,對本發(fā)明的具體步驟做進一步的詳細描述。步驟1,劃分人臉數(shù)據(jù)樣本集。采用向量化方法,將人臉圖像庫中所有人臉圖片轉(zhuǎn)化為與其類別標簽對應(yīng)的圖像向量。向量化方法的步驟如下:第一步,從包含類別標簽的人臉圖像庫中隨機選取一張圖片,將所選圖片中的每一列依次作為一個列向量;第二步,將所有列向量依次首尾相接,組成所選圖片對應(yīng)的圖像向量;第三步,判斷是否選完人臉圖像庫中所有的圖片,若是,則執(zhí)行第四步,否則,執(zhí)行第一步;第四步,完成人臉圖像庫中所有的圖片的向量化。從每類圖像向量中隨機選取一定比例的圖像向量作為訓(xùn)練樣本集,其余的圖像向量作為測試樣本集。隨機選取一定比例是指,所選取的圖像向量的數(shù)量占所有圖像向量總數(shù)為[20%,80%]中的任意一個比例。步驟2,提取人臉非線性特征集。采用歐拉公式分別從訓(xùn)練樣本集和測試樣本集中提取對應(yīng)的人臉非線性特征訓(xùn)練集和人臉非線性特征測試集。其中,Y表示包含有人臉非線性特征訓(xùn)練集和人臉非線性特征測試集的人臉非線性特征集,e(·)表示以自然常數(shù)e為底的指數(shù)操作,i表示虛數(shù)單位符號,α表示常數(shù),其取值范圍為[0.1,1.9],X表示包含有訓(xùn)練樣本集和測試樣本集的人臉數(shù)據(jù)樣本集。步驟3,劃分特征組。將人臉非線性特征訓(xùn)練集隨機分成β個特征組。其中,分組個數(shù)β的取值為大于1的任意一個自然數(shù),β應(yīng)滿足通過分組將每組的特征樣本個數(shù)限定在[300,500]的范圍內(nèi)的條件。步驟4,構(gòu)建人臉特征模型庫。第一步,從所有特征組中任意選取一個特征組,按照下式,計算所選特征組的總離散度矩陣和類間離散度矩陣:其中,St表示所選特征組的總離散度矩陣,N表示所選的特征組中特征樣本總數(shù),∑表示求和操作,m表示所選特征組中特征樣本的序號,ym表示所選特征組中的第m個特征樣本,μ表示所選特征組的總均值向量,T表示轉(zhuǎn)置操作,Sb表示所選特征組的類間離散度矩陣,c表示所選特征組中特征樣本的類別總數(shù),j表示所選特征組中特征樣本的類別序號,nj表示所選特征組第j類特征樣本的總數(shù),γj表示所選特征組第j類特征樣本的均值。第二步,按照下式,構(gòu)建所選特征組的模型:M={μ,N,P,Λ,Q,Δ,nj,γj}其中,M表示所選特征組的模型,P和Λ分別表示對總離散度矩陣進行特征分解得到特征向量矩陣和特征值矩陣,Q和Δ分別表示對類間離散度矩陣進行特征分解得到特征向量矩陣和特征值矩陣;第三步,判斷是否選完所有的特征組,若是,則執(zhí)行第四步,否則,執(zhí)行第一步;第四步,獲得每一個特征組對應(yīng)的人臉特征模型,用所有人臉特征模型組成人臉特征模型庫。特征分解是按照下式,將可對角化矩陣分解為其特征值和特征向量矩陣之積的方法:A=GΦG-1其中,A表示待分解的矩陣,G表示矩陣A的特征向量矩陣,Φ表示矩陣A的特征值矩陣,-1表示矩陣求逆操作;步驟5,獲得全局人臉特征模型。第一步,從人臉特征模型庫中任意取出兩個模型,合并所選的兩個模型,將合并后的模型再放入人臉特征模型庫中;第二步,判斷人臉特征模型庫中是否只剩一個模型,若是,則執(zhí)行第三步,否則,執(zhí)行步驟第一步;第三步,將人臉特征模型庫中剩下的最后一個模型作為全局人臉模型。合并所選的兩個模型的具體步驟如下:按照下式,計算合并后的模型的總離散度矩陣:其中,表示合并后的模型的總離散度矩陣,P1表示合并中的第一個模型總離散度矩陣的特征向量矩陣,Λ1表示合并中的第一個模型總離散度矩陣的特征值矩陣,1/2表示求平方根操作,P2表示合并中的第二個模型總離散度矩陣的特征向量矩陣,Λ2表示合并中的第二個模型總離散度矩陣的特征值矩陣,N1表示合并中的第一個模型的特征樣本總數(shù),N2表示合并中的第二個模型的特征樣本總數(shù),表示合并后的模型的特征樣本總數(shù),μ1表示合并中的第一個模型中特征樣本的總均值向量,μ2表示合并中的第二個模型中特征樣本的總均值向量;按照下式,計算合并后的模型的類間離散度矩陣:其中,表示合并后的模型的類間離散度矩陣,Q1表示合并中的第一個模型類間離散度矩陣的特征向量矩陣,Δ1表示合并中的第一個模型類間離散度矩陣的特征值矩陣,Q2表示合并中的第二個模型類間離散度矩陣的特征向量矩陣,Δ2表示合并中的第二個模型類間離散度矩陣的特征值矩陣,N1表示合并中的第一個模型的特征樣本總數(shù),nk1表示合并中的第一個模型第k類特征樣本的總數(shù),nk2表示合并中的第二個模型第k類特征樣本的總數(shù),表示合并后的模型中第k類特征樣本的總數(shù),γk1表示合并中的第一個模型第k類特征樣本的均值,γk2表示合并中的第一個模型第k類特征樣本的均值;將合并后特征樣本的總均值、總離散度矩陣的特征向量矩陣、總離散度矩陣的特征值矩陣、類間離散度矩陣的特征向量矩陣、類間離散度矩陣的特征值矩陣、合并后每類特征樣本的個數(shù)、合并后每類特征樣本均值組成合并后的模型。步驟6,求解線性判別式分析LDA的投影矩陣。按照下式,計算輔助矩陣:其中,Ψ表示輔助矩陣,和分別表示全局人臉特征模型中總離散度矩陣的特征向量矩陣和特征值矩陣,-1/2表示對矩陣中每個元素求-1/2次冪操作,和分別表示全局人臉特征模型中類間離散度矩陣的特征向量矩陣和特征值矩陣。對輔助矩陣進行特征分解,得到輔助矩陣的特征向量矩陣。按照下式,計算線性判別式分析LDA的投影矩陣:其中,U表示線性判別式分析LDA的投影矩陣,W表示輔助矩陣的特征向量矩陣。步驟7,投影人臉非線性特征集。采用投影公式,利用線性判別式分析LDA的投影矩陣,對人臉非線性特征訓(xùn)練集和測試集分別進行投影。對人臉非線性特征訓(xùn)練集和測試集分別進行投影的公式如下:Z=UTY其中,Z表示投影后的人臉特征。步驟8,采用K最近鄰分類器,對投影后的人臉特征進行分類識別。K最近鄰分類器是一種分類算法,其具體實現(xiàn)步驟如下:在已知類別的數(shù)據(jù)集中找到與待分類數(shù)據(jù)點距離最近的K個鄰域點,統(tǒng)計該K個鄰域點的類別情況,將出現(xiàn)次數(shù)最多的類別作為該數(shù)據(jù)的分類結(jié)果。本發(fā)明中使用的距離度量方式按照下式定義:其中,d表示兩個數(shù)據(jù)v1和v2的距離,v1和v2表示兩個數(shù)據(jù)點,H表示厄米共軛操作。本發(fā)明的效果可以通過以下仿真實驗進一步說明。1.仿真條件:本發(fā)明的仿真實驗采用軟件MATLABR2015a作為仿真工具,計算機配置為IntelCorei7/3.6GHz/16G,64位Windows7操作系統(tǒng)。本發(fā)明的仿真實驗使用CMU-PIE人臉數(shù)據(jù)庫作為實驗數(shù)據(jù),該數(shù)據(jù)庫是由卡耐基梅隆大學(xué)創(chuàng)建,包含68位志愿者在13種不同姿態(tài)、4種不同表情和43種不同光照的條件下拍攝的超過41368張的人臉圖像組成。實驗中用C05姿態(tài)(接近正面姿態(tài))子集,C05中包括68個人,每人有49張圖像,裁剪成64*64的大小,本發(fā)明的圖2是CMU-PIE數(shù)據(jù)庫人臉樣本示意圖,為驗證算法的魯棒性,在每人的圖像中隨機選取10張圖像加上5%-15%的黑白塊噪聲,圖3是對圖2加入不同程度黑白塊噪聲后的人臉樣本示意圖。2.仿真實驗內(nèi)容:本發(fā)明的仿真實驗在CMU-PIE人臉數(shù)據(jù)庫上進行,將本發(fā)明的方法分別與現(xiàn)有技術(shù)的線性判別式分析LDA和增量線性判別式分析ILDA兩種特征提取方法在分類識別上做比較。每次實驗分別從每類圖像中隨機選擇21張圖像作為訓(xùn)練樣本,剩下的所有圖像作為測試樣本。實驗過程中利用每種方法計算出的投影矩陣對測試樣本進行投影,利用K最近鄰分類器對投影后的測試樣本進行分類,得出分類識別率,其中識別率高則表示提取的特征更好,魯棒性更好;同時,記錄每種方法計算出投影矩陣所用的時間,其中時間短則表示該方法運行快,計算效率高,節(jié)省計算資源。實驗中本發(fā)明方法的分組方式采用平均分4組,參數(shù)α為1.1。仿真實驗一共重復(fù)15次,分別取識別率和運行時間的平均值。本發(fā)明的仿真結(jié)果見表1,實驗中三種方法的平均識別率隨投影矩陣的列數(shù)變化的曲線圖見圖4。3.實驗結(jié)果和分析表1:采用三種方法在CMU-PIE人臉數(shù)據(jù)庫上的平均識別率和平均運行時間表方法類型LDAILDA本發(fā)明方法最高平均識別率(%)78.5978.9188.18平均運行時間(秒)14.0167.8566.756表1的最高平均識別率表明,本發(fā)明方法的最高平均識別率高于現(xiàn)有技術(shù)線性判別式分析LDA和增量線性判別式分析ILDA的最高識別率,其原因正是由于本發(fā)明方法采用歐拉公式,提取到了非線性特征,特征提取更準確,使得本發(fā)明方法的識別率更高,本發(fā)明方法魯棒更強。表1的平均運行時間表明,本發(fā)明求解投影矩陣所用的時間更短,其原因正是由于本發(fā)明方法,使用分組提取特征模型并合并獲得全局模型的方法,避免大矩陣分解,使得本發(fā)明更加節(jié)省計算資源,計算效率更高。圖4是線性判別式分析LDA、增量線性判別式分析ILDA和本發(fā)明方法在CMU-PIE數(shù)據(jù)庫中進行人臉識別的平均識別率隨投影矩陣的列數(shù)變化的曲線圖。圖4中,橫坐標表示投影矩陣的列數(shù),縱坐標表示人臉識別的平均識別率(%)。由圖4可見,本發(fā)明方法在不同的投影矩陣列數(shù)下都可以獲得較高的識別率,說明本發(fā)明方法提取的人臉特征更準確,魯棒性更強。綜上所述,本發(fā)明在人臉識別中提取到了人臉非線性特征,使得本發(fā)明在人臉識別的過程中提高了人臉識別率。由于本發(fā)明在大數(shù)據(jù)量的人臉識別中采用劃分特征組,從特征組中提取模型并合并模型的方法,使得本發(fā)明在人臉識別的過程中具有運行時間較短,使用計算資源較少的優(yōu)點。本發(fā)明方法可以將多次的模型構(gòu)建和合并操作并行化處理,可以用模型替換原始數(shù)據(jù)保存計算結(jié)果,使得本發(fā)明具有應(yīng)用范圍更廣,應(yīng)用更靈活的優(yōu)點。當前第1頁1 2 3 
當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1