亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于KNLDA的RBF神經(jīng)網(wǎng)絡(luò)人臉識(shí)別方法與流程

文檔序號(hào):11920711閱讀:423來(lái)源:國(guó)知局
一種基于KNLDA的RBF神經(jīng)網(wǎng)絡(luò)人臉識(shí)別方法與流程

本發(fā)明涉及一種生物識(shí)別方法,具體涉及一種基于核零空間線性鑒別分析(KNLDA)的RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法,屬于計(jì)算機(jī)視覺(jué)和模式識(shí)別領(lǐng)域。



背景技術(shù):

人臉識(shí)別是當(dāng)今模式識(shí)別的一個(gè)重點(diǎn)研究課題。近20年來(lái),人臉識(shí)別技術(shù)的研究已經(jīng)成為一個(gè)研究熱點(diǎn),其簡(jiǎn)單、直接、易于被用戶接受。目前,人臉識(shí)別技術(shù)已經(jīng)廣泛應(yīng)用于證件驗(yàn)證、智能監(jiān)控、刑偵破案等領(lǐng)域,但是由于人臉識(shí)別是非剛性、光照變化、姿勢(shì)變化、年齡變化、遮擋等問(wèn)題,這些對(duì)人臉識(shí)別算法產(chǎn)生影響,其程度各不相同。

由于人臉圖像的維度比較高,一般方法的通常做法是將人臉圖像進(jìn)行降維提取特征臉,再進(jìn)行對(duì)比。特征提取是人臉識(shí)別的關(guān)鍵步驟其主要目的是降維,較為經(jīng)典的算法有主成分分析(PCA)和線性判別分析(LDA)相較于以重構(gòu)為目的的PCA,以分類(lèi)為目的的LDA在處理人臉識(shí)別問(wèn)題時(shí)更為有效。然而在人臉識(shí)別中經(jīng)常會(huì)遇到小樣本問(wèn)題使類(lèi)內(nèi)散步矩陣Sw奇異,針對(duì)該問(wèn)題,研究者相繼提出了很多算法,提出了零空間線性判別分析(NLDA)并證實(shí)了最佳鑒別矢量集應(yīng)位于Sw的零空間中。NLDA方法本質(zhì)上仍是一種線性方法,在人臉識(shí)別問(wèn)題中,由于光照、姿態(tài)、表情等差異,造成人臉圖像分布是非線性的和復(fù)雜的,所以線性算法在完成人臉等圖像識(shí)別任務(wù)時(shí),不能取得令人滿意的結(jié)果。通過(guò)非線性映射,核方法將輸入空間樣本映射到高維特征空間,在高維特征空間利用線性特征提取算法,從而有效提取樣本的非線性特征。將NLDA與核方法進(jìn)行結(jié)合,得到核零空間線性鑒別分析(KNLDA),導(dǎo)出了KNLDA算法,通過(guò)引入核函數(shù),得到低維矩陣,有效避免了直接計(jì)算復(fù)雜的非線性映射函數(shù),解決了高維類(lèi)內(nèi)離散度矩陣的維數(shù)災(zāi)難問(wèn)題。

徑向基函數(shù)(Radial Basis Function,RBF)神經(jīng)網(wǎng)絡(luò)是于上世紀(jì)八十年代末由J.moody與C.Darken提出的一種神經(jīng)網(wǎng)絡(luò),它模擬了人腦中調(diào)整、相互覆蓋接受區(qū)域的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),能以任意進(jìn)度畢竟任意連續(xù)函數(shù),是一種局部逼近網(wǎng)絡(luò),RBF網(wǎng)絡(luò)的結(jié)構(gòu)能夠根據(jù)具體問(wèn)題進(jìn)行調(diào)整,具有學(xué)習(xí)速度快,不會(huì)陷入局部極小的特點(diǎn),目前已廣泛應(yīng)用于系統(tǒng)辨認(rèn),函數(shù)逼近、信號(hào)處理與控制等多個(gè)領(lǐng)域。

在實(shí)際生活中,人臉圖像由照明、姿勢(shì)、年齡、遮擋等變化造成人臉識(shí)別難度。所以。在日常生活中,人臉識(shí)別技術(shù)還不夠圓滿,為此長(zhǎng)期進(jìn)行深入的研究,最近幾年,人臉識(shí)別技術(shù)得到了很大的進(jìn)展,但是仍然都不能達(dá)到滿意的要求。



技術(shù)實(shí)現(xiàn)要素:

人臉識(shí)別受光照、姿態(tài)、遮擋物一系列自然因素的干擾異常嚴(yán)重,為了提高識(shí)別率、增強(qiáng)魯棒性,本發(fā)明提供了一種基于核零空間的線性鑒別分析(KNLDA)的RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法,該方法能更好地體現(xiàn)人臉的非線性特征,利用RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行更精準(zhǔn)的識(shí)別。

本發(fā)明通過(guò)以下技術(shù)手段解決上述技術(shù)問(wèn)題:

一種基于KNLDA的RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法,其步驟如下:首先,讀取人臉圖像并進(jìn)行人臉區(qū)域檢測(cè),然后,人臉圖像增強(qiáng)預(yù)處理,繼而通過(guò)KNLDA選取最佳投影矩陣,對(duì)人臉圖像進(jìn)行特征提取,最后訓(xùn)練RBF神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)人臉識(shí)別。

傳統(tǒng)的LDA方法對(duì)于光照較強(qiáng)、人臉姿態(tài)變化較大、存在部分遮擋的自然環(huán)境下,識(shí)別率會(huì)急劇下降,為了提高方法的魯棒性和識(shí)別率,本文采用基于KNLDA的RBF神經(jīng)網(wǎng)絡(luò)人臉識(shí)別方法,其步驟如下:

(1)通過(guò)核函數(shù)方法將輸入空間映射到高維空間;

(2)將高維空間的樣本進(jìn)行零空間線性鑒別分析,可有效解決小樣本問(wèn)題,并且使類(lèi)內(nèi)距離最小,類(lèi)間距離最大;

(3)得到最佳投影矩陣,求得降維矩陣,用此樣本訓(xùn)練RBF神經(jīng)網(wǎng)絡(luò);

(4)采用正交最小二乘法學(xué)習(xí)算法訓(xùn)練,通過(guò)正交化方法,在輸入空間中選取對(duì)降低誤差貢獻(xiàn)較大的向量作為網(wǎng)絡(luò)中心;

(5)使用RBF神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)人臉識(shí)別。

RBF神經(jīng)網(wǎng)絡(luò)具有以下優(yōu)點(diǎn):

1、具有全局最佳逼近的特性。

2、網(wǎng)絡(luò)的輸入和輸出映射功能較強(qiáng),理論證實(shí),與其他前向網(wǎng)絡(luò)相比,RBF網(wǎng)絡(luò)是完成映射功能最優(yōu)的前向網(wǎng)絡(luò)。

3、網(wǎng)絡(luò)中連接權(quán)值和輸出之間呈現(xiàn)出線性關(guān)系。

4、較強(qiáng)的分類(lèi)能力。

5、因?yàn)樯窠?jīng)元進(jìn)行局部調(diào)節(jié),所以RBF神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程收斂速度快。

本發(fā)明針對(duì)光照強(qiáng)度、人臉姿態(tài)變化較大、人臉存在遮擋造成識(shí)別率嚴(yán)重降低,提出了一種基于KNLDA的RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法,通過(guò)該方法可以最大程度的優(yōu)化投影矩陣,從而使目標(biāo)函數(shù)達(dá)到最大值,并且識(shí)別率較常規(guī)的二維主成分分析法方法相比,識(shí)別率更高,魯棒性更好。

附圖說(shuō)明

圖1是基于KNLDA的RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法流程圖

圖2是基于膚色和AdaBoost人臉檢測(cè)方法流程圖

圖3是RBF神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)示意圖

圖4是軟件初始界面圖

圖5是樣本注冊(cè)界面圖

圖6是訓(xùn)練樣本示例圖

圖7是軟件運(yùn)行初始化界面圖

圖8是訓(xùn)練界面圖

圖9是復(fù)雜情形下的識(shí)別效果圖

具體實(shí)施方式

本發(fā)明的思路是針對(duì)現(xiàn)有的人臉識(shí)別方法在光照、姿態(tài)、遮擋物一系列自然因素的干擾下,識(shí)別率大幅度降低,魯棒性也減弱的問(wèn)題,提出了一種核零空間線性鑒別分析(KNLDA)的RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法,通過(guò)引入核函數(shù),將輸入空間映射到高維特征空間,低維空間線性不可分的模式通過(guò)非線性映射到高維特征空間則可能實(shí)現(xiàn)線性可分,研究表明,與基于歐氏距離度量的分類(lèi)相比,使用RBF神經(jīng)網(wǎng)絡(luò)分類(lèi)法可以改進(jìn)人臉識(shí)別系統(tǒng)。提高人臉識(shí)別方法在光照、姿態(tài)變化較大,存在部分遮擋下的識(shí)別率,增強(qiáng)魯棒性。

本發(fā)明的人臉識(shí)別方法,其流程圖如圖1所示:具體按照以下步驟:

步驟1、人臉檢測(cè)

考慮到人臉是一個(gè)相當(dāng)復(fù)雜的特征,在人臉檢測(cè)中需要考慮較多的因素,基于膚色的檢測(cè)方法對(duì)人臉表情、姿態(tài)等變化有較強(qiáng)的適用性,然而,這種方法誤檢率偏高,基于AdaBoost的人臉檢測(cè)方法雖然擁有較低的誤檢率,但是其檢測(cè)速度較慢。綜合考慮,為了提高人臉檢測(cè)方法的性能,本文采用將AdaBoost方法與膚色模型相結(jié)合,從而完成人臉檢測(cè)?;谀w色特性和AdaBoost人臉檢測(cè)方法的思想可以概括為:首先,利用人體膚色聚類(lèi)特性在YCbCr色彩空間下建立基于膚色的統(tǒng)計(jì)模型,從待檢測(cè)圖像中篩選出人臉區(qū)域,繼而運(yùn)用改進(jìn)的AdaBoost訓(xùn)練出的級(jí)聯(lián)分類(lèi)器對(duì)可能的人臉區(qū)域進(jìn)行驗(yàn)證,最后確定圖像中的人臉位置,本發(fā)明的人臉檢測(cè)方法流程圖如圖2所示。

步驟2、圖像預(yù)處理

在使用圖像采集設(shè)備進(jìn)行拍攝視頻圖像和傳輸?shù)倪^(guò)程中,受到外部環(huán)境諸如溫度、光照以及設(shè)備本身因素的影響,獲取到的圖像質(zhì)量會(huì)降低。因此,需要對(duì)采集到的圖像進(jìn)行預(yù)處理。人臉檢測(cè)和人臉識(shí)別過(guò)程必不可少的一個(gè)環(huán)節(jié)是人臉圖像的預(yù)處理,人臉圖像質(zhì)量的好壞直接關(guān)系到圖識(shí)別的準(zhǔn)確率。由于圖像采集的環(huán)境非常復(fù)雜,導(dǎo)致采集到的圖像融入噪聲,從而導(dǎo)致失真。為了保證圖像的質(zhì)量,圖像的預(yù)處理是必要的。常用的人臉圖像預(yù)處理的方法有:灰度變換、二值化、圖像的歸一化、圖像濾波、圖像銳化等。

步驟3、基于核零空間線性鑒別分析(KNLDA)的特征提取

核零空間線性鑒別分析在特征提取上是基于LDA方法和核函數(shù)的改進(jìn)。線性鑒別分析(LDA)已廣泛應(yīng)用于機(jī)器視覺(jué)和圖像識(shí)別等領(lǐng)域,但難以解決遇到的小樣本問(wèn)題,零空間線性鑒別分析(NLDA)在訓(xùn)練樣本總類(lèi)內(nèi)離散度矩陣的零空間中提取樣本的鑒別特征,克服了的小樣本問(wèn)題,提高了識(shí)別率,然而,NLDA仍然是一種線性特征的提取方法,不能有效提取樣本的非線性特征。通過(guò)非線性映射,核函數(shù)方法將輸入空間樣本映射到高維特征空間,在高維特征空間利用線性特征提取算法,從而有效提取樣本的非線性特征。在實(shí)際穩(wěn)定的人臉識(shí)別系統(tǒng)中,光照強(qiáng)度、人臉姿態(tài)變化、遮擋物問(wèn)題始終是個(gè)極具挑戰(zhàn)的難題,這些問(wèn)題引起的誤差可能干擾到圖像的某些位置的特征提取,同時(shí)對(duì)一些有用信息的幅值也會(huì)產(chǎn)生影響。這些干擾因素帶來(lái)的噪聲干擾同時(shí)也會(huì)對(duì)其他無(wú)遮擋的部分的特征提取帶來(lái)不利的影響。所以本發(fā)明采用核零空間線性鑒別分析特征提取方法。

采用核零空間線性鑒別分析特征提取方法,其步驟如下:

假設(shè)C類(lèi)樣本分別為A1,A1,A1,...,Ac,每類(lèi)樣本數(shù)為ni(i=1,2,3...C),總數(shù)為N;表示第i(i=1,2,3,...,C)類(lèi)、第j(j=1,2,3,...,ni)個(gè)樣本,則第i類(lèi)樣本的類(lèi)內(nèi)均值為C類(lèi)樣本總均值為

線性鑒別分析(LDA)

線性鑒別分析是以提取高維樣本最具鑒別能力的低維特征為目的。將樣本總類(lèi)內(nèi)離散度矩陣Sw和總類(lèi)間離散度矩陣Sb分別定義為:

則樣本總離散度矩陣St為:

假設(shè)WLDA為L(zhǎng)DA算法的投影矩陣,則LDA準(zhǔn)則定義為:

當(dāng)投影矩陣WLDA滿足LDA的準(zhǔn)則函數(shù)最大時(shí),樣本投影后的線性鑒別特征具有最佳分辨能力。WLDA可通過(guò)求解的p個(gè)較大特征值對(duì)應(yīng)的特征向量w1,w2...,wd,...wp組成投影矩陣,然而,Sw通常為奇異矩陣,其秩遠(yuǎn)小于樣本的維數(shù)m,從而使WLDA無(wú)法求解,即出現(xiàn)小樣本問(wèn)題。

為了解決小樣本問(wèn)題,使用NLDA算法,首先去掉St的零空間,將所有樣本向St的秩空間投影,降低了樣本維數(shù)而沒(méi)有丟失Sw的零空間鑒別信息,St的秩通常為N-1,因此,樣本向St的秩空間投影后的維數(shù)l滿足l<N-1<<m,從而解決了Sw零空間的維數(shù)災(zāi)難問(wèn)題。具體描述如下:

1)去掉St的零空間,假設(shè)U為St非零特征值對(duì)應(yīng)的特征向量組成的投影矩陣,則有Sw'=UTSwU和Sb'=UTSbU。

2)計(jì)算Sw'的零空間,假設(shè)P為Sw'的零空間,則有Sw”=PTSw'P=(UP)TSw(UP)=0和Sb”=PTSb'P=(UP)TSb(UP)。其中UP為Sw的有效零空間,對(duì)提取鑒別特征有貢獻(xiàn)。

3)若Sb”的零空間存在,則將其去除,即在Sw'的零空間中最大化樣本的類(lèi)間距離,假設(shè)V表示Sb”非零特征值對(duì)應(yīng)的特征向量組成的矩陣,則NLDA的投影矩陣可表示為WNLDA=UPV。

經(jīng)過(guò)1)和2),Sb”通常為滿秩矩陣,故第三步可以省略,此時(shí)NLDA投影矩陣可表示為WNLDA=UP,其中WNLDA表示NLDA的投影矩陣。

NLDA算法仍然不能有效提取樣本的非線性特征,而核方法可以通過(guò)非線性映射,將輸入空間樣本映射到高維特征空間,然后在高維特征空間提取樣本最具鑒別能力的非線性特征。本發(fā)明引入核方法的優(yōu)點(diǎn),引入了KNLDA算法,并應(yīng)用于人臉識(shí)別,即將高維特征空間中樣本總類(lèi)內(nèi)離散度矩陣的零空間投影矩陣作為人臉識(shí)別的投影矩陣。經(jīng)過(guò)非線性映射Φ,將輸入空間樣本變換到高維特征空間F中,每類(lèi)樣本經(jīng)過(guò)非線性映射后的均值為假設(shè)WKNLDA=[w1,w2,...,wd,...,wp]為KNLDA的投影矩陣,則在高維特征空間F中,樣本的特征可表示為:

在高緯特征空間F中,樣本特征總類(lèi)內(nèi)離散矩陣表示為:

其中表示在高維特征空間F中第i類(lèi)樣本特征的均值,其中為樣本高維特征空間F中總類(lèi)內(nèi)離散度矩陣,然而,非線性映射Φ的具體形式難以求出,因此,不能直接通過(guò)對(duì)進(jìn)行特征值分解求得KNLDA的投影矩陣WKNLDA。

根據(jù)核函數(shù)理論,在高維特征空間F中,投影矩陣WKNLDA的任意投影向量Wd可展開(kāi)為所有經(jīng)過(guò)非線性映射Φ后的訓(xùn)練樣本之和,即

其中,表示投影向量Wd朝著投影方向投影后的展開(kāi)系數(shù),這里投影方向指訓(xùn)練樣本經(jīng)非線性映射Φ后形成的方向定義核函數(shù)將高維特征空間F中的樣本和每類(lèi)樣本均值分別向Wd投影,得

有其中a=[a1,a2,...,ad,...,ap]為投影向量朝著投影方向后展開(kāi)系數(shù)組成的系數(shù)矩陣,這里,投影方向指訓(xùn)練樣本經(jīng)非線性映射后形成的方向,d=1,2,3,,...,P,故可將化簡(jiǎn)為:

其中,維數(shù)大小為N×N,a可通過(guò)解Q的特征值和特征向量得到,由選取的Q的p個(gè)較小的特征值對(duì)應(yīng)的特征向量所組成,維數(shù)大小為N×p,同時(shí)p<<N,因此,在特征空間F中,樣本的特征又可表示為:

其中為經(jīng)過(guò)非線性映射Φ后的樣本向WKNLDA的投影向量Wd投影所提取的特征,具體描述如下:

1)將輸入空間樣本映射到高維特征空間F中,即

2)計(jì)算系數(shù)矩陣a,首先,計(jì)算矩陣然后對(duì)Q進(jìn)行特征值分解,選取Q的的p個(gè)較小特征值所對(duì)應(yīng)的特征向量組成矩陣a

3)計(jì)算樣本矩陣,樣本的特征為其中

由上可知,KNLDA算法通過(guò)引入核函數(shù)得到低維矩陣,選取Q的P個(gè)較小特征值對(duì)應(yīng)特征向量組成a,矩陣a和Q的維數(shù)大小分別為N×p和N×N,其中p<<N,因此,核方法通過(guò)內(nèi)積形式采用Mercer核函數(shù),有效避免了直接計(jì)算復(fù)雜的非線性映射函數(shù)Φ,解決了高維類(lèi)內(nèi)離散度矩陣的維數(shù)災(zāi)難問(wèn)題。

步驟4、訓(xùn)練RBF神經(jīng)網(wǎng)絡(luò),RBF神經(jīng)網(wǎng)絡(luò)的基本思想是:用RBF作為隱含單元的“基”構(gòu)成隱含層空間,將輸入的空間分解成許多超球面形成的子空間。為了對(duì)這些子空間進(jìn)行分類(lèi)通常需要用到聚類(lèi)算法,常用的有分級(jí)聚類(lèi)、模糊C-均值聚類(lèi)以及C-均值聚類(lèi)等無(wú)監(jiān)督的學(xué)習(xí)算法,這些算法的共同特點(diǎn)是沒(méi)有將訓(xùn)練樣本的類(lèi)別信息用于樣本的分類(lèi)當(dāng)中。RBF神經(jīng)網(wǎng)絡(luò)采用了有監(jiān)督的學(xué)習(xí)算法。然后將分解的子空間直接映射到隱含層空間,從而有效解決了在低維空間線性不可分問(wèn)題,通過(guò)將低維空間轉(zhuǎn)換為高維空間,使得現(xiàn)象不可分的問(wèn)題變得線性可分。RBF神經(jīng)網(wǎng)絡(luò)比歐式距離的度量方式更精準(zhǔn)。

RBF網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)通常分為兩個(gè)過(guò)程:

第一個(gè)過(guò)程是確定隱層的中心和方差,中心的選擇對(duì)輸入層與隱層之間映射空間的結(jié)構(gòu)有很大影響;

第二個(gè)過(guò)程是隱層到輸出層之間連接權(quán)值的確定。

由于輸出層的輸出由隱層節(jié)點(diǎn)的輸出線性加權(quán)組合得到,因此網(wǎng)絡(luò)的輸出只受少數(shù)權(quán)值的影響,訓(xùn)練過(guò)程中需要調(diào)整的權(quán)值也相對(duì)較少,大大減少了RBF網(wǎng)絡(luò)的學(xué)習(xí)時(shí)間。

RBF函數(shù)選取中心的方法有很多種,本發(fā)明的RBF網(wǎng)絡(luò)使用正交最小二乘法(OLS)學(xué)習(xí)算法。它通過(guò)正交化方法,在輸入向量中選取對(duì)降低誤差貢獻(xiàn)較大的向量作為網(wǎng)絡(luò)中心。

設(shè)網(wǎng)絡(luò)的訓(xùn)練樣本集為{X1,X2,...,XN},網(wǎng)絡(luò)的期望輸出為{d1,d2,...,dN},N表示訓(xùn)練樣本的數(shù)目,RBF網(wǎng)絡(luò)可用以下線性方程表示:

式中M為隱層節(jié)點(diǎn)的個(gè)數(shù),可用公式的矩陣形式表示RBF網(wǎng)絡(luò):

d=PΘ+E

設(shè)上式的最小二乘解為對(duì)回歸矩陣P正交分解P=WA,式中,A為M×M的上三角矩陣,對(duì)角線上的元素的值為1,W為N×M的正交矩陣,有H=WTW,H為對(duì)角矩陣,另Aθ=g則d=Wg+E。式中g(shù)的最小二乘解表示為:

其中,采用施密特正交化方法對(duì)P進(jìn)行正交分解,在選擇特征子集的過(guò)程中,使用誤差比最大的準(zhǔn)則來(lái)決定基失量Wi,從而確定網(wǎng)絡(luò)的中心,誤差比的定義如下:

根據(jù)預(yù)先設(shè)定的誤差范圍ρ,使其符合以下條件從未確定隱層節(jié)點(diǎn)的數(shù)目M。RBF網(wǎng)絡(luò)中心數(shù)目的選擇對(duì)網(wǎng)絡(luò)的性能有很大的影響。正交最小二乘法能夠自動(dòng)選擇網(wǎng)絡(luò)中心,避免了隨機(jī)選取中心帶來(lái)的問(wèn)題。

由于人臉識(shí)別屬于模式分類(lèi),采用RBF網(wǎng)絡(luò)模型中的廣義網(wǎng)絡(luò)GN來(lái)實(shí)現(xiàn)人臉的識(shí)別。RBF網(wǎng)絡(luò)輸入層節(jié)點(diǎn)個(gè)數(shù)等于人臉特征向量的維數(shù),輸出層節(jié)點(diǎn)的個(gè)數(shù)為樣本的類(lèi)別數(shù)?;瘮?shù)中心的選取及隱層的節(jié)點(diǎn)個(gè)數(shù)由正交最小二乘法自動(dòng)確定。隱層節(jié)點(diǎn)參數(shù)一經(jīng)確定,就可通過(guò)求解線性方程組得到輸出權(quán)值。可使用集成的RBF網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)對(duì)人臉的識(shí)別。

步驟5、系統(tǒng)實(shí)現(xiàn)及識(shí)別結(jié)果

鑒別出待識(shí)別人的身份是人臉識(shí)別的最后一個(gè)階段,每個(gè)子網(wǎng)絡(luò)只負(fù)責(zé)識(shí)別一類(lèi)模式,每個(gè)子網(wǎng)絡(luò)的輸出節(jié)點(diǎn)個(gè)數(shù)為1,一共需要訓(xùn)練K(K為樣本的類(lèi)別數(shù))個(gè)子網(wǎng)絡(luò)來(lái)構(gòu)成集成網(wǎng)絡(luò)。根據(jù)所有子網(wǎng)絡(luò)的輸出來(lái)判定測(cè)試樣本的所屬類(lèi)別,最終完成識(shí)別目的。本發(fā)明結(jié)合OpenCv計(jì)算機(jī)視覺(jué)庫(kù)與Visual Studio 2010軟件,開(kāi)發(fā)出了一個(gè)實(shí)時(shí)的人臉識(shí)別系統(tǒng)。該識(shí)別系統(tǒng)的主界面如圖4所示。本發(fā)明所設(shè)計(jì)的人臉識(shí)別系統(tǒng)主要包括人臉自動(dòng)檢測(cè)、人臉信息輸入、人臉身份判別三個(gè)模塊。當(dāng)程序開(kāi)始執(zhí)行時(shí),系統(tǒng)將自動(dòng)加載人臉檢測(cè)模塊,攝像頭開(kāi)啟并在特定區(qū)域內(nèi)對(duì)人臉進(jìn)行檢測(cè)。點(diǎn)擊“Enrol”進(jìn)行注冊(cè),本文提供了三種注冊(cè)方式,分別是:拍攝、從已有圖庫(kù)注冊(cè)、從模板文件注冊(cè)。我們使用攝像頭拍攝獲取頭像,如圖5所示,點(diǎn)擊“Train”進(jìn)行訓(xùn)練,其目的是建立訓(xùn)練圖像集,為人臉識(shí)別做準(zhǔn)備。圖6為示例訓(xùn)練樣本集。假如人臉數(shù)據(jù)庫(kù)訓(xùn)練完成后,接下來(lái)便可以對(duì)視頻中的人臉進(jìn)行識(shí)別,即可對(duì)待檢測(cè)的人臉進(jìn)行身份鑒別。如果待識(shí)別人臉判斷為人臉數(shù)據(jù)庫(kù)中的人臉,則在檢測(cè)框左上方顯示出待檢測(cè)人臉的姓名信息。人臉識(shí)別系統(tǒng)運(yùn)行初始狀態(tài)效果圖如圖7所示,訓(xùn)練界面圖如圖8所示。本發(fā)明設(shè)計(jì)的人臉識(shí)別系統(tǒng)在表情變化較大、存在遮擋干擾下進(jìn)行實(shí)驗(yàn),其目的是對(duì)改進(jìn)后的人臉識(shí)別算法做評(píng)判。結(jié)果表明,本發(fā)明在人臉表情變化較大、存在遮擋等干擾時(shí),依然保持較高的識(shí)別率,如圖9所示。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1