亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法與流程

文檔序號:11865314閱讀:602來源:國知局
一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法與流程
本發(fā)明屬于人臉識別
技術(shù)領(lǐng)域
,更為具體地講,涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法。
背景技術(shù)
:隨著人工智能技術(shù)的發(fā)展,人臉識別的研究越來越火熱。性別識別作為人臉識別的一個分支技術(shù),具有重大研究價值的。性別識別也是模式識別的一種,它和一般的模式識別方法類似,其主要目的是尋找最優(yōu)的特征提取方法和最優(yōu)的分類方法。對于性別識別,已經(jīng)有很多研究員對其做了研究。關(guān)于其中的一些研究可以參考文獻(xiàn)GenderRecognitiononRealWorldFacesBasedonShapeRepresentationandNeuralNetwork,Arigbabu等人在人臉數(shù)據(jù)庫LFW中對未對齊的人臉采用人工神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行性別識別得到了89.3%的識別正確率。以及文獻(xiàn)AGenderRecognitionSystemusingShuntingInhibitoryConvolutionalNeuralNetworks,TiviveFHC等人在人臉數(shù)據(jù)庫FERET上通過卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行性別識別,實驗的數(shù)據(jù)中女性樣本1152個,男性樣本610個,實驗得到一個較好的性別識別率。隨著研究員對性別識別深入的研究,發(fā)現(xiàn)存在如下一些影響性別分類的因素。首先,在采集人臉圖像的過程中,人臉圖像可能是在不同的光照和不同的設(shè)備下采集的,同時在采集過程中也有可能存在拍攝角度不同的情況,這些因素都影響了性別識別的識別率。再者,人臉本身也存在一些影響性別分類的因素,比如不同的年齡、不同的表情和不同的種族都可能造成不同的分類結(jié)果。在整個性別分類的難點中,光照不均是最為常見的問題。即便是性能較好的基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別,由于卷積神經(jīng)網(wǎng)絡(luò)對光照不魯棒,其分類效果受光照變化的影響。技術(shù)實現(xiàn)要素:本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法,采用Gabor特征結(jié)合卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行性別識別,提高對光照變化的魯棒性,從而提高對性別的識別率。為實現(xiàn)上述發(fā)明目的,本發(fā)明基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法包括以下步驟:S1:分別獲取若干張男女人臉圖像,構(gòu)成訓(xùn)練樣本集,對訓(xùn)練樣本集中每個人臉圖像標(biāo)記性別標(biāo)簽;S2:對訓(xùn)練樣本集中每張人臉圖像進(jìn)行預(yù)處理;S3:對訓(xùn)練樣本集中預(yù)處理后的每張人臉圖像提取M個方向、N個尺度的Gabor特征,提取得到的M×N幅Gabor特征圖像;S4:對于每幅人臉圖像的M×N幅Gabor特征圖像,將每幅Gabor特征圖像轉(zhuǎn)化為一維特征向量,然后將M×N幅圖像的一維特征向量組合得到一個一維特征向量;然后采用降維處理算法將該一維特征向量的維數(shù)降至P2,將降維后的特征向量中的P2個元素,以P個連續(xù)元素為一行,轉(zhuǎn)換得到人臉圖像對應(yīng)的P×P的特征矩陣;S5:構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),將各個人臉圖像對應(yīng)的特征矩陣作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,其對應(yīng)的性別標(biāo)簽作為輸出,對卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò);S6:對待識別的人臉圖像,采用與步驟S2至步驟S4相同的方法,提取得到對應(yīng)的特征矩陣;S7:將步驟S6提取得到的特征矩陣輸入步驟S5訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中,得到性別識別結(jié)果。本發(fā)明基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法,首先獲取訓(xùn)練樣本集并對每個人臉圖像標(biāo)記性別標(biāo)簽,對每張人臉圖像樣本進(jìn)行預(yù)處理,并得到不同方向和尺度下的Gabor特征,獲取若干Gabor特征圖像,將這些Gabor特征圖像轉(zhuǎn)化為一維特征向量,進(jìn)行降維后,轉(zhuǎn)化成適宜卷積神經(jīng)網(wǎng)絡(luò)輸入層大小的特征矩陣,根據(jù)人臉圖像樣本的特征矩陣和性別標(biāo)簽訓(xùn)練得到卷積神經(jīng)網(wǎng)絡(luò);對待識別的人臉圖像,采用相同方法提取得到對應(yīng)的特征矩陣,輸入至訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中,得到性別識別結(jié)果。本發(fā)明采用Gabor特征結(jié)合卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行性別識別,該方法對光照變化魯棒,對性別具有很高的分類正確率。附圖說明圖1是本發(fā)明基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法的流程圖;圖2是Gabor特征圖像示例圖;圖3是本實施例中卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖;圖4是本發(fā)明與兩種對比算法的識別率對比圖;圖5是3組不同光照測試樣本中人臉圖像示例。具體實施方式下面結(jié)合附圖對本發(fā)明的具體實施方式進(jìn)行描述,以便本領(lǐng)域的技術(shù)人員更好地理解本發(fā)明。需要特別提醒注意的是,在以下的描述中,當(dāng)已知功能和設(shè)計的詳細(xì)描述也許會淡化本發(fā)明的主要內(nèi)容時,這些描述在這里將被忽略。實施例圖1是本發(fā)明基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法的流程圖。如圖1所示,本發(fā)明基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法的具體步驟包括:S101:獲取訓(xùn)練樣本圖像:分別獲取若干張男女人臉圖像,構(gòu)成訓(xùn)練樣本集,對訓(xùn)練樣本集中每個人臉圖像標(biāo)記性別標(biāo)簽,一般為0和1。S102:圖像預(yù)處理:對訓(xùn)練樣本集中每張人臉圖像預(yù)處理,以突出特征、去除噪聲。本實施例中所采用的預(yù)處理操作包括直方圖均衡化、人臉傾斜矯正、高斯濾波、尺寸歸一化,這些預(yù)處理都是人臉圖像領(lǐng)域中的常用操作,具體過程在不再贅述。S103:提取Gabor特征:Gabor特征是模式識別中常用的一種特征提取方法,具有對圖像提取局部空間和頻率域信息的能力,同時它具有對于圖像的邊緣敏感,能夠提取圖像的多方向和多尺度特征的優(yōu)點,最后它還對光照的變化不敏感,對光照的變化具有抑制作用。因此本發(fā)明采用Gabor特征來作為人臉識別依據(jù)。首先對訓(xùn)練樣本集中預(yù)處理后的每張人臉圖像提取Gabor特征。假設(shè)用I(x,y)表示一幅圖像的灰度分布,那么可以用如下公式表示Gabor特征的提取:Ou,v(x,y)=I(x,y)*ψu,v(x,y)(1)其中ψu,v(x,y)表示Gabor核函數(shù),Ou,v(x,y)表示的是尺度為u、方向為v的Gabor核函數(shù)提取的Gabor特征。經(jīng)實驗評估發(fā)現(xiàn),單獨的一個方向和尺度的Gabor特征不能詳盡的描述一幅人臉圖像,因此本發(fā)明對一幅人臉圖像提取了M個方向、N個尺度的Gabor特征,提取得到M×N幅Gabor特征圖像,從而能更為詳細(xì)的描述一幅圖像的特征。為了兼顧效率和識別性能,M的取值范圍為5≤M≤10,N的取值范圍為3≤N≤7。圖2是Gabor特征圖像示例圖。如圖2所示,設(shè)置M=8,N=5,共計得到40幅Gabor特征圖像。S104:Gabor特征降維:對一幅圖像提取的M個方向、N個尺度的Gabor特征包含了大量的冗余信息,因此需要進(jìn)行降維處理,其具體方法為:對于每幅人臉圖像的M×N幅Gabor特征圖像,將每幅Gabor特征圖像轉(zhuǎn)化為一維特征向量,然后將M×N幅圖像的一維特征向量組合得到一個一維特征向量,即將M×N幅圖像一維特征向量按照順序拼接起來構(gòu)成一個一維特征向量。然后采用降維處理算法將該一維特征向量的維數(shù)降至P2,將降維后的特征向量中的P2個元素,以P個連續(xù)元素為一行,轉(zhuǎn)換得到人臉圖像對應(yīng)P×P的特征矩陣。P×P為卷積神經(jīng)網(wǎng)絡(luò)輸入層的輸入尺寸。本實施例中采用PCA(PrincipalComponentAnalysis,主成分分分析)降維算法進(jìn)行降維。通過降維后,可以減少Gabor特征中的冗余信息,相對于直接將人臉圖像輸入卷積神經(jīng)網(wǎng)絡(luò),其訓(xùn)練和識別效率會更高。S105:訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò):構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),將各個人臉圖像對的特征矩陣作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,其對應(yīng)的性別標(biāo)簽作為輸出,對卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)中有許多網(wǎng)絡(luò)架構(gòu),可以根據(jù)需要進(jìn)行選擇。卷積神經(jīng)網(wǎng)絡(luò)由輸入層、卷積層、采樣層、全連接層、輸出層組成。卷積過程先用一系列可訓(xùn)練的濾波器(卷積核)fx對輸入進(jìn)行卷積運算,x表示卷積層序號,在經(jīng)過加入偏置bx得到卷積層Cx;子采樣過程先用每個相鄰域4個像素求最大的像素,然后通過Wx+1加權(quán),再加偏置bx+1,最后通過激活函數(shù)f(),產(chǎn)生縮小為1/4的映射圖像Sx+1。這里通過采用不同的卷積核,提取了不同的性別特征,而且通過權(quán)值共享降低復(fù)雜度。下采樣過程相當(dāng)于模糊濾波,起到了二次特征提取的作用,降低維度的同時,可以增加對人臉性別特征提取的魯棒性。組合多個這樣的卷積下采樣過程就構(gòu)成了卷積神經(jīng)網(wǎng)絡(luò)。圖3是本實施例中卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖。如圖3所示,本實施例中針對性別識別設(shè)計了一種類似于lenet5的用于性別識別的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。下面分別對每一層進(jìn)行具體說明:1)輸入層S1:在常規(guī)的卷積神經(jīng)網(wǎng)絡(luò)中,輸入層的輸入為一幅圖像,一幅圖像通??梢砸暈橐粋€矩陣。因此本發(fā)明將降級后的特征向量轉(zhuǎn)換為P×P的特征矩陣輸入卷積神經(jīng)網(wǎng)絡(luò)。本實施例中特征矩陣大小為32×32。2)卷積層C1:卷積層C1將輸入層輸入的特征矩陣進(jìn)行卷積得到卷積層C1的特征圖。本實施例中采用5個大小為5×5的可訓(xùn)練卷積核進(jìn)行卷積,卷積層C1的每個特征圖中的每個神經(jīng)元和輸入的特征圖像中的25個點相連接。其計算公式可以表示為:yjl=Σi=1nwijlxijl+bjl---(2)]]>其中表示卷積層C1中第l個特征圖的一個神經(jīng)元,表示與神經(jīng)元相連接的輸入層的點,表示卷積層C1中的點與輸入層連接點的權(quán)重,即是卷積核的值,表示偏置。3)采樣層S2:采樣層S2的特征圖是通過對卷積層C1的特征圖下采樣而得到。本實施例中的采樣方式是對卷積層C1的相鄰領(lǐng)域中4個點進(jìn)行1次采樣,選取這4個點中最大的那個點,然后通過公式(3)計算出值,該值作為采樣層S2的特征圖中對應(yīng)的點,即采樣層S2的每個特征圖中的每個點和卷積層C1中的4個點相連接。采樣層S2的特征圖個數(shù)和卷積層C1的特征圖的個數(shù)相同。yjl=f(max(xij))·wj+bj---(3)]]>其中表示S2層的第l個特征圖的一個神經(jīng)元,xij表示卷積層C1中與相連的神經(jīng)元。f()表示激活函數(shù),一般為Sigmoid或Tanh函數(shù)。wj表示連接權(quán)重,bj表示偏置。3)卷積層C3:卷積層C3將采樣層S2的特征圖進(jìn)行卷積得到卷積層C3的特征圖。本實施例中卷積層C3采用8個大小為5×5的可訓(xùn)練卷積核進(jìn)行的卷積運算。由于采樣層S2的特征圖有5個,所以采樣層S2進(jìn)行了不同的組合,每個組合包含3個特征圖,選擇其中8個組合進(jìn)行卷積得到C3的8個特征圖。其計算公式可以表示為:yjl=ΣmmΣi=1Sxijkwijk+bjl---(4)]]>其中,m表示C3中每層特征圖中一個點和S2層特征圖的連接個數(shù)。表示C3該層特征和S2該層特征相連接。S表示C3中單個特征圖中有多少個神經(jīng)元和S2中單個特征圖中一個神經(jīng)元相連。表示表示偏置。表1是本實施例卷積層C3特征圖和采樣層S2特征圖的連接方式。表1如表1所示,x表示表示C3該層特征和S2該層特征對應(yīng)特征圖連接。例如C3的第0個特征圖就分別和S2的第0個、第1個、第2個特征圖相連接,得到的這個特征圖的每一點和S2層的75個點相連接。4)采樣層S4:采樣層S4的特征圖是通過對卷積層C3的特征圖下采樣而得到,采樣方式和S2的采樣方式相同。5)全連接層:全連接層對采樣層S4的特征圖進(jìn)行全連接方式的卷積,得到一維向量。本實施例中采樣層S4每個特征圖的大小都為5×5,全連接的神經(jīng)元數(shù)量為120個。6)輸出層:由于本發(fā)明進(jìn)行性別分類,是一個二分類問題,因此本發(fā)明中輸出層包含2個神經(jīng)元,這2個神經(jīng)元與全連接層的所有神經(jīng)元連接,輸出性別分類結(jié)果。S106:提取待識別人臉圖像特征矩陣:對待識別的人臉圖像,采用與步驟S102至步驟S104相同的方法,提取得到對應(yīng)的特征矩陣。S107:性別識別:將步驟S106提取得到的特征矩陣輸入步驟S105訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中,得到性別識別結(jié)果。為了說明本發(fā)明的技術(shù)效果,采用一個人臉圖像樣本集進(jìn)行實驗驗證。本實施例中采用的人臉圖像樣本集為從AR人臉數(shù)據(jù)庫選取的1200張圖像,其中男女各600張,隨機(jī)選取900張人臉圖像作為訓(xùn)練樣本,剩余的300張人臉圖像作為測試樣本。采用經(jīng)典的性別識別算法LBP+SVM算法以及直接輸入人臉圖像的卷積神經(jīng)網(wǎng)絡(luò)算法(cnn算法)作為對比算法。采用訓(xùn)練樣本分別對本發(fā)明和對比算法中的卷積神經(jīng)網(wǎng)絡(luò)和SVM分類器進(jìn)行訓(xùn)練,然后將測試樣本分為6組,分別采用訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)和SVM分類器進(jìn)行性別識別,統(tǒng)計每組測試樣本的識別率平均值,作為該組測試樣本的識別率。圖4是本發(fā)明與兩種對比算法的識別率對比圖。如圖4所示,對于6組測試樣本,本發(fā)明的識別率都要高于兩個對比算法。同時為了測試本發(fā)明性別識別方法對光照的魯棒性,選取AR數(shù)據(jù)庫中3種不同光照的人臉圖像作為測試樣本,輸入已經(jīng)訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中測試,其中每種光照下的人臉圖像樣本為200張。圖5是3組不同光照測試樣本中人臉圖像示例。如圖5所示,3組測試樣本中人臉圖像的光照條件不同。表2是本發(fā)明對3組不同光照測試樣本的識別率統(tǒng)計表。測試樣本組序號識別率188.5%289%388%表2如表2所示,不同光照下的性別識別率差別不大,表明本發(fā)明性別識別方法對光照是魯棒的。盡管上面對本發(fā)明說明性的具體實施方式進(jìn)行了描述,以便于本
技術(shù)領(lǐng)域
的技術(shù)人員理解本發(fā)明,但應(yīng)該清楚,本發(fā)明不限于具體實施方式的范圍,對本
技術(shù)領(lǐng)域
的普通技術(shù)人員來講,只要各種變化在所附的權(quán)利要求限定和確定的本發(fā)明的精神和范圍內(nèi),這些變化是顯而易見的,一切利用本發(fā)明構(gòu)思的發(fā)明創(chuàng)造均在保護(hù)之列。當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1