技術(shù)總結(jié)
本發(fā)明公開了一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法,首先獲取訓(xùn)練樣本集并對(duì)每個(gè)人臉圖像標(biāo)記性別標(biāo)簽,對(duì)每張人臉圖像樣本進(jìn)行預(yù)處理,并得到不同方向和尺度下的Gabor特征,獲取若干Gabor特征圖像,將這些Gabor特征圖像轉(zhuǎn)化為一維特征向量,進(jìn)行降維后,轉(zhuǎn)化成適宜卷積神經(jīng)網(wǎng)絡(luò)輸入層大小的特征矩陣,根據(jù)人臉圖像樣本的特征矩陣和性別標(biāo)簽訓(xùn)練得到卷積神經(jīng)網(wǎng)絡(luò);對(duì)待識(shí)別的人臉圖像,采用相同方法提取得到對(duì)應(yīng)的特征矩陣,輸入至訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中,得到性別識(shí)別結(jié)果。本發(fā)明采用Gabor特征結(jié)合卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行性別識(shí)別,提高對(duì)光照變化的魯棒性,從而提高對(duì)性別的識(shí)別率。
技術(shù)研發(fā)人員:于力;黃勇;鄒見效;何健;彭超
受保護(hù)的技術(shù)使用者:電子科技大學(xué)
文檔號(hào)碼:201610486843
技術(shù)研發(fā)日:2016.06.28
技術(shù)公布日:2016.11.16