專利名稱:基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種人臉識別方法,尤其是涉及一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法。
背景技術(shù):
Wiskott等人在“Face Recognition by Elastic Bunch Graph matching”文中提出的彈性圖匹配算法識別率為97. 3%,并且需要嚴(yán)格定位出瞳孔位置,識別率受到眼睛閉合程度、墨鏡等因素強(qiáng)烈影響。張國云和章棘在“基于Gabor小波的多尺度PCA支持向量機(jī)人臉識別方法”一文中提出了一種基于Gabor小波的多尺度PCA支持向量機(jī)人臉識別方法將原始人臉圖片劃分為28*23個4*4模塊,取每個像素模塊中心點(diǎn)作為特征點(diǎn)提取Gabor特征值,然后采用PCA降維,最后構(gòu)造40個支持向量機(jī)分類器并采用選票決策機(jī)制決定識別結(jié)果。該方法提取644個特征點(diǎn),極大增加了計算復(fù)雜度,而且該方法采用PCA降維的計算量也非常大,不適合與嵌入式實時人臉識別系統(tǒng)。上海大學(xué)申請的“基于Gabor小波變換和局部二值模式優(yōu)化的人臉識別方法”專利,申請?zhí)枮镃N201010215489. 6,公開號為CN102024141A。該專利采用一種基于Gabor小波變換和局部二值模式優(yōu)化的人臉識別方法,其特征在于將Gabor小波變換和局部二值算法進(jìn)行融合,識別率為91. 4%,在PC機(jī)上識別時間為400. 2ms。該專利使用Gabor小波處理整幅圖片,計算量較大。清華大學(xué)申請的“人臉部件特征和Gabor人臉特征融合的人臉識別方法及其裝置”專利,申請?zhí)枮镃N200810104401. 6,公開號為CN101276421。該專利由基于Gabor方法的特征裸臉的提取、基于Gabor方法的圖像投影特征向量的提取,以及基于Gabor方法與基于人臉部件主分量分析的多模式人臉識別方法融合的人臉識別三部分組成。該專利同樣使用Gabor小波處理整幅圖片,使其計算量較大。
發(fā)明內(nèi)容
本發(fā)明的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法。本發(fā)明的目的可以通過以下技術(shù)方案來實現(xiàn)一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,包括以下步驟I)通過人臉數(shù)據(jù)庫中的每個人臉圖片進(jìn)行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器;2)對輸入的人臉圖片進(jìn)行特征區(qū)域定位,并對特征區(qū)域采用二維Gabor小波計算特征值;3)采用步驟2)獲得的二維Gabor特征值生成人臉圖片表示信息;4)將步驟3)生成的人臉圖片表示信息輸入神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)權(quán)值矩陣進(jìn)行人臉識別。步驟I)中BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的過程具體包括以下步驟A)對人臉數(shù)據(jù)庫中的每個人臉圖片進(jìn)行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值;B)根據(jù)步驟A)獲得的二維Gabor特征值生成人臉圖片表示信息;C)對權(quán)值矩陣的各個元素分 別賦一個在區(qū)間(-1,I)內(nèi)的隨機(jī)值;D)選取一個人臉圖片表不信息作為輸入值,并設(shè)定一期望輸出值;E)根據(jù)步驟D)的輸入值計算通過BP神經(jīng)網(wǎng)絡(luò)后的實際輸出值;F)根據(jù)期望輸出值和實際輸出值計算輸出誤差,并利用輸出誤差調(diào)整權(quán)值矩陣;G)根據(jù)所有已獲得的期望輸出值和實際輸出值計算全局誤差;H)將全局誤差與誤差閾值比較,若全局誤差大于誤差閾值,則執(zhí)行步驟D);若全局誤差小于誤差閾值,則結(jié)束。所述的特征區(qū)域包括眼睛、鼻子、嘴巴、下顎和眉毛。與現(xiàn)有技術(shù)相比,本發(fā)明具有以下優(yōu)點(diǎn)I、采用Gabor小波對人臉圖片的若干特征區(qū)域進(jìn)行特征提取,大大減少了運(yùn)算量。2、采用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉識別,識別精度高。
圖I為本發(fā)明的Gabor小波網(wǎng)絡(luò)的模型示意圖;圖2為本發(fā)明的流程圖;圖3為本發(fā)明中BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的流程圖;圖4為本發(fā)明實施例中特征區(qū)域劃分的示意圖;其中,(a)為整個臉部區(qū)域,(b)為眉毛區(qū)域,(C)為眼睛區(qū)域,(d)為鼻子區(qū)域,(e)為嘴巴區(qū)域。
具體實施例方式下面結(jié)合附圖和具體實施例對本發(fā)明進(jìn)行詳細(xì)說明。實施例一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,以二維Gabor小波空間作為特征空間,用Gabor小波抽取特征值作為BP神經(jīng)網(wǎng)絡(luò)的輸入,然后用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí),其Gabor小波網(wǎng)絡(luò)的模型如圖I所示,具體過程包括如圖2所示的步驟步驟SI :通過人臉數(shù)據(jù)庫中的每個人臉圖片進(jìn)行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器;步驟S2 :對輸入的人臉圖片進(jìn)行特征區(qū)域定位,分別按如圖4所示的方式將眼睛劃分為9個區(qū)域、眉毛劃分為2個區(qū)域、鼻子劃分為4個區(qū)域、嘴巴劃分為6個區(qū)域,每個區(qū)域選取中間點(diǎn)作為特征點(diǎn),然后計算每一個特征點(diǎn)的二維Gabor特征值,其中進(jìn)行離散Gabor變換的Gabor核函數(shù)如下
權(quán)利要求
1.一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,其特征在于,包括以下步驟 1)通過人臉數(shù)據(jù)庫中的每個人臉圖片進(jìn)行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器; 2)對輸入的人臉圖片進(jìn)行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值; 3)根據(jù)步驟2)獲得的二維Gabor特征值生成人臉圖片表示信息; 4)將步驟3)生成的人臉圖片表示信息輸入神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)權(quán)值矩陣進(jìn)行人臉識別。
2.根據(jù)權(quán)利要求I所述的基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,其特征在于,步驟I)中BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的過程具體包括以下步驟 A)對人臉數(shù)據(jù)庫中的每個人臉圖片進(jìn)行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值; B)根據(jù)步驟A)獲得的二維Gabor特征值生成人臉圖片表示信息; C)對權(quán)值矩陣的各個元素分別賦一個在區(qū)間(_1,1)內(nèi)的隨機(jī)值; D)選取一個人臉圖片表示信息作為輸入值,并設(shè)定一期望輸出值; E)根據(jù)步驟D)的輸入值計算通過BP神經(jīng)網(wǎng)絡(luò)后的實際輸出值; F)根據(jù)期望輸出值和實際輸出值計算輸出誤差,并利用輸出誤差調(diào)整權(quán)值矩陣; G)根據(jù)所有已獲得的望輸出值和實際輸出值計算全局誤差; H)將全局誤差與誤差閾值比較,若全局誤差大于誤差閾值,則執(zhí)行步驟D);若全局誤差小于誤差閾值,則結(jié)束。
3.根據(jù)權(quán)利要求2所述的基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,其特征在于,所述的特征區(qū)域包括眼睛、鼻子、嘴巴、下顎和眉毛。
全文摘要
本發(fā)明涉及一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,包括以下步驟1)通過人臉數(shù)據(jù)庫中的每個人臉圖片進(jìn)行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器;2)對輸入的人臉圖片進(jìn)行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值;3)根據(jù)步驟2)獲得的二維Gabor特征值生成人臉圖片表示信息;4)將步驟3)生成的人臉圖片表示信息輸入神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)權(quán)值矩陣進(jìn)行人臉識別。與現(xiàn)有技術(shù)相比,本發(fā)明具有運(yùn)算量小,識別精度高等優(yōu)點(diǎn)。
文檔編號G06K9/00GK102622585SQ20121005761
公開日2012年8月1日 申請日期2012年3月6日 優(yōu)先權(quán)日2012年3月6日
發(fā)明者張晨曦, 羅怡桂, 范茂志 申請人:同濟(jì)大學(xué)