本發(fā)明屬于人臉圖像性別識別
技術領域:
,具體涉及到采用煙花算法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間確定人臉性別識別的方法。
背景技術:
:人臉性別識別技術在人機交互、機器視覺、身份驗證、安保系統(tǒng)等方面有廣泛的應用,近些年來成為研究熱點。人臉圖像的性別識別系統(tǒng)通常由三部分構成:人臉檢測、特征提取和識別。提取人臉圖像的底層視覺特征,采用這些特征作為分類器的輸入,識別出人臉性別。人臉特征的提取是性別識別的關鍵,特征選取的好壞將直接影響后續(xù)的識別準確度。目前研究中常用的人工提取特征方法有:本征臉法、局部特征法和模型法。而基于人工提取特征的方法試圖直接從底層特征來推斷出高層次表達類別,實現(xiàn)困難并且會產(chǎn)生語義鴻溝。蔣雨欣等人提出了一種基于卷積神經(jīng)網(wǎng)絡和單層神經(jīng)元的人臉性別識別方法,采用卷積層和下采樣層連續(xù)交替地對輸入圖像進行卷積和下采樣操作,提取到人臉圖像的高層特征,然后采用單層神經(jīng)元重構輸入圖像的低層特征,最后聯(lián)合學習到的高層特征和低層特征作為神經(jīng)網(wǎng)絡的輸出,進行人臉圖像的性別識別。汪濟民等人采用卷積神經(jīng)網(wǎng)絡進行人臉性別識別,通過不同的人臉數(shù)據(jù)庫,驗證了卷積神經(jīng)網(wǎng)絡對光照、側臉、遮擋等因素具有比較好的魯棒性。Levi等人利用卷積神經(jīng)網(wǎng)絡進行人臉性別識別,采用自然環(huán)境下的人臉圖像數(shù)據(jù)庫作為實驗的訓練數(shù)據(jù)和測試數(shù)據(jù),實驗結果證明利用卷積神經(jīng)網(wǎng)絡進行人臉性別識別取得了較高的識別率。上述卷積神經(jīng)網(wǎng)絡模型在有監(jiān)督學習階段都采用誤差反向傳播策略微調卷積神經(jīng)網(wǎng)絡的初始參數(shù)空間。但是,誤差反向傳播法容易陷入局部最優(yōu)。技術實現(xiàn)要素:本發(fā)明所要解決的技術問題在于克服上述人臉性別識別方法缺點,提供一種全局最優(yōu)、抗干擾性強、識別率高的基于煙花深度信念網(wǎng)絡的人臉性別識別方法。解決上述技術問題所采用的技術方案由下述步驟組成:(1)原始圖像預處理將原始彩色圖像轉化為灰度圖像,并分割出人臉部分,轉化為一維向量,每一行向量表示一張圖像。(2)訓練深度信念網(wǎng)絡設置深度信念網(wǎng)絡輸入層、隱層和輸出層的層數(shù),以及各層節(jié)點數(shù),通過貪婪逐層無監(jiān)督學習,得到深度信念網(wǎng)絡初始參數(shù)空間:θ1=(W,B,C)式中W為網(wǎng)絡的權值,B為隱層的偏置,C為可視層的偏置。(3)用煙花算法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間在有監(jiān)督學習階段,用煙花算法尋找全局最優(yōu)點,用共軛梯度法對全局最優(yōu)點進行局部搜索,用煙花算法和共軛梯度法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間,步驟如下:1)設置煙花算法有限的最大迭代次數(shù),將其作為煙花算法的終止條件,初始化M個煙花,M為5~20的整數(shù),將深度信念網(wǎng)絡初始參數(shù)空間θ1作為其中的一個煙花,其余M-1個初始煙花由如下公式得出:θ=rand(1,n)×(UB-LB)+ones(1,n)×LB(1)其中,式中,n為深度信念網(wǎng)絡初始參數(shù)空間θ1的元素數(shù),H為深度信念網(wǎng)絡隱層總數(shù),1≤H≤3,Ds為第s個隱層的節(jié)點數(shù),Ds為100~500的正整數(shù),D0為輸入圖像的像素數(shù),rand(1,n)表示生成一個1×n矩陣,矩陣中每一個元素為(0,1)區(qū)間的一個隨機實數(shù),ones(1,n)表示生成一個1×n矩陣,矩陣中所有元素全為1,UB為煙花算法搜索空間的上界,UB為1~5的整數(shù),LB為煙花算法搜索空間的下界,LB為-5~-1的整數(shù)。2)使用煙花算法尋找種群最優(yōu)個體θ*。3)使用共軛梯度法繼續(xù)尋找最優(yōu)個體θ*的最優(yōu)解,如果找到,則更新種群最優(yōu)個體θ*,否則保持種群最優(yōu)個體θ*,將種群最優(yōu)個體θ*作為下一代的煙花,若滿足終止條件,則執(zhí)行步驟4),否則跳轉到步驟2)。4)返回種群最優(yōu)個體θ*,作為深度信念網(wǎng)絡參數(shù)空間。(4)使用煙花算法優(yōu)化的深度信念網(wǎng)絡進行人臉性別識別將測試圖像輸入到經(jīng)過優(yōu)化的深度信念網(wǎng)絡,第s個隱層第j個節(jié)點的特征向量由下式得到:式中,為第s個隱層第j個節(jié)點的偏置,為連接第s-1個隱層第i個節(jié)點和第s個隱層第j個節(jié)點的權值,為第s-1個隱層第i個節(jié)點的特征向量,表示輸入圖像第i個像素歸一化的灰度值,x為深度信念網(wǎng)絡輸入圖像。輸入測試圖像,在輸出層得到網(wǎng)絡預測的男女性別,其性別由下式得到:式中,為輸出層第j個節(jié)點的偏置,DH為第H個隱層的節(jié)點數(shù),為連接第H個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,x為深度信念網(wǎng)絡輸入圖像,為第H個隱層第i個節(jié)點的特征向量,J為輸入圖像的判斷性別,當J是1時為男性,J是2時為女性。在本發(fā)明的煙花算法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間步驟(3)中,種群最優(yōu)個體θ*用煙花算法按下式確定:式中,θt為煙花種群中第t個個體,N為輸入的有限訓練圖像總數(shù),為第k張輸入圖像的真實標簽,為輸出層第j個節(jié)點的偏置,DH為第H個隱層的節(jié)點數(shù),為連接第H個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,xk是第k張輸入圖像,為第H個隱層第i個節(jié)點的特征向量。在本發(fā)明的訓練深度信念網(wǎng)絡步驟(2)中,設置深度信念網(wǎng)絡輸入層和隱層以及輸出層的層數(shù)最佳為1個輸入層、3個隱層、1個輸出層,其中輸入層節(jié)點數(shù)為576,第一個隱層節(jié)點數(shù)為400,第二個隱層節(jié)點數(shù)為400,第三個隱層節(jié)點數(shù)為200,輸出層節(jié)點數(shù)為2。本發(fā)明采用深度信念網(wǎng)絡在無監(jiān)督階段學習到人臉圖像語義信息更加豐富的特征,在有監(jiān)督階段采用煙花算法調節(jié)深度信念網(wǎng)絡初始參數(shù)空間,得到更適合于識別任務的網(wǎng)絡模型。本發(fā)明具有抗干擾性強、全局最優(yōu)、識別率高等優(yōu)點,可用于人臉性別識別以及其它的圖像識別和分類。附圖說明圖1是煙花深度信念網(wǎng)絡人臉性別識別流程圖。圖2是ExtendedCohn-Kanade人臉數(shù)據(jù)庫圖像。圖3是ExtendedCohn-Kanade人臉數(shù)據(jù)庫預處理后圖像。圖4是MORPH人臉數(shù)據(jù)庫圖像。圖5是MORPH人臉數(shù)據(jù)庫預處理后圖像。圖6是LFW人臉數(shù)據(jù)庫圖像。圖7是LFW人臉數(shù)據(jù)庫預處理后圖像。具體實施方式下面結合附圖和實施例對本發(fā)明進一步詳細說明,但本發(fā)明不限于這些實施例。實施例1以國際通用的ExtendedCohn-Kanade人臉數(shù)據(jù)庫為輸入圖像,MATLAB2010b為實驗平臺,進行人臉性別識別為例,如圖1所示,其方法如下:1、原始圖像預處理ExtendedCohn-Kanade人臉數(shù)據(jù)庫,訓練圖像為210張,測試圖像為140張,部分圖像如圖2所示,將圖2中原始彩色圖像轉化為灰度圖像,并分割出人臉部分,采用雙三次插值法采樣人臉圖像大小為24×24像素,如圖3所示,將每一張分割圖像轉化為一維向量,每一行向量表示一張圖像。2、訓練深度信念網(wǎng)絡設置深度信念網(wǎng)絡輸入層、隱層和輸出層的層數(shù)分別為1個輸入層、3個隱層和1個輸出層,其中,輸入層節(jié)點數(shù)為24×24,3個隱層的節(jié)點數(shù)分別為400、400、200,輸出層節(jié)點數(shù)為2,即輸入圖像類別數(shù),通過貪婪逐層無監(jiān)督學習,得到深度信念網(wǎng)絡初始參數(shù)空間:θ1=(W,B,C)式中W為網(wǎng)絡的權值,B為隱層的偏置,C為可視層的偏置。3、用煙花算法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間在有監(jiān)督學習階段,用煙花算法尋找全局最優(yōu)點,用共軛梯度法對全局最優(yōu)點進行局部搜索,用煙花算法和共軛梯度法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間,步驟如下:1)設置煙花算法最大迭代次數(shù)為500,將其作為煙花算法的終止條件,初始化M個煙花,M取值為10,將深度信念網(wǎng)絡初始參數(shù)空間θ1作為其中的一個煙花,其余9個初始煙花由如下公式得出:θ=rand(1,471802)×(UB-LB)+ones(1,471802)×LB(1)式中,深度信念網(wǎng)絡初始參數(shù)空間θ1的元素數(shù)為471802,rand(1,471802)表示生成一個1×471802矩陣,矩陣中每一個元素為(0,1)區(qū)間的一個隨機實數(shù),ones(1,471802)表示生成一個1×471802矩陣,矩陣中所有元素全為1,UB為煙花算法搜索空間的上界,LB為煙花算法搜索空間的下界,(LB,UB)分別取值(-1,1)、(-2,2)、(-3,3)、(-4,4)、(-5,5)。2)使用煙花算法尋找種群最優(yōu)個體θ*種群最優(yōu)個體θ*用煙花算法按下式確定:式中,θt為煙花種群中第t個個體,為第k張輸入圖像的真實標簽,為輸出層第j個節(jié)點的偏置,為連接第3個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,xk是第k張輸入圖像,為第3個隱層第i個節(jié)點的特征向量。3)使用共軛梯度法繼續(xù)尋找最優(yōu)個體θ*的最優(yōu)解,如果找到,則更新種群最優(yōu)個體θ*,否則保持種群最優(yōu)個體θ*,將種群最優(yōu)個體θ*作為下一代的煙花,若滿足終止條件,則執(zhí)行步驟4),否則跳轉到步驟2)。4)返回種群最優(yōu)個體θ*,作為深度信念網(wǎng)絡參數(shù)空間。4、使用煙花算法優(yōu)化的深度信念網(wǎng)絡進行人臉性別識別將測試圖像輸入到經(jīng)過優(yōu)化的深度信念網(wǎng)絡,第s個隱層第j個節(jié)點的特征向量由下式得到:式中,為第s個隱層第j個節(jié)點的偏置,Ds為第s個隱層的節(jié)點數(shù),為連接第s-1個隱層第i個節(jié)點和第s個隱層第j個節(jié)點的權值,為第s-1個隱層第i個節(jié)點的特征向量,表示輸入圖像第i個像素歸一化的灰度值,x為深度信念網(wǎng)絡輸入圖像。輸入測試圖像,在輸出層得到網(wǎng)絡預測的男女性別,其性別由下式得到:式中,為輸出層第j個節(jié)點的偏置,為連接第3個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,x為深度信念網(wǎng)絡輸入圖像,為第3個隱層第i個節(jié)點的特征向量,J為輸入圖像的判斷性別,當J是1時為男性,J是2時為女性。表1.實施例1測試圖像性別識別率的測試結果(LB,UB)(-1,1)(-2,2)(-3,3)(-4,4)(-5,5)識別率(%)85.0086.4387.1486.4385.00由表1可見,當(LB,UB)取值為(-3,3)時,測試圖像的識別率最高。實施例2以國際通用的MORPH人臉數(shù)據(jù)庫為輸入圖像,MATLAB2010b為實驗平臺,進行人臉性別識別為例,如圖1所示,其方法如下:1、原始圖像預處理MORPH人臉數(shù)據(jù)庫,訓練圖像為1400張,測試圖像為1000張,部分圖像如圖4所示,將圖4中原始彩色圖像轉化為灰度圖像,并分割出人臉部分,采用雙三次插值法采樣人臉圖像大小為24×24像素,如圖5所示,將每一張分割圖像轉化為一維向量,每一行向量表示一張圖像。2、訓練深度信念網(wǎng)絡設置深度信念網(wǎng)絡輸入層、隱層和輸出層的層數(shù)分別為1個輸入層、3個隱層和1個輸出層,其中,輸入層節(jié)點數(shù)為24×24,3個隱層的節(jié)點數(shù)分別為400、400、200,輸出層節(jié)點數(shù)為2,即輸入圖像類別數(shù),通過貪婪逐層無監(jiān)督學習,得到深度信念網(wǎng)絡初始參數(shù)空間:θ1=(W,B,C)式中W為網(wǎng)絡的權值,B為隱層的偏置,C為可視層的偏置;3、用煙花算法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間在有監(jiān)督學習階段,用煙花算法尋找全局最優(yōu)點,用共軛梯度法對全局最優(yōu)點進行局部搜索,用煙花算法和共軛梯度法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間,步驟如下:1)設置煙花算法最大迭代次數(shù)為2000,將其作為煙花算法的終止條件,初始化M個煙花,M取值為5,將深度信念網(wǎng)絡初始參數(shù)空間θ1作為其中的一個煙花,其余4個初始煙花由如下公式得出:θ=rand(1,471802)×(UB-LB)+ones(1,471802)×LB(1)式中,深度信念網(wǎng)絡初始參數(shù)空間θ1的元素數(shù)為471802,rand(1,471802)表示生成一個1×471802矩陣,矩陣中每一個元素為(0,1)區(qū)間的一個隨機實數(shù),ones(1,471802)表示生成一個1×471802矩陣,矩陣中所有元素全為1,UB為煙花算法搜索空間的上界,LB為煙花算法搜索空間的下界,(LB,UB)分別取值(-1,1)、(-2,2)、(-3,3)、(-4,4)、(-5,5)。2)使用煙花算法尋找種群最優(yōu)個體θ*所述的種群最優(yōu)個體θ*用煙花算法按下式確定:式中,θt為煙花種群中第t個個體,為第k張輸入圖像的真實標簽,為輸出層第j個節(jié)點的偏置,為連接第3個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,xk是第k張輸入圖像,為第3個隱層第i個節(jié)點的特征向量。3)使用共軛梯度法繼續(xù)尋找最優(yōu)個體θ*的最優(yōu)解,如果找到,則更新種群最優(yōu)個體θ*,否則保持種群最優(yōu)個體θ*,將種群最優(yōu)個體θ*作為下一代的煙花,若滿足終止條件,則執(zhí)行步驟4),否則跳轉到步驟2)。4)返回種群最優(yōu)個體θ*,作為深度信念網(wǎng)絡參數(shù)空間。4、使用煙花算法優(yōu)化的深度信念網(wǎng)絡進行人臉性別識別將測試圖像輸入到經(jīng)過優(yōu)化的深度信念網(wǎng)絡,第s個隱層第j個節(jié)點的特征向量由下式得到:式中,為第s個隱層第j個節(jié)點的偏置,Ds為第s個隱層的節(jié)點數(shù),為連接第s-1個隱層第i個節(jié)點和第s個隱層第j個節(jié)點的權值,為第s-1個隱層第i個節(jié)點的特征向量,表示輸入圖像第i個像素歸一化的灰度值,x為深度信念網(wǎng)絡輸入圖像。輸入測試圖像,在輸出層得到網(wǎng)絡預測的男女性別,其性別由下式得到:式中,為輸出層第j個節(jié)點的偏置,為連接第3個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,x為深度信念網(wǎng)絡輸入圖像,為第3個隱層第i個節(jié)點的特征向量,J為輸入圖像的判斷性別,當J是1時為男性,J是2時為女性。表2.實施例2測試圖像性別識別率的測試結果(LB,UB)(-1,1)(-2,2)(-3,3)(-4,4)(-5,5)識別率(%)90.5093.3093.8093.3093.00由表2可見,當(LB,UB)取值為(-3,3)時,測試圖像的識別率最高。實施例3以國際通用的LFW人臉數(shù)據(jù)庫為輸入圖像,MATLAB2010b為實驗平臺,進行人臉性別識別為例,如圖1所示,其方法如下:1、原始圖像預處理LFW人臉數(shù)據(jù)庫,訓練圖像為400張,測試圖像為200張,部分圖像如圖6所示,將圖6中原始彩色圖像轉化為灰度圖像,并分割出人臉部分,采用雙三次插值法采樣人臉圖像大小為24×24像素,如圖7所示,將每一張分割圖像轉化為一維向量,每一行向量表示一張圖像。2、訓練深度信念網(wǎng)絡設置深度信念網(wǎng)絡輸入層、隱層和輸出層的層數(shù)分別為1個輸入層、3個隱層和1個輸出層,其中,輸入層節(jié)點數(shù)為24×24,3個隱層的節(jié)點數(shù)分別為400、400、200,輸出層節(jié)點數(shù)為2,即輸入圖像類別數(shù),通過貪婪逐層無監(jiān)督學習,得到深度信念網(wǎng)絡初始參數(shù)空間:θ1=(W,B,C)式中W為網(wǎng)絡的權值,B為隱層的偏置,C為可視層的偏置。3、用煙花算法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間在有監(jiān)督學習階段,用煙花算法尋找全局最優(yōu)點,用共軛梯度法對全局最優(yōu)點進行局部搜索,用煙花算法和共軛梯度法優(yōu)化深度信念網(wǎng)絡初始參數(shù)空間,步驟如下:1)設置煙花算法最大迭代次數(shù)為1000,將其作為煙花算法的終止條件,初始化M個煙花,M取值為20,將深度信念網(wǎng)絡初始參數(shù)空間θ1作為其中的一個煙花,其余19個初始煙花由如下公式得出:θ=rand(1,471802)×(UB-LB)+ones(1,471802)×LB(1)式中,深度信念網(wǎng)絡初始參數(shù)空間θ1的元素數(shù)為471802,rand(1,471802)表示生成一個1×471802矩陣,矩陣中每一個元素為(0,1)區(qū)間的一個隨機實數(shù),ones(1,471802)表示生成一個1×471802矩陣,矩陣中所有元素全為1,UB為煙花算法搜索空間的上界,LB為煙花算法搜索空間的下界,(LB,UB)分別取值(-1,1)、(-2,2)、(-3,3)、(-4,4)、(-5,5)。2)使用煙花算法尋找種群最優(yōu)個體θ*所述的種群最優(yōu)個體θ*用煙花算法按下式確定:式中,θt為煙花種群中第t個個體,為第k張輸入圖像的真實標簽,為輸出層第j個節(jié)點的偏置,為連接第3個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,xk是第k張輸入圖像,為第3個隱層第i個節(jié)點的特征向量。3)使用共軛梯度法繼續(xù)尋找最優(yōu)個體θ*的最優(yōu)解,如果找到,則更新種群最優(yōu)個體θ*,否則保持種群最優(yōu)個體θ*,將種群最優(yōu)個體θ*作為下一代的煙花,若滿足終止條件,則執(zhí)行步驟4),否則跳轉到步驟2)。4)返回種群最優(yōu)個體θ*,作為深度信念網(wǎng)絡參數(shù)空間。4、使用煙花算法優(yōu)化的深度信念網(wǎng)絡進行人臉性別識別將測試圖像輸入到經(jīng)過優(yōu)化的深度信念網(wǎng)絡,第s個隱層第j個節(jié)點的特征向量由下式得到:式中,為第s個隱層第j個節(jié)點的偏置,Ds為第s個隱層的節(jié)點數(shù),為連接第s-1個隱層第i個節(jié)點和第s個隱層第j個節(jié)點的權值,為第s-1個隱層第i個節(jié)點的特征向量,表示輸入圖像第i個像素歸一化的灰度值,x為深度信念網(wǎng)絡輸入圖像。輸入測試圖像,在輸出層得到網(wǎng)絡預測的男女性別,其性別由下式得到:式中,為輸出層第j個節(jié)點的偏置,為連接第3個隱層第i個節(jié)點和輸出層第j個節(jié)點的權值,x為深度信念網(wǎng)絡輸入圖像,為第3個隱層第i個節(jié)點的特征向量,J為輸入圖像的判斷性別,當J是1時為男性,J是2時為女性。表3.實施例3測試圖像性別識別率的測試結果(LB,UB)(-1,1)(-2,2)(-3,3)(-4,4)(-5,5)識別率(%)90.5092.0092.5091.5090.00由表3可見,當(LB,UB)取值為(-3,3)時,測試圖像的識別率最高。當前第1頁1 2 3