亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于平均臉特征的性別檢測(cè)方法

文檔序號(hào):6636919閱讀:158來(lái)源:國(guó)知局
基于平均臉特征的性別檢測(cè)方法
【專利摘要】本發(fā)明提供基于平均臉特征的性別檢測(cè)方法,包括學(xué)習(xí)步驟和檢測(cè)步驟:學(xué)習(xí)步驟包括:A、對(duì)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行分類,并計(jì)算各類人臉圖像的平均臉;B、將所述各平均臉數(shù)據(jù)配置為卷積神經(jīng)網(wǎng)絡(luò)的輸出層、各平均臉?biāo)鶎兕悇e下的人臉數(shù)據(jù)集中的人臉各位置配置為卷積神經(jīng)網(wǎng)絡(luò)的輸入層,對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí);C、將所述卷積神經(jīng)網(wǎng)絡(luò)的輸出層作為性別分類層的輸入層,不同性別作為性別分類層的輸出層,對(duì)性別分類層進(jìn)行學(xué)習(xí);檢測(cè)步驟包括:將待檢人員的人臉圖像輸入學(xué)習(xí)后的卷積神經(jīng)網(wǎng)絡(luò),由性別分類層輸出性別?;诰矸e神經(jīng)網(wǎng)絡(luò)對(duì)平均的臉約束學(xué)習(xí)得到平均臉的特征表達(dá),有效的解決現(xiàn)有的經(jīng)典的人工設(shè)計(jì)的特征的局限性,實(shí)現(xiàn)性別的準(zhǔn)確識(shí)別。
【專利說(shuō)明】基于平均臉特征的性別檢測(cè)方法

【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像識(shí)別領(lǐng)域,特別涉及一種基于平均臉特征的性別檢測(cè)方法。

【背景技術(shù)】
[0002] 現(xiàn)有技術(shù)中,性別識(shí)別算法大體分為三類,其一是基于語(yǔ)音,另一類是基于人的步 態(tài),最后一類是基于人臉圖像。
[0003] 由于目前人臉檢測(cè)的技術(shù)比較成熟,因此使得本類方法更為簡(jiǎn)單、直接。但由于現(xiàn) 實(shí)環(huán)境中復(fù)雜的背景、光照和攝像頭本身的精度差別以及人臉的角度等等因素,極大的增 加了性別識(shí)別的難度,導(dǎo)致準(zhǔn)確率比較低。
[0004] 進(jìn)一步的,基于人臉圖像的性別識(shí)別的技術(shù)最大的問(wèn)題是準(zhǔn)確率低,不穩(wěn)定。導(dǎo)致 這個(gè)問(wèn)題有多方面的因數(shù):例如現(xiàn)實(shí)環(huán)境中光照復(fù)雜,攝像頭本身的參數(shù)和精度千差萬(wàn)別; 現(xiàn)實(shí)中人臉的角度的變化非常多;不同人種的膚色差異較大。
[0005] 以上三個(gè)因素極大的增加了在人臉圖像中性別識(shí)別器的識(shí)別難度。傳統(tǒng)的采用基 于梯度方向垂直識(shí)別方法(HOG,Histograms of Original Gradients)、局部二值識(shí)別方法 (LBP,Local Binary Pattern)和Gabor小波變換方法中主要采用以下兩種方式解決光照、 角度與膚色的問(wèn)題:
[0006] 一、在檢測(cè)中,對(duì)檢測(cè)圖像進(jìn)行預(yù)處理,減少由于光照、角度、不同膚色帶來(lái)的差異 性;
[0007] 二、基于各種不同的數(shù)據(jù)集,訓(xùn)練多個(gè)分類器。
[0008] 但由于環(huán)境的差異導(dǎo)致圖像千差萬(wàn)別,第一種方式無(wú)法很好的消除這一影響;第 二種方式將由于環(huán)境引起的復(fù)雜度在訓(xùn)練時(shí)進(jìn)行解決,但由于差異性比較大,訓(xùn)練器的個(gè) 數(shù)與如何組合不同的訓(xùn)練器的結(jié)果都難以有個(gè)很好的解決方案。
[0009] 另外,上述幾種特征還存在一缺陷,即實(shí)施上述特征的步驟和參數(shù)都是定的,例如 實(shí)現(xiàn)方式是采用函數(shù)y = f(x),其中X是輸入圖像,而y是輸出的特征。上述的手工設(shè)計(jì) (如LBP,gabor,HOG等)的特征中f(x)的函數(shù)形式是認(rèn)為指定的,且函數(shù)的參數(shù)也是認(rèn)為 設(shè)定的,而不是基于樣本集上通過(guò)學(xué)習(xí)得到的。因此容易存在誤差。


【發(fā)明內(nèi)容】

[0010] 本申請(qǐng)?zhí)峁┮环N基于平均臉特征的性別檢測(cè)方法,基于卷積神經(jīng)網(wǎng)絡(luò)通過(guò)平均臉 約束學(xué)習(xí)得到平均臉的特征表達(dá),進(jìn)而對(duì)檢測(cè)模型進(jìn)行訓(xùn)練,有效的解決了經(jīng)典人工設(shè)計(jì) 的特征無(wú)法很好的表達(dá)各種不同的環(huán)境與角度下的人臉圖像的局限性,從而實(shí)現(xiàn)性別的準(zhǔn) 確識(shí)別。
[0011] 所述基于平均臉特征的性別檢測(cè)方法包括學(xué)習(xí)的步驟和檢測(cè)步驟:
[0012] 所述學(xué)習(xí)的步驟包括:
[0013] A、對(duì)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行分類,并計(jì)算各類人臉圖像的平均臉;
[0014] B、將所述各平均臉數(shù)據(jù)配置為卷積神經(jīng)網(wǎng)絡(luò)的輸出層、各平均臉?biāo)鶎兕悇e下的人 臉數(shù)據(jù)集中的人臉各位置配置為卷積神經(jīng)網(wǎng)絡(luò)的輸入層,對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí);
[0015] C、將所述卷積神經(jīng)網(wǎng)絡(luò)的輸出層作為性別分類層的輸入層,不同性別作為性別分 類層的輸出層,對(duì)性別分類層進(jìn)行學(xué)習(xí);
[0016] 所述檢測(cè)步驟包括:
[0017] 將輸入待檢人員的人臉圖像輸入學(xué)習(xí)后的卷積神經(jīng)網(wǎng)絡(luò),由性別分類層輸出性 別。
[0018] 由上,基于卷積神經(jīng)網(wǎng)絡(luò)通過(guò)平均臉約束學(xué)習(xí)得到平均臉的特征表達(dá),進(jìn)而對(duì)檢 測(cè)模型進(jìn)行訓(xùn)練,有效的解決了現(xiàn)有技術(shù)無(wú)法很好的表達(dá)所有的特征的情況,從而實(shí)現(xiàn)性 別的準(zhǔn)確識(shí)別。
[0019] 可選的,步驟A所述對(duì)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行分類包括:依據(jù)人臉對(duì)應(yīng)的性別和膚 色進(jìn)行分類。
[0020] 由上,可實(shí)現(xiàn)對(duì)于不同膚色和性別的人臉進(jìn)行初級(jí)分化,完成原始數(shù)據(jù)的累計(jì)。
[0021] 可選的,步驟B包括:
[0022] 將平均臉的各位置像素,表示為(XpX2,……,Xn),配置為卷積神經(jīng)網(wǎng)絡(luò)輸出層的 各個(gè)神經(jīng)單元;
[0023] 將對(duì)應(yīng)類別的各人臉的各位置像素,表示為(OpO2,……,On),配置為卷積神經(jīng)網(wǎng) 絡(luò)輸入層的各個(gè)神經(jīng)單元配置;
[0024] 使所述輸入層的各人臉的各位置像素與輸出層的平均臉的各位置像素區(qū)別最小 的方式對(duì)CNN進(jìn)行學(xué)習(xí)。
[0025] 其中,卷積神經(jīng)網(wǎng)絡(luò)輸出層的各個(gè)神經(jīng)單元與卷積神經(jīng)網(wǎng)絡(luò)輸入層的各個(gè)神經(jīng)單 元數(shù)量匹配。
[0026] 由上,通過(guò)人臉數(shù)據(jù)庫(kù)數(shù)據(jù)對(duì)于卷積神經(jīng)網(wǎng)絡(luò)中的卷基層和隱含層的學(xué)習(xí),實(shí)現(xiàn) 其輸出的特征表達(dá)。
[0027] 可選的,所述使所述輸入層的各人臉的各位置像素與輸出層的平均臉的各位置像 素區(qū)別最小的方式包括:采用對(duì)應(yīng)各位置像素的最小平方差和的方式。
[0028] 可選的,步驟C中,所述性別分類層包括softmax分類層。
[0029] 可選的,所述對(duì)性別分類層進(jìn)行學(xué)習(xí)的步驟包括:
[0030] 采用反向傳播算法進(jìn)行學(xué)習(xí),計(jì)算 £(h.') = -= +(丨-(,)丨n(l -+ y u彳I 的最小值,式中 w 為所述 softmax n=\ I 分類層的參數(shù),tn為所述人臉圖像數(shù)據(jù)庫(kù)中第η個(gè)樣本的真實(shí)性別,yn為第η個(gè)樣本通過(guò) 模型后的性別,f|wf為權(quán)重腐蝕。
[0031] 可選的,所述性別分類層包括向量機(jī)分類或邏輯回歸分類。

【專利附圖】

【附圖說(shuō)明】
[0032] 圖1為本發(fā)明的流程圖;
[0033] 圖2為基于平均臉特征的性別檢測(cè)模型的原理示意圖。

【具體實(shí)施方式】
[0034] 本發(fā)明所涉及基于平均臉特征的性別檢測(cè)方法,其中,基于卷積神經(jīng)網(wǎng)絡(luò)通過(guò)平 均臉約束學(xué)習(xí)得到平均臉的特征表達(dá),有效的解決了現(xiàn)有經(jīng)典的人工設(shè)計(jì)的特征無(wú)法很好 的表達(dá)不同環(huán)境與角度下的人臉的局限性。
[0035] 如圖1所示,本發(fā)明包括以下步驟:
[0036] SlO :將人臉數(shù)據(jù)分類,計(jì)算不同類別的平均臉。
[0037] 本實(shí)施例中,根據(jù)膚色與性別,將人臉數(shù)據(jù)集進(jìn)行分類,本實(shí)施例采用以下6個(gè)類 另IJ:白-男、白-女、黑-男、黑-女、黃-男、黃-女。以上每個(gè)類別的數(shù)據(jù)應(yīng)包含不同的光 照與姿勢(shì),并將其縮放到統(tǒng)一像素尺寸上。針對(duì)于每個(gè)類別下的人臉數(shù)據(jù)集,通過(guò)計(jì)算該類 別數(shù)據(jù)集中的各個(gè)人臉圖像數(shù)據(jù),即各個(gè)人臉圖像相同位置的像素平均值,得到每個(gè)類別 的平均臉。其中,計(jì)算出的平均臉可以表示為一數(shù)組,如(Xi、x 2,……,xn),分別對(duì)應(yīng)該平 均臉各個(gè)位置像素平均值。本步驟即得到6個(gè)類別的平均臉。
[0038] S20 :對(duì)應(yīng)上述各類平均臉,對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN,Convolutional Neural Networks)進(jìn)行學(xué)習(xí)。
[0039] 其中,對(duì)CNN進(jìn)行學(xué)習(xí)時(shí),需配置好輸入層、輸出層的神經(jīng)元個(gè)數(shù),然后將各平均 臉數(shù)據(jù)作為輸出層,對(duì)應(yīng)該平均臉?biāo)鶎兕悇e下的人臉數(shù)據(jù)集中的人臉各位置作為輸入層, 對(duì)CNN的中間層(本實(shí)施例中,中間層是對(duì)卷積層、隱含層的統(tǒng)稱)進(jìn)行學(xué)習(xí),或稱對(duì)CNN 模型進(jìn)行訓(xùn)練。下面進(jìn)行詳細(xì)說(shuō)明:
[0040] 本實(shí)施例中,將CNN輸出層的神經(jīng)單元個(gè)數(shù)配置為與輸入層相匹配,并如下配置:
[0041] 如圖2所示,CNN輸出層對(duì)應(yīng)平均臉數(shù)據(jù),CNN輸出層的各個(gè)神經(jīng)單元配置為平均 臉的各位置像素,如上表示為(Xp χ2,......,χη)。
[0042] CNN輸入層各個(gè)神經(jīng)單元配置為與輸出層平均臉?biāo)鶎兕悇e下的人臉數(shù)據(jù)集中的各 人臉的各位置像素,表示為(OpO2, ......,on)。
[0043] 對(duì)CNN進(jìn)行學(xué)習(xí)時(shí),采用反向傳播算法進(jìn)行CNN模型的預(yù)學(xué)習(xí),使得每個(gè)樣本的 輸入(每個(gè)樣本的輸入即是對(duì)應(yīng)類別的人臉數(shù)據(jù)集中的每個(gè)人臉數(shù)據(jù))與其對(duì)應(yīng)的平 均臉數(shù)據(jù)的平方差和最小。具體的,對(duì)應(yīng)每個(gè)樣本對(duì)應(yīng)的平方差和計(jì)算表示為:E(W)= 1/2 [ (O1-X1) * (O1-X1) +……+ (On-Xn) * (On-Xn)]。通過(guò)求解使E (w)最小,即使對(duì)應(yīng)每個(gè)樣本CNN 輸入層的人臉圖像各位置與輸出層的平均臉的各位置的區(qū)別最小,以達(dá)到對(duì)CNN中卷積層 和隱含層的學(xué)習(xí)。CNN中的卷基層和隱含層都是有參數(shù)的,本步驟學(xué)習(xí)的目的就是得到上述 參數(shù)值,區(qū)別于現(xiàn)有的經(jīng)典的人工設(shè)定的特征,其計(jì)算的步驟與參數(shù)是人為設(shè)定的。而本方 案中的特征是基于樣本集學(xué)習(xí)得到的。
[0044] S30 :對(duì)步驟S20中CNN輸出層的特征進(jìn)行性別分類學(xué)習(xí)。
[0045] 在已學(xué)習(xí)的CNN后加入softmax分類層,所述softmax分類層的輸出層神經(jīng)單元 配置為性別,分為男、女2個(gè)。分類層的輸入層的數(shù)據(jù)為前面學(xué)習(xí)好的CNN網(wǎng)路的輸出,即 上面的Ovo2,......,On)通過(guò)CNN后的輸出值。使用反向傳 播算法,基于交叉j:商對(duì)softmax 分類層進(jìn)行學(xué)習(xí),使所述輸出層的性別與輸入層的特征表達(dá)相匹配。分類層的目標(biāo)函數(shù)為: N β ^ Ε(η,) = - In (和)=k In + (I - L )ln(l - .V J. + j I u'f,學(xué)習(xí)的方向就是找到一個(gè) w 使得 n=\ L 這個(gè)目標(biāo)函數(shù)的值越來(lái)越小,公式中的W就是softmax分類層的參數(shù),tn為第η個(gè)樣本(第 η個(gè)人臉)的性別真實(shí)值,yn為第η個(gè)樣本通過(guò)模型后的性別檢測(cè)值;|||η|2為權(quán)重腐蝕, 權(quán)重腐蝕的目的是防止過(guò)擬合。
[0046] 本步驟僅對(duì)softmax分類層的參數(shù)進(jìn)行學(xué)習(xí),而前面的CNN網(wǎng)路中的參數(shù)不再改 變,softmax分類層此時(shí)就是一個(gè)分類器,用于依據(jù)特征進(jìn)行性別分類。另外,還可采用如 支持向量機(jī)、邏輯回歸等其他分類算法實(shí)現(xiàn)性別分類,在此不做贅述。
[0047] 步驟S40 :輸入待檢人員的頭像,檢測(cè)其性別。
[0048] 在實(shí)際的性別鑒別過(guò)程中,向CNN網(wǎng)路的輸入層輸入待檢人員頭像,其輸出層輸 出便可得出待鑒別圖像的特征表達(dá),softmax分類層依據(jù)所述特征表達(dá)進(jìn)行性別識(shí)別,輸出 識(shí)別結(jié)果。
[0049] 以上所述僅為本發(fā)明的較佳實(shí)施例而已,并不用以限制本發(fā)明,總之凡在本發(fā)明 的精神和原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之 內(nèi)。
【權(quán)利要求】
1. 基于平均臉特征的性別檢測(cè)方法,其特征在于,包括學(xué)習(xí)步驟和檢測(cè)步驟: 所述學(xué)習(xí)步驟包括: A、 對(duì)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行分類,并計(jì)算各類人臉圖像的平均臉; B、 將所述各平均臉數(shù)據(jù)配置為卷積神經(jīng)網(wǎng)絡(luò)的輸出層、各平均臉?biāo)鶎兕悇e下的人臉數(shù) 據(jù)集中的人臉各位置配置為卷積神經(jīng)網(wǎng)絡(luò)的輸入層,對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí); C、 將所述卷積神經(jīng)網(wǎng)絡(luò)的輸出層作為性別分類層的輸入層,不同性別作為性別分類層 的輸出層,對(duì)性別分類層進(jìn)行學(xué)習(xí); 所述檢測(cè)步驟包括: 將待檢人員的人臉圖像輸入學(xué)習(xí)后的卷積神經(jīng)網(wǎng)絡(luò),由性別分類層輸出性別。
2. 根據(jù)權(quán)利要求1所述的方法,其特征在于,步驟A所述對(duì)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行分類包 括:依據(jù)人臉對(duì)應(yīng)的性別和膚色進(jìn)行分類。
3. 根據(jù)權(quán)利要求1所述的方法,其特征在于,步驟B包括: 將平均臉的各位置像素,表示為(Xi、X2,……,Xn),配置為卷積神經(jīng)網(wǎng)絡(luò)輸出層的各個(gè) 神經(jīng)單元; 將對(duì)應(yīng)類別的各人臉的各位置像素,表示為(OpO2,……,On),配置為卷積神經(jīng)網(wǎng)絡(luò)輸 入層的各個(gè)神經(jīng)單元; 使所述輸入層的各人臉的各位置像素與輸出層的平均臉的各位置像素區(qū)別最小的方 式對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)。 其中,卷積神經(jīng)網(wǎng)絡(luò)輸出層的各個(gè)神經(jīng)單元與卷積神經(jīng)網(wǎng)絡(luò)輸入層的各個(gè)神經(jīng)單元數(shù) 量匹配。
4. 根據(jù)權(quán)利要求3所述的方法,其特征在于,所述使所述輸入層的各人臉的各位置像 素與輸出層的平均臉的各位置像素區(qū)別最小的方式包括:采用對(duì)應(yīng)各位置像素的最小平方 差和的方式。
5. 根據(jù)權(quán)利要求1所述的方法,其特征在于,步驟C中,所述性別分類層包括softmax 分類層。
6. 根據(jù)權(quán)利要求1所述的方法,其特征在于,步驟C中所述對(duì)性別分類層進(jìn)行學(xué)習(xí)的步 驟包括: 采 用反向 傳播算 法進(jìn)行 學(xué)習(xí),計(jì)算 £'(vv') = -Inp(和)=-ZUn.y" + (1 - )ln(l-凡_Ivvf使其結(jié)果最小,式中w為所述 n=\ ^ softmax分類層的參數(shù),tn為所述人臉圖像數(shù)據(jù)庫(kù)中第η個(gè)樣本的真實(shí)性別,yn為第η個(gè) 樣本通過(guò)模型后的性別,|卜|2為權(quán)重腐蝕。
7. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述性別分類層包括向量機(jī)分類或邏輯 回歸分類。
【文檔編號(hào)】G06K9/66GK104463243SQ201410720504
【公開日】2015年3月25日 申請(qǐng)日期:2014年12月1日 優(yōu)先權(quán)日:2014年12月1日
【發(fā)明者】沈飛, 謝衍濤 申請(qǐng)人:中科創(chuàng)達(dá)軟件股份有限公司
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1