亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于集成卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法與流程

文檔序號:12365451閱讀:340來源:國知局
一種基于集成卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法與流程
本發(fā)明涉及圖像處理
技術(shù)領(lǐng)域
,特別涉及一種基于集成卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法。
背景技術(shù)
:人臉性別識別在個性化服務(wù)、智能監(jiān)控等方面具有很大的應(yīng)用價值。例如商品推薦,男性和女性的商品需求區(qū)別很大,人臉性別識別會幫助商家了解男性和女性不同的喜好和需求,從而改進(jìn)產(chǎn)品,提供更良好的用戶體驗和內(nèi)容質(zhì)量。人臉性別識別還可以幫助智能設(shè)備如穿戴設(shè)備提供定制化的服務(wù),因為不同性別有不同偏好、生活習(xí)慣和獨(dú)有特征。目前有很多人臉性別識別方法,大體上將性別識別系統(tǒng)分為兩個部分:人臉圖像的特征提取和性別識別算法。人臉圖像的特征提取包括人臉五官距離特征,像素特征,局部二進(jìn)制模式,Gabor小波變換等,而性別識別算法就是依靠機(jī)器學(xué)習(xí)算法來實(shí)現(xiàn),效果比較顯著的有支持向量機(jī)(SVM)、神經(jīng)網(wǎng)絡(luò)、K最近鄰算法、高斯混合模型、隨機(jī)森林、Softmax回歸模型等等。國內(nèi)外學(xué)者在解決人臉性別識別問題時,大都采用這些分類算法,但是這些分類算法極大地依賴于對人臉圖像的特征提取,而目前采用的特征抽取方法是人工設(shè)計的,再通過特征選擇算法剔除冗余或者不相關(guān)的特征,得出最優(yōu)或者次優(yōu)特征子集,目的是提高識別準(zhǔn)確率。另一方面是降低特征的維數(shù),從而提升模型訓(xùn)練速度。這個過程極大地依賴人工專家的經(jīng)驗和反復(fù)實(shí)驗完成的,不僅工作量大,而且很難找到一種最優(yōu)的人臉性別特征表達(dá),從而影響了人臉性別識別的效果。另一方面,單個分類器如卷積神經(jīng)網(wǎng)絡(luò)作為人臉性別識別的方法,需要調(diào)整許多參數(shù),參數(shù)調(diào)優(yōu)復(fù)雜,工作量大,難以獲得最優(yōu)參數(shù),因而影響整體的人臉性別識別性能。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的目的在于克服現(xiàn)有技術(shù)的缺點(diǎn)與不足,提供一種識別準(zhǔn)確率高的基于集成卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法。本發(fā)明的目的通過下述技術(shù)方案實(shí)現(xiàn):一種基于集成卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法,步驟如下:S1、首先隨機(jī)組合形成若干個新的訓(xùn)練數(shù)據(jù)集,然后選取出M個經(jīng)過上述新的訓(xùn)練數(shù)據(jù)集訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器;S2、獲取待測人臉圖像;S3、在測試時,將待測人臉圖像分別輸入步驟S1獲取到的M個基分類器,然后融合M個基分類器輸出的性別類別,獲得最終的一個性別類別。優(yōu)選的,所述步驟S1中基分類器獲取過程具體如下:S11、選擇一個基準(zhǔn)數(shù)據(jù)集和若干輔助數(shù)據(jù)集;其中基準(zhǔn)數(shù)據(jù)集分割成基準(zhǔn)訓(xùn)練數(shù)據(jù)集和基準(zhǔn)測試數(shù)據(jù)集;S12、輔助數(shù)據(jù)集隨機(jī)組合后加入到基準(zhǔn)訓(xùn)練數(shù)據(jù)集中,構(gòu)成若干個新的訓(xùn)練數(shù)據(jù)集;S13、隨機(jī)生成一定數(shù)量的卷積神經(jīng)網(wǎng)絡(luò)模型;S14、利用步驟S12中得到的若干個新的訓(xùn)練數(shù)據(jù)集分別對步驟S13生成的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到多個卷積神經(jīng)網(wǎng)絡(luò)分類器;S15、分別計算步驟S14獲取的各卷積神經(jīng)網(wǎng)絡(luò)分類器在基準(zhǔn)測試數(shù)據(jù)集上的識別準(zhǔn)確率;S16、選擇識別準(zhǔn)確率排名前M的M個卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器。更進(jìn)一步的,步驟S13隨機(jī)生成的卷積神經(jīng)網(wǎng)絡(luò)模型包括五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型和六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型。更進(jìn)一步的,所述五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型的輸入層至輸出層之間依次連接有第一數(shù)據(jù)層Date11層、第二數(shù)據(jù)層Date12層、第一卷積層conv11層、第一下采樣層P11層、第一LRN層L11層、第二卷積層conv12層、第二下采樣層P12層、第二LRN層L12層、第三卷積層conv13層、第四卷積層conv14層、第五卷積層conv15層、第五下采樣層P15層、第一全鏈接層Q11層、第一Dropout層D11層、第二全鏈接層Q12層和第二Dropout層D12層;第一卷積層conv11層、第二卷積層conv12層、第三卷積層conv13層、第四卷積層conv14層、第五卷積層conv15層、第一全鏈接層Q11層、第二全鏈接層Q12層下對應(yīng)分別連接第一激活函數(shù)層ReLU11層、第二激活函數(shù)層ReLU12層、第三激活函數(shù)層ReLU13層、第四激活函數(shù)層ReLU14層、第五激活函數(shù)層ReLU15層、第六激活函數(shù)層ReLU16層和第七激活函數(shù)層ReLU17層。更進(jìn)一步的,所述第一卷積層conv11層的卷積核大小為11*11,卷積核個數(shù)為96;所述第二卷積層conv12層的卷積核大小為5*5,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為2;所述第三卷積層conv13層的卷積核大小為3*3,卷積核個數(shù)為384,卷積核的邊緣增補(bǔ)為1;所述第四卷積層conv14層的卷積核大小為3*3,卷積核個數(shù)為384,卷積核的邊緣增補(bǔ)為1;所述第五卷積層conv15層的卷積核大小為3*3,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為1;所述第一下采樣層P11層下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?7*27;所述第二下采樣層P12層下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?3*13;所述第五下采樣層P15層下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?*6。更進(jìn)一步的,所述六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型的輸入層至輸出層之間依次連接有第一數(shù)據(jù)層Date21層、第二數(shù)據(jù)層Date22層、第一卷積層conv21層、第一下采樣層P21、第一LRN層L21、第二卷積層conv22、第二下采樣層P22、第二LRN層L22、第三卷積層conv23、第四卷積層conv24層、第五卷積層conv25層、第六卷積層conv26層、第六下采樣層P26層、第一全鏈接層Q21層、第一Dropout層D21層、第二全鏈接層Q22和第二Dropout層D22;其中第一卷積層conv21層、第二卷積層conv22層、第三卷積層conv23層、第四卷積層conv24層、第五卷積層conv25層、第六卷積層conv26層、第一全鏈接層Q21層、第二全鏈接層Q22層下對應(yīng)分別連接第一激活函數(shù)層ReLU21層、第二激活函數(shù)層ReLU22層、第三激活函數(shù)層ReLU23層、第四激活函數(shù)層ReLU24層、第五激活函數(shù)層ReLU25層、第六激活函數(shù)層ReLU26層、第七激活函數(shù)層ReLU27層和第八激活函數(shù)層ReLU28層。更進(jìn)一步的,所述第一卷積層conv21層的卷積核大小為11*11,卷積核個數(shù)為96;所述第二卷積層conv22層的卷積核大小為5*5,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為2;所述第三卷積層conv23層的卷積核大小為3*3,卷積核個數(shù)為384,卷積核的邊緣增補(bǔ)為1;所述第四卷積層conv24層的卷積核大小為3*3,卷積核個數(shù)為384,卷積核的邊緣增補(bǔ)為1;所述第五卷積層conv25層的卷積核大小為3*3,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為1;所述第六卷積層conv26層的卷積核大小為3*3,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為1;所述第一下采樣層P21層下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?7*27;所述第二下采樣層P22層下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?3*13;所述第六下采樣層P26層下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?*6。更進(jìn)一步的,所述M為5,即步驟S16中將識別準(zhǔn)確率排名前5的5個卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器,得到的為5個基分類器,分別為第一基分類器、第二基分類器、第三基分類器、第四基分類器和第五基分類器;其中第一基分類器和第三基分類器均由六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練得到,第二基分類器、第四基分類器和第五基分類器均由五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練得到。優(yōu)選的,所述卷積神經(jīng)網(wǎng)絡(luò)分類器中分類器采用SoftMax分類器。優(yōu)選的,所述步驟S3中采用簡單投票融合方法融合M個基分類器輸出的性別類別,獲得最終的一個性別類別。本發(fā)明相對于現(xiàn)有技術(shù)具有如下的優(yōu)點(diǎn)及效果:(1)本發(fā)明方法首先選取出M個經(jīng)過隨機(jī)組合形成的若干個新的訓(xùn)練數(shù)據(jù)集訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器,然后將待測人臉圖像輸入至M個基分類器,最后融合M個基分類器輸出的性別類別,獲得最終的一個性別類別,具有人臉性別識別準(zhǔn)確率高、減少了人臉圖象的性別特征提取對人的依賴性,能夠估計多種人群的性別,以及應(yīng)用廣泛的優(yōu)點(diǎn)。另外本發(fā)明方法卷積神經(jīng)網(wǎng)絡(luò)分類器是采用組合抽樣形成的若干個新的訓(xùn)練數(shù)據(jù)集訓(xùn)練得到的,本發(fā)明方法在多個數(shù)據(jù)集經(jīng)過組合抽樣后可以得到數(shù)量更多的新的訓(xùn)練數(shù)據(jù)集,因此在給定的幾種卷積神經(jīng)網(wǎng)絡(luò)模型下,能夠訓(xùn)練得到更多的卷積神經(jīng)網(wǎng)絡(luò)分類器,從而獲取到識別準(zhǔn)確率更高的基分類器。(2)本發(fā)明方法中若干數(shù)量的新的訓(xùn)練數(shù)據(jù)集是由一個基準(zhǔn)數(shù)據(jù)集中的基準(zhǔn)訓(xùn)練數(shù)據(jù)集和多個輔助數(shù)據(jù)集進(jìn)行隨機(jī)組合得到的,并且得到的各新的訓(xùn)練數(shù)據(jù)集為不同的,因此經(jīng)過各新的訓(xùn)練數(shù)據(jù)集訓(xùn)練得到的各卷積神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)也不相同,本發(fā)明利用多個結(jié)構(gòu)差異化的卷積神經(jīng)網(wǎng)絡(luò)模型集成識別,能夠獲得更好的人臉性別識別性能,進(jìn)一步提高性別識別的準(zhǔn)確率。(3)本發(fā)明方法中隨機(jī)生成一定數(shù)量的卷積神經(jīng)網(wǎng)絡(luò)模型,然后利用基準(zhǔn)數(shù)據(jù)集中的基準(zhǔn)訓(xùn)練數(shù)據(jù)集與輔助數(shù)據(jù)集隨機(jī)組合得到的新的訓(xùn)練數(shù)據(jù)集訓(xùn)練各卷積神經(jīng)網(wǎng)絡(luò)模型,以獲取到對應(yīng)的卷積神經(jīng)網(wǎng)絡(luò)分類器,然后利用基準(zhǔn)數(shù)據(jù)集中的基準(zhǔn)測試數(shù)據(jù)集驗證各卷積神經(jīng)網(wǎng)絡(luò)分類器性別識別的準(zhǔn)確率,最后選取出性別識別準(zhǔn)確率排名前M的卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器;可見本發(fā)明方法中選取的M個基分類器是性別識別準(zhǔn)確率最高的基分類器,能夠大大提高本發(fā)明方法性別識別準(zhǔn)確率。附圖說明圖1是本發(fā)明方法流程圖。圖2是本發(fā)明方法中基分類器獲取流程圖。圖3是本發(fā)明方法中基準(zhǔn)數(shù)據(jù)集和輔助數(shù)據(jù)集隨機(jī)組合后獲取到的新的訓(xùn)練數(shù)據(jù)集。圖4是本發(fā)明方法中六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6結(jié)構(gòu)圖。具體實(shí)施方式下面結(jié)合實(shí)施例及附圖對本發(fā)明作進(jìn)一步詳細(xì)的描述,但本發(fā)明的實(shí)施方式不限于此。實(shí)施例本實(shí)施例公開了一種基于集成卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法,如圖1所示,步驟如下:S1、首先隨機(jī)組合形成若干個新的訓(xùn)練數(shù)據(jù)集,然后選取出M個經(jīng)過上述新的訓(xùn)練數(shù)據(jù)集訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器,分別為第一基分類器、第二基分類器,…,第M基分類器;如圖2所示,本步驟中基分類器獲取過程具體如下:S11、選擇一個基準(zhǔn)數(shù)據(jù)集和若干輔助數(shù)據(jù)集;其中基準(zhǔn)數(shù)據(jù)集分割成基準(zhǔn)訓(xùn)練數(shù)據(jù)集和基準(zhǔn)測試數(shù)據(jù)集;如圖3所示,本實(shí)施例中選擇Feret數(shù)據(jù)集為基準(zhǔn)數(shù)據(jù)集,Adience數(shù)據(jù)集和AR數(shù)據(jù)集為輔助數(shù)據(jù)集;按照4:1的比例將Feret數(shù)據(jù)集分割成基準(zhǔn)訓(xùn)練數(shù)據(jù)集和基準(zhǔn)測試數(shù)據(jù)集;S12、輔助數(shù)據(jù)集隨機(jī)組合后加入到基準(zhǔn)訓(xùn)練數(shù)據(jù)集中,構(gòu)成若干個新的訓(xùn)練數(shù)據(jù)集;在本實(shí)施例中將輔助數(shù)據(jù)集Adience數(shù)據(jù)集和AR數(shù)據(jù)集加入到Feret數(shù)據(jù)集的基準(zhǔn)訓(xùn)練數(shù)據(jù)集中,可以構(gòu)成4個新的訓(xùn)練數(shù)據(jù)集,分別是Feret數(shù)據(jù)集、Feret數(shù)據(jù)集+Adience數(shù)據(jù)集、Feret數(shù)據(jù)集+AR數(shù)據(jù)集、Feret數(shù)據(jù)集+Adience數(shù)據(jù)集+AR數(shù)據(jù)集。S13、隨機(jī)生成一定數(shù)量的卷積神經(jīng)網(wǎng)絡(luò)模型;本實(shí)施例方法中隨機(jī)生成2個卷積神經(jīng)網(wǎng)絡(luò)模型,分別為五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5和六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6。S14、利用步驟S12中得到的若干個新的訓(xùn)練數(shù)據(jù)集分別對步驟S13生成的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到多個卷積神經(jīng)網(wǎng)絡(luò)分類器;在本實(shí)施例中步驟S12獲取到的4個數(shù)據(jù)集分別步驟S13中生成的2個卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,訓(xùn)練得到8個卷積神經(jīng)網(wǎng)絡(luò)分類器;卷積神經(jīng)網(wǎng)絡(luò)分類器中分類器采用SoftMax分類器。S15、分別計算步驟S14獲取的各卷積神經(jīng)網(wǎng)絡(luò)分類器在基準(zhǔn)測試數(shù)據(jù)集上的識別準(zhǔn)確率;在本實(shí)施例中分別計算步驟S14中得到的8個卷積神經(jīng)網(wǎng)絡(luò)分類器在Feret數(shù)據(jù)集的基準(zhǔn)測試數(shù)據(jù)集上的識別準(zhǔn)確率。S16、選擇識別準(zhǔn)確率排名前M的M個卷積神經(jīng)網(wǎng)絡(luò)分類器作為基分類器。在本實(shí)施例中M為5,即本步驟中上述8個卷積神經(jīng)網(wǎng)絡(luò)分類器中識別準(zhǔn)確率排名前5的卷積神經(jīng)網(wǎng)絡(luò)分類器選擇出來作為基分類器,獲取到5個基分類器。S2、獲取待測人臉圖像;S3、在測試時,將待測人臉圖像分別輸入步驟S1獲取到的M個基分類器,得到M個基分類器輸出的類別,分別為類別X1、類別X2,…,類別XM,然后融合M個基分類器輸出的性別類別,獲得最終的一個性別類別。本實(shí)施例中隨機(jī)生成的各卷積神經(jīng)網(wǎng)絡(luò)模型網(wǎng)絡(luò)調(diào)優(yōu)參數(shù)配置可以如下表表1所示;表1元參數(shù)參數(shù)值備注max_iter50000設(shè)置卷積迭代50000次時訓(xùn)練停止base_lr0.001設(shè)置學(xué)習(xí)的速率為0.001solver_modeGPU設(shè)置訓(xùn)練模式為用GPU進(jìn)行訓(xùn)練weight_decay0.0005設(shè)置權(quán)重衰減的速率為0.0005,防止過擬合snapshot10000設(shè)置每10000次對預(yù)測模型等進(jìn)行快照保存如圖4所示,本實(shí)施例上述步驟S13中六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6的輸入層至輸出層之間依次連接有:第一數(shù)據(jù)層Date21層,該層主要對訓(xùn)練集進(jìn)行設(shè)置,定義輸入數(shù)據(jù)采用LMDB(內(nèi)存映射型數(shù)據(jù)庫)的數(shù)據(jù)格式,圖片統(tǒng)一大小為227*227,批處理圖片數(shù)目為128個,并定義輸入訓(xùn)練集的路徑source(源)。第二數(shù)據(jù)層Date22層,該層對驗證集進(jìn)行設(shè)置,也采用LMDB的數(shù)據(jù)格式,圖片統(tǒng)一大小為227*227,批處理圖片數(shù)目為50個,并配置輸入驗證集的文件目錄source。第一卷積層conv21層,該層中初始化偏置為0,用方差為0.01的高斯濾波器計算權(quán)重;該層卷積核大小為11*11,卷積核個數(shù)為96;經(jīng)過該層卷積后特征圖的大小為55*55;該層卷積核的學(xué)習(xí)速率為1和衰減因子為1,偏置的學(xué)習(xí)速率為2和衰減因子為0。第一下采樣層P21層,該層使用Max_pooling算法進(jìn)行下采樣,設(shè)置下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?7*27。第一LRN(LocalResponseNormalization,即局部響應(yīng)歸一化層)層L21層,該層使用LRN進(jìn)行歸一化。采用默認(rèn)的ACROSS_CHANNELS模式,可以將局部區(qū)域擴(kuò)展到鄰近的通道進(jìn)行歸一化,但空間范圍沒有變化。設(shè)置求和的通道數(shù)local_size為5,尺度參數(shù)alpha為0.0001。第二卷積層conv22層,該層卷積核大小為5*5,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為2;該層中設(shè)置group為2即對輸入和輸出的通道進(jìn)行分組,輸出的通道只能與同一組的輸入通道連接。第二下采樣層P22層,使用Max_pooling算法進(jìn)行下采樣,設(shè)置下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?3*13。第二LRN層L22層,使用LRN進(jìn)行歸一化。采用默認(rèn)的ACROSS_CHANNELS模式,參數(shù)值與第一LRN層L21層相同。第三卷積層conv23層,該層卷積核大小為3*3,卷積核個數(shù)為384,卷積核的邊緣增補(bǔ)為1;設(shè)置該層卷積核的學(xué)習(xí)速率為1和衰減因子為1,偏置的學(xué)習(xí)速率為2和衰減因子為0。第四卷積層conv24層,該層卷積核大小為3*3,卷積核個數(shù)為384,卷積核的邊緣增補(bǔ)為1;設(shè)置group為2即對輸入和輸出的通道進(jìn)行分組。第五卷積層conv25層,該層卷積核大小為3*3,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為1;設(shè)置group為2即對輸入和輸出的通道進(jìn)行分組。第六卷積層conv26層,該層卷積核大小為3*3,卷積核個數(shù)為256,卷積核的邊緣增補(bǔ)為1;設(shè)置group為2即對輸入和輸出的通道進(jìn)行分組。第六下采樣層P26層,使用Max_pooling算法進(jìn)行下采樣,下采樣領(lǐng)域大小為3*3,池化步長為2,下采樣后特征圖大小變?yōu)?*6。第一全鏈接層Q21層,輸出4096個全連接。第一Dropout(隨機(jī)丟棄率)層D21層,將輸出值進(jìn)行有概率置0,可改善訓(xùn)練出現(xiàn)過擬合。第二全鏈接層Q22層,輸出4096個全連接。和第二Dropout層D12層;將輸出值進(jìn)行有概率置0,可改善訓(xùn)練出現(xiàn)過擬合。其中第一卷積層conv21層、第二卷積層conv22層、第三卷積層conv23層、第四卷積層conv24層、第五卷積層conv25層、第六卷積層conv26層、第一全鏈接層Q21層、第二全鏈接層Q22層下對應(yīng)分別連接第一激活函數(shù)層ReLU21層、第二激活函數(shù)層ReLU22層、第三激活函數(shù)層ReLU23層、第四激活函數(shù)層ReLU24層、第五激活函數(shù)層ReLU25層、第六激活函數(shù)層ReLU26層、第七激活函數(shù)層ReLU27層和第八激活函數(shù)層ReLU28層。第一激活函數(shù)層ReLU21層、第二激活函數(shù)層ReLU22層、第三激活函數(shù)層ReLU23層、第四激活函數(shù)層ReLU24層、第五激活函數(shù)層ReLU25層、第六激活函數(shù)層ReLU26層、第七激活函數(shù)層ReLU27層和第八激活函數(shù)層ReLU28層分別使用ReLU(修正的線性單位)激活函數(shù)激活其所連接層的神經(jīng)元。本實(shí)施例采用的上述步驟S13中采用的五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5和上述六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6的結(jié)構(gòu)區(qū)別僅在于卷積層的層數(shù)不同,其余均相同。本實(shí)施例五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5的輸入層至輸出層之間依次連接有第一數(shù)據(jù)層Date11層、第二數(shù)據(jù)層Date12層、第一卷積層conv11層、第一下采樣層P11層、第一LRN層L11層、第二卷積層conv12層、第二下采樣層P12層、第二LRN層L12層、第三卷積層conv13層、第四卷積層conv14層、第五卷積層conv15層、第五下采樣層P15層、第一全鏈接層Q11層、第一Dropout層D11層、第二全鏈接層Q12層和第二Dropout層D12層;第一卷積層conv11層、第二卷積層conv12層、第三卷積層conv13層、第四卷積層conv14層、第五卷積層conv15層、第一全鏈接層Q11層、第二全鏈接層Q12層下對應(yīng)分別連接第一激活函數(shù)層ReLU11層、第二激活函數(shù)層ReLU12層、第三激活函數(shù)層ReLU13層、第四激活函數(shù)層ReLU14層、第五激活函數(shù)層ReLU15層、第六激活函數(shù)層ReLU16層和第七激活函數(shù)層ReLU17層。上述五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5各層中參數(shù)和六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6各層中參數(shù)對應(yīng)相同。在本實(shí)施例中上述步驟S16中選擇出的5個基分類器分別為第一基分類器CNN1、第二基分類器CNN2、第三基分類器CNN3、第四基分類器CNN4和第五基分類器CNN5;其中如下表表2所示,第一基分類器CNN1由Feret數(shù)據(jù)集訓(xùn)練六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6得到,第二基分類器CNN2由Feret數(shù)據(jù)集+AR數(shù)據(jù)集訓(xùn)練五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5得到,第三基分類器CNN3由Feret數(shù)據(jù)集+AR數(shù)據(jù)集訓(xùn)練六層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_6得到,第四基分類器CNN4由Feret數(shù)據(jù)集+Adience數(shù)據(jù)集訓(xùn)練五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5得到,第五基分類器CNN5由Feret數(shù)據(jù)集+Adience數(shù)據(jù)集+AR數(shù)據(jù)集訓(xùn)練五層卷積層的卷積神經(jīng)網(wǎng)絡(luò)模型G_CNNS_5得到。本實(shí)施例中將待測人臉圖像分別輸入至第一基分類器CNN1、第二基分類器CNN2、第三基分類器CNN3、第四基分類器CNN4和第五基分類器CNN5中,然后采用簡單投票融合方法融合這5個基分類器輸出的性別類別,實(shí)現(xiàn)對這5個基分類器輸出的識別結(jié)果進(jìn)行投票表決,獲得最終的一個性別類別,如下表表2所示本實(shí)施例中性別識別方法的性別識別準(zhǔn)確率可達(dá)到97.82%。表2上述實(shí)施例為本發(fā)明較佳的實(shí)施方式,但本發(fā)明的實(shí)施方式并不受上述實(shí)施例的限制,其他的任何未背離本發(fā)明的精神實(shí)質(zhì)與原理下所作的改變、修飾、替代、組合、簡化,均應(yīng)為等效的置換方式,都包含在本發(fā)明的保護(hù)范圍之內(nèi)。當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1