本發(fā)明涉及人臉識別
技術(shù)領(lǐng)域:
,特別是涉及一種融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法、識別方法及系統(tǒng)。
背景技術(shù):
:人臉識別技術(shù)是基于生物特征的識別方式,利用人類自身擁有的、并且能夠唯一標(biāo)示其身份的生理特征或行為特征進(jìn)行身份驗證的技術(shù)。隨著人機(jī)交互技術(shù)的應(yīng)用日益廣泛,在人機(jī)交互領(lǐng)域中,人臉識別技術(shù)具有非常重要的意義。作為模式識別與機(jī)器學(xué)習(xí)領(lǐng)域的主要研究方法之一,己經(jīng)有大量的人臉識別算法被提出。目前,現(xiàn)有的人臉識別技術(shù)主要采用以下方式:方式一、現(xiàn)有的基于仿射變換的人臉識別方式中,首先檢測人臉圖像中的關(guān)鍵特征點(diǎn)并確定關(guān)鍵特征點(diǎn)位置,根據(jù)所述關(guān)鍵特征位置將待識別人臉圖像經(jīng)仿射變換得到對齊的人臉圖像;方式二、現(xiàn)有的基于深度學(xué)習(xí)網(wǎng)絡(luò)的人臉識別方式中,輸入的待識別圖像是RGB三通道的人臉圖像。發(fā)明人在實(shí)現(xiàn)本發(fā)明的過程中,發(fā)現(xiàn)現(xiàn)有人臉識別技術(shù)方案至少存在以下缺陷:在上述方式一中,通過仿射變換將待識別人臉圖像對齊到一個固定的模板,由于仿射變換只有簡單的旋轉(zhuǎn)、平移、縮放操作,而將所有的人臉圖像對齊到一個固定的模板會造成人臉形狀失真,從而導(dǎo)致關(guān)鍵特征點(diǎn)位置錯亂,進(jìn)而影響后續(xù)分類識別精度。在上述方式二中,現(xiàn)有的基于深度學(xué)習(xí)網(wǎng)絡(luò)的人臉識別方式中,輸入的是RGB三通道的人臉圖像,這樣的訓(xùn)練并沒有將人臉圖像的關(guān)鍵特征點(diǎn)作為先驗知識引入深度學(xué)習(xí)網(wǎng)絡(luò),對于長相較相似的人臉圖像的分類識別率較低。技術(shù)實(shí)現(xiàn)要素:鑒于以上所述現(xiàn)有技術(shù)的缺點(diǎn),本發(fā)明的目的在于提供一種融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法、識別方法及系統(tǒng),能夠提高多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的效率及識別精度。為實(shí)現(xiàn)上述目的及其他相關(guān)目的,本發(fā)明實(shí)施例提供一種融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法,該方法包括:獲取訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)位置;根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型。優(yōu)選地,所述根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像,包括:根據(jù)所述關(guān)鍵特征點(diǎn)位置擬合人臉區(qū)域的上邊框、下邊框、左邊框及右邊框;根據(jù)所述上邊框、下邊框、左邊框及右邊框確定人臉矩形框;對于所述人臉矩形框中的每個像素,若該像素為關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為1;若該像素為非關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為0,生成關(guān)鍵特征點(diǎn)的二值圖像。優(yōu)選地,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)包括人臉分類識別任務(wù)、人臉角度分類任務(wù)、正面人臉重建任務(wù);其中,所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)共享所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的卷積層及第一個全鏈接層,所述第一個全鏈接層連接每個任務(wù)特有的全鏈接層及每個任務(wù)的損失函數(shù),且所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)的損失函數(shù)權(quán)重比例分配為6:2:2。優(yōu)選地,所述人臉分類識別任務(wù)的損失函數(shù)為softmax函數(shù)、所述人臉角度分類任務(wù)的損失函數(shù)為softmax函數(shù)、所述正面人臉重建任務(wù)的損失函數(shù)為最小誤差平方函數(shù)。優(yōu)選地,所述將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型,包括:將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第一層卷積完成卷積運(yùn)算;將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第二層卷積完成卷積運(yùn)算,直到將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第N層卷積完成卷積運(yùn)算,再鏈接兩層全鏈接層得到最終的識別與重建的訓(xùn)練結(jié)果;其中,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)采用Alexnet結(jié)構(gòu)。本發(fā)明實(shí)施例還提供一種融合關(guān)鍵特征點(diǎn)的識別方法,該方法包括:獲取待識別人臉圖像的關(guān)鍵特征點(diǎn)位置;根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;將所述關(guān)鍵特征點(diǎn)的二值圖像、所述待識別人臉圖像的R、G、B圖像輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,得到所述待識別人臉圖像的特征信息;將所述待識別人臉圖像的特征信息分別與注冊集中每張人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到識別結(jié)果。優(yōu)選地,所述將所述待識別人臉圖像的特征信息分別與注冊集中人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到識別結(jié)果,包括:通過計算所述待識別人臉圖像的特征信息分別與所述注冊集中每張人臉圖像對應(yīng)的特征信息的歐式距離,確定所述待識別人臉圖像分別與所述注冊集中每張人臉圖像的相似度值;根據(jù)所述待識別人臉圖像分別與所述注冊集中每張人臉圖像的相似度值及預(yù)設(shè)的相似度閾值確定識別結(jié)果。根據(jù)上述方法,本發(fā)明實(shí)施例提供了一種融合關(guān)鍵特征點(diǎn)的訓(xùn)練系統(tǒng),該系統(tǒng)包括:獲取模塊、生成模塊、訓(xùn)練模塊;其中,所述獲取模塊,用于獲取訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)位置;所述生成模塊,用于根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;所述訓(xùn)練模塊,用于將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型。優(yōu)選地,所述生成模塊具體用于:根據(jù)所述關(guān)鍵特征點(diǎn)位置擬合人臉區(qū)域的上邊框、下邊框、左邊框及右邊框;根據(jù)所述上邊框、下邊框、左邊框及右邊框確定人臉矩形框;對于所述人臉矩形框中的每個像素,若該像素為關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為1;若該像素為非關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為0,生成關(guān)鍵特征點(diǎn)的二值圖像。優(yōu)選地,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)包括人臉分類識別任務(wù)、人臉角度分類任務(wù)、正面人臉重建任務(wù);其中,所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)共享所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的卷積層及第一個全鏈接層,所述第一個全鏈接層連接每個任務(wù)特有的全鏈接層及每個任務(wù)的損失函數(shù),且所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)的損失函數(shù)權(quán)重比例分配為6:2:2。優(yōu)選地,所述人臉分類識別任務(wù)的損失函數(shù)為softmax函數(shù)、所述人臉角度分類任務(wù)的損失函數(shù)為softmax函數(shù)、所述正面人臉重建任務(wù)的損失函數(shù)為最小誤差平方函數(shù)。優(yōu)選地,所述所述訓(xùn)練模塊具體用于:將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第一層卷積完成卷積運(yùn)算;將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第二層卷積完成卷積運(yùn)算,直到將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第N層卷積完成卷積運(yùn)算,再鏈接兩層全鏈接層得到最終的識別與重建的訓(xùn)練結(jié)果;其中,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)采用Alexnet結(jié)構(gòu)。根據(jù)上述方法,本發(fā)明實(shí)施例提供了一種融合關(guān)鍵特征點(diǎn)的識別系統(tǒng),該系統(tǒng)包括:獲取模塊、生成模塊、特征提取模塊、分類識別模塊;其中,所述獲取模塊,用于獲取待識別人臉圖像的關(guān)鍵特征點(diǎn)位置;所述生成模塊,用于根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;所述特征提取模塊,用于將所述關(guān)鍵特征點(diǎn)的二值圖像、所述待識別人臉圖像的R、G、B圖像輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,得到所述待識別人臉圖像的特征信息;所述分類識別模塊,用于將所述待識別人臉圖像的特征信息分別與注冊集中每張人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到識別結(jié)果。優(yōu)選地,所述分類識別模塊具體用于:通過計算所述待識別人臉圖像的特征信息分別與所述注冊集中每張人臉圖像對應(yīng)的特征信息的歐式距離,確定所述待識別人臉圖像分別與所述注冊集中每張人臉圖像的相似度值;根據(jù)所述待識別人臉圖像分別與所述注冊集中每張人臉圖像的相似度值及預(yù)設(shè)的相似度閾值確定識別結(jié)果。本發(fā)明提供的融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法、識別方法及系統(tǒng),訓(xùn)練方法包括:獲取訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)位置;根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型;識別方法包括:獲取待識別人臉圖像的關(guān)鍵特征點(diǎn)位置;根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;將所述關(guān)鍵特征點(diǎn)的二值圖像、所述待識別人臉圖像的R、G、B圖像輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,得到所述待識別人臉圖像的特征信息;將所述待識別人臉圖像的特征信息分別與注冊集中每張人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到識別結(jié)果。如此,本發(fā)明實(shí)施例在識別過程中不需要根據(jù)關(guān)鍵特征位置將所述待識別人臉圖像經(jīng)仿射變換得到對齊的人臉圖像,而是直接將所述待識別人臉圖像的關(guān)鍵特征點(diǎn)以二值圖像的形式作為一個通道,與所述待識別人臉圖像的R、G、B三通道一起輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取及識別,這樣避免了將所有的人臉圖像對齊到一個固定的模板造成人臉形狀失真的現(xiàn)象;而且,在訓(xùn)練過程及識別過程中將人臉圖像的關(guān)鍵特征點(diǎn)作為先驗知識引入多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò),以增大關(guān)鍵特征點(diǎn)區(qū)域的權(quán)重,從而提高了多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的效率及識別精度。附圖說明圖1顯示為本發(fā)明的融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法的流程示意圖;圖2顯示為本發(fā)明的獲取人臉圖像中關(guān)鍵特征點(diǎn)位置的流程示意圖;圖3顯示為本發(fā)明的訓(xùn)練動態(tài)初始化回歸模型及級聯(lián)回歸模型的流程示意圖;圖4顯示為本發(fā)明的人臉圖像中關(guān)鍵特征點(diǎn)位置的示意圖;圖5顯示為本發(fā)明的融合關(guān)鍵特征點(diǎn)的識別方法的流程示意圖;圖6顯示為本發(fā)明的融合關(guān)鍵特征點(diǎn)的訓(xùn)練系統(tǒng)的組成結(jié)構(gòu)示意圖;圖7顯示為本發(fā)明的融合關(guān)鍵特征點(diǎn)的識別系統(tǒng)的組成結(jié)構(gòu)示意圖。具體實(shí)施方式本發(fā)明實(shí)施例中,首先將訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型;然后,根據(jù)訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型對待識別人臉圖像進(jìn)行特征提取及識別。下面結(jié)合附圖及具體實(shí)施例對本發(fā)明做進(jìn)一步詳細(xì)的說明。本發(fā)明實(shí)施例提出了一種融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法,如圖1所示,該方法包括:步驟S10:獲取訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)位置。這里,所述獲取訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)位置可以采用如下方式,如圖2所示,具體實(shí)現(xiàn)步驟包括:步驟S200:獲取訓(xùn)練集中人臉圖像的人臉位置。其中,采用基于積分圖的算法快速提取Haar特征,然后采用人臉檢測算法并根據(jù)所述Haar特征獲取所述訓(xùn)練集中人臉圖像的人臉位置;其中,所述人臉檢測算法可以采用Adaboost算法,這里對所述人臉檢測算法不作具體限定;步驟S201:根據(jù)訓(xùn)練集中人臉圖像的平均關(guān)鍵特征點(diǎn)與所述人臉位置,得到該人臉圖像更新前的關(guān)鍵特征點(diǎn)初始位置。步驟S202:根據(jù)更新前的關(guān)鍵特征點(diǎn)初始位置以及所提取的區(qū)域特征,調(diào)用動態(tài)初始化回歸模型,得到更新后的關(guān)鍵特征點(diǎn)初始位置。其中,根據(jù)預(yù)設(shè)的灰度直方圖規(guī)定化處理更新前的關(guān)鍵特征點(diǎn)初始位置,調(diào)整其灰度值至預(yù)設(shè)的灰度直方圖;提取規(guī)定化處理的更新前的關(guān)鍵特征點(diǎn)初始位置所對應(yīng)的區(qū)域特征,將更新前的關(guān)鍵特征點(diǎn)初始位置和其對應(yīng)的區(qū)域特征作為動態(tài)初始化回歸模型的輸入值,得到更新后的關(guān)鍵特征點(diǎn)初始位置;步驟S203:根據(jù)更新后的關(guān)鍵特征點(diǎn)初始位置及所提取的區(qū)域特征,調(diào)用級聯(lián)回歸模型計算該人臉圖像中關(guān)鍵特征點(diǎn)位置。其中,根據(jù)預(yù)設(shè)的灰度直方圖規(guī)定化處理更新后的關(guān)鍵特征點(diǎn)初始位置,調(diào)整其灰度值至預(yù)設(shè)的灰度直方圖;提取規(guī)定化處理的更新后的關(guān)鍵特征點(diǎn)初始位置所對應(yīng)的區(qū)域特征,將更新后的關(guān)鍵特征點(diǎn)初始位置和其對應(yīng)的區(qū)域特征作為級聯(lián)回歸模型的輸入值,計算人臉關(guān)鍵特征點(diǎn)位置。具體實(shí)施中,首先輸入待檢測的人臉圖像d,采用人臉檢測器檢測獲取到相應(yīng)的人臉位置區(qū)域r,如果該人臉檢測器未檢測到人臉,則退出該程序;根據(jù)人臉位置區(qū)域r和平均關(guān)鍵點(diǎn)得到更新前的初始關(guān)鍵特征點(diǎn)通過規(guī)定化處理后提取該更新前的初始關(guān)鍵特征點(diǎn)的區(qū)域特征φ0;根據(jù)以下公式,得到更新后的關(guān)鍵點(diǎn)初始位置:x0'i=x0+R[φ0;1](1)其中,x0'i為更新后的關(guān)鍵特征點(diǎn)初始位置,x0為原始的關(guān)鍵特征點(diǎn)初始位置,R[φ0;1]為區(qū)域特征在動態(tài)初始化回歸模型;提取更新后的關(guān)鍵特征點(diǎn)初始位置x0'i所對應(yīng)的區(qū)域特征φ0';根據(jù)以下公式迭代更新后的關(guān)鍵特征點(diǎn)初始位置xk,同時,更新區(qū)域特征φk:xk=xk-1+Rk-1[φk-1i;1]×(1/λ)---(2)]]>其中,人臉關(guān)鍵特征點(diǎn)位置xk,xk-1為級聯(lián)回歸模型的第k-1次得到的人臉關(guān)鍵特征點(diǎn)位置;迭代結(jié)束后,得到最終的人臉關(guān)鍵特征點(diǎn)位置。進(jìn)一步地,本發(fā)明實(shí)施例中的訓(xùn)練動態(tài)初始化回歸模型及級聯(lián)回歸模型可以采用如下流程,如圖3所示,具體實(shí)現(xiàn)步驟包括:步驟S300:獲取所述訓(xùn)練集中人臉圖像的人臉位置。其中,所述訓(xùn)練集中人臉圖像為以下任意格式中的一種:bmp、jpg、tiff、gif、pcx、tga、exif、fpx、svg、psd、cdr、pcd、dxf、ufo、eps、ai、raw,且所述訓(xùn)練集中人臉圖像為無壓縮的圖像。其中,采用基于積分圖的算法快速提取Haar特征,然后采用人臉檢測算法并根據(jù)所述Haar特征獲取所述訓(xùn)練集中人臉圖像的人臉位置;其中,所述人臉檢測算法可以采用Adaboost算法;這里對所述人臉檢測算法不作具體限定。在步驟S300之前,收集包含人臉的人臉圖像,按照預(yù)設(shè)規(guī)則對所述人臉圖像中人臉位置區(qū)域與人臉關(guān)鍵特征點(diǎn)進(jìn)行標(biāo)定,生成訓(xùn)練集。具體的,為用戶通過各種途徑采集到的包含有人臉的人臉圖像按照訓(xùn)練集的預(yù)設(shè)規(guī)則對人臉圖像中人臉位置區(qū)域與人臉關(guān)鍵特征點(diǎn)進(jìn)行標(biāo)定,將標(biāo)定的人臉位置區(qū)域的位置和尺度信息、關(guān)鍵特征點(diǎn)的坐標(biāo)信息上傳至PC、服務(wù)器存儲到相應(yīng)的文檔。步驟S301:根據(jù)訓(xùn)練集中人臉圖像的平均關(guān)鍵特征點(diǎn)與所述人臉位置,得到更新前的關(guān)鍵特征點(diǎn)初始位置。其中,以向量表示所述訓(xùn)練集中每張人臉圖像的關(guān)鍵特征點(diǎn),對所述人臉位置區(qū)域的尺寸進(jìn)行歸一化處理,在歸一化處理的該人臉圖像上取向量加權(quán)平均值,得到所述平均關(guān)鍵特征點(diǎn);根據(jù)人臉位置和尺寸對所述平均關(guān)鍵特征點(diǎn)進(jìn)行位移和縮放,得到相應(yīng)的更新前的關(guān)鍵特征點(diǎn)初始位置。在本實(shí)施例中,將平均關(guān)鍵特征點(diǎn)進(jìn)行位移和縮放,參照人臉位置和尺寸,得到更新前的關(guān)鍵特征點(diǎn)初始位置,在所述更新前的關(guān)鍵特征點(diǎn)初始位置附近區(qū)域提取區(qū)域特征。步驟S302:根據(jù)真實(shí)關(guān)鍵特征點(diǎn)位置,估計人臉的3D角度;根據(jù)該3D角度旋轉(zhuǎn)人臉3D模型,將3D模型映射至2D空間,得到更新后的關(guān)鍵特征點(diǎn)初始位置。本步驟中,將真實(shí)關(guān)鍵特征點(diǎn)位置映射至預(yù)設(shè)3D人臉模型,根據(jù)POSIT算法計算人臉的三維旋轉(zhuǎn)角度;將3D人臉模型的人臉按三維旋轉(zhuǎn)角度映射至2D空間并進(jìn)行相似變換,得到更新后的關(guān)鍵特征點(diǎn)初始位置,將所述更新前的關(guān)鍵特征點(diǎn)初始位置與更新后的關(guān)鍵特征點(diǎn)初始位置進(jìn)行直方圖規(guī)定化處理。在步驟S302之前,還包括:統(tǒng)計各關(guān)鍵特征點(diǎn)初始位置的灰度直方圖;根據(jù)預(yù)設(shè)的灰度直方圖對所述灰度直方圖進(jìn)行規(guī)定化處理,調(diào)整對應(yīng)圖像塊的灰度值,直到所述圖像塊的灰度直方圖達(dá)到預(yù)設(shè)的灰度直方圖為止。其中,所述灰度直方圖是在以關(guān)鍵特征點(diǎn)為中心的、一定高度和寬度的圖像塊中,統(tǒng)計各個灰度區(qū)間([0,255]平均劃分為n個區(qū)間)中相對應(yīng)的像素個數(shù),這些像素個數(shù)的分布即為該關(guān)鍵特征點(diǎn)區(qū)域的灰度直方圖。直方圖規(guī)定化,是通過使用累積函數(shù)對灰度值進(jìn)行“調(diào)整”,使得其最終的像素分布滿足預(yù)設(shè)的直方圖。直方圖規(guī)定化處理的“中心思想”是把原始圖像的像素集從某個灰度區(qū)間變成預(yù)設(shè)的灰度空間。直方圖規(guī)定化就是對圖像進(jìn)行非線性拉伸,重新分配圖像像素值,使最終的像素值灰度分布滿足預(yù)設(shè)的直方圖。步驟S303:根據(jù)更新前、更新后的關(guān)鍵特征點(diǎn)初始位置差值以及更新前的關(guān)鍵特征點(diǎn)初始位置所提取的區(qū)域特征,訓(xùn)練動態(tài)初始化回歸模型。其中,動態(tài)初始化回歸模型(DynamicInitializationRegressionModel,DIRM),將所述更新前的關(guān)鍵特征點(diǎn)初始位置與更新后的關(guān)鍵特征點(diǎn)初始位置進(jìn)行直方圖規(guī)定化處理,根據(jù)更新前、后的位置關(guān)鍵特征點(diǎn)初始位置的差值以及更新前的關(guān)鍵特征點(diǎn)所提取的區(qū)域特征,訓(xùn)練得到動態(tài)初始化回歸模型。步驟S304:根據(jù)所述更新后的關(guān)鍵特征點(diǎn)初始位置和真實(shí)關(guān)鍵特征點(diǎn)位置的距離差以及在更新后的關(guān)鍵特征點(diǎn)初始位置提取的區(qū)域特征,訓(xùn)練級聯(lián)回歸模型。其中,計算更新后的關(guān)鍵特征點(diǎn)初始位置和真實(shí)關(guān)鍵特征點(diǎn)位置的距離差,以及提取更新后的關(guān)鍵特征點(diǎn)初始位置中的方向梯度直方圖特征,按照監(jiān)督下降法(SDM)或局部二值特征回歸法(LBF)訓(xùn)練級聯(lián)回歸模型,其中,根據(jù)訓(xùn)練集中的真實(shí)關(guān)鍵特征點(diǎn)和平均關(guān)鍵特征點(diǎn)的距離差的分布狀態(tài),為每個關(guān)鍵特征點(diǎn)相應(yīng)地分配不同的加權(quán)值。其中,在每個關(guān)鍵特征點(diǎn)需要分配加權(quán)值時,根據(jù)真實(shí)關(guān)鍵特征點(diǎn)和平均關(guān)鍵特征點(diǎn)的距離差的方差,若方差越大,則對應(yīng)的加權(quán)值越??;若方差越小,則對應(yīng)的加權(quán)值越大。其中,在使用SDM或LBF訓(xùn)練級聯(lián)回歸模型得到人臉關(guān)鍵特征點(diǎn)初始位置時,由于顯著性關(guān)鍵特征點(diǎn)的位置較為準(zhǔn)確,非顯著性關(guān)鍵特征點(diǎn)的位置較為模糊,因此,顯著性關(guān)鍵特征點(diǎn)比非顯著性關(guān)鍵特征點(diǎn)引入的加權(quán)值更大,且根據(jù)每個關(guān)鍵特征點(diǎn)的位置分布情況下,可得到如下公式:ωi=e-βσiΣn=1Ne-βσn---(3)]]>其中,ωi是第i個關(guān)鍵特征點(diǎn)的距離加權(quán)系數(shù),σi為訓(xùn)練集中各個圖像中第i個關(guān)鍵特征點(diǎn)與相對應(yīng)的平均關(guān)鍵特征點(diǎn)的距離的標(biāo)準(zhǔn)差,β是一個固定系數(shù),N為關(guān)鍵特征點(diǎn)的總個數(shù)。具體實(shí)施中,通過包含一組人臉圖像的訓(xùn)練集圖像{di},該訓(xùn)練集包括預(yù)先標(biāo)定的人臉位置區(qū)域{ri}和人臉關(guān)鍵特征點(diǎn)坐標(biāo)訓(xùn)練動態(tài)初始化回歸模型R,如下所示:對于輸入的每張人臉圖像,根據(jù)人臉位置區(qū)域ri可得到更新前的關(guān)鍵特征點(diǎn)初始位置;根據(jù)人臉關(guān)鍵特征點(diǎn)坐標(biāo)以及POSIT算法可計算人臉的三維旋轉(zhuǎn)角度;根據(jù)已知的人臉3D模型x3D,通過矩陣旋轉(zhuǎn)、3D至2D平面映射以及相似變換等步驟,得到更新后的關(guān)鍵特征點(diǎn)初始位置訓(xùn)練動態(tài)化初始模型R,參考SDM的求解方法,即求解以下式子的最優(yōu)解:argminRΣdi||Δx0i-R[φ;1]||2---(4)]]>其中,表示更新后的關(guān)鍵特征點(diǎn)初始位置與原始關(guān)鍵特征點(diǎn)初始位置(即更新前的關(guān)鍵特征點(diǎn)初始位置)的位置之差,表示從原始關(guān)鍵特征點(diǎn)初始位置提取的特征,||·||2為L2范式,式(4)是一個最小二乘問題,存在解析值。由于更新后的關(guān)鍵特征點(diǎn)初始位置要求的精度沒有對最終關(guān)鍵特征點(diǎn)位置精度高,同時,考慮到計算耗時,我們沒有采用SDM中多次迭代的方式,而是僅采用了一次迭代訓(xùn)練動態(tài)化初始模型;而在計算時間允許的條件下,可使用多次迭代,以取得更好的結(jié)果。具體實(shí)施中,通過包含一組人臉圖像的訓(xùn)練集圖像{di},該訓(xùn)練集包括預(yù)先標(biāo)定的人臉位置區(qū)域{ri}和人臉關(guān)鍵特征點(diǎn)坐標(biāo)訓(xùn)練模型級聯(lián)回歸模型Rk,其中k表示級聯(lián)層數(shù)索引,詳述如下:對所有圖像的人臉關(guān)鍵特征點(diǎn)坐標(biāo)進(jìn)行統(tǒng)計,通過平移、尺度歸一化以及加權(quán)平均,得到平均關(guān)鍵特征點(diǎn)根據(jù)上述訓(xùn)練動態(tài)初始化回歸模型過程中獲取的更新后的關(guān)鍵特征點(diǎn)初始位置并通過以下公式,訓(xùn)練第一個級聯(lián)回歸模型R0:argminR0Σdi||Δx0i-R0[φ0i;1]||2---(5)]]>其中,表示更新后的關(guān)鍵特征點(diǎn)初始位置與真實(shí)關(guān)鍵特征點(diǎn)的位置之差,λ為每個關(guān)鍵特征點(diǎn)所對應(yīng)的權(quán)值組成的向量,×表示點(diǎn)乘運(yùn)算;表示從更新后的關(guān)鍵特征點(diǎn)提取的特征,表示在特征向量后再加一維常量項,用于訓(xùn)練偏移量;||·||2為L2范式,式(5)是一個線性最小二乘問題,存在解析解;當(dāng)R0通過計算得到后,可根據(jù)以下公式:xk=xk-1+Rk-1[φk-1i;1]×(1/λ)---(6)]]>其中,可得到人臉關(guān)鍵特征點(diǎn)位置xk,/表示除運(yùn)算,在xk上提取特征新的特征第k+1級的級聯(lián)回歸模型Rk可通過下式求得:argminRkΣdi||Δxki-Rk[φki;1]||2---(7)]]>其中,式(7)與式(5)的求解方式相同,通過該算法的4次迭代(k=3),即級聯(lián)層數(shù)達(dá)到4時,即可尋找到較為精確的人臉關(guān)鍵特征點(diǎn)位置。本發(fā)明實(shí)施例中,通過獲取人臉圖像中人臉位置,將人臉關(guān)鍵特征點(diǎn)周圍的圖像塊進(jìn)行直方圖規(guī)定化處理,減少了光線對關(guān)鍵特征點(diǎn)的影響,在光線較差和光照不均勻情況下,提高了人臉關(guān)鍵特征點(diǎn)的檢測精度;在使用監(jiān)督下降法或局部二值特征回歸法訓(xùn)練回歸模型之前,采用動態(tài)化回歸模型,能夠使得初始狀態(tài)更為多樣化,能夠更好地適應(yīng)不同角度的人臉關(guān)鍵特征點(diǎn)檢測;與采用固定不變的平均關(guān)鍵特征點(diǎn)初始化方法相比,動態(tài)化的初始關(guān)鍵特征點(diǎn)位置與真實(shí)關(guān)鍵特征點(diǎn)更為接近,能夠降低回歸模型訓(xùn)練的難度,從而提高訓(xùn)練和檢測精度。同時,在訓(xùn)練過程中,對顯著性關(guān)鍵特征點(diǎn)和非顯著性關(guān)鍵特征點(diǎn)的距離衡量中引入不同的權(quán)值系數(shù),增強(qiáng)了非顯著性關(guān)鍵特征點(diǎn)在訓(xùn)練過程中的容錯率,有助于增強(qiáng)各個關(guān)鍵特征點(diǎn)檢測的穩(wěn)定性和準(zhǔn)確性。步驟S11:根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像。這里,首先根據(jù)所述關(guān)鍵特征點(diǎn)位置擬合人臉區(qū)域的上邊框、下邊框、左邊框及右邊框,然后,根據(jù)所述上邊框、下邊框、左邊框及右邊框確定人臉矩形框,根據(jù)所述人臉矩形框生成關(guān)鍵特征點(diǎn)的二值圖像。具體的,人臉圖像中的關(guān)鍵特征點(diǎn)位置如圖4所示,所述關(guān)鍵特征點(diǎn)取人臉圖像中眉毛、眼睛、嘴巴、鼻子、臉型輪廓等特征點(diǎn),所述上邊框取關(guān)鍵特征點(diǎn)15、16、17、18、19、20擬合的第一直線,所述下邊框取關(guān)鍵特征點(diǎn)6、7、8擬合的第二直線,所述左邊框取關(guān)鍵特征點(diǎn)1、2、3擬合的第三直線,所述右邊框取關(guān)鍵特征點(diǎn)11、12、13擬合的第四直線;其中,直線擬合采用最小二乘算法,具體如何采用最小二乘算法對直線進(jìn)行擬合屬于現(xiàn)有技術(shù),重復(fù)之處不再贅述;然后,將所述上邊框的第一直線、所述下邊框的第二直線、所述左邊框的第三直線、所述右邊框的第四直線組成一個矩形框,并將組成的矩形框作為人臉矩形框;最終,對于所述人臉矩形框中的每個像素,若該像素為關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為1;若該像素為非關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為0,由此,生成關(guān)鍵特征點(diǎn)的二值圖像。優(yōu)選地,為了能盡量覆蓋人臉區(qū)域,將所述人臉矩形框向外擴(kuò)展設(shè)定比例,例如,上邊框向外擴(kuò)展25%,下邊框向外擴(kuò)展5%,左邊框及右邊框分別向外擴(kuò)展5%。優(yōu)選地,將所述人臉矩形框旋轉(zhuǎn)到水平方向,并且將旋轉(zhuǎn)后的人臉矩形框歸一化到256*256的矩形框,具體的,將旋轉(zhuǎn)后的人臉矩形框的長邊縮放到256,短邊以相同比例進(jìn)行縮放,不足256區(qū)域以默認(rèn)顏色(黑色)填充,這樣保證了人臉的比例不會被拉伸。優(yōu)選的,根據(jù)擴(kuò)展、旋轉(zhuǎn)、歸一化后的人臉矩形框生成關(guān)鍵特征點(diǎn)的二值圖像。需要說明的是:圖4僅為示例,并不構(gòu)成對本發(fā)明的限制。步驟S12:將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型。這里,需要對所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)具體通過以下方式進(jìn)行訓(xùn)練:將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第一層卷積完成卷積運(yùn)算;將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第二層卷積完成卷積運(yùn)算,直到將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第N層卷積完成卷積運(yùn)算,再鏈接兩層全鏈接層得到最終的識別與重建的訓(xùn)練結(jié)果;其中,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)采用Alexnet結(jié)構(gòu)。需要說明的是,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的卷積過程屬于現(xiàn)有技術(shù),重復(fù)之處不再贅述。這里,所述關(guān)鍵特征點(diǎn)的二值圖像及所述人臉圖像的R、G、B、圖像均為256*256;如果為了增強(qiáng)所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的魯棒性,那么可以在256*256的圖像中隨機(jī)扣出設(shè)定比例的圖像作為所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的輸入,例如,在256*256的圖像中隨機(jī)扣出227*227的圖像作為所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的輸入。其中,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)包括人臉分類識別任務(wù)、人臉角度分類任務(wù)、正面人臉重建任務(wù);其中,所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)共享所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的卷積層及第一個全鏈接層,所述第一個全鏈接層連接每個任務(wù)特有的全鏈接層及每個任務(wù)的損失函數(shù),且每個任務(wù)的損失函數(shù)按照權(quán)重比例分配;優(yōu)選地,所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)的損失函數(shù)權(quán)重比例分配為6:2:2。優(yōu)選地,所述人臉分類識別任務(wù)的損失函數(shù)為softmax函數(shù)、所述人臉角度分類任務(wù)的損失函數(shù)為softmax函數(shù)、所述正面人臉重建任務(wù)的損失函數(shù)為最小誤差平方函數(shù)。具體的,softmax函數(shù)如下所示:對于多分類問題,假設(shè)有k類,那么對于給定的測試輸入x,若想用假設(shè)函數(shù)針對每一個類別j估算出概率值P(y=j(luò)|x)。也就是說,若想估計x的每一種分類結(jié)果出現(xiàn)的概率。因此,假設(shè)函數(shù)將要輸出一個k維的向量(向量元素的和為1)來表示這k個估計的概率值。具體地,假設(shè)函數(shù)hθ(x)形式如下:hθ(x(i))=p(y(i)=1|x(i);θ)p(y(i)=2|x(i);θ)...p(y(i)=k|x(i);θ)=1Σj=1keθjTx(i)eθ1Tx(i)eθ2Tx(i)...eθkTx(i)---(8)]]>此時,系統(tǒng)softmax函數(shù)的方程為:j(θ)=-1m[Σi=1mΣj=1k1{y(i)=j}logeθjTx(i)Σl=1keθlTx(i)]---(9)]]>其中,1{y(i)=j(luò)}是一個指示性函數(shù),即當(dāng)大括號中的值為真時,該函數(shù)的結(jié)果就為1,否則其結(jié)果就為0;softmax函數(shù)可通過隨機(jī)梯度下降法來逐步優(yōu)化。其中,最小誤差平方函數(shù)如下所示:對于每個人的圖片都有一張正面人臉,重建的目標(biāo)就是使得通過多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)重建的人臉圖像與標(biāo)準(zhǔn)的正面人臉圖像的誤差最小,最小誤差平方函數(shù)的方程為:12NΣi=1N||xi1-xi2||2---(10)]]>可通過隨機(jī)梯度下降來求式(10)的誤差最小值。這里,正面人臉重建的人臉圖像的分辨率為256*256,而256*256的人臉圖像的參數(shù)較多,正面人臉重建任務(wù)的損失函數(shù)對256*256的人臉圖像的參數(shù)不容易收斂,因此,本發(fā)明實(shí)施例可以生成64*64的人臉圖像,標(biāo)準(zhǔn)的正面人臉圖像也被壓縮到64*64,正面人臉重建任務(wù)的損失函數(shù)為:重建的人臉圖像的64*64個像素與標(biāo)準(zhǔn)的正面人臉圖像的64*64個像素的誤差和,從而提高了正面人臉重建任務(wù)的收斂速度及精度。本發(fā)明實(shí)施例中,加入人臉角度分類及正面人臉重建兩個輔助任務(wù),是為了更好的利用關(guān)鍵特征點(diǎn)的先驗信息在多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)內(nèi)部隱式地做人臉對齊及人臉旋正,因此,所述人臉角度分類任務(wù)及正面人臉重建任務(wù)能夠更好地輔助人臉分類識別任務(wù)進(jìn)行訓(xùn)練及后續(xù)分類識別;其中,每張人臉圖像具有角度標(biāo)簽,角度標(biāo)簽分為左、正、右三類;每個人有一張標(biāo)準(zhǔn)的正面人臉圖像,作為正面人臉重建的參考。本發(fā)明實(shí)施例中,將人臉圖像的關(guān)鍵特征點(diǎn)作為先驗知識引入多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò),在關(guān)鍵特征點(diǎn)的二值圖像中,關(guān)鍵特征點(diǎn)區(qū)域值大于非關(guān)鍵特征點(diǎn)區(qū)域值,因此,在所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)做卷積時,關(guān)鍵特征點(diǎn)區(qū)域激活就會變強(qiáng),相應(yīng)的關(guān)鍵特征點(diǎn)區(qū)域的權(quán)重就會增大,從而提高了所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的效率及精度。本發(fā)明實(shí)施例提出了一種融合關(guān)鍵特征點(diǎn)的識別方法,如圖5所示,該方法包括:步驟S50:獲取待識別人臉圖像的關(guān)鍵特征點(diǎn)位置。這里,獲取待識別人臉圖像的關(guān)鍵特征點(diǎn)位置可以參照步驟S200~S203及步驟S300~S304,重復(fù)之處不再贅述。步驟S51:根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像。這里,根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像可以參照步驟S11,重復(fù)之處不再贅述。步驟S52:將所述關(guān)鍵特征點(diǎn)的二值圖像、所述待識別人臉圖像的R、G、B圖像輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,得到所述待識別人臉圖像的特征信息。這里,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型為通過步驟S10~S12進(jìn)行訓(xùn)練得到的模型;將所述關(guān)鍵特征點(diǎn)的二值圖像、所述待識別人臉圖像的R、G、B圖像輸入到訓(xùn)練后的深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,以所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型的第一個全鏈接層的輸出作為所述待識別人臉圖像的特征信息。步驟S53:將所述待識別人臉圖像的特征信息分別與注冊集中每張人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到識別結(jié)果。這里,與得到所述待識別人臉圖像的特征信息的方式相同,同樣是將注冊集中每張人臉圖像的關(guān)鍵特征點(diǎn)的二值圖像、以及相應(yīng)的R、G、B圖像輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,得到所述注冊集中每張人臉圖像對應(yīng)的特征信息。下面對如何將所述待識別人臉圖像的特征信息分別與所述注冊集中每張人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到識別結(jié)果,進(jìn)行詳細(xì)說明:首先通過計算所述待識別人臉圖像的特征信息分別與所述訓(xùn)練集中每張人臉圖像對應(yīng)的特征信息的歐式距離,確定所述待識別人臉圖像分別與所述訓(xùn)練集中每張人臉圖像的相似度值;然后根據(jù)所述待識別人臉圖像分別與所述訓(xùn)練集中每張人臉圖像的相似度值及預(yù)設(shè)的相似度閾值確定識別結(jié)果;若任意一個相似度值大于等于預(yù)設(shè)的相似度閾值,則匹配成功并得到識別結(jié)果。若所有相似度值均小于預(yù)設(shè)的相似度閾值,則匹配失敗。這里,如何計算所述待識別人臉圖像的特征信息分別與所述注冊集中每張人臉圖像對應(yīng)的特征信息的歐式距離屬于現(xiàn)有技術(shù),重復(fù)之處不再贅述。這里,可以根據(jù)實(shí)際情況及需求預(yù)設(shè)相似度閾值,這里對所述相似度閾值不作具體限定。為實(shí)現(xiàn)上述方法,本發(fā)明實(shí)施例還提供了一種融合關(guān)鍵特征點(diǎn)的訓(xùn)練系統(tǒng)、及一種融合關(guān)鍵特征點(diǎn)的識別系統(tǒng),由于系統(tǒng)解決問題的原理與方法相似,因此,系統(tǒng)的實(shí)施過程及實(shí)施原理均可以參見前述方法的實(shí)施過程及實(shí)施原理描述,重復(fù)之處不再贅述。本發(fā)明實(shí)施例提供了一種融合關(guān)鍵特征點(diǎn)的識別系統(tǒng),如圖6所示,該系統(tǒng)包括:獲取模塊60、生成模塊61、訓(xùn)練模塊62;其中,所述獲取模塊60,用于獲取訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)位置;所述生成模塊61,用于根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;所述訓(xùn)練模塊62,用于將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型。具體實(shí)施中,所述生成模塊61具體用于:根據(jù)所述關(guān)鍵特征點(diǎn)位置擬合人臉區(qū)域的上邊框、下邊框、左邊框及右邊框;根據(jù)所述上邊框、下邊框、左邊框及右邊框確定人臉矩形框;對于所述人臉矩形框中的每個像素,若該像素為關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為1;若該像素為非關(guān)鍵特征點(diǎn)區(qū)域,則取該像素的灰度值為0,生成關(guān)鍵特征點(diǎn)的二值圖像。具體實(shí)施中,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)包括人臉分類識別任務(wù)、人臉角度分類任務(wù)、正面人臉重建任務(wù);其中,所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)共享所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的卷積層及第一個全鏈接層,所述第一個全鏈接層連接每個任務(wù)特有的全鏈接層及每個任務(wù)的損失函數(shù),且所述人臉分類識別任務(wù)、所述人臉角度分類任務(wù)及所述正面人臉重建任務(wù)的損失函數(shù)權(quán)重比例分配為6:2:2。具體實(shí)施中,所述人臉分類識別任務(wù)的損失函數(shù)為softmax函數(shù)、所述人臉角度分類任務(wù)的損失函數(shù)為softmax函數(shù)、所述正面人臉重建任務(wù)的損失函數(shù)為最小誤差平方函數(shù)。具體實(shí)施中,所述訓(xùn)練模塊62具體用于:將所述關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第一層卷積完成卷積運(yùn)算;將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第二層卷積完成卷積運(yùn)算,直到將得到的運(yùn)算結(jié)果輸入到所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的第N層卷積完成卷積運(yùn)算,再鏈接兩層全鏈接層得到最終的識別與重建的訓(xùn)練結(jié)果;其中,所述多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)采用Alexnet結(jié)構(gòu)。以上功能模塊的劃分方式僅為本發(fā)明實(shí)施例給出的一種優(yōu)選實(shí)現(xiàn)方式,功能模塊的劃分方式不構(gòu)成對本發(fā)明的限制。為了描述的方便,以上所述系統(tǒng)的各部分以功能分為各種模塊或單元分別描述。當(dāng)然,在實(shí)施本發(fā)明時可以把各模塊或單元的功能在同一個或多個軟件或硬件中實(shí)現(xiàn)。本發(fā)明實(shí)施例提供了一種融合關(guān)鍵特征點(diǎn)的識別系統(tǒng),如圖7所示,該系統(tǒng)包括:獲取模塊70、生成模塊71、特征提取模塊72、分類識別模塊73;其中,所述獲取模塊70,用于獲取待識別人臉圖像的關(guān)鍵特征點(diǎn)位置;所述生成模塊71,用于根據(jù)所述關(guān)鍵特征點(diǎn)位置生成關(guān)鍵特征點(diǎn)的二值圖像;所述特征提取模塊72,用于將所述關(guān)鍵特征點(diǎn)的二值圖像、所述待識別人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,得到所述待識別人臉圖像的特征信息;所述分類識別模塊73,用于將所述待識別人臉圖像的特征信息分別與注冊集中每張人臉圖像對應(yīng)的特征信息進(jìn)行匹配,得到分類識別結(jié)果。具體實(shí)施中,所述分類識別模塊73具體用于:通過計算所述待識別人臉圖像的特征信息分別與所述注冊集中每張人臉圖像對應(yīng)的特征信息的歐式距離,確定所述待識別人臉圖像分別與所述注冊集中每張人臉圖像的相似度值;根據(jù)所述待識別人臉圖像分別與所述注冊集中每張人臉圖像的相似度值及預(yù)設(shè)的相似度閾值確定識別結(jié)果。以上功能模塊的劃分方式僅為本發(fā)明實(shí)施例給出的一種優(yōu)選實(shí)現(xiàn)方式,功能模塊的劃分方式不構(gòu)成對本發(fā)明的限制。為了描述的方便,以上所述系統(tǒng)的各部分以功能分為各種模塊或單元分別描述。當(dāng)然,在實(shí)施本發(fā)明時可以把各模塊或單元的功能在同一個或多個軟件或硬件中實(shí)現(xiàn)。綜上所述,本發(fā)明提供的融合關(guān)鍵特征點(diǎn)的訓(xùn)練方法、識別方法及系統(tǒng),首先將訓(xùn)練集中人臉圖像的關(guān)鍵特征點(diǎn)的二值圖像、所述人臉圖像的R、G、B圖像輸入到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型;然后,根據(jù)訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型對待識別人臉圖像進(jìn)行特征提取及識別;在識別過程中,去掉了根據(jù)關(guān)鍵特征位置待識別人臉圖像經(jīng)仿射變換得到對齊的人臉圖像這一步驟,而是直接將關(guān)鍵特征點(diǎn)以二值圖像的形式作為一個通道,與R、G、B三通道一起輸入到訓(xùn)練后的多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)模型中進(jìn)行特征提取及識別,避免了將所有的人臉圖像對齊到一個固定的模板造成人臉形狀失真的現(xiàn)象;而且,將人臉圖像的關(guān)鍵特征點(diǎn)作為先驗知識引入多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò),能夠增大關(guān)鍵特征點(diǎn)區(qū)域的權(quán)重,從而提高了多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的效率及識別精度。上述實(shí)施例僅例示性說明本發(fā)明的原理及其功效,而非用于限制本發(fā)明。任何熟悉此技術(shù)的人士皆可在不違背本發(fā)明的精神及范疇下,對上述實(shí)施例進(jìn)行修飾或改變。因此,舉凡所屬
技術(shù)領(lǐng)域:
中具有通常知識者在未脫離本發(fā)明所揭示的精神與技術(shù)思想下所完成的一切等效修飾或改變,仍應(yīng)由本發(fā)明的權(quán)利要求所涵蓋。當(dāng)前第1頁1 2 3