亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法

文檔序號(hào):6384256閱讀:270來源:國知局
專利名稱:一種基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法
技術(shù)領(lǐng)域
本發(fā)明涉及一種單訓(xùn)練樣本人臉識(shí)別方法。
背景技術(shù)
人臉識(shí)別技術(shù)是當(dāng)前生物測定學(xué)領(lǐng)域中最具代表性和最富有挑戰(zhàn)性的重要技術(shù)方向。人臉識(shí)別是指基于已知的人臉樣本庫,利用圖像處理和/或模式識(shí)別技術(shù)從靜態(tài)或者動(dòng)態(tài)場景中,識(shí)別一個(gè)或多個(gè)人臉。當(dāng)前基于人臉識(shí)別算法進(jìn)行身份認(rèn)證的方法通常是采用多訓(xùn)練樣本的人臉識(shí)別方法,多訓(xùn)練樣本是指在人臉識(shí)別之前對(duì)于待識(shí)別人采集多張照片用做訓(xùn)練樣本,此種方
法通常需要在識(shí)別之前對(duì)待識(shí)別人做單人多張照片的大量采樣工作,不能夠利用國家現(xiàn)有的單人單張照片的人臉庫;同時(shí)由于此方法需要前期大量的采集工作,對(duì)于數(shù)量較大的群體該算法也并不適用。中國第CN 101957911A號(hào)發(fā)明專利申請公開了一種人臉識(shí)別方法及系統(tǒng),其也屬于生物特征識(shí)別與無線傳輸技術(shù)領(lǐng)域,該發(fā)明采用的人臉識(shí)別方法是基于多樣本訓(xùn)練的人臉識(shí)別方法,需要前期對(duì)待識(shí)別人做多張人臉照片采集工作?!痘跓o線和有線通信技術(shù)的人臉識(shí)別網(wǎng)絡(luò)體系及其識(shí)別方法》(公開號(hào)CN101873340A)則公開了一種基于無線和有線通信技術(shù)的人臉識(shí)別網(wǎng)絡(luò)體系及其識(shí)別方法,包含服務(wù)器,與服務(wù)器進(jìn)行有線或無線通信連接的若干微機(jī)人臉識(shí)別終端、若干嵌入式人臉識(shí)別終端、若干手機(jī)終端及若干手持式專用采集終端。該發(fā)明專利申請采用的人臉識(shí)別方法是基于多樣本訓(xùn)練的人臉識(shí)別方法,也需要前期對(duì)待識(shí)別人做多張人臉照片采集工作。《基于手機(jī)攝像頭結(jié)合人臉識(shí)別技術(shù)的身份識(shí)別方法》(公開號(hào)CN101226591A)則給出了一種無線網(wǎng)絡(luò)技術(shù)及模式識(shí)別領(lǐng)域的基于手機(jī)攝像頭結(jié)合人臉識(shí)別技術(shù)的身份識(shí)別方法,該發(fā)明專利申請強(qiáng)調(diào)了采集終端為手機(jī)且人臉識(shí)別算法采用的利用主成分分析(PCA)和線性鑒別分析(LDA)對(duì)候選數(shù)據(jù)集中的人臉數(shù)據(jù)進(jìn)行識(shí)別訓(xùn)練后,對(duì)輸入圖像的人臉區(qū)域進(jìn)行識(shí)別,該方式就目前的人臉識(shí)別算法技術(shù)來講很難取得較高的識(shí)別率。

發(fā)明內(nèi)容
因此,本發(fā)明的目的在于提供了一種基于單訓(xùn)練樣本人臉識(shí)別的身份認(rèn)證方法,通過事先構(gòu)建針對(duì)面部子特征的多訓(xùn)練樣本集,實(shí)現(xiàn)對(duì)面部子特征的識(shí)別能力,并結(jié)合子特征識(shí)別融合技術(shù),實(shí)現(xiàn)單訓(xùn)練樣本人臉識(shí)別。本發(fā)明采用以下技術(shù)方案
一種基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,包括以下步驟
I)輸入人臉子特征訓(xùn)練樣本素材準(zhǔn)備一組人臉照片,容量為M = m[l]+m[2]+…+m[N],其中,N是訓(xùn)練樣本中參加拍攝樣本的人的數(shù)量,m[i] (I彡i彡N,m[i]彡I)是第i個(gè)人在給定的不同拍攝條件下照片的總數(shù)量;2)構(gòu)造訓(xùn)練樣本:M個(gè)訓(xùn)練素材,兩兩配對(duì),產(chǎn)生MXM個(gè)人臉照片的訓(xùn)練樣本;
3)提取每個(gè)所述訓(xùn)練樣本的P個(gè)子特征,進(jìn)而通過每個(gè)訓(xùn)練樣本中兩張照片對(duì)應(yīng)子特征之間的差值獲得每一訓(xùn)練樣本的P個(gè)子特征度量模塊;
4)給定任意的訓(xùn)練樣本,依據(jù)P個(gè)子特征度量模塊計(jì)算訓(xùn)練樣本中兩幅圖像的差值,構(gòu)造該樣本的P維樣本特征數(shù)據(jù)向量V,若訓(xùn)練樣本中兩副照片代表同一個(gè)人時(shí),V的響應(yīng)值為r=l,否則r=0 ;
5)依據(jù)步驟4)中,對(duì)于MXM個(gè)訓(xùn)練向量和對(duì)應(yīng)的響應(yīng)值,通過機(jī)器學(xué)習(xí)的方法,得到機(jī)器學(xué)習(xí)的訓(xùn)練結(jié)果數(shù)據(jù)集;
6)輸入待識(shí)的當(dāng)事人人臉照片,調(diào)用遠(yuǎn)程的人臉圖片庫,從人臉圖片庫中取出匹配當(dāng)事人的單張照片,調(diào)用P個(gè)子特征度量模塊計(jì)算出P個(gè)拓?fù)鋵W(xué)距離空間意義下的距離,構(gòu)成待測試向量V’,依據(jù)步驟5中的機(jī)器學(xué)習(xí)算法和訓(xùn)練結(jié)果數(shù)據(jù)集,預(yù)測判定V’對(duì)應(yīng)的值r’ ;當(dāng)r’ =1時(shí),判定當(dāng)事人的待識(shí)別照片與人臉圖片庫中所述單張照片對(duì)應(yīng)同一人;當(dāng)1·’ =0時(shí),判定兩幅照片對(duì)應(yīng)不同人。通過以上技術(shù)方案可以看出,依據(jù)本發(fā)明,通過適量的人臉子特征訓(xùn)練樣本,構(gòu)造子特征度量模塊,進(jìn)而生成P維樣本數(shù)據(jù)向量V,通過機(jī)器學(xué)習(xí)算法形成訓(xùn)練結(jié)果數(shù)據(jù)集,步驟6)依據(jù)采用的機(jī)器學(xué)習(xí)算法和訓(xùn)練結(jié)果數(shù)據(jù)集判斷某對(duì)于單訓(xùn)練樣本的照片和輸入的待識(shí)別照片進(jìn)行識(shí)別,這種方式大大提高了識(shí)別率,使單訓(xùn)練樣本人臉識(shí)別方法具有產(chǎn)業(yè)應(yīng)用前景。在步驟6)中,子特征的差值泛指兩個(gè)字特征向量在其所在拓?fù)鋵W(xué)意義下距離空間內(nèi)的距離。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,在步驟2)之前還包括對(duì)樣本素材尺度標(biāo)準(zhǔn)化的步驟統(tǒng)一所有照片上人的瞳孔平均坐標(biāo),且統(tǒng)一每一照片上的兩瞳孔間距,并把所述照片規(guī)整為同一尺寸。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,對(duì)樣本素材尺寸標(biāo)準(zhǔn)化后還包括對(duì)樣本素材灰度化的步驟。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,還包括對(duì)所獲得的灰度化的所述照片進(jìn)行亮度標(biāo)準(zhǔn)化的步驟。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,亮度標(biāo)準(zhǔn)化是執(zhí)行人臉檢測,切割出人臉區(qū)域,然后讓面部平均亮度和反差標(biāo)準(zhǔn)化。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,面部平均亮度的標(biāo)準(zhǔn)為127,反差標(biāo)準(zhǔn)化的標(biāo)準(zhǔn)是亮度均方差為32。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,所述步驟2)中照片規(guī)整的尺寸為像素值240X 320,瞳孔距離64像素。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,對(duì)于RGB彩色照片,轉(zhuǎn)換為灰度圖像的步驟為,讀取各像素3個(gè)通道的亮度值,利用Y = ((R*299) + (G*587) + (B*114))/ 1000進(jìn)行灰度化。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,所述子特征的個(gè)數(shù)不少于6個(gè)且不大于38個(gè)。上述基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,機(jī)器學(xué)習(xí)的方法選自人工神經(jīng)網(wǎng)絡(luò)算法、支持向量機(jī)算法、貝葉斯分類算法、決策樹算法。


圖1為依據(jù)本發(fā)明的一種基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法。
具體實(shí)施例方式當(dāng)前的單訓(xùn)練樣本人臉識(shí)別方法普遍識(shí)別率不高,大多在65%左右,不具有市場前景。發(fā)明人認(rèn)為,只有識(shí)別率大于90%才具有產(chǎn)業(yè)應(yīng)用的價(jià)值。參照說明書附圖1,配置為人臉采集模塊,通過圖像或者是片采集數(shù)據(jù)獲得代是別的照片,也就是圖中左部的人臉照片;配置人臉照片庫,通常是國家人口信息庫、公安部的追逃庫、銀行聯(lián)網(wǎng)核查庫等匹配的庫文件,自然也包括如某個(gè)公司的人員庫,其所存在的往往是單一的照片,如身份證件的人臉照片,且表情往往比 較單一。另外,配置的人臉照片庫大多遠(yuǎn)程分布,部分本地存放,如以公司為單位的庫文件,即便是公司內(nèi)部,可能涉及多個(gè)采集點(diǎn),相應(yīng)的庫文件可能也遠(yuǎn)程布設(shè)。然后配置的人臉對(duì)比模塊為本文所提出的基于單訓(xùn)練樣本的人臉識(shí)別方法,或者說本文的改進(jìn)點(diǎn)體現(xiàn)在人臉對(duì)比方法的改進(jìn)上。從而,關(guān)于人臉對(duì)比方法,通過有效融合多種子識(shí)別特征,實(shí)現(xiàn)單訓(xùn)練樣本人臉識(shí)別。具體步驟以樹形結(jié)構(gòu)的形式描述如下1、獲取樣本素材其容量為M = m[l]+m[2]+…+m[N],N是訓(xùn)練樣本中參加拍攝樣本人的數(shù)量,m[i] (I彡i彡N,m[i] > I)是第i個(gè)人在不同拍攝條件(如光照、姿態(tài)、表情等拍攝條件)下照片數(shù)量,該數(shù)量越大最終所獲得的域就越大,但運(yùn)算量也會(huì)相應(yīng)增大。2、樣本素材尺度標(biāo)準(zhǔn)化,以利于后續(xù)步驟的處理采集的人像照片根據(jù)統(tǒng)一的標(biāo)準(zhǔn),尺寸標(biāo)準(zhǔn)化。2-1、根據(jù)2,統(tǒng)一縮放、旋轉(zhuǎn)、平移、剪裁樣本素材,使得照片尺寸統(tǒng)一為240X320,兩瞳孔平均縱坐標(biāo)為160,瞳孔平均橫坐標(biāo)為120,瞳孔距離64像素。其中的縮放、旋轉(zhuǎn)、平移針對(duì)照片本身原始的圖像要素進(jìn)行選擇,如角度不正,旋轉(zhuǎn)到位即可。注在圖像處理中,行列自動(dòng)為像素值所標(biāo)定,縱橫坐標(biāo)對(duì)應(yīng)該像素值。3、樣本素材灰度化把RGB彩色圖像轉(zhuǎn)換為灰度圖像。3-1、根據(jù) 3,可用公式 Y = ((R*299) + (G*587) + (B*114)) / 1000,把 RGB 彩色圖像
轉(zhuǎn)換為灰度圖像。4、照片亮度標(biāo)準(zhǔn)化讓面部平均亮度和反差標(biāo)準(zhǔn)化。4-1、根據(jù)4,讓照片面部平均亮度值為127,亮度均方差32。5、構(gòu)造訓(xùn)練樣本M個(gè)訓(xùn)練素材,兩兩進(jìn)行配對(duì),產(chǎn)生MXM個(gè)人臉照片配對(duì),這些配對(duì)就是訓(xùn)練樣本。6、根據(jù)MXM個(gè)訓(xùn)練樣本,構(gòu)造P (P ^ I)個(gè)子特征度量模塊,每個(gè)子特征度量模塊可以根據(jù)訓(xùn)練樣本計(jì)算樣本中的兩張照片對(duì)應(yīng)特征之間的差值。以下為經(jīng)過驗(yàn)證可被選用的子特征度量模塊,數(shù)量為7個(gè),并且通過經(jīng)過驗(yàn)證,最多可以構(gòu)建38個(gè)子特征度量模塊。6-1、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉下巴縱坐標(biāo)的差。
6-2、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉寬度的差。6-3、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉下嘴唇縱坐標(biāo)的差。6-4、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉眉毛區(qū)域差異部分的面積(像素?cái)?shù))。6-5、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉性別的差異,同性別差異為0,不同性別差異為I。6-6、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉的嘴寬度的差。6-7、根據(jù)6,子特征度量模塊的一種是實(shí)現(xiàn)方法是計(jì)算樣本中兩幅照片中人臉的ASM輪廓模型對(duì)應(yīng)節(jié)點(diǎn)坐標(biāo)距離之和。7、給定任意的訓(xùn)練樣本,依據(jù)P個(gè)子特征度量模塊計(jì)算的樣本中兩幅圖像的差值,構(gòu)造一個(gè)P維樣本特征數(shù)據(jù)向量V。當(dāng)訓(xùn)練樣本中的兩幅照片代表同一個(gè)人時(shí),向量V對(duì)應(yīng)的響應(yīng)值r=l,否則r=0。8、對(duì)于MXM個(gè)訓(xùn)練樣本,可以得到MXM個(gè)訓(xùn)練向量和對(duì)應(yīng)的響應(yīng)值,可以借助于機(jī)器學(xué)習(xí)算法,得到機(jī)器學(xué)習(xí)訓(xùn)練結(jié)果數(shù)據(jù)集。8-1、根據(jù)8,機(jī)器學(xué)習(xí)算法可以是人工神經(jīng)網(wǎng)絡(luò)算法。8-2、根據(jù)8,機(jī)器學(xué)習(xí)算法可以是支持向量機(jī)算法。8-3、根據(jù)8,機(jī)器學(xué)習(xí)算法可以是貝葉斯分類算法。8-4、根據(jù)8,機(jī)器學(xué)習(xí)算法可以是決策樹算法。這樣,通過前述的8個(gè)步驟就構(gòu)造除了對(duì)比方法,依據(jù)所述對(duì)比方法,具體的對(duì)比步驟為
通過人臉采集模塊獲取待識(shí)別對(duì)象的人臉照片,這里的人臉照片通常是現(xiàn)場提取,如攝像頭的采集,然后通過匹配的人臉照片庫調(diào)出所述待識(shí)別對(duì)象的信息庫人臉照片。進(jìn)而,使用所述對(duì)比方法,調(diào)用P個(gè)子特征度量模塊計(jì)算出P個(gè)差值,構(gòu)成待測試向量V’。依據(jù)步驟8中機(jī)器學(xué)習(xí)算法和訓(xùn)練結(jié)果數(shù)據(jù)集,預(yù)測判定V’對(duì)應(yīng)的值r’。當(dāng)r’ =1時(shí),判定兩幅照片對(duì)應(yīng)同一人;讓1·’ =0時(shí),判定兩幅照片對(duì)應(yīng)不同人。從而,判斷出待識(shí)別對(duì)象是否在相應(yīng)的人臉數(shù)據(jù)庫中。在以上的內(nèi)容中,人臉采集模塊、人臉照片庫和人臉比對(duì)模塊,根據(jù)具體的配置可分布于相同或者不同的裝置內(nèi)。其相互之間的通訊,可以采用基于有限網(wǎng)絡(luò)的通訊方式,亦可以采用基于無線網(wǎng)絡(luò)的通信方式,還可以采用通過存儲(chǔ)介質(zhì)匹配數(shù)據(jù)轉(zhuǎn)移的架構(gòu),同時(shí),還可以采用本地調(diào)用的方式。以上機(jī)器學(xué)習(xí)的算法是當(dāng)前比較常用的圖像處理算法,在此不再贅述。經(jīng)過驗(yàn)證上述識(shí)別方法的識(shí)別率在92. 5 96%。一個(gè)實(shí)施例1、編制樣本素材編制容量為M = NX 10=200X10=2000的樣本素材,N=200是訓(xùn)練樣本中參加拍攝樣本人的數(shù)量,每人10張照片。2、統(tǒng)一縮放、旋轉(zhuǎn)、平移、剪裁樣本素材,使得照片尺寸統(tǒng)一為240X320,兩瞳孔平均縱坐標(biāo)為160,瞳孔平均橫坐標(biāo)為120,瞳孔距離64像素。3、樣本素材灰度化用公式 Y = ((R*299) + (G*587) + (B*114)) / 1000,把 RGB 彩
色圖像轉(zhuǎn)換為灰度圖像。4、照片亮度標(biāo)準(zhǔn)化讓照片面部平均亮度值為127,亮度均方差32。5、構(gòu)造訓(xùn)練樣本M=2000個(gè)訓(xùn)練素材,兩兩進(jìn)行配對(duì),產(chǎn)生MXM個(gè)=4000000個(gè)人臉照片配對(duì),這些配對(duì)就是訓(xùn)練樣本。6、根據(jù)MXM=4000000個(gè)訓(xùn)練樣本,構(gòu)造P=12個(gè)子特征度量模塊,每個(gè)子特征度量模塊可以根據(jù)訓(xùn)練樣本計(jì)算樣本中的兩張照片計(jì)算對(duì)應(yīng)特征之間的差值。這12個(gè)子特征模塊分別度量以下特征
(O眉毛濃度;
(2)眉毛覽度;
(3)鼻孔縱坐標(biāo);
(4)鼻孔間距;
(5)嘴中心點(diǎn)縱坐標(biāo);
(6)上嘴唇縱坐標(biāo);
(7)具有68個(gè)節(jié)點(diǎn)的ASM模型;
(8)眉毛的分布區(qū)域;
(9)眼睛的二值化形狀;
(10)嘴的形狀類型(利用聚類分析算法分類)
(11)鼻子形狀類型(利用聚類分析算法分類)
(12)性別
7、給定任意的訓(xùn)練樣本,依據(jù)P=12個(gè)子特征度量模塊計(jì)算的樣本中兩幅圖像的插值,構(gòu)造一個(gè)P=12維樣本特征數(shù)據(jù)向量V。當(dāng)樣本中的兩幅照片代表同一個(gè)人時(shí),向量V對(duì)應(yīng)的響應(yīng)值r=l,否則r=0。8、對(duì)于MXM=4000000個(gè)訓(xùn)練樣本,可以得到MXM=4000000個(gè)訓(xùn)練向量和對(duì)應(yīng)的
響應(yīng)值,可以借助于貝葉斯分類器,得到機(jī)器學(xué)習(xí)訓(xùn)練結(jié)果數(shù)據(jù)集。9、構(gòu)造定待測試樣本給出待識(shí)別比對(duì)的兩幅人臉照片,調(diào)用P=12個(gè)子特征度量模塊計(jì)算出P=12個(gè)差值,構(gòu)成12維待測試向量V’。依據(jù)8中機(jī)器學(xué)習(xí)算法和訓(xùn)練結(jié)果數(shù)據(jù)集,預(yù)測判定V’對(duì)應(yīng)的值r’。當(dāng)r’ =1時(shí),判定兩幅照片對(duì)應(yīng)同一人;當(dāng)r’ =0時(shí),判定兩幅照片對(duì)應(yīng)不同人。經(jīng)過驗(yàn)證,該方法的識(shí)別率為95%。
權(quán)利要求
1.一種基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,包括以下步驟 1)輸入人臉子特征訓(xùn)練樣本素材準(zhǔn)備一組人臉照片,容量為M= m[l]+m[2]+…+m[N],其中,N是訓(xùn)練樣本中參加拍攝樣本的人的數(shù)量,m[i] (I彡i彡N,m[i]彡I)是第i個(gè)人在給定的不同拍攝條件下照片的總數(shù)量; 2)構(gòu)造訓(xùn)練樣本M個(gè)訓(xùn)練素材,兩兩配對(duì),產(chǎn)生MXM個(gè)人臉照片的訓(xùn)練樣本; 3)提取每個(gè)所述訓(xùn)練樣本的P個(gè)子特征,進(jìn)而通過每個(gè)訓(xùn)練樣本中兩張照片對(duì)應(yīng)子特征之間的差值獲得每一訓(xùn)練樣本的P個(gè)子特征度量模塊; 4)給定任意的訓(xùn)練樣本,依據(jù)P個(gè)子特征度量模塊計(jì)算訓(xùn)練樣本中兩幅圖像的差值,構(gòu)造該樣本的P維樣本特征數(shù)據(jù)向量V,若訓(xùn)練樣本中兩副照片代表同一個(gè)人時(shí),V的響應(yīng)值為r=l,否貝丨J r=0 ; 5)依據(jù)步驟4)中,對(duì)于MXM個(gè)訓(xùn)練向量和對(duì)應(yīng)的響應(yīng)值,通過機(jī)器學(xué)習(xí)的方法,得到機(jī)器學(xué)習(xí)的訓(xùn)練結(jié)果數(shù)據(jù)集; 6)輸入待識(shí)的當(dāng)事人人臉照片,調(diào)用遠(yuǎn)程的人臉圖片庫,從人臉圖片庫中取出匹配當(dāng)事人的單張照片,調(diào)用P個(gè)子特征度量模塊計(jì)算出P個(gè)拓?fù)鋵W(xué)距離空間意義下的距離,構(gòu)成待測試向量V’,依據(jù)步驟5中的機(jī)器學(xué)習(xí)算法和訓(xùn)練結(jié)果數(shù)據(jù)集,預(yù)測判定V’對(duì)應(yīng)的值r’ ;當(dāng)r’ =1時(shí),判定當(dāng)事人的待識(shí)別照片與人臉圖片庫中所述單張照片對(duì)應(yīng)同一人;當(dāng)r’ =O時(shí),判定兩幅照片對(duì)應(yīng)不同人。
2.根據(jù)權(quán)利要求1所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,在步驟2)之前還包括對(duì)樣本素材尺度標(biāo)準(zhǔn)化的步驟統(tǒng)一所有照片上人的瞳孔平均坐標(biāo),且統(tǒng)一每一照片上的兩瞳孔間距,并把所述照片規(guī)整為同一尺寸。
3.根據(jù)權(quán)利要求2所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,對(duì)樣本素材尺寸標(biāo)準(zhǔn)化后還包括對(duì)樣本素材灰度化的步驟。
4.根據(jù)權(quán)利要求3所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,還包括對(duì)所獲得的灰度化的所述照片進(jìn)行亮度標(biāo)準(zhǔn)化的步驟。
5.根據(jù)權(quán)利要求4所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,亮度標(biāo)準(zhǔn)化是執(zhí)行人臉檢測,切割出人臉區(qū)域,然后讓面部平均亮度和反差標(biāo)準(zhǔn)化。
6.根據(jù)權(quán)利要求5所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,面部平均亮度的標(biāo)準(zhǔn)為127,反差標(biāo)準(zhǔn)化的標(biāo)準(zhǔn)是亮度均方差為32。
7.根據(jù)權(quán)利要求1所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,所述步驟2)中照片規(guī)整的尺寸為像素值240X 320,瞳孔距離64像素。
8.根據(jù)權(quán)利要求1所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,對(duì)于RGB彩色照片,轉(zhuǎn)換為灰度圖像的步驟為,讀取各像素3個(gè)通道的亮度值,利用Y =((R*299) + (G*587) + (B*114)) / 1000 進(jìn)行灰度化。
9.根據(jù)權(quán)利要求1所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,所述子特征的個(gè)數(shù)不少于6個(gè)且不大于38個(gè)。
10.根據(jù)權(quán)利要求1所述的基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其特征在于,機(jī)器學(xué)習(xí)的方法選自人工神經(jīng)網(wǎng)絡(luò)算法、支持向量機(jī)算法、貝葉斯分類算法、決策樹算法。
全文摘要
本發(fā)明公開了一種基于單訓(xùn)練樣本人臉識(shí)別的遠(yuǎn)程身份認(rèn)證方法,其通過適量的人臉子特征訓(xùn)練樣本,構(gòu)造子特征度量模塊,進(jìn)而生成P維樣本數(shù)據(jù)向量v,通過機(jī)器學(xué)習(xí)算法形成訓(xùn)練結(jié)果數(shù)據(jù)集,步驟6)依據(jù)采用的機(jī)器學(xué)習(xí)算法和訓(xùn)練結(jié)果數(shù)據(jù)集判斷某對(duì)于單訓(xùn)練樣本的照片和輸入的待識(shí)別照片進(jìn)行識(shí)別,這種方式大大提高了識(shí)別率,使單訓(xùn)練樣本人臉識(shí)別方法具有產(chǎn)業(yè)應(yīng)用前景。在步驟6)中,子特征的差值泛指兩個(gè)字特征向量在其所在拓?fù)鋵W(xué)意義下距離空間內(nèi)的距離。
文檔編號(hào)G06K9/66GK103020655SQ20121054318
公開日2013年4月3日 申請日期2012年12月16日 優(yōu)先權(quán)日2012年12月16日
發(fā)明者方亮, 許野平 申請人:山東神思電子技術(shù)股份有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1