基于隨機森林的atm終端部分遮擋人臉關(guān)鍵點檢測方法
【技術(shù)領(lǐng)域】:
[0001] 本發(fā)明屬于機器視覺領(lǐng)域,特別涉及一種基于隨機森林的ATM終端部分遮擋人臉 關(guān)鍵點檢測方法。
【背景技術(shù)】:
[0002] 現(xiàn)有ATM視頻監(jiān)控系統(tǒng)屬于被動防守型系統(tǒng),主要作用是將監(jiān)控視頻錄制下來, 在事件發(fā)生后,通過視頻進行事后取證。這種被動防守型的方式可能耽誤解決事件的最佳 機會,即使查實了證據(jù),也無法挽回損失。
[0003] 隨著我國經(jīng)濟的高速發(fā)展,ATM終端已經(jīng)深入到人們生活之中。但社會治安情況 的日益復(fù)雜化,在ATM終端上的犯罪現(xiàn)象愈演愈烈。當前的形式已經(jīng)迫切要求ATM安保領(lǐng) 域從傳統(tǒng)的被動防守型向主動的積極防御方向轉(zhuǎn)型。
[0004] 近年來,人臉智能識別技術(shù)已經(jīng)能夠保證識別率、識別速度、以及誤識率和拒識率 等各項指標的優(yōu)異性,通過實時捕獲的人臉影像與銀行系統(tǒng)預(yù)先采集的客戶人臉信息進行 匹配,將為ATM終端的安全監(jiān)控提供更實時智能的預(yù)警手段。但是,現(xiàn)有的成熟人臉識別技 術(shù)主要針對完整人臉進行識別,而針對ATM終端實施犯罪行為的人員往往會有意識地使用 口罩、墨鏡等物體遮擋人臉,遮擋物引入的干擾使得現(xiàn)有基于人臉的信息匹配技術(shù)變得困 難。其次,視頻監(jiān)控圖像背景復(fù)雜,人臉姿態(tài)多樣,臉部關(guān)鍵點難以確定,進一步增加了人臉 的定位和身份識別的難度。
[0005] 本發(fā)明針對上述問題,基于ATM終端捕獲的操作人影像,在遮擋人臉檢測的基礎(chǔ) 之上,進一步檢測其人臉姿態(tài),并對人臉未遮擋部位的關(guān)鍵點進行標定,從而為下一步的 智能人臉身份認證提供精準分析依據(jù),降低由遮擋、姿態(tài)等引入的干擾,提高人臉信息匹配 的準確率。
【發(fā)明內(nèi)容】
:
[0006] 本發(fā)明的主要目的是提出一種面向ATM終端的部分遮擋人臉關(guān)鍵點檢測方法,在 準確檢測人臉遮擋部位的同時,迅速、精準定位人臉未遮擋部位的關(guān)鍵點。
[0007] 為了實現(xiàn)上述目的,本發(fā)明提供如下技術(shù)方案:
[0008] 步驟一、當有用戶插入銀行卡的時候,采集人臉圖像;
[0009] 步驟二、將采集圖像序列轉(zhuǎn)化為灰度圖,并歸一化為480*360像素的圖像;
[0010] 步驟三、計算圖像的方差值S,并判斷其是否小于閾值e,若S〈e,則對圖像進行 多尺度Retinex圖像增強[1],提高圖像的對比度;
[0011] 步驟四、采用Haarcascade人臉檢測算法[2],從圖像中定位人臉具體位置;
[0012] 步驟五、基于隨機森林姿態(tài)估計樹模型估計人臉姿態(tài)(左偏、正臉、右偏);
[0013] 步驟六、基于ViolaJones[3]框架強分類器級聯(lián)模型判斷圖像中人臉是否存在遮 擋,并判斷遮擋類型屬于眼部或嘴部遮擋;
[0014] 步驟七、根據(jù)步驟五估計的人臉姿態(tài),選擇相應(yīng)姿態(tài)的隨機森林關(guān)鍵點檢測模型, 標定未遮擋位置的人臉關(guān)鍵點;
[0015] 與現(xiàn)有的技術(shù)相比,本發(fā)明具有以下有益效果:
[0016] 1.通過步驟五基于隨機森林的姿態(tài)預(yù)估計,降低了姿態(tài)變化引入的干擾對人臉關(guān) 鍵點檢測的影響,能有效提高人臉身份驗證的準確度。
[0017] 2.通過步驟六基于ViolaJones框架的遮擋部位檢測及步驟七中基于隨機森林 的人臉關(guān)鍵點標定,為后續(xù)基于遮擋人臉的身份識別提供了高精度的人臉局部特征,進一 步降低了由遮擋引入的干擾對身份驗證精度的影響。
[0018] 3.結(jié)合多尺度Retinex圖像增強技術(shù)、基于隨機森林的姿態(tài)估計模型、 Violajones遮擋判斷方法及基于隨機森林的多姿態(tài)關(guān)鍵點檢測模型,共同構(gòu)建了一個魯棒 的遮擋人臉關(guān)鍵點檢測方法。如圖6所示,在眼部和嘴部遮擋下,本發(fā)明對不同姿態(tài)的人臉 都具有較好的關(guān)鍵點檢測效果。
[0019] 因此,本發(fā)明在ATM終端安全監(jiān)控以及智能人臉身份認證的應(yīng)用中都具有廣泛的 應(yīng)用前景。
【附圖說明】:
[0020] 圖1本發(fā)明的方法流程圖;
[0021] 圖2多尺度Retinex圖像增強效果圖;
[0022] 圖3基于隨機森林的姿態(tài)估計樹模型;
[0023] 圖4基于ViolaJones框架強分類器級聯(lián)模型的人臉遮擋檢測模型;
[0024] 圖5隨機森林人臉關(guān)鍵點檢測流程圖;
[0025] 圖6部分遮擋人臉關(guān)鍵點檢測的結(jié)果圖;
【具體實施方式】
[0026] 為了更好的說明本發(fā)明的目的、具體步驟以及特點,下面結(jié)合附圖對本發(fā)明作進 一步詳細的說明:
[0027] 參考圖1,本發(fā)明提出的一種基于隨機森林的ATM終端部分遮擋人臉關(guān)鍵點檢測 方法,主要包含以下步驟:
[0028] 步驟一、當有用戶插入銀行卡的時候,采集人臉圖像;
[0029] 步驟二、將采集圖像序列轉(zhuǎn)化為灰度圖,并歸一化為480*360像素的圖像;
[0030] 步驟三、計算圖像的方差值S,并判斷其是否小于閾值e,若S〈e,則對圖像進行 多尺度Retinex圖像增強[1],提高圖像的對比度;
[0031] 步驟四、采用Haarcascade人臉檢測算法[2],從圖像中定位人臉具體位置;
[0032] 步驟五、基于隨機森林姿態(tài)估計樹模型估計人臉姿態(tài)(左偏、正臉、右偏);
[0033] 步驟六、基于ViolaJones[3]框架強分類器級聯(lián)模型判斷圖像中人臉是否存在遮 擋,并判斷遮擋類型屬于眼部或嘴部遮擋;
[0034] 步驟七、根據(jù)步驟五估計的人臉姿態(tài),選擇相應(yīng)姿態(tài)的隨機森林關(guān)鍵點檢測模型, 標定未遮擋位置的人臉關(guān)鍵點;
[0035] 上述技術(shù)方案中,步驟一圖像采集動作由用戶插入銀行卡的行為觸發(fā),并保存觸 發(fā)時刻T的圖像。
[0036] 上述技術(shù)方案中,步驟三多尺度Retinex圖像增強,所采用的圖像方差S的閾值e =15〇
[0037] 上述技術(shù)方案中,步驟三多尺度Retinex圖像增強效果圖如圖2所示。
[0038] 上述技術(shù)方案中,步驟三多尺度Retinex圖像增強的方法為:
[0039] 1.讀入輸入圖像Iin(x,y),將圖像的像素值轉(zhuǎn)化為浮點數(shù),并通過對數(shù)變換轉(zhuǎn)換 到相應(yīng)的對數(shù)域l〇g(Iin(x,y));
[0040] 2.設(shè)定N個高斯環(huán)繞尺度%£ _,令亮度函美
[l..,/V]),求解i'i'Fn(x,y)dxdy=l,確定尺度參數(shù)人n,進而求出Fn(x,y);本發(fā)明中N= 3,mf50,m2= 80,m3= 95
[0041] 3.根據(jù)多尺度公式
y)],,計算對數(shù)域輸出圖像r(X,y)。其中對應(yīng)著每個尺度對應(yīng)的權(quán)重(在本發(fā) 明中取值為^,其中,N取值為3),F(xiàn)n(x,y)為亮度函數(shù);
[0042]4.通過指數(shù)變換將r(X,y)從對數(shù)域轉(zhuǎn)換到實數(shù)域得到輸出圖像(X,y),即增 強后輸出圖像。
[0043] 上述技術(shù)方案中,步驟五基于隨機森林的姿態(tài)估計樹模型(如圖3所示)的構(gòu)建 方法如下:
[0044] 1.在ATM環(huán)境下采集1000張包括不同姿態(tài)的人臉圖像,,在人臉位置隨機取樣若 干圖像塊,構(gòu)成訓練集;
[0045] 2.在訓練集中的每個圖像塊L中構(gòu)建信息Pi=(fi,DJ,其中/;= {/i1,/?, 表示圖像的多種特征通道,其中A/i2表示的圖像的灰度值和歸一化灰 度值,/i3,//' ...,/廣表示經(jīng)過32個Gabor濾波器組后的特征圖像 i,dJei^ {L,F,E}^ ? 其中Di,d表示的是圖像塊的中心位置到鼻子的偏移量,e {L,F,E} 表;^的是姿態(tài)標簽;
[0046] 3.隨機產(chǎn)生分裂池d) = (e,T),為后面的二值函數(shù)分析做準備,其中0 =,札和R2表示在圖像塊li中隨機取樣的兩個小塊(如圖3所示), #e{/i1,/?,…,/i",,k為隨機選擇的特征通道,T表示的是隨機閾值;
[0047] 4.從根節(jié)點開始進行隨機樹的構(gòu)建,依次將訓練集的圖像塊^送入根節(jié) 點,從隨機池中隨機選擇節(jié)點分裂信息值巾,根據(jù)節(jié)點的二值函數(shù)規(guī)則=
存圖像塊輸入下一層節(jié)點,如果tJpXT則輸入 下一層的左節(jié)點,并令r\=r "(1\表示進入左節(jié)點的圖像塊集合),否則輸入下一 層的右節(jié)點,并令rK=rKu"(1\表示進入右節(jié)點的圖像塊集合),記錄當前的節(jié)點分 裂信息傘;
[0048]5.根據(jù)分裂池中的巾,及步驟4中的分裂規(guī)則,找到該節(jié)點最優(yōu)分裂信息巾%即
[0050] 信息熵iG(<i>)最大。[0049] <})*=argmaxIG,
[0051]
[0052] 其中,rie{UK}表示的是到達左/右節(jié)點i的圖像塊集,r表示其父節(jié)點的圖像 塊集,P(e|r)表示圖像塊屬于左(eJ、正(eF)、右臉(eK)的概率;
[0053] 6.按深度優(yōu)先規(guī)則,對左右節(jié)點,重復(fù)步驟3~5。
[0054] 7.當節(jié)點到達最大的深度(本發(fā)明中取值為20)或者達到節(jié)點的圖像塊數(shù)小于某 一閾值(本發(fā)明中取值為20),則創(chuàng)建葉節(jié)點,否則繼續(xù)步驟3~6 ;
[0055] 上述技術(shù)方案中,步驟五基于隨機森林姿態(tài)估計樹模型的檢測方法如下:
[0056] 1.對于輸入圖像,在檢測到人臉位置后,在人臉框內(nèi)隨機的取樣一組圖像塊;
[0057] 2.依次將圖像塊^送入訓練后隨機森林姿態(tài)估計樹模型,從根節(jié)點開始,直達葉 點結(jié)束。在每個內(nèi)節(jié)點提取該節(jié)點的最優(yōu)分裂信息巾%并基于二值函數(shù)規(guī)則確定下行路 徑;
[0058] 3.根據(jù)葉節(jié)點存儲的投票信息,從而為人臉姿態(tài)投票;
[0059]
[0060] 其中,p(e|l)表示為到達葉節(jié)點1的圖像塊^投票姿態(tài)(左臉、正臉、右臉)的概 率;
[0061] 4.根據(jù)所有葉節(jié)點的信息選擇ElP(e|l)最大的概率,作為人臉的姿態(tài);
[0062] 上述技術(shù)方案中,步驟六引入ViolaJones框架[3]檢測臉部遮擋?;赩iola Jones框架強分類器級聯(lián)