亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

結(jié)合活體檢測技術(shù)的人臉識別方法及人臉識別系統(tǒng)與流程

文檔序號:11831582閱讀:621來源:國知局
結(jié)合活體檢測技術(shù)的人臉識別方法及人臉識別系統(tǒng)與流程

本發(fā)明涉及人臉識別技術(shù)領(lǐng)域。



背景技術(shù):

目前,在安全系統(tǒng)、門禁系統(tǒng)乃至電腦、手機等移動裝置中,廣泛采用了人臉識別技術(shù)來識別用戶、保護用戶信息安全,人臉識別在越來越多的身份識別、實名認證的場合都得到應(yīng)用。

然而,不法分子利用偽冒的人臉圖像試圖通過驗證,這給當前的人臉識別技術(shù)帶來了嚴峻挑戰(zhàn)。

對此,人臉識別技術(shù)通常與活體檢測技術(shù)相結(jié)合,來防止利用人臉圖片或者人臉模型而進行的偽冒行為。目前常用的活體檢測技術(shù)主要需要用戶按照特定要求來進行比如張嘴、抬頭、晃腦等動作,這給用戶的體驗并不是很好。

因此,本領(lǐng)域技術(shù)人員期望獲得一種改進的人臉識別方法,其在有效防止人臉偽冒的同時,也能給用戶帶來良好的體驗。



技術(shù)實現(xiàn)要素:

本發(fā)明的一個目的在于提供一種結(jié)合活體檢測技術(shù)的人臉識別方法,其不需要用戶進行附加動作就能夠有效防止人臉偽冒。

為實現(xiàn)上述目的,本發(fā)明提供一種技術(shù)方案如下:

一種人臉識別方法,用于對包括人臉圖像的第一視頻進行處理,包括如下步驟:a)、從第一視頻中提取若干幀,分別識別出人臉區(qū)域圖像,并以相應(yīng)的人臉區(qū)域圖像組成第二視頻;b)、對第二視頻進行歐拉視頻放大處理;c)、針對第二視頻中每一幀圖像,分別進行RGB通道分離,以形成三個單通道圖像,并分別計算三個單通道圖像中各像素的灰度統(tǒng)計值,以形成對應(yīng)于第二視頻的三個信號序列;d)、分別對三個信號序列進行歸一化處理,以得到三個歸一化信號序列;e)、對三個歸一化信號序列進行FFT變換,并分別計算相應(yīng)的功率譜密度;f)、分別確定三個歸一化信號序列的最大功率譜密度是否對應(yīng)于相同或相近頻率,如果是,則驗證通過第一視頻。

優(yōu)選地,在步驟d)之后、步驟e)之前還包括如下濾波步驟:針對三個歸一化信號序列,分別基于正常人的心率范圍來進行帶通濾波處理。

優(yōu)選地,濾波步驟采用的帶通濾波器通過的上限、下限頻率分別為4Hz、0.67Hz。

本發(fā)明還公開了一種人臉識別系統(tǒng),包括如下模塊:視頻獲取模塊,用于從包括人臉圖像的第一視頻提取若干幀,分別識別出人臉區(qū)域圖像,并以相應(yīng)的人臉區(qū)域圖像組成第二視頻;歐拉視頻處理模塊,與視頻獲取模塊通信,用于對第二視頻進行歐拉視頻放大處理;RGB通道分離模塊,與歐拉視頻處理模塊通信,用于針對第二視頻中每一幀圖像,分別進行RGB通道分離,以形成三個單通道圖像,并分別計算三個單通道圖像中各像素的灰度統(tǒng)計值,以形成對應(yīng)于第二視頻的三個信號序列;歸一化模塊,與RGB通道分離模塊通信,用于對三個信號序列進行歸一化處理,以得到三個歸一化信號序列;FFT變換模塊,與歸一化模塊通信,用于對三個歸一化信號序列進行FFT變換,并分別計算相應(yīng)的功率譜密度;以及活體判定模塊,與FFT變換模塊通信,用于分別確定三個歸一化信號序列的最大功率譜密度是否對應(yīng)于相同或相近頻率,如果是,則驗證通過第一視頻。

本發(fā)明提供的人臉識別系統(tǒng)方法及系統(tǒng),結(jié)合了活體檢測技術(shù),在人臉識別過程中能夠捕捉人臉面部圖像隨著心跳跳動引起的血液流動而帶來的變化,進而可以判斷當前用戶是否為偽冒的人臉。相比現(xiàn)有技術(shù)中其他人臉識別方式,本發(fā)明在同樣滿足識別準確率的前提下,不僅能夠給用戶更好的用戶體驗,還能夠有效提升識別效率。

附圖說明

圖1示出本發(fā)明第一實施例提供的人臉識別方法的流程示意圖。

圖2示出本發(fā)明第二實施例提供的人臉識別系統(tǒng)的模塊結(jié)構(gòu)示意圖。

具體實施方式

如圖1所示,本發(fā)明第一實施例提供一種結(jié)合活體檢測技術(shù)的人臉識別方法,其包括如下各步驟:

步驟S10、從第一視頻中提取若干幀,分別識別出人臉區(qū)域圖像,并以相應(yīng)的人臉區(qū)域圖像組成第二視頻。

具體地,第一視頻是對人臉進行攝錄所得到的視頻,其全部或多數(shù)幀中均包括人臉圖像。

該步驟中,通過人臉檢測算法識別出第一視頻中每一幀中的人臉區(qū)域(感興趣區(qū)域),隨后,以每一幀相應(yīng)的人臉區(qū)域圖像組成第二視頻。通常,人臉區(qū)域的大小為第一視頻中幀圖像寬度的60%左右、高度的80%-100%左右。顯然,第二視頻包含的數(shù)據(jù)量明顯小于第一視頻。

進一步地,在形成第二視頻的過程中,若從第一視頻中某一幀識別出的人臉區(qū)域圖像為模糊或傾斜的(以致無法識別出人臉區(qū)域),則拋棄該幀;在此情況下,也可以使用前一(或后一)幀數(shù)據(jù)來代替,而該幀不視為有效幀。重復進行從第一視頻中提取幀、并分別識別相應(yīng)人臉區(qū)域的步驟,直到能夠獲取到足夠的有效幀來組成第二視頻以進行后續(xù)分析處理。

步驟S11、對第二視頻進行歐拉視頻放大處理。

歐拉視頻放大技術(shù)可以撲捉視頻中人類難以覺察的極其微小的顏色或動作變化,通過對不同變化的變動頻率進行分析處理,最終讓人們可以直接觀察到這些微變化,并將這些變化進行任意放大處理。舉例來說,利用這項技術(shù)人們可以直接從視頻中觀察血液循環(huán)、脈搏變化(如圖)或嬰兒呼吸等情況。

該步驟中,通過對第二視頻進行歐拉視頻放大處理,可以捕捉用戶(第一視頻所攝錄的人臉)的面部血液隨心跳變化而流動的情況。

步驟S12、針對第二視頻中每一幀圖像,分別進行RGB通道分離,以形成三個單通道圖像,并分別計算三個單通道圖像中各像素的灰度統(tǒng)計值,以形成對應(yīng)于第二視頻的三個信號序列。

具體地,對第二視頻中每一幀圖像,分別采用RGB分離算法,形成紅色(R)、綠色(G)及藍色(B)三個單通道圖像,再分別計算三個單通道圖像中感興趣區(qū)域(人臉區(qū)域)內(nèi)像素的灰度統(tǒng)計值,這樣就形成了對應(yīng)每一幀的三個信號(R、G、B信號)值。對第二視頻每一幀圖像進行上述處理后,就能夠形成對應(yīng)于第二視頻的三個原始信號序列。

步驟S13、分別對三個信號序列進行歸一化處理,以得到三個歸一化信號序列。

歸一化處理可以將三個信號序列分布到一致的范圍內(nèi),以便于統(tǒng)計分析。

具體地,分別采用如下公式對三個信號序列進行歸一化處理:

<mrow> <msubsup> <mi>x</mi> <mi>i</mi> <mo>&prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&mu;</mi> <mi>i</mi> </msub> </mrow> <msub> <mi>&sigma;</mi> <mi>i</mi> </msub> </mfrac> <mo>.</mo> </mrow>

其中,i取值為1、2、3,分別代表R、G、B三個通道,t為對應(yīng)于當前幀的編號,xi(t)為相應(yīng)原始信號序列中對應(yīng)于當前幀的灰度統(tǒng)計值,μi為xi(t)在第二視頻時長內(nèi)的均值,σi為xi(t)在第二視頻時長內(nèi)的標準差。x′i(t)為經(jīng)歸一化得到的信號值,其對應(yīng)于編號為t的視頻幀。具體地,在第二視頻時長內(nèi)的各視頻幀的x′1(t)組成紅色通道(R)歸一化信號序列,在第二視頻時長內(nèi)的各視頻幀的x′2(t)組成綠色通道(G)歸一化信號序列,在第二視頻時長內(nèi)的各視頻幀的x′3(t)組成藍色通道(B)歸一化信號序列。

步驟S14、對三個歸一化信號序列進行FFT變換,并分別計算相應(yīng)的功率譜密度。

該步驟中,對紅色(R)、綠色(G)以及藍色(B)歸一化信號序列分別進行快速傅立葉變換(FFT),并分別計算它們相應(yīng)的功率譜密度(psd)。其中,功率譜密度的定義是單位頻帶內(nèi)的“功率”(均方值),其可以具體化為一條功率譜密度值—頻率值的關(guān)系曲線。

步驟S15、分別確定三個歸一化信號序列的最大功率譜密度是否對應(yīng)于相同或相近頻率。如果是,則驗證通過第一視頻,如果否,則判定第一視頻為仿冒。

作為最后一個步驟,步驟S15分別確定三個歸一化信號序列的最大功率譜密度是否對應(yīng)于相同或相近頻率。具體地,例如,可以選取G通道歸一化信號序列中最大功率譜密度處對應(yīng)的頻率(為方便起見,以下稱作G頻率)作為用戶(第一視頻所攝錄的人臉)心跳的估計值,再分別將R通道、B通道歸一化信號序列中最大功率譜密度處對應(yīng)的頻率(以下分別稱作R頻率、B頻率)與心跳估計值進行比較,如果R頻率、B頻率均與心跳估計值相同或相近,則確定第一視頻中的用戶為真實人臉,從而驗證通過第一視頻,反之,則確定該用戶為仿冒人臉,并對第一視頻作為否定性驗證結(jié)果。

在對上述第一實施例進一步改進的情況下,在步驟S13之后、步驟S14之前還包括一個濾波步驟:針對三個歸一化信號序列,分別基于正常人的心率范圍來進行帶通濾波處理,以調(diào)整信號波形和消除噪聲影響。

進一步地,考慮到正常人的心率范圍是[40,240],這個單位是每分鐘的心率數(shù),此時的對應(yīng)頻率范圍為0.67Hz(=40bpm/60sec)至4Hz(=240bpm/60sec)。因此,濾波步驟采用的帶通濾波器允許通過的上限、下限頻率分別為4Hz、0.67Hz,通過帶通濾波器能夠濾除低頻的呼吸信號和高頻的噪聲信號。

可以理解,采用上述帶通濾波器后,本發(fā)明提供的人臉識別方法將明顯降低所需處理的數(shù)據(jù)量,并有效屏蔽呼吸信號、噪聲信號對判定結(jié)果可能存在的不利影響,這不僅提高了運算速度,也能夠保證判定結(jié)果的準確性。

上述第一實施例及其改進實施方式,通過在人臉識別過程中捕捉人臉面部圖像隨著心跳跳動引起的血液流動而變化的信號,可以判斷當前用戶具有心跳從而判斷當前識別的對象并非偽冒的人臉。這相比現(xiàn)有技術(shù)中其他人臉識別方式要求用戶完成特定附加動作而言,在同樣滿足識別準確率的前提下,不僅能夠給用戶更好的用戶體驗,還能夠提升識別效率。

如圖2所示,本發(fā)明第二實施例提供一種人臉識別系統(tǒng)20,其包括視頻獲取模塊201、歐拉視頻處理模塊202、RGB通道分離模塊203、歸一化模塊204、FFT變換模塊205以及活體判定模塊206。該人臉識別系統(tǒng)20還攝錄人臉視頻,或從外部攝錄裝置獲取人臉視頻作為輸入,以活體判定模塊206進行判定得到的結(jié)果作為輸出。

其中,視頻獲取模塊201從包括人臉圖像的第一視頻(人臉識別系統(tǒng)20攝錄或從外部獲取)提取若干幀,分別識別出人臉區(qū)域圖像,并以相應(yīng)的人臉區(qū)域圖像組成第二視頻。

歐拉視頻處理模塊202與視頻獲取模塊通信201,用于對第二視頻進行歐拉視頻放大處理。

RGB通道分離模塊203與歐拉視頻處理模塊202通信,用于針對第二視頻中每一幀圖像,分別進行RGB通道分離,以形成三個單通道圖像,并分別計算三個單通道圖像中各像素的灰度統(tǒng)計值,以形成對應(yīng)于第二視頻的三個原始信號序列。

歸一化模塊204與RGB通道分離模塊203通信,用于對三個信號序列進行歸一化處理,以得到三個歸一化信號序列。

FFT變換模塊205與歸一化模塊204通信,用于對三個歸一化信號序列進行FFT變換,并分別計算相應(yīng)的功率譜密度(psd)。

活體判定模塊206與FFT變換模塊205通信,用于分別確定三個歸一化信號序列的最大功率譜密度是否對應(yīng)于相同或相近頻率,如果是,則輸出肯定性的驗證結(jié)果,反之,輸出否定性驗證結(jié)果。

上述各模塊的具體操作分別與上述第一實施例中各步驟相呼應(yīng)。

優(yōu)選情況下,人臉識別系統(tǒng)20還包括一帶通濾波器,帶通濾波器接入歸一化模塊204與FFT變換模塊205之間,其基于正常人的心率范圍對三個歸一化信號序列分別進行帶通濾波處理,從而可以有效屏蔽呼吸信號、噪聲信號對判定結(jié)果可能存在的不利影響。

上述說明僅針對于本發(fā)明的優(yōu)選實施例,并不在于限制本發(fā)明的保護范圍。本領(lǐng)域技術(shù)人員可作出各種變形設(shè)計,而不脫離本發(fā)明的思想及附隨的權(quán)利要求。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1