亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于圖像加權(quán)平均的自動人臉識別方法

文檔序號:6466276閱讀:127來源:國知局
專利名稱:基于圖像加權(quán)平均的自動人臉識別方法
技術(shù)領(lǐng)域
本發(fā)明涉及身份驗證和識別領(lǐng)域的生物特征識別方法,具體涉及一種自 動人臉識別方法。
背景技術(shù)
近年來,商業(yè)安全和預防犯罪領(lǐng)域身份驗證與識別應用需求的快速增長 極大地促進了生物特征識別方法的研究與發(fā)展。雖然存在諸如指紋、虹膜等 可靠的生物特征識別方法,但這些生物特征的采集強烈依賴參與者的配合, 這便凸顯了人臉識別的優(yōu)勢所在,因為對人臉圖像的采集工作可以在缺少參
與者配合及相關(guān)先驗信息的情況下進行。在剛剛落幕的2008北京奧運會上, 數(shù)萬名觀眾就是由國家體育場鳥巢的100多個人臉識別快速身份驗證關(guān)口有 序入場的。
當前的人臉識別工作包括靜態(tài)、格式可控的圖像識別和不可控的視頻序 列識別,人臉識別技術(shù)研究亦面臨來自圖像處理、分析、理解及模式識別領(lǐng) 域的巨大技術(shù)挑戰(zhàn)。自動人臉識另U(AFR, Automatic Face Recognition)即機器 對人臉的識別方法可以描述如下給定圖像或視頻序列,利用已記憶的人臉 數(shù)據(jù)庫,識別或驗證其中出現(xiàn)的人物身份, 一般包括人臉檢測、特征提取、 識別與驗證三個過程。盡管現(xiàn)在已產(chǎn)生了許多AFR設備和算法,但它們無 法可靠地處理真實世界中人臉的識別問題。在由美國國防預先研究計劃局資 助的人臉識別系統(tǒng)性能評價中,當對由同一個照相機拍攝得到的同一個人的 相同姿勢、不同表情的圖像進行識別時, 一些算法取得了理想的結(jié)果,例如,基于主成分分析(PCA, Principal Components Analysis)和小波系統(tǒng)的算法識別 率達到了 95%。但對由不同照相機在同一天里拍攝得到的圖像進行識別時, 現(xiàn)有算法的性能很差(能得到的最優(yōu)識別率為80%,次優(yōu)識別率僅為60%)。 當處理前后相隔一年時間得到的圖像時,所有的參試系統(tǒng)無一達到高于60% 的識別率。而在對真實世界人臉圖像進行識別時,即使圖像質(zhì)量一致且在已 知姿態(tài)、光照與表情(PIE, Pose Illumination and Expression)條件下獲得,可 以得到的最佳識別率也只有73%。由此可見,現(xiàn)有的人臉識別系統(tǒng)性能與人 類的識別能力差距還相當大。
研究表明(Megreya A. M., Burton A. M" Unfamiliar faces are not faces: evidence from a matching task. Memory & Cognition, 2006, 34 (4): 865-876):無 論采集得到的圖像品質(zhì)如何變化,人類總可以很容易地實現(xiàn)對熟悉人臉的識 別,然而對不熟悉人臉的識別能力卻很差,這是因為人類對熟悉和不熟悉人
臉采用了本質(zhì)不同的識別方法對不熟悉人臉的識別主要基于總的臉形、發(fā) 型輪廓等;而對于熟悉人臉的識別則更多地基于眼睛、鼻子、嘴等細節(jié)信息。
然而,隨著人際交往的進行,不熟悉的人終究會慢慢變得熟悉起來。如何對
熟悉過程中的人臉進行準確的識別與描述,Jenkins等人提出了一種基于圖像 平均的人臉處理方法,如(Jenkins R., Burton A. M.. 100% Accuracy in Automatic Face Recognition. Science, 2008, 319: 435)所述,具體做法是
第一步,標記人臉面部的34個特征點,如眼角、鼻尖等,并連接相關(guān)特 征點構(gòu)建一個標準的正面人臉形狀模板,將人臉切分為若干個三角形區(qū)域, 如圖l(b)示;在原始人臉圖像上標記相應的34個特征點,記錄其坐標值 (\,>0, "。二1,…,34,并連接相關(guān)特征點生成人臉形狀圖,如圖l(c)所示;第二步,利用雙線性插值算法(又稱一階插值,其原理是利用點(X,力周圍
4個鄰近點(x,yl)、 (x,_y+l)、 (jc-l,力及(;c+l,力上的像素值在x、 y兩個方向上
作線性內(nèi)插來確定點(x,力處的像素值)將形狀圖內(nèi)的原始人臉圖像映射到標
準正面形狀模板上,生成人臉結(jié)構(gòu)圖,如圖l(d)示;
第三步,設一幅圖像用矩陣表示為G"&;) , ^為圖像上每一點的像素
值大小,輸入原始圖像數(shù)目為"將得到的結(jié)構(gòu)圖別,52,…,M和形狀圖 01^2,...,&分別迸行平均,得到平均結(jié)構(gòu)圖萬與平均形狀圖己如圖2(B) 和(C)示,其中平均結(jié)構(gòu)圖上任一點的像素值《大小等于別^2,…,SA上相應
點的像素值求平均,艮口
平均形狀圖5各特征點的位置坐標等于《,2,...,0^中相應特征點位置求平 均,即
第四步,應用雙線性插值算法將平均結(jié)構(gòu)圖^向平均形狀圖C映射,即 得到平均臉圖像,如圖2(D)示。
Jenkins等人通過PCA證明由平均臉生成的特征臉在識別中的準確率優(yōu) 于由訓練集圖像生成的特征臉。在應用FaceVACS(Verification Alarm Compare System)工業(yè)人臉識別系統(tǒng)對互聯(lián)網(wǎng)上得到的50位名人人臉圖像進行識別 時,這種圖像平均處理方法得到了很高的識別準確率。但是真實世界中得到 的人臉圖像PIE條件各不相同,且存在含遮擋物、年齡變化等復雜情況,因 此對每張圖像進行人臉信息提取時存在不同程度的失真,上述不加區(qū)分的簡 單平均處理在真實世界的人臉識別中無法得到可靠的結(jié)果。且采用雙線性插
《=(《《+... +《)/" 34值法進行映射雖然能夠保持圖像的連續(xù)性和連通性,但其計算復雜度較高。

發(fā)明內(nèi)容
本發(fā)明要解決的技術(shù)問題是針對基于身份驗證和識別中的人臉識別問 題,提出一種準確、可靠、易于處理的圖像加權(quán)平均處理識別方法。 本發(fā)明的技術(shù)方案包括以下步驟
第一步,在原始圖像上標記34個特征點,生成人臉形狀圖,將人臉切分 為若干個三角形區(qū)域;
第二步,利用快速線性插值法將人臉形狀圖內(nèi)的原始人臉圖像映射到標 準正面形狀模板上,得到人臉結(jié)構(gòu)快速線性插值法基本思想是將三角形區(qū)域向標準正面模板中對應的三 角形區(qū)域進行映射,即求解目標三角形內(nèi)任一點(x,力在原始三角形中的對應 點(x。J。)位置,把(x,力上的像素值設置為(x。,y。)上的像素值,即可得到人臉
結(jié)構(gòu)圖。該方法同時完成了映射和插值兩個操作,具體步驟如下
假設原始圖像中的三角形A。B。C。對應標準正面模板上的目標三角形
ABC,求解三角形ABC中任意一點P在三角形A。B。C。中對應點P。的位置。 為了描述方便,定義變量《為P點到線段AC距離與B點到線段AC距離之 比,p為P點到線段AB距離與C點到線段AB距離之比。設A, B, C三 點的坐標分別是(xa, yA), (;cb,外),(xc,凡),則線段AC與AB的方程為 線段AC: 10^-3^) + ;^^-^:)-、:^+工c少^二0
線段AB: xOs-h)+_y(X4-xB)-x/4>^+ xsh=0
根據(jù)線段方程,可以計算出"和"的值
Q, = XpOc -力)+ >V"a — &) - x力yL, + xc3/力 (" & (少「陽力)+力- xc ) — AX: +A:Or h) + ^:(^ -&)-^ + W力 由平面幾何知識可得,當0《tt《1, 0《〃《1,表示P點在三角形ABC內(nèi) 部;當《=0時,P點就在線段AC上;當p-0, P點就在線段AB上。同理 可得三角形A。B。C。中
0 ,(X,', - 、 ) +少fl。 K _ 、,)-、少c。 + 、,
A = 、, (A, -",) +々,(x4, - x" )- 。)、+ x(4)
0xc' (J\ . ) + (x^,- ,)-x4,》、+ x B ",
其中,變量"。為P。點到線段4)C。距離與5。點到線段4C。距離之比,々。為P。點 到線段45。距離與C。點到線段距離之比。
要完成圖像映射,必須有《 = 。, " = 聯(lián)立(1)-(4)式可解得P。點坐標
通過P。點即可確定目標點P上的像素值,也即
gp 二 g/>0
第三步,采用人臉左右偏轉(zhuǎn)角度自動判定法確定圖像中人臉的左右偏轉(zhuǎn) 角度。
人臉識別中一般使用由攝像機或照相機拍攝得到的二維圖像,由于攝像 機參數(shù)未知或者不穩(wěn)定,將導致成像過程不穩(wěn)定,從而存在量化誤差及鏡頭 畸變,所以拍攝對象表面各點在三維空間中真實的幾何位置在二維圖像中不 可避免的將產(chǎn)生無法復原的扭曲和形變,存在信息失真。
同時,在真實世界的人臉識別中,采集得到的人臉圖像PIE條件各不相 同,甚至包含不同年齡、存在遮擋物(帽子、眼鏡、飾物)等復雜情況,因此 每張圖像對人臉信息的包含程度各不相同。偏側(cè)人臉對識別的影響尤其大,因為所有原始圖像均須向標準正面模板映射,人臉出現(xiàn)偏側(cè)時,由于遮擋而 在向標準正面模板映射時存在信息失真。事實上,人臉的偏側(cè)共有三個自由 度,即左右偏轉(zhuǎn)、俯仰偏轉(zhuǎn)和豎直平面內(nèi)的旋轉(zhuǎn)。實驗證明俯仰偏轉(zhuǎn)或豎直 平面內(nèi)的旋轉(zhuǎn)對映射結(jié)果的影響并不大,但那些具有較大左右偏轉(zhuǎn)角度的人 臉圖像由于存在遮擋向標準正面模板映射時無法得到準確的正面姿態(tài)圖,存 在較大程度的信息失真。因此,為了得到準確可靠的識別結(jié)果需要確定每幅 圖像的左右偏轉(zhuǎn)角度并盡量減小其對識別準確度的影響。
人臉左右偏轉(zhuǎn)角度自動判定法是首先在原始圖像標記特征點生成的人 臉形狀圖上確定人臉中軸線(即由左右眼角間距中心點和鼻尖點確定的直 線)、左邊界線(即過面部最左端標記點與中軸線平行的直線)、右邊界線(即 過面部最右端標記點與中軸線平行的直線),并定義c/,、 ^為左右邊界線到中 軸線的距離。由《/^,+《)的大小可確定人臉偏轉(zhuǎn)角度的大小,取向左偏轉(zhuǎn)
為正方向,則人臉左右偏轉(zhuǎn)角度按下式確定
,2《 、
0 = arcs in
乂《+1/2
—1
其中,Se
特別地,《/(《+《)=0時,6 = -!,人臉向右偏轉(zhuǎn)90度;
《/(4+《)=0.5日寸,6 = 0,正面人臉;4/(《+《)=1時,0 = i,人臉向左偏轉(zhuǎn)
90度。
第四步,依據(jù)人臉左右偏轉(zhuǎn)角度對每一張圖像賦予相應權(quán)值進行平均, 得到平均結(jié)構(gòu)圖5-(U (m、 n為正整數(shù))與平均形狀圖。
步驟l,設t為參加平均的原始圖像數(shù)目,依據(jù)第/幅圖像的人臉左右 偏轉(zhuǎn)角度《對第/幅圖像設置一個權(quán)值w,, "l,..i,權(quán)值設置方法是加大正面姿態(tài)圖像權(quán)值,減小偏側(cè)姿態(tài)圖像權(quán)值,具體地:
(1)《e -時,定義如下高斯型函數(shù):
H7,=)——g 2
(2)《=—|或《=|,即當人臉向左或右偏側(cè)角度達到90度時,給出下
面兩種權(quán)值設置方法:
當/t"時,未被遮擋的半張臉權(quán)值設為w,^,e2,被遮擋的半張
臉權(quán)值設為0,即參與平均的圖像樣本數(shù)量較少時僅利用未被遮擋的半張臉 信息參與后續(xù)處理;
當i^5時,整幅圖像權(quán)值設為O,即參與平均的圖像樣本足夠多時舍棄
僅含有半張人臉信息的圖像。
最終得到的各權(quán)值滿足歸一化條件w, + w2 +... + ^ = 1 。 步驟2,加權(quán)平均結(jié)構(gòu)圖5各點像素值為
步驟3,加權(quán)平均形狀圖各特征點的坐標為
x"。 = + w2《+…+ W《,少 。 = W《+ w2《+…+ wj:。 , "。 = 1,...,34
連接相應特征點,生成加權(quán)平均形狀圖。
第五步,采用第一步中的快速線性插值法將加權(quán)平均結(jié)構(gòu)圖5向加權(quán)平 均形狀圖映射,得到加權(quán)平均臉圖像。
采用本發(fā)明可以達到以下技術(shù)效果 (1)本發(fā)明在對國際通用人臉庫進行識別時,采用加權(quán)平均臉圖像用作匹配模板,有效剔除了影響識別的冗余甚至錯誤信息,得到了較高的識別率。
(2) 本發(fā)明在圖像映射時采用快速線性插值法,計算簡單、快速。
(3) 本發(fā)明采用人臉偏轉(zhuǎn)角度自動判定法準確判定圖像中人臉的左右偏轉(zhuǎn)
角度,并依據(jù)該偏轉(zhuǎn)角度確定圖像加權(quán)權(quán)值,減少了信息失真,得到了準確
的結(jié)果。


圖1為背景技術(shù)原始圖像向標準正面模板映射得到形狀圖與結(jié)構(gòu)圖過程示意 圖。
圖2為背景技術(shù)中Jenkins等人公布的人臉圖像平均法過程示意圖。 圖3為本發(fā)明第一步中目標三角形與原始三角形對應點關(guān)系示意圖。 圖4為左右偏側(cè)人臉向標準正面模板映射時信息失真示意圖。 圖5為本發(fā)明第二步標記了中軸線、左右邊界線的人臉形狀圖。 圖6為圖像中人臉左右偏轉(zhuǎn)角度函數(shù)關(guān)系示意圖。 圖7為本發(fā)明第三步權(quán)值設置示意圖。
圖8為采用本發(fā)明得到的加權(quán)平均結(jié)構(gòu)圖向加權(quán)平均形狀圖映射得到加權(quán)平
均臉圖像的處理結(jié)果。
圖9為仿真驗證算法流程圖。
圖10為利用PCA,特征空間由簡單平均人臉、加權(quán)平均人臉及訓練樣本分
別生成時,不同維數(shù)特征空間得到的識別準確率曲線。
具體實施例方式
圖1為原始圖像向標準正面模板映射得到形狀圖與結(jié)構(gòu)圖過程示意圖,
圖l(a)是一幅標記了特征點的原始圖像;圖l(b)是標準正面模板示意圖;圖l(C)是將原始圖像向標準正面模板映射后得到的人臉結(jié)構(gòu)圖;圖l(d)是相應 的人臉形狀圖。在圖1中,由于人臉偏側(cè)產(chǎn)生的遮擋導致原始圖像所生成的 正面結(jié)構(gòu)圖,在鼻尖、嘴角處已經(jīng)出現(xiàn)了扭曲和失真。
圖2為背景技術(shù)中Jenkins等人公布的人臉圖像平均法處理過程圖,圖 2(A)為采集得到的A幅原始人臉圖像;圖2(B)為將每一幅原始圖像向標準正 面模板映射得到的相應結(jié)構(gòu)圖別,52,...,說,平均后得到平均結(jié)構(gòu)圖^圖2(0 為將每一幅原始圖像對應的形狀圖Cl,C2,…,Ot,平均后得到平均形狀圖5; 圖2(D)為將平均結(jié)構(gòu)圖向平均形狀圖映射,得到的平均臉圖像。
圖3為本發(fā)明第一步快速線性插值法示意圖。顯然,在原始人臉圖像上 標記特征點生成的形狀圖將人臉切分為若干個三角形區(qū)域,快速線性插值法 基本思想是將這些三角形區(qū)域向標準正面模板中對應的三角形區(qū)域進行映 射,圖3(a)為目標三角形;圖3(b)為原始三角形。計算方法如下
首先,求解目標三角形ABC內(nèi)任一點P(x,力在原始三角形中的對應點 Po(x。,y。M立置,變量"為P點與B點到線段AC距離之比,p為P點與C點 到線段AB距離之比。設A, B, C三點的坐標分別是(XA, yA), (xB, _yB), (xc, 凡),則線段AC與AB的方程為
線段AC: x(_yc-h) + _v(X4-xc)-xjc+ Xc力二O
線段AB: + 二O
根據(jù)線段方程,可以計算出a和"的值.-
& (少c — h ) +力_ & ) — ^!少C + &力
^= ^0^-^4)+;^(、-^ )-^:^+義s力
4: -少d ) +外(^4 - & ) - + h由平面幾何知識可得,當0《《《1, 0《/ 《1,表示P點在三角形ABC內(nèi)
部;當《=0時,P點就在線段AC上;當〃=0, P點就在線段AB上。同理
可得三角形A。B。C。中
a = 、M:"-》'4,) + A)K + 力。
°&丸-XO + ^K -X(.'")-+ ^入
0 、 (A,-八,)+凡' K - x ) - x々A + X 其中,變量"。為P。點到線段4)C。距離與5。點到線段4C。距離之比,^為P。點
到線段4&距離與C。點到線段^5。距離之比。
要完成圖像映射,必須有《 = 。,= 聯(lián)立上述4式可解得P。點坐標
通過P。點即可確定目標點P上的像素值,也即
g尸二 S"P(〗
圖4為本發(fā)明第二步所述偏側(cè)圖像信息提取失真示意圖。圖4(a)是原始 圖像;圖4(b)是標準正面模板;圖4(c)是原始圖像向標準正面模板映射后得 到的結(jié)構(gòu)圖。圖中給出了一張偏側(cè)角度很大的原始圖像,其得到的結(jié)構(gòu)圖對 被遮擋的左半邊臉的信息描述產(chǎn)生了較大的失真。
圖5為本發(fā)明第二步標記了中軸線、左右邊界線的人臉形狀圖。定義中 軸線為由左右眼角間距中心點和鼻尖點確定的直線;左邊界線為過面部最左 端標記點與中軸線平行的直線;右邊界線為過面部最右端標記點與中軸線平 行的直線;《、^為左右邊界線到中軸線的距離。
圖6為本發(fā)明第二步人臉左右偏轉(zhuǎn)角度函數(shù)關(guān)系圖。人臉左右偏轉(zhuǎn)角度 可按下式確定P = arcsin
2《 +1/,
一l
其中,&
7T ;r 2
特別地,々W+《)-0時,0 = -i,人臉向右偏轉(zhuǎn)90度;
《/ +《)=0.5時,0 = 0,正面人臉;《/(《+Ol時,6 = |,人臉向左偏轉(zhuǎn) 90度。
圖7為本發(fā)明第三步權(quán)值設置示意圖。依據(jù)第二步判定得到的偏轉(zhuǎn)角度, 權(quán)值設置的基本原則是加大正面姿態(tài)圖像權(quán)值,減小偏側(cè)姿態(tài)圖像權(quán)值;具 體地
(1)《
2
時,定義如下高斯型函數(shù):
s,))2
W/二
.6
(2)《=-|或《=|,即當人臉向左或右偏側(cè)角度達到90度時,采用兩
種權(quán)值設置方法
1
,))2
當ytS5時,未被遮擋的半張臉權(quán)值設為w,二"^e
V2"
:,被遮擋的半張
^權(quán)值設為o,即參與平均的圖像樣本數(shù)量較少時僅利用未被遮擋的半張臉
信息參與后續(xù)處理;
當*>5時,整幅圖像權(quán)值設為0,即參與平均的圖像樣本足夠多時舍棄 僅含有半張人臉信息的圖像。
最終得到的各權(quán)值滿足歸 一化條件w, + w2 +... + ^ = 1 。
圖8為采用本發(fā)明對原始圖像進行加權(quán)平均處理得到的平均臉圖像。圖 8(a)是加權(quán)平均得到的加權(quán)平均結(jié)構(gòu)圖;圖8(b)是加權(quán)平均得到的加權(quán)平均形狀圖;圖8(C)是加權(quán)平均結(jié)構(gòu)圖向加權(quán)平均形狀圖映射得到的加權(quán)平均臉 圖像。依照本發(fā)明第三步確定的權(quán)值, 加權(quán)平均結(jié)構(gòu)圖5各點像素值為
gy;W!gX+…+ ^gJ '、1,.』,J、1,…,M 其中,W!+W2+ =1 o
加權(quán)平均形狀圖各特征點的坐標為
= + w2《+…+《,= w乂 + w2《+…+ w乂。 , "。 = 1,...,34
連接相應特征點,生成加權(quán)平均形狀圖。
將加權(quán)平均結(jié)構(gòu)圖向加權(quán)平均形狀圖映射,即得到了加權(quán)平均臉圖像。 加權(quán)平均臉圖像對人臉關(guān)鍵結(jié)構(gòu)部位如眼睛、鼻子、嘴等的描述更準確,且 剔除了局部陰影的影響,結(jié)果更加可靠。
圖9為仿真驗證方法流程圖。首先對訓練集圖像簡單平均或加權(quán)平均, 生成平均人臉描述圖;對平均人臉進行PCA降維處理,生成低維特征空間; 將訓練集樣本向特征空間投影,再將測試集樣本向特征空間投影,結(jié)果與訓 練集樣本進行比對,最后利用最近鄰方法計算識別準確率。
圖10為利用圖9所示的仿真驗證方法驗證特征空間由簡單平均人臉、 加權(quán)平均人臉及訓練樣本分別生成時,不同維數(shù)特征空間得到的識別準確率 曲線。試驗中,對于左右偏側(cè)達到90度的圖像權(quán)值設置為0,即舍棄僅含半 張臉信息的圖像。從原始圖像樣本或簡單平均人臉圖像中提取特征,識別準 確率低于特征空間由加權(quán)平均人臉圖像生成的情況。這是因為加權(quán)平均臉圖 像減少了信息失真的影響,準確描述了面部的主要結(jié)構(gòu)特征,由其生成的特 征空間能有效提取人臉的主要類別信息,剔除了影響識別的冗余信息,從而在識別中得到了較高的準確率。
權(quán)利要求
1. 一種基于圖像加權(quán)平均的自動人臉識別方法,其特征在于包括以下步驟第一步,在原始圖像上標記34個特征點,生成人臉形狀圖,將人臉切分為若干個三角形區(qū)域;第二步,將人臉形狀圖內(nèi)的原始人臉圖像映射到標準正面形狀模板上,得到人臉結(jié)構(gòu)圖;第三步,采用人臉左右偏轉(zhuǎn)角度自動判定法確定圖像中人臉的左右偏轉(zhuǎn)角度首先在原始圖像標記特征點生成的人臉形狀圖上確定人臉中軸線即由左右眼角間距中心點和鼻尖點確定的直線、左邊界線即過面部最左端標記點與中軸線平行的直線、右邊界線即過面部最右端標記點與中軸線平行的直線,并定義d1、d2為左右邊界線到中軸線的距離;取向左偏轉(zhuǎn)為正方向,則人臉左右偏轉(zhuǎn)角度按下式確定其中,第四步,依據(jù)人臉左右偏轉(zhuǎn)角度對每一張圖像賦予相應權(quán)值進行平均,得到平均結(jié)構(gòu)圖<overscore>G</overscore>=(<overscore>g</overscore>ij)m×n與平均形狀圖,m、n為正整數(shù)步驟1,依據(jù)第l幅圖像的人臉左右偏轉(zhuǎn)角度θl對第l幅圖像設置一個權(quán)值wl,l=1,...k,k為參加平均的原始圖像數(shù)目,方法是加大正面姿態(tài)圖像權(quán)值,減小偏側(cè)姿態(tài)圖像權(quán)值,即(1)時,定義如下高斯型函數(shù)(2)或即當人臉向左或右偏側(cè)角度達到90度時當k≤5時,未被遮擋的半張臉權(quán)值設為被遮擋的半張臉權(quán)值設為0,即參與平均的圖像樣本數(shù)量較少時僅利用未被遮擋的半張臉信息參與后續(xù)處理;當k>5時,整幅圖像權(quán)值設為0,即參與平均的圖像樣本足夠多時舍棄僅含有半張人臉信息的圖像;最終得到的各權(quán)值滿足歸一化條件w1+w2+...+wk=1;步驟2,加權(quán)平均結(jié)構(gòu)圖<overscore>G</overscore>各點像素值為 i=1,...m,j=1,...,n(5)步驟3,加權(quán)平均形狀圖各特征點的坐標為 n0=1,...,34連接相應特征點,生成加權(quán)平均形狀圖;第五步,將加權(quán)平均結(jié)構(gòu)圖<overscore>G</overscore>向加權(quán)平均形狀圖映射,得到加權(quán)平均臉圖像。
2.如權(quán)利要求1所述的一種基于圖像加權(quán)平均的自動人臉識別方法, 其特征在于將人臉形狀圖內(nèi)的原始人臉圖像映射到標準正面形狀模板上和 將加權(quán)平均結(jié)構(gòu)圖向加權(quán)平均形狀圖映射均采用快速線性插值法,過程是 設標準正面模板上的目標三角形ABC的三個頂點A,B,C的坐標分別是(XA, A),",外),(化,化),則線段AC與AB的方程為線段AC: x<>c-h) + :K^-xc)-wc+ =0線段AB: + =0根據(jù)線段方程,P點到線段AC距離與B點到線段AC距離之比a和P點到 線段AB距離與C點到線段AB距離之比p的值分別為xb (尺..力)+ h (Xj - xc.) - xj(. + w」 _少.4) +外(xj _ ^) 力+ ^少」當0《a《1, 0《p《l,表示P點在三角形ABC內(nèi)部;當《=0時,P點就 在線段AC上當/ =0, P點就在線段AB上;同理可得原始圖像中的三角 形A。B。C。中<formula>formula see original document page 4</formula>(A, -) + A, (、, - 、 ) - x4, A, + x ",,力,, 其中,變量"。為P。點到線段^C。距離與5。點到線段4C。距離之比,/ 。為P。點到線段4A距離與C。點到線段4A距離之比;要完成圖像映射,必須有a二a。,聯(lián)立(1)-(4)式解得P。點坐標(、,力。),通過P。點即可確定目標點P上的像素值,也即g尸二 g/>(,
全文摘要
本發(fā)明公布了一種基于圖像加權(quán)平均的自動人臉識別方法。要解決的技術(shù)問題是提出一種準確、可靠、易于處理的圖像加權(quán)平均處理識別方法。技術(shù)方案是首先利用快速線性插值算法將原始圖像映射到標準正面模板;然后自動判別圖像中人臉的左右偏轉(zhuǎn)角度,并依據(jù)該角度賦予每張圖像相應的權(quán)值進行平均;最后將加權(quán)平均結(jié)構(gòu)圖向加權(quán)平均形狀圖映射得到加權(quán)平均臉圖像。本發(fā)明計算簡單、快速,采用加權(quán)平均臉圖像用作匹配模板,能夠減少信息失真的影響,得到了較高的識別率。
文檔編號G06K9/00GK101458763SQ20081014344
公開日2009年6月17日 申請日期2008年10月30日 優(yōu)先權(quán)日2008年10月30日
發(fā)明者何鵬飛, 尹峻松, 杜立強, 胡德文, 鵬 賈 申請人:中國人民解放軍國防科學技術(shù)大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1