專利名稱::快速三維人耳識別方法
技術(shù)領(lǐng)域:
:本發(fā)明屬于圖像處理
技術(shù)領(lǐng)域:
,具體涉及一種可以自動地從三維深度數(shù)據(jù)中提取出人耳并進(jìn)行識別或認(rèn)證的方法。
背景技術(shù):
:生物識別技術(shù)是利用人的生理特征或行為特征進(jìn)行身份識別的技術(shù),這種鑒別技術(shù)具有比傳統(tǒng)的密碼和身份識別碼等更可靠、更安全的特點(diǎn)。人耳識別是一種較新的生物識別方法,近幾年來受到了國內(nèi)外很多研究者的關(guān)注,這是因為人耳具有唯一性和穩(wěn)定性,可以作為個體生物識別的依據(jù),而且人耳表面具有大量的溝和脊,形狀特征很豐富,還不受胡子、化妝品和表情的影響。另外,人耳數(shù)據(jù)采集比較方便,不需要識別對象較多的配合,適用于監(jiān)視場合。因此,人耳識別是一種很有發(fā)展?jié)摿Φ纳锾卣髯R別技術(shù)。研究人員已經(jīng)發(fā)展了一些基于2D灰度圖像的人耳識別技術(shù),但是這些技術(shù)的性能嚴(yán)重受到陰影、姿態(tài)變化和成像條件等的影響。然而,一個實用的生物識別系統(tǒng)需要具有識別率高、識別速度快和魯棒性好等特點(diǎn)?;谌S表面形狀的人耳識別算法就能夠很好地解決光照、姿態(tài)等問題,魯棒性較好。附圖l就是一個深度傳感器采集的三維人耳例子,圖中坐標(biāo)單位是mm,采用深度傳感器可以獲取人耳的表面形狀。Yan和Bowyer比較了幾種3D人耳識別方法深度數(shù)據(jù)Z通道的主元分析(principlecomponentanalysis,PCA)方f去、基于f果度圖亍象邊緣的hausdorff足巨離方f去、還有利用迭代最近點(diǎn)(iterativeclosestpoints,ICP)配準(zhǔn)后的配準(zhǔn)誤差來識別的方法。所用的人耳數(shù)據(jù)是從側(cè)臉圖像中手動分割出來的。在一個包含302人的數(shù)據(jù)庫上,PCA方法的識別率僅為55.3%,Hausdorff距離方法為67.5%,而使用ICP方法識別率達(dá)到98.8%。他們后來提出了一種耳洞檢測算法用于檢測耳朵位置,在灰度圖像和深度圖像結(jié)合后的圖像上,使用snake算法自動提取人耳區(qū)域,依然使用ICP算法識別人耳。在一個包含415人的數(shù)據(jù)庫里,他們報道的識別率為97.6%,人耳提取過程耗時約1020秒。由于ICP算法運(yùn)算復(fù)雜度很高,所以人耳識別非常慢,匹配一對耳朵就需要58秒。Chen和Bha皿也使用了ICP方法進(jìn)行人耳識別,但他們得到的識別結(jié)果不如Yan等人。Passalis等人使用通用人耳標(biāo)注模型(annotatedearmodel,AEM)對齊和擬合三維人耳,然后提取出用二維表示的耳朵元數(shù)據(jù),通過比較兩個元數(shù)據(jù)之間的LI范數(shù)距離來衡量兩只耳朵的相似程度。對齊操作通過最小化對應(yīng)點(diǎn)深度通道和各彩色通道的誤差加權(quán)和來實現(xiàn),優(yōu)化過程采用的是模擬退火算法。然后使AEM向人耳變形,變形的結(jié)果作為耳朵元數(shù)據(jù)。整個提取過程耗時約30秒。由于識別不涉及復(fù)雜的運(yùn)算,所以速度比較快,匹配一對耳朵所需時間少于1毫秒。但是識別率不高,在包含415人的庫上僅達(dá)到93.9%?,F(xiàn)有的三維人耳識別系統(tǒng)在人耳抽取過程耗時都比較大。基于ICP的三維人耳識別算法存在運(yùn)算復(fù)雜度高、識別速度低等問題,在識別率上也還有一定的提升空間。基于AEM的算法改進(jìn)了識別速度,但識別率降低較多。下面介紹一個本發(fā)明相關(guān)的概念I(lǐng)CPIF是ICP算法的改進(jìn),所以先介紹一下ICP算法。ICP算法是一種用于三維表面精密配準(zhǔn)的算法。其目的是找到一個剛體變換,使得點(diǎn)云P與點(diǎn)云X盡可能地重合。它通過最小化P和X之間對應(yīng)點(diǎn)的距離平方和實現(xiàn)配準(zhǔn)。每一次迭代過程中,對于P中每一個點(diǎn)P,在X中查找空間距離最近的點(diǎn)x作為對應(yīng)點(diǎn)對,然后計算剛體變換使得所有對應(yīng)點(diǎn)對的平方距離之和最小。ICP算法需要一個初始估計,并假設(shè)P里每一個點(diǎn)都能在X中找到對應(yīng)點(diǎn)。查找最近點(diǎn)過程的時間復(fù)雜度為0(NPlog(Nx)),這里NP是采樣點(diǎn)個數(shù),Nx是X中點(diǎn)的個數(shù)。記P的對應(yīng)點(diǎn)集為Q,CP為求取對應(yīng)點(diǎn)的操作,則Q=CP(P,X)。ICP算法描述如下1.初始迭代時,令點(diǎn)集初始位置P。=P,T。為初始剛體轉(zhuǎn)換。2.迭代執(zhí)行以下步驟。a,計算對應(yīng)點(diǎn)集Qk=CP(Pk,X)及對應(yīng)點(diǎn)集的距離{c^=d(Pi,q》}k,其中Pi和Qi是對應(yīng)點(diǎn)的三維空間坐標(biāo),d(Pi,qi)是Pi和qi的L2范數(shù)距離。b,計算平均距離J-4見w尸-2《作為配準(zhǔn)誤差,如果前后兩次迭代的配準(zhǔn)誤差之差小于閾值T或達(dá)到迭代次數(shù)上限,終止迭代。c,計算剛體變換參數(shù)Tk。d,應(yīng)用剛體變換,計算采樣點(diǎn)集的新位置Pk+1。ICP算法保證可以單調(diào)收斂到局部極小,該極小值與初始變換有關(guān),因此,ICP算法獲得的解不一定是全局最優(yōu)解,這就要求初始的相對位置不能與真實的位置相差太大。同時,對于一幅深度圖像上的某一個點(diǎn),在待配準(zhǔn)的深度圖像上可能同時存在多個與該點(diǎn)距離最近的點(diǎn),甚至即使與該點(diǎn)距離最近的點(diǎn)也可能并不是真正與其對應(yīng)的點(diǎn),所以單純依靠距離最近點(diǎn)來選取配準(zhǔn)點(diǎn)并不十分可靠,有時候會引入錯誤的配準(zhǔn)點(diǎn)對。ICPIF是Sharp和Lee提出的一種對傳統(tǒng)ICP算法的改進(jìn),它在迭代過程中使用歐式不變特征(比如曲率)對點(diǎn)進(jìn)行了擴(kuò)展,把特征坐標(biāo)排在空間坐標(biāo)后面,構(gòu)成高維點(diǎn),<formula>formulaseeoriginaldocumentpage5</formula>,其中p'是高維點(diǎn),px、py和pz是空間坐標(biāo),p力到/^是點(diǎn)P的k個特征描述,a是特征權(quán)重,可以通過經(jīng)驗來選取。兩個經(jīng)過擴(kuò)展的點(diǎn)p',q'的L2范數(shù)距離公式為d(p',q')=||p'-q'|12。ICPIF的配準(zhǔn)過程同ICP算法完全一樣,只是把對應(yīng)點(diǎn)集的距離度量方式和最終匹配誤差度量方式由原來的d(p,q)改為d(p',q')。曲率是最常用的歐式不變特征之一,設(shè)曲面上點(diǎn)的主曲率為k"kj、^k》,曲面的方程為f(x,y),則曲面的一階微商和二階微商可表示為<formula>formulaseeoriginaldocumentpage5</formula><formula>formulaseeoriginaldocumentpage5</formula>曲面的高斯曲率K和平均曲率H可由曲面函數(shù)的微商表示為<formula>formulaseeoriginaldocumentpage5</formula>最大主曲率、和最小主曲率k2可由K和H計算得到(2)(3)
發(fā)明內(nèi)容本發(fā)明中,提出了一套新的三維人耳識別方法,相對現(xiàn)有技術(shù),從速度和性能上都進(jìn)行了較大的改進(jìn)。本發(fā)明所述的技術(shù)方案如下所述?!N快速三維人耳識別方法,該方法包含以下步驟a、三維人耳提取階段,利用ICPIF算法使人耳與平均耳對齊,完成人耳位置和姿態(tài)歸一化,然后用固定掩膜提取感興趣的人耳區(qū)域;b、人耳識別與認(rèn)證。其中,人耳提取的流程如下1.耳洞檢測,采用耳洞檢測方法,在側(cè)臉深度圖像中找到人耳位置;2.三角化,把耳洞周圍102X142范圍內(nèi)的點(diǎn)取出來,構(gòu)造三角網(wǎng)格,使用下述網(wǎng)格生成方法在X-Y坐標(biāo)平面上相鄰的任意四個點(diǎn)中添加一條斜邊構(gòu)造2個三角形,而任意相鄰的兩條斜邊不平行,網(wǎng)格上有些頂點(diǎn)數(shù)據(jù)缺失,稱之為無效點(diǎn),把頂點(diǎn)為無效點(diǎn)的三角形去除,然后計算三角形在三維空間中的實際邊長,把最大邊長大于5mm的三角形標(biāo)記為不可信任三角;3.坐標(biāo)中心化,通過計算耳洞周圍小范圍內(nèi)點(diǎn)坐標(biāo)的均值,得到耳洞的三維坐標(biāo)。然后進(jìn)行坐標(biāo)平移,使耳洞坐標(biāo)與坐標(biāo)原點(diǎn)重合,完成耳朵的預(yù)處理;4.均勻重采樣,對網(wǎng)格進(jìn)行均勻重采樣,采樣點(diǎn)在X方向和Y方向都是均勻分布的,采樣間隔定為0.63mm,X坐標(biāo)范圍是(-25,25)mm,Y坐標(biāo)范圍(-35,35)mm。采樣點(diǎn)落在不可信任三角內(nèi)的點(diǎn)標(biāo)記為無效點(diǎn);5.表面擬合,采用從mathworks網(wǎng)站下載的gridfit代碼,該代碼通過權(quán)衡擬合結(jié)果對原始數(shù)據(jù)點(diǎn)的逼近程度和相鄰點(diǎn)梯度的一致性來實現(xiàn)表面擬合,使用平滑參數(shù)調(diào)節(jié)兩者的重要性程度,優(yōu)選的,平滑參數(shù)取為10。6.曲率計算由公式(1)、(2)、(3)計算每個點(diǎn)的主曲率、、k2(、>k2);7.如果迭代次數(shù)沒有達(dá)到上限,繼續(xù)第8步;否則,把落在人耳第二掩膜內(nèi)的數(shù)據(jù)點(diǎn)取出來,提取完成;8.把落在第一掩膜內(nèi)的數(shù)據(jù)點(diǎn)提取出來;9.使用主曲率Vk2作為每個點(diǎn)的不變特征,這樣每個點(diǎn)可以用一個5維向量(x,y,z,、,k2)表示,然后與平均耳做ICPIF對齊,計算出最佳轉(zhuǎn)動矩陣和平移向量;10.應(yīng)用最佳轉(zhuǎn)動矩陣和平移向量,使三維網(wǎng)格轉(zhuǎn)動到新位置。回到第4步。其中,所述用固定掩膜提取感興趣的人耳區(qū)域是指對齊過程使用的是第一掩膜,第一掩膜包含了少量耳朵輪廓外部的數(shù)據(jù)點(diǎn),提取最終人耳區(qū)域使用的是第二掩膜,提取的是耳闊內(nèi)部和部分臉頰方向的數(shù)據(jù)點(diǎn)。其中,所述平均耳的獲得流程如下首先執(zhí)行人耳提取過程中的步驟16,分別計算Z坐標(biāo)和兩個主曲率的平均值,得到初步平均耳,接著使原型耳與初步平均耳對齊,完成姿態(tài)歸一化,再計算它們的平均Z坐標(biāo)和平均主曲率作為新的平均耳。其中,所述的人耳識別與認(rèn)證可采用PCA方法,即通過深度圖像和最小主曲率圖像的組合得到耳朵向量,再把它投影到由原型耳圖像建立的PCA基上,得到維數(shù)大大壓縮后的特征向量,最后同原型耳的特征向量逐一比較余弦距離得到識別結(jié)果;或者ICPIF方6法,即提取每個點(diǎn)的兩個主曲率作為不變特征,加權(quán)后參與最近點(diǎn)查找過程和配準(zhǔn)誤差計算,迭代地修正剛體變換參數(shù),使待測耳朵與原型耳的均方距離最小,使用這個平均距離作為配準(zhǔn)誤差,與待測耳朵配準(zhǔn)誤差最小的原型耳被認(rèn)為是同一只耳朵。本發(fā)明提出的快速三維人耳識別方法工作穩(wěn)定,效果良好,速度很快。所提議的結(jié)合深度信息和曲率信息的PCA算法,識別率達(dá)98.6%,識別時間僅為0.007秒,人耳認(rèn)證的等錯誤率僅為0.5%,所提議的基于ICPIF的3D人耳識別算法,識別率高達(dá)99.8%,運(yùn)算速度也較ICP算法有所提升。圖l是曲率圖像的直方圖均衡效果圖,其中(a)直方圖均衡前,(b)直方圖均衡后,(c)深度圖像,(d)均衡后最大主曲率圖像,(e)均衡后最小主曲率圖像圖2是唯一識別錯誤的一對耳朵的圖,其中(a)原型耳,(b)測試耳朵圖3是人耳識別的性能曲線圖,其中(a)CMC曲線(b)ROC曲線具體實施例方式現(xiàn)依據(jù)附圖,對本發(fā)明做進(jìn)一步的描述。實施例1所使用的數(shù)據(jù)是來自UniversityofNotreDame的3D人耳數(shù)據(jù)庫(theUniversityofNotreDamepublicdataset,醫(yī)),這是至lj目前為止公開可用的最大三維人耳庫。它共有830個數(shù)據(jù)集,來自415個人。所有數(shù)據(jù)集都是使用Minolta910激光掃描儀掃描左側(cè)臉獲取的,包含X、Y、Z三個坐標(biāo)的深度圖像以及對應(yīng)的RGB彩色圖像,分辨率為640X480。系統(tǒng)運(yùn)行的硬件環(huán)境是Intel(R)Xeon(R)四核處理器,2.33GHz,內(nèi)存4G。軟件環(huán)境是MatlabR2008a。基于PCA的人耳識別原理PCA是應(yīng)用最廣泛的一種特征提取方法之一,它是一種統(tǒng)計學(xué)方法,在信號處理、模式識另U、數(shù)字圖像處理等領(lǐng)域已得到了廣泛應(yīng)用。PCA的基本思想是提取出空間原始數(shù)據(jù)分布的主要特征(主元),減少數(shù)據(jù)冗余,使得數(shù)據(jù)在一個低維的特征空間被處理,同時保持原始數(shù)據(jù)的絕大部分信息,從而解決數(shù)據(jù)空間維數(shù)過高問題。曲率是三維表面的局部描述,不同人耳的曲率分布存在較大差異,因此曲率圖也可用于人耳識別。由于傳感器采集的三維點(diǎn)坐標(biāo)數(shù)據(jù)含有噪聲,而曲率對噪聲尤為敏感,導(dǎo)致曲率圖像的灰度級分布范圍很大,某些點(diǎn)的曲率顯著高于周圍點(diǎn),表現(xiàn)為尖峰,參見圖1中(a)所示。這些尖峰的存在會嚴(yán)重影響PCA識別的效果,所以使用了直方圖均衡化方法,使主曲率的灰度級在(01)之間均勻分布,其效果如圖1中(b)所示。我們也嘗試過使用中值濾波消除噪聲,但發(fā)現(xiàn)效果沒有直方圖均衡方法好。最終用于識別的三種人耳圖像如圖1中(c)、(d)和(e)所示。單獨(dú)使用一幅圖像識別效果不理想時,還可以把多幅圖像組合作為一只耳朵的表征。實際計算中,把曲率灰度乘以權(quán)重16,然后與Z坐標(biāo)組合。使用PCA進(jìn)行降維,提取掩膜內(nèi)的點(diǎn)形成一個長向量,向量長度就是樣本維數(shù),一幅圖像的有效點(diǎn)數(shù)為4054個,使用N幅圖像組合的樣本維數(shù)就是4054N,樣本個數(shù)為415個。由于樣本稀疏,所以降維后數(shù)據(jù)維數(shù)一定小于415,得到了大幅壓縮,加快了識別比較速度。在人耳識別之前,先利用原型耳計算投影基和各原型耳的特征向量。識別時,將測試耳投影到這個基上,得到特征向量,然后使用最近鄰分類得到識別結(jié)果。認(rèn)證時,通過特征相似度閾值來判定接受還是拒絕。人耳識別時利用特征向量的相似性測度進(jìn)行分類,嘗試了三種測度歐式距離測度、余弦測度和Tanimoto測度。對于特征向量u、v,它們之間的相似性度量記為S(u,v),值越大越相似。歐式距離測度,兩個向量終點(diǎn)間的歐式距離,其值越小,相似度越大,所以加個負(fù)號,雖,v)=-1"-v||2=-^/(M-vfO-v)余弦測度,兩個向量之間夾角的余弦值,其值越大,相似度越大,S(>,v)=Tanimoto測度,是余弦測度的變形,也是值越大,相似度越大,SO,V)=^~^~^。WW+VV+WV基于ICPIF的人耳識別原理ICPIF算法中所用的點(diǎn)不僅有整體的位置信息,還有曲面的局部特性,因而對剛體表面的描述性更強(qiáng)。由于ICPIF的配準(zhǔn)誤差也是一種整體和局部相結(jié)合的誤差表征,因此用它來衡量兩個耳朵表面的相似程度應(yīng)該比ICP方法更精確,從而能獲得更高的識別率。在實驗中使用了曲面的主曲率作為不變特征,設(shè)其幅度分別為、和k2(、^k》。把它們與三維點(diǎn)坐標(biāo)相結(jié)合,這樣每個點(diǎn)都用一個五維向量來表征P二(Px,Py,Pz,a、,ak2)G口s,其中a是特征部分的加權(quán)系數(shù),實驗中取為3.0。使用ICPIF算法使測試耳與原型庫里的每一個樣本進(jìn)行配準(zhǔn),與測試耳配準(zhǔn)誤差最小的那只被認(rèn)為是同一個人的耳朵。人耳認(rèn)證時,通過配準(zhǔn)誤差閾值來判定接受還是拒絕。當(dāng)測試耳數(shù)據(jù)點(diǎn)數(shù)很多時,ICPIF方法運(yùn)算很慢,因此在匹配過程中采取了一些措施來加快運(yùn)算,例如,查找最近點(diǎn)時,使用了ApproximateNearestNeighbors(ANN)的代碼,限制迭代為次數(shù)上限為15次,當(dāng)前后兩次配準(zhǔn)誤差的差小于0.001時,認(rèn)為配準(zhǔn)完成。由于用于配準(zhǔn)的兩只耳朵可能只存在部分交集,曲率也存在尖峰點(diǎn),所以計算剛體變換參數(shù)時,把大于平均距離+2倍網(wǎng)格精度的點(diǎn)對去除了,計算最終的匹配誤差時也只使用了距離較小的90%的點(diǎn)對。實施例2人耳提取的流程如下1.耳洞檢測,采用耳洞檢測方法,在側(cè)臉深度圖像中找到人耳位置;2.三角化,把耳洞周圍102X142范圍內(nèi)的點(diǎn)取出來,構(gòu)造三角網(wǎng)格,使用下述網(wǎng)格生成方法在X-Y坐標(biāo)平面上相鄰的任意四個點(diǎn)中添加一條斜邊構(gòu)造2個三角形,而任意相鄰的兩條斜邊不平行,網(wǎng)格上有些頂點(diǎn)數(shù)據(jù)缺失,稱之為無效點(diǎn),把頂點(diǎn)為無效點(diǎn)的三角形去除,然后計算三角形在三維空間中的實際邊長,把最大邊長大于5mm的三角形標(biāo)記為不可信任三角;3.坐標(biāo)中心化,通過計算耳洞周圍小范圍內(nèi)點(diǎn)坐標(biāo)的均值,得到耳洞的三維坐標(biāo)。然后進(jìn)行坐標(biāo)平移,使耳洞坐標(biāo)與坐標(biāo)原點(diǎn)重合,完成耳朵的預(yù)處理;84.均勻重采樣,對網(wǎng)格進(jìn)行均勻重采樣,采樣點(diǎn)在X方向和Y方向都是均勻分布的,采樣間隔定為0.63mm,X坐標(biāo)范圍是(-25,25)mm,Y坐標(biāo)范圍(-35,35)mm。采樣點(diǎn)落在不可信任三角內(nèi)的點(diǎn)標(biāo)記為無效點(diǎn);5.表面擬合,采用從mathworks網(wǎng)站下載的gridfit代碼,該代碼通過權(quán)衡擬合結(jié)果對原始數(shù)據(jù)點(diǎn)的逼近程度和相鄰點(diǎn)梯度的一致性來實現(xiàn)表面擬合,使用平滑參數(shù)調(diào)節(jié)兩者的重要性程度,優(yōu)選的,平滑參數(shù)取為10。6.曲率計算由公式(1)、(2)、(3)計算每個點(diǎn)的主曲率kpkj、>k2);7.如果迭代次數(shù)沒有達(dá)到上限,繼續(xù)第8步;否則,把落在人耳第二掩膜內(nèi)的數(shù)據(jù)點(diǎn)取出來,提取完成;8.把落在第一掩膜內(nèi)的數(shù)據(jù)點(diǎn)提取出來;9.使用主曲率Vk2作為每個點(diǎn)的不變特征,這樣每個點(diǎn)可以用一個5維向量(x,y,z,、,k2)表示,然后與平均耳做ICPIF對齊,計算出最佳轉(zhuǎn)動矩陣和平移向量;10.應(yīng)用最佳轉(zhuǎn)動矩陣和平移向量,使三維網(wǎng)格轉(zhuǎn)動到新位置?;氐降?步。采用上述方法能夠成功提取所有耳朵,得到有效點(diǎn)數(shù)為4054個。由于人耳檢測不是本發(fā)明的重點(diǎn),所以只比較提取過程所消耗的時間。所提議人耳提取算法中最耗時的步驟是曲面擬合。每提取一只耳朵需要進(jìn)行3次曲面擬合,每進(jìn)行1次曲面擬合需要0.3秒,所以人耳提取過程耗時約1秒,而且基本恒定。G.Passalis對齊使用的是模擬退火算法,整個提取過程需要30秒,PingYan的系統(tǒng)使用snake算法,提取過程需要10-20秒,如表1所示。顯然本發(fā)明的方法要快得多,而且沒有使用2D紋理信息,因而適用范圍會更廣泛。表1人耳提取時間和所用數(shù)據(jù)的比較<table>tableseeoriginaldocumentpage9</column></row><table>實施例3利用自動提取的人耳,分別使用深度圖像Rp最大主曲率圖像、、最小主曲率圖像k2以及它們的組合在415個原型耳上訓(xùn)練PCA投影基,保留80%的能量,然后分別使用歐式距離測度、余弦測度和Tanimotc)測度進(jìn)行最近鄰分類,實驗結(jié)果如表2所示。表2PCA方法的識別率與所用圖像和相似度測度的關(guān)系<table>tableseeoriginaldocumentpage9</column></row><table>可以看出余弦測度或Tanimoto測度之間沒有顯著差別,但均高于歐式距離測度。單獨(dú)使用一種圖像時,最小主曲率優(yōu)于最大主曲率,后者又優(yōu)于深度圖像。在組合圖像中采用深度圖像和最小主曲率組合的方式能達(dá)到較好的識別效果,在余弦測度或Tanimoto測度下達(dá)到最高識別率98.6%。本發(fā)明后面提到PCA算法指標(biāo)都是使用深度圖像和最小主曲率的組合在余弦測度下得到的結(jié)果。實施例4查找最近點(diǎn)是ICPIF算法的瓶頸所在,我們使用的ANN代碼,它查找一個點(diǎn)的最近點(diǎn)的平均運(yùn)算復(fù)雜度為0(NDXlog2(Nx)),其中Nx是原型耳的數(shù)據(jù)點(diǎn)數(shù),ND是數(shù)據(jù)點(diǎn)的維數(shù)。這樣配準(zhǔn)一對耳朵的運(yùn)算復(fù)雜度為0(IterXNpXN。Xlog2(N》),其中Iter是迭代次數(shù),NP是測試樣本的點(diǎn)數(shù)。從運(yùn)算復(fù)雜度公式可以看出,要降低運(yùn)算時間的方法需要降低迭代次數(shù),降低測試樣本的點(diǎn)數(shù),以及降低原型耳的點(diǎn)數(shù)Np—方面由于Nx在對數(shù)里,對復(fù)雜度貢獻(xiàn)不大,另一方面如果降低原型耳點(diǎn)數(shù),會使找到的對應(yīng)點(diǎn)位置精度嚴(yán)重受損,影響配準(zhǔn)精度,所以保留所有原型耳數(shù)據(jù)點(diǎn)。如果能估計一個比較精確的初始配準(zhǔn)位置,那么能有效降低迭代次數(shù)。本發(fā)明提出的與平均耳對齊的方法,不僅有效解決了耳朵姿態(tài)位置歸一化問題,方便人耳提取,而且給出了一個比較精確的初始配準(zhǔn)位置,降低了迭代次數(shù)。降低運(yùn)算時間最有效的方法是減小Np。對測試樣本進(jìn)行了子抽樣能顯著減小Np。子抽樣符號Sn表示從樣本里每n行n列里取一個點(diǎn),比如S4表示從4行4列里取一個點(diǎn),則實際點(diǎn)數(shù)下降為原來的+><^=1^。我們使用了不同的子抽樣方式進(jìn)行實驗,所得結(jié)果如表3所示。表3子抽樣方式、迭代次數(shù)、識別時間和識別率Tl樣方式迭代次數(shù)運(yùn)行時間(s)識別率(%)<table>tableseeoriginaldocumentpage10</column></row><table>從表3可以看出,隨著數(shù)據(jù)點(diǎn)數(shù)增加,迭代次數(shù)和運(yùn)行時間都顯著增加,但識別率在使用S3、S2、S1子抽樣后的均達(dá)到了最高值99.8%,只有一只耳朵識別失敗。但這是因為庫里這只耳朵的測試樣本和原型樣本存在顯著不同,懷疑是數(shù)據(jù)采集錯誤所致,如圖2所示。本發(fā)明后面提到ICPIF算法指標(biāo)都是使用S3子抽樣得到的結(jié)果。實施例5在三維人耳識別階段,累積匹配特性曲線(Cumulativematchcharacteristiccurve,CMC)如圖3中(a)所示,其中正方形標(biāo)志對應(yīng)PCA方法,三角形標(biāo)志對應(yīng)ICPIF方法??梢钥闯龌赑CA方法的識別率為98.6%,基于ICPIF算法的識別率達(dá)99.8%,這比PingYan等人得到的97.6X要高。在三維人耳認(rèn)證階段,接收器操作特性曲線(Receiveroperatingcharacteristic,ROC)如附圖3中(b)所示,橫坐標(biāo)為錯誤拒絕率FRR,縱坐標(biāo)為錯誤接受率FAR,虛線對應(yīng)PCA方法的ROC曲線,粗實線對應(yīng)ICPIF方法。細(xì)實線是表示FFR和FAR相等的點(diǎn)。粗實線大部分在虛線下方,這說明就人耳認(rèn)證來說,PCA方法性能優(yōu)于ICPIF方法。在數(shù)值上,基于ICPIF算法的等錯誤率(EqualErrorRate,EER)為1.4%,基于PCA方法的等錯誤率僅為0.5%,優(yōu)于PingYan等人得到的1.2%。下面比較一下在UND人耳庫上所做三維人耳識別方法的識別時間、識別率以及認(rèn)證的等錯誤率,如表4所示。可以看出,所提議的基于PCA的方法不論識別率、識別時間還是認(rèn)證的等錯誤率都顯著優(yōu)于現(xiàn)有的文獻(xiàn)。基于PCA的方法識別速度最快,認(rèn)證等錯誤率最低,基于ICPIF的方法識別率最高。表4三維人耳識別方法比較<table>tableseeoriginaldocumentpage11</column></row><table>權(quán)利要求一種快速三維人耳識別方法,該方法包含以下步驟a、三維人耳提取階段,利用ICPIF算法使人耳與平均耳對齊,完成人耳位置和姿態(tài)歸一化,然后用固定掩膜提取感興趣的人耳區(qū)域;b、人耳識別與認(rèn)證。其中,人耳提取的流程如下1)耳洞檢測,采用耳洞檢測方法,在側(cè)臉深度圖像中找到人耳位置;2)三角化,把耳洞周圍102×142范圍內(nèi)的點(diǎn)取出來,構(gòu)造三角網(wǎng)格,使用下述網(wǎng)格生成方法在X-Y坐標(biāo)平面上相鄰的任意四個點(diǎn)中添加一條斜邊構(gòu)造2個三角形,而任意相鄰的兩條斜邊不平行,網(wǎng)格上有些頂點(diǎn)數(shù)據(jù)缺失,稱之為無效點(diǎn),把頂點(diǎn)為無效點(diǎn)的三角形去除,然后計算三角形在三維空間中的實際邊長,把最大邊長大于5mm的三角形標(biāo)記為不可信任三角;3)坐標(biāo)中心化,通過計算耳洞周圍小范圍內(nèi)點(diǎn)坐標(biāo)的均值,得到耳洞的三維坐標(biāo)。然后進(jìn)行坐標(biāo)平移,使耳洞坐標(biāo)與坐標(biāo)原點(diǎn)重合,完成耳朵的預(yù)處理;4)均勻重采樣,對網(wǎng)格進(jìn)行均勻重采樣,采樣點(diǎn)在X方向和Y方向都是均勻分布的,采樣間隔定為0.63mm,X坐標(biāo)范圍是(-25,25)mm,Y坐標(biāo)范圍(-35,35)mm。采樣點(diǎn)落在不可信任三角內(nèi)的點(diǎn)標(biāo)記為無效點(diǎn);5)表面擬合,采用從mathworks網(wǎng)站下載的gridfit代碼,該代碼通過權(quán)衡擬合結(jié)果對原始數(shù)據(jù)點(diǎn)的逼近程度和相鄰點(diǎn)梯度的一致性來實現(xiàn)表面擬合,使用平滑參數(shù)調(diào)節(jié)兩者的重要性程度,優(yōu)選的,平滑參數(shù)取為10。6)曲率計算由公式(1)、(2)、(3)計算每個點(diǎn)的主曲率k1、k2(k1≥k2);7)如果迭代次數(shù)沒有達(dá)到上限,繼續(xù)第8步;否則,把落在人耳第二掩膜內(nèi)的數(shù)據(jù)點(diǎn)取出來,提取完成;8)把落在第一掩膜內(nèi)的數(shù)據(jù)點(diǎn)提取出來;9)使用主曲率k1、k2作為每個點(diǎn)的不變特征,這樣每個點(diǎn)可以用一個5維向量(x,y,z,k1,k2)表示,然后與平均耳做ICPIF對齊,計算出最佳轉(zhuǎn)動矩陣和平移向量;10)應(yīng)用最佳轉(zhuǎn)動矩陣和平移向量,使三維網(wǎng)格轉(zhuǎn)動到新位置?;氐降?步。2.如權(quán)利要求1所述的快速三維人耳識別方法,其特征在于,所述用固定掩膜提取感興趣的人耳區(qū)域是指對齊過程使用的是第一掩膜,第一掩膜包含了少量耳朵輪廓外部的數(shù)據(jù)點(diǎn),提取最終人耳區(qū)域使用的是第二掩膜,提取的是耳闊內(nèi)部和部分臉頰方向的數(shù)據(jù)點(diǎn)。3.如權(quán)利要求1所述的快速三維人耳識別方法,其特征在于,所述平均耳的獲得流程如下首先執(zhí)行人耳提取過程中的步驟16,分別計算Z坐標(biāo)和兩個主曲率的平均值,得到初步平均耳,接著使原型耳與初步平均耳對齊,完成姿態(tài)歸一化,再計算它們的平均Z坐標(biāo)和平均主曲率作為新的平均耳。4.如權(quán)利要求1所述的快速三維人耳識別方法,其特征在于,所述的人耳識別與認(rèn)證可采用PCA方法,即通過深度圖像和最小主曲率圖像的組合得到耳朵向量,再把它投影到由原型耳圖像建立的PCA基上,得到維數(shù)大大壓縮后的特征向量,最后同原型耳的特征向量逐一比較余弦距離得到識別結(jié)果;或者ICPIF方法,即提取每個點(diǎn)的兩個主曲率作為不變特征,加權(quán)后參與最近點(diǎn)查找過程和配準(zhǔn)誤差計算,迭代地修正剛體變換參數(shù),使待測耳朵與原型耳的均方距離最小,使用這個平均距離作為配準(zhǔn)誤差,與待測耳朵配準(zhǔn)誤差最小的原型耳被認(rèn)為是同一只耳朵c全文摘要本發(fā)明提出的快速三維人耳識別方法工作穩(wěn)定,效果良好,速度很快。所提議的結(jié)合深度信息和曲率信息的PCA算法,識別率達(dá)98.6%,識別時間僅為0.007秒,人耳認(rèn)證的等錯誤率僅為0.5%,所提議的基于ICPIF的3D人耳識別算法,識別率高達(dá)99.8%,運(yùn)算速度也較ICP算法有所提升。文檔編號G06K9/00GK101770566SQ200810204830公開日2010年7月7日申請日期2008年12月30日優(yōu)先權(quán)日2008年12月30日發(fā)明者張立明,王斌,陳雷蕾申請人:復(fù)旦大學(xué)