一種基于Kinect傳感器的身份綜合識別方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明設(shè)及一種身份識別方法,尤其是是一種基于Kinect傳感器并融合身高信 息、膚色/發(fā)色信息W及人臉圖像信息的身份綜合識別方法。
【背景技術(shù)】
[0002] 近年來,隨著計算機、互聯(lián)網(wǎng)、人工智能等技術(shù)的突破性發(fā)展,機器人正逐步走入 人們的目常生活領(lǐng)域,提供著各種類型的服務。在服務型機器人的應用中,讓機器人與人進 行各種信息的交流是實現(xiàn)良好服務的前提,而讓機器人快速、正確識別人的身份,如主人、 客戶、陌生人等,從而實現(xiàn)區(qū)分對待,是機器人與人進行交流的基礎(chǔ)保障。
[0003] 在人工智領(lǐng)域,身份驗證可W通過多種技術(shù)實現(xiàn),如輸入密碼、刷ID卡、指紋認證、 虹膜識別等。運些技術(shù)雖然應用廣泛,而且唯一性、保密性較好,但是對于服務于人的服務 型機器人而言,其并不適用。原因很簡單,就是人們更希望像人一樣可W與機器人進行自然 交流,而不是W通過輸入密碼、刷卡等繁瑣方式獲取操控權(quán)。由此可見上述身份認證方式只 作為機器人管理員或者維護人員獲取控制權(quán)的手段較為合適。
[0004] 目前在機器人領(lǐng)域應用較多的身份認證手段主要是基于圖像的人臉識別,其具備 簡單、自然、非接觸的優(yōu)點。但是人臉識別存在著固有缺陷,一方面,識別過程需要被識別人 的配合,W提供正面人臉,而且在光線不好情況下識別效果較差,準確率較低;另一方面,機 器人很容易被入侵者采用照片欺騙。尤其在一些家居場景應用下,機器人的服務對象主要 為家庭成員,只通過人臉識別手段來識別家庭成員,就避免不了需要頻繁要求主人提供正 臉配合,使用非常不方便,靈活性較差,體驗舒適度較低。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明的目的是提供一種基于Kinect傳感器的身份綜合識別方法,其具有實現(xiàn)容 易、識別速度快、準確率高的優(yōu)點,采用本發(fā)明的服務機器人在在家庭應用場景下,不需要 頻繁地要求主人配合,就能實現(xiàn)大部分情況下的身份檢測識別,實用性較強。
[0006] 為解決現(xiàn)有技術(shù)中常用的身份驗證方式不適合服務型機器人采用,而單一基于圖 像的人臉識別技術(shù)需要主人頻繁配合,在光線不好的情況下識別效果較差,且容易被入侵 者采用照片欺騙的技術(shù)問題,本發(fā)明提供的一種基于Kinect傳感器的身份綜合識別方法, 包括注冊過程和識別過程,并具體包括W下步驟:
[0007] 一、讓注冊人員在Kinect傳感器前多角度轉(zhuǎn)動人臉,并在不同位置做不同的肢體 動作,W獲取該注冊人員的多組人體特征,每組人體特征均包括人臉圖像信息、膚色/發(fā)色 信息和人體身高信息;
[000引二、基于該注冊人員的多組人臉圖像信息,提取化ar-Like特征并通過SVM算法單 獨訓練人臉識別分類器,W獲取該注冊人員的人臉識別分類器結(jié)果;
[0009] Ξ、基于該注冊人員的多組膚色/發(fā)色信息,通過累計獲取該注冊人員的膚色/發(fā) 色混合高斯模型;
[0010] 四、基于該注冊人員的多組人體身高信息,通過計算獲取該注冊人員的身高平均 值和標準差;
[0011] 五、將步驟二、步驟Ξ和步驟四得到的結(jié)果存入數(shù)據(jù)庫W完成該注冊人員的信息 注冊,并依照該注冊人員的注冊方式完成所有注冊人員的信息注冊;
[0012] 六、注冊完成后,利用Kinect傳感器捕獲當前人員的人體特征,將當前人員的人體 特征與數(shù)據(jù)庫中注冊人員的注冊信息作比較,并依據(jù)比較結(jié)果確定當前人員的身份。
[0013] 進一步的,本發(fā)明一種基于Kinect傳感器的身份綜合識別方法,其中,在步驟一 中,所述獲取注冊人員的人臉圖像信息按W下具體方式實現(xiàn):
[0014] (一)利用Kinect傳感器采集包含注冊人員的深度圖像和彩色圖像,并根據(jù)深度圖 像中的深度點云提取注冊人員的人體骨架關(guān)節(jié)點信息,其中,
[0015] 軀干部分包括頭頂、下飄、胸部、腹部、髓部,依次用C1、C2、C3、C4、巧表示;
[0016] 左手部分包括左手指尖、左手腕、左肘關(guān)節(jié)、左肩關(guān)節(jié),依次用1^、1^2、1^3、1^4表示;
[0017] 右手部分包括右手指尖、右手腕、右肘關(guān)節(jié)、右肩關(guān)節(jié),依次用R1、R2、R3、R4表示; [001引左腿部分包括左腳尖、左腳腕、左膝關(guān)節(jié)、左髓關(guān)節(jié),依次用E1、E2、E3、E4表示;
[0019] 右腿部分包括右腳尖、右腳腕、右膝關(guān)節(jié)、右髓關(guān)節(jié),依次用FI、F2、F3、F4表示;
[0020] (二)W注冊人員的人體骨架中Cl和C2兩個關(guān)節(jié)點的連線為中軸,采用人體分割方 法提取彩色圖像中的人體頭部區(qū)域,作為人體頭部圖像;
[0021] (Ξ)采用人臉識別算法判斷人體頭部圖像是否包括人臉,如果包括人臉則抓取人 臉圖像,作為注冊人員的人臉圖像信息,否則認為不包括人臉。
[0022] 進一步的,本發(fā)明一種基于Kinect傳感器的身份綜合識別方法,其中,在步驟一 中,所述獲取注冊人員的膚色/發(fā)色信息按W下具體方式實現(xiàn):
[0023] ( - )將注冊人員的人體頭部圖像從RGB色域轉(zhuǎn)換為YCbCr色域,并針對人體頭部圖 像中的每個像素點判斷其化Cr彩色分量是否屬于基本膚色分布U(化,吐),如果屬于則標記 為1,如果不屬于則標記為0;
[0024] (二)根據(jù)步驟(一)的判斷和標記結(jié)果,將所有標記為1的像素點作為一個集合,并 計算化化彩色分量的均值和CbCr對應的協(xié)方差矩陣,作為膚色單高斯模型,其中,Cb化彩色 分量均值用μι = ^巧7 表示,協(xié)方差矩陣用表示,膚色單高斯模型用化(山,〇12)表 示;
[0025] (Ξ)根據(jù)步驟(一)的判斷和標記結(jié)果,將所有標記為0的像素點作為一個集合,并 計算化化彩色分量的均值和CbCr對應的協(xié)方差矩陣,作為發(fā)色單高斯模型,其中,Cb化彩色 分量均值用μζ = 巧ST表示,協(xié)方差矩陣方差用〇22表示,發(fā)色單高斯模型用化(μ2, 〇22)表巧。
[00%]進一步的,本發(fā)明一種基于Kinect傳感器的身份綜合識別方法,其中,在步驟Ξ 中,所述膚色/發(fā)色混合高斯模型為N= (μι,山2,化2)。
[0027] 進一步的,本發(fā)明一種基于Kinect傳感器的身份綜合識別方法,其中,在步驟一 中,所述獲取注冊人員的人體身高信息按W下具體方式實現(xiàn):
[002引(一)將人體骨架中的關(guān)節(jié)點分為五組,第1組為((:1,〔2,〔3,〔4,〔5),第2組為化1, 1^2,1^3,1^4),第3組為(1?1,1?2,1?,1?4),第4組為化1店2^3店4),第5組為巧1少2^3,尸4);
[0029] (二)對各組關(guān)節(jié)點集合分別采用最小二乘法擬合Ξ維空間直線,并計算各自的直 線擬合誤差,分別記為Δ 1、Δ 2、Δ 3、Δ 4、Δ 5;
[0030] (S)當所有誤差Δ 1、Δ 2、Δ 3、Δ 4、A 5均小于設(shè)定闊值Τ時,則認為人體處于各關(guān) 節(jié)的伸直狀態(tài),并按如下方法計算表示的人體身高;
[0031]
[0036] α = ( Δ 4+ Δ 5)/( Δ 1+ Δ 2+ Δ 3+ Δ 4+ Δ 5) (6)
[0037] Η=α(出+max(也,也))+2(l-a)max(Ai+A2) (7)
[0038] 在上述公式(1)至(5)中,。G隸示兩關(guān)節(jié)點Cl和C2之間的Ξ維空間距離;而。表 示兩關(guān)節(jié)點C2和C3之間的Ξ維空間距離;而哥i表示兩關(guān)節(jié)點C3和C4之間的Ξ維空間距離; 表示兩關(guān)節(jié)點C4和巧之間的Ξ維空間距離;E7民表示兩關(guān)節(jié)點E1和E2之間的Ξ維空 間距離;表示兩關(guān)節(jié)點E2和E3之間的立維空間距離;雨表示兩關(guān)節(jié)點E3和E4之間 的Ξ維空間距離;表示兩關(guān)節(jié)點F1和F2之間的Ξ維空間距離;表示兩關(guān)節(jié)點F2和 F3之間的Ξ維空間距離;巧巧隸示兩關(guān)節(jié)點F3和F4之間的Ξ維空間距離;?:^:表示兩關(guān)節(jié) 點L1和L2之間的Ξ維空間距離;1?表示兩關(guān)節(jié)點L2和L3之間的Ξ維空間距離;^表示 兩關(guān)節(jié)點L3和L4之間的Ξ維空間距離;表示兩關(guān)節(jié)點L4和C3之間的Ξ維空間距離; 馬Ι?表示兩關(guān)節(jié)點R1和R2之間的Ξ維空間距離;馬馬:表示兩關(guān)節(jié)點R2和R3之間的Ξ維空 間距離;馬馬表示兩關(guān)節(jié)點R3和R4之間的Ξ維空間距離;表示兩關(guān)節(jié)點R4和C3之間 的Ξ維空間距離。
[0039] 進一步的,本發(fā)明一種基于Kinect傳感器的身份綜合識別方法,其中,在步驟六 中,所述利用Kinect傳感器捕獲當前人員的人體特征,將該人體特征與數(shù)據(jù)庫中注冊人員 的注冊信息作比較W確定當前人員的身份,具體包括W下步驟:
[0040] ( - )利用Kinect傳感器獲取當前人員的人體身高信息和膚色/發(fā)色信息;
[0041] (二)根據(jù)當前人員的人體身高信息通過計算并獲得當前人員的身高,查詢數(shù)據(jù)庫 中注冊人員的注冊信息并遍歷每一個注冊人員對應的比-3 Δ h,h+3 Δ h]范圍,判斷是否存 在與當前人員身高相匹配的注冊人員,如果存在且具有唯一性則直接將當前人員識別為對 應的注冊人員,結(jié)束識別并輸出結(jié)果;如果存在但不具有唯一性則進行W下第Ξ步;如果不 存在匹配的注冊人員則進行W下第四步;其中h表示注冊人員的身高平均值,Ah表示標準 差;
[0042] (Ξ)根據(jù)當前人員的膚色/發(fā)色信息,獲取當前人員的膚色/發(fā)色混合高斯模型, 在步驟(二)的基礎(chǔ)上依據(jù)存在與當前人員身高相匹配的注冊人員但不唯一的條件,確定