專利名稱:一種基于用戶定制分類器的眼睛狀態(tài)識別方法
技術(shù)領(lǐng)域:
本發(fā)明屬于圖像處理與模式識別技術(shù)領(lǐng)域,涉及駕駛員疲勞檢測技術(shù)。
背景技術(shù):
目前,交通事故每年導致數(shù)以萬計的車輛碰撞和重大的人員傷亡,據(jù)不完全統(tǒng) 計,全世界因道路交通事故導致死亡的人數(shù)超過60萬,其中由于駕駛員疲勞駕駛造成 的交通事故至少有10萬起,直接經(jīng)濟損失達125億美元。駕駛員疲勞駕駛已和酒后駕 駛一樣,成為交通事故的主要隱患。伴隨計算機技術(shù)的發(fā)展,各國研究人員已經(jīng)從各 個領(lǐng)域開始深入研究疲勞駕駛的檢測方法,1998年美國聯(lián)邦高速公路管理局試驗證實 了 PERCL0S(單位時間人眼閉合的百分比)與駕駛員的疲勞狀況具有高度的相關(guān)性, 這為疲勞駕駛檢測開辟了新的思路。詳見文獻D.F.Dinges,and R. Grace, "PERCLOS A valid psychophysiological measure of alertness asassessed by psychomotor vigilance,,,US Department of Transportation, Federal highwayAdministration. Publication Number FHWA-MCRT-98-006?;赑ERCLOS特征的疲勞駕駛檢測方法通常采集駕駛員正面,尤其是眼睛區(qū)域的 視頻圖像進行處理,整個檢測方法主要包括人臉定位、人眼定位、人眼狀態(tài)識別三個過程。 而這些過程都可歸結(jié)為模式識別中對人臉與非人臉、人眼與非人眼、睜眼與閉眼的分類問 題。解決上述分類問題通常有以下幾種經(jīng)典方法(1)SVM,即支持向量機。SVM是一種基于 結(jié)構(gòu)風險最小化的統(tǒng)計學習理論的學習機,被廣泛應(yīng)用于模式識別各個分支。SVM最早由 Vapnik等提出,它特別適用于高維小樣本問題,有很好的推廣能力。(2)FLD,即Fisher線 性鑒別。FLD試圖尋求一個投影方向,使得對2類樣本鑒別最好。求得最佳投影方向Z后, 將所有的樣本投影到最佳投影方向,得到1 = w*Tx,并且選擇一個閾值來進行2類劃分?;贖aar型矩形特征的Adaboost算法。Adaboost算法是一種近年來被廣泛應(yīng)用的學 習算法,它最早由Schapire等人提出,其主要思想是從一個大的弱分類器空間中選出部分 弱分類器,并將它們組合起來構(gòu)成一個強分類器。實驗表明,基于Haar型矩形特征的Adaboost算法魯棒性強、正確率高而且速 度快,具有非常明顯的實際應(yīng)用價值。其具體做法是從正負樣本中提取Haar-Iike特征 向量,然后使用級聯(lián)AdaBoost方法構(gòu)建分類器模型,訓練出分類器的具體參數(shù)。詳見 文獻 Paul Viola andMichael J. Jones. “Rapid Object Detection using a Boosted Cascade of Simple Features,,,IEEECVPR, 2001.和 文獻 R. Lienhart, Α. Kuranov, and V.Pisarevsky. “Empirical analysis of detectioncascades of boosted classifiers for rapid object detection,,,In DAGM25th Pattern RecognitionSymposium,2003。在實際應(yīng)用中,采用基于Haar型矩形特征的Adaboost算法,通過一般的人臉樣本 庫訓練出來的分類器參數(shù)可以運用于人臉定位與人眼定位;而對于眼睛狀態(tài)的識別,該方 法對于大部分人群只能達到一定的準確率,而對于另一部分人群誤識率相對較高,甚至完 全錯誤。這是由于每個人的眼睛睜開與閉合的差異性很大,以及是否配戴眼鏡等習慣,很難用一個通用的分類器進行判別。
發(fā)明內(nèi)容
本發(fā)明提供一種基于用戶定制分類器的眼睛狀態(tài)識別方法,該方法可以根據(jù)不同 的用戶生成不同的眼睛狀態(tài)的分類器,提高眼睛狀態(tài)識別的準確率與適用范圍。為了方便地描述本發(fā)明內(nèi)容,首先對一些術(shù)語進行定義。定義1 眼睛狀態(tài)。對于疲勞駕駛檢測來說,眼睛狀態(tài)分為睜開與閉合兩種類型。定義2 人臉樣本庫。本發(fā)明中的人臉樣本庫是指包含了不同正面人臉的圖像庫。 該數(shù)據(jù)庫的圖像應(yīng)在不同的光照環(huán)境下采集,并且根據(jù)是否配戴眼鏡,劃分為佩戴眼鏡數(shù) 據(jù)庫和未佩戴眼鏡數(shù)據(jù)庫。定義3 人眼中心點。對于睜眼圖像,定義人眼中心點為瞳孔中心位置;對于閉眼 圖像,定義人眼中心點為眼縫中點位置。定義4 三庭五眼。“三庭五眼”是人的臉長與臉寬的比例,在本發(fā)明中認為人眼區(qū) 域?qū)挾葹槿四槍挾鹊氖种?,并且兩人眼之間的距離恰好為一個人眼的寬度。定義5 =Haar-Iike特征向量。Haar-Iike特征最早是由Papageorgiou等人用于 人臉表征。Papageorgiou等人在針對正面人臉和人體檢測問題的研究中使用Haar小波基 函數(shù),他們發(fā)現(xiàn)標準正交Haar小波基在應(yīng)用上受到一定的限制,為了取得更好的空間分辨 率,他們使用了 3種形式的特征。Viola等人在此基礎(chǔ)上作了擴展,使用2種類型共4種形 式的特征。到后來Lienhart又增加了幾種斜邊的矩形特征,使得特征類型達到3種類型14 種形式(如圖2所示)。定義6 :AdaBoost。Adaboost全稱是Adaptive Boost,是一種迭代算法,其核心思 想是針對同一個訓練樣本集訓練不同的分類器(弱分類器),然后把這些弱分類器組合起 來,構(gòu)成一個強分類器。其算法本身是通過改變數(shù)據(jù)分布來實現(xiàn)的,它根據(jù)每次訓練樣本集 之中每個訓練樣本的分類是否正確,以及上次總體分類的準確率,來確定每個訓練樣本的 權(quán)值。將修改過權(quán)值的新訓練樣本集送給下層分類器進行訓練,最后將每次訓練得到的分 類器組合起來作為決策分類器(強分類器)。使用Adaboost分類器可以排除一些不必要的 訓練樣本特征,并將分類的主要依據(jù)放在主要的訓練樣本特征上面。其中常見的Adaboost 有 Discrete AdaBoost、Real AdaBoost 禾口 Gentle AdaBoost。Discrete AdaBoost 是才旨—— 種弱分類器的輸出值限定在{-1,+1}的并經(jīng)權(quán)值調(diào)整生成強分類器的AdaBoost算法;Real AdaBoost是指一種弱分類器輸出范圍為R的并經(jīng)權(quán)值調(diào)整生成強分類器的AdaBoost算法; Gentle AdaBoost是一種針對前面兩種AdaBoost由于對“不像”的正樣本權(quán)值調(diào)整很高而 導致了分類器的效率下降的問題,而產(chǎn)生的變種算法。本發(fā)明技術(shù)方案如下一種基于用戶定制分類器的眼睛狀態(tài)識別方法,如圖1所示,包括以下步驟步驟1 建立人臉圖像數(shù)據(jù)庫A。所述人臉數(shù)據(jù)庫A包括兩個子庫Al和A2,其中 一個子庫Al由除用戶外的、不同個體的、不戴眼鏡的、正面人臉灰度圖像組成,另一個子庫 A2由除用戶外的、不同個體的、配戴眼鏡的、正面人臉灰度圖像組成。人臉數(shù)據(jù)庫A中的人 臉灰度圖像的兩眼中心點距離不小于48個像素單位,睜眼狀態(tài)和閉眼狀態(tài)的人臉灰度圖 像數(shù)量基本一致。
步驟2 建立用戶人臉圖像數(shù)據(jù)庫B。所述用戶人臉圖像數(shù)據(jù)庫B包括兩個子庫Bl 和B2,其中一個子庫Bl由用戶的、不戴眼鏡的、正面人臉灰度圖像組成,另一個子庫B2由用 戶的、配戴眼鏡的、正面人臉灰度圖像組成。人臉數(shù)據(jù)庫B中的人臉灰度圖像的兩眼中心點 距離不小于48個像素單位,睜眼狀態(tài)和閉眼狀態(tài)的人臉灰度圖像數(shù)量基本一致。步驟3 計算人臉圖像數(shù)據(jù)庫A和用戶人臉圖像數(shù)據(jù)庫B中每一幅人臉圖像的人 眼圖像,分別得到與人臉圖像數(shù)據(jù)庫A中兩個子庫Al和A2對應(yīng)的人眼圖像數(shù)據(jù)庫A'的 兩個子庫Al'和A2',以及與用戶人臉圖像數(shù)據(jù)庫B中兩個子庫Bl和B2對應(yīng)的人眼圖 像數(shù)據(jù)庫B'的兩個子庫Bl'和B2'。具體人眼圖像的計算方法為首先計算人臉灰度 圖像兩眼之間的像素距離d ;然后按照三庭五眼的原則,以人眼中心點為中心,截取長與寬 均為d/2像素大小的矩形區(qū)域;將所有矩形區(qū)域縮放至24X24像素大小,并按順時針方向 在-10°至10°范圍內(nèi)隨機旋轉(zhuǎn),最后得到人眼圖像。步驟4 建立混合人眼圖像數(shù)據(jù)庫C。所述混合人眼圖像數(shù)據(jù)庫C包括2N個子庫 (^,^,…(^,…〔^^(^,(^,…(^,…(^;其中子庫^1 (1 < i《N,N為自然數(shù))由步驟3中
所述子庫α '的人眼圖像和子庫Bi'的人眼圖像按照不同比例、隨機混合而成;子庫 2 (1彡i彡Ν,Ν為自然數(shù))由步驟3中所述子庫Α2'的人眼圖像和子庫Β2'的人眼圖像按 照不同比例、隨機混合而成。所述子庫C)和Ci2中的人眼圖像數(shù)量不低于2000。步驟5 計算人眼圖像子庫C/和 2中所有人眼圖像的haar-like特征向量X,所述 haar-like特征向量χ包括3種類型14種形式,并將每個人眼圖像子庫Q1和C/的所有特 征向量χ組合在一起構(gòu)成2Ν個訓練序列力和^ (1彡i彡N);且訓練序列Z,1和Z/可表示為 Kx1J1), (x2,y2),…,(Xpyi),…,(xM,yM)}的形式,其中 Xi 表示Z丨和Z/中第 i 個 haar-like 特征向量…e {_1,1},表示haar-like特征向量Xi所對應(yīng)的人眼圖像睜眼或閉眼的狀態(tài); M為人眼圖像庫C,1和Cf中人眼圖像數(shù)量。 步驟6 對步驟5所得的2N個訓練序列Z/和Z,2 ,采用AdaBoost方法構(gòu)建對應(yīng)2N個 強分類器衧和巧2。步驟7 從步驟3所建立的用戶人眼圖像子庫Bl'中隨機選取1000幅以上的人眼 圖像,計算其haar-like特征向量x,分別采用步驟6所構(gòu)建的強分類器巧進行判斷,得到判 斷結(jié)果1-睜眼,0-閉眼;同樣從步驟3所建立的用戶人眼圖像子庫B2'中隨機選取1000 幅以上的人眼圖像,計算其haar-like特征向量X,分別采用步驟6所構(gòu)建的強分類器巧2進 行判斷,得到判斷結(jié)果1-睜眼,0-閉眼。步驟8 將步驟7所得的判斷結(jié)果與所選取的人眼圖像的實際睜眼或閉眼狀態(tài)進 行比較,進而分別統(tǒng)計出兩組強分類器巧和斤的識別準確率,然后選取強分類器衧中識別 準確率最高的強分類器作為用戶在未佩戴眼鏡進行駕駛過程中的人眼狀態(tài)識別的分類器, 選取強分類器巧2中識別準確率最高的強分類器作為用戶在佩戴眼鏡進行駕駛過程中的人 眼狀態(tài)識別的分類器。步驟9 在用戶駕駛過程中,實時采集用戶的正面臉部圖像,并實時計算出24X24 像素大小的眼部圖像以及該眼部圖像的haar-like特征向量X,最后根據(jù)用戶是否佩戴眼 鏡選擇步驟8中相應(yīng)的強分類器進行人眼狀態(tài)識別。
通過以上步驟,就能根據(jù)不同的用戶使用基于用戶定制的眼睛狀態(tài)分類器,從而 提高個體狀態(tài)識別的準確率。需要說明的是1.步驟1和步驟2在建立人臉數(shù)據(jù)庫A和用戶人臉數(shù)據(jù)庫B時,人臉圖像最好為 在各種不同光照環(huán)境下進行采集。可以首先構(gòu)建一個采集環(huán)境,該采集環(huán)境最好為暗室,配 有可調(diào)控的光源,可以實現(xiàn)光照環(huán)境的明暗變化,能夠在幾分鐘內(nèi)采集到個體的上千幅人 臉圖像。2.步驟6中對所采用的AdaBoost方法沒有特別的限定,各種AdaBoost方法均可 以使用,只是最后準確率略有不同。本發(fā)明根據(jù)用戶定制的思想,采用特征不變的方法,首先分別建立人臉圖像數(shù)據(jù) 庫和用戶人臉圖像數(shù)據(jù)庫;然后分別計算人臉圖像數(shù)據(jù)庫和用戶人臉圖像數(shù)據(jù)庫中每幅 圖像的人眼圖像;再將人臉圖像數(shù)據(jù)庫的人眼圖像與用戶人臉圖像數(shù)據(jù)庫的人眼圖像按 不同比例進行混合,得到混合人眼圖像數(shù)據(jù)庫;再計算混合人眼圖像數(shù)據(jù)庫中每幅圖像的 haar-like特征向量,并采用AdaBoost方法構(gòu)建強分類器;再隨機選取若干幅用戶人臉圖 像數(shù)據(jù)庫中的人眼圖像,計算其haar-like特征向量,采用AdaBoost方法構(gòu)建的強分類器 進行判斷,統(tǒng)計出強分類器的識別準確率,選取識別準確率最高的強分類器作為用戶駕駛 過程中使用的人眼狀態(tài)識別分類器;最后在用戶駕駛過程中,采用該分類器進行人眼狀態(tài) 識別。本發(fā)明的創(chuàng)新之處在于1、將用戶定制的思想運用于人眼狀態(tài)識別中,對于不同用戶使用不同的分類器, 提高了個體人眼狀態(tài)識別的準確率。2、分類器的訓練樣本,采用了用戶數(shù)據(jù)與人臉庫數(shù)據(jù)混合的方法,使得分類器既 能針對個體提高準確率,同時又保證不失一般性,降低識別風險。3、提高佩戴眼鏡的用戶的識別準確率,并且用戶可以選用戴眼鏡與不戴眼鏡兩種 不同分類器,具備靈活性。
圖1是本發(fā)明的流程示意圖。圖2是haar-like特征的示意圖,包括了 3種類型14種形式。圖3是以24X24大小圖像為例各種haar-like特征的數(shù)量。
具體實施例方式—種基于用戶定制分類器的眼睛狀態(tài)識別方法,如圖1所示,包括以下步驟步驟1 建立人臉圖像數(shù)據(jù)庫A。所述人臉數(shù)據(jù)庫A包括兩個子庫Al和A2,其中 一個子庫Al由除用戶外的、不同個體的、不戴眼鏡的、正面人臉灰度圖像組成,另一個子庫 A2由除用戶外的、不同個體的、配戴眼鏡的、正面人臉灰度圖像組成。人臉數(shù)據(jù)庫A中的人 臉灰度圖像的兩眼中心點距離不小于48個像素單位,睜眼狀態(tài)和閉眼狀態(tài)的人臉灰度圖 像數(shù)量基本一致。步驟2 建立用戶人臉圖像數(shù)據(jù)庫B。所述用戶人臉圖像數(shù)據(jù)庫B包括兩個子庫Bl和B2,其中一個子庫Bl由用戶的、不戴眼鏡的、正面人臉灰度圖像組成,另一個子庫B2由用 戶的、配戴眼鏡的、正面人臉灰度圖像組成。人臉數(shù)據(jù)庫B中的人臉灰度圖像的兩眼中心點 距離不小于48個像素單位,睜眼狀態(tài)和閉眼狀態(tài)的人臉灰度圖像數(shù)量基本一致。步驟3 計算人臉圖像數(shù)據(jù)庫A和用戶人臉圖像數(shù)據(jù)庫B中每一幅人臉圖像的人 眼圖像,分別得到與人臉圖像數(shù)據(jù)庫A中兩個子庫Al和A2對應(yīng)的人眼圖像數(shù)據(jù)庫A'的 兩個子庫Al'和A2',以及與用戶人臉圖像數(shù)據(jù)庫B中兩個子庫Bl和B2對應(yīng)的人眼圖 像數(shù)據(jù)庫B'的兩個子庫Bl'和B2'。具體人眼圖像的計算方法為首先計算人臉灰度 圖像兩眼之間的像素距離d ;然后按照三庭五眼的原則,以人眼中心點為中心,截取長與寬 均為d/2像素大小的矩形區(qū)域;將所有矩形區(qū)域縮放至24X24像素大小,并按順時針方向 在-10°至10°范圍內(nèi)隨機旋轉(zhuǎn),最后得到人眼圖像。步驟4 建立混合人眼圖像數(shù)據(jù)庫C。所述混合人眼圖像數(shù)據(jù)庫C包括2N個子庫 C丨丨,'"C^hCL和 2,(:2ν·· 2,···<^;其中子庫C,1 α < i <ν,ν為自然數(shù))由步驟3中 所述子庫Al'的人眼圖像和子庫Bl'的人眼圖像按照不同比例、隨機混合而成;子庫C/ (1彡i彡Ν,Ν為自然數(shù))由步驟3中所述子庫Α2'的人眼圖像和子庫Β2'的人眼圖像按 照不同比例、隨機混合而成。所述子庫 1和Cf2中的人眼圖像數(shù)量不低于2000。步驟5 計算人眼圖像子庫C/和Cf中所有人眼圖像的haar-like特征向量X,所述 haar-like特征向量χ包括3種類型14種形式,并將每個人眼圖像子庫C)和C;2的所有特 征向量χ組合在一起構(gòu)成2Ν個訓練序列Z,1和Z/ (1彡i彡N);且訓練序列Z,1和Z/可表示為 Kxpy1), (x2,y2),…,(XiJi),…,(x ,y )}的形式,其中 Xi 表示Z^PZ,2中第 i 個 haar-like 特征向量…e {-1,1},表示haar-like特征向量Xi所對應(yīng)的人眼圖像睜眼或閉眼的狀態(tài); M為人眼圖像庫C/和C,2中人眼圖像數(shù)量。步驟6 對步驟5所得的2N個訓練序列Z)和Z,2,采用AdaBoost方法構(gòu)建對應(yīng)2N個 強分類器竚和片。步驟7 從步驟3所建立的用戶人眼圖像子庫Bl'中隨機選取1000幅以上的人眼 圖像,計算其haar-like特征向量x,分別采用步驟6所構(gòu)建的強分類器巧1進行判斷,得到判 斷結(jié)果1-睜眼,0-閉眼;同樣從步驟3所建立的用戶人眼圖像子庫B2'中隨機選取1000 幅以上的人眼圖像,計算其haar-like特征向量X,分別采用步驟6所構(gòu)建的強分類器巧2進 行判斷,得到判斷結(jié)果1-睜眼,0-閉眼。步驟8 將步驟7所得的判斷結(jié)果與所選取的人眼圖像的實際睜眼或閉眼狀態(tài)進 行比較,進而分別統(tǒng)計出兩組強分類器斤和疔的識別準確率,然后選取強分類器竚中識別 準確率最高的強分類器作為用戶在未佩戴眼鏡進行駕駛過程中的人眼狀態(tài)識別的分類器, 選取強分類器if中識別準確率最高的強分類器作為用戶在佩戴眼鏡進行駕駛過程中的人 眼狀態(tài)識別的分類器。步驟9 在用戶駕駛過程中,實時采集用戶的正面臉部圖像,并實時計算出24X24 像素大小的眼部圖像以及該眼部圖像的haar-like特征向量X,最后根據(jù)用戶是否佩戴眼 鏡選擇步驟8中相應(yīng)的強分類器進行人眼狀態(tài)識別。本發(fā)明方法與只使用一般人臉庫圖像進行訓練的方法相比較,一般個體準確率提高2%左右,佩戴眼鏡的個體準確率提高3% 5%,運算時間小于0. Is。 綜上所述,本發(fā)明的方法利用用戶定制的思想,將用戶數(shù)據(jù)與人臉庫數(shù)據(jù)相結(jié)合,
采用特征不變的方法訓練出人眼狀態(tài)分類器,從而實現(xiàn)了快速準確的人眼狀態(tài)識別。
權(quán)利要求
一種基于用戶定制分類器的眼睛狀態(tài)識別方法,包括以下步驟步驟1建立人臉圖像數(shù)據(jù)庫A;所述人臉數(shù)據(jù)庫A包括兩個子庫A1和A2,其中一個子庫A1由除用戶外的、不同個體的、不戴眼鏡的、正面人臉灰度圖像組成,另一個子庫A2由除用戶外的、不同個體的、配戴眼鏡的、正面人臉灰度圖像組成;人臉數(shù)據(jù)庫A中的人臉灰度圖像的兩眼中心點距離不小于48個像素單位,睜眼狀態(tài)和閉眼狀態(tài)的人臉灰度圖像數(shù)量基本一致;步驟2建立用戶人臉圖像數(shù)據(jù)庫B;所述用戶人臉圖像數(shù)據(jù)庫B包括兩個子庫B1和B2,其中一個子庫B1由用戶的、不戴眼鏡的、正面人臉灰度圖像組成,另一個子庫B2由用戶的、配戴眼鏡的、正面人臉灰度圖像組成;人臉數(shù)據(jù)庫B中的人臉灰度圖像的兩眼中心點距離不小于48個像素單位,睜眼狀態(tài)和閉眼狀態(tài)的人臉灰度圖像數(shù)量基本一致;步驟3計算人臉圖像數(shù)據(jù)庫A和用戶人臉圖像數(shù)據(jù)庫B中每一幅人臉圖像的人眼圖像,分別得到與人臉圖像數(shù)據(jù)庫A中兩個子庫A1和A2對應(yīng)的人眼圖像數(shù)據(jù)庫A′的兩個子庫A1′和A2′,以及與用戶人臉圖像數(shù)據(jù)庫B中兩個子庫B1和B2對應(yīng)的人眼圖像數(shù)據(jù)庫B′的兩個子庫B1′和B2′;具體人眼圖像的計算方法為首先計算人臉灰度圖像兩眼之間的像素距離d;然后按照三庭五眼的原則,以人眼中心點為中心,截取長與寬均為d/2像素大小的矩形區(qū)域;將所有矩形區(qū)域縮放至24×24像素大小,并按順時針方向在 10°至10°范圍內(nèi)隨機旋轉(zhuǎn),最后得到人眼圖像;步驟4建立混合人眼圖像數(shù)據(jù)庫C;所述混合人眼圖像數(shù)據(jù)庫C包括2N個子庫和其中子庫由步驟3中所述子庫A1′的人眼圖像和子庫B1′的人眼圖像按照不同比例、隨機混合而成;子庫由步驟3中所述子庫A2′的人眼圖像和子庫B2′的人眼圖像按照不同比例、隨機混合而成;所述子庫和中的人眼圖像數(shù)量不低于2000;其中1≤i≤N,N為自然數(shù);步驟5計算人眼圖像子庫和中所有人眼圖像的haar like特征向量x,所述haar like特征向量x包括3種類型14種形式,并將每個人眼圖像子庫和的所有特征向量x組合在一起構(gòu)成2N個訓練序列和且訓練序列和可表示為{(x1,y1),(x2,y2),…,(xi,yi),…,(xM,yM)}的形式,其中xi表示和中第i個haar like特征向量;yi∈{ 1,1},表示haar like特征向量xi所對應(yīng)的人眼圖像睜眼或閉眼的狀態(tài);M為人眼圖像庫和中人眼圖像數(shù)量;步驟6對步驟5所得的2N個訓練序列和采用AdaBoost方法構(gòu)建對應(yīng)2N個強分類器和步驟7從步驟3所建立的用戶人眼圖像子庫B1′中隨機選取1000幅以上的人眼圖像,計算其haar like特征向量x,分別采用步驟6所構(gòu)建的強分類器進行判斷,得到判斷結(jié)果1 睜眼,0 閉眼;同樣從步驟3所建立的用戶人眼圖像子庫B2′中隨機選取1000幅以上的人眼圖像,計算其haar like特征向量x,分別采用步驟6所構(gòu)建的強分類器進行判斷,得到判斷結(jié)果1 睜眼,0 閉眼;步驟8將步驟7所得的判斷結(jié)果與所選取的人眼圖像的實際睜眼或閉眼狀態(tài)進行比較,進而分別統(tǒng)計出兩組強分類器和的識別準確率,然后選取強分類器中識別準確率最高的強分類器作為用戶在未佩戴眼鏡進行駕駛過程中的人眼狀態(tài)識別的分類器,選取強分類器中識別準確率最高的強分類器作為用戶在佩戴眼鏡進行駕駛過程中的人眼狀態(tài)識別的分類器;步驟9在用戶駕駛過程中,實時采集用戶的正面臉部圖像,并實時計算出24×24像素大小的眼部圖像以及該眼部圖像的haar like特征向量x,最后根據(jù)用戶是否佩戴眼鏡選擇步驟8中相應(yīng)的強分類器進行人眼狀態(tài)識別。FSA00000158390500011.tif,FSA00000158390500012.tif,FSA00000158390500013.tif,FSA00000158390500014.tif,FSA00000158390500015.tif,FSA00000158390500016.tif,FSA00000158390500017.tif,FSA00000158390500018.tif,FSA00000158390500019.tif,FSA000001583905000110.tif,FSA000001583905000111.tif,FSA000001583905000112.tif,FSA000001583905000113.tif,FSA000001583905000114.tif,FSA00000158390500021.tif,FSA00000158390500022.tif,FSA00000158390500023.tif,FSA00000158390500024.tif,FSA00000158390500025.tif,FSA00000158390500026.tif,FSA00000158390500027.tif,FSA00000158390500028.tif,FSA00000158390500029.tif,FSA000001583905000210.tif,FSA000001583905000211.tif,FSA000001583905000212.tif,FSA000001583905000213.tif,FSA000001583905000214.tif
全文摘要
本發(fā)明屬于圖像處理與模式識別技術(shù)領(lǐng)域,適用于駕駛員疲勞檢測。首先建立人臉圖像庫和用戶人臉圖像庫,計算每幅圖像的人眼圖像,并按不同比例將兩數(shù)據(jù)庫進行混合;再計算混合人眼圖像庫中每幅圖像的haar-like特征向量,并采用AdaBoost方法構(gòu)建強分類器;再隨機選取若干幅用戶人臉圖像庫中的人眼圖像,對構(gòu)建的強分類器進行判斷,選取識別準確率最高的強分類器作為用戶駕駛過程中使用的人眼狀態(tài)識別分類器。本發(fā)明根據(jù)用戶定制的思想,采用用戶數(shù)據(jù)與人臉庫數(shù)據(jù)混合的方法,對不同用戶使用不同的分類器,使得分類器既能提高識別準確率,又降低了識別風險;本發(fā)明還提供了戴眼鏡與不戴眼鏡兩種不同分類器,使得人眼狀態(tài)識別更具靈活性。
文檔編號G06K9/66GK101908152SQ201010197980
公開日2010年12月8日 申請日期2010年6月11日 優(yōu)先權(quán)日2010年6月11日
發(fā)明者孫睿, 解梅, 馬爭 申請人:電子科技大學