專利名稱:一種基于人頭計(jì)數(shù)的駕駛培訓(xùn)管理方法
技術(shù)領(lǐng)域:
本發(fā)明屬于視頻計(jì)數(shù)領(lǐng)域,具體涉及一種基于人頭計(jì)數(shù)的駕駛培訓(xùn)管理方法。
背景技術(shù):
在信息化管理水平日益強(qiáng)大的今天,對教室內(nèi)學(xué)員人數(shù)的實(shí)時(shí)統(tǒng)計(jì)計(jì)數(shù)成為駕培行業(yè)管理系統(tǒng)的一種有效途徑。要解決這一難題,單純依靠監(jiān)控設(shè)備和人為的判斷處理,不僅費(fèi)時(shí)費(fèi)力,還得不到準(zhǔn)確的結(jié)果。在垂直攝像頭環(huán)鏡下,不同人頭有近似圓的形狀,但也存在差異,而同一人頭在畫面中的不同位置,形狀也會發(fā)生相應(yīng)變化。使用基于輪廓的方法難以進(jìn)行準(zhǔn)確定位。傳統(tǒng)的視頻計(jì)數(shù)方法無法獲得準(zhǔn)確的計(jì)數(shù)結(jié)果,一個(gè)直接的原因是受環(huán)境影響較大而計(jì)數(shù)不準(zhǔn),因此本專利使用基于學(xué)習(xí)的方法,對人頭進(jìn)行檢測。名稱為基于多源信息融合和在線學(xué)習(xí)的人頭計(jì)數(shù)方法的發(fā)明專利公開了基于多源信息融合和在線學(xué)習(xí)的人頭計(jì)數(shù)方法,其方法利用數(shù)字?jǐn)z像機(jī)采集行人的數(shù)字圖像;應(yīng)用Adaboost級聯(lián)分類器檢測出具有人頭紋理特征的人體區(qū)域;應(yīng)用SVM分類器進(jìn)行篩選,篩選出具有頭部和肩部特殊組合形狀的人體區(qū)域作為最終人體對象并統(tǒng)計(jì)其數(shù)量。該發(fā)明結(jié)合紋理特征和形狀特征,并采用兩級檢測器結(jié)構(gòu),第一級檢測器用來快速排除非人頭區(qū)域,第二級檢測器精確定位人頭區(qū)域,降低虛警率。該方法還通過在線學(xué)習(xí)方式,極大增強(qiáng)其方法的環(huán)境適應(yīng)能力。但該方法無法判斷行人的出入運(yùn)動方向,無法動態(tài)的統(tǒng)計(jì)場景內(nèi)實(shí)際剩有人頭數(shù),而且當(dāng)行人發(fā)生重疊時(shí)定位精度大為下降。
發(fā)明內(nèi)容
本發(fā)明的目的是為了給駕駛培訓(xùn)管理系統(tǒng)提供一種基于人頭計(jì)數(shù)的駕駛培訓(xùn)管理方法,該方法可以對教室或訓(xùn)練場地內(nèi)的學(xué)員人數(shù)進(jìn)行實(shí)時(shí)并精確的計(jì)數(shù)。為實(shí)現(xiàn)以上發(fā)明目的,所采用的技術(shù)方案如下:一種基于人頭計(jì)數(shù)的駕駛培訓(xùn)管理方法,其包括以下步驟:步驟I)、首先在離線狀態(tài)下對垂直人頭模型進(jìn)行訓(xùn)練,得到人頭檢測的分類器,具體地講就是:在分辨率為70X70像素的人頭樣本中使用積分圖方法提取擴(kuò)展Harr特征,每一個(gè)特征對應(yīng)一個(gè)弱分類器;使用AdaBoost算法訓(xùn)練弱分類器獲得強(qiáng)分類器,并把多個(gè)強(qiáng)分類器串聯(lián)得到分級分類器;利用最終得到的人頭檢測分類器檢測輸入圖像產(chǎn)生候選人頭區(qū)域;步驟2)、對AdaBoost算法檢測得到的候選人頭區(qū)域進(jìn)一步執(zhí)行幀差法檢測得到運(yùn)動區(qū)域,然后在運(yùn)動區(qū)域上進(jìn)行滑動窗口搜索,對窗口用SVM分類器進(jìn)行判定;判定為人頭的窗口,則添加此區(qū)域內(nèi)的特征點(diǎn)至檢測人頭列表中并保存起來,如判斷不是人頭的窗口,則視為非人頭特征點(diǎn);步驟3)、用改進(jìn)KLT tracker算法對特征點(diǎn)進(jìn)行跟蹤;改進(jìn)KLT tracker算法如下:
31)、如果Deteced_Object_List不為空,則從中取出一個(gè)對象A ;否則退出算法;32)、如果Tracked_Object_List為空,則跳轉(zhuǎn)到步驟4)執(zhí)行,否則利用式(4)從Tracked_Object_List中選取出和A相似度最大的對象B ;
權(quán)利要求
1.一種基于人頭計(jì)數(shù)的駕駛培訓(xùn)管理方法,其特征在于:其包括以下步驟: 步驟I)、首先在離線狀態(tài)下對垂直人頭模型進(jìn)行訓(xùn)練,得到人頭檢測的分類器,具體地講就是:在分辨率為70X70像素的人頭樣本中使用積分圖方法提取擴(kuò)展Harr特征,每一個(gè)特征對應(yīng)一個(gè)弱分類器;使用AdaBoost算法訓(xùn)練弱分類器獲得強(qiáng)分類器,并把多個(gè)強(qiáng)分類器串聯(lián)得到分級分類器;利用最終得到的人頭檢測分類器檢測輸入圖像產(chǎn)生候選人頭區(qū)域; 步驟2)、對AdaBoost算法檢測得到的候選人頭區(qū)域進(jìn)一步執(zhí)行幀差法檢測得到運(yùn)動區(qū)域,然后在運(yùn)動區(qū)域上進(jìn)行滑動窗口搜索,對窗口用SVM分類器進(jìn)行判定;判定為人頭的窗口,則添加此區(qū)域內(nèi)的特征點(diǎn)至檢測人頭列表中并保存起來,如判斷不是人頭的窗口,則視為非人頭特征點(diǎn); 步驟3)、用改進(jìn)KLT tracker算法對特征點(diǎn)進(jìn)行跟蹤; 改進(jìn)KLT tracker算法如下: 31)、如果Deteced_Object_List不為空,貝U從中取出一個(gè)對象A;否則退出算法; 32)、如果Tracked_Object_List為空,則跳轉(zhuǎn)到步驟4)執(zhí)行,否則利用式(4)從Tracked_Object_List中選取出和A相似度最大的對象B ;
全文摘要
本發(fā)明屬于視頻計(jì)數(shù)領(lǐng)域,具體涉及一種基于人頭計(jì)數(shù)的駕駛培訓(xùn)管理方法,其包括以下步驟基于AdaBoost算法檢測得到候選人頭區(qū)域;幀差法檢測得到運(yùn)動區(qū)域;用改進(jìn)KLT tracker算法對特征點(diǎn)進(jìn)行跟蹤;人頭檢測框大小估計(jì)過線跟蹤與計(jì)數(shù);該方法可以對教室或訓(xùn)練場地內(nèi)的學(xué)員人數(shù)的進(jìn)行實(shí)時(shí)統(tǒng)計(jì)計(jì)數(shù)。
文檔編號G06K9/62GK103150552SQ201310046970
公開日2013年6月12日 申請日期2013年2月6日 優(yōu)先權(quán)日2013年2月6日
發(fā)明者不公告發(fā)明人 申請人:湖北微駕技術(shù)有限公司