本發(fā)明涉及客流統(tǒng)計(jì)領(lǐng)域,更具體地,涉及一種基于視頻監(jiān)控的客運(yùn)站非出入口區(qū)域的客流統(tǒng)計(jì)方法。
背景技術(shù):
:利用監(jiān)控視頻進(jìn)行客流檢測(cè),一直是視頻智能分析研究與應(yīng)用中的熱點(diǎn)。由于人體屬于非剛性目標(biāo),行進(jìn)過(guò)程中姿態(tài)多變,而且背景環(huán)境復(fù)雜,光照條件多樣,加之視頻拍攝時(shí)投影原理造成的遮擋和粘連,給客流檢測(cè)技術(shù)的發(fā)展帶來(lái)巨大挑戰(zhàn)。客流檢測(cè)方法主要包括三個(gè)環(huán)節(jié):行人檢測(cè)、行人跟蹤和人數(shù)統(tǒng)計(jì),相關(guān)研究綜述如下:(1)行人檢測(cè)行人檢測(cè)就是利用圖像處理、模式識(shí)別等技術(shù),提取出有效的行人特征表達(dá),并根據(jù)這些特征識(shí)別出視頻中的行人目標(biāo),從而實(shí)現(xiàn)行人的定位和分割。常用的行人特征主要是表觀特征,包括形狀、顏色、梯度和紋理等圖像特征,典型的有Haar特征、Haar-like特征、HOG特征等。采用合適的單一特征可以實(shí)現(xiàn)行人檢測(cè)。如Gavrila和Munder[1]提出一種基于形狀輪廓匹配的行人檢測(cè)方法;Lin和Davis[2]使用分層的部件模板匹配方法實(shí)現(xiàn)行人檢測(cè);ZuiZhang等[3]基于高斯模型結(jié)合XYZ和HSV顏色空間構(gòu)建了一個(gè)相似度函數(shù)來(lái)檢測(cè)不同行人的發(fā)色和膚色,從而得到人頭位置信息;高春霞等[4]根據(jù)人臉膚色、發(fā)色在YCbCr和RGB顏色空間的聚類情況,建立人頭顏色模型,分割出人頭候選區(qū)域,并結(jié)合后續(xù)的步驟完成行人檢測(cè);種衍文等[5]對(duì)HOG特征進(jìn)行擴(kuò)展,提出了新的EHOG特征,充分利用人體的紋理信息來(lái)減少虛警;黃茜等[6]從行人紋理信息的角度,提出了基于分塊的局部二元模式(LBP)算法,利用局部二元模式均勻模式算子提取小塊圖像的特征直方圖后,進(jìn)行歸一化處理并將所有小塊特征級(jí)聯(lián)起來(lái)形成最終的局部二元模式特征,并用實(shí)驗(yàn)證明這一特征有著不亞于HOG特征的行人表征能力。為了進(jìn)一步形成魯棒性更強(qiáng)的行人目標(biāo)表征,很多研究者將多種特征進(jìn)行融合。郭烈等[7]提取了行人樣本的紋理特征、對(duì)稱性特征、邊界矩特征以及梯度方向特征,組成表征行人的多維特征向量,獲取約75%的行人檢測(cè)率;楊志輝等[8]在Haar特征和HOG特征的基礎(chǔ)上提出了一種新的特征,即多尺度方向特征(MSO),檢測(cè)準(zhǔn)確率在INTRA測(cè)試集上當(dāng)誤報(bào)率為10-4時(shí)達(dá)80%,檢測(cè)速度也近于實(shí)時(shí)效果;歐陽(yáng)萬(wàn)里等[9]結(jié)合行人的遮擋模型和形變模型,采用多種策略的組合提取行人特征來(lái)對(duì)行人進(jìn)行檢測(cè),在Caltech數(shù)據(jù)庫(kù)上測(cè)試的平均漏檢率為39%;Yi-MingChan等[10]提出新的擴(kuò)展HOG特征——HOGG(HistogramsofOrientedGrientsofGranule),并將其和HOG特征相結(jié)合共同訓(xùn)練SVM分類器,用于行人檢測(cè),在INRIA測(cè)試集上當(dāng)誤報(bào)率為10-4時(shí)其檢測(cè)率可達(dá)92%。為了適應(yīng)更復(fù)雜的挑戰(zhàn),如光照和視角變換等,還有研究人員通過(guò)融合時(shí)空結(jié)構(gòu)的深度學(xué)習(xí)方法,或者在特征與分類器之間增加中間環(huán)節(jié)來(lái)提高整體檢測(cè)水平。如王斌[11]利用深度學(xué)習(xí)網(wǎng)絡(luò)作為特征提取方法,設(shè)計(jì)了基于深度學(xué)習(xí)的行人檢測(cè)算法,使行人檢測(cè)的性能得到大幅提升,在INRIA數(shù)據(jù)庫(kù)上進(jìn)行測(cè)試的誤檢率保持在10%時(shí)漏檢率為23%;Zhangshanshan[12]等人在底層特征和分類器之間增加中間層,對(duì)底層特征使用濾波器組進(jìn)行濾波,并使用boosted決策樹(shù)進(jìn)行分類,從而提升行人檢測(cè)率,使用HOG+LUV特征在Caltech和KITTI數(shù)據(jù)庫(kù)上的平均誤檢率低達(dá)18.5%。(2)行人跟蹤行人跟蹤主要是為了解決同一行人在圖像序列中的數(shù)據(jù)關(guān)聯(lián)問(wèn)題。行人跟蹤的方法主要分為四類:基于目標(biāo)中心點(diǎn)的跟蹤方法、基于目標(biāo)區(qū)域的跟蹤方法、基于目標(biāo)模型的跟蹤方法和基于特征的跟蹤方法?;谀繕?biāo)中心點(diǎn)的跟蹤方法一般根據(jù)前一幀目標(biāo)中心點(diǎn)的位置、目標(biāo)的運(yùn)動(dòng)信息來(lái)預(yù)測(cè)目標(biāo)當(dāng)前幀的位置,然后匹配預(yù)測(cè)點(diǎn)和檢測(cè)點(diǎn)的位置,實(shí)現(xiàn)跟蹤。此類方法對(duì)于目標(biāo)輪廓沒(méi)有太大變化的小剛體目標(biāo),其魯棒性和有效性較好。常用的預(yù)測(cè)和估計(jì)的數(shù)學(xué)工具有Kalman濾波、粒子濾波等。李熙瑩、盧林等[13]針對(duì)汽車客運(yùn)站出入口場(chǎng)景,采用了Kalman濾波較好地跟蹤了行人頭肩部分的中心點(diǎn)?;谀繕?biāo)區(qū)域的跟蹤方法將運(yùn)動(dòng)目標(biāo)分解為運(yùn)動(dòng)區(qū)域的組合,通過(guò)區(qū)域塊的匹配實(shí)現(xiàn)跟蹤。Wren[14]認(rèn)為人體是由頭部、軀體、四肢等部分所對(duì)應(yīng)的小區(qū)域塊所組成,通過(guò)對(duì)這些小區(qū)域塊的跟蹤即可完成對(duì)整個(gè)行人的跟蹤。McKenna[15]首先通過(guò)背景差分的方法提取到運(yùn)動(dòng)目標(biāo)區(qū)域,然后在區(qū)域、人、人群三個(gè)抽象級(jí)別上進(jìn)行跟蹤。由于運(yùn)動(dòng)區(qū)域一般通過(guò)背景差分的方法來(lái)獲取,因此背景建模以及更新都會(huì)對(duì)跟蹤結(jié)果有較大影響?;谀繕?biāo)模型的跟蹤方法是為跟蹤的目標(biāo)定制一個(gè)模型,通過(guò)對(duì)模型的變化分析來(lái)完成對(duì)目標(biāo)的跟蹤。常用的人體跟蹤模型有線圖模型、二維模型和三維立體模型等等,如Wachter[16]在橢圓錐臺(tái)的基礎(chǔ)上建立了3D人體模型,通過(guò)分析連續(xù)視頻幀3D模型的投影來(lái)實(shí)現(xiàn)人體跟蹤?;谀繕?biāo)模型的跟蹤方法在目標(biāo)姿態(tài)變化下的跟蹤結(jié)果可靠度高,但是也存在計(jì)算量大、實(shí)時(shí)性不夠、實(shí)際幾何模型精度差等缺點(diǎn)。基于特征的跟蹤方法是通過(guò)圖像序列間的目標(biāo)特征匹配實(shí)現(xiàn)跟蹤,也是最為多用的方法。張陽(yáng)[17]提出一種基于融合顏色、紋理及對(duì)應(yīng)子空間特征信息的快速粒子濾波行人跟蹤算法,提取目標(biāo)行人的空間信息并細(xì)化成頭部、上身、腿部三個(gè)局部子區(qū)域;其次,利用改進(jìn)的紋理及顏色信息提取算法提取對(duì)應(yīng)目標(biāo)子區(qū)域中的聯(lián)合紋理、顏色信息;最后,通過(guò)基于空間劃分的顏色紋理相似度指標(biāo)來(lái)判斷跟蹤目標(biāo)的位置,實(shí)現(xiàn)準(zhǔn)確跟蹤。趙敏[18]研究了基于改進(jìn)meanshift的行人頭部目標(biāo)跟蹤方法,在分析行人頭部目標(biāo)在運(yùn)動(dòng)中的旋轉(zhuǎn)、形變等特點(diǎn)的基礎(chǔ)上,將meanshift算法引入行人頭部目標(biāo)跟蹤,并針對(duì)其不足進(jìn)行改進(jìn),結(jié)合行人檢測(cè)和行人計(jì)數(shù)實(shí)現(xiàn)公交場(chǎng)景下的上下車乘客人數(shù)自動(dòng)計(jì)數(shù)系統(tǒng)。(3)人數(shù)統(tǒng)計(jì)人數(shù)統(tǒng)計(jì)即獲得監(jiān)控范圍內(nèi)的客流時(shí)空分布數(shù)據(jù)。按照適用的環(huán)境來(lái)劃分,人數(shù)統(tǒng)計(jì)方法可以分為:基于行人檢測(cè)與跟蹤的人數(shù)統(tǒng)計(jì)方法和基于底層特征的人數(shù)統(tǒng)計(jì)方法?;谛腥藱z測(cè)與跟蹤的人數(shù)統(tǒng)計(jì)方法,可以直接顯示行人的檢測(cè)與跟蹤,從而對(duì)跟蹤到的行人進(jìn)行人數(shù)統(tǒng)計(jì),計(jì)數(shù)精度高,常用于通道口、出入口等場(chǎng)所的人數(shù)統(tǒng)計(jì);王冰[19]等人針對(duì)客運(yùn)站閘機(jī)通道的場(chǎng)景,利用HOG特征進(jìn)行行人檢測(cè),隨后利用mean-shift算法對(duì)目標(biāo)進(jìn)行實(shí)時(shí)跟蹤;鄭翔翔、張怡[20]提出一種基于頭部檢測(cè)和跟蹤的人數(shù)統(tǒng)計(jì)方法,實(shí)驗(yàn)證明該方法適用于出入口場(chǎng)景下的行人檢測(cè);吳冬梅[21]也利用了基于人頭檢測(cè)的人數(shù)統(tǒng)計(jì)方法,增加了感興趣區(qū)域的設(shè)定,實(shí)現(xiàn)出入口場(chǎng)景下的實(shí)時(shí)人數(shù)統(tǒng)計(jì)?;诘讓犹卣鞯娜藬?shù)統(tǒng)計(jì)方法,其所采用的底層特征有像素、紋理等特征,這類方法一般不注重個(gè)體,往往用來(lái)做人數(shù)的粗略統(tǒng)計(jì),即人流密度估計(jì),主要應(yīng)用于遮擋嚴(yán)重或者人體細(xì)節(jié)不清晰的街道、廣場(chǎng)等大范圍開(kāi)放環(huán)境。王媛媛[22]提出一種基于模糊匹配的自適應(yīng)人群密度估計(jì)算法,為實(shí)時(shí)的視頻監(jiān)控提供了很好地密度估計(jì)方法;任慶云[23]針對(duì)中低人群密度情況提出一種基于像素分析的人群密度估計(jì)方法,而對(duì)于中高人群密度情況,則采用基于紋理分析的方法提取人群密度特征。但是,對(duì)于客運(yùn)站非出入口區(qū)域,一般監(jiān)控?cái)z像機(jī)拍攝的設(shè)置方向以俯側(cè)方向、較大觀察視場(chǎng)為主,采集的圖像容易出現(xiàn)行人遮擋的情況;再者,客運(yùn)站非出入口區(qū)域的行人姿態(tài)多變、行為復(fù)雜、且行走方向難預(yù)測(cè)。因此在行人檢測(cè)、跟蹤、計(jì)數(shù)等方面,有大量技術(shù)難點(diǎn)有待攻克。如何對(duì)客運(yùn)站視頻監(jiān)控系統(tǒng)中非出入口場(chǎng)景下的人流進(jìn)行實(shí)時(shí)檢測(cè)、跟蹤、統(tǒng)計(jì)成為目前亟待解決的問(wèn)題。技術(shù)實(shí)現(xiàn)要素:本發(fā)明為解決以上現(xiàn)有技術(shù)的缺陷,提供了一種基于視頻監(jiān)控的客運(yùn)站非出入口區(qū)域的客流統(tǒng)計(jì)方法,該方法針對(duì)于客運(yùn)站非出入口區(qū)域拍攝的圖像容易出現(xiàn)遮擋的特點(diǎn),提出使用行人的不易被遮擋、且形態(tài)基本不變的頭肩部haar-like特征來(lái)對(duì)行人進(jìn)行檢測(cè),其檢測(cè)判別是否為行人的準(zhǔn)確率較高,適用于行人圖像出現(xiàn)遮擋的應(yīng)用場(chǎng)景;而在完成檢測(cè)后,通過(guò)Kalman濾波器和以上檢測(cè)行人的方法來(lái)對(duì)行人在每幀圖像的位置進(jìn)行雙重追蹤,以保證追蹤的準(zhǔn)確率;實(shí)驗(yàn)證明,該方法能夠針對(duì)客運(yùn)站非出入口區(qū)域行人姿態(tài)多變、行為復(fù)雜、行走方向難預(yù)測(cè)的特點(diǎn),達(dá)到很好的追蹤效果。通過(guò)對(duì)行人的準(zhǔn)確檢測(cè)和追蹤,本發(fā)明提供的方法能夠有效地記錄下行人的運(yùn)動(dòng)軌跡,保證了行人目標(biāo)的匹配,減少誤檢和遺漏,提高人數(shù)統(tǒng)計(jì)精度。為實(shí)現(xiàn)以上發(fā)明目的,采用的技術(shù)方案是:一種基于視頻監(jiān)控的客運(yùn)站非出入口區(qū)域的客流統(tǒng)計(jì)方法,該方法預(yù)先劃定好人數(shù)統(tǒng)計(jì)區(qū)域,并對(duì)該區(qū)域內(nèi)的行人目標(biāo)進(jìn)行檢測(cè)和跟蹤,從而統(tǒng)計(jì)進(jìn)入和離開(kāi)統(tǒng)計(jì)區(qū)域的人數(shù),其中對(duì)行人目標(biāo)進(jìn)行檢測(cè)和跟蹤的具體過(guò)程如下:S1.人工提取監(jiān)控圖像里的行人的頭肩部haar-like特征對(duì)AdBoost分類器進(jìn)行訓(xùn)練,得到訓(xùn)練好的AdBoost分類器;S2.對(duì)于當(dāng)前幀圖像,采用背景差分法在當(dāng)前幀圖像的統(tǒng)計(jì)區(qū)域內(nèi)獲取運(yùn)動(dòng)目標(biāo);S3.提取運(yùn)動(dòng)目標(biāo)的頭肩部haar-like特征,并將其輸入訓(xùn)練好的AdBoost分類器內(nèi),AdBoost分類器判別運(yùn)動(dòng)目標(biāo)是否為行人,若是則執(zhí)行步驟S4;S4.計(jì)算判別為行人的運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)位置,并使用四維向量Xk=(px,py,vx,vy)來(lái)表示其在當(dāng)前幀的系統(tǒng)狀態(tài),其中(px,py)表示頭肩部中心點(diǎn)的位置,(vx,vy)表示中心點(diǎn)的速度;S5.將Xk輸入Kalman濾波器,并對(duì)Kalman濾波器的四個(gè)參數(shù)進(jìn)行初始化:Ak、Hk、wk、vk;其中Ak表示狀態(tài)由當(dāng)前幀到下一幀的轉(zhuǎn)移矩陣,Hk當(dāng)前幀的觀測(cè)矩陣,wk和vk分別表示當(dāng)前幀的系統(tǒng)噪聲向量和觀測(cè)噪聲向量;令A(yù)k、Hk在各幀的系統(tǒng)狀態(tài)變換過(guò)程中為已知且具有唯一值的矩陣,另外,設(shè)wk、vk的概率密度函數(shù)是均值為零的高斯函數(shù)且相互獨(dú)立;S6.Kalman濾波器對(duì)運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)在下一幀的系統(tǒng)狀態(tài)進(jìn)行預(yù)報(bào),具體如下:X~′k+1=AkX~k---(1)]]>其中Ak表示狀態(tài)轉(zhuǎn)移矩陣,表示預(yù)報(bào)的下一幀的系統(tǒng)狀態(tài);表示當(dāng)前幀的系統(tǒng)狀態(tài);由(1)式,可得系統(tǒng)狀態(tài)協(xié)方差的預(yù)報(bào)方程:P′k+1=AkPkAkT+Qk]]>其中,P'k+1和Pk分別是和對(duì)應(yīng)的協(xié)方差,表示Ak的轉(zhuǎn)置矩陣,Qk表示當(dāng)前幀的系統(tǒng)噪聲向量wk的協(xié)方差矩陣;S7.根據(jù)步驟S6求取的內(nèi)容對(duì)Kalman加權(quán)矩陣進(jìn)行求?。篕k+1=P′k+1HkT(HkP′k+1HkT+Rk)-1]]>其中Kk+1表示下一幀的Kalman加權(quán)矩陣,Hk、表示觀測(cè)矩陣以及其轉(zhuǎn)置,Rk表示觀測(cè)噪聲向量vk的協(xié)方差矩陣;S8.根據(jù)求取的Kalman加權(quán)矩陣對(duì)運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)在下一幀的系統(tǒng)狀態(tài)和狀態(tài)向量協(xié)方差Pk+1進(jìn)行更新:X~k+1=X~′k+1+Kk+1(Zk+1-HkX~′k+1)]]>Pk+1=(I-Kk+1Hk)P'k+1其中Zk+1為下一幀的觀測(cè)值,I表示單位矩陣;S9.對(duì)下一幀圖像按照步驟S2~S4的方法獲取運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)位置的系統(tǒng)狀態(tài),然后將獲取的系統(tǒng)狀態(tài)與步驟S5~S9預(yù)測(cè)得到的運(yùn)動(dòng)目標(biāo)的系統(tǒng)狀態(tài)進(jìn)行匹配關(guān)聯(lián),若兩者匹配,則將匹配的結(jié)果確定為運(yùn)動(dòng)目標(biāo)在下一幀的位置,否則利用步驟S5~S9預(yù)測(cè)得到的系統(tǒng)狀態(tài)確定運(yùn)動(dòng)目標(biāo)在下一幀的位置;S10.S5~S9重復(fù)執(zhí)行直至完成整個(gè)的統(tǒng)計(jì)過(guò)程。優(yōu)選地,所述步驟S2中,遍歷每一幀視頻圖像中的所有像素值,按照從左至右、從上到下的順序,對(duì)每一個(gè)像素利用背景差分法判別其是否為運(yùn)動(dòng)目標(biāo),背景差分法可用以下公式表示:fd(x,y)=1|fn(x,y)-Bn(x,y)|>T0other]]>其中,fd(x,y)代表前景點(diǎn),T為閾值,Bn(x,y)和fn(x,y)分別表示像素(x,y)在無(wú)運(yùn)動(dòng)目標(biāo)的情況下的像素值和當(dāng)前幀的像素值,n表示當(dāng)前為第n幀。優(yōu)選地,所述像素(x,y)在無(wú)運(yùn)動(dòng)目標(biāo)的情況下的像素值可通過(guò)以下方式確定:選取內(nèi)容不包括運(yùn)動(dòng)目標(biāo)的連續(xù)100幀圖像序列,并對(duì)100幀圖像序列中相對(duì)應(yīng)的各個(gè)像素點(diǎn)進(jìn)行平均運(yùn)算,獲得Bn(x,y):Bn(x,y)=Σ1100Im,(m=1,2...100)]]>其中,Im為像素(x,y)在第m幀的像素值。與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果是:本發(fā)明提供的方法針對(duì)于客運(yùn)站非出入口區(qū)域拍攝的圖像容易出現(xiàn)遮擋的特點(diǎn),提出使用行人的不易被遮擋、且形態(tài)基本不變的頭肩部haar-like特征來(lái)對(duì)行人進(jìn)行檢測(cè),其檢測(cè)判別是否為行人的準(zhǔn)確率較高,適用于行人圖像出現(xiàn)遮擋的應(yīng)用場(chǎng)景;而在完成檢測(cè)后,通過(guò)Kalman濾波器和以上檢測(cè)行人的方法來(lái)對(duì)行人在每幀圖像的位置進(jìn)行雙重追蹤,以保證追蹤的準(zhǔn)確率;實(shí)驗(yàn)證明,該方法能夠針對(duì)客運(yùn)站非出入口區(qū)域行人姿態(tài)多變、行為復(fù)雜、行走方向難預(yù)測(cè)的特點(diǎn),達(dá)到很好的追蹤效果。通過(guò)對(duì)行人的準(zhǔn)確檢測(cè)和追蹤,本發(fā)明提供的方法能夠有效地記錄下行人的運(yùn)動(dòng)軌跡,保證了行人目標(biāo)的匹配,減少誤檢和遺漏,提高人數(shù)統(tǒng)計(jì)精度。附圖說(shuō)明圖1為行人檢測(cè)的流程圖。圖2為行人檢測(cè)的實(shí)施示意圖。圖3為行人跟蹤的流程圖。具體實(shí)施方式附圖僅用于示例性說(shuō)明,不能理解為對(duì)本專利的限制;以下結(jié)合附圖和實(shí)施例對(duì)本發(fā)明做進(jìn)一步的闡述。實(shí)施例1如圖1~3所示,本發(fā)明提供的客流統(tǒng)計(jì)方法的發(fā)明點(diǎn)主要在于行人檢測(cè)和跟蹤方面,其中行人檢測(cè)的具體過(guò)程包括以下步驟:第一步、人工提取監(jiān)控圖像里的行人的頭肩部haar-like特征對(duì)AdBoost分類器進(jìn)行訓(xùn)練,得到訓(xùn)練好的AdBoost分類器。在訓(xùn)練的時(shí)候,將人工提取的行人頭肩圖像作為正樣本,非行人圖像作為負(fù)樣本。第二步、對(duì)于當(dāng)前幀圖像,采用背景差分法在當(dāng)前幀圖像的統(tǒng)計(jì)區(qū)域內(nèi)獲取運(yùn)動(dòng)目標(biāo);第三步、提取運(yùn)動(dòng)目標(biāo)的頭肩部haar-like特征,并將其輸入訓(xùn)練好的AdBoost分類器內(nèi),AdBoost分類器判別運(yùn)動(dòng)目標(biāo)是否為行人,若是則執(zhí)行第四步;第四步、計(jì)算判別為行人的運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)位置,并使用四維向量Xk=(px,py,vx,vy)來(lái)表示其在當(dāng)前幀的系統(tǒng)狀態(tài),其中(px,py)表示頭肩部中心點(diǎn)的位置,(vx,vy)表示中心點(diǎn)的速度。而行人追蹤的部分則包括以下步驟:第五步、將Xk輸入Kalman濾波器,并對(duì)Kalman濾波器的四個(gè)參數(shù)進(jìn)行初始化:Ak、Hk、wk、vk;其中Ak表示狀態(tài)由當(dāng)前幀到下一幀的轉(zhuǎn)移矩陣,Hk當(dāng)前幀的觀測(cè)矩陣,wk和vk分別表示當(dāng)前幀的系統(tǒng)噪聲向量和觀測(cè)噪聲向量。從而構(gòu)成系統(tǒng)狀態(tài)方程和系統(tǒng)的觀測(cè)方程:Xk+1=AkXk+wkZk+1=HkXk+vk其中,Xk+1是下一幀的系統(tǒng)狀態(tài),Xk為當(dāng)前幀的系統(tǒng)狀態(tài),Zk+1為下一幀的觀測(cè)值;令A(yù)k、Hk在各幀的系統(tǒng)狀態(tài)變換過(guò)程中為已知且具有唯一值的矩陣;由于視頻連續(xù)兩幀的時(shí)間差很小,所以可以認(rèn)為在連續(xù)兩幀中人體的行進(jìn)速度是勻速的,因此狀態(tài)轉(zhuǎn)移矩陣Ak可以初始化為:Ak=10T0010T00100001;]]>根據(jù)狀態(tài)方程和觀測(cè)方程的關(guān)系,可以得到觀測(cè)矩陣Hk:Hk=10000100]]>另外,設(shè)wk、vk的概率密度函數(shù)是均值為零的高斯函數(shù)且相互獨(dú)立,所以其協(xié)方差矩陣分別為:Qk=1000010000100001;Rk=1001;]]>第六步、Kalman濾波器對(duì)運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)在下一幀的系統(tǒng)狀態(tài)進(jìn)行預(yù)報(bào),具體如下:X~′k+1=AkX~k---(1)]]>其中Ak表示狀態(tài)轉(zhuǎn)移矩陣,表示預(yù)報(bào)的下一幀的系統(tǒng)狀態(tài);表示當(dāng)前幀的系統(tǒng)狀態(tài);由(1)式,可得系統(tǒng)狀態(tài)協(xié)方差的預(yù)報(bào)方程:P′k+1=AkPkAkT+Qk]]>其中,P'k+1和Pk分別是和對(duì)應(yīng)的協(xié)方差,表示Ak的轉(zhuǎn)置矩陣,Qk表示當(dāng)前幀的系統(tǒng)噪聲向量wk的協(xié)方差矩陣;第七步、根據(jù)第六步求取的內(nèi)容對(duì)Kalman加權(quán)矩陣進(jìn)行求?。篕k+1=P′k+1HkT(HkP′k+1HkT+Rk)-1]]>其中Kk+1表示下一幀的Kalman加權(quán)矩陣,Hk、表示觀測(cè)矩陣以及其轉(zhuǎn)置,Rk表示觀測(cè)噪聲向量vk的協(xié)方差矩陣;第八步、根據(jù)求取的Kalman加權(quán)矩陣對(duì)運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)在下一幀的系統(tǒng)狀態(tài)和狀態(tài)向量協(xié)方差Pk+1進(jìn)行更新:X~k+1=X~′k+1+Kk+1(Zk+1-HkX~′k+1)]]>Pk+1=(I-Kk+1Hk)P'k+1其中Zk+1為下一幀的觀測(cè)值,I表示單位矩陣;第九步、對(duì)下一幀圖像按照第二步~第四步的方法獲取運(yùn)動(dòng)目標(biāo)的頭肩部中心點(diǎn)位置的系統(tǒng)狀態(tài),然后將獲取的系統(tǒng)狀態(tài)與第五步~第九步預(yù)測(cè)得到的運(yùn)動(dòng)目標(biāo)的系統(tǒng)狀態(tài)進(jìn)行匹配關(guān)聯(lián),若兩者匹配,則將匹配的結(jié)果確定為運(yùn)動(dòng)目標(biāo)在下一幀的位置,否則利用第五步~第九步預(yù)測(cè)得到的系統(tǒng)狀態(tài)確定運(yùn)動(dòng)目標(biāo)在下一幀的位置;第十步、第五步~第九步重復(fù)執(zhí)行直至完成整個(gè)的統(tǒng)計(jì)過(guò)程。顯然,本發(fā)明的上述實(shí)施例僅僅是為清楚地說(shuō)明本發(fā)明所作的舉例,而并非是對(duì)本發(fā)明的實(shí)施方式的限定。對(duì)于所屬領(lǐng)域的普通技術(shù)人員來(lái)說(shuō),在上述說(shuō)明的基礎(chǔ)上還可以做出其它不同形式的變化或變動(dòng)。這里無(wú)需也無(wú)法對(duì)所有的實(shí)施方式予以窮舉。凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明權(quán)利要求的保護(hù)范圍之內(nèi)。當(dāng)前第1頁(yè)1 2 3