基于視覺大數(shù)據(jù)驅(qū)動的群體性行為分析的視頻監(jiān)控方法
【專利摘要】一種計算機實現(xiàn)的視頻監(jiān)控方法,包括步驟:接收由攝像機捕獲的視頻數(shù)據(jù);根據(jù)接收到的視頻數(shù)據(jù)建立群體性行為模型;估計所述群體性行為模型的參數(shù),獲得場景中存在的多種人群行為;使用得到的群體性行為模型獲得不同人群的行為特征集;對得到的行為特征集進行轉(zhuǎn)換,并使用轉(zhuǎn)換的行為特征集來針對每種人群行為得到統(tǒng)計的人數(shù)值。根據(jù)本發(fā)明的方法,攝像頭角度設(shè)置具有普遍適用性,可以用于開放出入口人數(shù)統(tǒng)計;并且計算量小,可以滿足實時視頻處理的要求。
【專利說明】基于視覺大數(shù)據(jù)驅(qū)動的群體性行為分析的視頻監(jiān)控方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及一種視頻監(jiān)控方法,特別涉及一種基于視覺大數(shù)據(jù)驅(qū)動的群體性行為分析技術(shù)的視頻監(jiān)控方法。
【背景技術(shù)】
[0002]大多數(shù)傳統(tǒng)的監(jiān)控系統(tǒng)需要專門的監(jiān)控人員針對監(jiān)控視頻進行人工判斷。這需要耗費大量的人力,而且人長時間專注于一件事情,可能會疏忽某些異常情況,從而帶來不利后果。智能視頻監(jiān)控系統(tǒng)可以識別不同的對象,當發(fā)現(xiàn)監(jiān)控畫面中的異常情況時,能夠以最快和最佳的方式發(fā)出警報和提供有用信息,從而能夠更加有效的協(xié)助監(jiān)控人員獲取準確信息和處理突發(fā)事件,并最大限度的降低誤報和漏報現(xiàn)象。
[0003]相關(guān)技術(shù)中,根據(jù)人群行為檢測方法的不同可以將視頻監(jiān)控方法分為兩類。一類方法基于運動跟蹤的多人行為識別方法,該方法受到人群中人數(shù)的挑戰(zhàn)。當人數(shù)較多時,遮擋嚴重,無法進行單人跟蹤,因此只能應用于場景簡單且人數(shù)少的情況。第二類方法基于特征學習或構(gòu)造行為模型的人群行為識別方法,多用于人群中異常行為檢測,如人群聚集、人群散開、以及人群奔跑和群毆等異常行為等。該方法更適合于人多場景,通過提取特征,建立模型,并使用機器學習方法獲得模型參數(shù),有利于提高檢測率。但是一種模型不能描述所有的行為,因此對特定的行為需要不同的模型。另外缺少訓練樣本仍然給獲得最優(yōu)的模型參數(shù)帶來挑戰(zhàn)。
【發(fā)明內(nèi)容】
[0004]本發(fā)明的目的是提供一種視頻監(jiān)控方法,能夠檢測并識別人群行為,并統(tǒng)計不同行為人群的人數(shù)。
[0005]為了實現(xiàn)上述目的,一種視頻監(jiān)控方法可以包括步驟:
[0006]I)接收由攝像機捕獲的視頻數(shù)據(jù);
[0007]2)根據(jù)接收到的視頻數(shù)據(jù)建立群體性行為模型;
[0008]3)估計所述群體性行為模型的參數(shù),獲得場景中存在的多種人群行為;
[0009]4)使用得到的群體性行為模型獲得不同人群的行為特征集;
[0010]5)對得到的行為特征集進行轉(zhuǎn)換,并使用轉(zhuǎn)換的行為特征集來針對每
[0011]種人群行為得到統(tǒng)計的人數(shù)值。
[0012]根據(jù)本發(fā)明的技術(shù)方案,其優(yōu)點在于:1)數(shù)學模型簡單,參數(shù)少,訓練方便;2)可用于人群擁擠環(huán)境,計算特定行為人數(shù)的累積量;3)攝像頭角度設(shè)置具有普遍適用性,可以用于開放出入口人數(shù)統(tǒng)計;4)計算量小,可以滿足實時視頻處理的要求。
【專利附圖】
【附圖說明】
[0013]圖1示出了根據(jù)本發(fā)明實施例的視頻監(jiān)控方法的流程圖;
[0014]圖2示出了根據(jù)本發(fā)明實施例的詞-文檔模型結(jié)構(gòu);[0015]圖3示出了根據(jù)本發(fā)明實施例的現(xiàn)場場景示例;
[0016]圖4示出了根據(jù)本發(fā)明實施例的現(xiàn)場場景中不同人群行為特征集;
[0017]圖5示出了根據(jù)本發(fā)明實施例的幾何校正示意圖;
[0018]圖6示出了根據(jù)本發(fā)明實施例得到的現(xiàn)場園區(qū)人數(shù)變化示例。
【具體實施方式】
[0019]為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚明白,以下結(jié)合具體實施例,并參照附圖,對本發(fā)明進一步詳細說明。
[0020]需要說明的是,在附圖或說明書描述中,相似或相同的部分都使用相同的圖號。附圖中未繪示或描述的實現(xiàn)方式,為所屬【技術(shù)領(lǐng)域】中普通技術(shù)人員所知的形式。另外,雖然本文可提供包含特定值的參數(shù)的示范,但應了解,參數(shù)無需確切等于相應的值,而是可在可接受的誤差容限或設(shè)計約束內(nèi)近似于相應的值。此外,以下實施例中提到的方向用語,例如“上”、“下”、“前”、“后”、“左”、“右”等,僅是參考附圖的方向。因此,使用的方向用語是用來說明并非用來限制本發(fā)明。
[0021]根據(jù)本發(fā)明的技術(shù)方案,首先針對場景人群的復雜性,使用群體性行為模型來挖掘場景中的多種行為;然后,根據(jù)檢測到的K類人群行為,針對每類人群獲得行為特征集;然后,將得到的行為特征集轉(zhuǎn)換為例如5維特征向量,以便減少特征維數(shù),并通過關(guān)聯(lián)時間參數(shù),獲得一個5*G維特征向量;然后,利用得到的5*G維特征向量訓練人工神經(jīng)網(wǎng)絡(luò),從而統(tǒng)計每類人群的行為人數(shù)的累積量。本發(fā)明實施例的整個技術(shù)方案流程圖如附圖1所示。下面對本發(fā)明的實施例進行詳細說明。
[0022]步驟1:接收由攝像機獲取的視頻數(shù)據(jù),并可以對接收到的視頻數(shù)據(jù)進行例如去
噪等處理。
[0023]步驟2:基于接收到的視頻數(shù)據(jù)建立群體性行為模型。
[0024]由于人群行為的復雜性,通常在一個場景中存在不同的人群行為,難于用單一模型描述所有行為。因此可以通過群體性行為模型來獲取每種行為的特征集,并使用行為特征集做人群分析。該群體性行為模型可以是一種詞-文檔模型,即:底層特征作為詞,視頻片段作為文檔,從而挖掘視頻中的人群行為,即隱含主題,并獲得每種人群行為的特征集,即底層特征集合。
[0025]本發(fā)明實施例采用的模型底層特征為局部運動信息。例如,可以通過幀差法獲得運動像素,然后使用光流法(Horn BKP, Schunck B G.Determining optical flow[J].Artificial intelligence, 1981,17 (I):185-203)來計算運動像素的速度向量,進而得到運動像素的特征,即位置和運動速度。這里,把每個運動像素作為一個詞Wi,一段視頻可以包括M幀圖像,即M個文檔,每個文檔可以用一個詞集表示,S卩,文檔W= Iwi, i = 1,,N},其中Wi = Ui,Yi,UpViKN是該視頻幀中的像素數(shù)目,X表示像素的水平位置,y表示像素的垂直位置,u表示像素沿水平方向的速度,V表示像素沿垂直方向的速度。當然,本領(lǐng)域技術(shù)人員可以采用運動估計領(lǐng)域中的其他公知技術(shù)來表示文檔W。
[0026]圖2示出了本發(fā)明實施例使用的詞-文檔模型結(jié)構(gòu)。其中,α表示文檔集合中隱含主題間的相對強弱,β表示所有隱含主題自身的概率分布,隨機變量 '表征文檔層j,隨機變量π j的大小表示目標文檔中各隱含主題的比重。在詞層,Zji表示目標文檔j分配給每個詞i的隱含主題份額,%是目標文檔的詞向量表示形式。假設(shè)有K個行為主題,則每個主題是詞的多項分布,α可以是語料庫的Dirichlet分布。對于每個文檔j, Dirichlet分布Dir( J α )是以Ji j為參數(shù)。對于在文檔j中的每個詞i,主題Zji的概率分布為π Jk,詞%是關(guān)于參數(shù)漢的多項分布。其中 '和h為因變量,α和β是需要優(yōu)化的參數(shù)。當給定α和β時,隨機變量」、主題Zj= {ZjJ、詞Xj= {Xji}的聯(lián)合概率分布如公式(I)所示:
【權(quán)利要求】
1.一種計算機實現(xiàn)的視頻監(jiān)控方法,包括步驟: a)接收由攝像機捕獲的視頻數(shù)據(jù); b)根據(jù)接收到的視頻數(shù)據(jù)建立群體性行為模型; c)估計所述群體性行為模型的參數(shù),獲得場景中存在的多種人群行為; d)使用得到的群體性行為模型獲得不同人群的行為特征集; e)對得到的行為特征集進行轉(zhuǎn)換,并使用轉(zhuǎn)換的行為特征集來針對每種人群行為得到統(tǒng)計的人數(shù)值。
2.根據(jù)權(quán)利要求1所述的方法,其中,所述步驟b)包括:建立詞-文檔模型,其中將每個運動像素作為一個詞Wi,—段視頻的M幀圖像對應于M個文檔,用詞集W= Iwi, i =I,..., N}來表示文檔,其中Wi = {xi; yi; Ui, vj , N是所述視頻幀中的像素數(shù)目,X表示像素的水平位置,y表示像素的垂直位置,u表示像素沿水平方向的速度,V表示像素沿垂直方向的速度。
3.根據(jù)權(quán)利要求1所述的方法,其中,所述步驟c)包括:使用最大似然估計EM方法來估計所述群體性行為模型的參數(shù)。
4.根據(jù)權(quán)利要求2所述的方法,其中,所述步驟c)包括:根據(jù)以下公式,使用群體性行為模型來檢測場景中存在的行為,并獲得每種行為的特征集:
5.根據(jù)權(quán)利要求4所述的方法,其中,所述步驟d)包括:將得到的行為的特征集轉(zhuǎn)換為5*G維的特征向量NF = {ASpSVpDVpDD^NPj,并訓練人工神經(jīng)網(wǎng)絡(luò)以統(tǒng)計人數(shù),其中,ASg表不平均速度向量,SVg表不速度方差向量,DVg表不方向方差向量,DDe表不方向散度向量,以及NPe表示行為像素總數(shù)向量。
6.根據(jù)權(quán)利要求5所述的方法,其中,平均速度向量八知被計算為:
ASg = {ASg, g = 1,...,6} 其中ASg為第g幀圖像的平均速度,
7.根據(jù)權(quán)利要求5所述的方法,其中,速度方差向量SVe被計算為:
SVg = {SVg, g = 1,...,6} 其中SVg為第g幀圖像的速度方差,
8.根據(jù)權(quán)利要求5所述的方法,其中,方向方差向量DVe被計算為:
DVg = {DVg, g = 1,...,G}其中DVg為第g幀圖像的方向方差
9.根據(jù)權(quán)利要求5所述的方法,其中,方向散度向量DDe被計算為:
DDg = {DDg, g = 1,...,6} 其中DDg為第g幀圖像的方向散度。
10.根據(jù)權(quán)利要求5所述的方法,其中,行為像素總數(shù)向量冊^被計算為:
NPg = {NPg, g = 1,...,6}
I F、 其中NPg第g幀圖像的行為像素總數(shù),
Pο
【文檔編號】G06K9/66GK103679215SQ201310746795
【公開日】2014年3月26日 申請日期:2013年12月30日 優(yōu)先權(quán)日:2013年12月30日
【發(fā)明者】黃凱奇, 康運鋒, 曹黎俊, 張旭 申請人:中國科學院自動化研究所