亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種監(jiān)控視頻中的人數(shù)統(tǒng)計(jì)方法與流程

文檔序號(hào):11432698閱讀:2391來(lái)源:國(guó)知局

本發(fā)明屬于智能視頻監(jiān)控領(lǐng)域。具體是基于計(jì)算機(jī)視覺(jué)的實(shí)時(shí)人數(shù)統(tǒng)計(jì)系統(tǒng)。



背景技術(shù):

近年來(lái),隨著人們對(duì)安防重視程度的提升以及現(xiàn)代安防技術(shù)的發(fā)展,視頻監(jiān)控系統(tǒng)以及越來(lái)越廣泛的應(yīng)用在社會(huì)生活的各個(gè)方面,從銀行、展覽館的安保,到廣場(chǎng)、校園的監(jiān)控,從工作環(huán)境到家庭環(huán)境,視頻監(jiān)控系統(tǒng)在社會(huì)公共安全、懲擊犯罪等方面,有著無(wú)法替代的作用,保衛(wèi)著社會(huì)的繁榮穩(wěn)定,促進(jìn)著和諧社會(huì)的發(fā)展與建設(shè)。

然而,傳統(tǒng)的視頻監(jiān)控系統(tǒng)存在其自身的局限性。首先,它的功能比較簡(jiǎn)單,只有簡(jiǎn)單的監(jiān)控視頻存儲(chǔ)和回放功能,主要作用就是事后取證分析,而對(duì)被監(jiān)控場(chǎng)景的實(shí)時(shí)分析能力比較欠缺,不具備對(duì)所發(fā)生的異常事件提供實(shí)時(shí)預(yù)警的功能。其次,要想實(shí)現(xiàn)實(shí)時(shí)監(jiān)控的目的,安裝了監(jiān)控?cái)z像頭的單位或部門(mén),其監(jiān)控室需要安防人員全天候無(wú)間斷的實(shí)施監(jiān)控,對(duì)人力物力資源都是很大的浪費(fèi)。與此同時(shí),安防人員在長(zhǎng)時(shí)間連續(xù)工作的情況下,很容易產(chǎn)生疲勞,于是漏判、誤判等情況發(fā)生的概率將會(huì)大大增加。由此可見(jiàn),如果只是簡(jiǎn)單的依靠傳統(tǒng)人力來(lái)進(jìn)行監(jiān)控,是無(wú)法適應(yīng)現(xiàn)在的發(fā)展趨勢(shì)的。

隨著研究的深入,計(jì)算機(jī)視覺(jué)、圖像模式識(shí)別等技術(shù)在近幾年有了較大的發(fā)展,各種新型的算法為解決實(shí)際工程中的問(wèn)題提供了理論保障。伴隨著我國(guó)居民安全理念的加強(qiáng),相應(yīng)的攝像監(jiān)控系統(tǒng)逐漸遍布生活中的各個(gè)角落,這一條件為本發(fā)明提出的基于監(jiān)控視頻的人數(shù)統(tǒng)計(jì)系統(tǒng)提供了硬件基礎(chǔ)。如果能實(shí)現(xiàn)將我們的檢測(cè)軟件融入現(xiàn)有的監(jiān)控?cái)z像系統(tǒng),不但可以充分利用現(xiàn)有資源,節(jié)約設(shè)施成本,更能有效的彌補(bǔ)上述人力監(jiān)控系統(tǒng)的不足,具有廣闊的應(yīng)用前景。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的在于提出一種基于現(xiàn)有的監(jiān)控平臺(tái),有效進(jìn)行實(shí)時(shí)人數(shù)統(tǒng)計(jì)的方法,技術(shù)方案如下:

一種監(jiān)控視頻中的人數(shù)統(tǒng)計(jì)方法,包括下列步驟:

1)建立行人樣本庫(kù),對(duì)目標(biāo)監(jiān)控場(chǎng)景進(jìn)行前期采樣,采集包括行人各種姿態(tài)的監(jiān)控場(chǎng)景,作為訓(xùn)練數(shù)據(jù)集,也就是行人樣本庫(kù)。

2)輸入視頻幀,對(duì)于每一幀視頻圖像,使用混合高斯背景建模的方法,結(jié)合形態(tài)學(xué)濾波,獲得前景圖像;

3)通過(guò)計(jì)算前景圖像中前景像素的數(shù)量,得到前景面積s1,并做歸一化處理,得到歸一化場(chǎng)景面積s2;

4)對(duì)每一幀視頻圖像,以圖像前景為模板,提取harris角點(diǎn)信息和surf特征點(diǎn)信息,分別計(jì)算每幀圖像中這兩種特征點(diǎn)的數(shù)量n1、n2,并通過(guò)單位面積中的有效特征點(diǎn)數(shù)量來(lái)表征場(chǎng)景中人群之間的遮擋程度,提取人群遮擋因子d1、d2;

5)構(gòu)建第一個(gè)bp網(wǎng)絡(luò)模型,以歸一化場(chǎng)景面積s2、人群遮擋因子d1、d2為輸入向量,以場(chǎng)景中的統(tǒng)計(jì)人數(shù)為輸出向量,訓(xùn)練bp網(wǎng)絡(luò)完成回歸模型t1的構(gòu)建;

6)提取行人樣本庫(kù)的hog特征,采用adaboost級(jí)聯(lián)分類(lèi)器訓(xùn)練相應(yīng)的行人檢測(cè)器t2;

7)將待檢測(cè)圖片序列輸入回歸模型t1,初步得到人群數(shù)量的估計(jì)r1;利用行人檢測(cè)器t2檢測(cè)出每個(gè)視頻幀里的行人數(shù)目r2;

8)構(gòu)造第二個(gè)bp神經(jīng)網(wǎng)絡(luò)t3作為組合分類(lèi)器,將前兩個(gè)基分類(lèi)器的結(jié)果r1和r2作為組合分類(lèi)器t2輸入向量的一部分,并結(jié)合上述歸一化前景面積和遮擋因子的特征,實(shí)現(xiàn)分類(lèi)器融合時(shí)權(quán)重的自適應(yīng)計(jì)算;

9)組合分類(lèi)器的輸出即為場(chǎng)景中的最終檢測(cè)人數(shù)。

優(yōu)選地,對(duì)選定場(chǎng)景中處于畫(huà)面縱向不同位置處行人的尺寸及縱向坐標(biāo)進(jìn)行采樣,然后對(duì)這些數(shù)據(jù)進(jìn)行線性擬合,求出擬合系數(shù),并得到擬合公式,由擬合公式推導(dǎo)得出任一目標(biāo)位移至場(chǎng)景中任意其他位置時(shí)的尺寸,同一行人在視頻圖像的任意位置時(shí),歸一化前景面積相同,由此將前景面積s1修正為歸一化前景面積s2。

附圖說(shuō)明

圖1位本發(fā)明方法的流程圖

具體實(shí)施方式

1、建立行人樣本庫(kù)

對(duì)目標(biāo)監(jiān)控場(chǎng)景進(jìn)行前期采樣,采集包括行人各種姿態(tài)的監(jiān)控場(chǎng)景,作為訓(xùn)練數(shù)據(jù)集,也就是行人樣本庫(kù)。

2、運(yùn)動(dòng)前景提取

方法中運(yùn)動(dòng)前景的提取采用混合高斯模型法實(shí)現(xiàn),與一般的多高斯法相比,此方法速度更快,并且可以保持處理質(zhì)量不變。并且,這種方法還可以在得到運(yùn)動(dòng)前景的同時(shí),去除一部分陰影帶來(lái)的影響。

3、計(jì)算原始圖像面積

遍歷每一幀視頻圖像,計(jì)算所得前景圖像中的像素點(diǎn)數(shù)量,得到前景面積s1。

4、計(jì)算歸一化前景面積

由于“透視效應(yīng)”的影響,行人在攝像機(jī)的成像平面上的尺寸隨著與攝像機(jī)鏡頭距離的增大而逐漸縮小,因此,需要結(jié)合透視效應(yīng)原理,得到行人在場(chǎng)景各個(gè)位置上的投影尺寸。

首先對(duì)選定場(chǎng)景中處于畫(huà)面縱向不同位置處行人的尺寸及縱向坐標(biāo)進(jìn)行采樣,然后對(duì)這些數(shù)據(jù)進(jìn)行線性擬合,求出擬合系數(shù),并得到擬合公式。由擬合公式可以推導(dǎo)得出任一目標(biāo)位移至場(chǎng)景中任意其他位置時(shí)的尺寸。原則上,同一行人在視頻圖像的任意位置時(shí),歸一化前景面積相同。由此將上一步中求得的前景面積修正為歸一化前景面積s2。

5、提取有效角點(diǎn)信息

本方法提取兩個(gè)有效角點(diǎn)信息,一個(gè)是經(jīng)典的harris角點(diǎn),另一個(gè)是surf特征點(diǎn)。

對(duì)每一個(gè)視頻幀提取surf特征點(diǎn)的方法如下:

第一步:構(gòu)造hessian矩陣并生成尺度空間。以矩陣特征值是否是極值為判據(jù),提取出特征點(diǎn)。對(duì)圖像用不同尺寸的濾波器進(jìn)行濾波,得到同一圖像在不同尺度的一系列響應(yīng)圖,構(gòu)成一個(gè)金字塔;

第二步:對(duì)每個(gè)特征點(diǎn)計(jì)算主方向。統(tǒng)計(jì)以特征點(diǎn)為中心,6倍特征點(diǎn)尺度值為半徑,張角為60度的扇形區(qū)域內(nèi)所有像素點(diǎn)的合成向量,逐步將扇形區(qū)域逆時(shí)針旋轉(zhuǎn),步長(zhǎng)通常取0.1弧度,計(jì)算各方向扇形的合成向量模長(zhǎng)的最大值,其對(duì)應(yīng)角度即為特征點(diǎn)主方向;

第三步:建立描述子。選取以特征點(diǎn)為中心,方向與主方向?qū)R的正方形,將其分為4*4的子塊,對(duì)每一子塊進(jìn)行haar小波變換得到4個(gè)系數(shù),由此得到64維向量,即描述子。

得到視頻幀harris角點(diǎn)數(shù)量n1和surf特征點(diǎn)數(shù)量n2。

6、計(jì)算人群遮擋因子

結(jié)合上述步驟中得到的原始前景面積s1和前景區(qū)域角點(diǎn)數(shù)n1和n2,分別用兩者相除得到的商,來(lái)提取出遮擋因子d1和d2,即通過(guò)單位面積中的有效角點(diǎn)數(shù)來(lái)表征場(chǎng)景中人群間的遮擋程度。

7、建立回歸模型

構(gòu)建的是三層bp網(wǎng)絡(luò)模型t1,其中,輸入層為場(chǎng)景的歸一化前景面積s2和單位人群密度d1、d2組成的特征矢量,輸出層為場(chǎng)景的統(tǒng)計(jì)人數(shù)。測(cè)試時(shí),輸入待檢測(cè)圖片序列和遮擋因子d,通過(guò)回歸模型得到場(chǎng)景的初步估計(jì)人數(shù)r1。

8、基于檢測(cè)的人數(shù)統(tǒng)計(jì)

提取行人樣本庫(kù)的hog特征,采用adaboost級(jí)聯(lián)分類(lèi)器t2訓(xùn)練相應(yīng)的行人檢測(cè)器。檢測(cè)出每個(gè)視頻幀里的行人數(shù)目r2。

9、多分類(lèi)器融合

采用stacking的策略構(gòu)造第二個(gè)bp神經(jīng)網(wǎng)絡(luò)t3作為組合分類(lèi)器,將前兩個(gè)基分類(lèi)器的結(jié)果r1和r2作為組合分類(lèi)器的輸入向量的一部分,并結(jié)合上述歸一化前景面積s2和遮擋系數(shù)d1、d2的特征,構(gòu)造5維輸入向量,以場(chǎng)景中的實(shí)際人數(shù)為輸出向量。訓(xùn)練該神經(jīng)網(wǎng)絡(luò),測(cè)試時(shí)輸入一個(gè)視頻幀,提取上述5維特征向量輸入分類(lèi)器t3,得到場(chǎng)景中的最終統(tǒng)計(jì)人數(shù)r。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1