亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

視頻場景下在線自適應的異常事件檢測方法

文檔序號:10553306閱讀:251來源:國知局
視頻場景下在線自適應的異常事件檢測方法
【專利摘要】本發(fā)明公開了一種視頻場景下在線自適應的異常事件檢測方法。本發(fā)明是基于三維光流直方圖的時空域特征和在線自適應的異常事件檢測的方法,該方法在特征提取階段,使用三維光流直方圖作為視頻場景下基于時空域的前景目標運動的描述子,在異常事件檢測階段,使用在線自適應的方法來進行檢測。本發(fā)明不僅在特征提取階段使用了基于三維的光流直方圖的時空域信息,而且在檢測階段使用在線自適應的方法,提升了異常事件檢測模型對不同場景的適應性。
【專利說明】
視頻場景下在線自適應的異常事件檢測方法
技術領域
[0001] 本發(fā)明涉及一種視頻場景下異常事件檢測的方法,特別涉及一種視頻場景下在線 自適應的異常事件檢測方法。本發(fā)明是基于三維光流直方圖的時空域特征和在線聚類的異 常事件檢測方法。
【背景技術】
[0002] 隨著現(xiàn)實世界中監(jiān)控場景的越來越多,視頻監(jiān)控下的場景分析也吸引著更多學者 的注意。雖然目前存在的檢測方法的準確率和時間性能都較好,但是它只能檢測特定場景 下的異常事件,然而,真實場景下的監(jiān)控視頻是不斷變化的且不可估計的。我們并不能事先 判斷出哪些情況屬于異常事件,哪些情況屬于正常事件。因此,這就需要我們能從給定的監(jiān) 控視頻中自適應學習出此場景下前景的運動模式,從而判定出異常事件。該場景判定異常 的主要依據(jù)是:根據(jù)一個視頻片段,在線地學習出該場景下前景目標的運動模式,得到前景 目標的主流運動模式,從而認為與主流運動模式有顯著差異的前景目標屬于異常事件。
[0003] 因此,如何能夠在線自適應地處理異常事件是未來的主要研究方向。但是,該方法 的研究不夠深入,其對前景信息的描述不夠準確,因此導致了檢測準確率的降低。針對在線 自適應處理中存在的問題,本發(fā)明提出使用三維光流直方圖作為視頻場景在時空域的特征 提取方法,從而達到提高檢測準確率的目的。
[0004] 在線自適應問題,主要是通過使用時空域上的特征提取方法得到特征描述子,從 而進一步通過低級的模糊C均值聚類分離出視頻流中的前景信息,根據(jù)得到的前景信息,運 用高級的模糊C均值進行二次聚類,從前景信息中識別出其運動模式,進一步獲得運動信息 中的主流的運動模式和少有的運動模式。我們主要使用起始的一段視頻流作為初始化的視 頻幀,得到前景的運動模式,并作為訓練樣本集;然后,當有新的視頻幀到來時,根據(jù)訓練樣 本集的信息對其進行檢測。最后,將新到來的視頻幀加入到訓練樣本集中以更新運動模式, 如此循環(huán)下去,便達到了在線自適應檢測的目的。

【發(fā)明內(nèi)容】

[0005] 針對上述問題,本發(fā)明公開了一種視頻場景下在線自適應的異常事件檢測方法。 本發(fā)明是基于三維光流直方圖(Histograms of Optical Flow,H0F)的時空域特征和在線 自適應的異常事件檢測的方法,該方法在特征提取階段,使用三維光流直方圖作為視頻場 景下基于時空域的前景目標運動的描述子,在異常事件檢測階段,使用在線自適應的方法 來進行檢測。與傳統(tǒng)方法相比,該方法較好地解決了檢測場景的適用性問題。
[0006] 本發(fā)明解決其技術問題所采用的技術方案步驟如下:
[0007] 視頻場景下在線自適應的異常事件檢測方法,采用以下步驟實現(xiàn):
[0008] 步驟1、獲取前景目標的初始運動模式。
[0009] 1-1、預處理。讀取視頻流的起始片段作為輸入,并對其進行解碼,然后使用高斯濾 波進行去噪處理。
[0010] 1-2、特征提取。對步驟1-1中高斯處理后的視頻幀,首先使用稠密光流法計算相鄰 兩幀圖像逐像素點的稠密光流值;然后提取視頻流的塊區(qū)域,并根據(jù)光流向量的大小和方 向將塊區(qū)域中每個像素點投票到直方圖的相應區(qū)域中,從而得到每個塊區(qū)域的直方圖統(tǒng)計 信息,即為該塊區(qū)域的特征描述子。
[0011] 1-3、模糊C均值聚類。首先,根據(jù)得到的特征描述子,對其進行初級的模糊C均值聚 類,得到碼本和隸屬度信息。然后,對視頻流進行重采樣,并根據(jù)初級聚類后的結果,計算新 采樣樣本的特征描述子。最后,對新的特征描述子進行高級聚類。
[0012] 1-4、閾值選取。根據(jù)步驟1-3中高級聚類后的結果,得到用以區(qū)分新到來視頻幀中 異常事件發(fā)生與否的似然閾值。
[0013] 步驟2、獲取新到來視頻幀前景目標的運動模式。
[0014] 2-1、預處理。當有新的視頻幀到來時,將該視頻幀作為輸入,對其進行解碼,并使 用高斯濾波進行去噪處理。
[0015] 2-2、特征提取。對步驟2-1中高斯處理后的視頻幀,首先使用稠密光流法計算該幀 的前一幀與該幀的相鄰兩幀圖像逐像素點的稠密光流值,然后,提取視頻流的塊區(qū)域,并根 據(jù)光流向量的大小和方向將塊中每個像素點投票到直方圖的相應區(qū)域中,從而得到每個塊 的直方圖統(tǒng)計信息,即為該塊的特征描述子。
[0016] 2-3、模糊C均值聚類。首先,根據(jù)得到的特征描述子,對其進行初級的模糊C均值聚 類,得到碼本和隸屬度信息。然后,對視頻流進行重采樣,并根據(jù)初級聚類后的結果,計算新 采樣樣本的特征描述子。最后,對新的特征描述子進行高級聚類,得到高級聚類后的隸屬度 矩陣。
[0017] 步驟3、異常事件檢測。針對步驟2中得到的新的視頻幀高級聚類后的隸屬度信息, 將其與步驟1-4中的閾值進行比較,從而判斷出與視頻流中主流運動模式有顯著差別的運 動模式,并認為該運動模式為異常的運動模式。最后,將新的視頻幀加入到初始化數(shù)據(jù)中以 更新訓練樣本,并進一步檢測即將到來的下一個視頻幀,達到在線自適應檢測的目的。
[0018] 本發(fā)明的有益效果:
[0019] 1.本發(fā)明在特征提取階段,先對原始的視頻幀進行簡單的去噪處理,然后進行計 算視頻幀的稠密光流值,并將單幀的光流特征擴展到時空域中,該方法很好地保留了前景 目標在時空域上的運動信息,這在基于中高密度的視頻場景中特別適用。
[0020] 2.本發(fā)明在檢測階段,使用了在線自適應的方法。該方法并不關心視頻場景中的 前景信息,也不具體指定哪些屬于異常事件。該方法可以根據(jù)實時的監(jiān)控視頻自適應地學 習出與主流運動模式有顯著差異的運動模式,并認為該運動模式為異常的運動模式。
【附圖說明】
[0021] 圖1為本發(fā)明進行在線自適應異常事件檢測的流程圖。
[0022] 圖2為基于車流視頻場景的低級聚類后的結果圖像。
[0023] 圖3為基于車流視頻場景的在空間域上的高級聚類后的結果圖像。
[0024] 圖4為基于車流視頻場景的在時間域上的高級聚類后的結果圖像。
[0025] 圖5為基于車流視頻場景的最終的檢測結果圖像。
【具體實施方式】
[0026] 下面結合附圖1,對本發(fā)明的具體實施方案作進一步詳細描述。由于本發(fā)明使用的 檢測模型是基于在線處理的,也就說需要在線學習出前景目標的運動信息,得到哪些為主 流的運動模式,哪些為與主流運動模式有顯著差異的運動模式,并認為與主流運動模式有 顯著差異的運動模式為異常事件的運動模式。該方法需要使用視頻流起始的一段視頻幀為 初始化數(shù)據(jù),學習出前景目標的運動模式,然后,根據(jù)初始化數(shù)據(jù)中的運動信息計算得到一 個閾值,并將新到來視頻幀的前景目標的運動模式與該閾值作比較,從而判斷出異常事件 發(fā)生的區(qū)域。其具體實現(xiàn)步驟如下所示:
[0027] 步驟1、獲取前景目標的初始運動模式
[0028]為了達到在線學習的目的,需要先學習出前景目標的初始運動模式,具體流程如 下:
[0029] 1-1、預處理。首先從視頻流中解碼得到前t幀視頻幀作為初始化數(shù)據(jù),然后對每個 視頻幀進行高斯濾波,其具體操作是:用一個模板掃描視頻幀中的每一個像素,用模板確定 鄰域內(nèi)像素的加權平均灰度值,并用該加權平均灰度值替代模板中心像素點的值。
[0030] 所述的模板,或稱卷積、掩模,是大小為N*N的0和1的矩陣;
[0031] 1-2、特征提取。針對步驟1-1中預處理后的視頻幀,使用三維光流直方圖的方法提 取其時空域特征,具體實現(xiàn)過程包括以下兩個部分:
[0032] 1-2-1、光流值的計算
[0033]將步驟1 -1中高斯濾波后的視頻幀作為輸入,使用稠密光流法Horn-Schunck計算 相鄰兩幀間的光流值,以此可以得到前t幀的光流值,組成m X n X t大小的三維矩陣。
[0034] 1-2-2、建立時空域的特征描述子
[0035]將步驟1-2-1中得到的三維矩陣mXnXt,使用逐像素采樣的方法提取一個個大小 相等的a X al X a2(例如:5 X 5 X 5,5 X 6 X 7)的塊區(qū)域,然后根據(jù)每個塊區(qū)域內(nèi)像素點的光 流值,使用直方圖估計的方法計算每個塊區(qū)域的特征描述子。由于光流值為一個向量,其包 含大小和方向兩個信息,所以在統(tǒng)計過程中運用如下公式計算:
[0037]上述將直方圖分為兩部分,每一部分的維數(shù)均為p/2維,若光流值小于某閾值,則 將該光流值投影到直方圖的第一部分,若大于等于該閾值則將其投影到直方圖的第二部 分;在每一部分中,式(1)又將360度的角度信息平均劃分成了p/2個部分,并根據(jù)像素點的 光流值投影到相應的角度范圍中。本發(fā)明中,取直方圖的維數(shù)為16維,前后兩部分各8維。 [0038] 1-3、模糊C均值聚類。針對步驟1-2計算得到的特征描述子,對其進行低級的模糊C 均值聚類,得到編碼本和隸屬度信息,然后對視頻樣本(前t幀視頻幀)進行重采樣,根據(jù)低 級的聚類結果重新構建特征描述子,并對其進行高級模糊C均值聚類。
[0039] 1-3-1、低級模糊C均值聚類如下:
[0040]對步驟1-2中得到的特征描述子進行低級的模糊C均值聚類,得到5X5X5的塊區(qū) 域的聚類中心以及隸屬度矩陣,該階段中低級聚類后的結果如圖2所示。
[0041 ] 1-3-2、所述的高級模糊C均值聚類如下:
[0042] 根據(jù)低級的模糊C均值聚類后的結果,對視頻樣本(前t幀視頻幀)在視頻流的空間 和時間域上分別進行二次重采樣,并重新計算采樣后數(shù)據(jù)的特征描述子。實現(xiàn)流程如下:
[0043] 1-3-2-1、二次重采樣
[0044] 該階段的采樣主要是基于空間和時間分別采樣,因此,在空間上,選取bXb XI大 小的區(qū)域作為重采樣后的集合體,在時間上,選取1X1 Xb大小的區(qū)域作為重采樣的集合 體??臻g和時間域上的集合體分別由初次采樣時選取的5 X 5 X 5的塊區(qū)域組成。
[0045] 所述的當b等于21時,即在空間上選取21 X 21 X 1大小的區(qū)域,在時間上選取1 X 1 X21大小的區(qū)域時效果最佳;
[0046] 1-3-2-2、特征描述子的計算
[0047]該階段,為了更準確地描述前景目標的運動模式,本發(fā)明將像素點的位置信息考 慮在內(nèi)。又由于步驟1-2中特征提取階段,是逐像素采樣的,因此通過計算每個像素點到視 頻體中間像素點的相對位置來描繪它們的位置關系。然后根據(jù)低級聚類后的隸屬度矩陣, 使用概率密度函數(shù)來描述空間和時間域上每個塊區(qū)域的特征。
[0048] 首先,使用公式(2)計算出集成體中每個5 X 5 X 5塊區(qū)域的概率值, /' (V)二 /)(.vr"'j,c2".
[0049] ? (2) | V'二 c,.)/)(v 二(:',) / 口 1
[0050] 其中,P(Xv|V = Cl)表示在空間或時間域上,若塊區(qū)域屬于第i類時,該塊區(qū)域在集 成體中的位置;P(v = Cl)表示當塊區(qū)域屬于第i類時的概率,即為低級聚類中的隸屬度信 息。
[0051] 然后,根據(jù)集成體中每個塊區(qū)域的概率值,使用非參數(shù)估計的方法得到該集合體 的概率密度函數(shù)。
[0052] 最后,將計算得到空間和時間域上集成體的概率密度函數(shù)作為其特征描述子。
[0053] 1-3-2-3、改進的高級模糊C均值聚類
[0054]根據(jù)步驟1-3-2-2得到的特征描述子,分別在空間和時間域上進行改進后的模糊C 均值聚類。即改進后的模糊C均值聚類方法主要是使用非對稱的Kullback-LeibleHKL)散 度,作為兩個概率密度函數(shù)間差異的衡量標準。因此,兩個集成體間差異的判定準則如下計 算:
[0055] d(PEs t,PEst) = KL(Pk , || , ) + KL{P, t I! PE^ t ) C3)
[0056] 通過高級模糊C均值聚類,最終得到空間和時間域上的編碼本Cs和CT,以及相應的 隸屬度矩陣。該階段中分別在空間和時間域上進行模糊C均值聚類,空間域上的聚類結果如 圖3所示,時間域上的聚類結果如圖4所示。
[0057] 1-4、閾值的選取
[0058]根據(jù)步驟1-3中高級聚類后得到的隸屬度矩陣,分別得到空間域和時間域上的似 然閾值%和%。用獲得的似然閾值蜂aP%區(qū)分新到來視頻幀中異常事件發(fā)生與否,具體 如下:
[0059]首先通過公式(4)得到空間和時間域上兩個不相交子集貧,和,然后使用公式 (5)和(6)計算似然閾值%和%。
[0063] 其中,參數(shù)e是經(jīng)驗值,本發(fā)明中取為0.5;Pl表示第i個像素點;表示在空間域 上第i個像素點關于第k個編碼單詞的隸屬度值;《^表示在時間域上第i個像素點關于第k 個編碼單詞的隸屬度值;參數(shù)y G[0,l],用于控制正?;虍惓z測率;|D|表示D中的成員 數(shù)量;和分別表示從空間和時間編碼本中的第k個編碼單詞中學習到的似然閾值。
[0064] 步驟2、獲取新到來視頻幀前景目標的運動模式。
[0065] 2-1、預處理。當有新的視頻幀到來時,將新的視頻幀作為輸入,對其進行解碼,并 使用高斯濾波進行去噪處理。
[0066] 2-2、特征提取。對步驟2-1中高斯處理后的視頻幀,首先使用稠密光流法計算該幀 的前一幀與該幀的相鄰兩幀圖像逐像素點的稠密光流值,然后,將新到來的視頻幀與其前 (a2_ 1)幀組成新的m X n X a2大小的三維矩陣,然后,根據(jù)光流向量的大小和方向將塊中每 個像素點投票到直方圖的相應區(qū)域中,從而得到每個塊的直方圖統(tǒng)計信息,即為該塊的特 征描述子。具體的特征提取計算方法同步驟1中1-2的計算方法相同,均是使用三維光流直 方圖的方法提取其時空域特征。
[0067] 2-3、模糊C均值聚類。首先,根據(jù)步驟2-2中得到的特征描述子,對其進行低級的模 糊C均值聚類,得到碼本和隸屬度信息。然后,對視頻流進行重采樣,并根據(jù)低級聚類后的結 果,計算新采樣樣本的特征描述子。最后,對新采樣樣本的特征描述子進行高級聚類,得到 高級聚類后的隸屬度矩陣={?&}& ,將隸屬度矩陣記為*4和專 其中為分別表示在時刻t時空間和時間域上的隸屬度矩陣;關于該階段中模糊c 均值的計算方法與步驟1中1-3的計算方法相同。
[0068] 步驟3、異常事件檢測。
[0069] 針對步驟2計算得到隸屬度 <,和 <,得到新采樣樣本像素點的描述方法,如下所 示:
[0070] (k's,k;) = arg(max{il /},max{u1;}) (7) % 5, k:r T"
[0071] 其中,g表示在空間域上,基于第i個像素點的隸屬度矩陣《1中隸屬度最大的值; <表示在空間域上,基于第i個像素點的隸屬度矩陣 <,中隸屬度最大的值。
[0072]對于一個新到來的視頻序列Q中的第i個像素點(^,判斷其是否為異常的準則如下 所示:
[0074]其中,a和0是分別對于空間和時間的編碼本中預選擇的權值。關于在線自適應的 異常事件的檢測結果如圖5所示。
【主權項】
1. 視頻場景下在線自適應的異常事件檢測方法,其特征在于包括如下步驟: 步驟1、獲取前景目標的初始運動模式; 步驟2、獲取新到來視頻帖前景目標的運動模式; 步驟3、異常事件檢測; 所述的步驟1的具體流程如下: 1-1、預處理;首先從視頻流中解碼得到前t帖視頻帖作為初始化數(shù)據(jù),然后對每個視頻 帖進行高斯濾波,其具體操作是:用一個模板掃描視頻帖中的每一個像素,用模板確定鄰域 內(nèi)像素的加權平均灰度值,并用該加權平均灰度值替代模板中屯、像素點的值; 1-2、特征提取;針對步驟1-1中預處理后的視頻帖,使用=維光流直方圖的方法提取其 時空域特征,具體實現(xiàn)過程包括W下兩個部分: 1-2-1、光流值的計算 將步驟1-1中高斯濾波后的視頻帖作為輸入,使用稠密光流法化rn-Schunck計算相鄰 兩帖間的光流值,W此可W得到前t帖的光流值,組成mXnXt大小的=維矩陣; 1-2-2、建立時空域的特征描述子 將步驟1-2-1中得到的=維矩陣mXnXt,使用逐像素采樣的方法提取一個個大小相等 的aXalXa2(例如:5X5X5,5X6X7)的塊區(qū)域,然后根據(jù)每個塊區(qū)域內(nèi)像素點的光流值, 使用直方圖估計的方法計算每個塊區(qū)域的特征描述子;由于光流值為一個向量,其包含大 小和方向兩個信息,所W在統(tǒng)計過程中運用如下公式計算:上述將直方圖分為兩部分,每一部分的維數(shù)均為p/2維,若光流值小于某闊值,則將該 光流值投影到直方圖的第一部分,若大于等于該闊值則將其投影到直方圖的第二部分;在 每一部分中,式(1)又將360度的角度信息平均劃分成了p/2個部分,并根據(jù)像素點的光流值 投影到相應的角度范圍中;本發(fā)明中,取直方圖的維數(shù)為16維,前后兩部分各8維; 1-3、模糊C均值聚類;針對步驟1-2計算得到的特征描述子,對其進行低級的模糊C均值 聚類,得到編碼本和隸屬度信息,然后對視頻樣本,即前t帖視頻帖進行重采樣,根據(jù)低級的 聚類結果重新構建特征描述子,并對其進行高級模糊C均值聚類; 1-4、闊值的選取 根據(jù)步驟1-3中高級聚類后得到的隸屬度矩陣,分別得到空間域和時間域上的似然闊 值斯,和@*,;用獲得的似然闊值所,和與區(qū)分新到來視頻帖中異常事件發(fā)生與否。2. 根據(jù)權利要求1所述的視頻場景下在線自適應的異常事件檢測方法,其特征在于步 驟1-3所述的低級模糊C均值聚類如下: 對步驟1-2中得到的特征描述子進行低級的模糊C均值聚類,得到5X5X5的塊區(qū)域的 聚類中屯、W及隸屬度矩陣。3. 根據(jù)權利要求1所述的視頻場景下在線自適應的異常事件檢測方法,其特征在于步 驟1-3所述的高級模糊C均值聚類如下: 根據(jù)低級的模糊C均值聚類后的結果,對視頻樣本中的前t帖視頻帖,在視頻流的空間 和時間域上分別進行二次重采樣,并重新計算采樣后數(shù)據(jù)的特征描述子;實現(xiàn)流程如下: 1-3-2-1、二次重義樣 采樣基于空間和時間分別采樣,在空間上,選取bXbXl大小的區(qū)域作為重采樣后的集 合體,在時間上,選取IX IXb大小的區(qū)域作為重采樣的集合體;空間和時間域上的集合體 分別由初次采樣時選取的5 X 5 X 5的塊區(qū)域組成; 1-3-2-2、特征描述子的計算 將像素點的位置信息考慮在內(nèi);又由于步驟1-2中特征提取階段,是逐像素采樣的,因 此通過計算每個像素點到視頻體中間像素點的相對位置來描繪它們的位置關系;然后根據(jù) 低級聚類后的隸屬度矩陣,使用概率密度函數(shù)來描述空間和時間域上每個塊區(qū)域的特征; 首先,使用公式(2)計算出集成體中每個5X5X5塊區(qū)域的概率值,(2) 其中,PUvI V = Ci)表示在空間或時間域上,若塊區(qū)域屬于第i類時,該塊區(qū)域在集成體 中的位置;P(V = Ci)表示當塊區(qū)域屬于第i類時的概率,即為低級聚類中的隸屬度信息; 然后,根據(jù)集成體中每個塊區(qū)域的概率值,使用非參數(shù)估計的方法得到該集合體的概 率密度函數(shù); 最后,將計算得到空間和時間域上集成體的概率密度函數(shù)作為其特征描述子; 1-3-2-3、改進的高級模糊C均值聚類 根據(jù)步驟1-3-2-2得到的特征描述子,分別在空間和時間域上進行改進后的模糊C均值 聚類;即改進后的模糊C均值聚類方法主要是使用非對稱的KuUback-Leibler)散度,作為 兩個概率密度函數(shù)間差異的衡量標準;因此,兩個集成體間差異的判定準則如下計算:通過高級模糊C均值聚類,最終得到空間和時間域上的編碼本CS和CT,W及相應的隸屬 度矩陣;該階段中分別在空間和時間域上進行模糊C均值聚類。4. 根據(jù)權利要求3所述的視頻場景下在線自適應的異常事件檢測方法,其特征在于所 述的當b等于21時,即在空間上選取21 X 21 X 1大小的區(qū)域,在時間上選取1 X 1 X 21大小的 區(qū)域時效果最佳。5. 根據(jù)權利要求4所述的視頻場景下在線自適應的異常事件檢測方法,其特征在于步 驟1-4具體如下: 首先通過公式(4)得到空間和時間域上兩個不相交子集巧,和,然后使用公式(5)和 (6)計算似然闊值0;,和卸T ; (4) (5)(6) 其中,參數(shù)e是經(jīng)驗值,取為0.5;pi表示第i個像素點;ufi,表示在空間域上第i個像素點 關于第k個編碼單詞的隸屬度值;表示在時間域上第i個像素點關于第k個編碼單詞的隸 屬度值;參數(shù)丫 G [0,1 ],用于控制正?;虍惓z測率;ID I表示D中的成員數(shù)量;?&和分 別表示從空間和時間編碼本中的第k個編碼單詞中學習到的似然闊值。6.根據(jù)權利要求1所述的視頻場景下在線自適應的異常事件檢測方法,其特征在于步 驟2所述的獲取新到來視頻帖前景目標的運動模式,具體如下: 2-1、預處理;當有新的視頻帖到來時,將新的視頻帖作為輸入,對其進行解碼,并使用 高斯濾波進行去噪處理; 2-2、特征提取;對步驟2-1中高斯處理后的視頻帖,首先使用稠密光流法計算該帖的前 一帖與該帖的相鄰兩帖圖像逐像素點的稠密光流值,然后,將新到來的視頻帖與其前(a2- 1)帖組成新的mXnXa2大小的S維矩陣,然后,根據(jù)光流向量的大小和方向將塊中每個像 素點投票到直方圖的相應區(qū)域中,從而得到每個塊的直方圖統(tǒng)計信息,即為該塊的特征描 述子;具體的特征提取計算方法同步驟1中1-2的計算方法相同,均是使用=維光流直方圖 的方法提取其時空域特征; 2-3、模糊C均值聚類;首先,根據(jù)步驟2-2中得到的特征描述子,對其進行低級的模糊C 均值聚類,得到碼本和隸屬度信息;然后,對視頻流進行重采樣,并根據(jù)低級聚類后的結果, 計算新采樣樣本的特^描冰早.忌.對新要拴拴太的特征描述子進行高級聚類,得到高級 聚類后的隸屬度矩P,將隸屬度矩陣記為和;其中 為日分別表示在時刻t時空間和時間域上的隸屬度矩陣;關于該階段中模糊C均值 的計算方法與步驟1中1-3的計算方法相同; 步驟3、異常事件檢測; 針對步驟2計算得到隸屬度 <,和 <,,得到新采樣樣本像素點的描述方法,如下所示:(7) 其中,磅表示在空間域上,基于第i個像素點的隸屬度矩陣中隸屬度最大的值;4表 示在空間域上,基于第i個像素點的隸屬度矩陣 中隸屬度最大的值; 對于一個新到來的視頻序列Q中的第i個像素點qi,判斷其是否為異常的準則如下所示: 其中,a和e是分別對于空間和時間的編碼本中預選擇的權值。 (8)
【文檔編號】G06K9/00GK105913002SQ201610212435
【公開日】2016年8月31日
【申請日】2016年4月7日
【發(fā)明人】徐向華, 呂艷艷, 李平
【申請人】杭州電子科技大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1