亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法與流程

文檔序號(hào):11775272閱讀:624來(lái)源:國(guó)知局
一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法與流程

本發(fā)明涉及一種監(jiān)控系統(tǒng)異常行為識(shí)別方法,特別是一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法。



背景技術(shù):

現(xiàn)在工業(yè)的監(jiān)控系統(tǒng)大多只是進(jìn)行場(chǎng)景內(nèi)運(yùn)動(dòng)目標(biāo)的檢測(cè)或跟蹤,對(duì)場(chǎng)景中的異常事件或人的異常行為作進(jìn)一步的檢測(cè)和分析的比較少?,F(xiàn)有的基于監(jiān)控系統(tǒng)的異常檢測(cè)方法主要通過(guò)基于模型的方法進(jìn)行監(jiān)測(cè)判斷,這種方式首先需要確定某種準(zhǔn)則,然后從圖像序列中提取運(yùn)動(dòng)目標(biāo)的外形、運(yùn)動(dòng)等信息,根據(jù)這些所獲得的特征信息人工或者使用半監(jiān)督的方法定義正常行為的模型,通常選用圖模型進(jìn)行對(duì)由序列圖像特征所表示的狀態(tài)進(jìn)行建模,那些不匹配正常行為模型的觀測(cè)均被認(rèn)為是異常的,通過(guò)人工進(jìn)行觀測(cè)不僅容易造成判斷失誤,還會(huì)影響判斷識(shí)別的速度,同時(shí)也增加了人力成本;從圖像序列中提取運(yùn)動(dòng)目標(biāo)的外形、運(yùn)動(dòng)等信息時(shí),傳統(tǒng)的高斯背景模型是直接在rgb顏色空間做統(tǒng)一處理,另外,由于人的輪廓是不規(guī)則的弧形,對(duì)人物的運(yùn)動(dòng)檢測(cè)一般應(yīng)用于室外,而室外的光線是經(jīng)常性改變的,因此前景圖像會(huì)出現(xiàn)不連續(xù)的空洞現(xiàn)場(chǎng),造成前景圖像清晰度較低,影響后續(xù)的異常行為識(shí)別。因此,現(xiàn)有的技術(shù)存在著前景圖像清晰度較差以及容易出現(xiàn)異常行為的誤判的問(wèn)題。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的在于,提供一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法。本發(fā)明具有能夠改善前景圖像清晰度以及提高異常行為判斷精準(zhǔn)度的特點(diǎn)。

本發(fā)明的技術(shù)方案:一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法,包括以下步驟:

(1)樣本圖像輸入;

(2)前景提取:利用背景差分法將樣本圖形中運(yùn)動(dòng)目標(biāo)與背景分離出來(lái),得到運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)域;

(3)背景更新:通過(guò)自適應(yīng)的高斯混合模型對(duì)步驟(2)中得到的運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)域進(jìn)行建模,根據(jù)實(shí)際情況對(duì)高斯混合模型中的不同參數(shù)進(jìn)行動(dòng)態(tài)調(diào)節(jié),完成背景更新,得到前景圖像;

(4)前景圖像的去噪處理:使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,再利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理,得到去噪后的前景圖像;

(5)運(yùn)動(dòng)目標(biāo)跟蹤記錄:通過(guò)mean-shift目標(biāo)跟蹤算法對(duì)去噪后的前景圖像進(jìn)行跟蹤,并記錄運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)信息;

(6)行為特征的提?。焊鶕?jù)步驟(5)中記錄的運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)信息,利用背景差分法提取運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)區(qū)域,再根據(jù)運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)行為選取具有特征的前景圖像;

(7)建立標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù):利用步驟(6)采集到的具有特征的前景圖像中的運(yùn)動(dòng)目標(biāo)樣板,按照每種行為的不同進(jìn)行相關(guān)的學(xué)習(xí)并建模,建立起對(duì)應(yīng)的標(biāo)準(zhǔn)行為模型并分類保存到模型數(shù)據(jù)庫(kù)中,構(gòu)建標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù);

(8)結(jié)果分析與異常判定:利用加權(quán)hu不變矩的相似性比較算法,對(duì)步驟(6)中提取到的具有特征的前景圖像與標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù)中預(yù)定義的正常行為進(jìn)行比較,計(jì)算出待識(shí)別行為和預(yù)先定義行為的最小距離,將最小距離與設(shè)置閾值進(jìn)行比較。

(9)異常報(bào)警:對(duì)異常行為緊湊的跟蹤、標(biāo)記并報(bào)警。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述步驟(3)中的高斯混合模型是由k個(gè)高斯分布構(gòu)成,將第j個(gè)高斯分布的權(quán)重系數(shù)wj,n代入公式計(jì)算得出某一像素點(diǎn)像素值的概率,其中xn表示某一像素點(diǎn)在第n幀的像素值,k的取值為3-5。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述η(xn;θj,n)經(jīng)公式

計(jì)算得出;將r通道的和值μj,nr、g通道的和值μj,ng和b通道的和值μj,nb代入公式μj,n=(μj,nr,μj,ng,μj,nb),計(jì)算得出在第n幀時(shí)第j部分的均值μj,n;

將r通道的方差g通道的方差和b通道的方差代入公式得出在第n幀時(shí)第j部分的協(xié)方差,其中n為像素值提取的次數(shù)。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述步驟(3)中高斯混合模型的參數(shù)更新,具體包括以下步驟:

(3.1)匹配檢驗(yàn):

將像素點(diǎn)值xn與第j個(gè)高斯分布gj匹配,當(dāng)且僅當(dāng)該點(diǎn)像素點(diǎn)值xn與gj均值的差小于標(biāo)準(zhǔn)的2.5倍,將圖像在第n幀時(shí)的所有點(diǎn)與之前定義的k個(gè)高斯分布分別進(jìn)行匹配檢驗(yàn)。

(3.2)參數(shù)更新:根據(jù)高斯混合模型中的高斯分布與xn的匹配數(shù)量,選擇參數(shù)更新的方式。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述步驟(3.2)中參數(shù)具體更新步驟如下:

(3.2.1)當(dāng)高斯混合模型中至少存在一個(gè)高斯分布與xn匹配,則由以下方式進(jìn)行參數(shù)更新:

a)針對(duì)不匹配的高斯分布,將其均值與協(xié)方差矩陣保持不變。

b)針對(duì)匹配的高斯分布gj,通過(guò)公式μj,n=(1-ρ)·μj,n-1+ρ·xn和∑j,n=(1-ρ)·∑j,n-1+ρ·diag[(xn-μj,ν)t(xn-μj,ν)]進(jìn)行更新,其中ρ=α·η(xn|μj,ν-1,∑j,n-1),α為學(xué)習(xí)速度;

(3.2.2)當(dāng)高斯混合模型中沒(méi)有與xn匹配的分布,則按以下方式進(jìn)行更新:將高斯分布gs重新賦值,即按公式s=argmin{wk,n-1}和wk,n-1=w0·μs,n=xn·∑s,n=v0·i進(jìn)行,其中wk,n-1代表在n-1時(shí)刻第k個(gè)高斯分布的權(quán)重系數(shù);w0為預(yù)定一個(gè)小經(jīng)驗(yàn)正值,μs,n為在n時(shí)刻第s部分的均值,∑s,n為在n時(shí)刻第s部分的協(xié)方差,v0是給高斯分布的協(xié)方差預(yù)設(shè)一個(gè)大初始值,i為3x3的單位矩陣;

(3.2.3)將所有k個(gè)高斯分布在第n幀的權(quán)重參數(shù)通過(guò)公式wk,n=(1-α)·wj,n-1+α·p(wj|xn)進(jìn)行更新,其中,

wj為j個(gè)高斯分布的權(quán)重系數(shù)。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述步驟(4)中使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,具體的處理步驟如下:

(4.1)在rgb模型中用r、g、b三個(gè)分量所占比例表示其色度,用cr、cg、cb分別表示紅色、綠色、藍(lán)色分量在rgb中所占比例,即:

其中c為前景,c′為背景,c-c′表示前景與背景在rgb中的差量;

(4.2)計(jì)算前景與背景的亮度差分;基本的算法如下:

式中0(i,j)、i(i,j)分別為同一場(chǎng)景中不同時(shí)刻獲得的前景與背景的亮度值,t1是設(shè)定的亮度閾值,d(i,j)為亮度差分二值圖像;

當(dāng)將d(i,j)計(jì)算公式中的前景與背景的亮度值差分改為色度值差分時(shí)能將差分結(jié)果中的陰影去除,則用下述公式表示:

式中c(i,j)、c′(i,j)分別為前景與背景的色度值,t2為差分閾值。

(4.3)計(jì)算出前景與背景每個(gè)對(duì)應(yīng)像素點(diǎn)的3個(gè)色度差分值:cr(i,j)、cg(i,j)、cb(i,j),然后選擇其中的最大值作為該點(diǎn)的色度差分值,即:max{cr(i,j),cg(i,j),cb(i,j)}。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述步驟(4)中利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理的具體處理過(guò)程如下:

圖像存儲(chǔ)的坐標(biāo)空間中,提取前景圖像中的背景為0,前景為1,對(duì)坐標(biāo)從上到下,自左向右逐像素點(diǎn)進(jìn)行掃描,每行中連續(xù)為1的部分稱為一條線段,用line表示每條線段,保存于line結(jié)構(gòu)中,用segment表示掃面完成后劃分的連通區(qū)域,保存于segment結(jié)構(gòu)中;

c1:逐行掃描,得到當(dāng)前行的所有線段并保存至line結(jié)構(gòu)中;當(dāng)該行的上一行為空,則轉(zhuǎn)至c4,否則轉(zhuǎn)至c2。

c2:根據(jù)前面的連通性定義,將當(dāng)前行與上一行中的線段進(jìn)行連通性判斷:當(dāng)當(dāng)前行中的某段與上一行中的所有線段都不連通,則創(chuàng)建一個(gè)新的segment,放入連通區(qū)域鏈表中,并將該線段作為該區(qū)域線段鏈表的頭結(jié)點(diǎn),設(shè)定一個(gè)新的區(qū)域標(biāo)識(shí)號(hào)id,即累加1;

c3:否則,當(dāng)僅與某一條線段連通,則該線段放入與之連通的線段所在的鏈表中,并將其區(qū)域標(biāo)識(shí)號(hào)賦值給id;當(dāng)該線段同時(shí)與上一行的兩條或兩條以上線段連通,表明此時(shí)原本不連通的兩條線段通過(guò)當(dāng)前行的線段連通了,因此應(yīng)該為同一區(qū)域;并將該值更新到每個(gè)segment結(jié)構(gòu)的id;

c4:行加1;

c5:返回步c1,重新執(zhí)行直到圖像掃描結(jié)束。

掃描結(jié)束后,可根據(jù)每個(gè)segment里保存的像素點(diǎn)數(shù)量sum進(jìn)行過(guò)濾,設(shè)置一個(gè)閾值a,當(dāng)sum≥a是,保留為前景;當(dāng)sum<a時(shí),當(dāng)作噪點(diǎn)過(guò)濾。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法中,所述步驟(6)中根據(jù)運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)行為的中心坐標(biāo)、緊密度、傾斜角度、凹凸度和外接矩形長(zhǎng)度比來(lái)選擇具有特征的前景圖像;所述步驟(7)中通過(guò)對(duì)每種行為的中心坐標(biāo)、緊密度、傾斜角度、凹凸度和外接矩形長(zhǎng)度比不同進(jìn)行相關(guān)學(xué)習(xí)并建模。

前述的一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法,所述步驟(8)中利用加權(quán)hu不變矩的相似性比較算法的具體步驟為:設(shè)m代表當(dāng)前具有特征的前景圖像,通過(guò)公式計(jì)算m與標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù)s中的各模塊s之間的距離,其中s∈s;由公式dmj=min{dms}求出最小距離,其中s、j∈s,當(dāng)最小距離小于所設(shè)閾值,則認(rèn)為當(dāng)前具有特征的前景圖像中的人體行為為合法行為,否則判定標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)中沒(méi)有與當(dāng)前具有特征的前景圖像匹配的圖像,即該圖像中的人體行為為異常行為。

與現(xiàn)有技術(shù)相比,本發(fā)明通過(guò)將監(jiān)控系統(tǒng)中的異常行為作更細(xì)的劃分,并采用相應(yīng)的方法進(jìn)行行為分析和識(shí)別,改善前景圖像清晰度,提高異常行為判斷的精準(zhǔn)度。通過(guò)自適應(yīng)的高斯混合模型對(duì)運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)域進(jìn)行建模,根據(jù)實(shí)際的環(huán)境對(duì)高斯混合模型中的不同參數(shù)進(jìn)行動(dòng)態(tài)調(diào)節(jié),進(jìn)而能夠?qū)崟r(shí)進(jìn)行背景更新,提高前景圖像的清晰度;提高使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,分別從r,g,b三個(gè)通道進(jìn)行差分和背景更新處理,通過(guò)細(xì)微的顏色變化將呈現(xiàn)較大的差分結(jié)果,連通性更好。再利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理,最終能夠呈現(xiàn)出一張清新、空洞和噪點(diǎn)很少的圖像,提高后續(xù)識(shí)別的精準(zhǔn)度。還通過(guò)建立標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù),同時(shí)對(duì)每種行為的不同特征進(jìn)行學(xué)習(xí),能夠大大提高系統(tǒng)的識(shí)別速度和識(shí)別準(zhǔn)確度。同時(shí),通過(guò)利用加權(quán)hu不變矩的相似性比較算法對(duì)提取到的具有特征的前景圖像與標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù)中預(yù)定義的正常行為進(jìn)行比較,將計(jì)算出的待識(shí)別行為和預(yù)先定義行為之間的相似度與設(shè)置閾值進(jìn)行比較從而進(jìn)行判別,進(jìn)一步的提高了異常行為識(shí)別的準(zhǔn)確度。綜上所述,本發(fā)明具有能夠改善前景圖像清晰度以及提高異常行為判斷精準(zhǔn)度的特點(diǎn)。

附圖說(shuō)明

圖1為本發(fā)明的人體異常行為識(shí)別方法的流程圖;

圖2為運(yùn)動(dòng)行人的原始圖;

圖3為使用rgb顏色空間三通道分離后的前景圖;

圖4為背景差分法處理流程圖;

圖5為前景圖像的數(shù)字表示坐標(biāo)示意圖;

圖6為用去噪處理算法將各區(qū)域分別標(biāo)號(hào)示意圖;

圖7為去噪處理算法數(shù)據(jù)結(jié)構(gòu)模型圖;

圖8為采用本發(fā)明方法處理后的效果圖。

具體實(shí)施方式

下面結(jié)合附圖和實(shí)施例對(duì)本發(fā)明作進(jìn)一步的說(shuō)明,但并不作為對(duì)本發(fā)明限制的依據(jù)。

實(shí)施例。一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法,構(gòu)成如附圖1至圖8所示,包括以下步驟:

(1)樣本圖像輸入;

(2)前景提?。豪帽尘安罘址▽颖緢D形中運(yùn)動(dòng)目標(biāo)與背景分離出來(lái),得到運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)域;

(3)背景更新:通過(guò)自適應(yīng)的高斯混合模型對(duì)步驟(2)中得到的運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)域進(jìn)行建模,根據(jù)實(shí)際情況對(duì)高斯混合模型中的不同參數(shù)進(jìn)行動(dòng)態(tài)調(diào)節(jié),完成背景更新,得到前景圖像;

(4)前景圖像的去噪處理:使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,再利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理,得到去噪后的前景圖像;

(5)運(yùn)動(dòng)目標(biāo)跟蹤記錄:通過(guò)mean-shift目標(biāo)跟蹤算法對(duì)去噪后的前景圖像進(jìn)行跟蹤,并記錄運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)信息;

(6)行為特征的提?。焊鶕?jù)步驟(5)中記錄的運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)信息,利用背景差分法提取運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)區(qū)域,再根據(jù)運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)行為選取具有特征的前景圖像;

(7)建立標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù):利用步驟(6)采集到的具有特征的前景圖像中的運(yùn)動(dòng)目標(biāo)樣板,按照每種行為的不同進(jìn)行相關(guān)的學(xué)習(xí)并建模,建立起對(duì)應(yīng)的標(biāo)準(zhǔn)行為模型并分類保存到模型數(shù)據(jù)庫(kù)中,構(gòu)建標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù);

(8)結(jié)果分析與異常判定:利用加權(quán)hu不變矩的相似性比較算法,對(duì)步驟(6)中提取到的具有特征的前景圖像與標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù)中預(yù)定義的正常行為進(jìn)行比較,計(jì)算出待識(shí)別行為和預(yù)先定義行為的最小距離,將最小距離與設(shè)置閾值進(jìn)行比較。

(9)異常報(bào)警:對(duì)異常行為緊湊的跟蹤、標(biāo)記并報(bào)警。

所述步驟(3)中的高斯混合模型是由k個(gè)高斯分布構(gòu)成,將第j個(gè)高斯分布的權(quán)重系數(shù)wj,n代入公式計(jì)算得出某一像素點(diǎn)像素值的概率,其中xn表示某一像素點(diǎn)在第n幀的像素值,k的取值為3-5。

所述η(xn;θj,n)經(jīng)公式

計(jì)算得出;將r通道的和值μj,nr、g通道的和值μj,ng和b通道的和值μj,nb代入公式μj,n=(μj,nr,μj,ng,μj,nb),計(jì)算得出在第n幀時(shí)第j部分的均值μj,n;

將r通道的方差g通道的方差和b通道的方差代入公式得出在第n幀時(shí)第j部分的協(xié)方差,其中n為像素值提取的次數(shù)。

所述步驟(3)中高斯混合模型的參數(shù)更新,具體包括以下步驟:

(3.1)匹配檢驗(yàn):

將像素點(diǎn)值xn與第j個(gè)高斯分布gj匹配,當(dāng)且僅當(dāng)該點(diǎn)像素點(diǎn)值xn與gj均值的差小于標(biāo)準(zhǔn)的2.5倍,將圖像在第n幀時(shí)的所有點(diǎn)與之前定義的k個(gè)高斯分布分別進(jìn)行匹配檢驗(yàn)。

(3.2)參數(shù)更新:根據(jù)高斯混合模型中的高斯分布與xn的匹配數(shù)量,選擇參數(shù)更新的方式。

所述步驟(3.2)中參數(shù)具體更新步驟如下:

(3.2.1)當(dāng)高斯混合模型中至少存在一個(gè)高斯分布與xn匹配,則由以下方式進(jìn)行參數(shù)更新:

a)針對(duì)不匹配的高斯分布,將其均值與協(xié)方差矩陣保持不變。

b)針對(duì)匹配的高斯分布gj,通過(guò)公式μj,n=(1-ρ)·μj,n-1+ρ·xn和∑j,n=(1-ρ)·∑j,n-1+ρ·diag[(xn-μj,ν)t(xn-μj,ν)]進(jìn)行更新,其中ρ=α·η(xn|μj,ν-1,∑j,n-1),α為學(xué)習(xí)速度;

(3.2.2)當(dāng)高斯混合模型中沒(méi)有與xn匹配的分布,則按以下方式進(jìn)行更新:將高斯分布gs重新賦值,即按公式s=argmin{wk,n-1}和wk,n-1=w0·μs,n=xn·∑s,n=v0·i進(jìn)行,其中wk,n-1代表在n-1時(shí)刻第k個(gè)高斯分布的權(quán)重系數(shù);w0為預(yù)定一個(gè)小經(jīng)驗(yàn)正值,μs,n為在n時(shí)刻第s部分的均值,∑s,n為在n時(shí)刻第s部分的協(xié)方差,v0是給高斯分布的協(xié)方差預(yù)設(shè)一個(gè)大初始值,i為3x3的單位矩陣;

(3.2.3)將所有k個(gè)高斯分布在第n幀的權(quán)重參數(shù)通過(guò)公式wk,n=(1-α)·wj,n-1+α·p(wj|xn)進(jìn)行更新,其中,

wj為j個(gè)高斯分布的權(quán)重系數(shù)。

所述步驟(4)中使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,具體的處理步驟如下:

(4.1)在rgb模型中用r、g、b三個(gè)分量所占比例表示其色度,用cr、cg、cb分別表示紅色、綠色、藍(lán)色分量在rgb中所占比例,即:

其中c為前景,c′為背景,c-c′表示前景與背景在rgb中的差量;

(4.2)計(jì)算前景與背景的亮度差分;基本的算法如下:

式中0(i,j)、i(i,j)分別為同一場(chǎng)景中不同時(shí)刻獲得的前景與背景的亮度值,t1是設(shè)定的亮度閾值,d(i,j)為亮度差分二值圖像;

當(dāng)將d(i,j)計(jì)算公式中的前景與背景的亮度值差分改為色度值差分時(shí)能將差分結(jié)果中的陰影去除,則用下述公式表示:

式中c(i,j)、c′(i,j)分別為前景與背景的色度值,t2為差分閾值。

(4.3)計(jì)算出前景與背景每個(gè)對(duì)應(yīng)像素點(diǎn)的3個(gè)色度差分值:cr(i,j)、cg(i,j)、cb(i,j),然后選擇其中的最大值作為該點(diǎn)的色度差分值,即:max{cr(i,j),cg(i,j),cb(i,j)}。

所述步驟(4)中利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理的具體處理過(guò)程如下:

圖像存儲(chǔ)的坐標(biāo)空間中,提取前景圖像中的背景為0,前景為1,對(duì)坐標(biāo)從上到下,自左向右逐像素點(diǎn)進(jìn)行掃描,每行中連續(xù)為1的部分稱為一條線段,用line表示每條線段,保存于line結(jié)構(gòu)中,用segment表示掃面完成后劃分的連通區(qū)域,保存于segment結(jié)構(gòu)中;

c1:逐行掃描,得到當(dāng)前行的所有線段并保存至line結(jié)構(gòu)中;當(dāng)該行的上一行為空,則轉(zhuǎn)至c4,否則轉(zhuǎn)至c2。

c2:根據(jù)前面的連通性定義,將當(dāng)前行與上一行中的線段進(jìn)行連通性判斷:當(dāng)當(dāng)前行中的某段與上一行中的所有線段都不連通,則創(chuàng)建一個(gè)新的segment,放入連通區(qū)域鏈表中,并將該線段作為該區(qū)域線段鏈表的頭結(jié)點(diǎn),設(shè)定一個(gè)新的區(qū)域標(biāo)識(shí)號(hào)id,即累加1;

c3:否則,當(dāng)僅與某一條線段連通,則該線段放入與之連通的線段所在的鏈表中,并將其區(qū)域標(biāo)識(shí)號(hào)賦值給id;當(dāng)該線段同時(shí)與上一行的兩條或兩條以上線段連通,表明此時(shí)原本不連通的兩條線段通過(guò)當(dāng)前行的線段連通了,因此應(yīng)該為同一區(qū)域;并將該值更新到每個(gè)segment結(jié)構(gòu)的id;

c4:行加1;

c5:返回步c1,重新執(zhí)行直到圖像掃描結(jié)束。

掃描結(jié)束后,可根據(jù)每個(gè)segment里保存的像素點(diǎn)數(shù)量sum進(jìn)行過(guò)濾,設(shè)置一個(gè)閾值a,當(dāng)sum≥a是,保留為前景;當(dāng)sum<a時(shí),當(dāng)作噪點(diǎn)過(guò)濾。

所述步驟(6)中根據(jù)運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)行為的中心坐標(biāo)、緊密度、傾斜角度、凹凸度和外接矩形長(zhǎng)度比來(lái)選擇具有特征的前景圖像;所述步驟(7)中通過(guò)對(duì)每種行為的中心坐標(biāo)、緊密度、傾斜角度、凹凸度和外接矩形長(zhǎng)度比不同進(jìn)行相關(guān)學(xué)習(xí)并建模。

所述步驟(8)中利用加權(quán)hu不變矩的相似性比較算法的具體步驟為:設(shè)m代表當(dāng)前具有特征的前景圖像,通過(guò)公式計(jì)算m與標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù)s中的各模塊s之間的距離,其中s∈s;由公式dmj=min{dms}求出最小距離,其中s、j∈s,當(dāng)最小距離小于所設(shè)閾值,則認(rèn)為當(dāng)前具有特征的前景圖像中的人體行為為合法行為,否則判定標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)中沒(méi)有與當(dāng)前具有特征的前景圖像匹配的圖像,即該圖像中的人體行為為異常行為。

本發(fā)明提供一種基于監(jiān)控系統(tǒng)的人體異常行為識(shí)別方法,多應(yīng)用于鐵路交通、銀行、廣場(chǎng)等涉及公共安全問(wèn)題需要實(shí)時(shí)監(jiān)控的場(chǎng)所。如圖1所示,本發(fā)明的人體異常行為識(shí)別方法包括以下步驟:

(1)樣本圖像輸入:通過(guò)攝像頭采集預(yù)先定義的人體運(yùn)動(dòng)行為作為樣本,將采集到的樣本圖形輸入監(jiān)控系統(tǒng)中,本例中預(yù)先定義的行為是行人行走,如圖1所示;

(2)前景提取及背景更新:利用背景差分法將樣本圖形中運(yùn)動(dòng)目標(biāo)(也即前景)與背景分離出來(lái),得到運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)域,通過(guò)參數(shù)的動(dòng)態(tài)調(diào)節(jié)來(lái)適應(yīng)背景的變化,達(dá)到更新背景的目的,可能遇到背景變化情況如太陽(yáng)光強(qiáng)弱的變化,燈光強(qiáng)度的調(diào)節(jié)以及背景中非目標(biāo)物體細(xì)微的變化。為了更能準(zhǔn)確的選擇背影模型,本發(fā)明通過(guò)自適應(yīng)高斯混合模型對(duì)得到的運(yùn)動(dòng)目標(biāo)的輪廓或者整體區(qū)來(lái)進(jìn)行建模,在不同的情況下對(duì)高斯混合模型中不同的參數(shù)進(jìn)行更新,進(jìn)而完成背景更新。

進(jìn)一步的,所述的步驟(2)中高斯混合模型的建立具體如下:高斯混合模型是由k個(gè)高斯分布構(gòu)成,將某一像素點(diǎn)像素值的概率表示為:

在公式中,xn為該點(diǎn)在n時(shí)刻(即第n幀)的像素值,由三通道(r,g,b)構(gòu)成;k取值為3-5;wj,n代表在n時(shí)刻第j個(gè)高斯分布的權(quán)重系數(shù);η(xn;θj,n)滿足一個(gè)正態(tài)分布,定義如下:

其中μj,n為在n時(shí)刻第j部分的均值,∑j,n為在n時(shí)刻第j部分的協(xié)方差;n為像素值提取的次數(shù);其中

μj,n=(μj,nr,μj,ng,μj,nb)

其中μj,nr為r通道的和值;μj,ng為g通道的和值;μj,nb為b通道的和值;為r通道的方差;為g通道的方差;為b通道的方差。

此時(shí)的參數(shù)由元組(w,μ,σ)構(gòu)成,下面將針對(duì)不同的情況對(duì)高斯混合模型中不同的參數(shù)進(jìn)行更新,所述的步驟(2)中不同的情況下對(duì)高斯混合模型中不同的參數(shù)進(jìn)行更新,具體步驟如下:

a1.匹配檢驗(yàn):

定義像素點(diǎn)值xn與第j個(gè)高斯分布gj匹配,當(dāng)且僅當(dāng)該點(diǎn)像素點(diǎn)值xn與gj均值的差小于標(biāo)準(zhǔn)的2.5倍,將圖像在第n幀時(shí)的所有點(diǎn)與之前定義的k個(gè)高斯分布分別進(jìn)行匹配檢驗(yàn)。

a2.參數(shù)更新:

a2.1若高斯混合模型中至少存在一個(gè)高斯分布與xn匹配,則由以下方式進(jìn)行參數(shù)更新:

1)針對(duì)不匹配的高斯分布,將其均值與協(xié)方差矩陣保持不變。

2)針對(duì)匹配的高斯分布gj,更新如下:

μj,n=(1-ρ)·μj,n-1+ρ·xn

∑j,n=(1-ρ)·∑j,n-1+ρ·diag[(xn-μj,ν)t(xn-μj,ν)]

其中,ρ=α·η(xn|μj,ν-1,∑j,n-1),α為學(xué)習(xí)速度。

a2.2若高斯混合模型中沒(méi)有與xn匹配的分布,則按以下方式進(jìn)行更新:

將最不可能是背景的高斯分布gs重新賦值,也即:

s=argmin{wk,n-1}

wk,n-1=w0·μs,n=xn·∑s,n=v0·i

公式中wk,n-1代表在n-1時(shí)刻第k個(gè)高斯分布的權(quán)重系數(shù);w0為預(yù)定一個(gè)小經(jīng)驗(yàn)正值,μs,n為在n時(shí)刻第s部分的均值,∑s,n為在n時(shí)刻第s部分的協(xié)方差;v0是給高斯分布的協(xié)方差預(yù)設(shè)一個(gè)大初始值,i為3x3的單位矩陣。

a3.將所有k個(gè)高斯分布在第n幀的權(quán)重參數(shù)更新為

wk,n=(1-α)·wj,n-1+α·p(wj|xn)

其中

其中wj為j個(gè)高斯分布的權(quán)重系數(shù)。

(3)前景圖像的去噪處理:使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,然后再利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理。

進(jìn)一步的,所述步驟(3)中使用rgb顏色空間三通道分離法對(duì)前景圖像進(jìn)行去噪處理,具體的處理步驟如下:

假設(shè)在rgb模型中,設(shè)置r、g、b三個(gè)分量所占比例表示其色度,即:cr、cg、cb分別為紅色、綠色、藍(lán)色分量在rgb中所占比例,則

式中c為前景,c′為背景,c-c′表示前景與背景在rgb中的差量。

圖4為背景差分法處理流程圖,差分運(yùn)動(dòng)檢測(cè)中的差分運(yùn)算是前景與背景的亮度差分,

其基本的算法如下:

式中0(i,j)、i(i,j)分別為同一場(chǎng)景中不同時(shí)刻獲得的前景與背景的亮度值,t1是設(shè)定的亮度閾值,d(i,j)為亮度差分二值圖像;

將公式(3-2)中的前景與背景的亮度值差分改為色度值差分,能將差分結(jié)果中的陰影去除,則表示為:

式中c(i,j)、c′(i,j)分別為前景與背景的色度值,t2為差分閾值。

同時(shí)計(jì)算出前景與背景每個(gè)對(duì)應(yīng)像素點(diǎn)的3個(gè)色度差分值:cr(i,j)、cg(i,j)、cb(i,j),然后選擇其中的最大值作為該點(diǎn)的色度差分值,即:

max{cr(i,j),cg(i,j),cb(i,j)}

圖3為使用rgb顏色空間三通道分離后的前景圖;經(jīng)過(guò)以上去噪處理的的前景圖像還存在噪點(diǎn)和不連通的區(qū)域,然后再利用去噪處理算法對(duì)噪點(diǎn)進(jìn)行處理,具體步驟如下:

三通道分離法處理后的前景圖像仍然存在噪點(diǎn)和不連通的區(qū)域,需要對(duì)其進(jìn)行去噪處理。通常的圖像存儲(chǔ)在坐標(biāo)空間中,在坐標(biāo)中,提取的前景圖像中的背景為0,前景為1,對(duì)坐標(biāo)從上到下,自左向右逐像素點(diǎn)進(jìn)行掃描,每行中連續(xù)為1的部分稱為一條線段,圖5為前景圖像的數(shù)字表示坐標(biāo)示意圖;圖6為用去噪處理算法將各區(qū)域分別標(biāo)號(hào)示意圖;

假設(shè)用line表示每條線段,保存于line結(jié)構(gòu)中,用segment表示掃面完成后劃分的連通區(qū)域,保存于segment結(jié)構(gòu)中;

c1:逐行掃描,得到當(dāng)前行的所有線段并保存至line結(jié)構(gòu)中。若該行的上一行為空,則轉(zhuǎn)至c4,否則轉(zhuǎn)至c2。

c2:根據(jù)前面的連通性定義,將當(dāng)前行與上一行中的線段進(jìn)行連通性判斷:若當(dāng)前行中的某段與上一行中的所有線段都不連通,則創(chuàng)建一個(gè)新的segment,放入連通區(qū)域鏈表中,并將該線段作為該區(qū)域線段鏈表的頭結(jié)點(diǎn),設(shè)定一個(gè)新的區(qū)域標(biāo)識(shí)號(hào)id(累加1);

c3:否則,若僅與某一條線段連通,則該線段放入與之連通的線段所在的鏈表中,并將其區(qū)域標(biāo)識(shí)號(hào)賦值給id;若該線段同時(shí)與上一行的兩條或兩條以上線段連通,表明此時(shí)原本不連通的兩條線段通過(guò)當(dāng)前行的線段連通了,因此應(yīng)該為同一區(qū)域;并將該值更新到每個(gè)segment結(jié)構(gòu)的id;

c4:行加1;

c5:返回步c1,重新執(zhí)行直到圖像掃描結(jié)束。

圖7為去噪處理算法數(shù)據(jù)結(jié)構(gòu)模型圖;根據(jù)上面的算法,圖像6中的區(qū)域被分成若干個(gè)帶有標(biāo)號(hào)的運(yùn)動(dòng)目標(biāo),運(yùn)動(dòng)目標(biāo)間相互不連通。從圖6中可以發(fā)現(xiàn),原前景圖像有4個(gè)不連通的區(qū)域,掃描結(jié)束后,可根據(jù)每個(gè)segment里保存的像素點(diǎn)數(shù)量sum進(jìn)行過(guò)濾,設(shè)置一個(gè)閾值a,當(dāng)sum≥a是,保留為前景;當(dāng)sum<a時(shí),當(dāng)作噪點(diǎn)過(guò)濾。

(4)運(yùn)動(dòng)目標(biāo)跟蹤記錄:根據(jù)步驟(3)去噪后的前景圖像,通過(guò)mean-shift目標(biāo)跟蹤算法跟蹤并記錄運(yùn)動(dòng)目標(biāo)的位置和大小信息;

(5)行為特征的提取:根據(jù)步驟(4)中記錄運(yùn)動(dòng)目標(biāo)的位置和大小信息,利用背景差分法提取到運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)區(qū)域,再根據(jù)運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)行為的中心坐標(biāo)、緊密度、傾斜角度、凹凸度和外接矩形長(zhǎng)度比來(lái)選取具有特征的前景圖像;

(6)行為建模與模型庫(kù):利用步驟(5)采集的運(yùn)動(dòng)目標(biāo)樣本按照每種行為的中心坐標(biāo)、緊密度、傾斜角度、凹凸度和外形矩陣長(zhǎng)度比的不同進(jìn)行相關(guān)的學(xué)習(xí)建模,建立起對(duì)應(yīng)的標(biāo)準(zhǔn)行為模型,再將獲得的標(biāo)準(zhǔn)行為模型分類保存到模型數(shù)據(jù)庫(kù)中,構(gòu)建標(biāo)準(zhǔn)的行為數(shù)據(jù)庫(kù);

(7)結(jié)果分析與異常判定:利用加權(quán)hu不變矩的相似性比較算法,對(duì)當(dāng)前提取到的各種運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)行為的靜態(tài)樣本圖片與標(biāo)準(zhǔn)行為數(shù)據(jù)庫(kù)中預(yù)定義的正常行為進(jìn)行比較,計(jì)算出待識(shí)別行為和預(yù)先定義行為的相似度,將相似度與設(shè)置閾值進(jìn)行比較,大于相似度閾值的為正常行為,小于相似度閾值的為異常行為,進(jìn)而判別出異常;

(8)異常報(bào)警:對(duì)異常行為緊湊的跟蹤、標(biāo)記并報(bào)警;圖8為采用本發(fā)明方法處理后的效果圖。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1