本發(fā)明涉及智能視頻監(jiān)控、計(jì)算機(jī)視覺、機(jī)器視覺領(lǐng)域,具體涉及一種基于相關(guān)濾波器的長期行人跟蹤方法。
背景技術(shù):
行人跟蹤在計(jì)算機(jī)視覺領(lǐng)域中是一個(gè)基礎(chǔ)性分支,其應(yīng)用非常廣泛,如智能相機(jī)、自動駕駛、視頻監(jiān)控等等。在過去幾十年里,行人跟蹤的研究有了很大的進(jìn)展,但是由于應(yīng)用環(huán)境的限制,如光照的影響,行人在運(yùn)動過程中發(fā)生的遮擋和形變這些因素,使得行人跟蹤算法性能較低,強(qiáng)魯棒性的算法難以實(shí)現(xiàn)。
行人跟蹤是智能視頻監(jiān)控的一個(gè)重要分支,在機(jī)場、火車站、體育場、候車室和展覽館等大型公共場合的行人跟蹤是智能視頻監(jiān)控系統(tǒng)不可缺少的內(nèi)容。目前已有的行人跟蹤方法主要存在如下的問題:
行人與行人或者行人與環(huán)境的遮擋問題,運(yùn)動行人發(fā)生的形變問題,隨著時(shí)間的變化光照的變化問題等。行人在運(yùn)動過程中由于受到上述因素的影響,對其跟蹤的過程也變得越來越難,最終便會丟失目標(biāo)。
所以如何提高在復(fù)雜環(huán)境下視頻監(jiān)控系統(tǒng)中行人跟蹤的魯棒性是有待解決的問題。
技術(shù)實(shí)現(xiàn)要素:
為了解決上述的技術(shù)問題,本發(fā)明的目的就在于提高行人跟蹤的準(zhǔn)確性和性能,提供一種基于相關(guān)濾波器的長期行人跟蹤方法。
本發(fā)明所采用的技術(shù)方案是:
s10,讀入監(jiān)控視頻,對目標(biāo)劃定目標(biāo)區(qū)域。
s20,提取目標(biāo)區(qū)域顏色特征和lbp特征。
s30,判定目標(biāo)是否被遮擋。
s40,嶺回歸訓(xùn)練和檢測。
s50,將跟蹤到的行人加以標(biāo)記輸出到視頻監(jiān)控。
上述的技術(shù)方案,其中,所述步驟s10中讀入監(jiān)控視頻,對目標(biāo)劃定目標(biāo)區(qū)域包括如下步驟:
s11,使用鼠標(biāo)對行人目標(biāo)劃定矩形區(qū)域,系統(tǒng)初始化各類跟蹤參數(shù)。
上述的技術(shù)方案,其中,所述步驟s20中提取目標(biāo)區(qū)域顏色特征和lbp特征中包括如下步驟:
s21,把目標(biāo)區(qū)域平均分成5個(gè)水平條帶,每個(gè)水平條帶的每種顏色空間的每個(gè)通道都提取16維顏色直方圖特征。
s22,對于每個(gè)水平條帶,分別提取lbp等價(jià)模式中鄰域點(diǎn)數(shù)為8半徑為1和鄰域點(diǎn)數(shù)為16半徑為2的特征,然后將所有的特征串聯(lián)成行人特征。
s23,由于提取出的特征維數(shù)較大,使用pca方法進(jìn)行降維。
上述的技術(shù)方案,其中,所述步驟s30中判定目標(biāo)是否被遮擋包括如下步驟:
s31,找到行人目標(biāo)概率分布最大的位置和概率分布的最大值。
s32,在最大值的周圍,找出滿足大于某個(gè)概率分布閾值的所有點(diǎn)。
s33,計(jì)算上述所有點(diǎn)到概率分布最大值點(diǎn)的歐式距離和。
s34,若歐式距離和大于設(shè)定的閾值,則判定受到遮擋。
上述的技術(shù)方案,其中,所述步驟s40中嶺回歸訓(xùn)練如下步驟:
s41,對劃定的目標(biāo)區(qū)域擴(kuò)大到原來的2.5倍成為一個(gè)候選塊。
s42,對此候選塊向四周循環(huán)移位采集負(fù)樣本。
s43,利用嶺回歸器對采集的樣本進(jìn)行訓(xùn)練。
s44,當(dāng)前幀中,對前一幀目標(biāo)區(qū)域進(jìn)行循環(huán)采樣。
s45,利用前一幀訓(xùn)練的嶺回歸器計(jì)算樣本的響應(yīng),響應(yīng)最大值作為當(dāng)前幀目標(biāo)的位置。
本發(fā)明的長期行人跟蹤方法產(chǎn)生以下幾種良好的效果:
效果1:本發(fā)明采用跟蹤目標(biāo)的概率分布,計(jì)算目標(biāo)區(qū)域與周圍候選區(qū)域的歐式距離來判斷是否發(fā)生遮擋,這一過程是算法后續(xù)過程的基礎(chǔ),提高了跟蹤的準(zhǔn)確性。
效果2:本發(fā)明采用提取行人多特征的方法,特征為顏色特征和lbp特征,行人一旦發(fā)生遮擋,就與已提取的特征進(jìn)行匹配,相似度最高的為目標(biāo)行人。行人再識別避免了目標(biāo)行人在發(fā)生遮擋時(shí)目標(biāo)的丟失,提高了行人跟蹤的靈活性和準(zhǔn)確性。
效果3:本發(fā)明采用傅立葉變換的性質(zhì)進(jìn)行快速的訓(xùn)練和檢測,其訓(xùn)練樣本通過目標(biāo)區(qū)域的循環(huán)移位得到,利用前一幀訓(xùn)練的嶺回歸器計(jì)算當(dāng)前幀樣本的響應(yīng),響應(yīng)最大值作為當(dāng)前幀目標(biāo)的位置??焖俑盗⑷~變換和循環(huán)移位的操作是的算法的計(jì)算速度得到了很大的提升,滿足了算法的實(shí)時(shí)性。
附圖說明
圖1是本方法的步驟圖;
圖2是行人目標(biāo)跟蹤的流程圖。
具體實(shí)施方式
以下結(jié)合附圖和具體實(shí)施對本發(fā)明進(jìn)行詳細(xì)描述,但不作為對本發(fā)明的限定。
一、方法
如圖1和2,本方法的實(shí)現(xiàn)步驟如下:
a讀入監(jiān)控視頻,對目標(biāo)劃定目標(biāo)區(qū)域
利用攝像頭獲得監(jiān)控視頻圖像數(shù)據(jù),并且在第一幀圖像中對目標(biāo)行人劃定區(qū)域,初始化高斯系數(shù)和對目標(biāo)區(qū)域的放大倍數(shù)。
b提取目標(biāo)區(qū)域顏色特征和lbp特征
為了提高表征性,將目標(biāo)區(qū)域水平方向平均分成5個(gè)部分。先提取顏色特征,從rgb、hsv和ycbcr三種顏色空間中提取,將這三種顏色空間的特征進(jìn)行融合能提高特征的魯棒性。對于目標(biāo)區(qū)域水平方向的每個(gè)部分都提取每種顏色空間每個(gè)顏色通道的16維顏色特征直方圖特征,然后將每個(gè)直方圖特征都串聯(lián)成一個(gè)目標(biāo)行人的顏色特征,最終得到的特征維數(shù)為(3×5×3×12)640維。顏色特征表示的是一種整體特征,為了對行人的表示更準(zhǔn)確,提取目標(biāo)區(qū)域的兩種等價(jià)模式局部lbp特征,一種是采樣點(diǎn)數(shù)為8半徑為1,另一種是采樣點(diǎn)數(shù)為16半徑為2,同理,對每個(gè)水平方向部分都提取lbp兩種模式的特征,最終將所有的lbp特征串聯(lián)成行人的局部特征,其特征維數(shù)為((59+59)×5)590維。對于上面提取的兩種特征,由于特征維數(shù)較大,使用pca方法降維。
c判定目標(biāo)是否被遮擋
設(shè)行人目標(biāo)的概率分布為f(z),候選區(qū)域的坐標(biāo)為pos(z),遮擋閾值為λ1,面積因子為λ2,樣本的高度和寬度分別為height和width:
1.首先求f(z)取到最大值的位置posmax(z)和f(z)的最大值fmax(z)。
2.求取posmax(z)周圍滿足大于λ1·fmax(z)的所有點(diǎn)的位置pos(z)。
3.求取所有pos(z)點(diǎn)到posmax(z)的歐式距離
4.判斷是否大于閾值λ2·width·height,如果大于閾值,則判斷為受到遮擋;否則判斷為未受到遮擋。
d嶺回歸訓(xùn)練和檢測
在上一步的過程中,若行人發(fā)生遮擋,則不進(jìn)行行人目標(biāo)樣本的訓(xùn)練和檢測,直到行人目標(biāo)再識別后進(jìn)行此步驟。首先對劃定的行人目標(biāo)區(qū)域擴(kuò)大到原來的2.5倍,然后向四周方向進(jìn)行循環(huán)移位,移位的方式可以是每行像素的移動或者列像素的移動,由此獲得大量的訓(xùn)練樣本,此時(shí)循環(huán)移位得到的樣本為負(fù)樣本,原區(qū)域的樣本為正樣本,在當(dāng)前幀中對于上述樣本采用嶺回歸訓(xùn)練,在下一幀中對相同區(qū)域周圍的樣本,使用前一幀計(jì)算的嶺回歸器計(jì)算其響應(yīng),響應(yīng)最大值對應(yīng)的位置即行人目標(biāo)的位置。
e將跟蹤到的行人加以標(biāo)記輸出到視頻監(jiān)控
在上述過程中將跟蹤到的行人以外接矩形框的形式顯示在監(jiān)控視頻中。