基于場景分類的車輛檢測方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明設(shè)及監(jiān)控視頻的檢索,具體地指一種基于場景分類的車輛檢測方法。
【背景技術(shù)】
[0002] 在刑偵業(yè)務(wù)中,車輛檢測就是通過輸入的視頻判斷是否包含待檢測的運(yùn)動車輛, 如果包含則確定目標(biāo)所在位置。在實際視頻偵查中,偵查員常常根據(jù)車輛的活動畫面和軌 跡來快速鎖定、排查和追蹤嫌疑目標(biāo)。傳統(tǒng)的人工瀏覽視頻偵查模式需要耗費(fèi)大量的人力 和時間,容易貽誤破案時機(jī)。因此,精準(zhǔn)快速的車輛檢測技術(shù)便于視頻偵查員快速、準(zhǔn)確地 發(fā)現(xiàn)嫌疑目標(biāo)活動畫面和軌跡,對公安部口提高破案率、維護(hù)人民群眾生命財產(chǎn)安全具有 重要意義。
[0003] 但是,現(xiàn)有的車輛檢測的步驟如圖1所示,一般包括W下步驟:當(dāng)利用車輛正負(fù)樣 本選取和提取特征后,便可利用該些特征訓(xùn)練分類器。得到了分類器后,首先是對輸入視頻 帖進(jìn)行背景建模,然后提取特征,最后將提取的特征給訓(xùn)練好的分類器,判斷是否存在想要 檢測的目標(biāo)。
[0004] 其中,在上述現(xiàn)有的車輛檢測步驟中,背景建模算法的效果會直接影響到車輛檢 測的效果,目前,一般的背景建模常常對不同的視頻場景,只采用平均帖背景建模算法、 VIBE背景建模算法、高斯背景建模算法中的一種算法進(jìn)行背景建模。具體地,平均帖背景建 模算法是通過求取連續(xù)視頻序列固定位置上像素平均值,用該值表示當(dāng)該位置像素點的背 景模型的算法;高斯背景建模方法,首先對圖像的每個像素或其他紋理特征建立一個或多 個高斯背景模型,然后通過比較待檢圖像和背景模型的差異,來檢測圖像中的前景區(qū)域和 背景區(qū)域;VIBE背景模型針對每個背景點保存了一個樣本集,通過比較每一個新的像素點 和樣本集來判斷該新像素點是否屬于背景點。
[0005] 然而在實際監(jiān)控環(huán)境下,因為場景光照變化、氣候變化或者攝像機(jī)本身的抖動等 都會導(dǎo)致視頻背景發(fā)生改變,該些因素給背景建模帶來困難。雖然目前對復(fù)雜場景下的背 景建模已經(jīng)有很多研究,但目前還沒有一種算法能全部解決上述所有問題。例如;平均帖 背景建模算法和VIBE背景建模算法速度快,但是只針對簡單的視頻場景(主要是光照變化 小的場景)有效;高斯背景建模算法,對復(fù)雜變化的場景具有比較好的魯椿性,但是速度很 慢,背景更新速度緩慢不利于實時檢測。
[0006] 此外,在上述現(xiàn)有的車輛檢測步驟中,提取特征通常只是提取了圖片的HOG特征 用于檢測,導(dǎo)致圖像目標(biāo)的視覺特征比較單一,辨識度不強(qiáng),對噪聲、光照變化、運(yùn)動車輛的 形變等魯椿性不強(qiáng)。
【發(fā)明內(nèi)容】
[0007] 本發(fā)明目的在于克服上述現(xiàn)有技術(shù)的不足,而提出一種基于場景分類的車輛檢測 方法,該方法能根據(jù)場景復(fù)雜度自動選擇最匹配的算法;還能在提取梯度特征HOG的基礎(chǔ) 上,同時提取紋理特征LBP,將兩種特征級聯(lián)作為新的分類器特征,通過該兩方面的改進(jìn),即 保證活動車輛的檢測效果,又極大提高系統(tǒng)整體檢測速度,從而能更快更準(zhǔn)確地定位到要 待識別的車輛。
[000引實現(xiàn)本發(fā)明目的采用的技術(shù)方案是;一種基于場景分類的車輛檢測方法,該方法 包括:
[0009] 訓(xùn)練分類器;
[0010] 對輸入的視頻進(jìn)行場景分類,得到簡單場景和復(fù)雜場景;對所述簡單場景采用平 均帖背景建模算法進(jìn)行建模,對所述復(fù)雜場景采用高斯背景建模算法進(jìn)行建模;
[0011] 對所述背景建模得到的前景二值圖進(jìn)行預(yù)處理;
[0012] 在預(yù)處理后的各前景塊區(qū)域上用掃描子窗口進(jìn)行遍歷,提取HOG和LBP特征;
[0013] 將提取的HOG和LBP級聯(lián)特征用訓(xùn)練好的分類器進(jìn)行分類,判斷是否為運(yùn)動的車 輛。
[0014] 本發(fā)明具有W下優(yōu)點:
[0015] 1、與現(xiàn)有技術(shù)相比,本發(fā)明方法引入基于場景分類的背景建模,通過將視頻按照 內(nèi)容劃分為簡單場景視頻和復(fù)雜場景視頻兩大類,然后計算機(jī)根據(jù)劃分的場景類別自動的 選擇最優(yōu)的背景建模算法,該樣既能保證檢測算法效果,又能實現(xiàn)活動目標(biāo)快速檢測,具有 很高的應(yīng)用價值;
[0016] 2、與現(xiàn)有技術(shù)相比,本發(fā)明考慮了在檢測視頻的特征提取,在提取的HOG特征的 基礎(chǔ)上同時提取了LBP特征,將兩種特征級聯(lián)作為新的分類器特征。相比現(xiàn)有技術(shù)提取特 征通常只是提取圖片的HOG特征用于檢測,本方法極大提高運(yùn)動車輛檢測的準(zhǔn)確性,也增 強(qiáng)了對噪聲、光照變化、運(yùn)動車輛的形變的魯椿性。
【附圖說明】
[0017] 圖1為本發(fā)明基于場景分類的車輛檢測方法流程圖。
【具體實施方式】
[0018] 下面結(jié)合附圖和具體實施例對本發(fā)明作進(jìn)一步的詳細(xì)說明。
[0019] 本發(fā)明基于場景分類的車輛檢測方法具體包括W下步驟:
[0020] S100、訓(xùn)練分類器。
[0021] 首先,采集車輛的正、負(fù)樣本。
[0022] 車輛的正樣本圖片的采集過程為;在實際監(jiān)控視頻中對于車輛在8段不同場景的 道路監(jiān)控視頻中,人工截取10000張,長寬為b*b,50《b《200像素為352*288的車輛圖 片,該些正樣本圖片應(yīng)包含完整的車輛而且包含盡可能少的背景,完整的車輛應(yīng)該包含了 車輛的正面、側(cè)面、背面。
[0023] 車輛的負(fù)樣本圖片的采集過程為;在實際監(jiān)控視頻中對于車輛在8段不同場景的 道路監(jiān)控視頻中,采用軟件對監(jiān)控視頻的每帖自動切割為長寬為b*b的圖片并保存,其中, 50《b《200,在該些圖片中選至少20000張不含車輛的圖片作為負(fù)樣本。
[0024] 然后,訓(xùn)練正負(fù)樣本,分別對每一張正、負(fù)樣本的圖片進(jìn)行特征選取和提取。
[0025] 最后,訓(xùn)練分類器,本實施例采用SVM線性分類器。訓(xùn)練分類器即用分類器訓(xùn)練 正、負(fù)樣本,得到訓(xùn)練好的分類器。
[0026]S200、對輸入的視頻進(jìn)行場景分類,得到簡單場景和復(fù)雜場景;對所述簡單場景采 用平均帖背景建模算法進(jìn)行建模,對所述復(fù)雜場景采用高斯背景建模算法進(jìn)行建模。
[0027] 建模算法成立的前提假設(shè)是一般監(jiān)控視頻中,單帖圖像所包含的活動目標(biāo)數(shù)量不 會太多(一般不會超過30個),活動目標(biāo)面積也較少(不多于整幅圖像面積的70%); [002引首先選用平均帖背景建模算法,對視頻活動目標(biāo)進(jìn)行檢測,然后統(tǒng)計檢測出來的 活動目標(biāo)塊數(shù)量和面積。當(dāng)活動目標(biāo)數(shù)量小于m個(m的取值范圍10~30),并且活動區(qū)域 面積少于整張圖像的n% (n的取值范圍40~70),則判定該視頻場景為簡單場景,采用平 均帖背景建模算法。當(dāng)活動目標(biāo)數(shù)量大于m個,或者活動區(qū)域面積幾近覆蓋全畫面,則可W 判定該視頻場景為復(fù)雜場景,相應(yīng)的采用高斯背景建模算法。
[0029] 平均帖背景建模算法是通過求取連續(xù)視頻序列固定位置上像素平均值,用該值表 示當(dāng)該位置像素點的背景模型的算法。本算法成立的依據(jù)是:通過大量統(tǒng)計監(jiān)控視頻圖像, 發(fā)現(xiàn)在每一帖視頻圖像中活動區(qū)域只占畫面小部分,而大部分區(qū)域都是靜止的背景。因此 對于整個視頻序列而言,相同位置上的像素集合中絕大部分都是靜止的,只有少數(shù)是變動 的活動區(qū)域。當(dāng)求取相同位置像素集合的平均值時,少量活動目標(biāo)像素對該平均值的影響 很小,該平均值即能代表圖像背景特征。
[0030] 在算法速度測試方面,平均帖算法明顯快于高斯背景建模算法和VIBE背景建模 算法;VIBE算法速度略高于基于高斯背景建模算法的檢測速度。
[0031] 而在算法運(yùn)行效果方面,清晰場景、模糊場景、夜晚場景下=種算法整體效果都不 錯,其中背景相對穩(wěn)定的清晰場景和模糊場景下,平均帖背景建模算法和VIBE背景建模算 法稍微好于高斯背景建模算法,而在夜晚和強(qiáng)光變化的場景下,由于平均帖背景建模算法 的背景固定,所W效果急劇下降,VIBE算法更新策略上選用隨機(jī)方式,更新速度相對較慢, 所W檢測效果也不如高斯背景建模算法。
[0032] 發(fā)明在相對簡單的場景下采用平均帖背景建模算法,效果最好,速度最快;而在場 景相對復(fù)雜情況下,采用高斯背景建模算法則是最佳選擇。
[0033] 本實施例采用平均帖背景建模算法的具體步驟如下:
[0034] 第一步;從視頻中讀取連續(xù)的K帖圖像,并將每帖圖像轉(zhuǎn)化為灰度矩陣Dx
[0035] Dx= {Yu'i G j G
[0036] 式中,M表示圖像帖的行數(shù),N表示圖像帖的列數(shù),Yu是(i,j)位置像素轉(zhuǎn)變后的 灰度值,Yu通過下式計算:
[0037] Yu = 0. 299 X R U+0. 587 X Gi, J+0. 114 X Bi, J
[00測式中,Ru,Gu,Bu分別是圖像在第i行j列上的R、G、B顏色值;
[0039] 第二步:將前K帖灰度矩陣疊加,然后再對疊加結(jié)果求平均值得到背景模型Ib^;
[0040]第;步:當(dāng)輸入一帖圖像IpuwM,將其與背景模型Ibgm求差值,得到差值圖像I abs:
[0041] labs二II present - IbgJ
[00創(chuàng)第四步:將差值圖像Lbs二值化,獲得前景二值圖,即活動目標(biāo)信息I foreground。
[0043] 高斯背景建模算法具體包括:
[0044] 在視頻序列中,對于任意時刻t在位置{X。,y。}上,它的歷史像素(如灰度值)表 示為;找1,. ..,XJ={I(X。,y。,U:1《i《t},其中I表示圖像序列;對背景建立K-高斯 模型,則在Xt屬于背景的概率為:
[0045]
[0046] 式中,K為模型數(shù)量,"i,為第i個高斯模型在t時刻屬于背景的權(quán)重,yi,t為第i個高斯模型在t時刻的均值,E為第i個高斯模型在t時刻的方差,n為高斯密度函 數(shù);其中n為:
[0047]
[0048]