專利名稱:基于l1正則化的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤的新方法
技術(shù)領(lǐng)域:
本發(fā)明屬于智能視頻監(jiān)控技術(shù)領(lǐng)域,具體涉及一種基于LI正則化的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤的新方法。
背景技術(shù):
目前,視頻監(jiān)控技術(shù)的應(yīng)用非常廣泛,視頻運(yùn)動(dòng)目標(biāo)跟蹤技術(shù)也隨之成為研究的熱門(mén)課題之一,它融合了計(jì)算機(jī)圖像處理、模式識(shí)別、人工智能及自動(dòng)控制等諸多相關(guān)領(lǐng)域的知識(shí)與技術(shù)。視頻目標(biāo)跟蹤的研究目的是模擬人類視覺(jué)運(yùn)動(dòng)感知功能,賦予機(jī)器辨識(shí)序列圖像中運(yùn)動(dòng)目標(biāo)的能力,為視頻分析和理解提供重要的數(shù)據(jù)依據(jù)。近年來(lái),由于稀疏表示對(duì)圖像腐蝕,尤其是遮擋具有很高的魯棒性,因此為未知線性系統(tǒng)求得稀疏解的稀疏表示和壓縮傳感技術(shù)已經(jīng)引起機(jī)器視覺(jué)領(lǐng)域的廣泛關(guān)注。2009 年 J. Wright 等發(fā)表在《IEEE Transaction On Pattern Analysis And MachineIntelligence》上的論文 “Robust face recognition via sparse representation,,,最先將稀疏表示用于人臉識(shí)別。2011年,X. Mei和H. Ling發(fā)表在《IEEE Transaction OnPattern Analysis And Machine Intelligence》上的論文“Robust Visual Tracking andVehicle Classification via Sparse Representation”,將稀疏表不運(yùn)用到目標(biāo)跟蹤與汽車分類上,該方法首先在模板空間下將目標(biāo)由模板(候選模板與瑣碎模板)的線性組合表示,例如目標(biāo)可以很好地由僅僅幾個(gè)模板的線性組合近似表示,然后用LI正則化模型表示模板的線性組合,最后使用內(nèi)點(diǎn)法求解模板的系數(shù),從而得到跟蹤結(jié)果。由于使用LI正則化能使得稀疏信號(hào)有穩(wěn)定的復(fù)原能力,因此該方法在不同的跟蹤環(huán)境下魯棒性高。但是基于預(yù)處理共軛梯度的內(nèi)點(diǎn)法求解LI正則化方法計(jì)算復(fù)雜度高,使得跟蹤速度慢,不能滿足實(shí)時(shí)性的要求,并且不能檢測(cè)目標(biāo)是否被遮擋。
發(fā)明內(nèi)容
為了克服現(xiàn)有基于預(yù)處理共軛梯度的內(nèi)點(diǎn)法求解LI正則化方法中存在的不足因計(jì)算復(fù)雜度高,使跟蹤速度慢而不能滿足實(shí)時(shí)性要求,并且不能檢測(cè)目標(biāo)是否被遮擋,本發(fā)明提供了一種基于LI正則化的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤的新方法。本發(fā)明的技術(shù)方案是通過(guò)將瑣碎模板的系數(shù)的二范數(shù)項(xiàng)添加到LI正則化模型當(dāng)中,建立新的正則化模型,在模板更新前使用遮擋檢測(cè)方法檢測(cè)目標(biāo)是否存在遮擋,從而改進(jìn)目標(biāo)跟蹤的精度,然后利用導(dǎo)數(shù)有界(Lipschitz特性)和可解析表示迭代求解LI正則化方法,從而使得新的算法能適用于實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤。一種基于LI正則化的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤方法,其特征在于包括以下步驟步驟1,輸入第一幀圖像,把它轉(zhuǎn)化為灰度圖像,從第一幀圖像確定跟蹤的目標(biāo)。步驟2,初始化跟蹤姿態(tài)(確定跟蹤目標(biāo))和粒子,方法如下在跟蹤的目標(biāo)上取三個(gè)點(diǎn),形成四邊形的跟蹤框,然后將這三個(gè)點(diǎn)進(jìn)行仿射變換,形成目標(biāo)初始姿態(tài)的仿射六參數(shù)的矩陣,并將初始姿態(tài)規(guī)定為參考模板。根據(jù)參考模板仿射參數(shù)構(gòu)造一個(gè)擾動(dòng),并作為零均值正態(tài)分布的方差;參考模板仿射參數(shù)加上這個(gè)正態(tài)分布的噪聲形成NS個(gè)仿射參數(shù)矩陣作為粒子。步驟3,初始化模板集,方法如下:參考模板加上隨機(jī)擾動(dòng)形成N個(gè)候選模板,然后將這些模板與M個(gè)瑣碎模板組成模板矩陣(例如候選模板矩陣為A,瑣碎模板矩陣為B,則模板矩陣為AB)。其中瑣碎模板個(gè)數(shù)M為目標(biāo)矩形框像素點(diǎn)個(gè)數(shù),瑣碎模板為MXM的單位矩陣。步驟4,獲取下一幀圖像,如果不是最后一幀圖像,轉(zhuǎn)步驟6進(jìn)行跟蹤;否則,跟蹤結(jié)束。步驟5,圖像進(jìn)行預(yù)處理,將原始圖像轉(zhuǎn)換成灰度圖像。步驟6,根據(jù)參考模板仿射參數(shù)構(gòu)造一個(gè)擾動(dòng),并作為零均值正態(tài)分布的方差;NS個(gè)粒子仿射參數(shù)加上這個(gè)正態(tài)分布的噪 聲形成新的仿射參數(shù)作為新的粒子。步驟7,一階段采樣,方法如下:首先,按下式計(jì)算觀測(cè)概率的上界:
權(quán)利要求
1.一種基于LI正則化的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤的新方法,其特征在于包括以下步驟: 步驟1,輸入第一幀圖像,把它轉(zhuǎn)化為灰度圖像,從第一幀圖像確定跟蹤的目標(biāo); 步驟2,初始化跟蹤目標(biāo)的跟蹤姿態(tài)和粒子,方法如下: 在跟蹤的目標(biāo)上取三個(gè)點(diǎn),形成四邊形的跟蹤框,然后將這三個(gè)點(diǎn)進(jìn)行仿射變換,形成目標(biāo)初始姿態(tài)的仿射六參數(shù)的矩陣,并將初始姿態(tài)規(guī)定為參考模板;根據(jù)參考模板仿射參數(shù)構(gòu)造一個(gè)擾動(dòng),并作為零均值正態(tài)分布的方差;參考模板仿射參數(shù)加上這個(gè)正態(tài)分布的噪聲形成NS個(gè)仿射參數(shù)矩陣作為粒子; 步驟3,初始化模板集,方法如下: 參考模板加上隨機(jī)擾動(dòng)形成N個(gè)候選模板,然后將這些模板與M個(gè)瑣碎模板組成模板矩陣(例如候選模板矩陣為A,瑣碎模板矩陣為B,則模板矩陣為AB);其中瑣碎模板個(gè)數(shù)M為目標(biāo)矩形框像素點(diǎn)個(gè)數(shù),瑣碎模板為MXM的單位矩陣; 步驟4,獲取下一幀圖像,如果不是最后一幀圖像,轉(zhuǎn)步驟6進(jìn)行跟蹤;否則,跟蹤結(jié)束; 步驟5,圖像進(jìn)行預(yù)處理,將原始圖像轉(zhuǎn)換成灰度圖像; 步驟6,根據(jù)參考模板仿射參數(shù)構(gòu)造一個(gè)擾動(dòng),并作為零均值正態(tài)分布的方差;NS個(gè)粒子仿射參數(shù)加上這個(gè)正態(tài)分布的噪聲形成新的仿射參數(shù)作為新的粒子; 步驟7,一階段采樣,方法如下: 首先,按下式計(jì)算觀測(cè)概率的上界:
全文摘要
本發(fā)明公開(kāi)了一種基于L1正則化的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤的新方法,包括以下步驟輸入第一幀圖像并確定跟蹤的目標(biāo);初始化跟蹤姿態(tài);初始化模板集;進(jìn)行粒子濾波的粒子初始化;獲取下一幀圖像,轉(zhuǎn)下一步進(jìn)行跟蹤,直到最后一幀;對(duì)圖像進(jìn)行預(yù)處理;計(jì)算粒子與模板的相似度;將最大觀測(cè)概率的粒子并進(jìn)行重采樣;遮擋檢測(cè);模板更新。通過(guò)將瑣碎模板的系數(shù)的二范數(shù)項(xiàng)添加到L1最小化模型中,建立新的最小化模型,在模板更新前使用遮擋檢測(cè)方法檢測(cè)目標(biāo)是否存在遮擋,從而改進(jìn)目標(biāo)跟蹤的精度;利用導(dǎo)數(shù)有界和可解析表示求解新的最小化模型,從而使得新的算法能適用于實(shí)時(shí)運(yùn)動(dòng)目標(biāo)跟蹤。本發(fā)明可在保證目標(biāo)跟蹤準(zhǔn)確度的同時(shí),使算法滿足實(shí)際應(yīng)用的性能要求。
文檔編號(hào)G06T7/20GK103077537SQ20131001390
公開(kāi)日2013年5月1日 申請(qǐng)日期2013年1月15日 優(yōu)先權(quán)日2013年1月15日
發(fā)明者楊金福, 傅金融, 楊宛露, 李明愛(ài), 趙偉偉, 解濤 申請(qǐng)人:北京工業(yè)大學(xué)