專利名稱:基于極小化上界誤差的視覺(jué)跟蹤方法
技術(shù)領(lǐng)域:
本發(fā)明屬于計(jì)算機(jī)視覺(jué)技術(shù)領(lǐng)域,涉及視覺(jué)監(jiān)控基于極小化上界誤差的視覺(jué)跟蹤 方法。
背景技術(shù):
計(jì)算機(jī)視覺(jué)技術(shù)作為一種尖端的計(jì)算機(jī)技術(shù)廣泛的應(yīng)用于多媒體、視頻監(jiān)控以及 人工智能等中。在計(jì)算機(jī)視覺(jué)中,如何準(zhǔn)確的知道目標(biāo)在視頻圖像中的位置甚至是大小、方 向、形狀,是一個(gè)基本的問(wèn)題,也是視頻跟蹤技術(shù)所要解決的問(wèn)題。只有基于魯棒的視頻跟 蹤,計(jì)算機(jī)視覺(jué)中的目標(biāo)定位、軌跡標(biāo)定等基礎(chǔ)問(wèn)題才能得到解決;只有基于魯棒的視頻跟 蹤,計(jì)算機(jī)視覺(jué)中的目標(biāo)識(shí)別、行為理解等這些高層問(wèn)題的分析才能有更廣的應(yīng)用。所以如 何準(zhǔn)確的跟蹤視頻圖像中的目標(biāo)一直以來(lái)都是計(jì)算機(jī)視覺(jué)研究的熱點(diǎn)問(wèn)題。傳統(tǒng)的方法把跟蹤問(wèn)題作為一個(gè)模板匹配的問(wèn)題來(lái)處理,通過(guò)實(shí)時(shí)建立一個(gè)目標(biāo) 表象模板來(lái)搜索當(dāng)前視頻圖像中最匹配的位置作為目標(biāo)位置。由于建立的模型比較簡(jiǎn)單, 這類方法對(duì)于復(fù)雜背景以及目標(biāo)表象變化的適應(yīng)性并不強(qiáng)。為了解決傳統(tǒng)跟蹤方法的不足,一種基于在線分類器學(xué)習(xí)的跟蹤方法被應(yīng)用到了 視覺(jué)跟蹤領(lǐng)域。這類方法把跟蹤問(wèn)題看作一個(gè)目標(biāo)與背景的分類問(wèn)題,通過(guò)在線學(xué)習(xí)一個(gè) 判定面來(lái)判定最有可能的目標(biāo)位置。線性鑒別分析(Linear Discrimination Analysis, LDA),支持向量機(jī)(Support Vector Machine,SVM),提升算法(Boosting)等被廣泛的應(yīng)用 于這一類方法。這類方法由于在線學(xué)習(xí)了一個(gè)更復(fù)雜的判定模型,所以比傳統(tǒng)的跟蹤方法 更加魯棒。但是它們利用每次的跟蹤結(jié)果作為新的樣本直接加入整個(gè)跟蹤器的學(xué)習(xí)過(guò)程影 響了跟蹤過(guò)程的穩(wěn)定性。這是因?yàn)槊看蔚母櫧Y(jié)果很難保證完全的準(zhǔn)確,將不準(zhǔn)確的樣本 加入到跟蹤器的學(xué)習(xí)中必然帶來(lái)誤差,而且這個(gè)誤差隨著跟蹤過(guò)程被累積,最后導(dǎo)致跟蹤 器失效。為了解決這個(gè)問(wèn)題,半監(jiān)督的學(xué)習(xí)方法被引入到了原有的跟蹤框架下。這種半監(jiān) 督的學(xué)習(xí)能夠同時(shí)使用標(biāo)注的與未標(biāo)注的樣本來(lái)訓(xùn)練分類器,從而達(dá)到比只用標(biāo)注樣本訓(xùn) 練更好的分類效果。對(duì)于跟蹤問(wèn)題,在線新加入的訓(xùn)練樣本來(lái)自于跟蹤器本身的判斷與標(biāo) 注,這個(gè)結(jié)果可能是準(zhǔn)確的也可能是不準(zhǔn)確的,所以這些樣本更適合當(dāng)作未標(biāo)注的樣本來(lái) 處理。這樣,跟蹤問(wèn)題就轉(zhuǎn)化成了一個(gè)半監(jiān)督的在線學(xué)習(xí)問(wèn)題。為了處理這一類問(wèn)題,協(xié)同學(xué)習(xí)(Co-Training)作為一種極具代表性的半監(jiān)督學(xué) 習(xí)方法是一個(gè)很好的選擇。然而,簡(jiǎn)單的將協(xié)同學(xué)習(xí)與原有的在線學(xué)習(xí)方法結(jié)合在一起并 不能達(dá)到最佳的性能。這種組合需要在誤差上界極小化這一通用的優(yōu)化準(zhǔn)則的指導(dǎo)下才能 保證它的合理性與最優(yōu)性。
發(fā)明內(nèi)容
本發(fā)明的目的是提高視覺(jué)跟蹤的穩(wěn)定性與可靠性,為此,提供一種基于在線協(xié)同 提升學(xué)習(xí)的視覺(jué)跟蹤方法。
為了實(shí)現(xiàn)上述目的,本發(fā)明提出一種基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法,實(shí) 現(xiàn)所述方法的步驟包括如下步驟Sl 利用跟蹤器估計(jì)目標(biāo)在當(dāng)前幀中的區(qū)域,所述目標(biāo)區(qū)域包括目標(biāo)位置與 目標(biāo)大??;步驟S2 以估計(jì)的目標(biāo)區(qū)域?yàn)閰⒄仗崛颖?;步驟S3 對(duì)提取的樣本抽取兩類不同性質(zhì)的視覺(jué)特征;步驟S4:利用抽取的各樣本兩類不同性質(zhì)的視覺(jué)特征在線進(jìn)行協(xié)同提升學(xué)習(xí),并 對(duì)跟蹤器進(jìn)行更新,在線協(xié)同提升學(xué)習(xí)中,利用兩個(gè)并行的提升算法同時(shí)對(duì)兩類不同性質(zhì) 的視覺(jué)特征進(jìn)行選擇,并在各級(jí)視覺(jué)特征選擇中利用協(xié)同學(xué)習(xí)進(jìn)行相互約束,在選擇最佳 的視覺(jué)特征提升跟蹤器性能的同時(shí)利用協(xié)同學(xué)習(xí)配置最佳的樣本屬性。本發(fā)明的有益效果從上述方案可以看出,本發(fā)明是用半監(jiān)督的在線學(xué)習(xí)方法提 出在線協(xié)同提升學(xué)習(xí)作為跟蹤器的在線學(xué)習(xí)更新方式,在不需要準(zhǔn)確樣本標(biāo)簽的前提下利 用兩類獨(dú)立的樣本特征對(duì)跟蹤器進(jìn)行準(zhǔn)確的更新;在線學(xué)習(xí)的過(guò)程中并未用到目標(biāo)背景的 標(biāo)注信息,這樣即使在跟蹤結(jié)果不太準(zhǔn)確的情況下也不會(huì)對(duì)跟蹤器的更新帶來(lái)累積誤差, 提高了跟蹤器的穩(wěn)定性與可靠性。本發(fā)明的半監(jiān)督在線學(xué)習(xí)過(guò)程是在誤差上界極小化的優(yōu) 化條件下實(shí)現(xiàn)的,保證了跟蹤器的最優(yōu)性。
圖1為本發(fā)明極小化上界誤差的基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法的整體 結(jié)構(gòu)示意圖;圖2為本發(fā)明極小化上界誤差的基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法的目標(biāo) 位置估計(jì)模塊示意圖;圖3為本發(fā)明極小化上界誤差的基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法的在線 訓(xùn)練樣本提取以及視覺(jué)特征抽取示意圖;圖4為本發(fā)明極小化上界誤差的基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法的在線 學(xué)習(xí)過(guò)程原理性流程圖;圖5為本發(fā)明極小化上界誤差的基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法的實(shí)施 效果示意圖。
具體實(shí)施例方式為使本發(fā)明的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚明白,以下結(jié)合具體實(shí)施例,并參照 附圖,對(duì)本發(fā)明進(jìn)一步詳細(xì)說(shuō)明。請(qǐng)參看圖1,為本發(fā)明極小化上界誤差的基于在線協(xié)同提升學(xué)習(xí)的視覺(jué)跟蹤方法 的整體結(jié)構(gòu)示意圖,它包括步驟Sl目標(biāo)位置估計(jì)、步驟S2在線訓(xùn)練樣本提取、步驟S3樣本 視覺(jué)特征抽取以及步驟S4跟蹤器的在線協(xié)同提升學(xué)習(xí),下面對(duì)本發(fā)明做詳細(xì)描述請(qǐng)參看圖2目標(biāo)位置估計(jì)模塊示出步驟Sl 利用跟蹤器估計(jì)目標(biāo)在當(dāng)前幀中的區(qū)域,所述目標(biāo)區(qū)域包括目標(biāo)位置與 目標(biāo)大小。通過(guò)將當(dāng)前幀中的各圖像區(qū)域輸入利用前面幀已學(xué)習(xí)好的目標(biāo)背景分類器,得到各區(qū)域?yàn)槟繕?biāo)區(qū)域的置信度,所有區(qū)域的置信度可以組成一個(gè)目標(biāo)區(qū)域估計(jì)的概率分布 圖,在該概率分布圖中通過(guò)優(yōu)化算法找到峰值的區(qū)域即為當(dāng)前幀估計(jì)的目標(biāo)區(qū)域。具體可 分為兩個(gè)步驟來(lái)完成步驟S11,在當(dāng)前幀中的各圖像區(qū)域利用之前學(xué)習(xí)好的目標(biāo)背景分類器進(jìn)行目標(biāo)的置信度估計(jì),本發(fā)明所采用的協(xié)同提升目標(biāo)分類器的表達(dá)形式如式1所示2I- :! =“ .h .f ι — 1(I )- J ~~1V 丄乂式中χ為當(dāng)前幀各圖像區(qū)域內(nèi)的圖像,本專利在以后的說(shuō)明中稱之為樣本;F(X) 表示最終的目標(biāo)分類器,輸出為一個(gè)浮點(diǎn)數(shù),該輸出越大表示樣本屬性是目標(biāo)的置信度越 大,ht,j(x)為用于組合最終分類器的弱分類器,輸出為一個(gè)+1或-1的二值數(shù)反映樣本屬 性是目標(biāo)或是背景,α t,j為弱分類器的組合權(quán)重,是一個(gè)大于0的浮點(diǎn)數(shù);最終強(qiáng)分類器中 的弱分類器序號(hào)t是一個(gè)從0開(kāi)始依次增長(zhǎng)的自然數(shù);j是弱分類器基于第一類和第二類 不同性質(zhì)視覺(jué)特征的序號(hào),j為1和2,以下稱視覺(jué)特征為視角。式1的得到過(guò)程在后面的 部分將會(huì)詳細(xì)介紹。對(duì)于每一個(gè)輸入的樣本χ及圖像區(qū)域都可以通過(guò)式1獲得一個(gè)樣本屬 性為目標(biāo)的置信度,在每個(gè)圖像區(qū)域都獲得置信度后可以組成一個(gè)置信度的概率表示圖。步驟S12,在上一步驟得到的置信度的概率表示圖上尋找峰值區(qū)域作為當(dāng)前幀的 目標(biāo)估計(jì)區(qū)域,這里所采用的峰值搜索方法可以是一些優(yōu)化的快速算法,如均值漂移算法 (Mean Shift)或者粒子濾波算法(Particle Filter)等。在線訓(xùn)練樣本提取,請(qǐng)參看圖3示出步驟S2 以估計(jì)的目標(biāo)區(qū)域?yàn)閰⒄仗崛颖荆鰳颖景繕?biāo)樣本與背景樣 本,其中目標(biāo)樣本是目標(biāo)區(qū)域本身、也可以包括若干與目標(biāo)區(qū)域相互覆蓋率極大的圖像區(qū) 域;背景樣本可以是與目標(biāo)區(qū)域相互覆蓋率極小甚至沒(méi)有覆蓋的一些圖像區(qū)域。目標(biāo)樣本的提取,以當(dāng)前幀估計(jì)的目標(biāo)區(qū)域?yàn)橹行膭澏ㄒ粋€(gè)更大的區(qū)域,劃定區(qū) 域的大小由目標(biāo)區(qū)域的大小而定,一般不大于目標(biāo)區(qū)域的一倍,然后按照一定的步長(zhǎng)(1-3 個(gè)像素)或是某種隨機(jī)采樣策略在該區(qū)域內(nèi)提取若干與目標(biāo)區(qū)域相互覆蓋率極大的圖像 區(qū)域作為目標(biāo)樣本。背景樣本的提取,以當(dāng)前幀估計(jì)的目標(biāo)區(qū)域?yàn)橹行膭澏ㄒ粋€(gè)更大的區(qū)域,劃定區(qū) 域的大小由目標(biāo)區(qū)域的大小以及目標(biāo)在幀之間的運(yùn)動(dòng)距離而定,對(duì)于運(yùn)動(dòng)不大的目標(biāo)一般 在各方向各取一倍的目標(biāo)區(qū)域大小,對(duì)于運(yùn)動(dòng)較大的目標(biāo)一般在各方向各取1-3倍的目標(biāo) 區(qū)域大小,在取定的區(qū)域內(nèi)去掉之前估計(jì)的目標(biāo)區(qū)域及得到相應(yīng)的背景區(qū)域,在背景區(qū)域 中以一定的步長(zhǎng)或是某種隨機(jī)采樣策略在該區(qū)域內(nèi)提取與目標(biāo)區(qū)域相互覆蓋率極小甚至 沒(méi)有覆蓋的一些圖像區(qū)域作為背景樣本。樣本視覺(jué)特征抽取,請(qǐng)參看圖3示出步驟S3 對(duì)提取的樣本抽取兩類不同性質(zhì)的視覺(jué)特征,所述兩類不同性質(zhì)的視覺(jué) 特征是顏色特征與紋理特征、或者是顏色特征與輪廓特征、或者是紋理特征與輪廓特征、或 者是兩種不同性質(zhì)的紋理特征。顏色特征可以是以不同比例的RGB組合構(gòu)成,如式2所示F1 ξ {WlR+W2G+w3B|w* e [-2,-1,0,1,2]}(2)式中R、G、B為彩色像素點(diǎn)的紅綠藍(lán)值,各是一個(gè)0到255之間的整數(shù),Wl、w2、w3為R、G、B組合的比例因子它們的取值范圍為[_2,_1,0,1,2],&為組合之后的特征值,通過(guò)改 變比例因子的取值可以得到多種反映不同顏色特征的特征值。式2得到的特征值通過(guò)歸一 化到0-255之間,然后進(jìn)行直方圖的統(tǒng)計(jì)量化,一般采用8-16個(gè)統(tǒng)計(jì)塊,此時(shí)統(tǒng)計(jì)塊的值是 一個(gè)一維的0-1之間的值,這個(gè)值將作為特征用于跟蹤器的學(xué)習(xí)。紋理特征可以是局部二值化模型(Local Binary I^attern,LBP),通過(guò)比較周?chē)?個(gè)塊與中間塊的灰度值大小關(guān)系標(biāo)注0,1值,當(dāng)比中間塊的灰度值大標(biāo)1,反之標(biāo)0,這樣可 以得到一個(gè)8位的數(shù)及一個(gè)0-255之間的數(shù),同樣通過(guò)直方圖統(tǒng)計(jì)可以得到相應(yīng)統(tǒng)計(jì)塊作 為特征用于跟蹤器的學(xué)習(xí)。跟蹤器的在線協(xié)同提升學(xué)習(xí),請(qǐng)參看圖4示出在線學(xué)習(xí)過(guò)程原理性流程步驟S4 利用抽取的各樣本兩類不同性質(zhì)的視覺(jué)特征在線進(jìn)行協(xié)同提升學(xué)習(xí),并 對(duì)跟蹤器進(jìn)行更新,在線協(xié)同提升學(xué)習(xí)中,利用兩個(gè)并行的提升算法同時(shí)對(duì)兩類不同性質(zhì) 的視覺(jué)特征進(jìn)行選擇,并在各級(jí)視覺(jué)特征選擇中利用協(xié)同學(xué)習(xí)進(jìn)行相互約束,在選擇最佳 的視覺(jué)特征提升跟蹤器性能的同時(shí)利用協(xié)同學(xué)習(xí)配置最佳的樣本屬性,所述樣本屬性是樣 本屬于目標(biāo)樣本、或是樣本屬于背景樣本。該方法的初始化是利用有確定屬性的樣本實(shí)現(xiàn)的,這一步可以在跟蹤的開(kāi)始若干 幀利用傳統(tǒng)跟蹤方法或是人工標(biāo)注的方式得到。所述跟蹤器初始化包括根據(jù)初始多幀的目標(biāo)信息分別提取目標(biāo)與背景的不同性 質(zhì)的視覺(jué)特征,及離線學(xué)習(xí)目標(biāo)與背景的分類器作為跟蹤器,根據(jù)跟蹤器估計(jì)目標(biāo)區(qū)域在 線更新跟蹤器,更新后的跟蹤器用于下一幀目標(biāo)區(qū)域的估計(jì)。所述在線更新跟蹤器包括根據(jù)跟蹤器在當(dāng)前幀的目標(biāo)區(qū)域估計(jì)結(jié)果提取不同的 目標(biāo)與背景區(qū)域作為跟蹤器在線學(xué)習(xí)的樣本,并提取樣本不同性質(zhì)的視覺(jué)特征,所提取的 視覺(jué)特征與跟蹤器初始化時(shí)使用的視覺(jué)特征保持一致。利用抽取的樣本視覺(jué)特征進(jìn)行跟蹤 器的在線協(xié)同提升學(xué)習(xí),學(xué)習(xí)過(guò)程中輸入樣本作為未標(biāo)注屬性的樣本處理不使用原有的目 標(biāo)背景屬性,學(xué)習(xí)得到的跟蹤器用于估計(jì)下一幀的目標(biāo)區(qū)域。通過(guò)在線加入新的學(xué)習(xí)樣本提高跟蹤器的適應(yīng)性與可靠性。具體分為三個(gè)部分進(jìn) 行介紹弱分類器的學(xué)習(xí),分類器離線初始化學(xué)習(xí)以及分類器在線更新學(xué)習(xí)。弱分類器的學(xué)習(xí)是整個(gè)模塊最基礎(chǔ)的部分,因?yàn)檎麄€(gè)目標(biāo)分類器是由若干弱分類 器組合而成的。分類器所選用的特征是一個(gè)0-1之間的一維特征,這一點(diǎn)已經(jīng)在樣本視覺(jué) 特征抽取中做過(guò)解釋。對(duì)于不同樣本屬性的特征我們分別使用一個(gè)高斯模型去近似表示, 利用不同特征對(duì)應(yīng)的不同樣本屬性的高斯模型的貝葉斯分界面來(lái)表示分類面,區(qū)分樣本屬 性構(gòu)成弱分類器。弱分類器的在線學(xué)習(xí)即是根據(jù)輸入的特征值在線更新高斯模型的均值與 方差,其更新表達(dá)式如式3所示μΜ =(1-α)· μ( + α· Xtσ]+λ =(I-O) G2t+a-(Xt-MtY-(Xt -Mt)其中Xt為新加入學(xué)習(xí)的樣本特征,μ t為更新前的高斯模型均值,μ t+1為更新后的 高斯模型均值,σ t為更新前的高斯模型方差,Qw為更新后的高斯模型方差,《為學(xué)習(xí)率 是一個(gè)常數(shù),在本發(fā)明中一般取0. 01 ;Τ表示新加入學(xué)習(xí)的樣本特征與更新前的高斯模型 均值之差的轉(zhuǎn)置。分類器離線初始化學(xué)習(xí),用于初始化目標(biāo)分類器。根據(jù)初始若干幀的目標(biāo)信息進(jìn)行分類器初始化,跟蹤器在初始化之前的目標(biāo)位置信息可通過(guò)傳統(tǒng)跟蹤方法或是人工標(biāo)注 獲得。使用前面介紹的在線訓(xùn)練樣本提取以及樣本視覺(jué)特征抽取可以獲得初始幀的樣本特 征用于離線學(xué)習(xí)。在離線學(xué)習(xí)時(shí)樣本屬性與所有樣本特征已知,式1可以獨(dú)立成兩個(gè)分別 進(jìn)行的提升學(xué)習(xí)(Boosting)過(guò)程,從而可以初始化目標(biāo)分類器。分類器在線更新學(xué)習(xí),請(qǐng)參看圖4,經(jīng)過(guò)初始化后的目標(biāo)分類器在以后的每一幀都 將利用當(dāng)前的跟蹤結(jié)果進(jìn)行在線的循環(huán)學(xué)習(xí)更新。本發(fā)明的更新方法是半監(jiān)督的在線更新 方法,更新的過(guò)程中樣本依次加入分類器學(xué)習(xí),且不用樣本屬性信息。設(shè)特征池中的弱分類器序號(hào)ρ是一個(gè)從0開(kāi)始依次增長(zhǎng)的自然數(shù);分類器的在 線更新學(xué)習(xí)是一個(gè)循環(huán)更新的過(guò)程,前一次更新得到的弱分類器&,、^;以及加權(quán)正確率、加權(quán)錯(cuò)誤率作為當(dāng)前更新的初始值。對(duì)弱分類器&,做更新,得到第t個(gè)選中的第 j個(gè)視角的弱分類器ht, J ;對(duì)弱分類器^;做更新,得到第t次選擇中的第j個(gè)視角的第P個(gè) 弱分類器^;;又為第t次選擇中的第j個(gè)視角的第P個(gè)弱分類器的加權(quán)正確率,々),+為 一個(gè)0到1之間的小數(shù);兄’—為第t次選擇中的第j個(gè)視角的第P個(gè)弱分類器的加權(quán)錯(cuò)誤 率,々),—是一個(gè)0到1之間的小數(shù);設(shè)λ j為樣本權(quán)重,為一個(gè)大于0的浮點(diǎn)數(shù);設(shè)α t, j為 第t個(gè)選中的第j個(gè)視角的弱分類器的權(quán)重,也是一個(gè)大于0的浮點(diǎn)數(shù);設(shè)為第t次選 擇中的第j個(gè)視角的第P個(gè)弱分類器的錯(cuò)誤率,為一個(gè)0到1之間的小數(shù)。本發(fā)明的分類器在線更新學(xué)習(xí)分為四個(gè)主要步驟步驟S41,為初始化步驟,將樣本的權(quán)重λ ^置為1,前一次更新得到的弱分類器 K1、力&以及加權(quán)正確率式;,+、加權(quán)錯(cuò)誤率/^,―作為當(dāng)前更新的初始值;步驟S42,為分類器的協(xié)同學(xué)習(xí),通過(guò)循環(huán)更新得到估計(jì)的樣本屬性,以及各第t 次選擇中的第j個(gè)視角的第P個(gè)弱分類器的錯(cuò)誤率,并在協(xié)同學(xué)習(xí)過(guò)程中利用樣本的兩 類不同性質(zhì)的視覺(jué)特征對(duì)樣本屬性進(jìn)行更新,在更新的樣本屬性基礎(chǔ)上得到當(dāng)前第t次選 擇中的第j個(gè)視角的第P個(gè)弱分類器4!;;步驟S43,挑選錯(cuò)誤率最低的第t個(gè)選中的第j個(gè)視角的弱分類器ht,」去組合最終 的強(qiáng)分類器,并計(jì)算第t個(gè)選中的第j個(gè)視角的弱分類器的權(quán)重α t,j ;步驟S44,更新樣本權(quán)重入j。經(jīng)過(guò)上述的在線協(xié)同提升學(xué)習(xí)得到新的強(qiáng)分類器組合用于下一幀的目標(biāo)分類判定。本發(fā)明提出的在線協(xié)同提升學(xué)習(xí)滿足誤差上界極小化要求,具體說(shuō)明如下。式1 的目標(biāo)分類器在有監(jiān)督的條件下其誤差上界為
權(quán)利要求
1.基于極小化上界誤差的視覺(jué)跟蹤方法,其特征在于,實(shí)現(xiàn)所述方法的步驟包括如下步驟Sl 利用跟蹤器估計(jì)目標(biāo)在當(dāng)前幀中的區(qū)域,所述目標(biāo)區(qū)域包括目標(biāo)位置與目標(biāo) 大?。徊襟ES2 以估計(jì)的目標(biāo)區(qū)域?yàn)閰⒄仗崛颖荆?步驟S3 對(duì)提取的樣本抽取兩類不同性質(zhì)的視覺(jué)特征;步驟S4 利用抽取的各樣本兩類不同性質(zhì)的視覺(jué)特征在線進(jìn)行協(xié)同提升學(xué)習(xí),并對(duì)跟 蹤器進(jìn)行更新,在線協(xié)同提升學(xué)習(xí)中,利用兩個(gè)并行的提升算法同時(shí)對(duì)兩類不同性質(zhì)的視 覺(jué)特征進(jìn)行選擇,并在各級(jí)視覺(jué)特征選擇中利用協(xié)同學(xué)習(xí)進(jìn)行相互約束,在選擇最佳的視 覺(jué)特征提升跟蹤器性能的同時(shí)利用協(xié)同學(xué)習(xí)配置最佳的樣本屬性。
2.如權(quán)利要求1所述基于極小化上界誤差的視覺(jué)跟蹤方法,其特征在于,所述樣本包 括目標(biāo)樣本與背景樣本,其中目標(biāo)樣本是目標(biāo)區(qū)域本身、也可以包括若干與目標(biāo)區(qū)域相互 覆蓋率極大的圖像區(qū)域;背景樣本可以是與目標(biāo)區(qū)域相互覆蓋率極小甚至沒(méi)有覆蓋的一些 圖像區(qū)域。
3.如權(quán)利要求1所述基于極小化上界誤差的視覺(jué)跟蹤方法,其特征在于,所述兩類不 同性質(zhì)的視覺(jué)特征是顏色特征與紋理特征、或者是顏色特征與輪廓特征、或者是紋理特征 與輪廓特征。
4.如權(quán)利要求1所述基于極小化上界誤差的視覺(jué)跟蹤方法,其特征在于,所述樣本屬 性是樣本屬于目標(biāo)樣本、或是樣本屬于背景樣本。
全文摘要
本發(fā)明是基于極小化上界誤差的視覺(jué)跟蹤方法,利用跟蹤器估計(jì)目標(biāo)在當(dāng)前幀中的區(qū)域,所述目標(biāo)區(qū)域包括目標(biāo)位置與目標(biāo)大??;以估計(jì)的目標(biāo)區(qū)域?yàn)閰⒄仗崛颖?;?duì)提取的樣本抽取兩類不同性質(zhì)的視覺(jué)特征;利用抽取的各樣本兩類不同性質(zhì)的視覺(jué)特征在線進(jìn)行協(xié)同提升學(xué)習(xí),并對(duì)跟蹤器進(jìn)行更新,在線協(xié)同提升學(xué)習(xí)中,利用兩個(gè)并行的提升算法同時(shí)對(duì)兩類不同性質(zhì)的視覺(jué)特征進(jìn)行選擇,并在各級(jí)視覺(jué)特征選擇中利用協(xié)同學(xué)習(xí)進(jìn)行相互約束,在選擇最佳的視覺(jué)特征提升跟蹤器性能的同時(shí)利用協(xié)同學(xué)習(xí)配置最佳的樣本屬性。跟蹤器在線學(xué)習(xí)不需要輸入樣本的標(biāo)注信息,在跟蹤結(jié)果不完全準(zhǔn)確的情況下也不會(huì)帶來(lái)累計(jì)誤差,從而保證了跟蹤器的穩(wěn)定性與可靠性。
文檔編號(hào)G06K9/62GK102054170SQ20111002198
公開(kāi)日2011年5月11日 申請(qǐng)日期2011年1月19日 優(yōu)先權(quán)日2011年1月19日
發(fā)明者劉榮, 盧漢清, 王金橋 申請(qǐng)人:中國(guó)科學(xué)院自動(dòng)化研究所