一種基于s-tld的川金絲猴面部檢測(cè)和追蹤算法
【專利摘要】本發(fā)明公開了一種基于S?TLD的川金絲猴面部檢測(cè)和追蹤算法,屬于圖像處理領(lǐng)域。所述發(fā)明包括獲取川金絲猴的膚色和毛色圖片,確定川金絲猴的面部特征庫,使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型,獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲猴進(jìn)行定位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。通過使用備用分類器SVM,使得該追蹤算法在背景復(fù)雜、目標(biāo)運(yùn)動(dòng)幅度大或重新回到視頻中的情況下有較高的追蹤精度。同時(shí)針對(duì)金絲猴自身的特性,如復(fù)雜的面部紋理特征、動(dòng)作極其敏捷迅速。本發(fā)明使用了LBP算子提取金絲猴面部特征,使得在光照變化、面部多尺度變化的情況下保證了追蹤的正確性和速度。
【專利說明】
-種基于S-TLD的川金竺猴面部檢測(cè)和追蹤算法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于圖像處理領(lǐng)域,特別設(shè)及一種基于S-化D的川金絲猴面部檢測(cè)和追蹤 算法。
【背景技術(shù)】
[0002] 隨著現(xiàn)代科學(xué)技術(shù)的發(fā)展,在眾多野生動(dòng)物監(jiān)測(cè)技術(shù)中,數(shù)碼影像技術(shù)(包括自動(dòng) 相機(jī)技術(shù)或紅外相機(jī)技術(shù))W其具有的非強(qiáng)制性,非接觸性和無損傷性等優(yōu)點(diǎn)已廣泛應(yīng)用 于野生動(dòng)物監(jiān)測(cè)的過程中。利用數(shù)碼影像技術(shù)對(duì)金絲猴進(jìn)行全面實(shí)時(shí)的監(jiān)測(cè),能夠獲得豐 富的圖像數(shù)據(jù)。
[0003] 目前,在對(duì)野生動(dòng)物圖像數(shù)據(jù)的研究中,已有較多的利用其各自之間的視覺差異 (如生物特征)進(jìn)行個(gè)體識(shí)別的研究。單目標(biāo)長(zhǎng)時(shí)間追蹤算法,該算法需要人為的參與選擇 目標(biāo)在視頻中的位置,該追蹤算法的優(yōu)點(diǎn)是可W讓用戶隨意定義目標(biāo),但是該優(yōu)點(diǎn)也是其 缺點(diǎn),由于沒有大量的對(duì)目標(biāo)的先驗(yàn)知識(shí),在目標(biāo)變動(dòng)幅度大、背景復(fù)雜的情況下,其追蹤 的效果并不是很好,從而會(huì)丟失大量的有用的圖像信息?;谌四槞z測(cè)技術(shù)的野生動(dòng)物追 蹤方法。該追蹤方法能夠很好的追蹤視頻圖像中運(yùn)動(dòng)的物體,但是由于化T算法對(duì)光照和運(yùn) 動(dòng)幅度敏感,故在背景復(fù)雜、動(dòng)作迅速敏捷的動(dòng)物來說,該算法不能夠完成較高精度的追 蹤。
[0004] 在實(shí)現(xiàn)本發(fā)明的過程中,發(fā)明人發(fā)現(xiàn)現(xiàn)有技術(shù)至少存在W下問題:
[0005] 現(xiàn)有的動(dòng)物圖像識(shí)別技術(shù)存在根據(jù)動(dòng)物皮毛上的花紋特征對(duì)斑馬進(jìn)行識(shí)別,或者 基于外形特征對(duì)鳥群群體行為進(jìn)行監(jiān)控,或者基于紅外圖像中人臉的生理特征進(jìn)行人臉識(shí) 另IJ。但是上述運(yùn)些方法都是針對(duì)不同動(dòng)物個(gè)體所具有的不同特征進(jìn)行個(gè)體識(shí)別追蹤的,而 川金絲猴與其他類型動(dòng)物在自身特征方面存在較大差異,主要變現(xiàn)在:①川金絲猴面部由 毛發(fā)和皮膚兩個(gè)部分組成;②川金絲猴的面部(特別是面部毛發(fā)區(qū)域)具有更為復(fù)雜的紋 理特征;③川金絲猴天生就有極其敏捷迅速的運(yùn)動(dòng)天賦。川金絲猴的W上特征都會(huì)增加視 頻追蹤的難度。因此,現(xiàn)有方法不能直接應(yīng)用于川金絲猴的個(gè)體檢測(cè)和追蹤。
【發(fā)明內(nèi)容】
[0006] 為了解決現(xiàn)有技術(shù)的問題,本發(fā)明提供了一種基于S-化D的川金絲猴面部檢測(cè)和 追蹤算法,所述基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,包括:
[0007] 獲取川金絲猴的膚色和毛色圖片,確定川金絲猴的面部特征庫;
[000引使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模 型;
[0009] 獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲猴進(jìn)行定 位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。
[0010] 可選的,獲取川金絲猴的膚色和毛色圖片,確定所述川金絲猴的面部特征庫,包 括:
[0011] 獲取川金絲猴的膚色和毛色圖片,對(duì)所述膚色和毛色圖片進(jìn)行72色RGB-HSV量化, 對(duì)量化后的顏色進(jìn)行統(tǒng)計(jì)歸類,確定最大輸出量化區(qū)間范圍;
[0012] 基于所述最大輸出量化區(qū)間范圍,構(gòu)建膚色區(qū)域查找表W及毛色區(qū)域查找表;
[0013] 根據(jù)所述膚色區(qū)域查找表和所述毛色區(qū)域查找表中的量化區(qū)間,基于圖像分割原 理提取金絲猴面部特征,構(gòu)建川金絲猴的面部特征庫。
[0014] 可選的,使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM 網(wǎng)絡(luò)模型,包括:
[0015] 使用LBP算子提取人臉樣本和環(huán)境樣本的LBP特征,構(gòu)建人臉樣本庫和環(huán)境樣本 庫;
[0016] 使用SVM分類器,基于由所述面部特征庫、所述人臉樣本庫和所述環(huán)境樣本庫構(gòu)成 的訓(xùn)練樣本對(duì)所述面部特征庫進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型。
[0017] 可選的,獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲 猴進(jìn)行定位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤,包括:
[0018] 獲取待識(shí)別的視頻圖像,對(duì)所述視頻圖像中的帖圖像進(jìn)行72色RGB-HSV量化,將得 到的量化區(qū)間與所述SVM模型中特征進(jìn)行對(duì)比,確定川金絲猴的位置區(qū)域;
[0019] 提取所述川金絲猴的位置區(qū)域中LBP特征,使用SVM分類器對(duì)所述特征進(jìn)行分類, 選取精度值最高的位置作為川金絲猴的臉部位置;
[0020] 基于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤。
[0021] 可選的,提取所述川金絲猴的位置區(qū)域中LBP特征,使用SVM分類器對(duì)所述特征進(jìn) 行分類,選取精度值最高的位置作為川金絲猴的臉部位置,包括:
[0022] 使用不同尺寸的窗口對(duì)所述帖圖像進(jìn)行連續(xù)掃描;
[0023] 在確定川金絲猴的位置區(qū)域后,提取所述位置區(qū)域的掃描窗口 W及所述掃描窗口 的LBP特征,將所述掃描窗口的LBP特征存儲(chǔ)在矩陣中;
[0024] 使用SVM備用分類器對(duì)所述矩陣中的LBP特征進(jìn)行分類,結(jié)合所述SVM模型選取符 合預(yù)設(shè)條件的掃描窗口位置作為川金絲猴的臉部位置。
[0025] 可選的,基于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤,包括:
[0026] 獲取所述川金絲猴的臉部位置對(duì)應(yīng)的掃描窗口的索引值;
[0027] 基于所述索引值和所述川金絲猴的位置區(qū)域坐標(biāo),建立所述掃描窗口與當(dāng)前帖圖 像的映射關(guān)系;
[0028] 基于所述映射關(guān)系,實(shí)時(shí)確定川金絲猴在所述當(dāng)前帖圖像中的臉部位置;
[0029] 結(jié)合所述當(dāng)前帖圖像中的臉部位置,基于化D理論獲取在下一帖圖像中川金絲猴 的臉部位置,實(shí)現(xiàn)自動(dòng)追蹤。
[0030] 可選的,所述基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,還包括:
[0031] 當(dāng)追蹤失敗時(shí),激活SVM備用分類器,再次確定川金絲猴的位置,進(jìn)而基于化D理論 對(duì)定位后的川金絲猴進(jìn)行追蹤。本發(fā)明提供的技術(shù)方案帶來的有益效果是:
[0032] 通過使用備用分類器SVM,使得該追蹤算法在背景復(fù)雜、目標(biāo)運(yùn)動(dòng)幅度大或重新 回到視頻中的情況下有較高的追蹤精度。同時(shí)針對(duì)金絲猴自身的特性,如復(fù)雜的面部紋理 特征、動(dòng)作極其敏捷迅速。本發(fā)明使用了 LBP算子提取金絲猴面部特征,使得在光照變化、面 部多尺度變化的情況下保證了追蹤的正確性和速度。
【附圖說明】
[0033] 為了更清楚地說明本發(fā)明的技術(shù)方案,下面將對(duì)實(shí)施例描述中所需要使用的附圖 作簡(jiǎn)單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實(shí)施例,對(duì)于本領(lǐng)域普 通技術(shù)人員來講,在不付出創(chuàng)造性勞動(dòng)的前提下,還可W根據(jù)運(yùn)些附圖獲得其他的附圖。
[0034] 圖1是本發(fā)明提供的一種基于S-化D的川金絲猴面部檢測(cè)和追蹤算法的流程示意 圖;
[0035] 圖2(a)是本發(fā)明提供的川金絲猴在第一姿勢(shì)下的面部LBP灰度圖;
[0036] 圖2(b)是本發(fā)明提供的川金絲猴在第二姿勢(shì)下的面部LBP灰度圖;
[0037] 圖2(c)是本發(fā)明提供的川金絲猴在第Ξ姿勢(shì)下的面部LBP灰度圖;
[0038] 圖2(d)是本發(fā)明提供的川金絲猴在第四姿勢(shì)下的面部LBP灰度圖;
[0039] 圖3(a)是本發(fā)明提供的川金絲猴在第一姿勢(shì)下的面部LBP特征圖;
[0040] 圖3(b)是本發(fā)明提供的川金絲猴在第二姿勢(shì)下的面部LBP特征圖;
[0041] 圖3(c)是本發(fā)明提供的川金絲猴在第Ξ姿勢(shì)下的面部LBP特征圖;
[0042] 圖3(d)是本發(fā)明提供的川金絲猴在第四姿勢(shì)下的面部LBP特征圖;
[0043] 圖4(al)是本發(fā)明提供的川金絲猴在第一姿勢(shì)下降維之后的LBP直方圖;
[0044] 圖4(a2)是本發(fā)明提供的川金絲猴在第一姿勢(shì)下沒有降維的LBP直方圖;
[0045] 圖4(bl)是本發(fā)明提供的川金絲猴在第二姿勢(shì)下降維之后的LBP直方圖;
[0046] 圖4(b2)是本發(fā)明提供的川金絲猴在第二姿勢(shì)下沒有降維的LBP直方圖;
[0047] 圖4(cl)是本發(fā)明提供的川金絲猴在第Ξ姿勢(shì)下降維之后的LBP直方圖;
[0048] 圖4(c2)是本發(fā)明提供的川金絲猴在第Ξ姿勢(shì)下沒有降維的LBP直方圖;
[0049] 圖4(dl)是本發(fā)明提供的川金絲猴在第四姿勢(shì)下降維之后的LBP直方圖;
[0050] 圖4(d2)是本發(fā)明提供的川金絲猴在第四姿勢(shì)下沒有降維的LBP直方圖;
[0051] 圖5是對(duì)t圖4(al)、圖4(bl)、圖4(cl)、圖4(dl)降維后LBP直方圖的曲線擬合示意 圖;
[0052] 圖6(1)是本發(fā)明提供的初始帖備用分類器追蹤效果圖;
[0053] 圖6(2)是本發(fā)明提供的化D根據(jù)SVM備用分類器傳入的參數(shù)后第20帖的追蹤的效 果;
[0054] 圖6(3)是本發(fā)明提供的在金絲猴轉(zhuǎn)臉時(shí)化D追蹤失效后備用分類器SVM修正的結(jié) 果圖一;
[0055] 圖6(4)是本發(fā)明提供的經(jīng)過SVM修正后TLD追蹤的效果圖一;
[0056] 圖6(5)是本發(fā)明提供的在金絲猴轉(zhuǎn)臉時(shí)化D追蹤失效后備用分類器SVM修正的結(jié) 果圖二;
[0057] 圖6(6)是本發(fā)明提供的經(jīng)過SVM修正后TLD追蹤的效果圖二;
[0058] 圖6(7)是本發(fā)明提供的在金絲猴劇烈運(yùn)動(dòng)后,SVM備用分類器修正的結(jié)果圖一;
[0059] 圖6(8)是本發(fā)明提供的經(jīng)過SVM修正之后TLD追蹤的結(jié)果圖一;
[0060] 圖6(9)是本發(fā)明提供的在金絲猴劇烈運(yùn)動(dòng)后,SVM備用分類器修正的結(jié)果圖二;
[0061] 圖6(10)是本發(fā)明提供的經(jīng)過SVM修正之后TLD追蹤的結(jié)果圖二;
[0062] 圖6(11)是本發(fā)明提供的在金絲猴劇烈運(yùn)動(dòng)后,SVM備用分類器修正的結(jié)果圖Ξ;
[0063] 圖6(12)是本發(fā)明提供的經(jīng)過SVM修正之后TLD追蹤的結(jié)果圖Ξ;
[0064] 圖7(1)是本發(fā)明提供的在有家族成員干擾的情況下初始帖SVM備用分類器追蹤效 果圖;
[0065] 圖7(2)是本發(fā)明提供的根據(jù)SVM備用分類器傳入?yún)?shù)后第10帖的追蹤效果;
[0066] 圖7(3)是本發(fā)明提供的在家族成員和被追蹤金絲猴由于臉部運(yùn)動(dòng)導(dǎo)致化D追蹤 失敗的情況下SVM備用分類器修正追蹤效果圖一;
[0067] 圖7(4)是本發(fā)明提供的根據(jù)SVM備用分類器修正后第10帖追蹤效果圖一;
[0068] 圖7(5)是本發(fā)明提供的在家族成員和被追蹤金絲猴由于臉部運(yùn)動(dòng)導(dǎo)致化D追蹤失 敗的情況下SVM備用分類器修正追蹤效果圖二;
[0069] 圖7(6)是本發(fā)明提供的根據(jù)SVM備用分類器修正后第10帖追蹤效果圖二;
[0070] 圖7(7)是本發(fā)明提供的被追蹤金絲猴由于完全側(cè)臉導(dǎo)致化D追蹤失敗后SVM備用 分類器追蹤效果圖;
[0071] 圖7(8)是本發(fā)明提供的TLD根據(jù)修正后第10帖追蹤效果圖。
【具體實(shí)施方式】
[0072] 為使本發(fā)明的結(jié)構(gòu)和優(yōu)點(diǎn)更加清楚,下面將結(jié)合附圖對(duì)本發(fā)明的結(jié)構(gòu)作進(jìn)一步地 描述。
[0073] 實(shí)施例一
[0074] 本發(fā)明提供了一種基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,所述基于S-TLD的 川金絲猴面部檢測(cè)和追蹤算法,包括:
[0075] 獲取川金絲猴的膚色和毛色圖片,確定川金絲猴的面部特征庫;
[0076] 使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模 型;
[0077] 獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲猴進(jìn)行定 位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。
[0078] 在實(shí)施中,為了實(shí)現(xiàn)在視頻圖像中對(duì)川金絲猴的檢測(cè)和追蹤,本發(fā)明提出了一種 基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,如圖1所示,包括:
[0079] 11、獲取川金絲猴的膚色和毛色圖片,確定川金絲猴的面部特征庫。
[0080] 12、使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò) 模型。
[0081] 13、獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲猴進(jìn) 行定位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。
[0082] 運(yùn)里的S-TLD具體是指SVM和TLD,支持向量機(jī)(Suppod Vector MacMne,SVM)在 機(jī)器學(xué)習(xí)領(lǐng)域,是一個(gè)有監(jiān)督的學(xué)習(xí)模型,通常用來進(jìn)行模式識(shí)別、分類、W及回歸分析。而 TUKTracking-Learning-Detection)是一種視頻追蹤算法,其算法思想就是把追蹤器和檢 測(cè)器結(jié)合使用,同時(shí)加入機(jī)器學(xué)習(xí)來提高結(jié)果的準(zhǔn)確度,具體分為追蹤模塊(Tracking),學(xué) 習(xí)模塊(Xearning)和檢測(cè)模塊(Detection)。
[0083] 本方法基于現(xiàn)有的目標(biāo)追蹤算法TLD的基本框架,為了解決化D在目標(biāo)大幅度運(yùn)動(dòng) 或重新返回視頻中導(dǎo)致化D檢測(cè)失效的問題,引入備用分類器SVM,使得該追蹤算法在背景 復(fù)雜、目標(biāo)運(yùn)動(dòng)幅度大或重新回到視頻中的情況下有較高的追蹤精度,從而解決了TLD追蹤 目標(biāo)需人工手動(dòng)選擇的缺點(diǎn),能夠自動(dòng)的完成了目標(biāo)選擇的任務(wù)。同時(shí)解決了化D由于訓(xùn)練 樣本不足導(dǎo)致的在目標(biāo)變化較大時(shí)檢測(cè)率低的問題,提高了視頻中目標(biāo)追蹤的精度,為獲 取豐富的圖像數(shù)據(jù)提供了技術(shù)支持。
[0084] 同時(shí)針對(duì)川金絲猴復(fù)雜的面部紋理特征、動(dòng)作極其敏捷迅速等自身的特性,還使 用了局部二值模式化ocal Binary Patterns,LBP)算子提取金絲猴面部特征,使得在光照 變化、面部多尺度變化的情況下保證了追蹤的正確性和速度。
[0085] 本發(fā)明提供了一種基于S-化D的川金絲猴面部檢測(cè)和追蹤算法,包括獲取川金絲 猴的膚色和毛色圖片,確定川金絲猴的面部特征庫,使用SVM分類器對(duì)所述面部特征庫中的 特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型,獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在 所述視頻圖像中對(duì)川金絲猴進(jìn)行定位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。通過使 用備用分類器SVM,使得該追蹤算法在背景復(fù)雜、目標(biāo)運(yùn)動(dòng)幅度大或重新回到視頻中的情況 下有較高的追蹤精度。同時(shí)針對(duì)金絲猴自身的特性,如復(fù)雜的面部紋理特征、動(dòng)作極其敏捷 迅速。本發(fā)明使用了LBP算子提取金絲猴面部特征,使得在光照變化、面部多尺度變化的情 況下保證了追蹤的正確性和速度。
[0086] 可選的,獲取川金絲猴的膚色和毛色圖片,確定所述川金絲猴的面部特征庫,包 括:
[0087] 獲取川金絲猴的膚色和毛色圖片,對(duì)所述膚色和毛色圖片進(jìn)行72色RGB-HSV量化, 對(duì)量化后的顏色進(jìn)行統(tǒng)計(jì)歸類,確定最大輸出量化區(qū)間范圍;
[0088] 基于所述最大輸出量化區(qū)間范圍,構(gòu)建膚色區(qū)域查找表W及毛色區(qū)域查找表;
[0089] 根據(jù)所述膚色區(qū)域查找表和所述毛色區(qū)域查找表中的量化區(qū)間,基于圖像分割原 理提取金絲猴面部特征,構(gòu)建川金絲猴的面部特征庫。
[0090] 在實(shí)施中,步驟11的具體實(shí)現(xiàn)方式為:
[0091] 101、獲取川金絲猴的膚色和毛色圖片,對(duì)所述膚色和毛色圖片進(jìn)行72色RGB-HSV 量化,對(duì)量化后的顏色進(jìn)行統(tǒng)計(jì)歸類,確定最大輸出量化區(qū)間范圍。
[0092] 具體的,步驟101的實(shí)現(xiàn)方式為:
[0093] 首先將所有的膚色和毛發(fā)樣本分別按照RGB空間當(dāng)中的長(zhǎng)度進(jìn)行排序,并按照公 式(1)轉(zhuǎn)化為服V值。
[0097]其次,由于一幅圖像中包含的顏色信息太多,不可能將所有顏色信息全部提取出 來逐個(gè)進(jìn)行分析。因此運(yùn)就要求對(duì)圖像進(jìn)行一定程度的量化,從而簡(jiǎn)化該問題。選擇對(duì)處 于服V空間中的像素點(diǎn)進(jìn)行72色量化,按照公式(2)的規(guī)則進(jìn)行轉(zhuǎn)化。
[009引
[0100] 接著,將該Ξ個(gè)矢量化^,7)、5^,7)、¥^,7)相疊加得到合成的一維矢量,即公式 (3)所示:
[0101] L(x,y)=70H(x,y)+3S(x,y)+V(x,y) (3)
[0102] 提取面部皮膚樣本圖像和面部毛發(fā)樣本圖像的72色量化灰度圖像的L(x,y)的值。 運(yùn)用數(shù)學(xué)統(tǒng)計(jì)的方法分別對(duì)其中出現(xiàn)的不同量化值進(jìn)行統(tǒng)計(jì)記錄并標(biāo)明出現(xiàn)的頻率次數(shù), 統(tǒng)計(jì)結(jié)果表明,選擇灰度值為70-80與330-360區(qū)間段分別作為毛色和膚色的量化范圍區(qū) 間。
[0103] 102、基于所述最大輸出量化區(qū)間范圍,構(gòu)建膚色區(qū)域查找表W及毛色區(qū)域查找 表。
[0104] 103、根據(jù)所述膚色區(qū)域查找表和所述毛色區(qū)域查找表中的量化區(qū)間,基于圖像分 割原理提取金絲猴面部特征,構(gòu)建川金絲猴的面部特征庫。
[0105] 步驟103的具體實(shí)現(xiàn)方式為:
[0106] 首先,根據(jù)步驟101得到的金絲猴膚色灰度值量化區(qū)間,運(yùn)用圖像分割技術(shù)提取金 絲猴面部圖像并建立金絲猴面部圖像庫P{pi,P2........,pn},其中Pi(l含i含η)為圖像庫中 第i張金絲猴面部圖片。
[0107] 其次,使用LBP算子,提取金絲猴面部圖像庫P中的每一張圖片的面部特征。提取公 式(4)如下:
[010 引
[0109] 其中(Xc,y。)是中屯、像素,i。為亮度,in為相鄰像素的亮度。s(x)為一個(gè)符號(hào)函數(shù)。
[0110] 接著,運(yùn)用"等價(jià)模式"對(duì)LBP算子的模式種類進(jìn)行降維,將二進(jìn)制模式由原始的 256種減少到59種,W減少系統(tǒng)運(yùn)行過程中的計(jì)算量。最終用矩陣存儲(chǔ)得到的金絲猴面部特 征,表示方法如下:
[0111] Fm=[fl ?2. . .fn]',
[01切其中,η為樣本的總個(gè)數(shù),fi(iy含η)為58維行向量。
[0113] 可選的,使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM 網(wǎng)絡(luò)模型,包括:
[0114] 使用LBP算子提取人臉樣本和環(huán)境樣本的LBP特征,構(gòu)建人臉樣本庫和環(huán)境樣本 庫;
[0115] 使用SVM分類器,基于由所述面部特征庫、所述人臉樣本庫和所述環(huán)境樣本庫構(gòu)成 的訓(xùn)練樣本對(duì)所述面部特征庫進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型。
[0116] 在實(shí)施中,步驟12的具體實(shí)現(xiàn)方式為:
[0117] 201、為了提高SVM分類器的魯棒性,需要其他類別的負(fù)樣本(人臉樣本和環(huán)境樣 本)豐富SVM網(wǎng)絡(luò)模型的多樣性,W優(yōu)化其參數(shù)。利用步驟1中的方法,使用LBP算子提取人臉 樣本和環(huán)境樣本的LBP特征。表示方法分別如下:
[011 引 Fh=[fl f2. . .fl],,F(xiàn)t=[fl f2. . .fm],
[0119] 其中,F(xiàn)m,F(xiàn)t分別為人臉和環(huán)境樣本特征庫,l,m分別為其樣本總數(shù)。
[0120] 202、使用SVM分類器,對(duì)由各個(gè)特征庫Fm,F(xiàn)h,F(xiàn)t組成的特征庫矩陣F=[Fm Fh Ft]' 作為訓(xùn)練樣本,訓(xùn)練金絲猴面部特征庫網(wǎng)絡(luò)模型。 II-τ-.γ,ΙΙ]
[01別]使用SVM種的高斯徑向基核函數(shù)乂-,使用的參數(shù)為('-C 2-g 1-t 2-b Γ )。通過訓(xùn)練得到WSVM網(wǎng)絡(luò)模型model。
[0122] 可選的,獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲 猴進(jìn)行定位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤,包括:
[0123] 獲取待識(shí)別的視頻圖像,對(duì)所述視頻圖像中的帖圖像進(jìn)行72色RGB-HSV量化,將得 到的量化區(qū)間與所述SVM模型中特征進(jìn)行對(duì)比,確定川金絲猴的位置區(qū)域;
[0124] 提取所述川金絲猴的位置區(qū)域中LBP特征,使用SVM分類器對(duì)所述特征進(jìn)行分類, 選取精度值最高的位置作為川金絲猴的臉部位置;
[0125] 基于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤。
[01%]在實(shí)施中,步驟13的具體實(shí)現(xiàn)方式為:
[0127] 301、使用圖像處理軟件matlab讀入彩色視頻圖像,獲取第一帖圖像。為了提高追 蹤的速度,在第一帖視頻圖像中,使用步驟1中的方法對(duì)圖像進(jìn)行72色RGB-HSV量化,然后與 步驟1得到的毛色量化區(qū)間值對(duì)比進(jìn)行篩選,選擇出在區(qū)間范圍內(nèi)的像素點(diǎn)予W保留,W確 定金絲猴在視頻帖中的具體位置。
[0128] 302、根據(jù)步驟301得到的金絲猴的位置,使用掃描窗口在猴身區(qū)域檢測(cè)猴臉,提取 獲得的窗口數(shù)據(jù)的LBP特征并使用SVM分類器對(duì)各個(gè)窗口的特征進(jìn)行分類,其中選取精度值 最大的一個(gè)輸出作為猴臉部的位置。
[0129] 303、基于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤。
[0130] 可選的,提取所述川金絲猴的位置區(qū)域中LBP特征,使用SVM分類器對(duì)所述特征進(jìn) 行分類,選取精度值最高的位置作為川金絲猴的臉部位置,包括:
[0131] 使用不同尺寸的窗口對(duì)所述帖圖像進(jìn)行連續(xù)掃描;
[0132] 在確定川金絲猴的位置區(qū)域后,提取所述位置區(qū)域的掃描窗口 W及所述掃描窗口 的LBP特征,將所述掃描窗口的LBP特征存儲(chǔ)在矩陣中;
[0133] 使用SVM備用分類器對(duì)所述矩陣中的LBP特征進(jìn)行分類,結(jié)合所述SVM模型選取符 合預(yù)設(shè)條件的掃描窗口位置作為川金絲猴的臉部位置。
[0134] 在實(shí)施中,步驟302中確定川金絲猴臉部位置的內(nèi)容具體為:
[0135] (1)構(gòu)建掃描窗口:為了比較精確的找到目標(biāo)在視頻帖中的位置W及大小,需要使 用不同尺寸的窗口對(duì)視頻帖連續(xù)的掃描。
[0136] 初始掃描的窗口為o_sw = 40 X 40pixel,步長(zhǎng)為d= lOpixel,最大的掃描窗口為m_ sw= 100 X 10化ixel,掃描窗口的尺寸縮放步長(zhǎng)為s_d = 5pixel。
[0137] (2)提取掃描窗口的LBP特征:根據(jù)(1)中的掃描窗口,在得到的金絲猴位置L中提 取掃描窗口,并提取掃描窗口的LBP特征。使用矩陣MmXnXSS來存儲(chǔ)掃描窗口的LBP特征值,其 中mXn為掃描窗口的索引,行數(shù)m代表不同尺寸的掃描窗口的種類數(shù),列數(shù)η代表每一種尺 寸掃描窗口的個(gè)數(shù),每一行中列數(shù)不夠的用0填充,W保證矩陣的完整性。具體映射關(guān)系如 下:
[013 引
[0139] 其中;r_min,;r_max,c_min,c_min為猴身位置的坐標(biāo),c_sw為當(dāng)前掃描窗口的尺寸。
[0140] 可選的,基于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤,包括:
[0141] 獲取所述川金絲猴的臉部位置對(duì)應(yīng)的掃描窗口的索引值;
[0142] 基于所述索引值和所述川金絲猴的位置區(qū)域坐標(biāo),建立所述掃描窗口與當(dāng)前帖圖 像的映射關(guān)系;
[0143] 基于所述映射關(guān)系,實(shí)時(shí)確定川金絲猴在所述當(dāng)前帖圖像中的臉部位置;
[0144] 結(jié)合所述當(dāng)前帖圖像中的臉部位置,基于化D理論獲取在下一帖圖像中川金絲猴 的臉部位置,實(shí)現(xiàn)自動(dòng)追蹤。
[0145] 在實(shí)施中,TLD的思想就是把追蹤器和檢測(cè)器結(jié)合使用,同時(shí)加入機(jī)器學(xué)習(xí)來提高 結(jié)果的準(zhǔn)確度。分為追蹤模塊(Tracking),檢測(cè)模塊(Detection)和學(xué)習(xí)模塊化earning)。
[0146] 追蹤模塊:基于Lucas-Kanade追蹤器和FB誤差(forward-backward error)。首先 在第t帖的所要追蹤的目標(biāo)中均勻的產(chǎn)生一些追蹤點(diǎn),利用Lucas-Kanade追蹤器正向追蹤 運(yùn)些點(diǎn)到t+1帖,然后再反向追蹤到t帖,計(jì)算FB誤差(追蹤點(diǎn)之間的歐式距離),篩選出FB誤 差最小的一半點(diǎn)作為最佳追蹤點(diǎn)。最后根據(jù)運(yùn)些點(diǎn)的坐標(biāo)變化和距離的變化計(jì)算t+1帖物 體的位置和大小。
[0147] 檢測(cè)模塊:使用了一個(gè)級(jí)聯(lián)分類器,對(duì)從包圍框獲得的樣本進(jìn)行分類。首先通過圖 像元分類器計(jì)算圖像元像素的灰度值的方差,把方差小于原始圖像元方差一半的樣本標(biāo)記 為負(fù);然后使用集成分類器(隨機(jī)藤分類器)提高分類的準(zhǔn)確性;最后使用最近鄰分類器,通 過計(jì)算樣本的相對(duì)近似度,如果大于0.6,則人為是正樣本,否則為負(fù)樣本。
[0148] 學(xué)習(xí)模塊:作者提出了一種半監(jiān)督新的機(jī)器學(xué)習(xí)算法(P-N Learning),其作用是 對(duì)檢測(cè)器對(duì)樣本分類時(shí)產(chǎn)生的兩種類型的錯(cuò)誤提供了兩種糾正方式。一種是P專家,其作用 是改正漏檢(正樣本誤分為負(fù)樣本)的正樣本;另一種是N專家,其作用是改正誤檢(負(fù)樣本 誤分為正樣本)的正樣本。
[0149] 基于TLD理論,步驟303的具體實(shí)現(xiàn)方式為:
[0150] (1)使用SVM備用分類器對(duì)矩陣Mmxnxss所存儲(chǔ)的LBP特征分類,核函數(shù)和參數(shù)的選 取與步驟(2)中的相同,并結(jié)合步驟12中的預(yù)測(cè)模型分類,從預(yù)測(cè)的結(jié)果中選取預(yù)測(cè)值最大 的并且大于闊值θηη = 0.93值的掃描窗口作為猴臉的位置,并對(duì)應(yīng)的找到該掃描窗口所對(duì)應(yīng) 的索引值(mx,nx),索引值從0開始算起。
[0151] (2)掃描窗口對(duì)應(yīng)的坐標(biāo)值:為了找到每個(gè)掃描窗口在視頻帖中對(duì)應(yīng)的坐標(biāo)值,需 要根據(jù)③中的掃描窗口的索引值和步驟301中猴身的位置坐標(biāo)建立掃描窗口與坐標(biāo)值的映 射關(guān)系。
[0152] 具體映射關(guān)系如下:
[0153]
[0154] 通過該映射關(guān)系可求出猴臉在視頻帖中的具體位置為:
[015引 f_L=[r_cmin c_cmin r_cmax c_cmax]。
[0156] (3)向TLD輸入猴臉位置f_L= [;r_cmin c_cmin r_cmax c_cmax],調(diào)用激活函數(shù) run_TLD(f_L)啟動(dòng)化D,化0首先根據(jù)初始目標(biāo)位置,通過一定程度的多尺度變換產(chǎn)生自己 的樣本庫,經(jīng)過級(jí)聯(lián)分類器產(chǎn)生正樣本,放入樣本集;然后使用追蹤器估計(jì)出物體的新位 置,P-專家根據(jù)運(yùn)個(gè)位置產(chǎn)生正樣本,N-專家從運(yùn)些正樣本里面選出一個(gè)最可信的,同時(shí)把 其他正樣本標(biāo)記為負(fù);最后用正樣本更新檢測(cè)器的分類器參數(shù),并確定下一帖物體位置。
[0157] 可選的,所述基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,還包括:
[0158] 當(dāng)追蹤失敗時(shí),激活SVM備用分類器,再次確定川金絲猴的位置,進(jìn)而基于化D理論 對(duì)定位后的川金絲猴進(jìn)行追蹤。
[0159] 在實(shí)施中,在金絲猴動(dòng)作幅度比較大或重新返回到視頻中導(dǎo)致化D丟失目標(biāo)或追 蹤失效后,算法調(diào)用激活函數(shù)run_SVM()再次激活SVM備用分類器,根據(jù)步驟13中的流程,先 獲取猴身位置,然后根據(jù)猴身位置檢測(cè)猴臉位置,修正TLD追蹤結(jié)果。
[0160] 本發(fā)明提供了一種基于S-化D的川金絲猴面部檢測(cè)和追蹤算法,包括獲取川金絲 猴的膚色和毛色圖片,確定川金絲猴的面部特征庫,使用SVM分類器對(duì)所述面部特征庫中的 特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型,獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在 所述視頻圖像中對(duì)川金絲猴進(jìn)行定位,基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。通過使 用備用分類器SVM,使得該追蹤算法在背景復(fù)雜、目標(biāo)運(yùn)動(dòng)幅度大或重新回到視頻中的情況 下有較高的追蹤精度。同時(shí)針對(duì)金絲猴自身的特性,如復(fù)雜的面部紋理特征、動(dòng)作極其敏 捷迅速。本發(fā)明使用了 LBP算子提取金絲猴面部特征,使得在光照變化、面部多尺度變化的 情況下保證了追蹤的正確性和速度。
[0161] 本發(fā)明的效果可W通過W下實(shí)驗(yàn)結(jié)果進(jìn)一步說明。
[0162] 圖2為金絲猴面部LBP特征圖。
[0163] 圖2(a)至(d)展示了同一個(gè)金絲猴在四種不同姿態(tài)下面部灰度圖像,為了說明LBP 能夠很好的提取金絲猴臉部特征。
[0164] 圖3(a)至(d)展示了對(duì)應(yīng)圖2(a)至(d)中的四種姿態(tài)下的特征圖像,從圖3(a)至 (d)中可W看出,LBP黑色的點(diǎn)和白色的點(diǎn)的分布大體相同,運(yùn)就說明了LBP特征能夠很好的 表示金絲猴臉部特征。
[0165] 圖4(a)至(d)分別對(duì)應(yīng)圖2(a)至(d)中的四種姿態(tài)中每個(gè)面部圖像的LBP直方圖, 圖4(al)、圖4(bl)、圖4(cl)、圖4(dl)代表了運(yùn)用LBP等價(jià)模式降維之后的LBP直方圖,圖4 (曰2)、圖4化2)、圖4(c2)、圖4(d2)代表了沒有降維的LBP直方圖,圖4(a)至(d)中反映了其灰 度變化趨勢(shì)大體相同,從而間接的反映出LBP特征能夠準(zhǔn)確的表示金絲猴面部特征。
[0166] 圖5是對(duì)降維后上述四幅LBP直方圖的曲線擬合,其直觀的展現(xiàn)出四條曲線的變化 情況具有高度的一致性,從而反映出LBP特征的魯棒性。其中,P1、P2、P3、P4分別對(duì)應(yīng)圖4 (al)、圖4化1)、圖4(cl)、圖4(dl)四幅子圖降維后LBP特征直方圖的曲線擬合,圖中橫坐表 代表了降維后LBP特征的維數(shù)(59維),縱坐標(biāo)代表了每一維特征的值(0-255),圖中顏色越 深的地方表示曲線的重合度越高,其直觀的展現(xiàn)出了 LBP特征對(duì)金絲猴臉部變化的魯棒性。
[0167] 圖6和圖7分別展示了在不同的場(chǎng)景下該算法追蹤效果圖。圖6在光線比較亮、背景 為草叢W及金絲猴運(yùn)動(dòng)幅度比較大的條件下測(cè)試效果圖。圖7是在光線比較暗,背景顏色和 金絲猴毛色相似,并且有家族金絲猴成員的條件下測(cè)試效果圖。綠色框表示TLD追蹤時(shí)的效 果,紅色的框表示在初始帖或者TLD追蹤失效后,備用分類器SVM追蹤效果。
[0168] 圖6是對(duì)一個(gè)視頻中金絲猴不同的動(dòng)作中追蹤效果的展示,驗(yàn)證了該算法對(duì)于運(yùn) 動(dòng)敏捷的金絲猴來說有較好的魯棒性。其中,
[0169] 子圖(1)表示了初始帖備用分類器追蹤效果,子圖(2)相應(yīng)的為化D根據(jù)SVM備用分 類器傳入的參數(shù)后第20帖的追蹤的效果;子圖(3)和子圖(5)分別為金絲猴轉(zhuǎn)臉時(shí)化D追蹤 失效后備用分類器SVM修正的結(jié)果,子圖(4)和子圖(6)相應(yīng)的為經(jīng)過SVM修正后化D追蹤的 效果。子圖(7)、子圖(9)和子圖(11)分別表示在金絲猴劇烈運(yùn)動(dòng)后,SVM備用分類器修正的 結(jié)果,相應(yīng)的子圖(8)、子圖(10)和子圖(12)為經(jīng)過SVM修正之后TLD追蹤的結(jié)果。
[0170] 圖7主要展示了在光線比較暗、背景顏色和金絲猴毛色相似W及有家族成員的條 件下測(cè)試效果圖。主要展示了在金絲猴做不同的臉部動(dòng)作,W及有子代家族金絲猴成員的 條件下該算法追蹤的效果圖,W驗(yàn)證該算法對(duì)于金絲猴家族成員天生相似度高的特點(diǎn)具有 較好的識(shí)別追蹤效果。其中,子圖(1)表示了在有家族成員干擾的情況下初始帖SVM備用分 類器追蹤效果,子圖(2)相應(yīng)的為化D根據(jù)SVM備用分類器傳入?yún)?shù)后第10帖的追蹤效果。子 圖(3)和子圖(5)表示了在家族成員和被追蹤金絲猴由于臉部運(yùn)動(dòng)導(dǎo)致化D追蹤失敗的情況 下SVM備用分類器修正追蹤效果;相應(yīng)的子圖(4)和子圖(6)為化D根據(jù)SVM備用分類器修正 后第10帖追蹤效果。子圖(7)表示了被追蹤金絲猴由于完全側(cè)臉導(dǎo)致化D追蹤失敗后SVM備 用分類器追蹤效果,子圖(8)相應(yīng)的為TLD根據(jù)修正后第10帖追蹤效果。
[0171] 可W清楚的看到在金絲猴運(yùn)動(dòng)幅度大、臉部遮擋嚴(yán)重的時(shí)候,該算法都?jí)蚝芎玫?完成追蹤的效果。
[0172] 需要說明的是:上述實(shí)施例提供的基于S-化D的川金絲猴面部檢測(cè)和追蹤算法進(jìn) 行視頻圖像中對(duì)川金絲猴進(jìn)行檢測(cè)和追蹤的實(shí)施例,僅作為該檢測(cè)和追蹤算法在實(shí)際應(yīng)用 中的說明,還可W根據(jù)實(shí)際需要而將上述檢測(cè)和追蹤算法在其他應(yīng)用場(chǎng)景中使用,其具體 實(shí)現(xiàn)過程類似于上述實(shí)施例,運(yùn)里不再寶述。
[0173] 上述實(shí)施例中的各個(gè)序號(hào)僅僅為了描述,不代表各部件的組裝或使用過程中的先 后順序。
[0174] W上所述僅為本發(fā)明的實(shí)施例,并不用W限制本發(fā)明,凡在本發(fā)明的精神和原則 之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。
【主權(quán)項(xiàng)】
1. 一種基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,所述基于S-TLD的川 金絲猴面部檢測(cè)和追蹤算法,包括: 獲取川金絲猴的膚色和毛色圖片,確定川金絲猴的面部特征庫; 使用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型; 獲取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲猴進(jìn)行定位, 基于TLD理論對(duì)定位后的川金絲猴進(jìn)行追蹤。2. 根據(jù)權(quán)利要求1所述的基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,獲 取川金絲猴的膚色和毛色圖片,確定所述川金絲猴的面部特征庫,包括: 獲取川金絲猴的膚色和毛色圖片,對(duì)所述膚色和毛色圖片進(jìn)行72色RGB-HSV量化,對(duì)量 化后的顏色進(jìn)行統(tǒng)計(jì)歸類,確定最大輸出量化區(qū)間范圍; 基于所述最大輸出量化區(qū)間范圍,構(gòu)建膚色區(qū)域查找表以及毛色區(qū)域查找表; 根據(jù)所述膚色區(qū)域查找表和所述毛色區(qū)域查找表中的量化區(qū)間,基于圖像分割原理提 取金絲猴面部特征,構(gòu)建川金絲猴的面部特征庫。3. 根據(jù)權(quán)利要求1所述的基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,使 用SVM分類器對(duì)所述面部特征庫中的特征進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型,包括: 使用LBP算子提取人臉樣本和環(huán)境樣本的LBP特征,構(gòu)建人臉樣本庫和環(huán)境樣本庫; 使用SVM分類器,基于由所述面部特征庫、所述人臉樣本庫和所述環(huán)境樣本庫構(gòu)成的訓(xùn) 練樣本對(duì)所述面部特征庫進(jìn)行優(yōu)化,得到優(yōu)化后的SVM網(wǎng)絡(luò)模型。4. 根據(jù)權(quán)利要求1所述的基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,獲 取待識(shí)別的視頻圖像,結(jié)合所述SVM模型,在所述視頻圖像中對(duì)川金絲猴進(jìn)行定位,基于TLD 理論對(duì)定位后的川金絲猴進(jìn)行追蹤,包括: 獲取待識(shí)別的視頻圖像,對(duì)所述視頻圖像中的幀圖像進(jìn)行72色RGB-HSV量化,將得到的 量化區(qū)間與所述SVM模型中特征進(jìn)行對(duì)比,確定川金絲猴的位置區(qū)域; 提取所述川金絲猴的位置區(qū)域中LBP特征,使用SVM分類器對(duì)所述特征進(jìn)行分類,選取 精度值最高的位置作為川金絲猴的臉部位置; 基于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤。5. 根據(jù)權(quán)利要求4所述的基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,提 取所述川金絲猴的位置區(qū)域中LBP特征,使用SVM分類器對(duì)所述特征進(jìn)行分類,選取精度值 最高的位置作為川金絲猴的臉部位置,包括: 使用不同尺寸的窗口對(duì)所述幀圖像進(jìn)行連續(xù)掃描; 在確定川金絲猴的位置區(qū)域后,提取所述位置區(qū)域的掃描窗口以及所述掃描窗口的 LBP特征,將所述掃描窗口的LBP特征存儲(chǔ)在矩陣中; 使用SVM備用分類器對(duì)所述矩陣中的LBP特征進(jìn)行分類,結(jié)合所述SVM模型選取符合預(yù) 設(shè)條件的掃描窗口位置作為川金絲猴的臉部位置。6. 根據(jù)權(quán)利要求4所述的基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,基 于TLD理論對(duì)所述川金絲猴的臉部位置進(jìn)行追蹤,包括: 獲取所述川金絲猴的臉部位置對(duì)應(yīng)的掃描窗口的索引值; 基于所述索引值和所述川金絲猴的位置區(qū)域坐標(biāo),建立所述掃描窗口與當(dāng)前幀圖像的 映射關(guān)系; 基于所述映射關(guān)系,實(shí)時(shí)確定川金絲猴在所述當(dāng)前幀圖像中的臉部位置; 結(jié)合所述當(dāng)前幀圖像中的臉部位置,基于TLD理論獲取在下一幀圖像中川金絲猴的臉 部位置,實(shí)現(xiàn)自動(dòng)追蹤。7.根據(jù)權(quán)利要求1所述的基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,其特征在于,所 述基于S-TLD的川金絲猴面部檢測(cè)和追蹤算法,還包括: 當(dāng)追蹤失敗時(shí),激活SVM備用分類器,再次確定川金絲猴的位置,進(jìn)而基于TLD理論對(duì)定 位后的川金絲猴進(jìn)行追蹤。
【文檔編號(hào)】G06K9/00GK105825168SQ201610072508
【公開日】2016年8月3日
【申請(qǐng)日】2016年2月2日
【發(fā)明人】許鵬飛, 葉貴鑫, 常鴻莉, 郭松濤, 鄭欣, 李保國(guó), 何剛, 陳曉江, 房鼎益
【申請(qǐng)人】西北大學(xué)