亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測(cè)與跟蹤方法與流程

文檔序號(hào):12721212閱讀:514來源:國知局
一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測(cè)與跟蹤方法與流程

本發(fā)明屬于視覺目標(biāo)檢測(cè)與跟蹤技術(shù)領(lǐng)域,尤其涉及到一種融合人臉膚色與輪廓特征的人臉自適應(yīng)檢測(cè)與跟蹤方法。



背景技術(shù):

隨著社會(huì)的不斷進(jìn)步以及各方面對(duì)于快速有效的自動(dòng)身份驗(yàn)證的迫切要求,生物特征識(shí)別技術(shù)在幾十年中得到了飛速的發(fā)展。人臉作為人的一種內(nèi)在屬性,并且具有很強(qiáng)的自身穩(wěn)定性及個(gè)體差異性,成為了自動(dòng)身份驗(yàn)證的最理想依據(jù)之一。人臉的檢測(cè)與跟蹤技術(shù)是近年來圖像處理領(lǐng)域研究比較熱門的課題之一。隨著研究的不斷深入,該領(lǐng)域的研究取得了長足的發(fā)展。與其他識(shí)別方法相比,人臉具有直接、友好、方便的特點(diǎn),又由于使用者無任何心理障礙,易于為用戶所接受,故得到了廣泛的研究與應(yīng)用。當(dāng)前的人臉識(shí)別技術(shù)主要被應(yīng)用到了刑偵破案、證件驗(yàn)證、視頻監(jiān)控、人流量統(tǒng)計(jì)及表情分析等方面。此外,人臉識(shí)別技術(shù)在醫(yī)學(xué)、檔案管理、人臉動(dòng)畫、人臉建模、視頻會(huì)議等方面也有著巨大的應(yīng)用前景。

人臉檢測(cè)是指在輸入圖像中確定所有人臉位置以及對(duì)其尺度信息進(jìn)行參數(shù)化描述,是人臉識(shí)別、人機(jī)交互和人像攝影等應(yīng)用中的重要環(huán)節(jié)?,F(xiàn)有的人臉檢測(cè)方法大致可分為基于人臉特征的人臉檢測(cè)以及基于統(tǒng)計(jì)學(xué)習(xí)的人臉檢測(cè)兩類。基于人臉特征的檢測(cè)方法又包括:基于膚色和頭發(fā)顏色建立分布描述模型、基于局部二進(jìn)制特征、模板匹配等,基于人臉特征的檢測(cè)方法的精度都易受光照、相似背景顏色及人臉姿態(tài)的影響;基于統(tǒng)計(jì)學(xué)習(xí)的人臉檢測(cè)方法包括:人工神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)、Adaboost等,然而其學(xué)習(xí)性能十分依賴于樣本庫對(duì)人臉的代表能力及模型的準(zhǔn)確程度,檢測(cè)的計(jì)算量較大。

Meanshift算法是現(xiàn)有的人臉檢測(cè)與目標(biāo)跟蹤方法中的一種,因具備無參數(shù)、快速匹配的特點(diǎn),被廣泛應(yīng)用,但當(dāng)目標(biāo)出現(xiàn)較大尺度變化時(shí),會(huì)導(dǎo)致其定位不準(zhǔn)確;Camshift算法是由Meanshift算法推導(dǎo)而來的方法,很好地彌補(bǔ)了Meanshift算法這些缺點(diǎn),但其在面對(duì)相似顏色及復(fù)雜背景時(shí),易出現(xiàn)目標(biāo)丟失、識(shí)別錯(cuò)誤等情況,而Kalman濾波算法和Camshift算法相結(jié)合的方法對(duì)快速運(yùn)動(dòng)目標(biāo)和遮擋現(xiàn)象具有很好的效果,但是該方法本身為半自動(dòng)跟蹤,需要人為對(duì)目標(biāo)框定,對(duì)相似背景的抗干擾能力差。

綜上所述,現(xiàn)有的人臉檢測(cè)與目標(biāo)跟蹤方法都存在很多不足之處,如何快速準(zhǔn)確地在視頻圖像中進(jìn)行人臉檢測(cè)與跟蹤已經(jīng)成為了一項(xiàng)復(fù)雜的、具有挑戰(zhàn)性的研究課題。



技術(shù)實(shí)現(xiàn)要素:

針對(duì)已有人臉檢測(cè)與跟蹤方法中存在的缺陷或不足,即人臉檢測(cè)算法在視頻圖像序列中運(yùn)算時(shí)間長、易出現(xiàn)人臉誤檢區(qū)域,跟蹤算法易受相似背景和障礙物遮擋而出現(xiàn)跟蹤丟失,本發(fā)明提出一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測(cè)與跟蹤方法。

為了實(shí)現(xiàn)上述任務(wù),本發(fā)明采取如下的技術(shù)解決方案:

一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測(cè)與跟蹤方法,采用如下步驟:

(1)獲取視頻圖像;

(2)基于級(jí)聯(lián)強(qiáng)決策樹從所述視頻圖像中檢測(cè)出人臉區(qū)域;

(3)基于膚色特性從所述人臉區(qū)域中篩選候選人臉;

(4)基于輪廓特性從步驟(2)輸出的候選人臉圖像中進(jìn)一步篩選候選人臉;

(5)對(duì)步驟(4)輸出的候選人臉圖像進(jìn)行灰度處理,得到運(yùn)動(dòng)人臉的直方圖模板,根據(jù)所述運(yùn)動(dòng)人臉的直方圖模板確定跟蹤的人臉區(qū)域圖像;

(6)基于所述步驟(5)確定跟蹤的人臉區(qū)域圖像,自適應(yīng)調(diào)整人臉跟蹤窗口。

進(jìn)一步的,所述步驟(2)包括以下過程:

(2.1)選定n個(gè)輸入訓(xùn)練樣本集合:S={(F1,e1),(F2,e2),…,(Fn,en)},F(xiàn)i是指第i個(gè)輸入圖像,ei表示圖像樣本的結(jié)構(gòu)標(biāo)識(shí),ei∈{0,1},當(dāng)ei=0時(shí),表示Fi為反比例樣本向量,即非人臉樣本;當(dāng)ei=1時(shí),表示Fi為正比例樣本向量,即為人臉樣本;

(2.2)針對(duì)訓(xùn)練樣本S上的任意樣本圖像Fi構(gòu)建特征k的弱決策樹dk(Fi),k∈[1,K],K為特征總數(shù),則有

當(dāng)dk(Fi)=1時(shí),弱決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉;其中,gk(Fi)表示第k個(gè)特征在圖像Fi上的特征值,Thk是第k個(gè)特征的閾值,NT,NF分別表示人臉和非人臉樣本數(shù)目,vT和vF為當(dāng)前特征在所有人臉及非人臉樣本圖像上的平均特征值,Ck的作用是控制不等式的方向,當(dāng)vT<Thk時(shí),Ck=-1,當(dāng)vT≥Thk時(shí),Ck=+1;

(2.3)初始化訓(xùn)練樣本S的權(quán)重πz(z=1),并進(jìn)行Z輪訓(xùn)練,且

(2.4)在第z輪訓(xùn)練中,對(duì)于任意特征k,k∈[1,K],訓(xùn)練一個(gè)只使用該特征的弱決策樹dk(Fi),并計(jì)算該決策樹產(chǎn)生的分類錯(cuò)誤

(2.5)選出第z輪訓(xùn)練中分類錯(cuò)誤最小的弱決策樹dz(Fi),并將其最小分類錯(cuò)誤記為更新各個(gè)樣本的權(quán)值πz+1(Fi),其中,

(2.6)z=z+1,歸一化樣本權(quán)重πz

判定z是否小于等于Z,當(dāng)z小于等于Z時(shí),轉(zhuǎn)(2.4),當(dāng)z大于Z時(shí),轉(zhuǎn)(2.7)。

(2.7)基于對(duì)正反比例樣本的分析,選出誤差最小的Z個(gè)弱決策樹,最終優(yōu)化成一個(gè)強(qiáng)決策樹D(Fi):

當(dāng)D(Fi)=1時(shí),強(qiáng)決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉;

(2.8)經(jīng)過一級(jí)一級(jí)的強(qiáng)決策樹的決策,輸出候選人臉區(qū)域圖像Fc

進(jìn)一步的,所述步驟(3)包括以下過程:

(3.1)輸入所述步驟(2.8)輸出的候選人臉區(qū)域圖像Fc;

(3.2)采用映射關(guān)系將所述候選人臉區(qū)域圖像Fc從RGB顏色空間轉(zhuǎn)換到Y(jié)IQ顏色空間,獲得YIQ候選人臉區(qū)域彩色圖像;

(3.3)提取所述YIQ候選人臉區(qū)域彩色圖像的各個(gè)像素點(diǎn)的色度分量信息I和Q;

(3.4)依據(jù)置信區(qū)間對(duì)所述YIQ候選人臉區(qū)域彩色圖像進(jìn)行二值化,將在置信區(qū)間內(nèi)的像素的值置為1,為膚色像素,否則,置為0,為非膚色像素,得到膚色區(qū)域與非膚色區(qū)域;

(3.5)剔除所述YIQ候選人臉區(qū)域彩色圖像中不含膚色像素點(diǎn)的區(qū)域,并輸出候選人臉的二值化圖像Fb。

進(jìn)一步的,所述步驟(4)包括以下過程:

(4.1)輸入所述二值化圖像Fb;

(4.2)對(duì)所述二值化圖像Fb進(jìn)行M次膨脹運(yùn)算再進(jìn)行N次腐蝕運(yùn)算,還原受光線影響的膚色區(qū)域;

(4.3)遍歷所述二值化圖像Fb中的膚色像素點(diǎn),獲取膚色區(qū)域的上、下、左、右邊界Bt、Bb、Bl、Br,并重新確定所述二值化圖像Fb中的人臉區(qū)域的大小獲得待檢測(cè)區(qū)域;

(4.4)計(jì)算所述待檢測(cè)區(qū)域內(nèi)白色像素的總個(gè)數(shù):其中,As表示所述待檢測(cè)區(qū)域內(nèi)的膚色面積,n為所述待檢測(cè)區(qū)域內(nèi)的總像素個(gè)數(shù),αi表示第i個(gè)像素點(diǎn)的屬性,當(dāng)αi值為1時(shí),該像素點(diǎn)為膚色像素點(diǎn),當(dāng)αi值為0時(shí),該像素點(diǎn)為背景像素點(diǎn);

(4.5)采用人臉輪廓的約束條件對(duì)所述待檢測(cè)區(qū)域進(jìn)行區(qū)域篩選,進(jìn)一步排除誤檢的人臉區(qū)域,獲得有效的人臉區(qū)域圖像Fe。

進(jìn)一步的,所述步驟(5)包括以下過程:

(5.1)輸入所述有效的人臉區(qū)域圖像Fe;

(5.2)計(jì)算出人臉區(qū)域中心位置O0,在包含所述人臉區(qū)域中心位置O0的矩形跟蹤區(qū)域中,對(duì)所有的像素點(diǎn)位置{o1,o2,…,on}進(jìn)行歸一化處理;

(5.3)將歸一化后的人臉區(qū)域作為運(yùn)動(dòng)人臉的直方圖模板;

為歸一化系數(shù),κ(·)為核函數(shù),t(oi)為oi像素點(diǎn)對(duì)應(yīng)直方圖中的灰度索引值,m為直方圖中的灰度索引值,δ為Kronecker delta函數(shù);

(5.4)按照步驟(5.1)至(5.3)的方式計(jì)算出當(dāng)前幀的候選人臉的顏色直方圖

其中,為歸一化系數(shù),為候選人臉區(qū)域?qū)?yīng)的歸一化像素位置,j表示迭代的次數(shù),當(dāng)j=0時(shí),Oj=O0,否則Oj為上一次迭代的人臉區(qū)域中心位置,h表示帶寬;

(5.5)計(jì)算每個(gè)像素點(diǎn)的權(quán)值ωi和下一幀圖像中人臉區(qū)域中心位置Oj+1

其中,g(·)為κ(·)一階導(dǎo)數(shù)的相反數(shù);

(5.6)判定||Oj+1-Oj||是否小于等于ε,當(dāng)||Oj+1-Oj||小于等于ε時(shí),結(jié)束匹配均值漂移向量,并確定跟蹤的人臉區(qū)域圖像Ff;當(dāng)||Oj+1-Oj||大于ε時(shí),j=j(luò)+1,轉(zhuǎn)步驟(5.4)。

進(jìn)一步的,所述步驟(6)的過程包括:

(6.1)輸入所述確定跟蹤的人臉區(qū)域圖像Ff;

(6.2)計(jì)算當(dāng)前幀j幀的人臉跟蹤窗口Fsw的零階矩和x與y的一階矩

其中,F(xiàn)sw(x,y)為人臉跟蹤窗口Fsw中點(diǎn)(x,y)處的像素值,(xi,yi)∈Fsw;

(6.3)獲取人臉區(qū)域的質(zhì)心:

(6.4)取所述人臉區(qū)域的質(zhì)心與步驟(5)中匹配人臉均值漂移向量所得中心Oj的均值作為人臉中心(xjc,yjc);

(6.5)計(jì)算人臉跟蹤窗口Fsw的二階矩,得到人臉的長軸lj、短軸wj和方向角θj;

其中,aj、bj、cj為長軸、短軸和方向角的相應(yīng)計(jì)算參數(shù),分別為人臉跟蹤窗口Fsw中xy的一階矩及x和y的二階矩;

(6.6)將獲取的所述長軸、短軸與上一幀人臉區(qū)域的長和寬進(jìn)行加權(quán)計(jì)算,獲取當(dāng)前幀的人臉區(qū)域的大小:

其中,Wj和Hj分別表示當(dāng)前幀人臉區(qū)域的長和寬。

進(jìn)一步的,所述方法,先對(duì)視頻圖像中的第一幀依次進(jìn)行步驟(2)、(3)、(4)的處理,輸出候選人臉圖像;然后依次執(zhí)行步驟(5)、(6)來對(duì)步驟(4)輸出的候選人臉圖像的候選人臉進(jìn)行連續(xù)n0幀的自適應(yīng)跟蹤;當(dāng)連續(xù)n0幀跟蹤結(jié)束后再按照步驟(2)、(3)、(4)對(duì)跟蹤的候選人臉區(qū)域進(jìn)行框選和篩選以修正人臉位置。

與現(xiàn)有技術(shù)相比,本發(fā)明的技術(shù)方案具有以下有益效果:

利用級(jí)聯(lián)強(qiáng)決策樹(即級(jí)聯(lián)強(qiáng)分類器)的方式從視頻圖像中獲取人臉區(qū)域,然后利用人臉的膚色和輪廓特性進(jìn)行候選人臉的篩選,能夠有效排除誤檢的人臉;利用灰度和匹配均值漂移向量的方法進(jìn)行檢測(cè)后的人臉區(qū)域跟蹤,能夠大大提高本發(fā)明的技術(shù)方案在視頻應(yīng)用中的實(shí)時(shí)性;利用于灰度作為跟蹤目標(biāo)的特征描述,能夠提高跟蹤速率與精度;此外,該方法還能自適應(yīng)調(diào)整跟蹤窗口的大小,能夠在保證視頻人臉檢測(cè)與跟蹤的快速性的同時(shí),具有更低的誤檢率和漏檢率。

附圖說明

圖1是本發(fā)明具體實(shí)施例的人臉自適應(yīng)檢測(cè)與跟蹤方法的總流程圖;

圖2是本發(fā)明具體實(shí)施例的基于級(jí)聯(lián)強(qiáng)決策樹檢測(cè)人臉區(qū)域的流程圖;

圖3是本發(fā)明具體實(shí)施例的基于膚色特性篩選候選人臉的流程圖;

圖4是本發(fā)明具體實(shí)施例的基于輪廓特性篩選候選人臉的流程圖;

圖5是本發(fā)明具體實(shí)施例的基于灰度進(jìn)行人臉跟蹤的流程圖;

圖6是本發(fā)明具體實(shí)施例的自適應(yīng)調(diào)整人臉跟蹤窗口的流程圖。

具體實(shí)施方式

為使本發(fā)明實(shí)施例的目的和技術(shù)方案更加清楚,下面將結(jié)合本發(fā)明實(shí)施例的附圖,對(duì)本發(fā)明實(shí)施例的技術(shù)方案進(jìn)行清楚、完整地描述。

如圖1所示,本實(shí)施例提供一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測(cè)與跟蹤方法,為了提高視頻中人臉檢測(cè)和跟蹤的實(shí)時(shí)性,本發(fā)明方法流程采用了復(fù)交叉運(yùn)行的方式,即先對(duì)視頻中第一幀分別采用基于級(jí)聯(lián)強(qiáng)決策樹的候選人臉區(qū)域框選,以及基于膚色和輪廓特性的候選人臉篩選;然后對(duì)篩選人臉進(jìn)行連續(xù)n0幀的自適應(yīng)跟蹤。當(dāng)跟蹤結(jié)束后再對(duì)候選人臉區(qū)域進(jìn)行框選和篩選以修正人臉位置,這樣周而復(fù)始,以達(dá)到人臉快速、準(zhǔn)確且自適應(yīng)的檢測(cè)與跟蹤。具體采用如下步驟:

(1)獲取視頻圖像;

(2)基于級(jí)聯(lián)強(qiáng)決策樹從所述視頻圖像中檢測(cè)出人臉區(qū)域;

(3)基于膚色特性從所述人臉區(qū)域中篩選候選人臉;

(4)基于輪廓特性從步驟(2)輸出的候選人臉圖像中進(jìn)一步篩選候選人臉;

(5)對(duì)步驟(4)輸出的候選人臉圖像進(jìn)行灰度處理,得到運(yùn)動(dòng)人臉的直方圖模板,根據(jù)所述運(yùn)動(dòng)人臉的直方圖模板確定跟蹤的人臉區(qū)域圖像;

(6)基于所述步驟(5)確定跟蹤的人臉區(qū)域圖像,自適應(yīng)調(diào)整人臉跟蹤窗口;

(7)判定跟蹤幀數(shù)是否達(dá)到設(shè)定幀數(shù)n0,若是,則轉(zhuǎn)步驟(2);若否,則轉(zhuǎn)步驟(5),可選地,所述設(shè)定幀數(shù)n0為5。

如圖2所示,所述步驟(2)基于級(jí)聯(lián)強(qiáng)決策樹的方式,從輸入的視頻圖像中檢測(cè)出人臉區(qū)域,將這些人臉區(qū)域作為候選人臉區(qū)域,具體流程如下:

(2.1)選定n個(gè)輸入訓(xùn)練樣本集合:S={(F1,e1),(F2,e2),…,(Fn,en)},F(xiàn)i是指第i個(gè)輸入圖像,ei表示圖像樣本的結(jié)構(gòu)標(biāo)識(shí),ei∈{0,1}。當(dāng)ei=0時(shí),表示Fi為反比例樣本向量,即非人臉樣本;當(dāng)ei=1時(shí),表示Fi為正比例樣本向量,即為人臉樣本。

(2.2)針對(duì)訓(xùn)練樣本S上的任意樣本圖像Fi構(gòu)建特征k的弱決策樹dk(Fi),k∈[1,K],K為特征總數(shù):

當(dāng)dk(Fi)=1時(shí),弱決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉,gk(Fi)表示第k個(gè)特征在圖像Fi上的特征值;Thk是第k個(gè)特征的閾值;NT,NF分別表示人臉和非人臉樣本數(shù)目;vT和vF為當(dāng)前特征在所有人臉及非人臉樣本圖像上的平均特征值;Ck的作用是控制不等式的方向,若vT<Thk,則Ck=-1;若vT≥Thk,則Ck=+1。

(2.3)初始化訓(xùn)練樣本S的權(quán)重πz(z=1),并進(jìn)行Z輪訓(xùn)練,且

(2.4)在第z輪訓(xùn)練中,對(duì)于任意特征k,訓(xùn)練一個(gè)只使用該特征的弱決策樹dk(Fi),并計(jì)算該決策樹產(chǎn)生的分類錯(cuò)誤

(2.5)選出第z輪訓(xùn)練中分類錯(cuò)誤最小的弱決策樹dz(Fi),并將其最小分類錯(cuò)誤記為更新各個(gè)樣本的權(quán)值πz+1(Fi):

(2.6)z=z+1,歸一化樣本權(quán)重πz

判定z≤Z?當(dāng)是,則轉(zhuǎn)(2.4),當(dāng)否,則轉(zhuǎn)(2.7)。優(yōu)選地,所述Z取200。

(2.7)基于對(duì)正反比例樣本的分析,選出誤差最小的Z個(gè)弱決策樹,最終優(yōu)化成一個(gè)強(qiáng)決策樹D(Fi):

當(dāng)D(Fi)=1,強(qiáng)決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉。

(2.8)經(jīng)過一級(jí)一級(jí)的強(qiáng)決策樹的決策,輸出候選人臉區(qū)域圖像Fc。即基于級(jí)聯(lián)強(qiáng)決策樹獲取候選人臉區(qū)域時(shí),先采用由較簡(jiǎn)單的特征組成的強(qiáng)決策樹排除顯然不是人臉的區(qū)域,然后將較難區(qū)分的區(qū)域送給下一個(gè)強(qiáng)決策樹檢測(cè),這樣一級(jí)一級(jí)地排除非人臉區(qū)域,最終的剩余區(qū)域則為人臉,最終輸出了候選人臉區(qū)域圖像Fc

如圖3所示,為了保證檢測(cè)人臉的準(zhǔn)確性,步驟(3)采用膚色特征對(duì)候選人臉進(jìn)行篩選,首先在YIQ顏色空間中建立人臉模型,然后將聚類的思想應(yīng)用于人臉模型中,初步篩選出候選人臉區(qū)域中的有效人臉區(qū)域,具體流程如下:

(3.1)輸入基于級(jí)聯(lián)強(qiáng)決策樹檢測(cè)的候選人臉區(qū)域圖像Fc;

(3.2)采用映射關(guān)系將圖像從RGB顏色空間轉(zhuǎn)換到Y(jié)IQ顏色空間,獲得YIQ候選人臉區(qū)域彩色圖像,即在YIQ顏色空間中建立人臉模型;

(3.3)提取所述YIQ候選人臉區(qū)域彩色圖像的各個(gè)像素點(diǎn)的色度分量信息I和Q;

(3.4)依據(jù)置信區(qū)間對(duì)所述YIQ候選人臉區(qū)域彩色圖像進(jìn)行二值化,將在置信區(qū)間內(nèi)的像素的值置為1,為膚色像素,否則,置為0,為非膚色像素,得到膚色區(qū)域與非膚色區(qū)域;

(3.5)剔除所述YIQ候選人臉區(qū)域彩色圖像中不含膚色像素點(diǎn)的候選人臉區(qū)域,并輸出二值化圖像Fb

如圖4所示,為了進(jìn)一步排除誤檢的人臉區(qū)域,步驟(4)采用人臉輪廓特性對(duì)候選人臉區(qū)域進(jìn)行進(jìn)一步地篩選,以再進(jìn)一步地篩選出候選人臉區(qū)域中的有效人臉區(qū)域,具體流程如下:

(4.1)輸入二值化圖像Fb

(4.2)對(duì)二值化圖像Fb進(jìn)行M次膨脹運(yùn)算再進(jìn)行N次腐蝕運(yùn)算,還原受光線影響的膚色區(qū)域,可選地,所述膨脹運(yùn)算次數(shù)M和腐蝕次數(shù)N都可取為9。

(4.3)遍歷所述二值化圖像Fb中的候選人臉區(qū)域的膚色像素點(diǎn),獲取膚色區(qū)域的上、下、左、右邊界Bt、Bb、Bl、Br。并重新確定候選人臉區(qū)域的大小獲得待檢測(cè)區(qū)域。

(4.4)計(jì)算所述待檢測(cè)區(qū)域內(nèi)白色像素的總個(gè)數(shù):其中,As表示待檢測(cè)區(qū)域內(nèi)的膚色面積,n為待檢測(cè)區(qū)域內(nèi)的總像素個(gè)數(shù),αi表示第i個(gè)像素點(diǎn)的屬性,當(dāng)其值為1,則為膚色像素點(diǎn),當(dāng)其值為0,則為背景像素點(diǎn)。

(4.5)采用人臉輪廓的約束條件對(duì)所述待檢測(cè)區(qū)域進(jìn)行區(qū)域篩選,進(jìn)一步排除檢測(cè)算法誤檢的人臉區(qū)域,獲得有效的人臉區(qū)域圖像Fe。

如圖5所示,為了提高人臉跟蹤速率與精度,步驟(5)中將灰度作為目標(biāo)的特征描述,創(chuàng)建概率密度函數(shù),利用相似度函數(shù)來度量人臉運(yùn)動(dòng)模型與候選人臉運(yùn)動(dòng)模型的相似性,并在人臉區(qū)域窗口的位置下,獲取相似性最大的運(yùn)動(dòng)人臉均值漂移向量,通過不斷迭代來搜索人臉的位置,具體流程如下:

(5.1)輸入有效的人臉區(qū)域圖像Fe。

(5.2)計(jì)算出所述有效的人臉區(qū)域圖像Fe中的人臉區(qū)域中心位置O0,并在包含所述人臉區(qū)域中心位置O0(即目標(biāo))的矩形跟蹤區(qū)域中,對(duì)所有的像素點(diǎn)位置{o1,o2,…,on}進(jìn)行歸一化處理。

(5.3)將歸一化后的人臉區(qū)域作為運(yùn)動(dòng)人臉的直方圖模板:

其中,

為歸一化系數(shù),κ(·)為核函數(shù),t(oi)為oi像素點(diǎn)對(duì)應(yīng)直方圖中的灰度索引值,m為直方圖中的灰度索引值,δ為Kronecker delta函數(shù)。

(5.4)按照步驟(5.1)至(5.3)的計(jì)算方式計(jì)算出當(dāng)前幀候選人臉的顏色直方圖:

其中,

為歸一化系數(shù),為候選人臉區(qū)域?qū)?yīng)的歸一化像素位置,j表示迭代的次數(shù),當(dāng)j=0,Oj=O0,否則Oj為上一次迭代的人臉區(qū)域中心位置,h表示帶寬。

(5.5)計(jì)算每個(gè)像素點(diǎn)的權(quán)值ωi和下一幀中新窗口的中心Oj+1(即下一幀視頻圖像的人臉區(qū)域中心位置):

其中,g(·)為κ(·)一階導(dǎo)數(shù)的相反數(shù)。

(5.6)將篩選后的人臉區(qū)域進(jìn)行均值漂移向量的匹配,即判定||Oj+1-Oj||是否小于等于ε?當(dāng)是,則結(jié)束匹配均值漂移向量,并確定跟蹤的人臉區(qū)域圖像Ff;當(dāng)否,則j=j(luò)+1,轉(zhuǎn)步驟(5.4)。

如圖6所示,為了進(jìn)一步準(zhǔn)確地框選出人臉位置,步驟(6)中采用取均值與加權(quán)的方式來自適應(yīng)調(diào)整人臉跟蹤窗口,具體流程如下:

(6.1)輸入確定跟蹤的人臉區(qū)域圖像Ff。

(6.2)計(jì)算當(dāng)前幀(第j幀)人臉跟蹤窗口Fsw的零階矩和x與y的一階矩

其中,F(xiàn)sw(x,y)為人臉跟蹤窗口Fsw中點(diǎn)(x,y)處的像素值,(xi,yi)∈Fsw

(6.3)獲取人臉區(qū)域的質(zhì)心:

(6.4)取人臉區(qū)域的質(zhì)心與匹配人臉均值漂移向量所得中心Oj的均值作為人臉中心(xjc,yjc)。

(6.5)計(jì)算人臉跟蹤窗口Fsw的二階矩,得到人臉的長軸lj、短軸wj和方向角θj

其中,aj、bj、cj為長軸、短軸和方向角的相應(yīng)計(jì)算參數(shù),分別為人臉跟蹤窗口中xy的一階矩及x和y的二階矩。

(6.6)將獲取的長軸與短軸與上一幀人臉區(qū)域的長和寬進(jìn)行加權(quán)計(jì)算,獲取當(dāng)前幀的人臉區(qū)域(即人臉窗口)的大小:

其中,Wj和Hj分別表示當(dāng)前幀人臉窗口的長和寬。

步驟(7)是為了提高視頻中人臉檢測(cè)和跟蹤的實(shí)時(shí)性,而采用的復(fù)交叉運(yùn)行的方式運(yùn)行步驟(1)至(6),以實(shí)現(xiàn)視頻圖像序列中人臉的有效檢測(cè)與跟蹤,即先對(duì)步驟(1)的視頻圖像中的第一幀依次經(jīng)過步驟(2)、(3)、(4)的處理,即對(duì)視頻圖像的初始幀圖像分別采用基于級(jí)聯(lián)強(qiáng)決策樹的候選人臉區(qū)域框選(即步驟(2)),以及基于膚色和輪廓特性的候選人臉篩選(即步驟(3)、(4));然后對(duì)篩選人臉進(jìn)行連續(xù)n0幀的自適應(yīng)跟蹤(執(zhí)行n次步驟(5)和(6))。當(dāng)連續(xù)n0幀跟蹤結(jié)束后再對(duì)候選人臉區(qū)域經(jīng)過步驟(2)、(3)、(4)的處理,即當(dāng)連續(xù)n0幀跟蹤結(jié)束后再對(duì)候選人臉區(qū)域進(jìn)行基于級(jí)聯(lián)強(qiáng)決策樹的框選和基于膚色和輪廓特性的候選人臉篩選以修正人臉位置,這樣周而復(fù)始,以達(dá)到人臉快速、準(zhǔn)確且自適應(yīng)的檢測(cè)與跟蹤??蛇x地,所述設(shè)定幀數(shù)n0為5。

為了具體說明本發(fā)明的技術(shù)方案的技術(shù)效果,進(jìn)行了不同環(huán)境背景下的測(cè)試,試驗(yàn)選取三種環(huán)境:第一種環(huán)境是室內(nèi)多人且有日燈光干擾的環(huán)境;第二種環(huán)境是人臉膚色與背景顏色相近的環(huán)境;第三種環(huán)境是夜間多人的環(huán)境。第一種環(huán)境中,雖然有日關(guān)燈干擾,且存在人員遮擋,但人臉照常能被檢測(cè)出;第二種環(huán)境中雖然人臉膚色與人背后的窗簾膚色非常接近,但同樣能單獨(dú)檢測(cè)出人臉;第三種環(huán)境中在夜晚且周圍有日關(guān)燈的情況下,各個(gè)人臉都能有效被檢測(cè)出。三種環(huán)境的檢測(cè)結(jié)果有效驗(yàn)證了本發(fā)明的有效性和魯棒性。

為了進(jìn)一步驗(yàn)證本發(fā)明的方法的技術(shù)效果,還利用常用的Adaboost人臉檢測(cè)方法、Kanlman和Camshift聯(lián)合檢測(cè)方法對(duì)上述三種環(huán)境的視頻分別進(jìn)行了相應(yīng)的人臉檢測(cè),并與本發(fā)明的方法的實(shí)驗(yàn)效果進(jìn)行比較,具體如下表所示:

由上表可以看出,雖然Kalman和Camshift聯(lián)合檢測(cè)的速度最快,檢測(cè)時(shí)間最短,但是其檢測(cè)率最低,誤檢率最高,主要適用于單一場(chǎng)合檢測(cè),而Adaboost的人臉檢測(cè)率最高,誤檢率要明顯優(yōu)于Kalman和Camshift聯(lián)合檢測(cè),但檢測(cè)時(shí)間最長。而本發(fā)明的方法的檢測(cè)率較高且與Adaboost方法相近,誤檢率是三種算法中最低的,檢測(cè)時(shí)間也較短,且與Kalman和Camshift聯(lián)合檢測(cè)近似,因此,綜合而言,本發(fā)明的方法的檢測(cè)效果是最佳的,在滿足高檢測(cè)率、低誤檢率的同時(shí)也保證了檢測(cè)的實(shí)時(shí)性,可以適用于多種場(chǎng)合。

以上詳細(xì)描述了本發(fā)明的較佳具體實(shí)施例。應(yīng)當(dāng)理解,本領(lǐng)域的普通技術(shù)人員無需創(chuàng)造性勞動(dòng)就可以根據(jù)本發(fā)明的構(gòu)思做出諸多修改和變化。因此,凡本技術(shù)領(lǐng)域中技術(shù)人員依本發(fā)明的構(gòu)思在現(xiàn)有技術(shù)的基礎(chǔ)上通過邏輯分析、推理或者有限的實(shí)驗(yàn)可以得到的技術(shù)方案,皆應(yīng)在由權(quán)利要求書所確定的保護(hù)范圍內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1