1.一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,包括以下步驟:
(1)獲取視頻圖像;
(2)基于級聯(lián)強決策樹從所述視頻圖像中檢測出人臉區(qū)域;
(3)基于膚色特性從所述人臉區(qū)域中篩選候選人臉;
(4)基于輪廓特性從步驟(2)輸出的候選人臉圖像中進一步篩選候選人臉;
(5)對步驟(4)輸出的候選人臉圖像進行灰度處理,得到運動人臉的直方圖模板,根據(jù)所述運動人臉的直方圖模板確定跟蹤的人臉區(qū)域圖像;
(6)基于所述步驟(5)確定跟蹤的人臉區(qū)域圖像,自適應(yīng)調(diào)整人臉跟蹤窗口。
2.根據(jù)權(quán)利要求1所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(2)包括以下過程:
(2.1)選定n個輸入訓練樣本集合:S={(F1,e1),(F2,e2),…,(Fn,en)},F(xiàn)i是指第i個輸入圖像,ei表示圖像樣本的結(jié)構(gòu)標識,ei∈{0,1},當ei=0時,表示Fi為反比例樣本向量,即非人臉樣本;當ei=1時,表示Fi為正比例樣本向量,即為人臉樣本;
(2.2)針對訓練樣本S上的任意樣本圖像Fi構(gòu)建特征k的弱決策樹dk(Fi),k∈[1,K],K為特征總數(shù),則有
當dk(Fi)=1時,弱決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉;其中,gk(Fi)表示第k個特征在圖像Fi上的特征值,Thk是第k個特征的閾值,NT,NF分別表示人臉和非人臉樣本數(shù)目,vT和vF為當前特征在所有人臉及非人臉樣本圖像上的平均特征值,Ck的作用是控制不等式的方向,當vT<Thk時,Ck=-1,當vT≥Thk時,Ck=+1;
(2.3)初始化訓練樣本S的權(quán)重πz(z=1),并進行Z輪訓練,且
(2.4)在第z輪訓練中,對于任意特征k,k∈[1,K],訓練一個只使用該特征的弱決策樹dk(Fi),并計算該決策樹產(chǎn)生的分類錯誤
(2.5)選出第z輪訓練中分類錯誤最小的弱決策樹dz(Fi),并將其最小分類錯誤記為更新各個樣本的權(quán)值πz+1(Fi),其中,
(2.6)z=z+1,歸一化樣本權(quán)重πz:
判定z是否小于等于Z,當z小于等于Z時,轉(zhuǎn)(2.4),當z大于Z時,轉(zhuǎn)(2.7);
(2.7)基于對正反比例樣本的分析,選出誤差最小的Z個弱決策樹,最終優(yōu)化成一個強決策樹D(Fi):
當D(Fi)=1時,強決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉;
(2.8)經(jīng)過一級一級的強決策樹的決策,輸出候選人臉區(qū)域圖像Fc。
3.根據(jù)權(quán)利要求2所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(3)包括以下過程:
(3.1)輸入所述步驟(2.8)輸出的候選人臉區(qū)域圖像Fc;
(3.2)采用映射關(guān)系將所述候選人臉區(qū)域圖像Fc從RGB顏色空間轉(zhuǎn)換到Y(jié)IQ顏色空間,獲得YIQ候選人臉區(qū)域彩色圖像;
(3.3)提取所述YIQ候選人臉區(qū)域彩色圖像的各個像素點的色度分量信息I和Q;
(3.4)依據(jù)置信區(qū)間對所述YIQ候選人臉區(qū)域彩色圖像進行二值化,將在置信區(qū)間內(nèi)的像素的值置為1,為膚色像素,否則,置為0,為非膚色像素,得到膚色區(qū)域與非膚色區(qū)域;
(3.5)剔除所述YIQ候選人臉區(qū)域彩色圖像中不含膚色像素點的區(qū)域,并輸出候選人臉的二值化圖像Fb。
4.根據(jù)權(quán)利要求3所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(4)包括以下過程:
(4.1)輸入所述二值化圖像Fb;
(4.2)對所述二值化圖像Fb進行M次膨脹運算再進行N次腐蝕運算,還原受光線影響的膚色區(qū)域;
(4.3)遍歷所述二值化圖像Fb中的膚色像素點,獲取膚色區(qū)域的上、下、左、右邊界Bt、Bb、Bl、Br,并重新確定所述二值化圖像Fb中的人臉區(qū)域的大小獲得待檢測區(qū)域;
(4.4)計算所述待檢測區(qū)域內(nèi)白色像素的總個數(shù):其中,As表示所述待檢測區(qū)域內(nèi)的膚色面積,n為所述待檢測區(qū)域內(nèi)的總像素個數(shù),αi表示第i個像素點的屬性,當αi值為1時,該像素點為膚色像素點,當αi值為0時,該像素點為背景像素點;
(4.5)采用人臉輪廓的約束條件對所述待檢測區(qū)域進行區(qū)域篩選,進一步排除誤檢的人臉區(qū)域,獲得有效的人臉區(qū)域圖像Fe。
5.根據(jù)權(quán)利要求4所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(5)包括以下過程:
(5.1)輸入所述有效的人臉區(qū)域圖像Fe;
(5.2)計算出人臉區(qū)域中心位置O0,并在包含所述人臉區(qū)域中心位置O0的矩形跟蹤區(qū)域中,對所有的像素點位置{o1,o2,…,on}進行歸一化處理;
(5.3)將歸一化后的人臉區(qū)域作為運動人臉的直方圖模板;
為歸一化系數(shù),κ(·)為核函數(shù),t(oi)為oi像素點對應(yīng)直方圖中的灰度索引值,m為直方圖中的灰度索引值,δ為Kronecker delta函數(shù);
(5.4)計算當前幀的候選人臉的顏色直方圖
其中,為歸一化系數(shù),為候選人臉區(qū)域?qū)?yīng)的歸一化像素位置,j表示迭代的次數(shù),當j=0時,Oj=O0,否則Oj為上一次迭代的人臉區(qū)域中心位置,h表示帶寬;
(5.5)計算每個像素點的權(quán)值ωi和下一幀中新窗口的中心Oj+1;
其中,g(·)為κ(·)一階導(dǎo)數(shù)的相反數(shù);
(5.6)判定||Oj+1-Oj||是否小于等于ε,當||Oj+1-Oj||小于等于ε時,結(jié)束匹配均值漂移向量,并確定跟蹤的人臉區(qū)域圖像Ff;當||Oj+1-Oj||大于ε時,j=j(luò)+1,轉(zhuǎn)步驟(5.4)。
6.根據(jù)權(quán)利要求5所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(6)的過程包括:
(6.1)輸入所述確定跟蹤的人臉區(qū)域圖像Ff;
(6.2)計算當前幀j幀的人臉跟蹤窗口Fsw的零階矩和x與y的一階矩
其中,F(xiàn)sw(x,y)為人臉跟蹤窗口Fsw中點(x,y)處的像素值,(xi,yi)∈Fsw;
(6.3)獲取人臉區(qū)域的質(zhì)心:
(6.4)取所述人臉區(qū)域的質(zhì)心與所述步驟(5)中的匹配人臉均值漂移向量所得中心的均值作為人臉中心(xjc,yjc);
(6.5)計算所述人臉跟蹤窗口Fsw的二階矩,得到人臉的長軸lj、短軸wj和方向角θj;
其中,aj、bj、cj為長軸、短軸和方向角的相應(yīng)計算參數(shù),分別為人臉跟蹤窗口Fsw中xy的一階矩及x和y的二階矩;
(6.6)將獲取的所述長軸、短軸與上一幀人臉區(qū)域的長和寬進行加權(quán)計算,獲取當前幀的人臉區(qū)域的大?。?/p>
其中,Wj和Hj分別表示當前幀人臉區(qū)域的長和寬。
7.根據(jù)權(quán)利要求1所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述方法,先對視頻圖像中的第一幀依次進行步驟(2)、(3)、(4)的處理,輸出候選人臉圖像;然后依次執(zhí)行步驟(5)、(6)來對步驟(4)輸出的候選人臉圖像的候選人臉進行連續(xù)n0幀的自適應(yīng)跟蹤;當連續(xù)n0幀跟蹤結(jié)束后再按照步驟(2)、(3)、(4)對跟蹤的候選人臉區(qū)域進行框選和篩選以修正人臉位置。