亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測與跟蹤方法與流程

文檔序號:12721212閱讀:來源:國知局

技術(shù)特征:

1.一種融合膚色及輪廓篩選的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,包括以下步驟:

(1)獲取視頻圖像;

(2)基于級聯(lián)強決策樹從所述視頻圖像中檢測出人臉區(qū)域;

(3)基于膚色特性從所述人臉區(qū)域中篩選候選人臉;

(4)基于輪廓特性從步驟(2)輸出的候選人臉圖像中進一步篩選候選人臉;

(5)對步驟(4)輸出的候選人臉圖像進行灰度處理,得到運動人臉的直方圖模板,根據(jù)所述運動人臉的直方圖模板確定跟蹤的人臉區(qū)域圖像;

(6)基于所述步驟(5)確定跟蹤的人臉區(qū)域圖像,自適應(yīng)調(diào)整人臉跟蹤窗口。

2.根據(jù)權(quán)利要求1所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(2)包括以下過程:

(2.1)選定n個輸入訓練樣本集合:S={(F1,e1),(F2,e2),…,(Fn,en)},F(xiàn)i是指第i個輸入圖像,ei表示圖像樣本的結(jié)構(gòu)標識,ei∈{0,1},當ei=0時,表示Fi為反比例樣本向量,即非人臉樣本;當ei=1時,表示Fi為正比例樣本向量,即為人臉樣本;

(2.2)針對訓練樣本S上的任意樣本圖像Fi構(gòu)建特征k的弱決策樹dk(Fi),k∈[1,K],K為特征總數(shù),則有

<mrow> <mo>&ForAll;</mo> <mi>i</mi> <mo>&Element;</mo> <mo>&lsqb;</mo> <mn>1</mn> <mo>,</mo> <mi>n</mi> <mo>&rsqb;</mo> <mo>,</mo> <msub> <mi>d</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <msub> <mi>C</mi> <mi>k</mi> </msub> <msub> <mi>g</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&GreaterEqual;</mo> <msub> <mi>C</mi> <mi>k</mi> </msub> <msub> <mi>Th</mi> <mi>k</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>

<mrow> <msub> <mi>Th</mi> <mi>k</mi> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>T</mi> </msub> <msub> <mi>v</mi> <mi>T</mi> </msub> <mo>+</mo> <msub> <mi>N</mi> <mi>F</mi> </msub> <msub> <mi>v</mi> <mi>F</mi> </msub> </mrow> <mrow> <msub> <mi>N</mi> <mi>T</mi> </msub> <mo>+</mo> <msub> <mi>N</mi> <mi>F</mi> </msub> </mrow> </mfrac> <mo>,</mo> </mrow>

當dk(Fi)=1時,弱決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉;其中,gk(Fi)表示第k個特征在圖像Fi上的特征值,Thk是第k個特征的閾值,NT,NF分別表示人臉和非人臉樣本數(shù)目,vT和vF為當前特征在所有人臉及非人臉樣本圖像上的平均特征值,Ck的作用是控制不等式的方向,當vT<Thk時,Ck=-1,當vT≥Thk時,Ck=+1;

(2.3)初始化訓練樣本S的權(quán)重πz(z=1),并進行Z輪訓練,且

<mrow> <msub> <mi>&pi;</mi> <mn>1</mn> </msub> <mo>=</mo> <mo>{</mo> <msub> <mi>&pi;</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>&pi;</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>&pi;</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mn>3</mn> </msub> <mo>)</mo> </mrow> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>&pi;</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mi>&pi;</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <mo>}</mo> <mo>;</mo> </mrow>

(2.4)在第z輪訓練中,對于任意特征k,k∈[1,K],訓練一個只使用該特征的弱決策樹dk(Fi),并計算該決策樹產(chǎn)生的分類錯誤

<mrow> <msubsup> <mi>&Delta;</mi> <mi>z</mi> <mi>k</mi> </msubsup> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>&pi;</mi> <mi>z</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mi>d</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>e</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>;</mo> </mrow>

(2.5)選出第z輪訓練中分類錯誤最小的弱決策樹dz(Fi),并將其最小分類錯誤記為更新各個樣本的權(quán)值πz+1(Fi),其中,

<mrow> <mo>&ForAll;</mo> <mi>i</mi> <mo>&Element;</mo> <mo>&lsqb;</mo> <mn>1</mn> <mo>,</mo> <mi>n</mi> <mo>&rsqb;</mo> <mo>,</mo> <msub> <mi>&pi;</mi> <mrow> <mi>z</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>&pi;</mi> <mi>z</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&times;</mo> <mfrac> <msub> <mi>&Delta;</mi> <mrow> <mi>z</mi> <mi>min</mi> </mrow> </msub> <mrow> <mn>1</mn> <mo>-</mo> <msub> <mi>&Delta;</mi> <mrow> <mi>z</mi> <mi>min</mi> </mrow> </msub> </mrow> </mfrac> </mrow> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>e</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&pi;</mi> <mi>z</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&NotEqual;</mo> <msub> <mi>e</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>

(2.6)z=z+1,歸一化樣本權(quán)重πz

判定z是否小于等于Z,當z小于等于Z時,轉(zhuǎn)(2.4),當z大于Z時,轉(zhuǎn)(2.7);

(2.7)基于對正反比例樣本的分析,選出誤差最小的Z個弱決策樹,最終優(yōu)化成一個強決策樹D(Fi):

<mrow> <mi>D</mi> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <munderover> <mo>&Sigma;</mo> <mrow> <mi>z</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>Z</mi> </munderover> <mo>{</mo> <mi>log</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>-</mo> <msub> <mi>&Delta;</mi> <mrow> <mi>z</mi> <mi>min</mi> </mrow> </msub> </mrow> <msub> <mi>&Delta;</mi> <mrow> <mi>z</mi> <mi>min</mi> </mrow> </msub> </mfrac> <mo>)</mo> </mrow> <msup> <mi>d</mi> <mi>z</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> <mo>&GreaterEqual;</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>z</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>Z</mi> </munderover> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>log</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>-</mo> <msub> <mi>&Delta;</mi> <mrow> <mi>z</mi> <mi>min</mi> </mrow> </msub> </mrow> <msub> <mi>&Delta;</mi> <mrow> <mi>z</mi> <mi>min</mi> </mrow> </msub> </mfrac> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>

當D(Fi)=1時,強決策樹判斷樣本圖像Fi為人臉,否則判斷為非人臉;

(2.8)經(jīng)過一級一級的強決策樹的決策,輸出候選人臉區(qū)域圖像Fc。

3.根據(jù)權(quán)利要求2所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(3)包括以下過程:

(3.1)輸入所述步驟(2.8)輸出的候選人臉區(qū)域圖像Fc

(3.2)采用映射關(guān)系將所述候選人臉區(qū)域圖像Fc從RGB顏色空間轉(zhuǎn)換到Y(jié)IQ顏色空間,獲得YIQ候選人臉區(qū)域彩色圖像;

(3.3)提取所述YIQ候選人臉區(qū)域彩色圖像的各個像素點的色度分量信息I和Q;

(3.4)依據(jù)置信區(qū)間對所述YIQ候選人臉區(qū)域彩色圖像進行二值化,將在置信區(qū)間內(nèi)的像素的值置為1,為膚色像素,否則,置為0,為非膚色像素,得到膚色區(qū)域與非膚色區(qū)域;

(3.5)剔除所述YIQ候選人臉區(qū)域彩色圖像中不含膚色像素點的區(qū)域,并輸出候選人臉的二值化圖像Fb。

4.根據(jù)權(quán)利要求3所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(4)包括以下過程:

(4.1)輸入所述二值化圖像Fb;

(4.2)對所述二值化圖像Fb進行M次膨脹運算再進行N次腐蝕運算,還原受光線影響的膚色區(qū)域;

(4.3)遍歷所述二值化圖像Fb中的膚色像素點,獲取膚色區(qū)域的上、下、左、右邊界Bt、Bb、Bl、Br,并重新確定所述二值化圖像Fb中的人臉區(qū)域的大小獲得待檢測區(qū)域;

(4.4)計算所述待檢測區(qū)域內(nèi)白色像素的總個數(shù):其中,As表示所述待檢測區(qū)域內(nèi)的膚色面積,n為所述待檢測區(qū)域內(nèi)的總像素個數(shù),αi表示第i個像素點的屬性,當αi值為1時,該像素點為膚色像素點,當αi值為0時,該像素點為背景像素點;

(4.5)采用人臉輪廓的約束條件對所述待檢測區(qū)域進行區(qū)域篩選,進一步排除誤檢的人臉區(qū)域,獲得有效的人臉區(qū)域圖像Fe。

5.根據(jù)權(quán)利要求4所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(5)包括以下過程:

(5.1)輸入所述有效的人臉區(qū)域圖像Fe;

(5.2)計算出人臉區(qū)域中心位置O0,并在包含所述人臉區(qū)域中心位置O0的矩形跟蹤區(qū)域中,對所有的像素點位置{o1,o2,…,on}進行歸一化處理;

(5.3)將歸一化后的人臉區(qū)域作為運動人臉的直方圖模板;

<mrow> <msub> <mover> <mi>q</mi> <mo>^</mo> </mover> <mi>m</mi> </msub> <mo>=</mo> <mi>C</mi> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>&kappa;</mi> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>o</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mi>&delta;</mi> <mo>&lsqb;</mo> <mi>t</mi> <mrow> <mo>(</mo> <msub> <mi>o</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>m</mi> <mo>&rsqb;</mo> </mrow>

為歸一化系數(shù),κ(·)為核函數(shù),t(oi)為oi像素點對應(yīng)直方圖中的灰度索引值,m為直方圖中的灰度索引值,δ為Kronecker delta函數(shù);

(5.4)計算當前幀的候選人臉的顏色直方圖

<mrow> <msub> <mover> <mi>q</mi> <mo>^</mo> </mover> <mi>m</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>O</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>C</mi> <mi>h</mi> </msub> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>n</mi> <mi>h</mi> </msub> </munderover> <mi>&kappa;</mi> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <mfrac> <mrow> <msub> <mi>O</mi> <mi>j</mi> </msub> <mo>-</mo> <msubsup> <mi>o</mi> <mi>i</mi> <mo>*</mo> </msubsup> </mrow> <mi>h</mi> </mfrac> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mi>&delta;</mi> <mo>&lsqb;</mo> <mi>t</mi> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mi>m</mi> <mo>&rsqb;</mo> </mrow>

其中,為歸一化系數(shù),為候選人臉區(qū)域?qū)?yīng)的歸一化像素位置,j表示迭代的次數(shù),當j=0時,Oj=O0,否則Oj為上一次迭代的人臉區(qū)域中心位置,h表示帶寬;

(5.5)計算每個像素點的權(quán)值ωi和下一幀中新窗口的中心Oj+1

<mrow> <msub> <mi>&omega;</mi> <mi>i</mi> </msub> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>0</mn> </mrow> <mn>255</mn> </munderover> <msqrt> <mfrac> <msub> <mover> <mi>q</mi> <mo>^</mo> </mover> <mi>m</mi> </msub> <mrow> <msub> <mover> <mi>q</mi> <mo>^</mo> </mover> <mi>m</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>O</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </msqrt> <mi>&delta;</mi> <mo>&lsqb;</mo> <mi>t</mi> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mi>m</mi> <mo>&rsqb;</mo> <mo>,</mo> <msub> <mi>O</mi> <mrow> <mi>j</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>n</mi> <mi>h</mi> </msub> </munderover> <msub> <mi>x</mi> <mi>i</mi> </msub> <msub> <mi>&omega;</mi> <mi>i</mi> </msub> <mi>g</mi> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <msubsup> <mi>o</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>-</mo> <msub> <mi>O</mi> <mi>j</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>/</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>n</mi> <mi>h</mi> </msub> </munderover> <msub> <mi>&omega;</mi> <mi>i</mi> </msub> <mi>g</mi> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <msubsup> <mi>o</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>-</mo> <msub> <mi>O</mi> <mi>j</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>)</mo> </mrow> </mrow>

其中,g(·)為κ(·)一階導(dǎo)數(shù)的相反數(shù);

(5.6)判定||Oj+1-Oj||是否小于等于ε,當||Oj+1-Oj||小于等于ε時,結(jié)束匹配均值漂移向量,并確定跟蹤的人臉區(qū)域圖像Ff;當||Oj+1-Oj||大于ε時,j=j(luò)+1,轉(zhuǎn)步驟(5.4)。

6.根據(jù)權(quán)利要求5所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述步驟(6)的過程包括:

(6.1)輸入所述確定跟蹤的人臉區(qū)域圖像Ff;

(6.2)計算當前幀j幀的人臉跟蹤窗口Fsw的零階矩和x與y的一階矩

<mrow> <msubsup> <mi>M</mi> <mn>00</mn> <mi>j</mi> </msubsup> <mo>=</mo> <munder> <mo>&Sigma;</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> </munder> <munder> <mo>&Sigma;</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </munder> <msup> <mi>F</mi> <mrow> <mi>s</mi> <mi>w</mi> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> <msubsup> <mi>M</mi> <mn>10</mn> <mi>j</mi> </msubsup> <mo>=</mo> <munder> <mo>&Sigma;</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> </munder> <munder> <mo>&Sigma;</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </munder> <msub> <mi>x</mi> <mi>i</mi> </msub> <msup> <mi>F</mi> <mrow> <mi>s</mi> <mi>w</mi> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> <msubsup> <mi>M</mi> <mn>01</mn> <mi>j</mi> </msubsup> <mo>=</mo> <munder> <mo>&Sigma;</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> </munder> <munder> <mo>&Sigma;</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </munder> <msub> <mi>y</mi> <mi>i</mi> </msub> <msup> <mi>F</mi> <mrow> <mi>s</mi> <mi>w</mi> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow>

其中,F(xiàn)sw(x,y)為人臉跟蹤窗口Fsw中點(x,y)處的像素值,(xi,yi)∈Fsw

(6.3)獲取人臉區(qū)域的質(zhì)心:

(6.4)取所述人臉區(qū)域的質(zhì)心與所述步驟(5)中的匹配人臉均值漂移向量所得中心的均值作為人臉中心(xjc,yjc);

(6.5)計算所述人臉跟蹤窗口Fsw的二階矩,得到人臉的長軸lj、短軸wj和方向角θj;

<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>l</mi> <mi>j</mi> </msub> <mo>=</mo> <msqrt> <mrow> <mo>&lsqb;</mo> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>c</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msqrt> <mrow> <msubsup> <mi>b</mi> <mi>j</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>c</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>&rsqb;</mo> <mo>/</mo> <mn>2</mn> </mrow> </msqrt> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>w</mi> <mi>j</mi> </msub> <mo>=</mo> <msqrt> <mrow> <mo>&lsqb;</mo> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>c</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msqrt> <mrow> <msubsup> <mi>b</mi> <mi>j</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>c</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>&rsqb;</mo> <mo>/</mo> <mn>2</mn> </mrow> </msqrt> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&theta;</mi> <mi>j</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>arctan</mi> <mo>{</mo> <mn>2</mn> <msub> <mi>b</mi> <mi>j</mi> </msub> <mo>/</mo> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>c</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>

其中,aj、bj、cj為長軸、短軸和方向角的相應(yīng)計算參數(shù),分別為人臉跟蹤窗口Fsw中xy的一階矩及x和y的二階矩;

(6.6)將獲取的所述長軸、短軸與上一幀人臉區(qū)域的長和寬進行加權(quán)計算,獲取當前幀的人臉區(qū)域的大?。?/p>

<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>=</mo> <mn>0.85</mn> <mo>*</mo> <msub> <mi>l</mi> <mi>j</mi> </msub> <mo>+</mo> <mn>0.15</mn> <mo>*</mo> <msub> <mi>W</mi> <mrow> <mi>j</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>=</mo> <mn>0.85</mn> <mo>*</mo> <msub> <mi>w</mi> <mi>j</mi> </msub> <mo>+</mo> <mn>0.15</mn> <mo>*</mo> <msub> <mi>H</mi> <mrow> <mi>j</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced>

其中,Wj和Hj分別表示當前幀人臉區(qū)域的長和寬。

7.根據(jù)權(quán)利要求1所述的人臉自適應(yīng)檢測與跟蹤方法,其特征在于,所述方法,先對視頻圖像中的第一幀依次進行步驟(2)、(3)、(4)的處理,輸出候選人臉圖像;然后依次執(zhí)行步驟(5)、(6)來對步驟(4)輸出的候選人臉圖像的候選人臉進行連續(xù)n0幀的自適應(yīng)跟蹤;當連續(xù)n0幀跟蹤結(jié)束后再按照步驟(2)、(3)、(4)對跟蹤的候選人臉區(qū)域進行框選和篩選以修正人臉位置。

當前第2頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1