亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種得出人臉部位輪廓定位模型的方法

文檔序號:6635414閱讀:1045來源:國知局
一種得出人臉部位輪廓定位模型的方法
【專利摘要】本發(fā)明公開一種得出人臉部位輪廓定位模型的方法,準(zhǔn)備一組訓(xùn)練圖像集,標(biāo)注所述訓(xùn)練圖像集中的訓(xùn)練臉的輪廓點;選取一個標(biāo)準(zhǔn)臉模型,標(biāo)注所述標(biāo)準(zhǔn)臉模型的輪廓點;從所述標(biāo)準(zhǔn)臉模型的輪廓點出發(fā),進(jìn)行變換得到所述任一訓(xùn)練臉的輪廓點過程中,不斷利用優(yōu)化函數(shù)進(jìn)行優(yōu)化,最終計算得出人臉部位輪廓定位模型。定義得出人臉部位輪廓定位模型的過程是有監(jiān)督的分析定位過程,降低誤差,提高定位精度,使得人臉識別,人臉化妝,人物表情分析等技術(shù)能夠運用到更加精密的場合中,對于開拓現(xiàn)代化技術(shù)發(fā)展具有十分重要的意義。
【專利說明】一種得出人臉部位輪廓定位模型的方法

【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于計算機視覺、智能安防,視頻和圖像分析【技術(shù)領(lǐng)域】,尤其涉及一種得出人臉部位輪廓定位模型的方法。

【背景技術(shù)】
[0002]人臉識別正在逐步的應(yīng)用于政府、軍隊、銀行、社會福利保障、電子商務(wù)、安全防務(wù)等領(lǐng)域,伴隨著人臉識別技術(shù)應(yīng)用【技術(shù)領(lǐng)域】的范圍增加,人們對于人臉識別技術(shù)的精度要求也越來越高。而面部結(jié)構(gòu)的精準(zhǔn)定位則是提高人臉識別技術(shù)精度的基礎(chǔ)?,F(xiàn)今,如何準(zhǔn)確地對人臉各個部位進(jìn)行定位是目前計算機視覺領(lǐng)域比較熱門的一個課題,因為它對于人臉識別,人臉化妝,人物表情分析等具有十分重要的意義。目前僅僅是從人臉的形狀入手,大多是采用對大量人臉形狀的訓(xùn)練和分析得到一些標(biāo)注模型,然后將該模型應(yīng)用于任何測試人臉圖像中,得出模型的過程是一種無監(jiān)督的分析定位過程,存在了較大的不可避免的誤差。導(dǎo)致當(dāng)訓(xùn)練數(shù)據(jù)集比較小,或者某個人的人臉與訓(xùn)練集中的數(shù)據(jù)差別比較大的時候,人臉輪廓定位將變得尤其不準(zhǔn)確。


【發(fā)明內(nèi)容】

[0003]為解決上述技術(shù)問題,本發(fā)明提供一種得出人臉部位輪廓定位模型的方法。
[0004]在一些可選的實施例中,所述方法包括:準(zhǔn)備一組訓(xùn)練圖像集,標(biāo)注所述訓(xùn)練圖像集中的訓(xùn)練臉的輪廓點;選取一個標(biāo)準(zhǔn)臉模型,標(biāo)注所述標(biāo)準(zhǔn)臉模型的輪廓點;從所述標(biāo)準(zhǔn)臉模型的輪廓點出發(fā),進(jìn)行變換得到所述任一訓(xùn)練臉的輪廓點過程中,不斷利用優(yōu)化函數(shù)進(jìn)行優(yōu)化,得出人臉部位輪廓定位模型回歸函數(shù)的系數(shù),所述優(yōu)化函數(shù)如下:
[0005]Min (I |S_f(S0) | | + | |f(S0)_LeftEyeCenter_S_Detect_LeftEyeyCenterI | + | | f (S0)_RightEyeCenter_S_Detect_RightEyeyCenter| | + | |f(S0)_MouthEyeCenter-S_Detect_MouthEyeyCenter||);
[0006]計算所述人臉部位輪廓定位模型的具體過程如下:
[0007]S1 = f (S0);
[0008]S1 = S0XR0+T0 ;
[0009]S2 = MS1) = T^eiX (S0XR0+T0);
[0010]
[0011]S = TfRiX (Sh X Rh+Th)。
[0012]在一些可選的實施例中,所述方法還包括:由檢測分類器模型計算得出所述訓(xùn)練圖像集中任一訓(xùn)練臉的人臉部位輪廓位置、左眼的粗略輪廓、右眼的粗略輪廓和嘴巴的粗略輪廓;由所述人臉部位輪廓位置計算得出所述任一訓(xùn)練臉的人臉的坐標(biāo)位置,由所述左眼的粗略輪廓、右眼的粗略輪廓和嘴巴的粗略輪廓計算得出所述任一訓(xùn)練臉的左眼中心位置、右眼中心位置和嘴巴中心位置。
[0013]在一些可選的實施例中,所述不斷利用優(yōu)化函數(shù)進(jìn)行優(yōu)化的過程包括:從所述標(biāo)準(zhǔn)臉模型的輪廓點出發(fā),進(jìn)行變換得到所述任一訓(xùn)練臉的輪廓點過程中,確保變換后的人臉部位輪廓位置與由所述檢測分類器模型得到的人臉部位輪廓位置變化不大,且由變換后的人臉部位輪廓位置所決定的左右眼,以及嘴巴的中心位置與由所述檢測分類器模型檢測到的左右眼,以及嘴巴的中心位置最接近。
[0014]在一些可選的實施例中,所述左眼的粗略輪廓內(nèi)所有點的位置的平均值為左眼中心位置,所述右眼的粗略輪廓內(nèi)所有點的位置的平均值為右眼中心位置,所述嘴巴的粗略輪廓內(nèi)所有點的位置的平均值為嘴巴中心位置。
[0015]本發(fā)明的有益效果:定義得出人臉部位輪廓定位模型的過程是有監(jiān)督的分析定位過程,降低誤差,提高定位精度,使得人臉識別,人臉化妝,人物表情分析等技術(shù)能夠運用到更加精密的場合中,對于開拓現(xiàn)代化技術(shù)發(fā)展具有十分重要的意義。

【專利附圖】

【附圖說明】
[0016]圖1是本發(fā)明一種得出人臉部位輪廓定位模型的方法的流程示意圖。

【具體實施方式】
[0017]下面結(jié)合附圖,對本發(fā)明做進(jìn)一步詳細(xì)說明,并描述本發(fā)明較佳的實施例。
[0018]在一些說明性的實施例中,如圖1所示,本發(fā)明提供一種得出人臉部位輪廓定位模型的方法,該方法包括:
[0019]S1:準(zhǔn)備一組訓(xùn)練圖像集,為了適應(yīng)人臉輪廓定義的需要,需要對所述訓(xùn)練圖像集中的訓(xùn)練臉各個部位的輪廓點進(jìn)行標(biāo)注,一般為68個點。
[0020]S2:選取一個標(biāo)準(zhǔn)臉模型,標(biāo)注所述標(biāo)準(zhǔn)臉模型的輪廓點,一般為68個點。
[0021]S3:由檢測分類器模型計算得出所述訓(xùn)練圖像集中任一訓(xùn)練臉的人臉部位輪廓位置、左眼的粗略輪廓、右眼的粗略輪廓和嘴巴的粗略輪廓。其中,所述檢測分類器模型包括:人臉檢測分類器模型、左眼檢測分類器模型、右眼檢測分類器模型和嘴巴檢測分類器模型。利用所述人臉檢測分類器模型得到訓(xùn)練臉的人臉部位輪廓位置,然后利用所述左眼檢測分類器模型得到左眼的粗略輪廓,采用同樣的方法,利用所述右眼檢測分類器模型和嘴巴檢測分類器模型得到右眼的粗略輪廓和嘴巴的粗略輪廓。
[0022]S4:由所述人臉部位輪廓位置計算得出所述任一訓(xùn)練臉的人臉的坐標(biāo)位置,由所述左眼的粗略輪廓、右眼的粗略輪廓和嘴巴的粗略輪廓計算得出所述任一訓(xùn)練臉的左眼中心位置、右眼中心位置和嘴巴中心位置。其中,所述人臉的坐標(biāo)位置為68個點的坐標(biāo)集,所述左眼的粗略輪廓內(nèi)所有點的位置的平均值為左眼中心位置,所述右眼的粗略輪廓內(nèi)所有點的位置的平均值為右眼中心位置,所述嘴巴的粗略輪廓內(nèi)所有點的位置的平均值為嘴巴中心位置。
[0023]S5:定義優(yōu)化函數(shù),計算得出人臉部位輪廓定位模型。從所述標(biāo)準(zhǔn)臉模型的輪廓點出發(fā),進(jìn)行變換得到所述任一訓(xùn)練臉的輪廓點過程中,計算得出人臉部位輪廓定位模型。首先,定義一個優(yōu)化函數(shù),定義所述優(yōu)化函數(shù)的目的就是計算出所述變化f回歸函數(shù)的系數(shù),所述優(yōu)化函數(shù)如下:
[0024]Min (I |S_f(S0) | | + | |f(S0)_LeftEyeCenter_S_Detect_LeftEyeyCenterI | + | | f (S0)_RightEyeCenter_S_Detect_RightEyeyCenter| | + | |f(S0)_MouthEyeCenter-S_Detect_MouthEyeyCenter||)。
[0025]其中,S是每個訓(xùn)練圖集中所述標(biāo)準(zhǔn)臉模型正確的人臉部位輪廓位置,S0是所述檢測分類器模型得到的所述標(biāo)準(zhǔn)臉模型的初始位置,Min是指距離盡可能小,也就是任一所述訓(xùn)練臉從所述標(biāo)準(zhǔn)臉模型出發(fā)進(jìn)行一定的變換f,在變換過程中不斷利用所述優(yōu)化函數(shù)進(jìn)行優(yōu)化,確保變換后的人臉部位輪廓位置與初始得到的人臉部位輪廓位置變化不大,而且由變換后的所述人臉部位輪廓位置所決定的左右眼,以及嘴巴的中心位置與所述檢測分類器模型檢測到的左右眼,以及嘴巴的中心位置最接近。而所述變化f的定義即為所述人臉部位輪廓定位模型,具體計算過程如下:
[0026]S1 = f (S0);
[0027]S1 = S0XR0+T0 ;
[0028]S2 = = T^eiX (S0XR0+T0);
[0029]...
[0030]S = T^Ri X (Sh X Rh+Th)
[0031]其中,Ri是旋轉(zhuǎn)矩陣,Ti是移動矩陣,由于是級聯(lián)方式,所以就是要得到各個層次的Ri和Si。從而最后得到的f不是一個含有多級聯(lián)的線性回歸函數(shù)的組合。
[0032]以上描述和附圖充分地示出本發(fā)明的具體實施方案,以使本領(lǐng)域的技術(shù)人員能夠?qū)嵺`它們。其他實施方案可以包括結(jié)構(gòu)的、邏輯的、電氣的、過程的以及其他的改變。實施例僅代表可能的變化。除非明確要求,否則單獨的部件和功能是可選的,并且操作的順序可以變化。一些實施方案的部分和特征可以被包括在或替換其他實施方案的部分和特征。
【權(quán)利要求】
1.一種得出人臉部位輪廓定位模型的方法,其特征在于,包括: 準(zhǔn)備一組訓(xùn)練圖像集,標(biāo)注所述訓(xùn)練圖像集中的訓(xùn)練臉的輪廓點; 選取一個標(biāo)準(zhǔn)臉模型,標(biāo)注所述標(biāo)準(zhǔn)臉模型的輪廓點; 從所述標(biāo)準(zhǔn)臉模型的輪廓點出發(fā),進(jìn)行變換得到所述任一訓(xùn)練臉的輪廓點過程中,不斷利用優(yōu)化函數(shù)進(jìn)行優(yōu)化,得出人臉部位輪廓定位模型回歸函數(shù)的系數(shù),所述優(yōu)化函數(shù)如下:
Min(I S-f(S0) I | + | f (S0)_LeftEyeCenter-S_Detect_LeftEyeyCenter
+ I I f(S0)_RightEyeCenter_S_Detect_RightEyeyCenterI
+ I f (S0)_MouthEyeCenter-S_Detect_MouthEyeyCenter ); 計算所述人臉部位輪廓定位模型的具體過程如下:
S1 = f(S0);
51= S0XR0+T0 ;
52= f(S!) = T^R1X (S0XR0+T0); S = TfRiX (ShXRh+Th)。
2.根據(jù)權(quán)利要求1所述的一種得出人臉部位輪廓定位模型的方法,其特征在于,還包括: 由檢測分類器模型計算得出所述訓(xùn)練圖像集中任一訓(xùn)練臉的人臉部位輪廓位置、左眼的粗略輪廓、右眼的粗略輪廓和嘴巴的粗略輪廓; 由所述人臉部位輪廓位置計算得出所述任一訓(xùn)練臉的人臉的坐標(biāo)位置,由所述左眼的粗略輪廓、右眼的粗略輪廓和嘴巴的粗略輪廓計算得出所述任一訓(xùn)練臉的左眼中心位置、右眼中心位置和嘴巴中心位置。
3.根據(jù)權(quán)利要求2所述的一種得出人臉部位輪廓定位模型的方法,其特征在于,所述不斷利用優(yōu)化函數(shù)進(jìn)行優(yōu)化的過程包括: 從所述標(biāo)準(zhǔn)臉模型的輪廓點出發(fā),進(jìn)行變換得到所述任一訓(xùn)練臉的輪廓點過程中,確保變換后的人臉部位輪廓位置與由所述檢測分類器模型得到的人臉部位輪廓位置變化不大,且由變換后的人臉部位輪廓位置所決定的左右眼,以及嘴巴的中心位置與由所述檢測分類器I模型檢測到的左右眼,以及嘴巴的中心位置最接近。
4.根據(jù)權(quán)利要求2所述的一種得出人臉部位輪廓定位模型的方法,其特征在于,所述左眼的粗略輪廓內(nèi)所有點的位置的平均值為左眼中心位置,所述右眼的粗略輪廓內(nèi)所有點的位置的平均值為右眼中心位置,所述嘴巴的粗略輪廓內(nèi)所有點的位置的平均值為嘴巴中心位置。
【文檔編號】G06K9/66GK104361362SQ201410677419
【公開日】2015年2月18日 申請日期:2014年11月21日 優(yōu)先權(quán)日:2014年11月21日
【發(fā)明者】熊偉華, 范澍斐, 李兵, 馬燕軍 申請人:江蘇刻維科技信息有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1