亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種人臉視頻檢索方法和系統(tǒng)與流程

文檔序號:11918858閱讀:387來源:國知局
一種人臉視頻檢索方法和系統(tǒng)與流程

本發(fā)明涉及視頻檢索領域,尤其涉及一種人臉視頻檢索方法和系統(tǒng)。



背景技術:

隨著多媒體技術及計算機網絡技術的迅速發(fā)展,視頻逐漸成為信息傳播的主流載體之一。人們面臨的問題已不再是視頻內容的匱乏,而是面對浩如煙海的視頻信息,如何快速、有效地找到自己需要的內容。其中,在社會公共安全領域,視頻監(jiān)控系統(tǒng)成為維護社會治安,加強社會管理的一個重要組成部分。人臉視頻檢索,成為公安用戶監(jiān)控系統(tǒng)中迫切需求。作為目前最流行的視頻搜索技術,無論是基于非壓縮域的視頻內容檢索和基于壓縮域的視頻內容檢索,這種普通設計模式,沒有利用人臉檢索的特點,從而影響人臉視頻檢索技術的效率。



技術實現要素:

本發(fā)明實施例的目的在于提出一種人臉視頻檢索方法,旨在解決現有人臉視頻檢索技術效率低下的問題。

本發(fā)明實施例是這樣實現的,一種人臉視頻檢索方法,所述方法包括以下步驟:

步驟A:判斷當前搜索視頻當前幀pict的判斷參數part是否為1,若是則進入步驟B,否則,進入步驟E;

步驟B:使用第一視頻搜索模式對當前幀進行搜索;

步驟C:如果當前搜索視頻當前幀的下一幀存在,則令t=t+1,并將當前搜索視頻當前幀的下一幀設置為當前搜索視頻當前幀,然后進入步驟D;否則,結束;t表示搜索視頻序列的幀序號,t的初始值為1;

步驟D:如果不存在sbkt(i,j)=1,則進入步驟E;否則進入步驟G。

sbkt(i,j)表示bkt(i,j)識別參數,bkt(i,j)表示pict的第i行第j列解碼塊;

步驟E:如果當前搜索視頻當前幀pict為幀內預測幀,則令tpt=bkh*bkw;否則,計算tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw);

步驟F:如果tpt=0,則首先,設置所有sbkt(i,j)=0,然后進入步驟C;否則,如果tpt≥0.9*bkh*bkw,則進入步驟B;否則,則進入步驟G;bkw、bkh分別表示一幀圖像劃分成塊以后,圖像以塊為單位的列數和行數;

步驟G:使用第二視頻搜索模式對當前幀進行搜索,然后,進入步驟C;

第一視頻搜索模式包括以下步驟:

解碼當前搜索視頻當前幀,獲取解碼圖像;

對解碼圖像所有解碼塊作如下處理:如果bkt(i,j)預測模式為子塊預測模式,則進入細分判定模式;否則,進入粗分判定模式;

統(tǒng)一當前搜索區(qū)域與搜索目標的分辨率,然后,以統(tǒng)一的分辨率縮放當前搜索區(qū)域和搜索目標到同樣的尺寸;

首先對當前解碼圖像的搜索區(qū)域,提取圖像特征;然后與搜索目標進行對比,匹配,完成對當前搜索視頻當前幀的搜索;

按當前搜索視頻當前幀的匹配結果,對當前搜索視頻當前幀的各個解碼塊進行識別參數標識;

其中,sbkt(i,j)=sign(bkt(i,j)|條件3),條件3表示:bkt(i,j)匹配目標。

本發(fā)明實施例的另一目的在于提出一種人臉視頻檢索系統(tǒng),所述系統(tǒng)包括:

第一判斷處理模塊,用于判斷當前搜索視頻當前幀pict的判斷參數part是否為1,若是則進入第一視頻搜索裝置,否則進入場景切換參數計算模塊;

其中,part表示pict的判斷參數,pict表示當前搜索視頻第t幀,t表示搜索視頻序列的幀序號,t的初始值為1;條件1表示:t=1或者pict為幀內預測幀或者tpt≥0.9*bkh*bkw;tpt為場景切換參數,tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw);sum(變量|條件)表示對滿足條件的變量求和;條件2表示:bkt(i,j)為幀內預測塊或者至少包含一個幀內預測子塊;bkt(i,j)表示pict的第i行第j解碼塊bkw、bkh分別表示一幀圖像劃分成塊以后,圖像以塊為單位的列數和行數;

第一視頻搜索裝置,用于使用第一視頻搜索模式對當前幀進行搜索;

第二判斷處理模塊,用于判斷當前搜索視頻當前幀的下一幀是否存在,若是,則令t=t+1,并將當前搜索視頻當前幀的下一幀設置為當前搜索視頻當前幀,然后進入第三判斷處理模塊,否則結束;

第三判斷處理模塊,用于判斷是否存在存在sbkt(i,j)=1,若不存在,則進入場景切換參數計算模塊,否則進入第二視頻搜索裝置;

場景切換參數計算模塊,用于判斷如果當前搜索視頻當前幀pict為幀內預測幀,則令tpt=bkh*bkw;否則計算tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw);

第四判斷處理模塊,用于判斷是否tpt=0,若是則設置所有sbkt(i,j)=0,然后進入第二判斷處理模塊;否則,判斷如果tpt≥0.9*bkh*bkw,則進入第一視頻搜索裝置;否則,則進入第二視頻搜索裝置;

第二視頻搜索裝置,用于使用第二視頻搜索模式對當前幀進行搜索,然后進入第二判斷處理模塊;

所述第一視頻搜索裝置包括:

解碼圖像獲取模塊,用于解碼當前搜索視頻當前幀,獲取解碼圖像;

預測模式判定模塊,用于判斷如果bkt(i,j)預測模式為子塊預測模式,則進入細分判定裝置;否則,進入粗分判定裝置;

第一尺寸統(tǒng)一模塊,與預測模式判定模塊相連,用于統(tǒng)一當前搜索區(qū)域與搜索目標的分辨率,然后,以統(tǒng)一的分辨率縮放當前搜索區(qū)域和搜索目標到同樣的尺寸;

第一目標圖像搜索模塊,用于首先對當前解碼圖像的搜索區(qū)域,提取圖像特征;然后與搜索目標進行對比,匹配,完成對當前搜索視頻當前幀的搜索;

第一識別參數標識模塊,用于按當前搜索視頻當前幀的匹配結果,對當前搜索視頻當前幀的各個解碼塊進行識別參數標識;

其中,sbkt(i,j)=sign(bkt(i,j)|條件3),sbkt(i,j)表示表示bkt(i,j)的識別參數;條件3表示:bkt(i,j)匹配目標。

本發(fā)明的有益效果

本發(fā)明提出一種人臉視頻檢索方法,本發(fā)明方法通過非壓縮域的信息確定關鍵幀的搜索區(qū)域,然后通過壓縮域的運動與預測信息,獲取跟蹤搜索區(qū)域,從而較少視頻搜索的數據量和運算量,提升視頻搜索的時效性;此外,本方法還針對人臉檢索的特點,通過縮小搜索區(qū)域,減少計算量;通過預處理,提升搜索的準確率。

附圖說明

圖1是本發(fā)明優(yōu)選實施例一種人臉視頻檢索方法流程圖;

圖2是圖1中Step1的方法流程圖;

圖3是本發(fā)明優(yōu)選實施例一種人臉視頻檢索系統(tǒng)結構圖;

圖4是圖3中第一視頻搜索裝置結構圖;

圖5是圖4中細分判定裝置結構圖;

圖6是圖4中粗分判定裝置結構圖;

圖7是圖3中第二視頻搜索裝置結構圖。

具體實施方式

為了使本發(fā)明的目的、技術方案及優(yōu)點更加清楚明白,以下結合附圖和實施例,對本發(fā)明進行進一步詳細說明,為了便于說明,僅示出了與本發(fā)明實施例相關的部分。應當理解,此處所描寫的具體實施例,僅僅用于解釋本發(fā)明,并不用以限制本發(fā)明。

本發(fā)明實施例提出一種人臉視頻檢索方法和系統(tǒng),本發(fā)明實施例方法通過非壓縮域的信息確定關鍵幀的搜索區(qū)域,然后通過壓縮域的運動與預測信息,獲取跟蹤搜索區(qū)域,從而較少視頻搜索的數據量和運算量,提升視頻搜索的時效性;此外,本方法還針對人臉檢索的特點,通過縮小搜索區(qū)域,減少計算量;通過預處理,提升搜索的準確率。

實施例一

圖1是本發(fā)明優(yōu)選實施例一種人臉視頻檢索方法流程圖;所述方法包括以下步驟:

Step:0:判斷參數part為1,則進入Step1,否則,進入Step4。

其中,part表示pict的判斷參數,pict表示當前搜索視頻第t幀(即當前搜索視頻當前幀),t表示搜索視頻序列的幀序號,t的初始值為1;條件1表示:t=1或者pict為幀內預測幀或者tpt≥0.9*bkh*bkw;tpt為場景切換參數,tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw);sum(變量|條件)表示對滿足條件的變量求和;條件2表示:bkt(i,j)為幀內預測塊或者至少包含一個幀內預測子塊;bkt(i,j)表示pict的第i行第j解碼塊(塊的大小為16x16(H264等標準),64x64(HEVC),當塊進一步劃分,這些小尺寸塊稱為子塊),bkw、bkh分別表示一幀圖像劃分成塊以后,圖像以塊為單位的列數和行數;

Step1:使用第一視頻搜索模式,對當前幀進行搜索。

第一視頻搜索模式(圖2是圖1中Step1的方法流程圖):

Step11:解碼當前搜索視頻當前幀,獲取解碼圖像。

Step12:根據人臉識別的特點,對解碼圖像劃定搜索區(qū)域;即對解碼圖像所有解碼塊作如下處理:如果bkt(i,j)預測模式為子塊預測模式,即塊作了進一步劃分,則進入細分判定模式;否則,進入粗分判定模式。細分判定模式:

步驟A1:將塊內每個像素點作為膚色判定點,對所述膚色判定點作膚色判定,如果滿足膚色判定點為膚色,則該塊膚色像素點個數加1。

步驟A2:如果塊內膚色像素點個數大于第十四閾值,則判定該塊劃入人臉視頻搜索區(qū)域,否則,該塊劃入非人臉視頻搜索區(qū)域。第十四閾值上限為塊的像素點數量總數,下限可選塊的像素點數量總數的一半。

粗分判定模式:

步驟B1:以塊內像素點均值為單位作為膚色判定點,即用塊內所有像素點相應分量的均值作為各色彩模型分量的值。

步驟B2:對膚色判定點做膚色判定,如果該膚色判定點為膚色,則劃入人臉視頻搜索區(qū)域;否則,該塊劃入非人臉視頻搜索區(qū)域。

所述細分判定模式和粗分判斷模式中,膚色判定點為膚色須若同時滿足下列6個條件:

要求1;Thres1<b-g<Thres2、要求2:Thres3<r-g<Thres4*Wr、

要求3:Gup<g<Gdown、要求4:Thres5<Wr、要求5:Thres6<Co<Thres7、

要求6:Thres8<energyUV<Thres9&&U*Thres10<V&&U*Thres11>V或者Thres12<energyUV<Thres13

其中,Thresjj,jj∈[1,13]分別為第一至第十三閾值,第一至第十三閾值根據實際情況自行設定;基于歸一RGB模型,獲得歸一化RGB色彩分量r、g、b;色彩均衡性參數Wr=(r-1/3)2+(g-1/3)2;構建綠色分量上界模型Gup=aupr2+bupr+cup,其中aup,bup,cup為模型參數,Gdown=adownr2+bdownr+cdown;其中adown,bdown,cdown為模型參數;基于模型YUV模型獲得色彩能量Y為亮度分量,U、V分別代表YUV模型兩個色度分量;基于YCoCg模型獲取Co,Co為YCgCo模型色彩分量值;

第一視頻搜索模式中,搜索區(qū)域包括人臉視頻搜索區(qū)域和非人臉視頻搜索區(qū)域;膚色判定點方法,也可以用業(yè)內公開的任何一種方法。

Step13:統(tǒng)一當前搜索區(qū)域與搜索目標的分辨率,然后,以統(tǒng)一的分辨率縮放當前搜索區(qū)域和搜索目標到同樣的尺寸。

Step14:首先,對當前解碼圖像的搜索區(qū)域,提取圖像特征;然后與搜索目標進行對比,匹配,完成對當前搜索視頻當前幀的搜索。

其中,所述提取圖像特征、與搜索目標進行對比,匹配方法可用對應視頻搜索領域內公開的任何一種方法,在此不再贅述。

Step15:按當前搜索視頻當前幀的匹配結果,對當前搜索視頻當前幀的各個解碼塊進行識別參數標識。

其中,sbkt(i,j)=sign(bkt(i,j)|條件3),sbkt(i,j)表示表示bkt(i,j)的識別參數;條件3表示:bkt(i,j)匹配目標。

Step2:如果當前搜索視頻當前幀的下一幀存在,則令t=t+1,并將當前搜索視頻當前幀的下一幀設置為當前搜索視頻當前幀,然后進入Step3;否則,結束。

Step3:如果不存在sbkt(i,j)=1,則進入Step4;否則進入Step6。

Step4:如果pict為幀內預測幀,則令tpt=bkh*bkw;否則,計算tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw)。

Step5:如果tpt=0,則首先,設置所有sbkt(i,j)=0,然后進入Step2;否則,如果tpt≥0.9*bkh*bkw,則進入Step1;否則,則進入Step6。

Step6:使用第二視頻搜索模式,對當前幀進行搜索,然后,進入Step2。

第二視頻搜索模式:

Step61:如果bkt(i,j)為幀內預測塊,則解碼該塊,然后劃定該塊為搜索區(qū)域;否則,

如果spbkt(i,j)=1,則設置sbkt(i,j)=1,即表示當前塊匹配目標;否則,則設置sbkt(i,j)=0,即表示當前塊不匹配目標。

其中,spbkt(i,j)表示bkt(i,j)的參考塊的識別參數。

Step62:對當前搜索區(qū)域進行預處理,即統(tǒng)一當前搜索區(qū)域與搜索目標的分辨率,然后,以統(tǒng)一的分辨率縮放當前搜索區(qū)域和搜索目標到一樣的尺寸。

Step63:首先,對搜索區(qū)域,提取圖像特征,然后與搜索目標進行對比,匹配,完成對當前搜索視頻當前幀的搜索。

其中,所述提取圖像特征、與搜索目標進行對比,匹配方法可用對應視頻搜索領域內公開的任何一種方法,在此不再贅述。

Step64:按搜索區(qū)域解碼塊的匹配結果,對解碼塊進行識別參數標識。

實施例二

圖3是本發(fā)明優(yōu)選實施例一種人臉視頻檢索系統(tǒng)結構圖;所述系統(tǒng)包括:

第一判斷處理模塊,用于判斷當前搜索視頻當前幀pict的判斷參數part是否為1,若是則進入第一視頻搜索裝置,否則進入場景切換參數計算模塊;

其中,part表示pict的判斷參數,pict表示當前搜索視頻第t幀(即當前搜索視頻當前幀),t表示搜索視頻序列的幀序號,t的初始值為1;條件1表示:t=1或者pict為幀內預測幀或者tpt≥0.9*bkh*bkw;tpt為場景切換參數,tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw);sum(變量|條件)表示對滿足條件的變量求和;條件2表示:bkt(i,j)為幀內預測塊或者至少包含一個幀內預測子塊;bkt(i,j)表示pict的第i行第j解碼塊(塊的大小為16x16(H264等標準),64x64(HEVC),當塊進一步劃分,這些小尺寸塊稱為子塊),bkw、bkh分別表示一幀圖像劃分成塊以后,圖像以塊為單位的列數和行數;

第一視頻搜索裝置,用于使用第一視頻搜索模式對當前幀進行搜索;

第二判斷處理模塊,用于判斷當前搜索視頻當前幀的下一幀是否存在,若是,則令t=t+1,并將當前搜索視頻當前幀的下一幀設置為當前搜索視頻當前幀,然后進入第三判斷處理模塊,否則結束。

第三判斷處理模塊,用于判斷是否存在存在sbkt(i,j)=1,若不存在,則進入場景切換參數計算模塊,否則進入第二視頻搜索裝置;

場景切換參數計算模塊,用于判斷如果當前搜索視頻當前幀pict為幀內預測幀,則令tpt=bkh*bkw;否則計算tpt=sum(sign(bkt(i,j)|條件2)|1≤i≤bkh且1≤j≤bkw)。

第四判斷處理模塊,用于判斷是否tpt=0,若是則設置所有sbkt(i,j)=0,然后進入第二判斷處理模塊;否則,判斷如果tpt≥0.9*bkh*bkw,則進入第一視頻搜索裝置;否則,則進入第二視頻搜索裝置。

第二視頻搜索裝置,用于使用第二視頻搜索模式對當前幀進行搜索,然后進入第二判斷處理模塊;

進一步地,圖4是圖3中第一視頻搜索裝置結構圖,所述第一視頻搜索裝置包括:

解碼圖像獲取模塊,用于解碼當前搜索視頻當前幀,獲取解碼圖像;

預測模式判定模塊,用于判斷如果bkt(i,j)預測模式為子塊預測模式,則進入細分判定裝置;否則,進入粗分判定裝置。

第一尺寸統(tǒng)一模塊,與預測模式判定模塊相連,用于統(tǒng)一當前搜索區(qū)域與搜索目標的分辨率,然后,以統(tǒng)一的分辨率縮放當前搜索區(qū)域和搜索目標到同樣的尺寸;

第一目標圖像搜索模塊,用于首先對當前解碼圖像的搜索區(qū)域,提取圖像特征;然后與搜索目標進行對比,匹配,完成對當前搜索視頻當前幀的搜索。

第一識別參數標識模塊,用于按當前搜索視頻當前幀的匹配結果,對當前搜索視頻當前幀的各個解碼塊進行識別參數標識。

其中,sbkt(i,j)=sign(bkt(i,j)|條件3),sbkt(i,j)表示表示bkt(i,j)的識別參數;條件3表示:bkt(i,j)匹配目標。

進一步地,圖5是圖4中細分判定裝置結構圖;

細分判定裝置,包括塊膚色像素點計數模塊和第一人臉視頻搜索區(qū)域劃分模塊,

塊膚色像素點計數模塊,用于將塊內每個像素點作為膚色判定點,對所述膚色判定點作膚色判定,如果滿足膚色判定點為膚色,則該塊膚色像素點個數加1;

第一人臉視頻搜索區(qū)域劃分模塊,與塊膚色像素點計數模塊相連,用于判斷如果塊內膚色像素點個數大于第十四閾值,則判定該塊劃入人臉視頻搜索區(qū)域,否則,該塊劃入非為人臉視頻搜索區(qū)域。

第十四閾值上限為塊的像素點數量總數,下限可選塊的像素點數量總數的一半。

圖6是圖4中粗分判定裝置結構圖;

粗分判定裝置,包括塊色彩模型分量值計算模塊和第二人臉視頻搜索區(qū)域劃分模塊,

塊色彩模型分量值計算模塊,用于以塊內像素點均值為單位作為膚色判定點,用塊內所有像素點相應分量的均值作為各色彩模型分量的值;

第二人臉視頻搜索區(qū)域劃分模塊,與塊色彩模型分量值設定模塊相連,用于對膚色判定點做膚色判定,如果該膚色判定點為膚色,則劃入人臉視頻搜索區(qū)域;否則,該塊劃入非為人臉視頻搜索區(qū)域。

所述細分判定模式和粗分判斷模式中,膚色判定點為膚色須若同時滿足下列6個條件:

要求1;Thres1<b-g<Thres2、要求2:Thres3<r-g<Thres4*Wr、

要求3:Gup<g<Gdown、要求4:Thres5<Wr、要求5:Thres6<Co<Thres7、

要求6:Thres8<energyUV<Thres9&&U*Thres10<V&&U*Thres11>V或者Thres12<energyUV<Thres13

其中,Thresjj,jj∈[1,13]分別為第一至第十三閾值,第一至第十三閾值根據實際情況自行設定;基于歸一RGB模型,獲得歸一化RGB色彩分量r、g、b;色彩均衡性參數Wr=(r-1/3)2+(g-1/3)2;構建綠色分量上界模型Gup=aupr2+bupr+cup,其中aup,bup,cup為模型參數,Gdown=adownr2+bdownr+cdown;其中adown,bdown,cdown為模型參數;基于模型YUV模型獲得色彩能量Y為亮度分量,U、V分別代表YUV模型兩個色度分量;基于YCoCg模型獲取Co,Co為YCgCo模型色彩分量值;膚色判定點方法,也可以用業(yè)內公開的任何一種方法。

進一步地,圖7是圖3中第二視頻搜索裝置結構圖,所述第二視頻搜索裝置包括:

第二搜索區(qū)域劃定模塊,用于判斷如果bkt(i,j)為幀內預測塊,則解碼該塊,然后劃定該塊為搜索區(qū)域;否則,如果spbkt(i,j)=1,則設置sbkt(i,j)=1,即表示當前塊匹配目標;否則,則設置sbkt(i,j)=0,即表示當前塊不匹配目標。其中,spbkt(i,j)表示bkt(i,j)的參考塊的識別參數。

第二尺寸統(tǒng)一模塊,與第二搜索區(qū)域劃定模塊相連,用于對當前搜索區(qū)域進行預處理,即統(tǒng)一當前搜索區(qū)域與搜索目標的分辨率,然后,以統(tǒng)一的分辨率縮放當前搜索區(qū)域和搜索目標到一樣的尺寸。

第二目標圖像搜索模塊,用于首先,對搜索區(qū)域,提取圖像特征,然后與搜索目標進行對比,匹配,完成對當前搜索視頻當前幀的搜索。

其中,所述上述提取圖像特征、與搜索目標進行對比,匹配方法可用對應視頻搜索領域內公開的任何一種方法,在此不再贅述。

第二識別參數標識模塊,用于按搜索區(qū)域解碼塊的匹配結果,對解碼塊進行識別參數標識。

本領域的普通技術人員可以理解,實現上述實施例方法中的全部或部分步驟是可以通過程序指令相關硬件來完成的,所述的程序可以存儲于一計算機可讀取存儲介質中,所述的存儲介質可以為ROM、RAM、磁盤、光盤等。

以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內所作的任何修改、等同替換和改進等,均應包含在本發(fā)明的保護范圍之內。

當前第1頁1 2 3 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1