096維的特征值向量,相當于利用之前訓練的CNN網(wǎng)絡(luò)進行了特征提取的工作;并對60萬個4096維的特征值向量進行線性判別式分析(Linear DiscriminantAnalysis,簡稱:LDA)訓練,LDA是模式識別的經(jīng)典算法,其基本思想是將高維的模式樣本投影到最佳鑒別矢量空間,以達到抽取分類信息和壓縮特征空間維數(shù)的效果,投影后保證模式樣本在新的子空間有最大的類間距離和最小的類內(nèi)距離,即模式在該空間中有最佳的可分離性。因此,它是一種有效的特征抽取方法。從而由4096維的特征值向量得到最終的200維向量。并保存該LDA的投影矩陣P。
[0166]進一步地,步驟207具體可以包括以下步驟:
[0167]步驟一、對待識別幀圖像進行預處理,得到歸一化待識別人臉圖像。
[0168]步驟二、將歸一化待識別人臉圖像輸入到預先得到的識別模型中,進行特征提取,得到對應(yīng)于每個待識別幀圖像的待識別人臉的高維特征向量。
[0169]步驟三、利用預存的參照人臉的線性判別式分析LDA投影矩陣對待識別人臉的高維特征向量進行降維處理,得到待識別人臉的降維特征向量。
[0170]步驟四、對待識別人臉的降維特征向量進行余弦距離度量,將度量后的結(jié)果與預設(shè)閾值進行比較;若度量后的結(jié)果大于預設(shè)閾值,識別待識別幀圖像與人臉數(shù)據(jù)庫中預存的參照人臉特征相匹配;若度量后的結(jié)果小于等于預設(shè)閾值,識別待識別幀圖像與人臉數(shù)據(jù)庫中預存的參照人臉特征不匹配。
[0171]其中,步驟四中的人臉數(shù)據(jù)庫中預存有參照人臉的人臉特征數(shù)據(jù),該參照人臉的人特征數(shù)據(jù)包括:參照人臉的LDA投影矩陣。則該視頻處理方法還包括:對參照人臉的參照人臉圖像進行預處理,得到歸一化參照人臉圖像;將歸一化參照人臉圖像輸入到預先得到的識別模型中,進行特征提取,得到對應(yīng)于每個參照人臉圖像的高維特征向量;對參照人臉圖像的高維特征向量進行LDA訓練,得到參照人臉圖像的降維特征向量;根據(jù)參照人臉圖像的降維特征向量,生成參照人臉的LDA投影矩陣。
[0172]具體的,上述基于預先得到的識別模型,對待識別幀圖像進行人臉識別以及對參照人臉進行識別并保存參照人臉特征數(shù)據(jù)的過程都屬于對訓練好的CNN網(wǎng)絡(luò)的使用階段,簡單來說,對步驟207中預先得到的識別模型,即訓練好的CNN網(wǎng)絡(luò),若新進來兩個人臉圖像進行比對,首先也需要對人臉圖像歸一化到標準尺寸100 X 100,然后進行ZCA預處理,利用訓練得到的CNN網(wǎng)絡(luò)模型對預處理后的數(shù)據(jù)進行處理,得到兩個4096維的特征值向量。再利用LDA的投影矩陣P對這兩個4096維的特征值向量進行降維,然后得到2個200維的特征值向量。再對這兩個200維的特征值向量進行余弦距離度量,并采用一定的閾值進行分割,大于該閾值的可以認為這兩張圖像屬于同一個人臉,否則為不同人臉。并且是否為同一個人臉的比對標準就是根據(jù)人臉數(shù)據(jù)庫中預存的參照人臉的人臉特征數(shù)據(jù)進行比對的。
[0173]在步驟208中,對待識別幀圖像的所有人臉識別結(jié)果進行篩選,得到目標視頻中出現(xiàn)的人臉圖像的最終識別結(jié)果。
[0174]具體的,對待識別幀圖像的每幀識別結(jié)果都記錄下來,然后按照一定的規(guī)則進行篩選,可以按照排名先后的順序,將排名第一的結(jié)果選出;或者將超過預設(shè)識別閾值的結(jié)果選出,再進行投票,投票數(shù)最多的,即為最終的、最準確的識別結(jié)果。并可以在顯示屏幕的一角將該識別結(jié)果展示出來,使對演員人臉及其名字難以對應(yīng)的用戶也能實時地知道視頻的主要演員信息。例如,展示明星甲的照片并注明該明星的名字,其中,明星甲的照片可以選用待識別幀圖像中的一幅或從人臉數(shù)據(jù)庫中選擇一張明星甲對應(yīng)的照片。
[0175]綜上,本實施例利用了人臉檢測跟蹤技術(shù),對視頻中的一些主要演員進行人臉提取分析,然后利用深度學習的人臉識別技術(shù)對這些主要人臉進行識別,最終利用多幀投票技術(shù)得到最準確的識別結(jié)果。然后將這些視頻演員的識別結(jié)果可以展示在屏幕中。
[0176]圖3是根據(jù)另一示例性實施例示出的一種視頻處理方法的流程圖,如圖3所示,本實施例的視頻處理方法可以應(yīng)用于視頻提供商的視頻服務(wù)器中也可以應(yīng)用于接收視頻方的終端(客戶端設(shè)備)中,以下以應(yīng)用于視頻服務(wù)器中來舉例說明,本實施例的方法包括以下步驟:
[0177]在步驟301中,獲取待處理的目標視頻,所述目標視頻中包含:檢測幀和跟蹤幀;
[0178]在步驟302中,對目標視頻中的所有檢測幀進行人臉檢測,獲取所有檢測幀中所包含的人臉圖像的檢測數(shù)據(jù)。
[0179]所述檢測數(shù)據(jù)包含:區(qū)分不同人臉圖像的人臉標識,具體包含:與所有檢測幀對應(yīng)的所有的人臉標識。
[0180]在步驟303中,根據(jù)所有的人臉標識,對跟蹤幀進行人臉跟蹤,確定跟蹤幀中是否包含與所有的人臉標識對應(yīng)的人臉圖像。
[0181]具體的,本實施例與上一實施例的區(qū)別在于對檢測幀的檢測順序不同,上一實施例中是按照檢測幀存在于目標視頻中的先后順序進行人臉圖像的掃描檢測;本實施例是將目標視頻進行預設(shè)的劃分,然后將定位出的檢測幀中的全部人臉圖像信息獲取到,再用全部的人臉圖像信息對跟蹤幀依次進行跟蹤操作。該方法可以從目標視頻中獲得相對多的人臉圖像,從而為后續(xù)的識別過程提供盡可能多的待識別數(shù)據(jù),有助于提高識別的精準性。
[0182]在步驟304中,從檢測幀和跟蹤幀中提取包含有人臉標識的幀,得到待識別幀圖像。
[0183]在步驟305中,基于預先得到的識別模型,對待識別幀圖像進行人臉識別,得到每幀中人臉圖像的人臉識別結(jié)果。
[0184]在步驟306中,對待識別幀圖像的所有人臉識別結(jié)果進行篩選,得到目標視頻中出現(xiàn)的人臉圖像的最終識別結(jié)果。
[0185]該實施例的其他方法步驟與上一實施例類似,其原理和實施方法請參照前述實施例,在此不再贅述。
[0186]下述為本公開裝置實施例,可以用于執(zhí)行本公開方法實施例。對于本公開裝置實施例中未披露的細節(jié),請參照本公開方法實施例。
[0187]圖4是根據(jù)一示例性實施例示出的一種視頻處理裝置的流程圖,如圖4所示,該視頻處理裝置可以通過軟件、硬件或者兩者的結(jié)合實現(xiàn)成為電子設(shè)備的部分或者全部。該視頻處理裝置可以包括:
[0188]第一獲取模塊401,用于獲取待處理的目標視頻,目標視頻中包含:檢測幀和跟蹤幀。
[0189]檢測模塊402,用于對第一獲取模塊獲取到的檢測幀進行人臉檢測。
[0190]第二獲取模塊403,用于獲取檢測模塊402檢測到的檢測幀中所包含的人臉圖像的檢測數(shù)據(jù);檢測數(shù)據(jù)包含:區(qū)分不同人臉圖像的人臉標識。
[0191]跟蹤模塊404,用于根據(jù)人臉標識,對跟蹤幀進行人臉跟蹤。
[0192]確定模塊405,用于確定跟蹤模塊404跟蹤的跟蹤幀中是否包含與人臉標識對應(yīng)的人臉圖像。
[0193]提取模塊406,用于從檢測幀和跟蹤幀中提取包含有人臉標識的幀,得到待識別幀圖像。
[0194]識別模塊407,用于基于預先得到的識別模型,對待識別幀圖像進行人臉識別,得到每幀中人臉圖像的人臉識別結(jié)果。
[0195]篩選模塊408,用于對待識別幀圖像的人臉識別結(jié)果進行篩選,得到目標視頻中出現(xiàn)的人臉圖像的最終識別結(jié)果。
[0196]本實施例中,通過檢測模塊對待處理目標視頻中的檢測幀進行人臉檢測,并由第二獲取模塊獲取檢測幀中的人臉圖像;再通過跟蹤模塊基于檢測得到的人臉信息對待處理目標視頻中的跟蹤幀進行人臉跟蹤,由確定模塊確定跟蹤幀中是否所包含的人臉信息;利用提取模塊將包含有人臉信息的檢測幀和跟蹤幀從目標視頻中提取出來,并通過識別模塊基于預先得到的識別模型,對提取出的待識別幀圖像進行人臉識別,并利用篩選模塊對識別結(jié)果進行篩選,得到最終人臉識別結(jié)果。從而實現(xiàn)了將最終人臉識別結(jié)果為用戶顯示,以提示用戶視頻中所出現(xiàn)演員的信息,該方法有效提高人臉識別效率。
[0197]圖5是根據(jù)另一示例性實施例示出的一種視頻處理裝置的流程圖,該視頻處理裝置可以通過軟件、硬件或者兩者的結(jié)合實現(xiàn)成為電子設(shè)備的部分或者全部?;谏鲜鲅b置實施例,檢測幀為對目標視頻進行預設(shè)間隔劃分后,各個劃分點所對應(yīng)的幀;跟蹤幀為目標視頻中除去檢測幀外的視頻幀。
[0198]可選的,檢測模塊402可以包括:第一檢測子模塊4021。
[0199]第一檢測子模塊4021,用于按時間先后的順序,對目標視頻中的當前檢測幀進行人臉檢測。
[0200]第二獲取模塊403可以包括:第一獲取子模塊4031。
[0201]第一獲取子模塊4031,用于獲取當前檢測幀中所包含的人臉圖像的檢測數(shù)據(jù);檢測數(shù)據(jù)包含:當前檢測幀對應(yīng)的人臉標識。
[0202]該裝置還包括:
[0203]存儲模塊409,用于將當前檢測幀對應(yīng)的人臉標識與已獲取的人臉標識進行比對,將新增加的人臉標識進行存儲,得到待跟蹤人臉標識。
[0204]相應(yīng)的,跟蹤模塊404包括:第一跟蹤子模塊4041。
[0205]第一跟蹤子模塊4041,用于根據(jù)存儲模塊409已存儲的待跟蹤人臉標識對當前檢測幀與下一個檢測幀之間的跟蹤幀進行人臉跟蹤,確定跟蹤幀中是否包含與待跟蹤人臉標識對應(yīng)的人臉圖像。
[0206]該裝置還包括:
[0207]更新模塊410,用于更新下一個檢測幀為當前檢測幀,返回第一檢測子模塊4021。
[0208]可選的,檢測模塊402包括:第二檢測子模塊4022。
[0209]第二檢測子模塊4022,用于對目標視頻中的所有檢測幀進行人臉檢測。
[0210]第二獲取模塊403包括:第二獲取子模塊4032。
[0211]第二獲取子模塊4032,用于獲取所有檢測幀中所包含的人臉圖像的檢測數(shù)據(jù);檢測數(shù)據(jù)包含:與所有檢測幀對應(yīng)的所有的人臉標識。
[0212]相應(yīng)的,跟蹤模塊404包括:第二跟蹤子模塊4042 ;
[0213]第二跟蹤子模塊4042,用于根據(jù)所有的人臉標識,對跟蹤幀進行人臉跟蹤,確定跟蹤幀中是否包含與所有的人臉標識對應(yīng)的人臉圖像。
[0214]可選的,識別模塊407采用的識別模型為深度卷積神經(jīng)網(wǎng)絡(luò)。
[0215]該裝置還包括:訓練模塊411,用于采用預設(shè)數(shù)量人臉圖像的訓練樣本對識別模塊407采用的深度卷積神經(jīng)網(wǎng)絡(luò)進行訓練,得到預先得到的識別模型。
[0216]可選的,訓練模塊411包括:
[0217]第一歸一化子模塊4111,用于對訓練樣本進行歸一化處理,得到標準尺寸的樣本數(shù)據(jù)。
[0218]計算子模塊4112,用于對標準尺寸的樣本數(shù)據(jù)進行計算,得到ZCA矩陣和均值矩陣。
[0219]預處理子模塊4113,用于基于ZCA矩陣和均值矩陣,對訓練樣本進行預處理,得到預處理后的輸入數(shù)據(jù);預處理包括:ZCA白化處理。
[0220]訓練子模塊4114,用于將輸入數(shù)據(jù)輸入深度卷積神經(jīng)網(wǎng)絡(luò)中進行訓練,得到訓練完畢的預先得到的識別模型。
[0221 ] 可選的,識別模塊407包括: