亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于動態(tài)時間規(guī)整與多核學(xué)習(xí)的動作識別方法與流程

文檔序號:12670673閱讀:376來源:國知局
一種基于動態(tài)時間規(guī)整與多核學(xué)習(xí)的動作識別方法與流程

本發(fā)明涉及動作識別領(lǐng)域,更具體地,涉及一種基于動態(tài)時間規(guī)整與多核學(xué)習(xí)的動作識別方法。



背景技術(shù):

人體的行為識別在人機(jī)交互、智能監(jiān)控、運(yùn)動分析、視頻檢索等方面有著廣泛的應(yīng)用前景。例如視頻監(jiān)控已廣泛應(yīng)用于城市公共場所,如公園、街道、商場等。各類應(yīng)用中產(chǎn)生的大量視頻數(shù)據(jù),靠傳統(tǒng)人工方式對其進(jìn)行觀察辨識幾乎是不可能的。一方面這需要大量的人力去觀察分析視頻,另一方面人的眼睛長時間盯著視頻會出現(xiàn)疲勞、視線模糊等狀況,易于造成漏報,導(dǎo)致不能及時處理一些緊急情況。比如,現(xiàn)在偵破案件大多數(shù)是靠警察事后回放視頻監(jiān)控錄像,難以實現(xiàn)實時干預(yù)。若采用基于計算機(jī)的視頻分析技術(shù),則能實時分析可疑動作,及時發(fā)出警報,從而避免案件的發(fā)生。因此,基于視頻的人體行為識別研究具有重要的現(xiàn)實意義。而在實際場景中采集到的動作視頻,因其不受控因素較多,例如背景雜亂、視角變化等,實現(xiàn)準(zhǔn)確可靠的動作識別仍是一個有挑戰(zhàn)性的工作。

目前,根據(jù)視頻數(shù)據(jù)的不同,可以將基于視頻的動作識別研究分為基于RGB視頻和基于RGB-D視頻兩大類?;赗GB-D視頻的動作識別方法,為了獲得深度圖,需要采用昂貴的深度攝像頭來采集視頻樣本。相比之下,基于RGB視頻的動作識別方法則提供了較為廉價的解決方案。因此,研究基于RGB視頻的動作識別問題在目前更具有實際意義。

基于RGB視頻的動作識別方法主要有兩大類:一類是基于深度學(xué)習(xí)的端到端模型的方法,另一類則是基于人工設(shè)計特征的傳統(tǒng)方法?;谏疃葘W(xué)習(xí)的端到端模型為了取得好的識別效果需要用大量的標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,而目前可以用于訓(xùn)練的動作視頻數(shù)據(jù)并不多。因此將深度學(xué)習(xí)的方法用在動作識別領(lǐng)域取得成功,而傳統(tǒng)方法因其訓(xùn)練高效、效果顯著等優(yōu)點(diǎn)仍被廣泛關(guān)注和使用。

詞袋模型(BoW,Bag of Words)是目前在動作識別中比較常用的一種模型。BoW模型的基本思想是將一個動作視頻表示成視覺詞匯的統(tǒng)計直方圖。與其他表示方法相比,BoW模型表示對噪聲、相機(jī)運(yùn)動更加魯棒,而且適合低分辨率的輸入。然而,雖然BoW模型中視覺詞匯的統(tǒng)計分布提供了對動作視頻的抽象和簡潔的表示,但其往往忽略了局部描述子的全局時空分布信息,而這些信息對識別動作又是相當(dāng)重要的,因此該模型并不能完全表達(dá)動作的特性。為了解決這個問題,有研究人員提出了建立動作序列時間上的對齊關(guān)系的方法。但這類方法往往僅基于序列時間上的匹配進(jìn)行動作識別,而這種匹配對噪聲比較敏感。



技術(shù)實現(xiàn)要素:

本發(fā)明為解決以上現(xiàn)有技術(shù)的難題,提供了一種動作識別方法,該方法通過增廣特征多核學(xué)習(xí)實現(xiàn)了動作平均模板表示和BoW表示的結(jié)合,提高了動作識別的準(zhǔn)確性。

為實現(xiàn)以上發(fā)明目的,采用的技術(shù)方案是:

一種基于動態(tài)時間規(guī)整與多核學(xué)習(xí)的動作識別方法,包括以下步驟:

一、建立BoW表示

S11.記動作類別總數(shù)為C,令第j類動作的訓(xùn)練動作樣本集為j=1,2,..,C,其中表示第j類動作的第i個訓(xùn)練動作樣本,i=1,2,..,Nj,Nj表示第j類動作的訓(xùn)練動作樣本數(shù);定義包含C類訓(xùn)練動作樣本的集合其中為訓(xùn)練動作樣本總數(shù);

S12.對訓(xùn)練動作樣本Ti的每幀圖像提取底層描述子,基于提取的底層描述子建立起訓(xùn)練動作樣本Ti的自相似矩陣SSM,然后基于自相似矩陣對每幀圖像進(jìn)行Z個不同時間尺度的SSM描述子提??;訓(xùn)練動作樣本Ti各幀圖像提取的SSM描述子按照各幀順序形成描述子序列其中Qi表示訓(xùn)練動作樣本Ti的幀數(shù)目,表示第k幀的Z個SSM描述子;

S13.對各個訓(xùn)練動作樣本進(jìn)行步驟S12的操作;

S14.從所有訓(xùn)練動作樣本的Z個時間尺度下的描述子中隨機(jī)選取e個SSM描述子,然后利用k-means算法將其聚類成p個簇,p<<e,得到包含有p個詞匯的碼本;

S15.計算訓(xùn)練動作樣本Ti中各個SSM描述子與碼本各個詞匯之間的距離,然后將訓(xùn)練動作樣本Ti中的各個SSM描述子分別與距離最接近的詞匯關(guān)聯(lián)起來,即利用碼本對SSM描述子進(jìn)行量化,碼本各個詞匯關(guān)聯(lián)的SSM描述子的數(shù)量形成一個直方圖表示,即為訓(xùn)練動作樣本Ti的BoW表示;

S16.對各個訓(xùn)練動作樣本進(jìn)行步驟S15的操作獲取各個訓(xùn)練動作樣本的BoW表示;

二、建立動作平均模板表示

S21.初始化j的值為1;

S22.為第j類動作構(gòu)建一個初始的空的平均模板初始化i的值為1;

S23.若i=1,令其中為訓(xùn)練動作樣本的SSM描述子序列,跳到步驟S26;否則,利用動態(tài)時間規(guī)整方法計算平均模板與描述子序列的累加距離:

其中ck=(ik,jk)表示第k對幀,表示平均模板中的第ik幀與描述子序列中的第jk幀對齊,d(ck)表示第k對幀的SSM描述子的歐式距離,ω(ck)表示加權(quán)系數(shù)且ω(ck)=ik-ik-1+jk-jk-1

S24.基于公式(1),由最后一對對齊幀回溯至最早一對對齊幀,獲得最優(yōu)路徑p={c′l},其中c′l=(i′l,j′l),表示平均模板中的第i′l幀與描述子序列中的第j′l幀對齊,對應(yīng)的描述子映射集為

S25.利用平均模板描述子序列計算新的平均模板

其中,表示新的平均模板的第l幀的描述子,表示平均模板第i′l幀的描述子,表示描述子序列第j′l幀的描述子,L表示最優(yōu)路徑上對齊幀的數(shù)目,β=1/i;

S26.令i=i+1然后執(zhí)行步驟S23~S25,直至i>Nj,得到第j類動作的最終的平均模板Rj

S27.令j=j(luò)+1然后執(zhí)行步驟S22~S26,直至j>C;

S28.通過步驟S21~S27的計算,獲得C個平均模板組成的平均模板集合R={R1,R2...,RC},其中Rj表示第j類動作的最終的平均模板;

S29.對平均模板和訓(xùn)練動作樣本進(jìn)行量化:

S291.從所有訓(xùn)練動作樣本的描述子中隨機(jī)選取e′個SSM描述子,然后利用k-means算法將其聚類成p′個簇,p′=e′,得到包含有p′個詞匯的碼本;

S292.分別計算訓(xùn)練動作樣本Ti的描述子序列中每幀的SSM描述子與步驟S291中獲得的碼本的各個詞匯之間的距離,將每幀的SSM描述子分別與距離最接近的詞匯關(guān)聯(lián)起來,得到訓(xùn)練動作樣本Ti量化的描述子序列;

S293.對各個訓(xùn)練動作樣本進(jìn)行步驟S292的操作;通過步驟S292中同樣的方式對各個平均模板進(jìn)行量化,可得到各個平均模板量化的描述子序列;

S210.對訓(xùn)練動作樣本Ti的量化描述子序列利用動態(tài)時間規(guī)整方法計算其與各個平均模板的量化描述子序列的平均距離,訓(xùn)練動作樣本Ti的量化描述子序列到各個平均模板的量化描述子序列的平均距離構(gòu)成一個C維向量,該C維向量為訓(xùn)練動作樣本Ti的平均模板表示;對動作樣本集合T中各訓(xùn)練動作樣本進(jìn)行同樣操作獲取各訓(xùn)練動作樣本的平均模板表示;

S211.為Z個不同時間尺度分別建立平均模板表示,具體地,針對每一個時間尺度,在步驟S21~S210中利用該時間尺度的描述子進(jìn)行該時間尺度下的動作平均模板的構(gòu)建、碼本的構(gòu)建以及平均模板表示的構(gòu)建;將某個訓(xùn)練動作樣本在Z個時間尺度下分別獲得的平均模板表示拼接成一個向量,作為該訓(xùn)練動作樣本最終的平均模板表示;

三、結(jié)合BoW表示和平均模板表示的動作表示

S31.利用增廣特征多核學(xué)習(xí)(AFMKL)結(jié)合BoW表示和平均模板表示,增廣特征多核學(xué)習(xí)的決策函數(shù)如下:

其中x表示BoW表示,x′表示平均模板表示,ω和β表示學(xué)習(xí)權(quán)重,表示對BoW表示的非線性映射函數(shù),φ表示對平均模板表示的非線性映射函數(shù),b為偏置項,d1和d2為對BoW表示、平均模板表示進(jìn)行加權(quán)的系數(shù);

S32.通過最小化結(jié)構(gòu)風(fēng)險函數(shù),建立以下的最優(yōu)化問題:

dm≥0,m=1,2.

其中

s.t.表示服從后面的約束,d=[d1,d2]T表示加權(quán)系數(shù)向量,表示二次正則化項,xi表示第i個訓(xùn)練動作樣本的BoW表示,x′i表示第i個訓(xùn)練動作樣本的平均模板表示,yi∈{+1,-1}表示第i個訓(xùn)練動作樣本的正負(fù)標(biāo)簽,ξ=(ξ12,...,ξN)T表示松弛變量向量,ξi表示第i個訓(xùn)練動作樣本的松弛變量,λ表示懲罰參數(shù),N為訓(xùn)練動作樣本的數(shù)目;

S33.為式(3)中每個不等式約束引入拉格朗日乘子αi,并記α=(α12,...,αN)T為對偶變量,將式(3)中的優(yōu)化問題轉(zhuǎn)換為其對偶形式:

0≤αi≤λ,i=1,...,N.

其中,αi和αj分別表示對第i個訓(xùn)練動作樣本、第j個訓(xùn)練動作樣本構(gòu)成的不等式約束所引入的拉格朗日乘子;為核函數(shù);

S34.對公式(2)在訓(xùn)練動作樣本集上進(jìn)行優(yōu)化求解:

S341.固定加權(quán)系數(shù)d,(4)中的對偶問題轉(zhuǎn)換成關(guān)于對偶變量α的優(yōu)化問題,此時利用標(biāo)準(zhǔn)的SVM的求解方法對對偶變量α進(jìn)行求解;

S342.固定對偶變量α,利用梯度下降的方法對加權(quán)向量d進(jìn)行求解;

S343.迭代地進(jìn)行S341和S342,直至式(2)收斂或達(dá)到最大迭代數(shù)。

S35.利用步驟S34確定加權(quán)系數(shù)d和對偶變量α后,得到最終的決策函數(shù):

四、對測試動作樣本進(jìn)行動作識別

S41.利用第一部分的內(nèi)容求取測試動作樣本的BoW表示;

S42.利用第二部分的內(nèi)容求取測試動作樣本的平均模板表示;

S43.將測試動作樣本的BoW表示、平均模板表示輸入至最終的決策函數(shù)中,決策函數(shù)輸出分類結(jié)果。

優(yōu)選地,所述求取訓(xùn)練動作樣本/測試動作樣本與平均模板之間的平均距離的具體過程如下:

其中Dmin表示用動態(tài)時間規(guī)整方法求取的訓(xùn)練動作樣本/測試動作樣本與平均模板之間的最短距離,ω(c′l)表示最優(yōu)路徑上幀對c′l的加權(quán)系數(shù)。

與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果是:

本發(fā)明提供的方法主要的改進(jìn)點(diǎn)在于:1)基于動態(tài)時間規(guī)整方法創(chuàng)建了動作平均模板,這一模板包含了BoW模型表示中忽略掉的動作序列的時間信息;2)通過增廣特征多核學(xué)習(xí)的方法對動作平均模板表示和BoW表示進(jìn)行結(jié)合,并通過引入學(xué)習(xí)權(quán)重調(diào)整兩者的貢獻(xiàn)度;通過以上兩點(diǎn)改進(jìn),提高動作識別的準(zhǔn)確率。

附圖說明

圖1為動作識別方法的流程圖。

圖2為構(gòu)建決策函數(shù)的示意圖。

圖3為決策函數(shù)對測試樣本進(jìn)行識別的示意圖。

圖4為提取SSM描述子的示意圖。

圖5為構(gòu)建動作平均模板的示意圖。

具體實施方式

附圖僅用于示例性說明,不能理解為對本專利的限制;

以下結(jié)合附圖和實施例對本發(fā)明做進(jìn)一步的闡述。

實施例1

如圖1~4所示,本發(fā)明提供的基于動態(tài)時間規(guī)整與多核學(xué)習(xí)的動作識別方法,包括以下步驟:

一、建立BoW表示

S11.記動作類別總數(shù)為C,令第j類動作的訓(xùn)練動作樣本集為j=1,2,..,C,其中表示第j類動作的第i個訓(xùn)練動作樣本,i=1,2,..,Nj,Nj表示第j類動作的訓(xùn)練動作樣本數(shù);定義包含C類訓(xùn)練動作樣本的集合其中為訓(xùn)練動作樣本總數(shù);

S12.考慮到不同動作樣本中,動作執(zhí)行的時間長度不同和執(zhí)行速度的不規(guī)則變化,本發(fā)明中采用了多個時間尺度的SSM描述子;具體地,對訓(xùn)練動作樣本Ti的每幀圖像提取底層描述子,基于提取的底層描述子建立起訓(xùn)練動作樣本Ti的自相似矩陣SSM,然后基于自相似矩陣對每幀圖像進(jìn)行Z個不同時間尺度的SSM描述子提取;訓(xùn)練動作樣本Ti各幀圖像提取的SSM描述子按照各幀順序形成描述子序列其中Qi表示訓(xùn)練動作樣本Ti的幀數(shù)目,表示第k幀的Z個SSM描述子;

S13.對各個訓(xùn)練動作樣本進(jìn)行步驟S12的操作;

S14.從所有訓(xùn)練動作樣本的Z個時間尺度下的描述子中隨機(jī)選取e個SSM描述子,然后利用k-means算法將其聚類成p個簇,p<<e,得到包含有p個詞匯的碼本;

S15.計算訓(xùn)練動作樣本Ti中各個SSM描述子與碼本各個詞匯之間的距離,然后將訓(xùn)練動作樣本Ti中的各個SSM描述子分別與距離最接近的詞匯關(guān)聯(lián)起來,碼本各個詞匯關(guān)聯(lián)的SSM描述子的數(shù)量形成一個直方圖表示,即為訓(xùn)練動作樣本Ti的BoW表示;

S16.對各個訓(xùn)練動作樣本進(jìn)行步驟S15的操作獲取各個訓(xùn)練動作樣本的BoW表示;

二、建立動作平均模板表示

S21.初始化j的值為1;

S22.為第j類動作構(gòu)建一個初始的空的平均模板初始化i的值為1;

S23.若i=1,令其中為訓(xùn)練動作樣本的SSM描述子序列,跳到步驟S26;否則,利用動態(tài)時間規(guī)整方法計算平均模板與描述子序列的累加距離:

其中ck=(ik,jk)表示第k對幀,表示平均模板中的第ik幀與描述子序列中的第jk幀對齊,d(ck)表示第k對幀的SSM描述子的歐式距離,ω(ck)表示加權(quán)系數(shù)且ω(ck)=ik-ik-1+jk-jk-1;

S24.基于公式(1),由最后一對對齊幀回溯至最早一對對齊幀,獲得最優(yōu)路徑p={c′l},其中c′l=(i′l,j′l),表示平均模板中的第i′l幀與描述子序列中的第jl′幀對齊,對應(yīng)的描述子映射集為

S25.利用平均模板描述子序列計算新的平均模板

其中,表示新的平均模板的第l幀的描述子,表示平均模板第i′l幀的描述子,表示描述子序列第j′l幀的描述子,L表示最優(yōu)路徑上對齊幀的數(shù)目,β=1/i;

S26.令i=i+1然后執(zhí)行步驟S23~S25,直至i>Nj,得到第j類動作的最終的平均模板Rj;

S27.令j=j(luò)+1然后執(zhí)行步驟S22~S26,直至j>C;

S28.通過步驟S21~S27的計算,獲得C個平均模板組成的平均模板集合R={R1,R2...,RC},其中Rj表示第j類動作的最終的平均模板;

為了提高魯棒性,獲得的最終的平均模板并不直接用于構(gòu)建平均模板表示,而是先將其與對應(yīng)類別的訓(xùn)練動作樣本的描述子進(jìn)行關(guān)聯(lián)結(jié)合。具體地,對于第j類動作,利用動態(tài)時間規(guī)整方法分別獲取該類動作的訓(xùn)練動作樣本集Tj中每個訓(xùn)練動作樣本的描述子序列與該類動作的平均模板Rj的幀對齊關(guān)系,將與平均模板Rj同一幀對齊的訓(xùn)練動作樣本的描述子集合在一起,并與平均模板Rj的對應(yīng)幀相關(guān)聯(lián)。則在后續(xù)步驟中構(gòu)建某個動作樣本的平均模板表示時,動作樣本第f幀的描述子與平均模板Rj第g幀的描述子距離定義為:動作樣本第f幀的描述子與平均模板Rj第g幀所關(guān)聯(lián)的訓(xùn)練動作樣本的描述子集合里所有描述子的距離中的最小值。

S29.為減少后續(xù)步驟中構(gòu)建動作樣本平均模板表示時的距離計算的計算量,對平均模板和動作樣本進(jìn)行量化:

S291.從所有訓(xùn)練動作樣本的描述子中隨機(jī)選取e′個SSM描述子,然后利用k-means算法將其聚類成p′個簇,p′=e′,得到包含有p′個詞匯的碼本;

S292.分別計算訓(xùn)練動作樣本Ti的描述子序列中每幀的SSM描述子與步驟S291中獲得的碼本的各個詞匯之間的距離,將每幀的SSM描述子分別與距離最接近的詞匯關(guān)聯(lián)起來,得到訓(xùn)練動作樣本Ti量化的描述子序列;

S293.對各個訓(xùn)練動作樣本進(jìn)行步驟S292的操作;通過步驟S292中同樣的方式對各個平均模板進(jìn)行量化,可得到各個平均模板量化的描述子序列;

S210.對訓(xùn)練動作樣本Ti的量化描述子序列,利用動態(tài)時間規(guī)整方法計算其與各個平均模板的量化描述子序列的平均距離,訓(xùn)練動作樣本Ti的量化描述子序列到各個平均模板的量化描述子序列的平均距離構(gòu)成一個C維向量,該C維向量為訓(xùn)練動作樣本Ti的平均模板表示;對動作樣本集合T中各訓(xùn)練動作樣本進(jìn)行同樣操作獲取各訓(xùn)練動作樣本的平均模板表示;

S211.為Z個不同時間尺度分別建立平均模板表示,具體地,針對每一個時間尺度,在步驟S21~S210中利用該時間尺度的描述子進(jìn)行該時間尺度下的動作平均模板的構(gòu)建、碼本的構(gòu)建以及平均模板表示的構(gòu)建;將某個訓(xùn)練動作樣本在Z個時間尺度下分別獲得的平均模板表示拼接成一個向量,作為該訓(xùn)練動作樣本最終的平均模板表示;

三、結(jié)合BoW表示和平均模板表示的動作表示

S31.利用增廣特征多核學(xué)習(xí)(AFMKL)結(jié)合BoW表示和平均模板表示,增廣特征多核學(xué)習(xí)的決策函數(shù)如下:

其中x表示BoW表示,x′表示平均模板表示,ω和β表示學(xué)習(xí)權(quán)重,表示對BoW表示的非線性映射函數(shù),φ表示對平均模板表示的非線性映射函數(shù),b為偏置項,d1和d2為對BoW表示、平均模板表示進(jìn)行加權(quán)的系數(shù);

S32.通過最小化結(jié)構(gòu)風(fēng)險函數(shù),建立以下的最優(yōu)化問題:

dm≥0,m=1,2.

其中

s.t.表示服從后面的約束,d=[d1,d2]T表示加權(quán)系數(shù)向量,表示二次正則化項,xi表示第i個訓(xùn)練動作樣本的BoW表示,x′i表示第i個訓(xùn)練動作樣本的平均模板表示,yi∈{+1,-1}表示第i個訓(xùn)練動作樣本的正負(fù)標(biāo)簽,ξ=(ξ12,...,ξN)T表示松弛變量向量,ξi表示第i個訓(xùn)練動作樣本的松弛變量,λ表示懲罰參數(shù),N為訓(xùn)練動作樣本的數(shù)目;

S33.為式(3)中每個不等式約束引入拉格朗日乘子αi,并記α=(α12,...,αN)T為對偶變量,將式(3)中的優(yōu)化問題轉(zhuǎn)換為其對偶形式:

0≤αi≤λ,i=1,...,N.

其中,αi和αj分別表示對第i個訓(xùn)練動作樣本、第j個訓(xùn)練動作樣本構(gòu)成的不等式約束所引入的拉格朗日乘子;為核函數(shù);

S34.對公式(2)在訓(xùn)練動作樣本集上進(jìn)行優(yōu)化求解:

S341.固定加權(quán)系數(shù)d,(4)中的對偶問題轉(zhuǎn)換成關(guān)于對偶變量α的優(yōu)化問題,此時利用標(biāo)準(zhǔn)的SVM的求解方法對對偶變量α進(jìn)行求解;

S342.固定對偶變量α,利用梯度下降的方法對加權(quán)向量d進(jìn)行求解;

S343.迭代地進(jìn)行S341和S342,直至式(2)收斂或達(dá)到最大迭代數(shù)。

S35.利用步驟S34確定加權(quán)系數(shù)d和對偶變量α后,得到最終的決策函數(shù):

四、對測試動作樣本進(jìn)行動作識別

S41.利用第一部分的內(nèi)容求取測試動作樣本的BoW表示;

S42.利用第二部分的內(nèi)容求取測試動作樣本的平均模板表示;

S43.將測試動作樣本的BoW表示、平均模板表示輸入至最終的決策函數(shù)中,決策函數(shù)輸出分類結(jié)果。

本發(fā)明在IXMAX數(shù)據(jù)庫上進(jìn)行實驗。IXMAS數(shù)據(jù)集是一個多視角動作數(shù)據(jù)集。它包含11個日常動作類別,每類動作由12個人執(zhí)行3次并同時從5個不同的視角錄制視頻,共有1980個動作樣本。

首先,進(jìn)行實驗驗證動作平均模板表示的性能。動作平均模板表示(記為AAT)和BoW表示(記為BoW)的對比實驗結(jié)果如表1所示,分類器采用了SVM。表中行為訓(xùn)練視角,列為測試視角。如結(jié)果所示,AAT在25對視角對上的平均動作識別準(zhǔn)確率為74.6%,明顯優(yōu)于BoW的平均準(zhǔn)確率73.3%,說明了基于動態(tài)時間規(guī)整的動作平均模板表示的有效性。

表1動作平均模板表示與BoW表示的對比實驗結(jié)果

進(jìn)一步進(jìn)行實驗驗證結(jié)合動作平均模板表示與BoW表示的性能。為了說明本發(fā)明提出的增廣特征多核學(xué)習(xí)(AFMKL)的有效性,實驗中探討了一種已有的結(jié)合方式:增廣特征SVM(AFSVM),并將實驗結(jié)果與AFMKL進(jìn)行對比。直觀上看,AFSVM可以利用動作平均模板和動作序列之間的相似性和區(qū)分性。其判決函數(shù)為

與公式(2)比較可得,AFSVM與AFMKL的判決函數(shù)的區(qū)別是:AFSVM沒有學(xué)習(xí)權(quán)重去對兩種表示進(jìn)行加權(quán)。實驗結(jié)果如表2所示。AFMKL的平均準(zhǔn)確率是77.6%,比AFSVM的平均準(zhǔn)確率76.2%高了1.4%。而無論是利用AFMKL還是AFSVM進(jìn)行表示結(jié)合,其平均準(zhǔn)確率都比僅用動作平均模板表示(74.6%)或者僅用BoW表示(73.3%)要高,說明了兩者存在互補(bǔ)的作用,結(jié)合兩種表示比單獨(dú)使用某種表示能取得更好的效果,驗證了本發(fā)明所提出的方法的有效性。

表2 AFMKL和AFSVM的對比實驗結(jié)果

顯然,本發(fā)明的上述實施例僅僅是為清楚地說明本發(fā)明所作的舉例,而并非是對本發(fā)明的實施方式的限定。對于所屬領(lǐng)域的普通技術(shù)人員來說,在上述說明的基礎(chǔ)上還可以做出其它不同形式的變化或變動。這里無需也無法對所有的實施方式予以窮舉。凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明權(quán)利要求的保護(hù)范圍之內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1