亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于子空間集成學習的步態(tài)識別算法的制作方法

文檔序號:11520250閱讀:475來源:國知局
基于子空間集成學習的步態(tài)識別算法的制造方法與工藝

本發(fā)明屬于計算機視覺領域,尤其涉及一種基于子空間集成學習的步態(tài)識別算法。



背景技術:

步態(tài)識別技術在遠距離身份識別方面具有巨大的應用的前景,步態(tài)識別的目的就是通過對人體運動的圖像序列進行分析處理,從而實現(xiàn)對個體的身份識別。一個完整的步態(tài)識別技術包括運動檢測、周期檢測、特征提取、算法識別這四個過程。其中特征提取是影響步態(tài)識別精度的關鍵因素,特征提取的好壞直接決定了最終的識別性能?,F(xiàn)有的步態(tài)識別算法受著裝、視角、負載、路況的影響較大,識別的效率不高。此外,現(xiàn)有的步態(tài)識別技術往往只專注于一個子空間,當外部環(huán)境變化時,學習一個子空間往往得到的是一個局部最優(yōu)的判別,從而影響了識別的精度。

例如,在步態(tài)識別中,我們得到的數(shù)據(jù)往往都是高維數(shù)據(jù)。主成分分析算法其核心思想是在最小均方意義下對獲取的數(shù)據(jù)去線性相關,通過較少數(shù)量的特征對原數(shù)據(jù)進行表示,從而達到降低特征維數(shù)的目的。然而,該方法選出的特征子集并不具有判別信息。線性判別分析法其主要作用是通過學習一個線性投影矩陣,使得訓練數(shù)據(jù)在經(jīng)過該投影矩陣投影后的類間離散度盡量大,同時類內(nèi)離散度盡量小。二維線性判別分析法能夠有效的保留數(shù)據(jù)的矩陣結構。然而,當訓練樣本由于著裝、視角、負載、路況而產(chǎn)生差異時,這些方法通常獲取的是局部最優(yōu)子空間而不是全局最優(yōu)子空間。為了解決這個問題,出現(xiàn)了一些子空間集成方法,這些方法通過使用隨機采樣、boosting算法、聚類技術來聯(lián)合多個局部線性子空間以達到學習復流形的目的。然而,這些方法通常會產(chǎn)生大量的局部子空間并直接將它們合成,這樣做將極大地降低效率。因此,如何提高步態(tài)識別的識別精度和識別效率成為了亟待解決的技術問題。



技術實現(xiàn)要素:

針對現(xiàn)有技術之不足,本發(fā)明提出了一種基于子空間集成學習的步態(tài)識別算法,其包括以下步驟:

s1)設計子空間集成學習框架,其包括:s1.1)輸入訓練樣本x=[x1,x2,...,xn]和三元組索引集

s1.2)初始化:在第一次迭代中,給每個訓練樣本的權重um都為1/m;

s1.3)對于每次迭代,首先基于三元組索引集τ和權重um,根據(jù)圖嵌入理論構建本征圖g和懲罰圖gp的相似矩陣,然后求出ψl的特征值并且計算出最優(yōu)投影矩陣vl,接著計算出hml并將hml帶入到約束條件當中,若hml的訓練偏差滿足約束條件,則循環(huán)繼續(xù),否則跳出循環(huán),最后根據(jù)hml的訓練偏差更新權重um;

s1.4)計算出權重矢量a,輸出權重矢量a和投影矩陣{vt|t=1,...,l};

s2)構建基于線性判別分析法(lda)、邊際fisher分析(mfa)的三元組集;

s3)將子空間集成學習框架擴展到張量子空間集成學習算法;

s4)將子空間集成學習框架擴展到基于圖像塊的局部子空間集成學習算法。

根據(jù)一個優(yōu)選實施方式,步驟s2中構建基于線性判別分析法的三元組集包括:通過類內(nèi)散度矩陣sb和類間散度矩陣sw的比值最大化來找出最大判別子空間b:

其中是第c類樣本的中心,是所有樣本的中心;將類中心m=[m1,m2,...,mc]帶入訓練器w以獲得擴展的訓練樣本w'=[m,w],基于w'得出基于線性判別分析法的三元組集:

根據(jù)一個優(yōu)選實施方式,步驟s3包括:s3.1)輸入訓練樣本和三元組索引集

s3.2)初始化:在第一次迭代中,給每個訓練樣本的權重um都為1/m;

s3.3)對于每次迭代,首先基于三元組索引集τ和權重um,根據(jù)圖嵌入理論構建本征圖g和懲罰圖gp的相似矩陣;通過迭代的算出φlk,k=1,...,n的本征值來求得投影矩陣集接著計算出hml并將hml帶入到約束條件當中,若hml的訓練偏差滿足約束條件,則循環(huán)繼續(xù),否則跳出循環(huán);最后根據(jù)hml的訓練偏差更新權重um;

s3.4)計算并輸出權重矢量a。輸出投影矩陣集{vtk|k=1,...,n;t=1,...,l}。

根據(jù)一個優(yōu)選實施方式,步驟s4包括:s4.1)輸入訓練樣本x=[x1,x2,...,xn]和三元組索引集

τ={(i,j,k)|xj比xk更加相似于xi};

s4.2)初始化:初始化um為1/m(m=|τ|是τ的基數(shù)集);提取基于圖像塊的局部特征表達式然后歸一化特征表達式

s4.3)對于每次迭代,首先基于三元組索引集τ和權重[um],根據(jù)圖嵌入理論構建本征圖gj和懲罰圖的相似矩陣,接著對每個xj,j=1,...,n',計算出投影矩陣vj,然后選出最優(yōu)塊kl,保留第l個投影矩陣vl對應于局部塊kl的投影矩陣接著計算出hml并將hml帶入到約束條件當中,若hml的訓練偏差滿足約束條件,則循環(huán)繼續(xù),否則跳出循環(huán),最后根據(jù)hml的訓練偏差更新權重um;

s4.4)計算并輸出權重矢量a,輸出局部塊以及對應的投影矩陣

本發(fā)明具有以下有益技術效果:

本發(fā)明基于子空間學習的步態(tài)識別算法,有效地提高了識別的精度。此外,本發(fā)明利用完全矯正技術來漸進地學習多個判決子空間以保留對象三元組中分類情況,從而在外部環(huán)境變化時也能夠保證識別精度。此外,將子空間集成學習框架擴展到基于張量的子空間集成學習框架,從而很好的保留了步態(tài)模板的空間信息和頻率信息。將子空間集成學習框架擴展到基于塊的局部子空間集成學習框架,可以通過迭代選出對識別最有效的局部塊,從而獲得更加準確的識別效果。

附圖說明

圖1是基于子空間集成學習算法流程圖;

圖2是張量子空間集成學習算法流程圖。

具體實施方式

下面結合附圖及公式對本發(fā)明進行詳細說明。

如圖1所示,為基于子空間集成學習算法流程圖,具體步驟如下:

(1)輸入一個二維步態(tài)模板i,將其按列重新排序成為一個向量其中d是模板i中的像素數(shù)。

(2)給出一個訓練模板集及其對應的類標簽集{ci|ci∈[1,2,...,c],i=1,...,n},其中n是樣本的數(shù)量、c表示樣本有多少類。

(3)構建樣本的三元組索引集其中m是τ的基數(shù)。

(4)子空間集成學習框架的目的就是通過學習多個子空間,使得對于任何三元組(im,jm,km),和相比,更加接近于可以在數(shù)學上將它看做一個如下所示的線性規(guī)劃問題:

at≥0,t=1,...,l

并且:

其中是一個松弛變量,d>0是一個用來懲罰松弛變量的正則參數(shù),.是,一}組子空間投影矩陣,a=[a1,...,al]t是其對應的權重向量,||·||是范數(shù)運算符,f>0是一個調(diào)諧參數(shù),

(5)為了求解方程組(1),給出方程組(1)的拉格朗日對偶問題:

其中u=[um]≥0,g≥0,q≥0。拉格朗日對偶(3)在一階導后原始變量a,ρ等于0,(1)的拉格朗日對偶問題可以寫成如下形式:

(6)利用列生成算法,學習投影矩陣vt的問題可以用以下方程來描述:

方程(5)的目標函數(shù)為:

其中tr(·)是一個蹤跡運算符。

令矩陣:

其中

(7)為了減少計算成本,利用圖嵌入理論構建了兩個有向加權圖:本征圖g={w,s},懲罰圖gp={w,sp}。分別表示圖g,gp的相似矩陣。sij,分別是s,sp中的元素,其定義如下所示:

因為g,gp是有向的,s,sp可以是不對稱矩陣。我們定義g的一個對角矩陣d、拉普拉斯矩陣l,gp的一個對角矩陣dp、拉普拉斯矩陣lp

其中所以,方程組(7)中的φt可以寫成以下矩陣形式:

(8)當維數(shù)d很高時,直接求解d×d矩陣φt的特征值是很困難的。因此,通過求解一個較小的n×n矩陣的特征值來解得第一個qt特征向量。令其中n<<d,則ψt的特征向量為:

ψtv=(lp-fl)wtwv=λv(12)

其中v是ψt的特征向量,λ是其相應的特征值。在(12)公式兩邊左乘w,有:

wψtv=w(lp-fl)wtwv

φtwv=λwv(13)

因此,φt的特征向量v'和對應的特征值λ'為:

v'=wv,λ'=λ(14)

子空間學習技術在處理高維數(shù)據(jù)方面具有十分重要的地位。現(xiàn)有的步態(tài)識別算法受著裝、視角、負載、路況的影響較大,識別的效率不高。此外,現(xiàn)有的步態(tài)識別技術往往只專注于一個子空間,當外部環(huán)境變化時,學習一個子空間往往得到的是一個局部最優(yōu)的判別,從而影響識別的精度。本發(fā)明利用利用完全矯正技術來漸進地學習多個判決子空間,不僅提高了識別精度,在外部環(huán)境變化時也能夠保證識別精度。

為了解決由于訓練樣本過多致使三元組數(shù)量過大的問題,可以采用以下三元組構建策略。

1、構建基于線性判別分析法的三元組集:

線性判別分析法通過類內(nèi)散度矩陣sb和類間散度矩陣sw的比值最大化來找出最大判別子空間b:

其中是第c類樣本的中心,是所有樣本的中心。線性判別分析法使得不同類的中心距離最大,使相同類的每個樣本和其類中心距離最小。我們將類中心m=[m1,m2,...,mc]帶入訓練器w以獲得擴展的訓練樣本w'=[m,w],基于w',得出基于線性判別分析法的三元組集:

2、構建基于邊際fisher分析的三元組集:

基于圖嵌入理論,邊際fisher分析用g,gp的相似矩陣s,sp來表示類內(nèi)緊湊性和類間分離性,其邊界準則如下:

其中表示在同一類中wi的k1個最近鄰的集合,是一組數(shù)據(jù)對,它表示在中的k2個最近的一對。我們重新定義s,sp用來保留邊際fisher分析的相似分布:

根據(jù)(20)中的s,sp,對任意的(i,j,k),i,j,k∈[1,2,...n]。若sij=1,sijp=1,則選(i,j,k)作為基于邊際fisher分析的三元組集的一個元素。

如圖2所示為張量子空間集成學習算法。用張量表示時訓練集由訓練樣本組成,對帶有不同權重分布的訓練樣本進行多線性分析從而找到一組最優(yōu)矩陣:對于張量數(shù)據(jù),將方程組(2)中變量hmt重新定義為:

其中的目標函數(shù)可以表示如下:

s.t.方程(25)(20)

其約束條件就是方程式(25)。大多數(shù)情況下對于目標函數(shù)沒有封閉形式的最優(yōu)解,可以通過迭代的解得以下目標函數(shù)來獲得的封閉形式的最優(yōu)解:

k=1,2,...,n(21)

令矩陣:

通過將子空間集成學習框架擴展到張量子空間集成學習算法,很好地保留了步態(tài)模板的空間信息和頻率信息。

為了提取出有效的局部特征,將子空間集成學習框架擴展到基于圖像塊的局部子空間集成學習算法?;趫D像塊的局部子空間集成學習算法具體如下:將步態(tài)圖模板i分成n1個不重疊的具有固定大小的圖像塊。

(1)在行或者列上對選好的圖像塊的步態(tài)特征表式重新排序,以獲得基于圖像塊的局部特征表式其中d'是每一塊中的像素數(shù),n'=n1×n2。

(2)對于每個訓練樣本xi∈x,i=1,...,n,提取出其對應的基于圖像塊的局部特征表示

(3)選出l塊找出對應的基于圖像塊的局部投影矩陣以及權重向量a=[a1,...,al]t,使得對任意的(im,jm,km)有下式成立:

其中

(4)令變量將方程(23)帶入線性規(guī)劃中進行求解。

基于圖像塊的局部子空間集成學習算法可以通過迭代選出對識別最有效的局部塊,從而獲得更加準確的識別效果。利用usfhumanid數(shù)據(jù)庫和casia步態(tài)數(shù)據(jù)庫進行測試,本發(fā)明所提出的算法和現(xiàn)有的步態(tài)識別算法相比在識別準確度上應具有較明顯的提升。

需要注意的是,上述具體實施例是示例性的,本領域技術人員可以在本發(fā)明公開內(nèi)容的啟發(fā)下想出各種解決方案,而這些解決方案也都屬于本發(fā)明的公開范圍并落入本發(fā)明的保護范圍之內(nèi)。本領域技術人員應該明白,本發(fā)明說明書及其附圖均為說明性而并非構成對權利要求的限制。本發(fā)明的保護范圍由權利要求及其等同物限定。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1