本發(fā)明屬于圖像處理及圖像分類的
技術(shù)領(lǐng)域:
,具體地涉及一種基于稀疏表示字典學(xué)習(xí)的圖像分類方法。
背景技術(shù):
:在過(guò)去幾年里,稀疏表示已在人臉識(shí)別,圖像分類,以及人類動(dòng)作識(shí)別等眾多應(yīng)用方面取得了巨大成功。稀疏表示的核心思想是大多數(shù)自然信號(hào)可以用一個(gè)超完備辭典中少量原子來(lái)表示。為解決在實(shí)際應(yīng)用中遇到的問(wèn)題,研究人員陸續(xù)提出了許多字典學(xué)習(xí)方法。其中,一個(gè)簡(jiǎn)單而直接的方法是使用訓(xùn)練樣本自身作為字典原子,如稀疏表示分類(SRC)方法。這種自表示方法的成功是建立在子空間理論的基礎(chǔ)上的。子空間理論假定大量樣本信號(hào)可以構(gòu)成一個(gè)線性子空間,并且由子空間衍生的樣本可被同一子空間的其他樣本來(lái)近似表示。盡管這種自表達(dá)方法在識(shí)別問(wèn)題中表現(xiàn)出良好的特性,但是它對(duì)噪聲和離群點(diǎn)十分敏感,在應(yīng)用中能否成功常依賴于訓(xùn)練樣本的質(zhì)量。因此,學(xué)者們采用字典學(xué)習(xí)方法構(gòu)建字典原子,用以代替訓(xùn)練樣本自身。這類優(yōu)化學(xué)習(xí)算法包括經(jīng)典的MOD和K-SVD算法。在此基礎(chǔ)上,Yang等提出的基于SRC的MFL人臉識(shí)別方法。傳統(tǒng)字典學(xué)習(xí)方法(如MOD和K-SVD)通常是無(wú)監(jiān)督的,在字典學(xué)習(xí)過(guò)程中沒(méi)有引入數(shù)據(jù)的類別特性,而這種類別特性能夠增強(qiáng)字典在識(shí)別問(wèn)題中的判別能力。因此,學(xué)者們開(kāi)始研究有監(jiān)督的字典學(xué)習(xí)方法,通過(guò)結(jié)合訓(xùn)練數(shù)據(jù)的類別信息,即同類數(shù)據(jù)的一致性以及異類數(shù)據(jù)的差異性,訓(xùn)練學(xué)習(xí)得到字典,用以提高字典的分類和識(shí)別性能。例如,Zhang等提出了一種判別的K-SVD字典學(xué)習(xí)方法(D-KSVD)。為了提高稀疏表示模型的判別能力,除了訓(xùn)練樣本的標(biāo)簽信息,學(xué)者們對(duì)稀疏系數(shù)矩陣的結(jié)構(gòu)、不同類子字典之間不一致以及同類字典內(nèi)的一致性等性質(zhì)進(jìn)行了探索和研究。針對(duì)稀疏系數(shù)矩陣的結(jié)構(gòu)屬性,Jiang等提出LC-KSVD算法。在此算法中,作者使系數(shù)矩陣逼近0-1塊對(duì)角矩陣以表達(dá)樣本的標(biāo)簽屬性。Yang等將Fisher判別約束加入到字典學(xué)習(xí)模型中,提出了FDDL算法,用以降低樣本系數(shù)的類內(nèi)離散度并提高其類間離散度。針對(duì)不同類子字典之間不一致以及同類字典內(nèi)的一致性,Ramirez等提出的DLSI方法。在此算法中,作者利用不一致約束減少子字典之間的相關(guān)性。此外,Kong等提出了DL-COPAR算法,該方法通過(guò)訓(xùn)練學(xué)習(xí)得到一個(gè)共性字典以及一組個(gè)性字典(即各類相應(yīng)的子字典)。在這種方法中,共性字典可以用來(lái)提取樣本之間的共性信息,個(gè)性字典可以用來(lái)提取各類樣本的個(gè)性信息。Sun等提出DGSDL算法,在該方法中作者給予樣本在共性字典和個(gè)性字典上的投影系數(shù)不同的權(quán)值參數(shù),從而降低了樣本中共性信息對(duì)分類效果的干擾。與此同時(shí),來(lái)自同一類別的樣本之間有著高度的相關(guān)性,因此同類樣本的稀疏表示系數(shù)之間也存在著高度相關(guān)性。這種特性也能夠提高稀疏表示的識(shí)別能力。學(xué)者們通常采用低秩約束來(lái)表達(dá)這種內(nèi)部相關(guān)性。Zhang等提出了一種聯(lián)合低秩和稀疏表示的圖像識(shí)別算法。Li等提出了一種半監(jiān)督并結(jié)合低秩和塊稀疏結(jié)構(gòu)的字典學(xué)習(xí)方法LR-CBDS。這些研究工作表明,低秩約束表示可以有效表達(dá)同類樣本的類內(nèi)一致性,同時(shí)能夠降低樣本中噪聲對(duì)模型的影響,提高分類效果。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的技術(shù)解決問(wèn)題是:克服現(xiàn)有技術(shù)的不足,提供一種基于稀疏表示字典學(xué)習(xí)的圖像分類方法,其可以消除不同類字典之間的相關(guān)性從而提高其判別性能,提高字典的表示能力以及字典學(xué)習(xí)模型的魯棒性。本發(fā)明的技術(shù)解決方案是:這種基于稀疏表示字典學(xué)習(xí)的圖像分類方法,該方法采用基于塊對(duì)角稀疏表示字典學(xué)習(xí)算法模型,s.t.X=diag(X11,X22,…,Xnn).(1)其中||X||1表示矩陣稀疏約束,||Xii||*表示矩陣低秩約束,表示矩陣正則項(xiàng),表示訓(xùn)練樣本,第i個(gè)子塊矩陣Yi表示第i類訓(xùn)練樣本,第j列向量yj表示第j個(gè)訓(xùn)練樣本,YW表示基于訓(xùn)練樣本的線性組合字典,表示字典組合系數(shù),X表示訓(xùn)練樣本Y在字典YW上的稀疏表示系數(shù),Xii表示第i類訓(xùn)練樣本在第i類子字典上的稀疏表示系數(shù),m表示樣本維度,N表示樣本數(shù)量,K=K1+K2+...+KC表示字典原子個(gè)數(shù),Ki表示第i類子字典的原子個(gè)數(shù)。本發(fā)明針對(duì)圖像分類識(shí)別問(wèn)題提出了一個(gè)全新的基于塊對(duì)角稀疏表示的字典學(xué)習(xí)模型,其可以消除不同類字典之間的相關(guān)性從而提高其判別性能,提高字典的表示能力以及字典學(xué)習(xí)模型的魯棒性。附圖說(shuō)明圖1是在ExtendedYaleB人臉庫(kù)的不同子字典原子個(gè)數(shù)的識(shí)別對(duì)比結(jié)果。圖2是在AR人臉庫(kù)的不同子字典原子個(gè)數(shù)的識(shí)別對(duì)比結(jié)果。圖3是在KTH-TIPS靜態(tài)紋理庫(kù)的不同子字典原子個(gè)數(shù)的識(shí)別對(duì)比結(jié)果。圖4是在DynTex++動(dòng)態(tài)紋理庫(kù)的不同子字典原子個(gè)數(shù)的識(shí)別對(duì)比結(jié)果。圖5是在15-Scene場(chǎng)景數(shù)據(jù)庫(kù)的不同子字典原子個(gè)數(shù)的識(shí)別對(duì)比結(jié)果。圖6是在OxfordFlowers17數(shù)據(jù)庫(kù)的不同子字典原子個(gè)數(shù)的識(shí)別對(duì)比結(jié)果。具體實(shí)施方式這種基于稀疏表示字典學(xué)習(xí)的圖像分類方法,該方法采用基于塊對(duì)角稀疏表示字典學(xué)習(xí)算法模型,s.t.X=diag(X11,X22,...,Xnn).(1)其中||X||1表示矩陣稀疏約束,||Xii||*表示矩陣低秩約束,表示矩陣正則項(xiàng),表示訓(xùn)練樣本,第i個(gè)子塊矩陣Yi表示第i類訓(xùn)練樣本,第j列向量yj表示第j個(gè)訓(xùn)練樣本,YW表示基于訓(xùn)練樣本的線性組合字典,表示字典組合系數(shù),X表示訓(xùn)練樣本Y在字典YW上的稀疏表示系數(shù),Xii表示第i類訓(xùn)練樣本在第i類子字典上的稀疏表示系數(shù),m表示樣本維度,N表示樣本數(shù)量,K=K1+K2+...+KC表示字典原子個(gè)數(shù),Ki表示第i類子字典的原子個(gè)數(shù)。本發(fā)明針對(duì)圖像分類識(shí)別問(wèn)題提出了一個(gè)全新的基于塊對(duì)角稀疏表示的字典學(xué)習(xí)模型,其可以消除不同類字典之間的相關(guān)性從而提高其判別性能,提高字典的表示能力以及字典學(xué)習(xí)模型的魯棒性。優(yōu)選地,采用分離變量以及交替迭代ADMM算法對(duì)模型進(jìn)行分解,再根據(jù)閾值法對(duì)l1范數(shù)和核范數(shù)進(jìn)行求解。優(yōu)選地,分離變量為:首先引入變量序列使得Zii=Xii,則原模型可轉(zhuǎn)變?yōu)椋簊.t.Zii=Xii,i=1,...,CX=diag(X11,X22,...,XCC),再利用增廣Lagrange法將上述模型變成無(wú)約束模型:其中Fii表示Lagrange乘子,γ表示懲罰系數(shù),<A,B>=trace(ATB)。優(yōu)選地,利用交替迭代求解方法直接求解,包括:(1)固定W和Xii求解Zii其中U∑VT表示的奇異值分解形式(SVD),表示閾值分割函數(shù),(2)固定W和Zii求解Xii首先定義hi(·)函數(shù)如下:求解Xii如下:其中表示hi(·)函數(shù)關(guān)于Xii的一階偏導(dǎo),為:同時(shí)則Xii的解析形式為:(3)固定Xii和Zii求解W當(dāng)固定Xii和Zii時(shí),關(guān)于W的求解問(wèn)題可轉(zhuǎn)換為:令再逐列進(jìn)行求解:其中表示Xt+1的第k行,表示的第k列,Ek定義如下:求解(4)更新Lagrange乘子Fii和懲罰參數(shù)γ6、其中ρ=1.1,γmax=1010關(guān)于此模型的收斂條件定義如下:以下對(duì)本發(fā)明進(jìn)行更詳細(xì)的說(shuō)明。傳統(tǒng)的基于稀疏表示字典學(xué)習(xí)的圖像分類算法是對(duì)每一類樣本訓(xùn)練一個(gè)子字典,其訓(xùn)練模型如下所示:s.t.||dj||2=1.其中Yi表示第i類訓(xùn)練樣本,Di表示第i類子字典,Xi表示稀疏系數(shù),dj表示字典D中的第j個(gè)原子。再將測(cè)試樣本在每一類子字典上進(jìn)行稀疏編碼,最后根據(jù)重建誤差進(jìn)行分類。如下所示:其中表示重構(gòu)誤差。這種字典學(xué)習(xí)方法沒(méi)有考慮樣本集本身自帶的標(biāo)簽信息,會(huì)導(dǎo)致各個(gè)子字典之間存在交叉信息,從而降低識(shí)別結(jié)果。針對(duì)這個(gè)問(wèn)題,本發(fā)明結(jié)合樣本類別標(biāo)簽信息,提出一種基于塊對(duì)角稀疏表示字典學(xué)習(xí)的圖像分類算法。在該算法中,致力于學(xué)習(xí)得到一個(gè)具有判別能力的整體字典。此字典由各個(gè)子字典Di(i=1,2,...,C)組合而成,如下所示:D=[D1,D2,...,DC]其中C表示類別數(shù)。則訓(xùn)練樣本Y=[Y1,Y2,...,YC]在字典D上的稀疏系數(shù)矩陣可以分解為如下表示:其中每個(gè)子塊Xij表示第i類訓(xùn)練樣本在第j類字典上的稀疏投影系數(shù)。如果每個(gè)子字典之間具有高度獨(dú)立性,即各個(gè)子字典之間不存在交叉信息,那么訓(xùn)練樣本在此整體字典上的投影系數(shù)矩陣會(huì)形成一個(gè)嚴(yán)格的塊對(duì)角稀疏矩陣,如下所示:可以對(duì)系數(shù)矩陣加入這種基于訓(xùn)練樣本標(biāo)簽信息的塊對(duì)角稀疏約束來(lái)訓(xùn)練字典,使得各個(gè)子字典具有高度的獨(dú)立性。此外,由于在字典學(xué)習(xí)過(guò)程中,訓(xùn)練樣本的個(gè)數(shù)要遠(yuǎn)遠(yuǎn)大于總體類別的個(gè)數(shù),即在訓(xùn)練樣本之間存在高度的相關(guān)性,其對(duì)應(yīng)的稀疏系數(shù)矩陣也應(yīng)該具有高度相關(guān)性。從數(shù)學(xué)上可以將這種性質(zhì)理解為低秩矩陣,因此可以在字典學(xué)習(xí)模型中加入低秩矩陣的約束來(lái)表達(dá)這種高度相關(guān)性,即對(duì)稀疏表示系數(shù)矩陣加以核范數(shù)||·||*的約束。最后,在傳統(tǒng)的基于稀疏表示字典學(xué)習(xí)的圖像分類算法中,訓(xùn)練樣本的維度往往遠(yuǎn)大于訓(xùn)練樣本以及字典原子的個(gè)數(shù),而這種高維變量求解過(guò)程往往會(huì)增加計(jì)算復(fù)雜度,同時(shí)會(huì)帶入計(jì)算誤差以及隨機(jī)噪聲。因此引入線性組合字典的形式,即將原始字典D分解成訓(xùn)練樣本線性組合的形式,如下所示:D=Y(jié)W,Y∈Rm×N,W∈RN×K.其中m表示樣本維度,N表示訓(xùn)練樣本個(gè)數(shù),K表示字典原子個(gè)數(shù),則字典D的訓(xùn)練求解可以轉(zhuǎn)化為對(duì)線性組合矩陣W的求解。根據(jù)Nguyen等人的證明,YW是字典D的一個(gè)優(yōu)化解。這樣可以降低計(jì)算復(fù)雜度,同時(shí)減少隨之帶來(lái)的計(jì)算誤差以及隨機(jī)噪聲。綜上得到最終的基于塊對(duì)角稀疏表示字典學(xué)習(xí)算法模型,如下所示:s.t.X=diag(X11,X22,...,Xnn).其中表示正則項(xiàng),用以保證整個(gè)模型的凸性。此模型即為本發(fā)明提出的全新模型,稱為基于塊對(duì)角稀疏表示的字典學(xué)習(xí)模型(Block-DiagonalSparseRepresentationbasedLinearCombinationDictionaryLearningModel,BDSRLCDL)。對(duì)于此類復(fù)雜的優(yōu)化模型,無(wú)法直接求解。因此采用分離變量以及交替迭代(ADMM)算法對(duì)模型進(jìn)行分解,再根據(jù)閾值法對(duì)l1范數(shù)和核范數(shù)進(jìn)行求解。具體優(yōu)化算法如下:首先引入變量序列使得Zii=Xii,則原模型可轉(zhuǎn)變?yōu)椋簊.t.Zii=Xii,i=1,...,CX=diag(X11,X22,...,XCC),再利用增廣Lagrange法將上述模型變成無(wú)約束模型:其中Fii表示Lagrange乘子,γ表示懲罰系數(shù),<A,B>=trace(ATB)。然后利用交替迭代求解方法直接求解,具體過(guò)程如下:(1)固定W和Xii求解Zii則有:其中U∑VT表示的奇異值分解形式(SVD),表示閾值分割函數(shù),定義如下:(2)固定W和Zii求解Xii首先定義hi(·)函數(shù)如下:從而可以求解Xii如下:其中表示hi(·)函數(shù)關(guān)于Xii的一階偏導(dǎo),具體形式為:同時(shí)則Xii的解析形式為:(3)固定Xii和Zii求解W當(dāng)固定Xii和Zii時(shí),關(guān)于W的求解問(wèn)題可轉(zhuǎn)換為:令再逐列進(jìn)行求解:其中表示Xt+1的第k行,表示的第k列,Ek定義如下:則可以求解(4)更新Lagrange乘子Fii和懲罰參數(shù)γγt+1=min{ργt,γmax}其中ρ=1.1,γmax=1010關(guān)于此模型的收斂條件定義如下:在多個(gè)圖像數(shù)據(jù)庫(kù)上進(jìn)行識(shí)別驗(yàn)證,主要包括:兩個(gè)人臉數(shù)據(jù)庫(kù)—ExtendedYaleB人臉庫(kù)和AR人臉庫(kù),兩個(gè)紋理數(shù)據(jù)庫(kù)—KTH-TIPS靜態(tài)紋理庫(kù)和DynTex++動(dòng)態(tài)紋理庫(kù),一個(gè)場(chǎng)景圖像庫(kù)—15-Scene數(shù)據(jù)庫(kù)和一個(gè)物體數(shù)據(jù)庫(kù)—TheOxfordFlower17數(shù)據(jù)庫(kù)。涉及比較的算法有:SRC,DLSI,LC-KSVD,F(xiàn)DDL,MFL,DL-COPAR,DGSDL和DCR。相關(guān)實(shí)驗(yàn)結(jié)果如下:(1)在人臉識(shí)別問(wèn)題上的實(shí)驗(yàn)結(jié)果:(1.1)在ExtendedYaleB人臉庫(kù)的實(shí)驗(yàn)結(jié)果ExtendedYaleB人臉庫(kù)包含38類不同身份信息的人臉灰度圖像數(shù)據(jù),每類人臉有大約60張圖像樣本。在實(shí)驗(yàn)中,對(duì)每類人臉隨機(jī)選取20張圖像樣本作為訓(xùn)練樣本,剩余樣本作為測(cè)試樣本。相關(guān)參數(shù)設(shè)定為:τ=λ=α=0.001。表(1)為每類子字典原子個(gè)數(shù)為20(Ki=20)時(shí),各類算法的識(shí)別結(jié)果。其中最佳分類結(jié)果加粗表示,次優(yōu)結(jié)果加下劃線表示。表1AlgorithmRecognitionRate(%)SRC88.50DLSI94.03LC-KSVD94.42FDDL93.92MFL93.65DL-COPAR95.11DGSDL95.72DCR96.01BDSRLCDL96.76在表1的結(jié)果中,本發(fā)明提出的算法準(zhǔn)確率為96.76%,比次優(yōu)的DCR算法高出0.75個(gè)百分點(diǎn)。同時(shí),針對(duì)不同的字典原子個(gè)數(shù),同樣進(jìn)行了實(shí)驗(yàn)測(cè)試。實(shí)驗(yàn)結(jié)果如圖1所示,子字典原子個(gè)數(shù)選取范圍為[8,10,12,14,16,18,20]。其中橫坐標(biāo)表示字典原子個(gè)數(shù),縱坐標(biāo)表示識(shí)別準(zhǔn)確率。在字典原子數(shù)量變化過(guò)程中,本發(fā)明提出算法的變化幅度較低,變化方差為0.49%,其余算法的變化方差為DLSI1.59%,LC-KSVD1.72%,F(xiàn)DDL1.49%,MFL2.28%,DL-COPAR1.80%,DGSDL1.66%,DCR1.27%。這表明在字典原子變化的過(guò)程中,本發(fā)明提出的算法具有較高的魯棒性。(1.2)在AR人臉庫(kù)的實(shí)驗(yàn)結(jié)果AR人臉庫(kù)包含100類不同身份信息的人臉灰度圖像數(shù)據(jù),每類人臉有14張圖像樣本。對(duì)每類人臉選取前7張圖像樣本作為訓(xùn)練樣本,后7張樣本作為測(cè)試樣本。相關(guān)參數(shù)設(shè)定為:τ=λ=2×10-4,α=1.5×10-4。表2為每類子字典原子個(gè)數(shù)為7(Ki=7)的識(shí)別結(jié)果:表2AlgorithmRecognitionRate(%)SRC89.14DLSI89.61LC-KSVD93.96FDDL93.00MFL90.12DL-COPAR94.12DGSDL94.42DCR93.43BDSRLCDL95.22同樣地,針對(duì)不同的字典原子個(gè)數(shù)進(jìn)行了實(shí)驗(yàn)測(cè)試。實(shí)驗(yàn)結(jié)果如圖2所示,子字典原子個(gè)數(shù)選取范圍為[4,5,6,7]。從以上兩個(gè)實(shí)驗(yàn)結(jié)果可以看出本發(fā)明提出的算法在人臉識(shí)別問(wèn)題上是可行有效的。相較于其它算法,本方法能夠取得更好的分類效果。同時(shí)在字典原子變化時(shí)體現(xiàn)了本算法的魯棒性。(2)在紋理識(shí)別問(wèn)題上的識(shí)別結(jié)果(2.1)在KTH-TIPS靜態(tài)紋理庫(kù)上的識(shí)別結(jié)果KTH-TIPS紋理庫(kù)由10類不同的紋理圖像樣本組成,每類樣本包含81個(gè)圖像樣本。在測(cè)試實(shí)驗(yàn)中,提取PRI-CoLBP0特征作為樣本特征輸入。對(duì)于每類樣本,隨機(jī)選取40個(gè)樣本作為訓(xùn)練樣本,剩余樣本作為測(cè)試樣本。相關(guān)參數(shù)設(shè)定為:τ=λ=α=10-6,表3為每類子字典原子個(gè)數(shù)為7(Ki=7)的識(shí)別結(jié)果,其中本發(fā)明提出的算法效果是最佳的。表3AlgorithmRecognitionRate(%)SRC83.77DLSI96.00LC-KSVD96.21FDDL96.00MFL91.68DL-COPAR92.16DGSDL93.26DCR94.33BDSRLCDL96.37同樣地,針對(duì)不同的字典原子個(gè)數(shù)進(jìn)行了實(shí)驗(yàn)測(cè)試。實(shí)驗(yàn)結(jié)果如圖3所示,子字典原子個(gè)數(shù)選取范圍為[20,25,30,35,40],其中本發(fā)明提出的算法效果都是最佳的。結(jié)果表明提出的識(shí)別算法是有效的。(2.2)在DynTex++動(dòng)態(tài)紋理庫(kù)上的實(shí)驗(yàn)結(jié)果DynTex++數(shù)據(jù)庫(kù)包含36類動(dòng)態(tài)紋理視頻,每類有100段視頻(總共3600段視頻),每段視頻尺寸為50×50×50。針對(duì)每段視頻,對(duì)其提取LBP-TOP特征作為特征輸入進(jìn)行識(shí)別測(cè)試。對(duì)每類樣本,隨機(jī)選取50個(gè)視頻段作為訓(xùn)練樣本,剩余樣本作為測(cè)試樣本。相關(guān)參數(shù)設(shè)定為:τ=λ=10-6,α=10-4。表4為每類子字典原子個(gè)數(shù)為50(Ki=50)的識(shí)別結(jié)果,其中本發(fā)明提出的算法效果是最佳的。表4AlgorithmRecognitionRate(%)SRC86.20DLSI90.34LC-KSVD91.29FDDL92.03MFL90.02DL-COPAR91.77DGSDL90.43DCR90.27BDSRLCDL92.35同樣地,針對(duì)不同字典原子個(gè)數(shù)進(jìn)行了測(cè)試實(shí)驗(yàn),字典原子個(gè)數(shù)取值范圍為Ki=[25,30,35,40,45,50],實(shí)驗(yàn)結(jié)果如圖4所示。相較于其它算法,提出的算法在字典原子個(gè)數(shù)變化時(shí)都能取得最佳的分類效果。以上兩個(gè)實(shí)驗(yàn)說(shuō)明本發(fā)明提出的方法能夠在靜態(tài)紋理和動(dòng)態(tài)紋理識(shí)別問(wèn)題上取得良好的分類效果。(3)在場(chǎng)景分類問(wèn)題上的實(shí)驗(yàn)結(jié)果:選取15-Scene場(chǎng)景數(shù)據(jù)庫(kù)來(lái)測(cè)試本發(fā)明算法在場(chǎng)景分類問(wèn)題上的效果。15-Scene場(chǎng)景數(shù)據(jù)庫(kù)包含15類不同場(chǎng)景共4485張圖像樣本。每類場(chǎng)景包括210張至410張圖像樣本不等。對(duì)于每張圖像樣本,對(duì)其提取空間金字塔和SIFT結(jié)合特征。對(duì)每類樣本,隨機(jī)選取100個(gè)樣本作為訓(xùn)練樣本,其余樣本作為測(cè)試樣本。相關(guān)參數(shù)設(shè)定為:τ=10-6,λ=α=10-5。表5為每類子字典原子個(gè)數(shù)為50(Ki=50)的識(shí)別結(jié)果,其中本發(fā)明提出的算法效果是最佳的,相較于次優(yōu)的DCR算法,本方法將識(shí)別準(zhǔn)確率提高了2.14%。表5AlgorithmRecognitionRate(%)SRC88.40DLSI94.22LC-KSVD93.17FDDL94.67MFL92.22DL-COPAR93.79DGSDL94.43DCR95.92BDSRLCDL98.06與其它實(shí)驗(yàn)類似,針對(duì)不同字典原子個(gè)數(shù)進(jìn)行了測(cè)試實(shí)驗(yàn),字典原子個(gè)數(shù)取值范圍為Ki=[50,60,70,80,90,100],實(shí)驗(yàn)結(jié)果如圖5所示。相較于其它算法,提出的算法在字典原子個(gè)數(shù)變化時(shí)都能取得最佳的分類效果,表明提出的識(shí)別算法在此數(shù)據(jù)庫(kù)上是可行有效的。(4)在物體分類問(wèn)題上的實(shí)驗(yàn)結(jié)果:選取OxfordFlowers17數(shù)據(jù)庫(kù)來(lái)測(cè)試本發(fā)明算法在物體圖像分類問(wèn)題上的效果。OxfordFlowers17數(shù)據(jù)庫(kù)由17類花朵樣本,每類花朵包含80張圖像樣本。對(duì)于每張圖像樣本,對(duì)其提取局部頻率直方圖算子(FrequentLocalHistogram,F(xiàn)LH)作為輸入特征。同時(shí)根據(jù)OxfordFlowers17數(shù)據(jù)庫(kù)提供的數(shù)據(jù)分配方案來(lái)構(gòu)建訓(xùn)練樣本和測(cè)試樣本(http://www.robots.ox.ac.uk/~vgg/data/flowers/17/index.html)。相關(guān)參數(shù)設(shè)定為:τ=λ=α=10-6。表6為每類子字典原子個(gè)數(shù)為30(Ki=30)的識(shí)別結(jié)果,其中本發(fā)明提出的算法效果是最佳的。表6AlgorithmRecognitionRate(%)SRC88.40DLSI88.87LC-KSVD90.20FDDL91.72MFL89.07DL-COPAR91.28DGSDL92.75DCR93.41BDSRLCDL96.47與其它實(shí)驗(yàn)類似,針對(duì)不同字典原子個(gè)數(shù)進(jìn)行了測(cè)試實(shí)驗(yàn),字典原子個(gè)數(shù)取值范圍為Ki=[30,35,40,45,50,55,60],實(shí)驗(yàn)結(jié)果如圖6所示。相較于其它算法,本發(fā)明提出的算法在字典原子個(gè)數(shù)變化時(shí)都能取得最佳的分類效果,表明提出的識(shí)別算法在此數(shù)據(jù)庫(kù)上是可行有效的。以上所述,僅是本發(fā)明的較佳實(shí)施例,并非對(duì)本發(fā)明作任何形式上的限制,凡是依據(jù)本發(fā)明的技術(shù)實(shí)質(zhì)對(duì)以上實(shí)施例所作的任何簡(jiǎn)單修改、等同變化與修飾,均仍屬本發(fā)明技術(shù)方案的保護(hù)范圍。當(dāng)前第1頁(yè)1 2 3