本發(fā)明涉及多分類圖像識別領(lǐng)域,特別是一種多類別圖像識別方法及系統(tǒng)。
背景技術(shù):
相對于二分類,多分類問題在實際應(yīng)用中更為普遍(如:疾病檢測,活動識別,語音識別,數(shù)字識別,文本分類等),預(yù)測難度也更大。一方面,對隨機預(yù)測而言,二分類的預(yù)期精度為50%,而三分類的預(yù)期精度僅為33%,且類別越多,預(yù)期精度越低。另一方面,多分類中各類別樣本數(shù)不均衡問題往往更為常見、嚴重。恰當(dāng)?shù)亩喾诸愞D(zhuǎn)二分類策略與有效的特征選擇方法是提高多分類問題預(yù)測精度的關(guān)鍵。
一對一(one-vs-one,ovo)、一對余(one-vs-all,ova)、分層分類(hierarchicalclassification,hc)是當(dāng)前常用的三種多分類轉(zhuǎn)二分類策略,其共同特點是在特征選擇階段與構(gòu)建二分類器時采用相同的訓(xùn)練樣本。對一個m類別(m≥3)的多分類問題,ova策略經(jīng)特征選擇產(chǎn)生m套特征子集,構(gòu)建m個二分類器。其優(yōu)點是構(gòu)建的二分類器少,且每一個二分類器均充分利用了所有的訓(xùn)練樣本;缺點是構(gòu)建的二分類器常存在訓(xùn)練集正負樣本比例不均衡問題,且對待測樣本最終類別歸屬可能存在決策障礙(即對某個測試樣本,第一個二分類器將其判為第一類,而第二個二分類器將其判為第二類)。ovo策略經(jīng)特征選擇產(chǎn)生m(m-1)/2套特征子集,構(gòu)建m(m-1)/2個二分類器。其優(yōu)點是構(gòu)建的二分類器訓(xùn)練集正負樣本較為均衡,缺點是構(gòu)建的二分類器未充分利用所有訓(xùn)練樣本,且決策障礙問題同樣存在。hc采用由上而下的分解策略,先基于所有訓(xùn)練樣本構(gòu)建第一個二分類器,用以區(qū)分訓(xùn)練樣本數(shù)最多的類別(最大類別)與其余類別(合并類別1)。某一待測樣本若判為最大類別,預(yù)測終止;反之以合并類別1中訓(xùn)練樣本構(gòu)建第二個二分類器,用以區(qū)分第二大類別與合并類別2(不包括最大類別與第二大類別)。重復(fù)該過程直至待測樣本有確定的類別歸屬。hc策略經(jīng)特征選擇產(chǎn)生m-1套特征子集,構(gòu)建m-1個二分類器。其優(yōu)點是構(gòu)建的二分類器少,對待測樣本最終類別歸屬不存在決策障礙。缺點是構(gòu)建的二分類器訓(xùn)練集正負樣本仍不均衡,未充分利用所有訓(xùn)練樣本,且決策易過早終止。
技術(shù)實現(xiàn)要素:
本發(fā)明旨在提供一種多類別圖像識別方法及系統(tǒng),提高多類別圖像識別的預(yù)測精度,能有效解決ovo、ova、hc等轉(zhuǎn)換策略存在的決策障礙、計算效率低以及預(yù)測精度低的問題。
為解決上述技術(shù)問題,本發(fā)明所采用的技術(shù)方案是:一種多類別圖像類別識別方法,包括以下步驟:
1)對m類別圖像識別問題c={c1,c2,…,cw,…,cm},將選自圖像識別數(shù)據(jù)集的訓(xùn)練樣本分解為m套樣本子集{c1vs.non-c1},{c2vs.non-c2}…{cwvs.non-cw}…{cmvs.non-cm},non-c1表示非1類別;對每套樣本子集經(jīng)特征選擇獲得一套特征子集,共獲得m套特征子集{feat_1,feat_2,…,feat_w,…,feat_m};
2)對某待測樣本,首先取c1與c2類別樣本作為訓(xùn)練樣本,以{feat_1∪feat_2}為特征子集,構(gòu)建第一個二分類器,對該待測樣本作出預(yù)測,假定該待測樣本被判為c1類,則取c1與c3中樣本為訓(xùn)練樣本,以{feat_1∪feat_3}為特征子集,構(gòu)建第二個二分類器,對該待測樣本作出預(yù)測;依此類推,直到構(gòu)建m-1個二分類器,最終勝出的類即為最終的圖像類別。
相應(yīng)地,本發(fā)明還提供了一種多類別圖像類別識別系統(tǒng),其包括:
特征選擇單元:用于進行如下處理:對m類別圖像識別問題c={c1,c2,…,cw,…,cm},將選自圖像識別數(shù)據(jù)集的訓(xùn)練樣本分解為m套樣本子集{c1vs.non-c1},{c2vs.non-c2}…{cwvs.non-cw}…{cmvs.non-cm},non-c1表示非1類別;對每套樣本子集經(jīng)特征選擇獲得一套特征子集,共獲得m套特征子集{feat_1,feat_2,…,feat_w,…,feat_m};
決策單元:用于進行如下處理:對某待測樣本,首先取c1與c2類別樣本作為訓(xùn)練樣本,以{feat_1∪feat_2}為特征子集,構(gòu)建第一個二分類器,對該待測樣本作出預(yù)測,假定該待測樣本被判為c1類,則取c1與c3中樣本為訓(xùn)練樣本,以{feat_1∪feat_3}為特征子集,構(gòu)建第二個二分類器,對該待測樣本作出預(yù)測;依此類推,直到構(gòu)建m-1個二分類器,最終勝出的類即為最終的圖像類別。
與現(xiàn)有技術(shù)相比,本發(fā)明所具有的有益效果為:本發(fā)明在特征選擇階段,pk策略充分利用了所有訓(xùn)練樣本,共構(gòu)建了m個二分類器。在決策階段,pk策略僅構(gòu)建了m-1個二分類器,正負樣本數(shù)較均衡,且有效避免了hc策略中決策過早終止的問題,以及ovo與ova策略的決策障礙問題,可獲得更高的預(yù)測精度;本發(fā)明有效解決了ovo、ova、hc等轉(zhuǎn)換策略存在的決策障礙、計算效率低以及預(yù)測精度低的問題,提高了多類別圖像識別的預(yù)測精度。
附圖說明
圖1是多分類轉(zhuǎn)分類ova策略示意圖,其中類別數(shù)為m,hi表示二分類器;
圖2是多分類轉(zhuǎn)分類ovo策略示意圖,其中類別數(shù)為m(m-1)/2,hi表示二分類器;
圖3是多分類轉(zhuǎn)分類hc策略示意圖,其中類別數(shù)為m-1,hi表示二分類器;
圖4是多分類轉(zhuǎn)分類pk策略示意圖,其中類別數(shù)為m-1,hi表示二分類器。
具體實施方式
如圖1-圖4所示,在特征選擇階段,pk策略充分利用了所有訓(xùn)練樣本,共構(gòu)建了m個二分類器。在決策階段,pk策略僅構(gòu)建了m-1個二分類器,正負樣本數(shù)較均衡,且有效避免了hc策略中決策過早終止的問題,以及ovo與ova策略的決策障礙問題,可獲得更高的預(yù)測精度。并且與其他三種策略不同的是,pk策略在特征選擇階段與決策階段采用不同的訓(xùn)練樣本。
本實施例選取11個uci(http://archive.ics.uci.edu/ml/data)多類圖像識別數(shù)據(jù)集作為實例驗證。各數(shù)據(jù)的特征數(shù)、類別數(shù)及各類別的樣本數(shù)見表1。對每個數(shù)據(jù)集,按3:1比例隨機劃分訓(xùn)練集與測試集。特征選擇方法選用最小冗余最大相關(guān)(minimalredundancymaximalrelevance,mrmr)法[1],二分類器選擇支持向量分類(supportvectorclassification,svc)、隨機森林(randomforest,rf)與k近鄰(k-nearestneighbors,knn)三種。svc分類器采用libsvm[2]平臺實現(xiàn),核函數(shù)為徑向基核,懲罰參數(shù)c(c∈[2-5,215])與核函數(shù)參數(shù)γ(γ∈[2-15,23])經(jīng)5-fold交叉測試尋優(yōu)獲得;rf分類器[3]與knn分類器[4]采用matlab2013a工具箱實現(xiàn),參數(shù)使用默認設(shè)置。
表111個數(shù)據(jù)集的相關(guān)信息
注:括號內(nèi)為各類別的樣本數(shù)。
好的轉(zhuǎn)換策略不應(yīng)該是分類器特異的?;趍rmr特征選擇方法,比較了pk、ovo、ova、hc四種轉(zhuǎn)換策略在三種分類器上的預(yù)測表現(xiàn),見表2。在svc、knn、rf分類器上,pk策略加權(quán)平均預(yù)測精度均為最高。對總共11個數(shù)據(jù)集,以svc為分類器時,有7個數(shù)據(jù)使用pk策略獲得最高精度;以knn為分類器時,有8個數(shù)據(jù)使用pk策略獲得最高精度;以rf為分類器時,有8個數(shù)據(jù)使用pk策略獲得最高精度。顯然,使用pk策略將多分類問題轉(zhuǎn)換為二分類問題,可獲得更高的預(yù)測精度。pk策略在特征選擇階段與構(gòu)建二分類器時采用不同的訓(xùn)練樣本,共產(chǎn)生m套特征子集,構(gòu)建m-1個二分類器。其優(yōu)點是在特征選擇階段,充分利用了所有訓(xùn)練樣本;在決策階段,構(gòu)建的二分類器較少,正負樣本數(shù)較為均衡,對待測樣本最終類別歸屬不存在決策障礙,且有效避免了hc策略中決策過早終止的問題,以wine數(shù)據(jù)集為例(采用svc分類器),樣本8、9因hc決策過早終止而判錯,這可能是hc策略精度(95.45%)低于pk策略精度(100%)的主要原因。
表2四種轉(zhuǎn)換策略的獨立預(yù)測精度
注:加粗字體表示各數(shù)據(jù)集在每種策略中的最高精度
參考文獻
[1]pengh,longf,dingc.featureselectionbasedonmutualinformationcriteriaofmax-dependency,max-relevance,andmin-redundancy.ieeetransactionsonpatternanalysis&machineintelligence,2005;27(8):1226-1238.
[2]changcc,lincj.libsvm:alibraryforsupportvectormachines[j].acmtransactionsonintelligentsystemsandtechnology,2011,2(3):27-52.
[3]breimanl.randomforests[j].machinelearning,2001,45(1):5-32.
[4]ahadw,kiblerdm,albertk.instance-basedlearningalgorithms[j].machinelearning,1991,6(1):37-66.