技術(shù)領(lǐng)域:
本發(fā)明涉及深度學(xué)習(xí)與圖像識(shí)別領(lǐng)域,具體地說(shuō)是一種利用多個(gè)規(guī)模不同且相互獨(dú)立的并行dbn對(duì)圖像進(jìn)行識(shí)別的方法。
背景技術(shù):
:
隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展與進(jìn)步,人們對(duì)數(shù)字圖像方面的應(yīng)用需求也越來(lái)越多,比如在軍事偵查、公共場(chǎng)所的安全、工業(yè)自動(dòng)化、生活智能化以及環(huán)境監(jiān)測(cè)等領(lǐng)域。隨著圖像捕獲設(shè)備(如監(jiān)控?cái)z像頭、攝像手機(jī)、運(yùn)動(dòng)相機(jī)等)的迅速發(fā)展,海量的圖像數(shù)據(jù)可以更容易的獲取,數(shù)據(jù)采集的環(huán)境更容易人為控制;隨著存儲(chǔ)設(shè)備的技術(shù)升級(jí),海量數(shù)據(jù)存儲(chǔ)問(wèn)題得以解決,使得圖像識(shí)別技術(shù)性能顯著提高成為可能。但傳統(tǒng)圖像識(shí)別技術(shù)由于人為的參與指導(dǎo),無(wú)法持續(xù)高效地對(duì)圖像進(jìn)行處理與識(shí)別,已不能滿足實(shí)際應(yīng)用的需要,因此研究和開發(fā)智能化的圖像識(shí)別系統(tǒng)有著巨大的應(yīng)用價(jià)值。
圖像識(shí)別技術(shù)的效果往往受到噪聲、姿態(tài)以及背景等因素的影響?;谧詣?dòng)學(xué)習(xí)特征的識(shí)別算法改變了傳統(tǒng)圖像特征需人為設(shè)定的劣勢(shì),從而有更廣闊的應(yīng)用前景。因此為提高圖像識(shí)別的效率,研究智能化的圖像特征提取技術(shù)有著重要的理論與應(yīng)用意義。
技術(shù)實(shí)現(xiàn)要素:
:
本發(fā)明的目的是為構(gòu)建一種具有較高應(yīng)用價(jià)值、簡(jiǎn)單易行的圖像識(shí)別方法。
本發(fā)明中首先構(gòu)建若干個(gè)規(guī)模不同且相互獨(dú)立的并行深信念網(wǎng)絡(luò)(dbn)模型及對(duì)應(yīng)的分類器,然后通過(guò)引入adaboost算法集成多個(gè)分類效果偏差的dbn弱分類器而得到強(qiáng)分類器,并通過(guò)訓(xùn)練獲得強(qiáng)分類器的參數(shù)。在具體實(shí)施時(shí),利用多個(gè)不同結(jié)構(gòu)的深度信念網(wǎng)絡(luò)初步地?cái)M合數(shù)據(jù)的分布,并通過(guò)微調(diào)各個(gè)dbn模型以便能在一個(gè)有限時(shí)間內(nèi)貪心地獲得各個(gè)分類器的最優(yōu)分類效果;再利用adaboost算法集成網(wǎng)絡(luò)中各dbn分類器得到整個(gè)網(wǎng)絡(luò)模型的強(qiáng)分類器;最后對(duì)強(qiáng)分類器利用bp算法做整體上的深度微調(diào),從而實(shí)現(xiàn)由初始化強(qiáng)分類器的權(quán)值狀態(tài)尋找更好的局部最優(yōu)的網(wǎng)絡(luò)參數(shù)。以上方法解決了分類精度與激活函數(shù)在深層次中存在的矛盾。
具體的技術(shù)方案如下:
(1)初始化各個(gè)dbn中的網(wǎng)絡(luò)權(quán)值以及adaboost集成框架的配置參數(shù);
(2)將圖像轉(zhuǎn)變?yōu)橐粋€(gè)列向量并歸一化,以此作為各深度信念網(wǎng)絡(luò)的輸入進(jìn)行預(yù)訓(xùn)練并微調(diào)每個(gè)dbn;
(3)計(jì)算樣本權(quán)值并訓(xùn)練分類器ci,計(jì)算ci的錯(cuò)誤率;
(4)計(jì)算當(dāng)前dbn的分類器的權(quán)值,更新樣本權(quán)值;
(5)重復(fù)(3)和(4),直到收斂;
(6)歸一化各分類器的權(quán)值系數(shù);
(7)利用bp算法整體微調(diào)由adaboost集成多個(gè)dbn分類器而得到的強(qiáng)分類器。
本發(fā)明的有益效果是:
1、建立一種基于改進(jìn)adaboost集成深度信念網(wǎng)絡(luò)結(jié)構(gòu),并設(shè)計(jì)相應(yīng)的圖像識(shí)別算法;
2、本發(fā)明一定程度上解決了深度學(xué)習(xí)模型中梯度彌散、梯度爆炸以及訓(xùn)練時(shí)間過(guò)長(zhǎng)等問(wèn)題,并提高了圖像的識(shí)別率;
3、本發(fā)明中所給出識(shí)別方法的效果不受顏色、光照及物體姿勢(shì)等的影響,對(duì)圖像的檢測(cè)與識(shí)別有可參考和應(yīng)用的價(jià)值。
附圖說(shuō)明:
圖1為本發(fā)明中基于改進(jìn)adaboost的集成深度信念網(wǎng)絡(luò)結(jié)構(gòu);
圖2為本發(fā)明中對(duì)三隱層-四分類器模型進(jìn)行微調(diào)及整體微調(diào)前后的底層特征;
圖3為本發(fā)明在mnist、usps及eth-80數(shù)據(jù)集上不同模型的錯(cuò)誤率。
具體實(shí)施方式:
下面結(jié)合附圖和實(shí)例進(jìn)一步說(shuō)明本發(fā)明的實(shí)質(zhì)內(nèi)容,但本發(fā)明的內(nèi)容并不限于此。
實(shí)施例1:
(1)訓(xùn)練與測(cè)試集的準(zhǔn)備:從mnist數(shù)據(jù)集中每類取1000張構(gòu)成訓(xùn)練集,每類100張構(gòu)成測(cè)試集;從usps數(shù)據(jù)集中每類取500張組成訓(xùn)練集,每類50張組成測(cè)試集;從eth-80數(shù)據(jù)集中每類取300張組成訓(xùn)練集,每類100張組成測(cè)試集。
(2)dbn模型的構(gòu)建:方法實(shí)施中我們考慮以下4種dbn網(wǎng)絡(luò)結(jié)構(gòu)模型:dbn(4)[400,256,100,64],dbn(6)[400,256,196,144,100,64]以及adaboost+dbn(4){[400,256,100,64],[256,144,100,64],[100,81,81,60],[225,196,144,100]},其中每個(gè)模型的中括號(hào)內(nèi)數(shù)據(jù)為該模型隱層單元數(shù),數(shù)據(jù)個(gè)數(shù)表示該模型的隱層數(shù)。
(3)以歸一化的圖像向量作為模型的輸入訓(xùn)練各網(wǎng)絡(luò)模型并進(jìn)行微調(diào),不斷更新各模型中分類器的權(quán)值和樣本的權(quán)值,直到收斂。
(4)歸一化最終各分類器的權(quán)值系數(shù),并利用bp算法整體微調(diào)由adaboost集成的強(qiáng)分類器參數(shù),獲得其最優(yōu)參數(shù)。
(5)實(shí)施中,各個(gè)模型分別預(yù)訓(xùn)練100次、200次和500次;測(cè)試時(shí)各模型運(yùn)行10次并求得平均錯(cuò)誤率(圖2)。