本發(fā)明涉及遷移學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域,特別涉及一種圖像分類方法及裝置。
背景技術(shù):
卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetworks,cnn)是一種高效識別方法。一般地,cnn的基本結(jié)構(gòu)包括兩層,其一為特征提取層,每個神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關(guān)系也隨之確定下來;其二是特征映射層,網(wǎng)絡(luò)的每個計算層由多個特征映射組成,每個特征映射是一個平面,平面上所有神經(jīng)元的權(quán)值相等。
遷移學(xué)習(xí)即一種學(xué)習(xí)對另一種學(xué)習(xí)的影響,它廣泛地存在于知識、技能、態(tài)度和行為規(guī)范的學(xué)習(xí)中。任何一種學(xué)習(xí)都要受到學(xué)習(xí)者已有知識經(jīng)驗、技能、態(tài)度等的影響,只要有學(xué)習(xí),就有遷移,使用深度學(xué)習(xí)技術(shù)解決問題的過程中,在面對某一領(lǐng)域的具體問題時,通??赡軣o法得到構(gòu)建模型所需規(guī)模的數(shù)據(jù)然而在一個模型訓(xùn)練任務(wù)中針對某種類型數(shù)據(jù)獲得的關(guān)系也可以輕松地應(yīng)用于同一領(lǐng)域的不同問題,這就是所謂的遷移學(xué)習(xí)。
現(xiàn)有的圖像分類方法一般是基于小數(shù)據(jù)集訓(xùn)練分類模型,然后通過該訓(xùn)練分類模型對圖片集進行分類。但是,小數(shù)據(jù)集的數(shù)據(jù)量較少,用深層卷積網(wǎng)絡(luò)訓(xùn)練時容易導(dǎo)致模型訓(xùn)練過程中出現(xiàn)過擬合問題,用淺層卷積網(wǎng)絡(luò)訓(xùn)練時,使圖像特征提取不夠完善,降低圖像分類率。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的是提供一種圖像分類方法及裝置,目的在于解決現(xiàn)有技術(shù)中利用小數(shù)據(jù)集訓(xùn)練圖像分類模型時出現(xiàn)過擬合現(xiàn)象導(dǎo)致和圖像特征提取不夠完善導(dǎo)致圖像分類率的問題。
為解決上述技術(shù)問題,本發(fā)明提供一種圖像分類方法,該方法包括:
基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu),所述alexnet模型結(jié)構(gòu)為包括依次相連的第一卷積層、第二卷積層、第三卷積層、第四卷積層、第五卷積層、第一全連接層、第二全連接層及softmax分類器的模型;
將訓(xùn)練好的所述第一卷積層、所述第二卷積層、所述第三卷積層、所述第四卷積層及所述第五卷積層遷移至小型數(shù)據(jù)庫構(gòu)成底層特征提取層,并與包括兩層卷積層的殘差網(wǎng)絡(luò)層、多尺度池化層、特征層及所述softmax分類器構(gòu)建得出遷移模型結(jié)構(gòu);
其中,所述多尺度池化層包括與所述第一卷積層相連的第一多尺度池化層、與所述第三卷積層相連的第二多尺度池化層及與所述第五卷積層相連的第三多尺度池化層;所述特征層為所述殘差網(wǎng)絡(luò)層提取的特征圖和所述多尺度池化層提取的特征圖串聯(lián)構(gòu)成的特征層;
將圖像小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu),保持所述底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型;
根據(jù)所述圖像分類混合模型,對待分類圖像小數(shù)據(jù)集進行分類,得出分類結(jié)果。
可選地,所述將圖像小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu),保持所述底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型包括:
獲取所述圖像小數(shù)據(jù)集,將所述小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu);
利用所述底層特征提取層提取出所述圖像小數(shù)據(jù)集的初始特征;
利用所述殘差網(wǎng)絡(luò)層對所述初始特征進行訓(xùn)練,得出第一特征圖;
利用所述多尺度池化層提取出所述圖像小數(shù)據(jù)集的第二特征圖;
串聯(lián)所述第一特征圖和所述第二特征圖,得出目標(biāo)特征圖;
將所述目標(biāo)特征圖輸入所述softmax分類器,運用所述批量梯度下降法,迭代更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的所述參數(shù),訓(xùn)練得出所述圖像分類混合模型。
可選地,所述殘差網(wǎng)絡(luò)層的激活函數(shù)為maxout函數(shù)。
可選地,所述利用所述多尺度池化層提取出所述圖像小數(shù)據(jù)集的第二特征圖包括:
根據(jù)所述池化層的預(yù)設(shè)池化計算公式,提取所述圖像小數(shù)據(jù)集的所述第二特征圖;
所述預(yù)設(shè)池化計算公式具體為:輸入特征圖的size=r×s×m;每張輸出特征圖的size=r×s、
將
其中,[*]為向上取整;m為每個輸入層的特征圖個數(shù);r×s為每個輸入特征圖的尺寸;
可選地,所述基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu)包括:
獲取所述圖像大數(shù)據(jù)集;
將所述圖像大數(shù)據(jù)集輸入至所述alexnet模型結(jié)構(gòu),采用變化的dropout參數(shù)修剪所述alexnet模型結(jié)構(gòu)的模型參數(shù),訓(xùn)練所述alexnet模型結(jié)構(gòu);
其中,所述dropout參數(shù)的更新公式為
此外,本發(fā)明還提供了一種圖像分類裝置,該裝置包括:
預(yù)訓(xùn)練模塊,用于基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu),所述alexnet模型結(jié)構(gòu)為包括依次相連的第一卷積層、第二卷積層、第三卷積層、第四卷積層、第五卷積層、第一全連接層、第二全連接層及softmax分類器的模型;
遷移模型構(gòu)建模塊,用于將訓(xùn)練好的所述第一卷積層、所述第二卷積層、所述第三卷積層、所述第四卷積層及所述第五卷積層遷移至小型數(shù)據(jù)庫構(gòu)成底層特征提取層,并與包括兩層卷積層的殘差網(wǎng)絡(luò)層、多尺度池化層、特征層及所述softmax分類器構(gòu)建得出遷移模型結(jié)構(gòu);
其中,所述多尺度池化層包括與所述第一卷積層相連的第一多尺度池化層、與所述第三卷積層相連的第二多尺度池化層及與所述第五卷積層相連的第三多尺度池化層;所述特征層為所述殘差網(wǎng)絡(luò)層提取的特征圖和所述多尺度池化層提取的特征圖串聯(lián)構(gòu)成的特征層;
混合模型訓(xùn)練模塊,用于將圖像小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu),保持所述底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型;
分類模塊,用于根據(jù)所述圖像分類混合模型,對待分類圖像小數(shù)據(jù)集進行分類,得出分類結(jié)果。
可選地,所述混合模型訓(xùn)練模塊包括:
獲取單元,用于獲取所述圖像小數(shù)據(jù)集,將所述小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu);
第一提取單元,用于利用所述底層特征提取層提取出所述圖像小數(shù)據(jù)集的初始特征;
特征訓(xùn)練單元,用于利用所述殘差網(wǎng)絡(luò)層對所述初始特征進行訓(xùn)練,得出第一特征圖;
第二提取單元,用于利用所述多尺度池化層提取出所述圖像小數(shù)據(jù)集的第二特征圖;
串聯(lián)單元,用于串聯(lián)所述第一特征圖和所述第二特征圖,得出目標(biāo)特征圖;
參數(shù)更新訓(xùn)練單元,用于將所述目標(biāo)特征圖輸入所述softmax分類器,運用所述批量梯度下降法,迭代更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的所述參數(shù),訓(xùn)練得出所述圖像分類混合模型。
可選地,所述殘差網(wǎng)絡(luò)層的激活函數(shù)為maxout函數(shù)。
可選地,所述第二提取單元包括:
池化提取子單元,用于根據(jù)所述池化層的預(yù)設(shè)池化計算公式,提取所述圖像小數(shù)據(jù)集的所述第二特征圖;
所述預(yù)設(shè)池化計算公式具體為:輸入特征圖的size=r×s×m;每張輸出特征圖的size=r×s、
將
其中,[*]為向上取整;m為每個輸入層的特征圖個數(shù);r×s為每個輸入特征圖的尺寸;
可選地,所述預(yù)訓(xùn)練模塊包括:
大數(shù)據(jù)集獲取單元,用于獲取所述圖像大數(shù)據(jù)集;
訓(xùn)練單元,用于將所述圖像大數(shù)據(jù)集輸入至所述alexnet模型結(jié)構(gòu),采用變化的dropout參數(shù)修剪所述alexnet模型結(jié)構(gòu)的模型參數(shù),訓(xùn)練所述alexnet模型結(jié)構(gòu);
其中,所述dropout參數(shù)的更新公式為
本發(fā)明實施例所提供的圖像分類方法及裝置,基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu);將訓(xùn)練好的第一卷積層、第二卷積層、第三卷積層、第四卷積層及第五卷積層遷移至小型數(shù)據(jù)庫構(gòu)成底層特征提取層,并與包括兩層卷積層的殘差網(wǎng)絡(luò)層、多尺度池化層、特征層及softmax分類器構(gòu)建得出遷移模型結(jié)構(gòu);其中,多尺度池化層包括與第一卷積層相連的第一多尺度池化層、與第三卷積層相連的第二多尺度池化層及與第五卷積層相連的第三多尺度池化層;特征層為殘差網(wǎng)絡(luò)層提取的特征圖和多尺度池化層提取的特征圖串聯(lián)構(gòu)成的特征層;將圖像小數(shù)據(jù)集輸入遷移模型結(jié)構(gòu),保持底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型;根據(jù)圖像分類混合模型,對待分類圖像小數(shù)據(jù)集進行分類,得出分類結(jié)果。本申請通過將在大數(shù)據(jù)集上預(yù)訓(xùn)練好的各卷積層遷移至小數(shù)據(jù)集,增加多尺度池化層,將殘差網(wǎng)絡(luò)層和多尺度池化層輸出的特征量串聯(lián)起來輸入至分類器中,可以增加特征量,同時緩解數(shù)據(jù)量少導(dǎo)致的過擬合問題;且通過基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)訓(xùn)練得出的混合模型可以使得有效地提高圖像分類準(zhǔn)確率。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。
圖1為本發(fā)明實施例提供的圖像分類方法的一種具體實施方式的流程示意圖;
圖2為本發(fā)明實施例提供的大型數(shù)據(jù)庫訓(xùn)練圖像分類模型結(jié)構(gòu)示意圖;
圖3為本發(fā)明實施例提供的小數(shù)據(jù)集訓(xùn)練模型結(jié)構(gòu)示意圖;
圖4為本發(fā)明實施例提供的多尺度池化層結(jié)構(gòu)示意圖;
圖5為本發(fā)明實施例提供的圖像分類裝置結(jié)構(gòu)示意框圖。
具體實施方式
為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
請參考圖1,圖1為本發(fā)明實施例提供的圖像分類方法的一種具體實施方式的流程示意圖,該方法包括以下步驟:
步驟101:基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu),所述alexnet模型結(jié)構(gòu)為包括依次相連的第一卷積層、第二卷積層、第三卷積層、第四卷積層、第五卷積層、第一全連接層、第二全連接層及softmax分類器的模型。
具體地,預(yù)先設(shè)置圖像分類模型結(jié)構(gòu),然后將大型數(shù)據(jù)庫上的圖像大數(shù)據(jù)集輸入至alexnet模型結(jié)構(gòu),更新網(wǎng)絡(luò)參數(shù),訓(xùn)練alexnet模型結(jié)構(gòu)。
上述alexnet模型結(jié)構(gòu)可以具體參見圖2,圖2為本發(fā)明實施例提供的大型數(shù)據(jù)庫訓(xùn)練圖像分類模型結(jié)構(gòu)示意圖。
如圖2所示,圖中c1、c2、c3、c4、c5分別為第一卷積層、第二卷積層、第三卷積層、第四卷積層、第五卷積層,fc1、fc2分別為第一全連接層、第二全連接層。
將大數(shù)據(jù)集輸入至如圖2所示的圖像分類模型結(jié)構(gòu),可以更新各個卷積層的dropout參數(shù),以減少模型訓(xùn)練參數(shù),訓(xùn)練圖像分類模型結(jié)構(gòu)。故作為一種具體實施方式,上述基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu)的過程可以具體為:獲取所述圖像大數(shù)據(jù)集;將所述圖像大數(shù)據(jù)集輸入至所述alexnet模型結(jié)構(gòu),采用變化的dropout參數(shù)修剪所述alexnet模型結(jié)構(gòu)的模型參數(shù),訓(xùn)練所述alexnet模型結(jié)構(gòu)。
其中,上述dropout參數(shù)的更新公式為
可以看出,在原有alexnet模型結(jié)構(gòu)的基礎(chǔ)上,在各個卷積層加入?yún)?shù)變化的dropout,且利用上述公式更新參數(shù),減少了模型訓(xùn)練參數(shù),提高了模型訓(xùn)練效率。
步驟102:將訓(xùn)練好的所述第一卷積層、所述第二卷積層、所述第三卷積層、所述第四卷積層及所述第五卷積層遷移至小型數(shù)據(jù)庫構(gòu)成底層特征提取層,并與包括兩層卷積層的殘差網(wǎng)絡(luò)層、多尺度池化層、特征層及所述softmax分類器構(gòu)建得出遷移模型結(jié)構(gòu)。
其中,所述多尺度池化層包括與所述第一卷積層相連的第一多尺度池化層、與所述第三卷積層相連的第二多尺度池化層及與所述第五卷積層相連的第三多尺度池化層;所述特征層為所述殘差網(wǎng)絡(luò)層提取的特征圖和所述多尺度池化層提取的特征圖串聯(lián)構(gòu)成的特征層。
可以理解,將在大數(shù)據(jù)集上訓(xùn)練好的五個卷積層遷移至小數(shù)據(jù)集,保持這五個卷積層內(nèi)的參數(shù)不變,增加殘差網(wǎng)絡(luò)層、多尺度池化層、特征層、softmax分類器構(gòu)建出新的訓(xùn)練模型結(jié)構(gòu)。
上述遷移模型結(jié)構(gòu)可以具體為如圖3所示的訓(xùn)練模型結(jié)構(gòu),圖3為本發(fā)明實施例提供的小數(shù)據(jù)集訓(xùn)練模型結(jié)構(gòu)示意圖。
如圖3所示,cov1、cov2、cov3、cov4、cov5分別為在大數(shù)據(jù)集上訓(xùn)練好的第一卷積層、第二卷積層、第三卷積層、第四卷積層、第五卷積層,與cov5相連的兩個cov層為殘差網(wǎng)絡(luò)層,與cov1、cov3、cov5對應(yīng)相連的pool1、pool2、pool3;三個多尺度池化層輸出的特征圖和殘差網(wǎng)絡(luò)層輸出的特征圖串聯(lián)成特征層,得出一幅目標(biāo)特征圖后輸入至softmax分類器。
優(yōu)選地,為了加快收斂效率,殘差網(wǎng)絡(luò)層的激活函數(shù)具體可以為maxout函數(shù)。當(dāng)然,使用其它的激活函數(shù)也不影響本實施例的實現(xiàn)。
步驟103:將圖像小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu),保持所述底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型。
構(gòu)建出新的遷移模型結(jié)構(gòu)后,可以通過迭代更新該模型結(jié)構(gòu)內(nèi)的參數(shù)進行訓(xùn)練。故作為一種具體實施方式,上述將圖像小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu),保持所述底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型的過程可以具體為:獲取所述圖像小數(shù)據(jù)集,將所述小數(shù)據(jù)集輸入所述遷移模型結(jié)構(gòu);利用所述底層特征提取層提取出所述圖像小數(shù)據(jù)集的初始特征;利用所述殘差網(wǎng)絡(luò)層對所述初始特征進行訓(xùn)練,得出第一特征圖;利用所述多尺度池化層提取出所述圖像小數(shù)據(jù)集的第二特征圖;串聯(lián)所述第一特征圖和所述第二特征圖,得出目標(biāo)特征圖;將所述目標(biāo)特征圖輸入所述softmax分類器,運用所述批量梯度下降法,迭代更新所述殘差網(wǎng)絡(luò)層和所述多尺度池化層的所述參數(shù),訓(xùn)練得出所述圖像分類混合模型。
可以看出,迭代更新殘差網(wǎng)絡(luò)和多尺度池化層的參數(shù),可以緩解因為數(shù)據(jù)少導(dǎo)致的訓(xùn)練收斂慢的問題;且將殘差網(wǎng)絡(luò)層和多尺度池化層提取的特征maps串聯(lián)成一張目標(biāo)特征圖后輸入至softmax中,可以特征訓(xùn)練特征量,有效緩解數(shù)據(jù)量少導(dǎo)致的過擬合問題。
遷移模型結(jié)構(gòu)中的多尺度池化層可以設(shè)置池化計算公式,對圖像小數(shù)據(jù)集進行最大值采樣,提取出所需特征分量。故具體地,上述利用所述多尺度池化層提取出所述圖像小數(shù)據(jù)集的第二特征圖的過程可以具體為:根據(jù)所述池化層的預(yù)設(shè)池化計算公式,提取所述圖像小數(shù)據(jù)集的所述第二特征圖。
可以將多尺度池化層設(shè)計為4種尺寸size和4種步長stride進行最大值采樣,siez大小分別可以為1、2、3、4,與size對應(yīng)的stride分別可以為1、2、3、4。
上述預(yù)設(shè)池化計算公式具體為:輸入特征圖的size=r×s×m;每張輸出特征圖的size=r×s、
將
多尺度池化層的具體結(jié)構(gòu)可以參見圖4,圖4為本發(fā)明實施例提供的多尺度池化層結(jié)構(gòu)示意圖。具體介紹可以參數(shù)上文多尺度池化層的相關(guān)內(nèi)容,在此不再贅述。
步驟104:根據(jù)所述圖像分類混合模型,對待分類圖像小數(shù)據(jù)集進行分類,得出分類結(jié)果。
本實施例所提供的圖像分類方法,基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu);將訓(xùn)練好的第一卷積層、第二卷積層、第三卷積層、第四卷積層及第五卷積層遷移至小型數(shù)據(jù)庫構(gòu)成底層特征提取層,并與包括兩層卷積層的殘差網(wǎng)絡(luò)層、多尺度池化層、特征層及softmax分類器構(gòu)建得出遷移模型結(jié)構(gòu);其中,多尺度池化層包括與第一卷積層相連的第一多尺度池化層、與第三卷積層相連的第二多尺度池化層及與第五卷積層相連的第三多尺度池化層;特征層為殘差網(wǎng)絡(luò)層提取的特征圖和多尺度池化層提取的特征圖串聯(lián)構(gòu)成的特征層;將圖像小數(shù)據(jù)集輸入遷移模型結(jié)構(gòu),保持底層特征提取層的參數(shù)不變,采用批量梯度下降法更新所述殘差網(wǎng)絡(luò)層和多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型;根據(jù)圖像分類混合模型,對待分類圖像小數(shù)據(jù)集進行分類,得出分類結(jié)果。通過將在大數(shù)據(jù)集上預(yù)訓(xùn)練好的各卷積層遷移至小數(shù)據(jù)集,增加多尺度池化層,將殘差網(wǎng)絡(luò)層和多尺度池化層輸出的特征量串聯(lián)起來輸入至分類器中,可以增加特征量,同時緩解數(shù)據(jù)量少導(dǎo)致的過擬合問題;且通過基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)訓(xùn)練得出的混合模型可以使得有效地提高圖像分類準(zhǔn)確率。
下面對本發(fā)明實施例提供的一種圖像分類裝置進行介紹,下文描述的一種圖像分類裝置與上文描述的一種圖像分類方法可相互對應(yīng)參照。
請參考圖5,圖5為本發(fā)明實施例提供的圖像分類裝置結(jié)構(gòu)示意框圖。該裝置可以包括:
預(yù)訓(xùn)練模塊51,用于基于圖像大數(shù)據(jù)集,訓(xùn)練alexnet模型結(jié)構(gòu),alexnet模型結(jié)構(gòu)為包括依次相連的第一卷積層、第二卷積層、第三卷積層、第四卷積層、第五卷積層、第一全連接層、第二全連接層及softmax分類器的模型;
遷移模型構(gòu)建模塊52,用于將訓(xùn)練好的第一卷積層、第二卷積層、第三卷積層、第四卷積層及所述第五卷積層遷移至小型數(shù)據(jù)庫構(gòu)成底層特征提取層,并與包括兩層卷積層的殘差網(wǎng)絡(luò)層、多尺度池化層、特征層及softmax分類器構(gòu)建得出遷移模型結(jié)構(gòu);
其中,多尺度池化層包括與第一卷積層相連的第一多尺度池化層、與第三卷積層相連的第二多尺度池化層及與第五卷積層相連的第三多尺度池化層;特征層為殘差網(wǎng)絡(luò)層提取的特征圖和多尺度池化層提取的特征圖串聯(lián)構(gòu)成的特征層;
混合模型訓(xùn)練模塊53,用于將圖像小數(shù)據(jù)集輸入遷移模型結(jié)構(gòu),保持底層特征提取層的參數(shù)不變,采用批量梯度下降法更新殘差網(wǎng)絡(luò)層和多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型;
分類模塊54,用于根據(jù)圖像分類混合模型,對待分類圖像小數(shù)據(jù)集進行分類,得出分類結(jié)果。
作為一種具體實施方式,上述混合模型訓(xùn)練模塊可以包括:
獲取單元,用于獲取圖像小數(shù)據(jù)集,將小數(shù)據(jù)集輸入遷移模型結(jié)構(gòu);
第一提取單元,用于利用底層特征提取層提取出圖像小數(shù)據(jù)集的初始特征;
特征訓(xùn)練單元,用于利用殘差網(wǎng)絡(luò)層對初始特征進行訓(xùn)練,得出第一特征圖;
第二提取單元,用于利用多尺度池化層提取出圖像小數(shù)據(jù)集的第二特征圖;
串聯(lián)單元,用于串聯(lián)第一特征圖和第二特征圖,得出目標(biāo)特征圖;
參數(shù)更新訓(xùn)練單元,用于將目標(biāo)特征圖輸入softmax分類器,運用批量梯度下降法,迭代更新殘差網(wǎng)絡(luò)層和多尺度池化層的參數(shù),訓(xùn)練得出圖像分類混合模型。
作為一種具體實施方式,上述殘差網(wǎng)絡(luò)層的激活函數(shù)可以為maxout函數(shù)。
作為一種具體實施方式,上述第二提取單元可以包括:
池化提取子單元,用于根據(jù)池化層的預(yù)設(shè)池化計算公式,提取圖像小數(shù)據(jù)集的第二特征圖;
預(yù)設(shè)池化計算公式具體為:輸入特征圖的size=r×s×m;每張輸出特征圖的size=r×s、
將
其中,[*]為向上取整;m為每個輸入層的特征圖個數(shù);r×s為每個輸入特征圖的尺寸;
作為一種具體實施方式,上述預(yù)訓(xùn)練模塊可以包括:
大數(shù)據(jù)集獲取單元,用于獲取圖像大數(shù)據(jù)集;
訓(xùn)練單元,用于將圖像大數(shù)據(jù)集輸入至alexnet模型結(jié)構(gòu),采用變化的dropout參數(shù)修剪alexnet模型結(jié)構(gòu)的模型參數(shù),訓(xùn)練alexnet模型結(jié)構(gòu);
其中,dropout參數(shù)的更新公式為
本實施例所提供的圖像分類裝置,通過將在大數(shù)據(jù)集上預(yù)訓(xùn)練好的各卷積層遷移至小數(shù)據(jù)集,增加多尺度池化層,將殘差網(wǎng)絡(luò)層和多尺度池化層輸出的特征量串聯(lián)起來輸入至分類器中,可以增加特征量,同時緩解數(shù)據(jù)量少導(dǎo)致的過擬合問題;且通過基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)訓(xùn)練得出的混合模型可以使得有效地提高圖像分類準(zhǔn)確率。
說明書中各個實施例采用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似部分互相參見即可。對于實施例公開的裝置而言,由于其與實施例公開的方法相對應(yīng),所以描述的比較簡單,相關(guān)之處參見方法部分說明即可。
專業(yè)人員還可以進一步意識到,結(jié)合本文中所公開的實施例描述的各示例的單元及算法步驟,能夠以電子硬件、計算機軟件或者二者的結(jié)合來實現(xiàn),為了清楚地說明硬件和軟件的可互換性,在上述說明中已經(jīng)按照功能一般性地描述了各示例的組成及步驟。這些功能究竟以硬件還是軟件方式來執(zhí)行,取決于技術(shù)方案的特定應(yīng)用和設(shè)計約束條件。專業(yè)技術(shù)人員可以對每個特定的應(yīng)用來使用不同方法來實現(xiàn)所描述的功能,但是這種實現(xiàn)不應(yīng)認為超出本發(fā)明的范圍。
結(jié)合本文中所公開的實施例描述的方法或算法的步驟可以直接用硬件、處理器執(zhí)行的軟件模塊,或者二者的結(jié)合來實施。軟件模塊可以置于隨機存儲器(ram)、內(nèi)存、只讀存儲器(rom)、電可編程rom、電可擦除可編程rom、寄存器、硬盤、可移動磁盤、cd-rom、或技術(shù)領(lǐng)域內(nèi)所公知的任意其它形式的存儲介質(zhì)中。
以上對本發(fā)明所提供的圖像分類方法及裝置進行了詳細介紹。本文中應(yīng)用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想。應(yīng)當(dāng)指出,對于本技術(shù)領(lǐng)域的普通技術(shù)人員來說,在不脫離本發(fā)明原理的前提下,還可以對本發(fā)明進行若干改進和修飾,這些改進和修飾也落入本發(fā)明權(quán)利要求的保護范圍內(nèi)。