本發(fā)明涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)的電網(wǎng)設(shè)備分類方法,屬于神經(jīng)網(wǎng)絡(luò)領(lǐng)域。
背景技術(shù):
電網(wǎng)設(shè)備識(shí)別在電網(wǎng)設(shè)備分類、狀態(tài)監(jiān)測(cè)和異常預(yù)警等領(lǐng)域有著非常重要的應(yīng)用,是一項(xiàng)具有很高實(shí)用價(jià)值的技術(shù)。
近年來(lái)基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別方法有了很多突破。但是,由于圖像數(shù)據(jù)數(shù)量限制和CPU運(yùn)算能力的限制,神經(jīng)網(wǎng)絡(luò)的精度一直難以突破,且訓(xùn)練效率很低。隨著數(shù)據(jù)增強(qiáng)技術(shù)和使用GPU計(jì)算的實(shí)現(xiàn),利用基于較少數(shù)據(jù)的深層卷積網(wǎng)絡(luò)實(shí)現(xiàn)圖像準(zhǔn)確分類成為可能。
目前,主流的圖像識(shí)別的方法分為兩大類,第一類是基于邊緣識(shí)別和特征提取的算法。這種方法根據(jù)灰度圖像分割、彩色圖像分割和紋理圖像分割等分割方法得到圖像的特征,然后通過(guò)特征匹配進(jìn)行圖像的分類。這種方法缺點(diǎn)在于計(jì)算量大,對(duì)噪聲敏感,且不具有泛化能力。
第二類是基于深度卷積神經(jīng)網(wǎng)絡(luò)的算法。卷積神經(jīng)網(wǎng)絡(luò)主要用來(lái)識(shí)別位移、縮放及扭曲不變性的二維圖像,其基本結(jié)構(gòu)包括兩層,其一為特征提取層,每個(gè)神經(jīng)元輸入與前一層的局部接受域相連,并提取該局部特征;其二是特征映射層,網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成,每個(gè)特征映射是一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。
Alexnet是常用的卷積神經(jīng)網(wǎng)絡(luò)。Alexnet的結(jié)構(gòu)在“Alex Krizhevsky,ImageNet classification with Deep Convolutional Neural Networks”中提出。應(yīng)用在電網(wǎng)設(shè)備的分類中,其結(jié)構(gòu)可以用圖1說(shuō)明,InputLayer就是輸入圖片層,每個(gè)輸入圖片都將被縮放成227×227大小,分rgb三個(gè)顏色維度輸入。Layer1~Layer5是卷積層,用于提取特征。在卷積濾波后,還接有ReLUs操作和max‐pooling操作。Layer6~Layer8是全連接層,相當(dāng)于在五層卷積層的基礎(chǔ)上再加上一個(gè)三層的全連接神經(jīng)網(wǎng)絡(luò)分類器。
由于Alexnet的特征檢測(cè)層通過(guò)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),所以在使用時(shí),避免了顯式的特征提取,而是隱式從訓(xùn)練數(shù)據(jù)學(xué)習(xí);由于其特征映射層中單獨(dú)神經(jīng)元在約束下共享相同的突觸權(quán)值集,具有位移不變性的優(yōu)點(diǎn)。
缺點(diǎn)在于對(duì)于較少的訓(xùn)練數(shù)據(jù),Alexnet中過(guò)多的卷積層和卷積核非常容易出現(xiàn)數(shù)據(jù)的過(guò)擬合,使得訓(xùn)練完成的網(wǎng)絡(luò)對(duì)于測(cè)試數(shù)據(jù)分類結(jié)果很不準(zhǔn)確,沒(méi)有實(shí)用性。
技術(shù)實(shí)現(xiàn)要素:
為了解決上述技術(shù)問(wèn)題,本發(fā)明提供了一種基于卷積神經(jīng)網(wǎng)絡(luò)的電網(wǎng)設(shè)備分類方法。
為了達(dá)到上述目的,本發(fā)明所采用的技術(shù)方案是:
一種基于卷積神經(jīng)網(wǎng)絡(luò)的電網(wǎng)設(shè)備分類方法,包括以下步驟,
步驟1,根據(jù)已有的電網(wǎng)設(shè)備圖像訓(xùn)練集和測(cè)試集,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型;
卷積神經(jīng)網(wǎng)絡(luò)模型包括輸入層、卷積層、全連接層和Softmax層;所述輸入層對(duì)輸入的圖像數(shù)據(jù)進(jìn)行預(yù)處理,用以增大數(shù)據(jù)量;所述卷積層的數(shù)量不大于N,N+1為常用卷積神經(jīng)網(wǎng)絡(luò)卷積層的層數(shù);
步驟2,利用訓(xùn)練完成的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)需分類的電網(wǎng)設(shè)備圖像進(jìn)行分類。
輸入層利用數(shù)據(jù)增強(qiáng)技術(shù)將輸入的圖像數(shù)據(jù)進(jìn)行預(yù)處理,用以增大數(shù)據(jù)量。
輸入輸入層的圖像數(shù)據(jù)包括圖像均值和lmdb文件,lmdb文件中包括電網(wǎng)設(shè)備圖像以及對(duì)應(yīng)的電網(wǎng)設(shè)備分類標(biāo)簽文檔,每張電網(wǎng)設(shè)備圖像都對(duì)應(yīng)有一個(gè)電網(wǎng)設(shè)備分類標(biāo)簽文檔。
采用權(quán)值共享方法,建立卷積層。
卷積層對(duì)輸入的電網(wǎng)設(shè)備圖像依次進(jìn)行卷積、非線性激活、平滑和最大值池化處理。
采用采用ReLU型的激勵(lì)函數(shù)進(jìn)行非線性激活。
N=4。
本發(fā)明所達(dá)到的有益效果:本發(fā)明利用數(shù)據(jù)增強(qiáng)技術(shù)將輸入圖像數(shù)據(jù)進(jìn)行預(yù)處理,通過(guò)剪切、隨機(jī)反轉(zhuǎn),增大數(shù)據(jù)量,解決了數(shù)據(jù)量不足會(huì)導(dǎo)致網(wǎng)絡(luò)過(guò)擬合,精度下降的問(wèn)題;鑒于訓(xùn)練數(shù)據(jù)的數(shù)量較少,削減了卷積層數(shù)量和卷積核數(shù)目,同時(shí)增大卷積核的尺寸,減小了每層卷積層所提取出的特征圖的大小,從而減少了卷積層提取出的特征數(shù)量,同樣起到了防止過(guò)擬合的作用,提高了精度。
附圖說(shuō)明
圖1為常用卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu);
圖2為本發(fā)明的流程圖。
具體實(shí)施方式
下面結(jié)合附圖對(duì)本發(fā)明作進(jìn)一步描述。以下實(shí)施例僅用于更加清楚地說(shuō)明本發(fā)明的技術(shù)方案,而不能以此來(lái)限制本發(fā)明的保護(hù)范圍。
一種基于卷積神經(jīng)網(wǎng)絡(luò)的電網(wǎng)設(shè)備分類方法,包括以下步驟:
步驟1,構(gòu)建訓(xùn)練集和測(cè)試集。
通過(guò)實(shí)地拍照,采集六大電網(wǎng)設(shè)備圖像,每類采集24張,并按照3:1的比例分為訓(xùn)練圖片和測(cè)試圖片。
步驟2,構(gòu)建與電網(wǎng)設(shè)備圖像對(duì)應(yīng)的電網(wǎng)設(shè)備分類標(biāo)簽文檔。
每張電網(wǎng)設(shè)備圖像都對(duì)應(yīng)有一個(gè)電網(wǎng)設(shè)備分類標(biāo)簽文檔,電網(wǎng)設(shè)備分類標(biāo)簽文檔中存儲(chǔ)有對(duì)應(yīng)電網(wǎng)設(shè)備圖像的讀取路徑和文件名,其中,文件名=名稱+數(shù)字標(biāo)簽,例如:0代表變壓器、1代表避雷器、2代表電流互感器、3代表電壓互感器、4代表斷路器、5代表整流器。
步驟3,將電網(wǎng)設(shè)備圖像以及對(duì)應(yīng)的電網(wǎng)設(shè)備分類標(biāo)簽文檔打包成lmdb文件。
步驟4,分別計(jì)算訓(xùn)練集和測(cè)試集中各電網(wǎng)設(shè)備圖像的圖像均值。
步驟5,構(gòu)建并訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型。
卷積神經(jīng)網(wǎng)絡(luò)模型包括輸入層、卷積層、全連接層和Softmax層,其中,輸入層利用數(shù)據(jù)增強(qiáng)技術(shù)將輸入的圖像數(shù)據(jù)進(jìn)行預(yù)處理,用以增大數(shù)據(jù)量;卷積層采用權(quán)值共享方法建立,卷積層的數(shù)量不大于N,N+1為常用卷積神經(jīng)網(wǎng)絡(luò)卷積層的層數(shù)。常用卷積神經(jīng)網(wǎng)絡(luò)卷積層的層數(shù)為5,這里的卷積層的數(shù)量區(qū)4。
用訓(xùn)練集和測(cè)試集進(jìn)行訓(xùn)練過(guò)程為:
S51,將訓(xùn)練用的圖像數(shù)據(jù)輸入輸入層進(jìn)行預(yù)處理;
訓(xùn)練用的圖像數(shù)據(jù)包括訓(xùn)練集中的電網(wǎng)設(shè)備圖像以及對(duì)應(yīng)的電網(wǎng)設(shè)備分類標(biāo)簽文檔打包成lmdb文件、訓(xùn)練集中的電網(wǎng)設(shè)備圖像的圖像均值。
對(duì)圖像數(shù)據(jù)預(yù)處理主要處理的是電網(wǎng)設(shè)備圖像,這里依次通過(guò)剪切和隨機(jī)反轉(zhuǎn)的方法,增大數(shù)據(jù)量。例如:對(duì)于256×256的圖像進(jìn)行隨機(jī)剪切到227×227,然后允許水平翻轉(zhuǎn),那么相當(dāng)與將樣本倍增到(256-227)2×2=1682,測(cè)試時(shí)候,對(duì)左上、右上、左下、右下、中間做了5次剪切,然后翻轉(zhuǎn),共10個(gè)剪切,之后對(duì)結(jié)果求平均。
S52,定義t=1,將預(yù)處理后的訓(xùn)練用的圖像數(shù)據(jù)輸出到第t層卷積層;
S53,依次對(duì)其進(jìn)行卷積、非線性激活、平滑和最大值池化處理;
這里的采用ReLU型的激勵(lì)函數(shù)進(jìn)行非線性激活,具體數(shù)學(xué)表達(dá)式為:f(x)=max(0,x),其中,f(x)為輸出,x為輸入,當(dāng)輸入小于0時(shí),輸出都是0,當(dāng)輸入大于0時(shí),輸出等于輸入;
平滑處理的具體公式如下:
其中,n為同一個(gè)位置上臨近的平滑核的數(shù)目,N是平滑核的總數(shù)目,k,α,β為預(yù)設(shè)的參數(shù),是對(duì)位于(x′,y)的像素運(yùn)用核i計(jì)算得到的激活值,是對(duì)位于(x′,y)的像素運(yùn)用核j計(jì)算得到的激活值,是對(duì)進(jìn)行平滑操作后的激活值。最大值池化選擇池化窗口中的最大值作為采樣值;
S54,判斷t是否等于N,如果是,則轉(zhuǎn)至S55;如果不是,則t=t+1,將t層卷積層的輸出傳遞至t+1層卷積層,轉(zhuǎn)至S53;
S55,將N層卷積層的輸出依次經(jīng)過(guò)兩層全連接層輸出至Softmax層。
第一層全連接層是N層卷積層進(jìn)行池化后的全連接,第二層全連接層是第一層全連接層進(jìn)行非線性激活后,然后進(jìn)行Dropout后再進(jìn)行全連接的結(jié)果;
Dropout的具體做法是對(duì)于每一個(gè)隱層,以50%的概率將他們?cè)O(shè)置為0,不再對(duì)于前向運(yùn)算或者后向反饋的過(guò)程起任何作用,對(duì)于每一個(gè)輸入來(lái)說(shuō),使用的不同的網(wǎng)絡(luò)結(jié)構(gòu),但是權(quán)重是共享的,這樣求得的參數(shù)能夠適應(yīng)不同的情況下的網(wǎng)絡(luò)結(jié)構(gòu),也就是提高了系統(tǒng)的泛化能力;
Softmax層輸出的每一維電網(wǎng)設(shè)備圖像屬于該類別的概率;
S56,將Softmax層輸出的結(jié)果與對(duì)應(yīng)的電網(wǎng)設(shè)備分類標(biāo)簽文檔中的數(shù)字標(biāo)簽進(jìn)行對(duì)比;
S57,根據(jù)兩者的的殘差采用隨機(jī)梯度下降法調(diào)整卷積神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù),重復(fù)S52~S57的步驟,直到殘差小于閾值完成訓(xùn)練,最后輸出訓(xùn)練完成的卷積神經(jīng)網(wǎng)絡(luò)模型;
S58,調(diào)用卷積神經(jīng)網(wǎng)絡(luò)模型,輸入測(cè)試用的圖像數(shù)據(jù),將判斷結(jié)果與已知正確結(jié)果相比較,建立精度層、損失層,實(shí)時(shí)輸出這一判斷的正確率以及損失。
測(cè)試用的圖像數(shù)據(jù)包括測(cè)試集中的電網(wǎng)設(shè)備圖像以及對(duì)應(yīng)的電網(wǎng)設(shè)備分類標(biāo)簽文檔打包成lmdb文件、測(cè)試中的電網(wǎng)設(shè)備圖像的圖像均值。
步驟6,利用訓(xùn)練完成的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)需分類的電網(wǎng)設(shè)備圖像進(jìn)行分類。
上述方法利用數(shù)據(jù)增強(qiáng)技術(shù)將輸入圖像數(shù)據(jù)進(jìn)行預(yù)處理,通過(guò)剪切、隨機(jī)反轉(zhuǎn),增大數(shù)據(jù)量,解決了數(shù)據(jù)量不足會(huì)導(dǎo)致網(wǎng)絡(luò)過(guò)擬合,精度下降的問(wèn)題;鑒于訓(xùn)練數(shù)據(jù)的數(shù)量較少,削減了卷積層數(shù)量和卷積核數(shù)目,同時(shí)增大卷積核的尺寸,減小了每層卷積層所提取出的特征圖的大小,從而減少了卷積層提取出的特征數(shù)量,同樣起到了防止過(guò)擬合的作用,提高了精度。
以上所述僅是本發(fā)明的優(yōu)選實(shí)施方式,應(yīng)當(dāng)指出,對(duì)于本技術(shù)領(lǐng)域的普通技術(shù)人員來(lái)說(shuō),在不脫離本發(fā)明技術(shù)原理的前提下,還可以做出若干改進(jìn)和變形,這些改進(jìn)和變形也應(yīng)視為本發(fā)明的保護(hù)范圍。