本發(fā)明涉及人工智能技術(shù)領(lǐng)域,尤其涉及深度學(xué)習(xí)的特征可視化及模型評(píng)估方法。
背景技術(shù):
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)拉出的分支,它試圖使用包含復(fù)雜結(jié)構(gòu)或由多重非線性變換構(gòu)成的多個(gè)處理層對數(shù)據(jù)進(jìn)行高層抽象的算法。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中一種基于對數(shù)據(jù)進(jìn)行表征學(xué)習(xí)的方法。
觀測值(例如一幅圖像)可以使用多種方式來表示,如每個(gè)像素強(qiáng)度值的向量,或者更抽象地表示成一系列邊、特定形狀的區(qū)域等。而使用某些特定的表示方法更容易從實(shí)例中學(xué)習(xí)任務(wù)(例如,人臉識(shí)別或面部表情識(shí)別)。
深度學(xué)習(xí)的好處是用非監(jiān)督式或半監(jiān)督式的特征學(xué)習(xí)和分層特征提取高效算法來替代手工獲取特征。
現(xiàn)有的深度學(xué)習(xí)研究雖然在圖像分類、語音識(shí)別等領(lǐng)域都取得了很好的變現(xiàn),但是由于其多層的非線性結(jié)構(gòu),使得深度學(xué)習(xí)就像一個(gè)‘黑盒子’。
這樣使得初學(xué)者并不能對深度學(xué)習(xí)這個(gè)工具有個(gè)直觀的印象,對學(xué)者來說也不清楚深度學(xué)習(xí)網(wǎng)絡(luò)究竟學(xué)習(xí)到了什么特征。
故此提出深度學(xué)習(xí)的特征可視化及模型評(píng)估方法,對模型學(xué)習(xí)到的特征經(jīng)行可視化顯示,使得深度學(xué)習(xí)更加直觀易懂,并根據(jù)可視化后的結(jié)果來判斷學(xué)習(xí)到的模型的好壞。
技術(shù)實(shí)現(xiàn)要素:
鑒于現(xiàn)有方案存在的問題,為了克服上述現(xiàn)有技術(shù)方案的不足,本發(fā)明提出了一種深度學(xué)習(xí)的特征可視化及模型評(píng)估方法。
根據(jù)本發(fā)明的一個(gè)方面,提供了1、一種深度學(xué)習(xí)的特征可視化及模型評(píng)估方法,包括以下步驟:對深度學(xué)習(xí)網(wǎng)絡(luò)模型從圖像數(shù)據(jù)庫輸入圖像數(shù)據(jù),經(jīng)過卷積層、非線性層、池化層對傳入的所述圖像數(shù)據(jù)進(jìn)行一次前向傳播,得到分類結(jié)果;利用反向傳播算法或反卷積算法或LRP算法,計(jì)算對應(yīng)輸入圖像的特征圖;以及基于所述特征圖進(jìn)行可視化分析及對深度學(xué)習(xí)網(wǎng)絡(luò)模型模型進(jìn)行評(píng)估。
從上述技術(shù)方案可以看出,本發(fā)明具有以下有益效果:
采用反向傳播算法或反卷積算法或LRP算法求得對應(yīng)輸入圖像的特征圖,進(jìn)而實(shí)現(xiàn)可視化分析;
深度學(xué)習(xí)與可視化技術(shù)結(jié)合,直觀的表現(xiàn)出模型所學(xué)習(xí)到的每個(gè)特征,使得深度學(xué)習(xí)更加易于理解;同時(shí)對特征圖進(jìn)行評(píng)價(jià)指標(biāo)計(jì)算,達(dá)到模型評(píng)價(jià)的目的。
附圖說明
圖1是本發(fā)明實(shí)施例深度學(xué)習(xí)的特征可視化及模型評(píng)估方法流程圖;
圖2是圖1中是深度學(xué)習(xí)模型利用反向求導(dǎo)算法求特征圖流程圖;
圖3是圖1中深度學(xué)習(xí)模型利用反卷積算法求特征圖流程圖;
圖4是深度學(xué)習(xí)模型利用LRP算法求特征圖流程圖;
圖5是圖1中深度學(xué)習(xí)模型可視化及評(píng)價(jià)方法流程圖。
具體實(shí)施方式
本發(fā)明某些實(shí)施例于后方將參照所附附圖做更全面性地描述,其中一些但并非全部的實(shí)施例將被示出。實(shí)際上,本發(fā)明的各種實(shí)施例可以許多不同形式實(shí)現(xiàn),而不應(yīng)被解釋為限于此數(shù)所闡述的實(shí)施例;相對地,提供這些實(shí)施例使得本發(fā)明滿足適用的法律要求。
在本說明書中,下述用于描述本發(fā)明原理的各種實(shí)施例只是說明,不應(yīng)該以任何方式解釋為限制發(fā)明的范圍。參照附圖的下述描述用于幫助全面理解由權(quán)利要求及其等同物限定的本發(fā)明的示例性實(shí)施例。下述描述包括多種具體細(xì)節(jié)來幫助理解,但這些細(xì)節(jié)應(yīng)認(rèn)為僅僅是示例性的。因此,本領(lǐng)域普通技術(shù)人員應(yīng)認(rèn)識(shí)到,在不悖離本發(fā)明的范圍和精神的情況下,可以對本文中描述的實(shí)施例進(jìn)行多種改變和修改。此外,為了清楚和簡潔起見,省略了公知功能和結(jié)構(gòu)的描述。此外,貫穿附圖,相同附圖標(biāo)記用于相似功能和操作。
為使本發(fā)明的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚明白,以下結(jié)合具體實(shí)施例,并參照附圖,對本發(fā)明進(jìn)一步詳細(xì)說明。
本發(fā)明實(shí)施例提供了一種深度學(xué)習(xí)的特征可視化及模型評(píng)估方法,利用反向傳播算法或反卷積算法或LRP算法求得對應(yīng)輸入圖像的特征圖,利用求得的特征圖,進(jìn)行可視化分析,并對模型進(jìn)行評(píng)估。
圖1示出了本發(fā)明實(shí)施例深度學(xué)習(xí)的特征可視化及模型評(píng)估方法流程圖,附圖1所示,實(shí)施例深度學(xué)習(xí)的特征可視化及模型評(píng)估方法包括如下步驟:
S100:對深度學(xué)習(xí)網(wǎng)絡(luò)模型從圖像數(shù)據(jù)庫輸入圖像數(shù)據(jù),經(jīng)過卷積層、非線性層、池化層對傳入的圖像數(shù)據(jù)進(jìn)行一次前向傳播,得到分類結(jié)果;
其中,輸入圖像數(shù)據(jù)可以為任意大小,任意格式,一次前向傳播表示從輸入圖像數(shù)據(jù)計(jì)算到其分類結(jié)果。
S200:利用算法,計(jì)算對應(yīng)輸入圖像的特征圖,算法包括反向傳播算法或反卷積算法或LRP算法。
S300:基于所述特征圖進(jìn)行可視化分析及對深度學(xué)習(xí)網(wǎng)絡(luò)模型模型進(jìn)行評(píng)估。
圖2是深度學(xué)習(xí)模型利用反向求導(dǎo)算法求特征圖流程圖,如圖2所示,若采用反向傳播算法,步驟S200具體包括:
步驟S201:在目標(biāo)層設(shè)置優(yōu)化函數(shù),其中目標(biāo)層可以為卷積層或非線性層或池化層,然后在網(wǎng)絡(luò)中對優(yōu)化函數(shù)針對輸入圖像求偏導(dǎo)數(shù),通過鏈?zhǔn)角髮?dǎo)法則從一層到另一層,其中連續(xù)的兩層x(l)和x(l+1)對激勵(lì)的貢獻(xiàn)通過式(1)計(jì)算,通過反向傳播算法獲得特征數(shù)據(jù);
具體地,在對深度學(xué)習(xí)中池化層求偏導(dǎo)數(shù)時(shí)(即圖2中反池化層),針對最大池化操作在前向傳播時(shí)需記住取得最大值的位置,在反池化操作時(shí)根據(jù)記住的位置返回為原來的空間;
在對深度學(xué)習(xí)中非線性層求偏導(dǎo)數(shù)時(shí)(即圖2中反線性層求導(dǎo)),根據(jù)前向非線性層傳播取得最大值索引返回上一層的導(dǎo)數(shù);
對卷積層求偏導(dǎo)數(shù)(即圖2中濾波器層)時(shí),通過對前向計(jì)算的卷積層偏置參數(shù)的轉(zhuǎn)置求卷積。
步驟S202:特征數(shù)據(jù)組合成特征圖。
圖3是深度學(xué)習(xí)模型利用反卷積算法求特征圖流程圖,如圖3所示,若采用反卷積算法,步驟S200具體包括:
步驟S211:在目標(biāo)層設(shè)置優(yōu)化函數(shù),其中目標(biāo)層可以為卷積層或非線性層或池化層,通過反卷積算法獲得特征數(shù)據(jù);
具體的,在對深度學(xué)習(xí)中池化層反向傳播時(shí)(即圖3中反池化層),針對最大池化操作在前向傳播時(shí)需記住取得最大值的位置,在反池化操作時(shí)根據(jù)記住的位置返回為原來的空間;
在對深度學(xué)習(xí)中非線性層反向傳播時(shí)(即圖3中非線性層),其非線性層的操作和正向傳播的非線性層的操作一致;
在對深度學(xué)習(xí)中卷積層反向傳播時(shí)(即圖3中反卷積層)通過式(2)對神經(jīng)網(wǎng)絡(luò)的輸出映射為輸入圖像空間,其中R(l),R(l+1)表示反向傳遞的信號(hào)值,mdec表示反卷積操作,Q(l,l+1)表示神經(jīng)網(wǎng)絡(luò)l層和l+1層之間的權(quán)重。
R(l)=mdec(R(l+1);Q(l,l+1))………………(2)
步驟S212:特征數(shù)據(jù)組合成特征圖。
圖4是深度學(xué)習(xí)模型利用LRP算法求特征圖流程圖,如圖4所示若采用LRP算法,步驟S200具體包括:
步驟S221:指定輸出層的某一類概率之后,對LRP算法需要滿足一致性約束條件,如式(3)所示,獲得特征數(shù)據(jù):
具體的,在對深度學(xué)習(xí)中池化層反向傳播時(shí)(即圖4中反池化層),針對最大池化操作在前向傳播時(shí)需記住取得最大值的位置,在反池化操作時(shí)根據(jù)記住的位置返回為原來的空間;
對于LRP算法,其反卷積層(即圖4中反卷積層)一種計(jì)算方法計(jì)算如式(4),其中zij表示神經(jīng)元i傳遞到下一層神經(jīng)元j的數(shù)值。
對于LRP算法,其反卷積層(即圖4中反卷積層)另一種計(jì)算方法計(jì)算如式(5),其中的α=2和β=-1公式(5)中為神經(jīng)元i傳遞到下一層神經(jīng)元j的正數(shù)部分,為神經(jīng)元i傳遞到下一層神經(jīng)元j的負(fù)數(shù)部分。
步驟S222:特征數(shù)據(jù)組合成特征圖。
圖5為深度學(xué)習(xí)模型可視化及評(píng)價(jià)方法流程圖,如圖5所示,步驟300具體包括:
步驟S301:對步驟S200獲得的特征圖進(jìn)行顯示可視化;
步驟S302:對步驟S200獲得的特征圖用一個(gè)有序的局部特征集合來表示(圖5中局部特征劃分),如式(6),其中rp表示局部區(qū)域的二維向量,其中p為1,2.....L,L為為所設(shè)定的局部特征個(gè)數(shù)。
步驟S303:對于上式所表示的有序特征集合進(jìn)行局部特征排序,其局部特征排列順序(圖5中局部特征區(qū)域排序)由式(7)決定,其中x為對應(yīng)的輸入圖像,f為模型的分類函數(shù),i,j表示神經(jīng)網(wǎng)絡(luò)的第i層和第j層。
步驟S304:對輸入圖像所對應(yīng)的局部特征局域像素進(jìn)行擾動(dòng)(圖5中擾動(dòng)輸入圖像)。對于局部特征的擾動(dòng)處理如式(8)所示,其中g(shù)表示在x的rk周圍的像素用均勻分布的像素隨機(jī)替代,其中k為1,2…L。
x(0)=x
x(k)=g(xk-1,rk)………………(8)
步驟S305:對處理后的輸入圖像根據(jù)式(9)計(jì)算模型評(píng)價(jià)指標(biāo),深度學(xué)習(xí)模型的評(píng)價(jià)指標(biāo)由下式所決定其中,p(x)為表示對數(shù)據(jù)集里的所有圖片求平均,其中AOPC指標(biāo)數(shù)值越高表示模型的性能越好。
至此,本發(fā)明實(shí)施例介紹完畢。
前面的附圖中所描繪的進(jìn)程或方法可通過包括硬件(例如,電路、專用邏輯等)、固件、軟件(例如,被承載在非瞬態(tài)計(jì)算機(jī)可讀介質(zhì)上的軟件),或兩者的組合的處理邏輯來執(zhí)行。雖然上文按照某些順序操作描述了進(jìn)程或方法,但是,應(yīng)該理解,所描述的某些操作能以不同順序來執(zhí)行。此外,可并行地而非順序地執(zhí)行一些操作。
需要說明的是,在附圖或說明書正文中,未繪示或描述的實(shí)現(xiàn)方式,均為所屬技術(shù)領(lǐng)域中普通技術(shù)人員所知的形式,并未進(jìn)行詳細(xì)說明。此外,上述對各元件和方法的定義并不僅限于實(shí)施例中提到的各種具體結(jié)構(gòu)、形狀或方式,本領(lǐng)域普通技術(shù)人員可對其進(jìn)行簡單地更改或替換。
以上所述的具體實(shí)施例,對本發(fā)明的目的、技術(shù)方案和有益效果進(jìn)行了進(jìn)一步詳細(xì)說明,應(yīng)理解的是,以上所述僅為本發(fā)明的具體實(shí)施例而已,并不用于限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所做的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。