一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法
【專利摘要】本發(fā)明公開一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,該方法采用的深層神經(jīng)網(wǎng)絡(luò)由深層結(jié)構(gòu)模塊和單隱藏層神經(jīng)網(wǎng)絡(luò)模塊兩部分組成,包括如下步驟:利用SVM將危險(xiǎn)源信息劃分到不同的領(lǐng)域分類中,并將不同的領(lǐng)域分類集輸入到相應(yīng)的網(wǎng)絡(luò)模塊中;對(duì)每個(gè)網(wǎng)絡(luò)模塊使用S?ELM算法,得到各深層網(wǎng)絡(luò)的預(yù)識(shí)別結(jié)果;將深層網(wǎng)絡(luò)預(yù)識(shí)別結(jié)果組合作為頂層神經(jīng)網(wǎng)絡(luò)的輸入;根據(jù)ELM算法和激勵(lì)函數(shù),計(jì)算單隱藏層ELM的初始隱層輸出和輸出權(quán)重;根據(jù)改進(jìn)的反向傳播算法,確定網(wǎng)絡(luò)的最終輸入權(quán)重,隱藏層特征空間和輸出權(quán)重;最終得到危險(xiǎn)源識(shí)別結(jié)果。此種識(shí)別方法可提高危險(xiǎn)源識(shí)別的靈活性,減少經(jīng)驗(yàn)數(shù)據(jù)的急劇膨脹,提高對(duì)經(jīng)驗(yàn)知識(shí)的利用率,緩解高維數(shù)據(jù)訓(xùn)練時(shí)的內(nèi)存壓力。
【專利說明】
一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于信息感知與識(shí)別技術(shù)領(lǐng)域,特別涉及一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn) 源識(shí)別方法。
【背景技術(shù)】
[0002] 隨著民航事業(yè)的迅猛發(fā)展,空中交通安全管理壓力驟增??焖贉?zhǔn)確地發(fā)現(xiàn)空管系 統(tǒng)中的危險(xiǎn)源,并準(zhǔn)確地對(duì)危險(xiǎn)源進(jìn)行控制,對(duì)提高空管安全有著重要的作用。
[0003] 現(xiàn)階段危險(xiǎn)源識(shí)別技術(shù)大體分為3種類型。第一種是人工分析法,這種方式主要依 靠經(jīng)驗(yàn)知識(shí),結(jié)合航空局提供的相關(guān)分析方法進(jìn)行分析,但是不能將人力解放出來去解決 更加復(fù)雜的問題。第二種方法是計(jì)算機(jī)輔助法,通過計(jì)算機(jī)構(gòu)建系統(tǒng)模型輔助人工分析或 實(shí)現(xiàn)相關(guān)方法的分析過程,這樣減少了人力的消耗,但是不能充分利用現(xiàn)有的經(jīng)驗(yàn)知識(shí)。第 三種方法是以專家系統(tǒng)為代表的智能化危險(xiǎn)源識(shí)別方法,目前該方法的核心技術(shù)主要是基 于案例推理的方法,該方法可以有效利用經(jīng)驗(yàn)知識(shí),但存在經(jīng)驗(yàn)數(shù)據(jù)庫膨脹和靈活性差的 問題。
[0004]為此,在現(xiàn)代民航空中交通管理中需要一種危險(xiǎn)源識(shí)別方法能夠充分利用經(jīng)驗(yàn)知 識(shí)并且靈活準(zhǔn)確。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明的目的,在于提供一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其可提高 危險(xiǎn)源識(shí)別的靈活性,減少經(jīng)驗(yàn)數(shù)據(jù)的急劇膨脹,提高對(duì)經(jīng)驗(yàn)知識(shí)的利用率,緩解高維數(shù)據(jù) 訓(xùn)練時(shí)的內(nèi)存壓力。
[0006] 為了達(dá)成上述目的,本發(fā)明的解決方案是:
[0007] -種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,該方法采用的深層神經(jīng)網(wǎng)絡(luò)由深層 結(jié)構(gòu)模塊和單隱藏層神經(jīng)網(wǎng)絡(luò)模塊兩部分組成,包括如下步驟:
[0008] 步驟1,利用SVM將危險(xiǎn)源信息R劃分到不同的領(lǐng)域分類中,并將不同的領(lǐng)域分類集 輸入到相應(yīng)的網(wǎng)絡(luò)模塊中;
[0009] 步驟2,對(duì)每個(gè)網(wǎng)絡(luò)模塊使用S-ELM算法,得到各深層網(wǎng)絡(luò)的預(yù)識(shí)別結(jié)果H1;
[0010] 步驟3:將深層網(wǎng)絡(luò)預(yù)識(shí)別結(jié)果組合作為單隱藏層神經(jīng)網(wǎng)絡(luò)模塊的輸入Hinput = {Hi,…,H4};
[0011] 步驟4:根據(jù)ELM算法和激勵(lì)函數(shù),計(jì)算單隱藏層ELM的初始隱層輸出Ht和輸出權(quán)重 0t,下標(biāo)t表示該變量是臨時(shí)變量;
[0012] 步驟5:根據(jù)改進(jìn)的反向傳播算法,確定網(wǎng)絡(luò)的最終輸入權(quán)重W,隱藏層特征空間Η 和輸出權(quán)重β;
[0013]步驟6:危險(xiǎn)源識(shí)別結(jié)果:
[0014] Γ〇 = Ηβ。
[0015] 上述步驟1中,將危險(xiǎn)源分為人員、設(shè)備、環(huán)境和管理4個(gè)領(lǐng)域,分別以 表示,則分類后的結(jié)果是R = {&,C2,C3,C4}τ。
[0016]上述步驟2的詳細(xì)內(nèi)容是:設(shè)各網(wǎng)絡(luò)模塊隱藏節(jié)點(diǎn)的個(gè)數(shù)為出,深層網(wǎng)絡(luò)的層數(shù)為 U,根據(jù)危險(xiǎn)源構(gòu)成要素表T,從不同數(shù)域隨機(jī)產(chǎn)生各網(wǎng)絡(luò)模塊的權(quán)重巧=Wv·…口 隱藏節(jié)點(diǎn)偏移量& = 1色1,..::.,色%},并選擇3型函數(shù):
[0018]作為激勵(lì)函數(shù),計(jì)算各網(wǎng)絡(luò)模塊首層的隱層特征空間Hll:
[0020]使用維度約減算法對(duì)各網(wǎng)絡(luò)模塊首層產(chǎn)生的隱層特征空間約減得到把u并把把u 傳遞給第二層;在第二層,隨機(jī)產(chǎn)生H-礦u個(gè)隱層節(jié)點(diǎn),它們的輸出與礦u相結(jié)合構(gòu)成第二 層隱層特征空間Hl2,重復(fù)上述步驟,直到產(chǎn)生第L層的隱層特征空間H lL,網(wǎng)絡(luò)模塊的隱層特 征空間Hi = HiL〇
[0021]上述步驟4中,輸出權(quán)重的計(jì)算公式是:
[0023]其中,0表示訓(xùn)練數(shù)據(jù)集的輸出。
[0024] 上述步驟5中,隱藏層特征空間Η的計(jì)算公式是:
[0025] 漢=1 / [1 - exp、-U+/,)]
[0026] 其中,b表示隱層節(jié)點(diǎn)偏移量。
[0027] 上述的深層結(jié)構(gòu)模塊和單隱藏層神經(jīng)網(wǎng)絡(luò)模塊異構(gòu)。
[0028] 采用上述方案后,本發(fā)明與現(xiàn)有識(shí)別技術(shù)相比,具有以下效益:
[0029] (1)通過分模塊學(xué)習(xí)使得網(wǎng)絡(luò)能夠維持較優(yōu)的結(jié)構(gòu),提高了危險(xiǎn)源識(shí)別準(zhǔn)確性并 解決了神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)內(nèi)存受限的問題;
[0030] (2)通過使用深層神經(jīng)網(wǎng)絡(luò)方法,由網(wǎng)絡(luò)記憶對(duì)案例的學(xué)習(xí)結(jié)果,不需要搜索案例 庫,減慢了案例庫的增長(zhǎng)速度;
[0031] (3)若有新的危險(xiǎn)源出現(xiàn)出現(xiàn),網(wǎng)絡(luò)學(xué)習(xí)新的識(shí)別特征,提高識(shí)別的靈活性。
【附圖說明】
[0032] 圖1是本發(fā)明使用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖;
[0033]圖2是S-ELM算法的流程圖;
[0034]圖3是本發(fā)明的流程圖。
【具體實(shí)施方式】
[0035]以下將結(jié)合附圖,對(duì)本發(fā)明的技術(shù)方案進(jìn)行詳細(xì)說明。
[0036]本發(fā)明提供一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,首先對(duì)其使用的異構(gòu)的 深層神經(jīng)網(wǎng)絡(luò)進(jìn)行說明,如圖1所示,該神經(jīng)網(wǎng)絡(luò)由兩部分構(gòu)成,第一部分是按照模塊組織 的深層結(jié)構(gòu),該結(jié)構(gòu)由多個(gè)深層神經(jīng)網(wǎng)絡(luò)構(gòu)成,根據(jù)輸入數(shù)據(jù)的不同,這些深層神經(jīng)網(wǎng)絡(luò)可 以具有不同的隱藏節(jié)點(diǎn)個(gè)數(shù)和層數(shù);第二部分是一個(gè)單隱藏層神經(jīng)網(wǎng)絡(luò),用來接收深層結(jié) 構(gòu)的學(xué)習(xí)特征。
[0037] (一)深層結(jié)構(gòu)模塊
[0038] 在深層結(jié)構(gòu)中,各模塊可根據(jù)危險(xiǎn)源狀態(tài)信息所屬領(lǐng)域或其他的危險(xiǎn)源狀態(tài)信息 分類規(guī)則進(jìn)行劃分,根據(jù)不同的領(lǐng)域構(gòu)建不同的深層神經(jīng)網(wǎng)絡(luò)。我們引入棧式極限學(xué)習(xí)機(jī) (S_ELM,Stacked Extreme Learning Machine)作為網(wǎng)絡(luò)的訓(xùn)練方法。如圖2所不,S-ELM算 法的主要思想是前一層節(jié)點(diǎn)能夠有選擇地傳遞其中的重要節(jié)點(diǎn)給上一層,然后上層節(jié)點(diǎn)利 用接受的節(jié)點(diǎn)與隨機(jī)產(chǎn)生的節(jié)點(diǎn)構(gòu)成自己的隱層輸出。算法本質(zhì)就是網(wǎng)絡(luò)的第L-1層中的η 維隱層特征空間通過維度約減產(chǎn)生最重要的η'維隱層特征空間,并將這η'維隱層特征空間 傳遞給上一層,上一層只需要產(chǎn)生η-Υ個(gè)隨機(jī)節(jié)點(diǎn),這η-Υ個(gè)節(jié)點(diǎn)產(chǎn)生的隱層輸出與接收 到的Υ個(gè)節(jié)點(diǎn)作為第L層的隱層特征空間??紤]到一般危險(xiǎn)源的構(gòu)成要素對(duì)于危險(xiǎn)源的識(shí) 別具有一定的指導(dǎo)作用,我們對(duì)S-ELM算法進(jìn)行了改進(jìn)。在算法中,構(gòu)建一張存放一般危險(xiǎn) 源構(gòu)成要素的表L,在初始化權(quán)重時(shí),查找表L,如果狀態(tài)信息在L中,從一個(gè)較大的數(shù)域中隨 機(jī)產(chǎn)生相應(yīng)的權(quán)重值;否則,從較小的數(shù)域中產(chǎn)生權(quán)重。
[0039] 在S-ELM中,重要節(jié)點(diǎn)通常通過主成分分析算法(PCA,Principal Components Algorithm)來產(chǎn)生。它的主要思想是利用數(shù)據(jù)集協(xié)方差矩陣的特征值分解或數(shù)據(jù)集矩陣的 奇異值分解將數(shù)據(jù)集中相關(guān)的變量轉(zhuǎn)換為非線性相關(guān)的變量。具體方法是將相關(guān)數(shù)據(jù)標(biāo)準(zhǔn) 化,求出標(biāo)準(zhǔn)化后矩陣B的協(xié)方差矩陣C,利用特征值分解求C的特征向量D和特征值V,將特 征值和相應(yīng)的特征向量按特征值遞減排列得到排序后特征向量V,將矩陣B與D'的前m行相 乘,得到非線性相關(guān)的變量Y = BD'。
[0040] (二)單隱藏層神經(jīng)網(wǎng)絡(luò)模塊
[0041] 在單隱藏層神經(jīng)網(wǎng)絡(luò)模塊,網(wǎng)絡(luò)接收深層結(jié)構(gòu)學(xué)習(xí)的深層特征,學(xué)習(xí)得到最終的 識(shí)別結(jié)果。
[0042] 方法中的單隱藏層神經(jīng)網(wǎng)絡(luò)使用傳統(tǒng)極限學(xué)習(xí)機(jī)進(jìn)行訓(xùn)練,為了提高網(wǎng)絡(luò)的魯棒 性,方法中使用標(biāo)準(zhǔn)化的ELM,引入對(duì)試驗(yàn)危險(xiǎn)性和結(jié)構(gòu)危險(xiǎn)性的平衡參數(shù)C,由于訓(xùn)練樣本 的數(shù)量常常小于隱藏層節(jié)點(diǎn)的數(shù)量,RELM的輸出權(quán)重β如下:
[0044] 識(shí)別準(zhǔn)確性是危險(xiǎn)源識(shí)別過程的關(guān)鍵問題。為了提高網(wǎng)絡(luò)的準(zhǔn)確性,我們引入反 向傳播算法(BP,Backpropagation algorithm)對(duì)網(wǎng)絡(luò)的權(quán)重進(jìn)行微調(diào)。設(shè)訓(xùn)練過程中的輸 入為Xtrain,輸出結(jié)果為Yi^i,激勵(lì)函數(shù)為g(x)。在單隱藏層極限學(xué)習(xí)機(jī)中反向傳播算法的 基本思路是通過向輸入權(quán)重傳遞網(wǎng)絡(luò)誤差不斷更新權(quán)重,使網(wǎng)絡(luò)達(dá)到較優(yōu)的結(jié)構(gòu)。為了提 高網(wǎng)絡(luò)的收斂效率,算法選擇性地更新網(wǎng)絡(luò)權(quán)重。具體步驟如下:
[0045] 1.根據(jù)基本ELM算法隨機(jī)產(chǎn)生ELM的輸入權(quán)重W,計(jì)算網(wǎng)絡(luò)的輸出權(quán)重β:
[0047] 2.根據(jù)實(shí)際輸出結(jié)果Γ。與訓(xùn)練集輸出結(jié)果Ylab(3l,計(jì)算網(wǎng)絡(luò)誤差Ε:
[0048] E = Yiabei_r。 (3)
[0049] 3.根據(jù)網(wǎng)絡(luò)誤差E,計(jì)算網(wǎng)絡(luò)的權(quán)重更新AW:
[0050] a,=以 IT,, (1 - Γ,,) ,ν? ⑷
[0051 ] 4 ·更新網(wǎng)絡(luò)權(quán)重:
[0052] 如果網(wǎng)絡(luò)中輸入數(shù)據(jù)量大于一個(gè)閾值Τη,利用PCA,求出選擇權(quán)重,和特征向量 D',網(wǎng)絡(luò)權(quán)重為礦=·τ - Δ my ;
[0053] 如果網(wǎng)絡(luò)中輸入數(shù)據(jù)量小于一個(gè)閾值Τη,網(wǎng)絡(luò)權(quán)重為W=W- Δ W;
[0054] 5.利用新的輸入權(quán)重重新計(jì)算新的輸出權(quán)重β和Γ。;
[0055] 6.如果Ylabel= Γ。,則算法停止;否則,返回步驟2繼續(xù)進(jìn)行計(jì)算,直到達(dá)到一個(gè)足 夠大的迭代次數(shù)或算法收斂。
[0056] 以上就是危險(xiǎn)源識(shí)別方法中的關(guān)鍵技術(shù),深層網(wǎng)絡(luò)中的兩部分就構(gòu)成了危險(xiǎn)源識(shí) 別的兩個(gè)階段:預(yù)學(xué)習(xí)階段和再學(xué)習(xí)階段。在預(yù)學(xué)習(xí)階段,通過深層結(jié)構(gòu)學(xué)習(xí)危險(xiǎn)源狀態(tài)信 息各領(lǐng)域深層特征,在再學(xué)習(xí)階段,學(xué)習(xí)各領(lǐng)域深層特征得到危險(xiǎn)源的識(shí)別結(jié)果。
[0057]將HRELM方法運(yùn)用于危險(xiǎn)源識(shí)別中可以有效的提高識(shí)別準(zhǔn)確率,緩解經(jīng)驗(yàn)數(shù)據(jù)庫 的膨脹。根據(jù)前文所述,將從2個(gè)階段具體介紹本發(fā)明技術(shù)方案:
[0058](一)預(yù)學(xué)習(xí)階段
[0059]假設(shè)危險(xiǎn)源的狀態(tài)信息為R={ri,r2,…,rn} T,對(duì)應(yīng)的識(shí)別結(jié)果為0={〇1,…,〇n}, 根據(jù)空中交通安全管理體系建設(shè)指導(dǎo)手冊(cè)將危險(xiǎn)源分為人員、設(shè)備、環(huán)境和管理4個(gè)領(lǐng)域。 為了確定狀態(tài)信息U(j = l,···,!〇所屬的領(lǐng)域分類即網(wǎng)絡(luò)模塊,利用處理非線性數(shù)據(jù)具有 優(yōu)越性的支持向量機(jī)(SVM,Support Vector Machine)對(duì)狀態(tài)信息進(jìn)行分類。設(shè)分類后的結(jié) 果為尺={&,〇2,〇3,〇4}7,其中,$={4,[ 2,*.,,~}%' = 1,..,,4),%是領(lǐng)域沖包含危 險(xiǎn)源信息,將分類后的結(jié)果輸入相應(yīng)網(wǎng)絡(luò)模塊中。接著對(duì)各子網(wǎng)絡(luò)模塊使用S-ELM算法,在 使用S-ELM算法之前,設(shè)各網(wǎng)絡(luò)模塊隱藏節(jié)點(diǎn)的個(gè)數(shù)為出,深層結(jié)構(gòu)模塊的層數(shù)為U。根據(jù)危 險(xiǎn)源構(gòu)成要素表T,從不同數(shù)域隨機(jī)產(chǎn)生各網(wǎng)絡(luò)模塊的權(quán)重K = Mr. ·.,#"}和隱藏節(jié)點(diǎn) 偏移量4 =丨心'…,4.,?丨,并選擇S型函數(shù):
[0061]作為激勵(lì)函數(shù),計(jì)算各網(wǎng)絡(luò)模塊首層的隱層特征空間Hll:
[0063]使用維度約減算法PCA對(duì)各網(wǎng)絡(luò)模塊首層產(chǎn)生的隱層特征空間約減得到H'u并把 把u傳遞給第二層。在第二層,隨機(jī)產(chǎn)生H-把u個(gè)隱層節(jié)點(diǎn),它們的輸出與把η相結(jié)合構(gòu)成第 二層隱層特征空間Hl2,重復(fù)上述步驟,直到產(chǎn)生第L層的隱層特征空間H lL,網(wǎng)絡(luò)的隱層特征 空間出=!^。根據(jù)上述方法,分別計(jì)算各個(gè)網(wǎng)絡(luò)模塊的隱層特征空間,并將其作為相應(yīng)網(wǎng)絡(luò) 模塊的輸出。
[0064](二)再學(xué)習(xí)階段
[0065]將預(yù)學(xué)習(xí)中4個(gè)網(wǎng)絡(luò)模塊的識(shí)別結(jié)果連接,形成再學(xué)習(xí)階段的輸入向量Hinput = 1?,…,H4},將向量Hinput輸入單隱藏層神經(jīng)網(wǎng)絡(luò),根據(jù)傳統(tǒng)ELM算法,隨機(jī)產(chǎn)生網(wǎng)絡(luò)的輸入 權(quán)重W t和隱層節(jié)點(diǎn)偏移量b,計(jì)算網(wǎng)絡(luò)的隱藏層特征空間Ht:
[0069] 其中,0表示訓(xùn)練數(shù)據(jù)集的輸出。
[0070] 則網(wǎng)絡(luò)的輸出如下:
[0071] r0f. =. ///} (9:)
[0072] 其中,下標(biāo)t表示該變量是臨時(shí)變量。
[0073] 根據(jù)改進(jìn)的反向傳播算法,確定網(wǎng)絡(luò)的最終輸入權(quán)重W、隱藏層特征空間Η和輸出 權(quán)重β,得到危險(xiǎn)源識(shí)別結(jié)果:
[0074] Γ〇 = Ηβ (10)
[0075] 本發(fā)明的總體實(shí)施順序如圖3所示,在介紹之前,設(shè)危險(xiǎn)源狀態(tài)信息R={(ri,〇1)|i =1,2,…,n},其中,= ^,··.,氣^,, = 1,.·"λ,危險(xiǎn)源激勵(lì)函數(shù)g(x),標(biāo)準(zhǔn)化參數(shù) C。危險(xiǎn)源識(shí)別方法總體實(shí)施步驟如下:
[0076] 步驟1:利用SVM將危險(xiǎn)源信息R劃分到不同的領(lǐng)域分類中得到RzlChC^C^CMT, 并將不同的領(lǐng)域分類集輸入到相應(yīng)的模塊中;
[0077] 步驟2:對(duì)每個(gè)子網(wǎng)絡(luò)使用S-ELM算法:
[0078] For i = lto 4
[0079] 使用S-ELM算法得到各深層網(wǎng)絡(luò)的預(yù)識(shí)別結(jié)果出;
[0080] End For
[0081] 步驟3:將深層網(wǎng)絡(luò)預(yù)識(shí)別結(jié)果組合作為單隱藏層神經(jīng)網(wǎng)絡(luò)模塊的輸入Hinput = {Hi,…,H4};
[0082] 步驟4:根據(jù)ELM算法和激勵(lì)函數(shù)g(x),計(jì)算單隱藏層ELM的初始隱層輸出Ht和輸出 權(quán)重Pt;
[0083] 步驟5:根據(jù)改進(jìn)的反向傳播算法,確定網(wǎng)絡(luò)的最終輸入權(quán)重W,隱藏層特征空間Η 和輸出權(quán)重β;
[0084] 步驟6:危險(xiǎn)源識(shí)別結(jié)果:
[0085] Γ〇 = Ηβ
[0086] 以上實(shí)施例僅為說明本發(fā)明的技術(shù)思想,不能以此限定本發(fā)明的保護(hù)范圍,凡是 按照本發(fā)明提出的技術(shù)思想,在技術(shù)方案基礎(chǔ)上所做的任何改動(dòng),均落入本發(fā)明保護(hù)范圍 之內(nèi)。
【主權(quán)項(xiàng)】
1. 一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其特征在于:該方法采用的深層神經(jīng) 網(wǎng)絡(luò)由深層結(jié)構(gòu)模塊和單隱藏層神經(jīng)網(wǎng)絡(luò)模塊兩部分組成,包括如下步驟: 步驟1,利用SVM將危險(xiǎn)源信息R劃分到不同的領(lǐng)域分類中,并將不同的領(lǐng)域分類集輸入 到相應(yīng)的網(wǎng)絡(luò)模塊中; 步驟2,對(duì)每個(gè)網(wǎng)絡(luò)模塊使用S-ELM算法,得到各深層網(wǎng)絡(luò)的預(yù)識(shí)別結(jié)果出; 步驟3:將深層網(wǎng)絡(luò)預(yù)識(shí)別結(jié)果組合作為單隱藏層神經(jīng)網(wǎng)絡(luò)模塊的輸入Hinput = {化,...,叫; 步驟4:根據(jù)ELM算法和激勵(lì)函數(shù),計(jì)算單隱藏層ELM的初始隱層輸出Ht和輸出權(quán)重β*,下 標(biāo)t表示該變量是臨時(shí)變量; 步驟5:根據(jù)改進(jìn)的反向傳播算法,確定網(wǎng)絡(luò)的最終輸入權(quán)重W,隱藏層特征空間Η和輸 出權(quán)重β; 步驟6:危險(xiǎn)源識(shí)別結(jié)果: Γ〇 =地。2. 如權(quán)利要求1所述的一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其特征在于:所述 步驟1中,將危險(xiǎn)源分為人員、設(shè)備、環(huán)境和管理4個(gè)領(lǐng)域,分別^打,〔2,〔3,〔4表示,則分類后 的結(jié)果是R二{Cl,C2 ,C3,C4:}T。3. 如權(quán)利要求1所述的一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其特征在于:所述 步驟2的詳細(xì)內(nèi)容是:設(shè)各網(wǎng)絡(luò)模塊隱藏節(jié)點(diǎn)的個(gè)數(shù)為出,深層網(wǎng)絡(luò)的層數(shù)為k,根據(jù)危險(xiǎn)源 構(gòu)成要素表T,從不同數(shù)域隨機(jī)產(chǎn)生各網(wǎng)絡(luò)模塊的權(quán)重?和隱藏節(jié)點(diǎn)偏移 量{與J,... A,},并選擇S型函數(shù):作為激勵(lì)函數(shù),計(jì)算各網(wǎng)絡(luò)模塊首層的隱層特征空間出1:使用維度約減算法對(duì)各網(wǎng)絡(luò)模塊首層產(chǎn)生的隱層特征空間約減得到11并把11傳遞 給第二層;在第二層,隨機(jī)產(chǎn)生H-H/11個(gè)隱層節(jié)點(diǎn),它們的輸出與11相結(jié)合構(gòu)成第二層隱 層特征空間出2,重復(fù)上述步驟,直到產(chǎn)生第L層的隱層特征空間出L,網(wǎng)絡(luò)模塊的隱層特征空 間出二出L。4. 如權(quán)利要求1所述的一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其特征在于:所述 步驟4中,輸出權(quán)重私的計(jì)算公式是:其中,0表示訓(xùn)練數(shù)據(jù)集的輸出。5. 如權(quán)利要求1所述的一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其特征在于:所述 步驟5中,隱藏層特征空間Η的計(jì)算公式是:其中,b表示隱層節(jié)點(diǎn)偏移量。6.如權(quán)利要求1所述的一種基于深層極限學(xué)習(xí)機(jī)的危險(xiǎn)源識(shí)別方法,其特征在于:所述 的深層結(jié)構(gòu)模塊和單隱藏層神經(jīng)網(wǎng)絡(luò)模塊異構(gòu)。
【文檔編號(hào)】G06K9/62GK106096728SQ201610393646
【公開日】2016年11月9日
【申請(qǐng)日】2016年6月3日 公開號(hào)201610393646.X, CN 106096728 A, CN 106096728A, CN 201610393646, CN-A-106096728, CN106096728 A, CN106096728A, CN201610393646, CN201610393646.X
【發(fā)明人】周良, 李詩瑤, 謝強(qiáng), 王增臣
【申請(qǐng)人】南京航空航天大學(xué)