亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種神經網絡對列車電機振動在線檢測方法與流程

文檔序號:11587707閱讀:157來源:國知局
本發(fā)明屬于神經網絡
技術領域
,具體涉及傳感器對監(jiān)測目標的感知,基于神經網絡的故障自動辨識機制以及將復雜的故障分析處理過程,尤其涉及一種神經網絡對列車電機振動在線檢測方法。
背景技術
:鐵路是國家重要的戰(zhàn)略基礎設施、國民經濟的大動脈和大眾化交通工具,在綜合交通運輸體系中處于骨干地位,在國民經濟中占有非常重要的地位。近年來,國民經濟的快速發(fā)展對鐵路運輸提出了更高的要求。經過多年的高速鐵路建設和對已有線路的快速化轉型改造,我國高速鐵路運營里程約占世界高鐵運營里程的50%,占據(jù)了世界高鐵運營里程的半壁江山。在我國鐵路快速發(fā)展的大背景下,以350km/h的高速動車組將在未來鐵路客運專線大量列裝,其安全性直接影響到乘客的生命安全。作為高速列車牽引傳動系統(tǒng)的核心設備,牽引電機在牽引狀態(tài)運行時,作為實現(xiàn)電能向機械能轉變的“中間變量”,產生列車運行的動力。在制動狀態(tài)時,牽引電機將作為發(fā)電機,完成動車組再生制動力。牽引電機由于懸掛在轉向架上,故常常處于伴有灰塵、環(huán)境溫度劇烈變化的環(huán)境中,而且負載經常頻繁發(fā)生變化,導致高速列車工況不斷改變。由于惡劣的工作環(huán)境及特殊的結構,導致高速列車牽引傳動系統(tǒng)故障高發(fā),其運行安全直接影響到整個高速列車的行車安全,一旦發(fā)生不可預知的故障將可能造成重大人員傷亡事故,產生巨大經濟損失和社會影響。因此,積極開展高速列車檢測技術和診斷技術的研究,不僅有利于動車組的安全可靠運行,同時還將為高速列車的檢修改革提供必要的技術支持。對高速列車牽引電機進行狀態(tài)監(jiān)測和故障診斷是當今鐵路發(fā)展亟待解決的熱點難點問題。傳統(tǒng)的設備故障診斷包括建立故障檔案和狀態(tài)信息庫,其診斷步驟分為信號檢測、故障特征提取、設備狀態(tài)識別和預報決策等,其中:信號檢測:根據(jù)診斷設備和目標,選擇易于監(jiān)測與采集的特征狀態(tài)信號,由此建立故障狀態(tài)信息庫,屬于初始模式。故障特征提取:將采集的故障狀態(tài)信號通過信號處理,故障特征提取,為故障識別奠定基礎。設備狀態(tài)識別:采用數(shù)據(jù)庫技術通過理論分析并參考先前故障建立故障檔案庫為基準模式,通過比較待檢模式與基準模式來診斷設備是否發(fā)生故障。預報決策:通過診斷分析,如果設備狀態(tài)正常重復以上程序;否則對存在故障狀態(tài)的,則要查明故障情況,做出發(fā)展趨勢分析。根據(jù)以上幾點可以發(fā)現(xiàn),傳統(tǒng)的故障診斷依賴大量的不同類型數(shù)據(jù),并根據(jù)已知的各種故障類型將這些數(shù)據(jù)分類進故障檔案數(shù)據(jù)庫。這需要大量監(jiān)測不同物理量的傳感器和已知所有的故障類型。只有滿足這些條件,才可以進行狀態(tài)識別,并分析出設備是否發(fā)生故障或發(fā)生的故障類型,最后根據(jù)故障類型完成診斷的決策?,F(xiàn)實情況是人們不可能知道全部的故障類型,這就導致了一些異常數(shù)據(jù)出現(xiàn),而系統(tǒng)卻沒有辦法對數(shù)據(jù)進行狀態(tài)識別,無法識別的狀態(tài)勢必影響診斷的決策,進而發(fā)生誤報。為了降低誤報率,就必須增加更多的傳感器來多元化識別故障,而更多的傳感器收集到更多的數(shù)據(jù)也會增加誤報率。因此傳統(tǒng)的故障診斷需要大量的傳感器,而大量傳感器反而會降低整體系統(tǒng)的可靠性?;谏鲜鰡栴},高速列車急需一種監(jiān)測方法,降低對傳感器數(shù)量的要求,同時不必知道所有的故障類型。技術實現(xiàn)要素:本發(fā)明基于神經網絡的方法對故障進行診斷,由機器自己識別故障類型而不需要建立故障檔案數(shù)據(jù)庫,進而極大地減少傳感器布設的數(shù)量,提高可靠性,并隨時間的推進,數(shù)據(jù)不斷增加,機器自識別的故障類型將越來越精準,解決傳統(tǒng)監(jiān)測方法誤報率高,傳感器節(jié)點多的問題,降低整體維修費用與維修時間,幫助維修人員快速準確找到故障零部件。本發(fā)明采用神經網絡改進算法(levenberg-marquardt)。該算法是梯度下降法和高斯牛頓法的結合,既有高斯牛頓法的局部收斂特性,又有梯度法的全局特性。就訓練次數(shù)和精度而言,由于利用了近似的二階導數(shù)信息,此算法明顯優(yōu)于梯度下降法標準。lm算法是一種利用標準的數(shù)值優(yōu)化技術的快速算法。它與擬牛頓法一樣不需要計算hessian矩陣。本發(fā)明的技術方案是,一種神經網絡對列車電機振動在線檢測方法,其特征在于,采用六層卷積神經網絡,選取振動信號的聲音特征作為故障征兆,使用lm算法和交叉熵,所述六層卷積網絡包括輸入層、隱含層和輸出層;所述方法包括以下步驟:1)確定輸入層神經元(m)個數(shù),令p表示網絡的輸入樣本向量,2)確定隱含層神經元(j)個數(shù),根據(jù)經驗選取,3)確定輸出層神經元個數(shù),由故障類型確定,4)確定網絡函數(shù),5)以部分數(shù)據(jù)做測試,搭建一個24-500-500-500-1024-4的卷積神經網絡,6)輸入數(shù)據(jù),進行神經網絡運算。本發(fā)明采用六層卷積神經網絡:輸入層的單元數(shù)為24,輸入數(shù)據(jù)為20*800頻率矩陣。輸出層的單元數(shù)為4,對應4種典型故障,即,正常運轉、定子故障、滾動軸承故障和轉子故障。隱含層的單元數(shù)分別為500-500-500-1024,采用交叉熵算法與lm改進算法,對網絡進行訓練。卷積神經網絡學習過程中設定全局誤差e=10-5,神經網絡的初始值設置、權值的修正量在一定范圍內按均勻分布隨機產生。步驟4)中所述網絡函數(shù)包括神經元訓練函數(shù)lm,學習函數(shù)lm和交叉熵,限定輸入向量元素閾值范圍的函數(shù)min和max。步驟5)中所述卷積神經網絡包括輸入端口input,每次輸入一個20*800的輸入矩陣;輸入層—隱層的權值模塊ω。步驟6)中所述神經網絡運算使用lm算法和交叉熵算法更新權重。所述lm算法包括,1)給出訓練誤差允許值,初始化權值向量w(o),2)計算網絡輸出及誤差向量e(w(o)),3)計算誤差向量對網絡權值的j(w),4)達到局部最小點wk=w(k)。所述lm算法計算方法如下:設wk∈rn表示第k次迭代的網絡權值向量,新的權值向量wk+1可根據(jù)下面的規(guī)則求得:wk+1=wk+δwk式中,t,o分別為網絡輸出層輸出和期望輸出(本節(jié)以下同),e(w)為誤差能量函數(shù)。此式為單輸出網絡,如果是多輸出的網絡則只需對輸出層誤差平方進行累加,即累加項從m到m*n,ξ表示權值向量w的第ξ個元素。jacob矩陣j(w)為:設ξ表示權值向量w的第ξ個元素,對于j矩陣的第ξξ個元素如果這第ξ個元素代表輸出節(jié)點i和隱含層節(jié)j之間的權值vij求偏導數(shù),得di=-(oi-ti)·ti·(1-ti)式中,bj表示隱含層對應節(jié)點的輸出。如果第ξ個元素代表輸出節(jié)點i的值,則偏導數(shù)為:如果第ξ個元素代表輸入層和隱含層的權重,則偏導數(shù)為:以上各式中,vji表示輸出層的權值,a表示輸入層對應節(jié)點的輸入。如果第ξ個元素代表隱含層的閾值,則交叉熵算法如下:交叉熵與熵相對,如同協(xié)方差與方差。熵考察的是單個的信息(分布)的期望:交叉熵考察的是兩個信息(分布)的期望:交叉熵代價函數(shù):x表示原始信號,z表示重構信號,以向量形式表示長度均為d,又可輕易地將其改造為向量內積的形式。為神經網絡引入交叉熵代價函數(shù),是為了彌補sigmoid型函數(shù)的導數(shù)形式易發(fā)生飽和的缺陷。為了解決參數(shù)更新效率下降這一問題,使用交叉熵代價函數(shù)替換傳統(tǒng)的平方誤差函數(shù)。對于多輸入單輸出的神經元結構而言,如圖3所示:將其損失函數(shù)定義為:其中最終求導得:就避免了σ'(z)參與參數(shù)更新、影響更新效率的問題。所述lm算法流程圖如圖1所示。輸入24組聲音數(shù)據(jù),經過5*5卷積層進行特征提取,通過relu進行激活。經過最大池化層簡化數(shù)據(jù)量,經relu激活進入第二個5*5卷積層進行特征提取。之后進行最大池化并轉化為1維矩陣,作為全連接層分類器的輸入,最后輸出4種故障類型的概率。在訓練時,會根據(jù)輸出結果與標準答案進行對比,通過lm算法和交叉熵算法來評估損失函數(shù)loss,并根據(jù)結果反向傳播回神經網絡更新各層權重。最終訓練結果如圖2所示。本發(fā)明選取振動信號的聲音特征作為故障征兆,截取聲音信號20*800作為特征量,其對應的譜峰值經歸一化處理后作為故障征兆,以及4種現(xiàn)場較常發(fā)生的典型故障作為網絡輸出,構成一個六層的卷積神經網絡,其輸入特征向量為收集的樣本數(shù)據(jù)進行預處理后得到。本發(fā)明的效果,基于卷積神經網絡的方法對故障類型進行診斷,由機器自己識別故障類型而不需要建立故障檔案數(shù)據(jù)庫,降低了傳感器布設數(shù)量,增加了系統(tǒng)可靠性。隨著時間的推進,數(shù)據(jù)不斷增加,機器自識別的故障類型將越來越精準。附圖說明圖1為本發(fā)明卷積神經網絡架構圖。圖2為本發(fā)明神經網絡運算誤差結果圖。圖3為多輸入單輸出的神經元結構圖。具體實施方式下面結合附圖,對本發(fā)明進一步詳細說明。一種神經網絡對列車電機振動在線檢測方法,首先定義網絡的結構為:單輸入層、單輸出層、4隱層。具體操作如下:1)確定輸入層神經元(m)個數(shù),令p表示網絡的輸入樣本向量,輸入層需要24個神經元,即m=24。2)確定隱含層神經元(j)個數(shù),由于隱含層神經元數(shù)目的確定沒有一個固定的方法,通常根據(jù)經驗選取,還有一種途徑可用于確定隱單元的數(shù)目。首先使隱單元的數(shù)目可變,或者放入足夠多的隱單元,通過學習將那些不起作用的隱單元剔除,直到不可剔除為止。同樣,也可以在訓練開始時放入比較少的神經元,學習到一定次數(shù)后,如果不成功則再增加隱單元的數(shù)目,直到達到比較合理的隱單元數(shù)目為止。3)確定輸出層神經元個數(shù)輸出層的神經元個數(shù)是由故障類型確定的,本發(fā)明設計了正常運轉、定子故障、滾動軸承故障、轉子故障等四種故障類型,輸出層需要4個輸出,網絡的目標輸出如下表所示:故障類型目標輸出正常運轉00定子故障01滾動軸承故障10轉子故障11由此可得目標向量為4×2的矩陣t,即t=[00,01,10,11]。4)確定網絡函數(shù)網絡的隱含層神經元訓練函數(shù)為lm和交叉熵,該函數(shù)的運行速度比較快,對于大中型的網絡比較適合;學習函數(shù)取默認的交叉熵;5)以部分數(shù)據(jù)做測試,首先搭建一個24-500-500-500-1024-4的神經網絡,其中input為輸入端口,每次輸入一個20×800的輸入矩陣;step為步長模塊,ω為隱層的權值模塊,通過lm和交叉熵來反向傳播更新權重。使用谷歌開源深度學習框架tensorflow,根據(jù)上述神經網絡結構定義相關參數(shù)。首先定義輸入節(jié)點參數(shù),根據(jù)采集到的聲音信號【20,800】轉化為維一維矩陣【1200】,所以輸入節(jié)點為1200。輸出節(jié)點根據(jù)故障類型分類為4類,輸出節(jié)點為4。根據(jù)運算能力設定隱藏層節(jié)點為500。input_node=1200output_node=4h_node=500通過tensorflow函數(shù)設定權重與偏移量為變量,在訓練神經網絡時創(chuàng)建這些變量,在測試時通過保存的模型加載這些變量的取值,還需將函數(shù)中變量的正則化損失加入到loss函數(shù)中。在設定權重時,初始化相關權重的值,使之符合高斯正態(tài)分布,降低優(yōu)化過程中神經網絡陷入局部最優(yōu)的可能。defget_weight_varibale(shape,regularizer):weights=tf.get_variable(‘weights’,shape,initializer=tf.truncated_normal_initializer(stddev=0.1))定義神經網絡的前向傳遞過程,隱藏層權重矩陣維度是由輸入節(jié)點和隱藏層節(jié)點數(shù)來決定,并正則化。偏移值設定為常數(shù),維度由隱藏層節(jié)點決定,因此為一維矩陣。之后,由輸入參量權重進行矩陣乘法計算,加上偏移值整體的值進行relu進行激活。weight=tf.variable([5,5,input_node,h_node],regularizer)biases=tf.variable([h_node])h_layer=tf.nn.relu(tf.matmul(input_tensor,weights)+biases))這段代碼中定義了神經網絡前向傳播算法,無論是訓練還是測試,都可以直接調用。接下來定義反向傳播過程中權重的修正。由于數(shù)據(jù)量較大,一次傳入會受機器的運算能力以及存儲能力限制,因此需要對整個數(shù)據(jù)集進行限制,每次只讀入100組數(shù)據(jù),每次訓練完成后再讀入下一組,一共循環(huán)30000組。batch_size=100training_step=30000定義損失函數(shù)、學習率以及相關的訓練過程,學習率根據(jù)訓練時間的增加逐漸降低,防止無法收斂的情況發(fā)生。損失函數(shù)使用交叉熵和lm算法進行計算,之后計算每一組交叉熵結果并進行平均。trainlm=tf.nn.mul(array(lme,lma**k))lme=tf.nn.matmul(d,y,b_end)b_end=tf.nn.mul(b(1-b))variable_averages=tf.train.exponentialmovingaverage(learning_decay,blobal_step)cross_entropy=tf.nn.sparse_softmax_cross_entropy_with_logits(y,tf.argmax(y_,1))cross_entropy_mean=tf.reduce_mead(cross_entropy)loss=cross_entropy_mean+tf.add_n(tf.get_collection(‘losses’))+trainlm定義每一層傳遞的優(yōu)化函數(shù),使用梯度下降法優(yōu)化整個神經網絡,評價函數(shù)為之前定義的損失函數(shù)。train_step=tf.train.gradientdescentoptimizer(learning_rate).minimize(loss,global_step)。輸入數(shù)據(jù),進行神經網絡運算,誤差結果如圖2所示。從圖中可看出此算法在初期時收斂較快,當誤差下降到0.1以后逐漸趨于平緩,不過在450-500毫秒時誤差趨近于0,說明該系統(tǒng)達到穩(wěn)定,測試效果良好,到這里神經網絡已經訓練完畢,并且可以比較好的預測故障類型。所述卷積神經網絡架構圖如圖1所示:輸入24組聲音數(shù)據(jù),經過5*5卷積層進行特征提取,通過relu進行激活。經過最大池化層簡化數(shù)據(jù)量,經relu激活進入第二個5*5卷積層進行特征提取。之后進行最大池化并轉化為1維矩陣,作為全連接層分類器的輸入,最后輸出4種故障類型的概率。在訓練時,會根據(jù)輸出結果與標準答案進行對比,通過lm算法和交叉熵算法來評估損失函數(shù)loss,并根據(jù)結果反向傳播回神經網絡更新各層權重。最終訓練結果如圖2所示。以上對本發(fā)明的技術方案進行了詳細說明。顯然,本發(fā)明并不局限于所描述的內容?;诒景l(fā)明中的上述內容,熟悉本
技術領域
的人員還可據(jù)此做出多種變化,但任何與本發(fā)明等同或相類似的變化都屬于本發(fā)明保護的范圍。當前第1頁12
當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1