本發(fā)明涉及一種用于腦電信號特征分類的anfis規(guī)則庫優(yōu)化算法。涉及腦電信號特征參數(shù)分類算法技術(shù)領(lǐng)域。
背景技術(shù):
特征分類是采用模式識別的方法,建立特征參數(shù)與對應(yīng)的特征狀態(tài)之間的數(shù)學模型,并且可以通過該模型對未知樣本特征狀態(tài)進行預(yù)測的過程。建立良好的穩(wěn)健的模式識別模型,不僅要對參與建模的特征參數(shù)進行優(yōu)化選擇,還要對參與建模的樣本進行合理的選擇。理想的建模樣本應(yīng)包含待測樣本中所有的狀態(tài)集合,如基于腦電信號的睡眠分期檢測過程中,理想的睡眠樣本應(yīng)包括所有的睡眠狀態(tài)。
特征參數(shù)分類方法可以分為線性方法和非線性方法。常用的線性方法主要包括主成分回歸、偏最小二乘法等。非線性方法常用的主要有神經(jīng)網(wǎng)絡(luò)和模糊邏輯等。腦電信號非線性特征非常明顯,因此其特征分類更多采用非線性參數(shù)分類方法。神經(jīng)網(wǎng)絡(luò)和模糊邏輯都具有非常強的非線性映射能力,都可以用來解決常規(guī)方法難以解決的非線性問題。常見的神經(jīng)網(wǎng)絡(luò)方法主要有bp神經(jīng)網(wǎng)絡(luò)、徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)等。神經(jīng)網(wǎng)絡(luò)雖然可以對訓練樣本進行有效的學習,但對知識的抽取和表達比較困難,而模糊邏輯采用規(guī)則庫等方法很好地解決了知識的表達和抽取,卻無法對知識進行直接的學習。自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)融合了神經(jīng)網(wǎng)絡(luò)和模糊邏輯的優(yōu)點,不僅可以對樣本進行有效的學習,還可以對知識進行良好的表達和抽取。
anfis系統(tǒng)在進行模糊推理時,首先要建立模糊規(guī)則庫,規(guī)則庫的數(shù)量為所有參數(shù)隸屬度函數(shù)個數(shù)的乘積。目前,只能依靠經(jīng)驗給每個輸入?yún)?shù)的隸屬度函數(shù)個數(shù)進行設(shè)置,往往無法達到較好的訓練效果。特別是當anfis系統(tǒng)輸入?yún)?shù)較多時,會導致規(guī)則庫數(shù)量劇增,嚴重影響系統(tǒng)的訓練和學習效率,另一方面參數(shù)較多時,各輸入?yún)?shù)隸屬度函數(shù)的設(shè)置僅憑借經(jīng)驗實施,會嚴重影響分類結(jié)果的正確率。
綜上所述,anfis在進行特征參數(shù)分類時,每個輸入?yún)?shù)的隸屬度函數(shù)設(shè)置以及規(guī)則庫的建立缺乏參考標準,僅憑經(jīng)驗進行設(shè)置往往達不到良好的訓練效果。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的是為了解決上述現(xiàn)有技術(shù)存在的問題,進而提供一種用于腦電信號特征分類的anfis規(guī)則庫優(yōu)化算法。
本發(fā)明的目的是通過以下技術(shù)方案實現(xiàn)的:
一種用于腦電信號特征分類的anfis規(guī)則庫優(yōu)化算法,步驟如下:
步驟一、特征參數(shù)編碼:假設(shè)用于特征參數(shù)分類的參數(shù)個數(shù)為m;輸入隸屬度函數(shù)選擇高斯型,每個輸入特征參數(shù)至少包含一個隸屬度函數(shù),每個輸入特征參數(shù)隸屬度函數(shù)最多為d個,同時限制規(guī)則庫的上限為m,設(shè)初始特征向量為x={x1,x2,...,xm};采用真值編碼方式,xi為各特征參數(shù)的隸屬度函數(shù)個數(shù),且0≤xi≤d-1;
步驟二、適應(yīng)度函數(shù)設(shè)計:采用式(1)所示適應(yīng)度函數(shù);由于每個特征參數(shù)至少要包含1個隸屬度函數(shù),因此在計算適應(yīng)度函數(shù)時將每個初始特征向量x加1,即x={x1+1,x2+1,...,xm+1};
f(si)=ω×f(si)+(1-ω)×c(si),i=1,2,...,n(1)
其中,f(si)為第i個特征參數(shù)編碼的分類精度,c(si)為第i個特征參數(shù)編碼分類結(jié)果與目標結(jié)果的相似系數(shù),ω為調(diào)整系數(shù),取0.6~0.8;
步驟三、自適應(yīng)交叉與變異:采用式(2)和式(3)所示的交叉概率pc和變異概率pm的自適應(yīng)調(diào)整機制,產(chǎn)生新的個體,評價其適應(yīng)度值;結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個數(shù);
步驟四、采用anfis系統(tǒng)對校正集樣本進行訓練學習,并對驗證集樣本進行驗證;最后,對模型進行評價;在模型建立和驗證過程中,分類正確率accuracyofclassification,ac如式(4)所示;
其中,n為校正集或驗證集樣本數(shù),nc為分類結(jié)果正確的樣本數(shù)。
本發(fā)明針對現(xiàn)有技術(shù)存在的缺陷,提出了一種用于anfis系統(tǒng)規(guī)則庫的優(yōu)化算法ga-anfis方法,首先采用真值編碼方式對每個輸入?yún)?shù)隸屬度函數(shù)個數(shù)進行編碼,當規(guī)則庫數(shù)量,即所有輸入?yún)?shù)隸屬度函數(shù)個數(shù)的乘積,超過所設(shè)定閾值時,所有輸入?yún)?shù)的隸屬度函數(shù)個數(shù)等比例縮小并取整;其次,采用計算當前編碼的加權(quán)適應(yīng)度函數(shù)值。隨后,對當前編碼采用自適應(yīng)交叉和變異的方式產(chǎn)生新個體,評價其適應(yīng)度值。結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個數(shù)。采用遺傳算法(ga)對每個輸入?yún)?shù)的隸屬度函數(shù)進行合理設(shè)置,同時還能有效控制規(guī)則庫的數(shù)量,保證系統(tǒng)的訓練學習效率。
附圖說明
圖1為訓練時間與規(guī)則數(shù)量的關(guān)系曲線圖。
圖2為各分類方法分類正確率對比圖。
具體實施方式
下面將結(jié)合附圖對本發(fā)明做進一步的詳細說明:本實施例在以本發(fā)明技術(shù)方案為前提下進行實施,給出了詳細的實施方式,但本發(fā)明的保護范圍不限于下述實施例。
本實施例所涉及的一種用于腦電信號特征分類的anfis規(guī)則庫優(yōu)化算法,包括以下步驟:
步驟一、特征參數(shù)編碼:假設(shè)用于特征參數(shù)分類的參數(shù)個數(shù)為m。輸入隸屬度函數(shù)選擇高斯型,每個輸入特征參數(shù)至少包含一個隸屬度函數(shù),每個輸入特征參數(shù)隸屬度函數(shù)最多為d個,同時限制規(guī)則庫的上限為m,設(shè)初始特征向量為x={x1,x2,...,xm}。采用真值編碼方式,xi為各特征參數(shù)的隸屬度函數(shù)個數(shù),且0≤xi≤d-1。
步驟二、適應(yīng)度函數(shù)設(shè)計:采用式(1)所述適應(yīng)度函數(shù)。由于每個特征參數(shù)至少要包含1個隸屬度函數(shù),因此在計算適應(yīng)度函數(shù)時將每個初始特征向量x加1,即x={x1+1,x2+1,...,xm+1}。
f(si)=ω×f(si)+(1-ω)×c(si),i=1,2,...,n(1)
其中,f(si)為第i個特征參數(shù)編碼的分類精度,c(si)為第i個特征參數(shù)編碼分類結(jié)果與目標結(jié)果的相似系數(shù),ω為調(diào)整系數(shù),一般取0.6~0.8。
步驟三、自適應(yīng)交叉與變異:采用式(2)和式(3)所示的交叉概率pc和變異概率pm的自適應(yīng)調(diào)整機制,產(chǎn)生新的個體,評價其適應(yīng)度值。結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個數(shù)。
步驟四、采用anfis系統(tǒng)對校正集樣本進行訓練學習,并對驗證集樣本進行驗證。最后,對模型進行評價。在模型建立和驗證過程中,分類正確率(accuracyofclassification,ac)如式(4)所示。
其中,n為校正集或驗證集樣本數(shù),nc為分類結(jié)果正確的樣本數(shù)。
實驗驗證:
為了驗證ga-anfis系統(tǒng)的分類效果,以mit-bih多導睡眠數(shù)據(jù)庫的數(shù)據(jù)為分析對象,將本發(fā)明分類優(yōu)化算法(ga-anfis)分別與偏最小二乘(pls,partialleastsquares)線性分類算法、最小二乘支持向量機(ls-svm,leastsquaressupportvectormachines)分類算法以及自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)分類算法進行比較,采用基于自適應(yīng)模擬退火遺傳算法的特征參數(shù)選擇方法選出1~25個特征參數(shù),分別輸入到不同的分類器中。將數(shù)據(jù)庫中所有樣本分為5份,依次選擇其中4份為訓練樣本,剩余1份為驗證樣本。輪流執(zhí)行5次,以5次分類結(jié)果正確率的均值作為評價特征參數(shù)選擇結(jié)果的標準。
(1)偏最小二乘(pls)分類結(jié)果
pls進行分類建模的原理是:首先,按照式(5)和式(6)對特征參數(shù)矩陣x和參考狀態(tài)矩陣y進行分解,求取得分矩陣t和u。
其次,按照式(7)和式(8)對得分矩陣進行線性回歸,建立數(shù)學模型,對特征參數(shù)進行校正和預(yù)測。
u=tb(7)
b=(ttt)-1tty(8)
最后,計算特征參數(shù)矩陣xnew的得分矩陣tnew,并由式(9)預(yù)測出未知狀態(tài)的特征參數(shù)。
ynew=tnewbqt(9)
當特征參數(shù)維數(shù)為5、10、15、20和25時,pls方法的分類正確率如表1所示。
表1偏最小二乘分類結(jié)果
(2)最小二乘支持向量機(ls-svm)分類結(jié)果
采用徑向基核函數(shù)最小二乘支持向量機,建立睡眠eeg模型,需要確定兩個參數(shù):正則化參數(shù)γ和內(nèi)核函數(shù)參數(shù)σ2。采用十倍交叉驗證方法對模型參數(shù)進行優(yōu)化,依據(jù)最小均方誤差原則(mse)對模型進行訓練。當特征參數(shù)維數(shù)為5、10、15、20和25時,ls-svm方法的分類正確率如表2所示。
表2最小二乘支持向量機分類結(jié)果
(3)自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)分類結(jié)果
采用anfis算法對數(shù)據(jù)進行分類,首先需要對各輸入?yún)?shù)進行隸屬度函數(shù)設(shè)計,建立規(guī)則庫。由于輸入?yún)?shù)較多,而過多的規(guī)則會造成訓練時間以指數(shù)的速度上升。以600組訓練樣本為例,執(zhí)行一次學習運算所消耗的時間與規(guī)則數(shù)量的關(guān)系,即所有參數(shù)隸屬度函數(shù)乘積的關(guān)系如圖1所示。通常根據(jù)輸入?yún)?shù)與輸出參數(shù)的相關(guān)系數(shù)確定輸入?yún)?shù)對應(yīng)隸屬度函數(shù)的個數(shù),相關(guān)性強的參數(shù)隸屬度函數(shù)個數(shù)也相對較少,而相關(guān)性較弱的需要設(shè)置相對較多的隸屬度函數(shù)。依此原則,首先按照與睡眠狀態(tài)的相關(guān)系數(shù),將25組特征參數(shù)由小到大順序排列。相關(guān)系數(shù)小的設(shè)置3個隸屬度函數(shù),相關(guān)系數(shù)大的設(shè)置1個隸屬度函數(shù)??紤]到圖1中訓練時間與規(guī)則數(shù)量的關(guān)系,規(guī)則數(shù)量上限設(shè)置為150。
當特征參數(shù)維數(shù)為5、10、15、20和25時,anfis方法的分類正確率如表3所示。
表3自適應(yīng)模糊神經(jīng)推理系統(tǒng)分類結(jié)果
(4)ga-anfis系統(tǒng)分類結(jié)果
設(shè)每個特征參數(shù)隸屬度函數(shù)最多為3個,最少為1個,規(guī)則庫個數(shù)上限為150。當特征參數(shù)維數(shù)為5、10、15、20和25時,經(jīng)過優(yōu)化后的ga-anfis系統(tǒng)的分類正確率如表4所示。
表4ga優(yōu)化自適應(yīng)模糊神經(jīng)推理系統(tǒng)分類結(jié)果
圖2為所選出的1~25個特征參數(shù)采用上述四種分類方法的分類結(jié)果正確率對比圖。由圖2可知,采用本發(fā)明的ga-anfis系統(tǒng)能夠為每個輸入?yún)?shù)設(shè)置更為合理的隸屬度函數(shù)個數(shù),建立優(yōu)化的規(guī)則庫,在輸入相同特征參數(shù)時的分類正確率得到較大提高。相比于依靠經(jīng)驗設(shè)置輸入?yún)?shù)隸屬個數(shù)的傳統(tǒng)anfis方法,該方法分類效果平均提高了約9.96%;相比于ls-svm分類器的分類效果,則平均提高了5.19%。
以上所述,僅為本發(fā)明較佳的具體實施方式,這些具體實施方式都是基于本發(fā)明整體構(gòu)思下的不同實現(xiàn)方式,而且本發(fā)明的保護范圍并不局限于此,任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),可輕易想到的變化或替換,都應(yīng)涵蓋在本發(fā)明的保護范圍之內(nèi)。因此,本發(fā)明的保護范圍應(yīng)該以權(quán)利要求書的保護范圍為準。