本發(fā)明屬于模式識別和腦-機接口(Brain-Computer Interface,BCI)領(lǐng)域,涉及一種應(yīng)用多層超限學(xué)習(xí)機對腦-機接口系統(tǒng)裝置中運動想象腦電信號進行分類的方法。
背景技術(shù):
人類的大腦是一個高速運轉(zhuǎn)的計算系統(tǒng),支配和控制著人類的所有行為、思想和情緒等高級神經(jīng)活動。如何有效獲取并利用大腦的信息一直是研究者們關(guān)注的熱點問題。腦電信號(Electroencephalograph,EEG)是大腦神經(jīng)元細胞的放電活動,包含了大量的表征人體生理心理狀態(tài)的信息,是有效獲取大腦信息的重要手段之一。腦-機接口技術(shù)建立起了一種全新的大腦與外部設(shè)備之間相互傳遞信息的通道,是利用大腦信息的有效手段。運動想象腦電信號在BCI領(lǐng)域應(yīng)用較為廣泛,通過采集分析人們想象身體某個部位運動或進行某種思維活動時的腦電信號,識別大腦的狀態(tài),進而控制外界裝置。該項技術(shù)在醫(yī)療康復(fù)方面,尤其是對神經(jīng)肌肉受損傷的人群有重要意義。
腦電信號的分類識別是BCI研究的關(guān)鍵技術(shù)之一,主要包括腦電信號的特征提取和特征分類兩部分。常用的腦電特征有頻帶能量,功率譜密度,自回歸參數(shù),自適應(yīng)自回歸參數(shù)等等。常用的腦電信號分類方法有支持向量機,最近鄰,貝葉斯和人工神經(jīng)網(wǎng)絡(luò)等等。尋找有效的特征提取和分類方法是提高腦電信號識別準確率的關(guān)鍵。在實際應(yīng)用中,實時性是BCI系統(tǒng)的重要要求之一。因此,為適用于腦電信號的分類,尋找一種算法達到高分類準確率與低處理耗時的平衡非常重要。
Huang提出的基于單隱層前饋神經(jīng)網(wǎng)絡(luò)(Single-hidden Layer Feed forward Neural Network,SLFN)的超限學(xué)習(xí)機(Extreme Learning Machine,ELM)方法,其訓(xùn)練速度與BP神經(jīng)網(wǎng)絡(luò)以及支持向量機(SVM)相比有明顯提升。但由于其淺層結(jié)構(gòu)的限制,在處理復(fù)雜信號中,ELM有一定的局限性。多層超限學(xué)習(xí)機(Multilayer Extreme Learning Machine,ML-ELM),通過引入基于ELM的自編碼器增加了隱層個數(shù),在保持ELM優(yōu)勢的基礎(chǔ)上能夠達到更好的性能。
技術(shù)實現(xiàn)要素:
針對上述問題,本發(fā)明采用一種基于ML-ELM的分類方法對運動想象任務(wù)的腦電信號進行分類,提高其分類的準確率。
實現(xiàn)本方法的主要思路如下:首先,對每一樣本的原始信號進行加窗分段,得到S段子信號;然后,分別對上步驟分段得到的S段子信號進行主成分分析和線性判別分析,并將最終的S個K-1維特征向量進行組合,得到S*(K-1)維的特征;最后,將所有樣本的特征送入多層超限學(xué)習(xí)機分類器中,得到最后的分類結(jié)果。
基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,包括以下步驟:
步驟一,采用固定的滑動時間窗將原始運動想象腦電信號分為S段子信號。S的取值取決于滑動時間窗的長度與原始腦電信號的長度。
步驟二,對步驟一所得到的每一段子信號通過主成分分析(Principal Component Analysis,PCA)方法進行降維,去除眼動和眨眼等偽跡對信號的干擾,得到降維后的特征向量。
步驟三,將步驟二中得到的特征向量通過線性判別分析(Liner Discriminate Analysis,LDA)方法進行二次降維,對于K個類別的腦電數(shù)據(jù),得到K-1維的特征向量。對于二分類問題,得到的是一個一維的特征向量。
步驟四,對每個子信號均按步驟二和步驟三進行處理,對于S段子信號,所以最終會得到S個K-1維的特征向量,將S個K-1維的特征向量進行組合,得到最終為S*(K-1)維的特征。
步驟五,將步驟四所得到的S*(K-1)維特征送入ML-ELM分類器,得到最終分類結(jié)果。
與現(xiàn)有技術(shù)相比,本發(fā)明的方法具有以下優(yōu)點:
傳統(tǒng)的ELM算法是單隱層結(jié)構(gòu),對于提取復(fù)雜信號的特征有很大的局限性,本發(fā)明采取ML-ELM進行類別預(yù)測,通過增加隱層個數(shù)提取深層信息,從而提高了分類正確率,并且保持了ELM低耗時的優(yōu)勢。
附圖說明
圖1是本發(fā)明所涉及方法的主流程圖;
圖2是本發(fā)明所涉及的ML-ELM分類方法示意圖。
具體實施方式
下面結(jié)合附圖和具體實施方式對本發(fā)明做進一步的說明。
假設(shè)有訓(xùn)練數(shù)據(jù)集TrainData和一組測試數(shù)據(jù)集TestData,TrainData的樣本量為N,維度為D;TestData的樣本量為M,維度同樣為D。其中TrainData與TestData中樣本屬于K個類別的。
基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,流程圖如圖1所示。
步驟一,通過固定時間窗劃分的方式把TrainData和TestData均分成S段腦電子信號。TrainDatai代表訓(xùn)練數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di(i=1,2,…,S)。TestDatai代表測試數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di(i=1,2,…,S)。因為采用的固定時間窗,窗口大小是固定的,所以D1=D2=…=Di。
固定的滑動時間窗分為兩種:一種是無疊加時間窗,每一段子信號之間沒有重疊部分,即另一種是有疊加的時間窗,每兩段相鄰的子信號之間是有部分重疊的,即
步驟二,對步驟一所得到的每一段子信號TrainDatai和TestDatai通過主成分分析方法進行降維。將特征值從大到小進行排序后,再根據(jù)累計貢獻率,只保留前m個最大特征值對應(yīng)的特征向量組合MPCA作為投影空間向量,MPCA=[Φ1,Φ2,...,Φm],Φ1,Φ2,...,Φm分別為通過主成分分析方法進行降維后得到的最大特征值所對應(yīng)的特征向量。將TrainDatai和TestDatai同時投影到MPCA上,可得到PCA降維后的訓(xùn)練數(shù)據(jù)Traini和測試數(shù)據(jù)Testi:
Traini=TrainDatai·MPCA
Testi=TestDatai·MPCA
步驟三,將步驟二中得到的特征向量通過LDA方法進行二次降維,具體方法如下:
(1)根據(jù)LDA準則,利用Traini中不同類別樣本的類間離散度矩陣以及同一類別樣本的類內(nèi)離散度矩陣計算出LDA的投影空間向量w*。
(2)把Traini與Testi投影到w*上,得到第i段腦電子信號的特征:
Trainfeaturei=Traini·w*
Testfeaturei=Testi·w*
步驟四,計算出所有的Trainfeaturei與Testfeaturei,并進行組合,得到最終的特征TrainFeature與TestFeature:
TrainFeature={TrainFeature1,TrainFeature2,…,Trainfeaturex}
TestFeature={TestFeature1,TestFeature2,…,TestFeaturex}
整個特征提取的流程如圖1所示。
步驟五,用步驟四所得到的特征TrainFeature訓(xùn)練ML-ELM分類器模型,將TestFeature送入訓(xùn)練好的模型進行分類,得出最終分類結(jié)果。流程圖如圖2所示,具體方法如下:
(1)給定隱層個數(shù)K、隱層節(jié)點個數(shù)L={L1,L2,…,LK}和激勵函數(shù)g(x)。隨機產(chǎn)生輸入權(quán)值ai和偏置值bi。xi代表輸入的第i個訓(xùn)練樣本,ti對應(yīng)第i個訓(xùn)練樣本的標簽。因為送入分類器是已經(jīng)提取好的特征,故在本發(fā)明中,xi實際上代表TrainFeaturei。
(2)計算隱層1所對應(yīng)的基于ELM的自編碼器的輸出矩陣G1:
其中,G1(ai,bi,x)=g(x·ai+bi)為訓(xùn)練數(shù)據(jù)集的單個樣本。
(3)求出自編碼器1的最優(yōu)權(quán)β1。
根據(jù)神經(jīng)網(wǎng)絡(luò)的輸出X=G1β1。如果G1是列滿秩的,通過最小二乘法得到最佳權(quán)值,其解為:
是G1的廣義逆矩陣,如果G1是非列滿秩的,則使用奇異值分解求解G1的廣義逆矩陣來計算最優(yōu)權(quán)β1。
(4)計算隱層1的輸出矩陣H1:
是β1的轉(zhuǎn)置。
(5)計算隱層2所對應(yīng)的基于ELM的自編碼器的輸出矩陣G2:
G2=g(H1·a2+b2)
(6)求出自編碼器2的最優(yōu)權(quán)β2:
(7)計算隱層2的輸出矩陣H2:
(8)重復(fù)步驟(5)-(7),直到計算出隱層K的輸出矩陣HK。
(9)計算輸出層的最優(yōu)權(quán)βK+1:
(10)將TestFeature送入該模型進行分類,得到一組M維的預(yù)測標簽,將預(yù)測標簽與真實標簽進行比較求出分類正確率。
本實施例選擇BCI2003Ia標準數(shù)據(jù)集,該數(shù)據(jù)集是兩類運動想象腦電數(shù)據(jù),分類結(jié)果的正確率是94.20%。本發(fā)明實施例的正確率比研究該數(shù)據(jù)的其他學(xué)者采用的方法的正確率都要高。并且同樣特征的情況下,分類效果優(yōu)于SVM的92.15%和ELM平均結(jié)果89.04%。該發(fā)明同樣適用于多分類問題,可將其先轉(zhuǎn)化為兩類分類,繼續(xù)使用本發(fā)明所使用的方法。