1.基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,其特征在于:
首先,對每一樣本的原始信號進行加窗分段,得到S段子信號;然后,分別對上步驟分段得到的S段子信號進行主成分分析和線性判別分析,并將最終的S個K-1維特征向量進行組合,得到S*(K-1)維的特征;最后,將所有樣本的特征送入多層超限學(xué)習(xí)機分類器中,得到最后的分類結(jié)果;
基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,包括以下步驟:
步驟一,采用固定的滑動時間窗將原始運動想象腦電信號分為S段子信號;S的取值取決于滑動時間窗的長度與原始腦電信號的長度;
步驟二,對步驟一所得到的每一段子信號通過主成分分析方法進行降維,去除眼動和眨眼等偽跡對信號的干擾,得到降維后的特征向量;
步驟三,將步驟二中得到的特征向量通過線性判別分析方法進行二次降維,對于K個類別的腦電數(shù)據(jù),得到K-1維的特征向量;對于二分類問題,得到的是一個一維的特征向量;
步驟四,對每個子信號均按步驟二和步驟三進行處理,對于S段子信號,所以最終會得到S個K-1維的特征向量,將S個K-1維的特征向量進行組合,得到最終為S*(K-1)維的特征;
步驟五,將步驟四所得到的S*(K-1)維特征送入ML-ELM分類器,得到最終分類結(jié)果。
2.根據(jù)權(quán)利要求1所述的基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,其特征在于:假設(shè)有訓(xùn)練數(shù)據(jù)集TrainData和一組測試數(shù)據(jù)集TestData,TrainData的樣本量為N,維度為D;TestData的樣本量為M,維度同樣為D;其中TrainData與TestData中樣本屬于K個類別的;
基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,
步驟一,通過固定時間窗劃分的方式把TrainData和TestData均分成S段腦電子信號;TrainDatai代表訓(xùn)練數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di(i=1,2,…,S);TestDatai代表測試數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di(i=1,2,…,S);因為采用的固定時間窗,窗口大小是固定的,所以D1=D2=…=Di;
固定的滑動時間窗分為兩種:一種是無疊加時間窗,每一段子信號之間沒有重疊部分,即另一種是有疊加的時間窗,每兩段相鄰的子信號之間是有部分重疊的,即
步驟二,對步驟一所得到的每一段子信號TrainDatai和TestDatai通過主成分分析方法進行降維;將特征值從大到小進行排序后,再根據(jù)累計貢獻率,只保留前m個最大特征值對應(yīng)的特征向量組合MPCA作為投影空間向量,MPCA=[Φ1,Φ2,...,Φm],Φ1,Φ2,...,Φm分別為通過主成分分析方法進行降維后得到的最大特征值所對應(yīng)的特征向量;將TrainDatai和TestDatai同時投影到MPCA上,可得到PCA降維后的訓(xùn)練數(shù)據(jù)Traini和測試數(shù)據(jù)Testi:
Traini=TrainDatai·MPCA
Testi=TestDatai·MPCA
步驟三,將步驟二中得到的特征向量通過LDA方法進行二次降維,具體方法如下:
(1)根據(jù)LDA準(zhǔn)則,利用Traini中不同類別樣本的類間離散度矩陣以及同一類別樣本的類內(nèi)離散度矩陣計算出LDA的投影空間向量w*;
(2)把Traini與Testi投影到w*上,得到第i段腦電子信號的特征:
Trainfeaturei=Traini·w*
Testfeaturei=Testi·w*
步驟四,計算出所有的Trainfeaturei與Testfeaturei,并進行組合,得到最終的特征TrainFeature與TestFeature:
TrainFeature={TrainFeature1,TrainFeature2,…,Trainfeaturex}
TestFeature={TestFeature1,TestFeature2,…,TestFeaturex}
步驟五,用步驟四所得到的特征TrainFeature訓(xùn)練ML-ELM分類器模型,將TestFeature送入訓(xùn)練好的模型進行分類,得出最終分類結(jié)果;流程圖如圖2所示,具體方法如下:
(1)給定隱層個數(shù)K、隱層節(jié)點個數(shù)L={L1,L2,…,LK}和激勵函數(shù)g(x);隨機產(chǎn)生輸入權(quán)值ai和偏置值bi;xi代表輸入的第i個訓(xùn)練樣本,ti對應(yīng)第i個訓(xùn)練樣本的標(biāo)簽;因為送入分類器是已經(jīng)提取好的特征,故在本發(fā)明中,xi實際上代表TrainFeaturei;
(2)計算隱層1所對應(yīng)的基于ELM的自編碼器的輸出矩陣G1:
其中,G1(ai,bi,x)=g(x·ai+bi)為訓(xùn)練數(shù)據(jù)集的單個樣本;
(3)求出自編碼器1的最優(yōu)權(quán)β1;
根據(jù)神經(jīng)網(wǎng)絡(luò)的輸出X=G1β1;如果G1是列滿秩的,通過最小二乘法得到最佳權(quán)值,其解為:
是G1的廣義逆矩陣,如果G1是非列滿秩的,則使用奇異值分解求解G1的廣義逆矩陣來計算最優(yōu)權(quán)β1;
(4)計算隱層1的輸出矩陣H1:
是β1的轉(zhuǎn)置;
(5)計算隱層2所對應(yīng)的基于ELM的自編碼器的輸出矩陣G2:
G2=g(H1·a2+b2)
(6)求出自編碼器2的最優(yōu)權(quán)β2:
(7)計算隱層2的輸出矩陣H2:
(8)重復(fù)步驟(5)-(7),直到計算出隱層K的輸出矩陣HK;
(9)計算輸出層的最優(yōu)權(quán)βK+1:
(10)將TestFeature送入該模型進行分類,得到一組M維的預(yù)測標(biāo)簽,將預(yù)測標(biāo)簽與真實標(biāo)簽進行比較求出分類正確率。