亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法與流程

文檔序號:12177967閱讀:來源:國知局

技術(shù)特征:

1.基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,其特征在于:

首先,對每一樣本的原始信號進行加窗分段,得到S段子信號;然后,分別對上步驟分段得到的S段子信號進行主成分分析和線性判別分析,并將最終的S個K-1維特征向量進行組合,得到S*(K-1)維的特征;最后,將所有樣本的特征送入多層超限學(xué)習(xí)機分類器中,得到最后的分類結(jié)果;

基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,包括以下步驟:

步驟一,采用固定的滑動時間窗將原始運動想象腦電信號分為S段子信號;S的取值取決于滑動時間窗的長度與原始腦電信號的長度;

步驟二,對步驟一所得到的每一段子信號通過主成分分析方法進行降維,去除眼動和眨眼等偽跡對信號的干擾,得到降維后的特征向量;

步驟三,將步驟二中得到的特征向量通過線性判別分析方法進行二次降維,對于K個類別的腦電數(shù)據(jù),得到K-1維的特征向量;對于二分類問題,得到的是一個一維的特征向量;

步驟四,對每個子信號均按步驟二和步驟三進行處理,對于S段子信號,所以最終會得到S個K-1維的特征向量,將S個K-1維的特征向量進行組合,得到最終為S*(K-1)維的特征;

步驟五,將步驟四所得到的S*(K-1)維特征送入ML-ELM分類器,得到最終分類結(jié)果。

2.根據(jù)權(quán)利要求1所述的基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,其特征在于:假設(shè)有訓(xùn)練數(shù)據(jù)集TrainData和一組測試數(shù)據(jù)集TestData,TrainData的樣本量為N,維度為D;TestData的樣本量為M,維度同樣為D;其中TrainData與TestData中樣本屬于K個類別的;

基于多層超限學(xué)習(xí)機的運動想象腦電信號分類方法,

步驟一,通過固定時間窗劃分的方式把TrainData和TestData均分成S段腦電子信號;TrainDatai代表訓(xùn)練數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di(i=1,2,…,S);TestDatai代表測試數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di(i=1,2,…,S);因為采用的固定時間窗,窗口大小是固定的,所以D1=D2=…=Di;

固定的滑動時間窗分為兩種:一種是無疊加時間窗,每一段子信號之間沒有重疊部分,即另一種是有疊加的時間窗,每兩段相鄰的子信號之間是有部分重疊的,即

步驟二,對步驟一所得到的每一段子信號TrainDatai和TestDatai通過主成分分析方法進行降維;將特征值從大到小進行排序后,再根據(jù)累計貢獻率,只保留前m個最大特征值對應(yīng)的特征向量組合MPCA作為投影空間向量,MPCA=[Φ12,...,Φm],Φ12,...,Φm分別為通過主成分分析方法進行降維后得到的最大特征值所對應(yīng)的特征向量;將TrainDatai和TestDatai同時投影到MPCA上,可得到PCA降維后的訓(xùn)練數(shù)據(jù)Traini和測試數(shù)據(jù)Testi

Traini=TrainDatai·MPCA

Testi=TestDatai·MPCA

步驟三,將步驟二中得到的特征向量通過LDA方法進行二次降維,具體方法如下:

(1)根據(jù)LDA準(zhǔn)則,利用Traini中不同類別樣本的類間離散度矩陣以及同一類別樣本的類內(nèi)離散度矩陣計算出LDA的投影空間向量w*

(2)把Traini與Testi投影到w*上,得到第i段腦電子信號的特征:

Trainfeaturei=Traini·w*

Testfeaturei=Testi·w*

步驟四,計算出所有的Trainfeaturei與Testfeaturei,并進行組合,得到最終的特征TrainFeature與TestFeature:

TrainFeature={TrainFeature1,TrainFeature2,…,Trainfeaturex}

TestFeature={TestFeature1,TestFeature2,…,TestFeaturex}

步驟五,用步驟四所得到的特征TrainFeature訓(xùn)練ML-ELM分類器模型,將TestFeature送入訓(xùn)練好的模型進行分類,得出最終分類結(jié)果;流程圖如圖2所示,具體方法如下:

(1)給定隱層個數(shù)K、隱層節(jié)點個數(shù)L={L1,L2,…,LK}和激勵函數(shù)g(x);隨機產(chǎn)生輸入權(quán)值ai和偏置值bi;xi代表輸入的第i個訓(xùn)練樣本,ti對應(yīng)第i個訓(xùn)練樣本的標(biāo)簽;因為送入分類器是已經(jīng)提取好的特征,故在本發(fā)明中,xi實際上代表TrainFeaturei;

(2)計算隱層1所對應(yīng)的基于ELM的自編碼器的輸出矩陣G1

<mrow> <msub> <mi>G</mi> <mn>1</mn> </msub> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>G</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>a</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <mi>G</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>a</mi> <mrow> <mi>L</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>b</mi> <mrow> <mi>L</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mo>...</mo> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>G</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>a</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>N</mi> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <mi>G</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>a</mi> <mrow> <mi>L</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>b</mi> <mrow> <mi>L</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>N</mi> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>N</mi> <mo>&times;</mo> <mi>L</mi> <mn>1</mn> </mrow> </msub> </mrow>

其中,G1(ai,bi,x)=g(x·ai+bi)為訓(xùn)練數(shù)據(jù)集的單個樣本;

(3)求出自編碼器1的最優(yōu)權(quán)β1;

根據(jù)神經(jīng)網(wǎng)絡(luò)的輸出X=G1β1;如果G1是列滿秩的,通過最小二乘法得到最佳權(quán)值,其解為:

是G1的廣義逆矩陣,如果G1是非列滿秩的,則使用奇異值分解求解G1的廣義逆矩陣來計算最優(yōu)權(quán)β1

(4)計算隱層1的輸出矩陣H1

<mrow> <msub> <mi>H</mi> <mn>1</mn> </msub> <mo>=</mo> <msubsup> <mi>X&beta;</mi> <mn>1</mn> <mi>T</mi> </msubsup> </mrow>

是β1的轉(zhuǎn)置;

(5)計算隱層2所對應(yīng)的基于ELM的自編碼器的輸出矩陣G2

G2=g(H1·a2+b2)

(6)求出自編碼器2的最優(yōu)權(quán)β2

(7)計算隱層2的輸出矩陣H2

<mrow> <msub> <mi>H</mi> <mn>2</mn> </msub> <mo>=</mo> <msub> <mi>H</mi> <mn>1</mn> </msub> <msubsup> <mi>&beta;</mi> <mn>2</mn> <mi>T</mi> </msubsup> </mrow>

(8)重復(fù)步驟(5)-(7),直到計算出隱層K的輸出矩陣HK

(9)計算輸出層的最優(yōu)權(quán)βK+1

(10)將TestFeature送入該模型進行分類,得到一組M維的預(yù)測標(biāo)簽,將預(yù)測標(biāo)簽與真實標(biāo)簽進行比較求出分類正確率。

當(dāng)前第2頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1