本發(fā)明涉及模式識別和機器學習領(lǐng)域,具體涉及一種基于深度極速學習機的腦電信號分類方法及系統(tǒng)。
背景技術(shù):
腦機接口是基于腦電信號實現(xiàn)人腦與計算機或其它電子設(shè)備通訊和控制的技術(shù)。腦機接口的核心技術(shù)是對預處理的腦電信號進行特征提取和對已經(jīng)提取的腦電信號進行分類。近年來,隨著計算機技術(shù)的發(fā)展,腦機接口得到了突飛猛進的進展,腦機接口應(yīng)用到醫(yī)學、軍事等許多領(lǐng)域。目前,腦電信號的分類方法有決策樹、貝葉斯分類器、k近鄰分類器、支持向量機、極速學習機等。其中多數(shù)分類算法是淺層神經(jīng)網(wǎng)絡(luò)算法,對復雜函數(shù)的表示能力有限,而深度學習沒有這種限制。
深度學習是一種多隱層多層感知器的人工神經(jīng)網(wǎng)絡(luò)學習算法,實現(xiàn)復雜函數(shù)的逼近并緩解了以前多層神經(jīng)網(wǎng)絡(luò)算法的局部最小性問題。2006年,深度學習的概念被首次提出。隨后,深度置信網(wǎng)、堆疊自動編碼器這些深度網(wǎng)絡(luò)模型被提出。2013年,有學者在自動編碼器和極速學習機基礎(chǔ)上提出多層極速學習機模型。極速學習機是一種高效簡潔的單隱層前饋神經(jīng)網(wǎng)絡(luò)的學習算法。
腦電信號需要在受試者大腦皮層采集,需要預處理加工。在經(jīng)典的模式識別中,一般是事先提取特征,預處理的腦電信號提取到的特征的不同對分類性能影響很大。深度極速學習機是一種有效且快速的深度神經(jīng)網(wǎng)絡(luò)學習方法,通過堆疊極速學習機-自動編碼器算法構(gòu)建多層神經(jīng)網(wǎng)絡(luò)模型,最后把學習到的特征映射到核空間分類。深度極速學習機是一種有效且快速的深度神經(jīng)網(wǎng)絡(luò)學習方法,通過堆疊極速學習機-自動編碼器算法構(gòu)建多層神經(jīng)網(wǎng)絡(luò)模型,最后把學習到的特征映射到核空間分類。深度極速學習機不用對數(shù)據(jù)進行復雜的迭代操作,可以方便地把數(shù)據(jù)作為輸入,通過大量的數(shù)據(jù)一次性學習得到有效的特征,然后把學習到的特征映射到核空間分類。
技術(shù)實現(xiàn)要素:
為了解決腦電信號分類問題,本發(fā)明提出一種基于深度學習機的腦電信號分類方法及系統(tǒng),直接將腦電信號預處理后的數(shù)據(jù)作為輸入,訓練得到深度極速學習機神經(jīng)網(wǎng)絡(luò)模型,該模型不僅可以對預處理后的腦電信號進行多次非線性映射,實現(xiàn)腦電信號的深度特征提取,還能把學習到的特征映射到核空間分類,從而得到每個腦電信號對應(yīng)的標簽,明顯提高了識別的正確率和效率。
本發(fā)明是通過以下方案實現(xiàn)的:
本發(fā)明涉及一種基于深度極速學習機的腦電信號分類方法,通過構(gòu)建帶標簽的訓練集作為樣本集對深度極速學習機網(wǎng)絡(luò)進行訓練,并將訓練好的神經(jīng)網(wǎng)絡(luò)處理預處理后的腦電信號,最后根據(jù)神經(jīng)網(wǎng)絡(luò)的輸出向量判斷分類結(jié)果。
本發(fā)明具體步驟如下:
步驟1,制作訓練集并將腦電信號做預處理:根據(jù)未加工的腦電信號,制作自然風景圖像的訓練集和標簽集,訓練集為經(jīng)過預處理后的數(shù)據(jù)。以視覺反饋為例,每個預處理后的腦電信號有5376個特征屬性,它是采集6個通道3.5秒的腦電信號得到的,每個通道采樣率都是256赫茲。
步驟2,構(gòu)造三隱層的深度極速學習機神經(jīng)網(wǎng)絡(luò):輸入層的數(shù)據(jù)是預處理得到的腦電信號(以視覺反饋為例,每個預處理后的腦電信號有5376個特征屬性,類別數(shù)為2,因此輸入層與輸出層的隱層節(jié)點數(shù)分別為5376與2),前兩個隱層節(jié)點數(shù)人為指定為500(其權(quán)值用極速學習機-自動編碼器學習),此時結(jié)束了特征提取的過程,隨后將學習到的特征映射到核空間得到最后一層隱層的輸出,因此第三層的隱層節(jié)點數(shù)不需要人為指定。
步驟3,訓練深度極速學習機神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)的基本參數(shù)和規(guī)格設(shè)置完成后,首先利用極速學習機-自動編碼器學習前兩層隱層的連接權(quán)值,隨后計算訓練數(shù)據(jù)第二層隱層的輸出作為最后一層隱層對應(yīng)的權(quán)值,最后結(jié)合最小二乘方法根據(jù)標簽與最后一層隱層的輸出計算網(wǎng)絡(luò)的輸出權(quán)值,具體過程如下:
步驟3.1:計算輸入層與第一層隱層間的權(quán)值:建立一個極速學習機-自動編碼器的網(wǎng)絡(luò)模型,其輸入與輸出都是預處理完的數(shù)據(jù),其隱層節(jié)點數(shù)為多層神經(jīng)網(wǎng)絡(luò)第一層隱層的節(jié)點數(shù)500,網(wǎng)絡(luò)的輸入權(quán)值隨機確定,用最小二乘方法一次計算出輸出權(quán)值,最后此輸出權(quán)值的轉(zhuǎn)置對應(yīng)的就是輸入層與第一層隱層間的權(quán)值;
步驟3.2:計算第一層隱層與第二層隱層間的權(quán)值:同樣建立一個極速學習機-自動編碼器的網(wǎng)絡(luò)模型,其輸入與輸出都是第一層隱層的輸出,其隱層節(jié)點數(shù)為多層神經(jīng)網(wǎng)絡(luò)第二層隱層的節(jié)點數(shù)500,網(wǎng)絡(luò)的輸入權(quán)值隨機確定,用最小二乘方法一次計算出輸出權(quán)值,最后此輸出權(quán)值的轉(zhuǎn)置對應(yīng)的就是第一層隱層與第二層隱層間的權(quán)值;
步驟3.3:計算第二層隱層與第三層隱層間的權(quán)值:將學習到的特征映射到核空間得到最后一層隱層的輸出,所以第二層隱層與第三層隱層間的權(quán)值就是訓練數(shù)據(jù)第二層隱層的輸出;
步驟3.4:計算最后一層隱層與輸出層間的權(quán)值:利用最小二乘算法根據(jù)最后一層隱層的輸出與對應(yīng)的標簽計算最后一層隱層與輸出層間的權(quán)值。
步驟4:腦電信號的分類,以以視覺反饋為例,每個預處理后的腦電信號有5376個特征屬性,然后將其輸入到訓練好的神經(jīng)網(wǎng)絡(luò)中,最終得到對應(yīng)的一組標簽。
通過以上內(nèi)容可知,本申請?zhí)峁┑氖且环N基于深度極速學習機的腦電信號分類方法及系統(tǒng),首先制作根據(jù)實際需要制作訓練集和標簽,然后設(shè)計網(wǎng)絡(luò)的層數(shù)、每層的節(jié)點數(shù)目等等,之后將訓練集預處理后輸入網(wǎng)絡(luò)中完成對網(wǎng)絡(luò)權(quán)值的學習,最后輸入腦電信號,預處理后輸入神經(jīng)網(wǎng)絡(luò),完成對腦電信號的分類。本申請通過深度極速學習機神經(jīng)網(wǎng)絡(luò)識別腦電信號,實現(xiàn)了多層的特征提取,直接將腦電信號預處理后的向量作為網(wǎng)絡(luò)的輸入,分類準確率很高;且網(wǎng)絡(luò)一經(jīng)訓練即可反復使用,處理效率高;訓練時間短。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
圖1為本申請實施例提供的一種腦電信號分類方法的流程圖。
圖2為本申請所使用的深度極速學習機神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖。
具體實施方式
下面將結(jié)合本申請實施例中的附圖,對本申請實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本申請一部分實施例,而不是全部的實施例。基于本申請中的實施例,本領(lǐng)域普通技術(shù)人員在沒有付出創(chuàng)造性勞動前提下所獲得的所有其它實施例,都屬于本申請保護的范圍。
實施例1
如圖1所示,本實施例包括以下步驟:
步驟1,腦電信號預處理:
步驟1.1:確定每次試驗的通道數(shù)以及每個通道采樣率,視覺反饋試驗中有6個通道,每個通道采樣率都是256赫茲;
步驟1.2:確定每次試驗的有效時長,視覺反饋試驗中的視覺反饋是從第2秒到第5.5秒,每次試驗只有這3.5秒的時間間隔用于訓練或測試,因此每個預處理后的腦電信號有5376個特征屬性,每個預處理后的腦電信號對應(yīng)一組標簽,2*1的矩陣代表每個預處理后的腦電信號的標簽。
步驟2,構(gòu)建深度極速學習機神經(jīng)網(wǎng)絡(luò):
本實施例中采用的深度極速學習機-徑向基神經(jīng)網(wǎng)絡(luò)是一個多層的神經(jīng)網(wǎng)絡(luò),由輸入層、隱層和輸出層等多層組成。
步驟2.1:前兩層隱層節(jié)點數(shù)人為指定為500;
步驟2.2:隨后將第二層隱層的輸出映射到核空間得到最后一層隱層的輸出,因此第三層的隱層節(jié)點數(shù)不需要人為指定,輸出層設(shè)置為2個節(jié)點。
步驟3,訓練多層極速學習機-徑向基神經(jīng)網(wǎng)絡(luò):
步驟3.1:利用極速學習機-自動編碼器的網(wǎng)絡(luò)計算前兩層隱層的連接權(quán)值;
步驟3.2:將學習到的特征映射到核空間得到最后一層隱層的輸出,所以第二層隱層與第三層隱層間的權(quán)值就是訓練數(shù)據(jù)第二層隱層的輸出;
步驟3.3:利用最小二乘算法根據(jù)最后一層隱層的輸出與對應(yīng)的標簽計算最后一層隱層與輸出層間的權(quán)值。
步驟4,腦電信號的分類:
步驟4.1:在得到腦電信號之后,首先進行預處理,視覺反饋試驗中的腦電信號預處理后可以得到5376*1的向量;
步驟4.2:得到預處理之后的數(shù)據(jù),輸入到已經(jīng)訓練保存好的神經(jīng)網(wǎng)絡(luò)中,等待輸出,然后依據(jù)輸出向量完成對腦電信號的分類。