本發(fā)明涉及一種基于門(mén)控循環(huán)擴(kuò)散模型的心電信號(hào)增強(qiáng)與分類(lèi)方法。
背景技術(shù):
1、心電信號(hào)(electrocardiogram,ecg)作為反映心臟電活動(dòng)的重要生理信號(hào),已廣泛應(yīng)用于心血管疾病的診斷、監(jiān)測(cè)和管理。準(zhǔn)確地分析和分類(lèi)心電信號(hào)對(duì)于早期發(fā)現(xiàn)和診斷心律失常、心肌缺血等心臟異常具有重要臨床意義。心電信號(hào)的自動(dòng)分類(lèi)方法可以幫助醫(yī)療專(zhuān)業(yè)人員快速、準(zhǔn)確地識(shí)別異常心電信號(hào),提高診斷效率,減輕工作負(fù)擔(dān),并在一定程度上減少人為誤差。隨著人工智能技術(shù)的發(fā)展,心電信號(hào)分類(lèi)方法主要分為兩大類(lèi):基于機(jī)器學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法?;跈C(jī)器學(xué)習(xí)的心電信號(hào)分類(lèi)方法通常依賴(lài)于特征工程,包括手動(dòng)特征提取(如時(shí)域特征、頻域特征等)和特征選擇,然后使用分類(lèi)器(如支持向量機(jī)、隨機(jī)森林等)進(jìn)行分類(lèi)?;谏疃葘W(xué)習(xí)的方法則主要采用卷積神經(jīng)網(wǎng)絡(luò)(cnn)、循環(huán)神經(jīng)網(wǎng)絡(luò)(rnn)以及混合模型(如cnn-rnn)的架構(gòu),這些方法可以自動(dòng)從原始信號(hào)中提取特征,并在大規(guī)模數(shù)據(jù)集上表現(xiàn)出較強(qiáng)的分類(lèi)能力。然而,這些深度學(xué)習(xí)模型通常需要大量標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,且其對(duì)數(shù)據(jù)的依賴(lài)性較強(qiáng)。雖然這些方法可以在一定程度上提高心電信號(hào)的分類(lèi)性能,但在處理小規(guī)模異常數(shù)據(jù)以及高數(shù)據(jù)不平衡性的問(wèn)題上,仍存在諸多挑戰(zhàn)。
2、傳統(tǒng)的心電信號(hào)分類(lèi)模型通常面臨以下幾個(gè)主要問(wèn)題:1、數(shù)據(jù)不平衡:心電信號(hào)數(shù)據(jù)集中,正常信號(hào)的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)多于異常信號(hào)的數(shù)據(jù)量,導(dǎo)致模型在訓(xùn)練過(guò)程中更傾向于學(xué)習(xí)正常信號(hào)的特征。這樣會(huì)導(dǎo)致在臨床應(yīng)用中,模型對(duì)異常心電信號(hào)(如veb、vfw、apb等)的識(shí)別能力較差,從而可能導(dǎo)致誤診或漏診。2、時(shí)間序列特征捕捉不足:傳統(tǒng)的深度學(xué)習(xí)模型在處理時(shí)間序列特征時(shí)的能力有限,尤其是對(duì)心電信號(hào)這種復(fù)雜且具有動(dòng)態(tài)變化特征的數(shù)據(jù)。循環(huán)神經(jīng)網(wǎng)絡(luò)(rnn)和長(zhǎng)短期記憶網(wǎng)絡(luò)(lstm)雖然可以捕捉時(shí)間依賴(lài)性,但在處理長(zhǎng)時(shí)間序列數(shù)據(jù)時(shí)仍有不足。缺少對(duì)異常波形特征的有效學(xué)習(xí),可能導(dǎo)致對(duì)異常心電信號(hào)識(shí)別的精度不高。3、預(yù)處理依賴(lài)性強(qiáng):許多模型在信號(hào)分類(lèi)前依賴(lài)于復(fù)雜的預(yù)處理步驟,如去噪、基線漂移校正和特征提取。這種依賴(lài)使得模型的訓(xùn)練和推理過(guò)程復(fù)雜且耗時(shí),同時(shí)可能會(huì)丟失部分信號(hào)中的重要特征,影響分類(lèi)效果。
技術(shù)實(shí)現(xiàn)思路
1、發(fā)明目的:本發(fā)明所要解決的技術(shù)問(wèn)題是針對(duì)現(xiàn)有技術(shù)的不足,提供一種基于門(mén)控循環(huán)擴(kuò)散模型的心電信號(hào)增強(qiáng)與分類(lèi)方法,包括以下步驟:
2、步驟1,獲取心電信號(hào)數(shù)據(jù)集;
3、步驟2,設(shè)定擴(kuò)散模型的參數(shù)與超參數(shù);
4、步驟3,建立擴(kuò)散模型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu);
5、步驟4,訓(xùn)練擴(kuò)散模型,通過(guò)訓(xùn)練好的擴(kuò)散模型補(bǔ)充心電信號(hào)數(shù)據(jù)集;
6、步驟5,設(shè)定分類(lèi)模型的超參數(shù);
7、步驟6,建立分類(lèi)模型;
8、步驟7,采用步驟4得到的心電信號(hào)數(shù)據(jù)集訓(xùn)練分類(lèi)模型,將訓(xùn)練好的分類(lèi)模型用于心電信號(hào)分類(lèi)。
9、步驟3中,所述擴(kuò)散模型為門(mén)控循環(huán)擴(kuò)散模型,包括初始層、時(shí)間嵌入層、四個(gè)下采樣層、中間層、四個(gè)上采樣層和輸出層;
10、所述初始層僅包括一個(gè)一維卷積層,卷積核大小為7,輸入通道為1,輸出通道為32。
11、步驟3中,所述時(shí)間嵌入層接受單個(gè)整型數(shù)字代表時(shí)間戳作為輸入,所述時(shí)間嵌入層包括正弦位置編碼、第一全連接層、高斯誤差線性單元(gaussian?error?linear?units,gelu)激活函數(shù)與第二全連接層;
12、所述正弦位置編碼執(zhí)行如下計(jì)算:生成一個(gè)向量γ,向量γ的第i個(gè)元素γi=是整數(shù)集,exp是自然指數(shù)函數(shù),θ為可設(shè)定的參數(shù),l為向量長(zhǎng)度;將輸入時(shí)間戳與向量γ進(jìn)行數(shù)乘得到向量σ,求向量σ中每個(gè)元素的正弦值與余弦值,得到向量α、β,即αi=sinσi,βi=cosσi,αi是向量α的第i個(gè)元素,βi是向量β的第i個(gè)元素,連接向量α、β得到長(zhǎng)度為32的向量λ,λ為正弦位置編碼的輸出;
13、時(shí)間嵌入層中,第一全連接層的輸入通道數(shù)為32,輸出通道數(shù)為128。第二全連接層的輸入、輸出通道數(shù)均為128;
14、高斯誤差線性單元激活函數(shù)表示為gelu(xg):
15、其中xg表示輸入高斯誤差線性單元激活函數(shù)的單個(gè)數(shù)字;
16、時(shí)間嵌入層輸出的時(shí)間向量將輸入到所有殘差塊中。
17、步驟3中,所述下采樣層包括兩個(gè)殘差塊、注意力部分與下采樣部分,下采樣層中的數(shù)據(jù)將作為輸入進(jìn)入上采樣層,設(shè)定一個(gè)棧數(shù)據(jù)結(jié)構(gòu),在每個(gè)下采樣層的第一個(gè)殘差塊和注意力部分之后,保存當(dāng)前數(shù)據(jù)并存入棧中;
18、所述殘差塊包括初始卷積部分、時(shí)間嵌入部分、中間卷積部分與殘差卷積部分;下采樣層中,所有殘差塊不改變數(shù)據(jù)形狀,輸入通道等于輸出通道,通道數(shù)與對(duì)應(yīng)下采樣層的輸入數(shù)據(jù)通道數(shù)相同;
19、下采樣層的殘差塊中,初始卷積部分與中間卷積部分的卷積核大小為3,殘差卷積部分的卷積核大小為1;
20、下采樣層的殘差塊中,初始卷積部分包括卷積層與均方根標(biāo)準(zhǔn)化(root?meansquare?layer?normalization,rms?norm)層,均方根標(biāo)準(zhǔn)化的公式為:
21、
22、其中均方根函數(shù)表示均方根標(biāo)準(zhǔn)化,g、d表示拉伸參數(shù),e表示偏移參數(shù),⊙表示按位置乘,xr表示輸入向量,xrj為xr中的元素;
23、下采樣層的殘差塊中,時(shí)間嵌入部分包括s型整流單元(sigmoid-weighed?linearunits,silu)激活函數(shù)與全連接層,s型整流單元激活函數(shù)silu(x)的公式為:silu(x)=x*sigmoid(x),其中x表示輸入s型整流單元激活函數(shù)的單個(gè)數(shù)字;全連接層的輸入通道為128,輸出通道為殘差塊的輸入特征向量大小的二倍;時(shí)間嵌入部分的輸出分為等長(zhǎng)的兩部分,分別作為縮放尺度向量與位移尺度向量,先將縮放尺度向量與初始卷積部分的輸出向量對(duì)應(yīng)元素一一相乘得到新向量,再將新向量與位移尺度向量相加,結(jié)果輸入到中間卷積部分;
24、下采樣層的殘差塊中,中間卷積部分包括s型整流單元激活函數(shù)、隨機(jī)失活(dropout)層、卷積層和均方根標(biāo)準(zhǔn)化層;
25、下采樣層的殘差塊中,殘差卷積部分包括s型整流單元激活函數(shù)、隨機(jī)失活層與卷積層;當(dāng)殘差塊的輸入輸出通道相同時(shí),保留卷積層的輸入數(shù)據(jù),并與卷積層的輸出結(jié)果相加作為殘差塊的最終輸出;
26、下采樣層的注意力部分包括前置均方根標(biāo)準(zhǔn)化、線性多頭注意力機(jī)制;
27、下采樣層的注意力部分中,數(shù)據(jù)首先經(jīng)過(guò)均方根標(biāo)準(zhǔn)化處理,輸入的特征向量首先進(jìn)入卷積層,卷積層的輸入維度與輸入特征向量大小保持相同,卷積核大小為1;在門(mén)控循環(huán)擴(kuò)散模型中,多頭注意力機(jī)制頭數(shù)為4,單頭的維度為32,即查詢(xún)、鍵、值張量的形狀為(批大小(batch?size),4,32,特征向量大小);卷積層的輸出通道為4×32×3=384;將卷積層的輸出均分為三部分,作為注意力機(jī)制的查詢(xún)(query,q)、鍵(key,k)、值(value,v),用于計(jì)算注意力權(quán)重和生成最終的輸出;先令查詢(xún)、鍵分別經(jīng)過(guò)歸一化指數(shù)函數(shù)(softmax)層,隨后將查詢(xún)中的每一個(gè)元素乘-16;將經(jīng)過(guò)歸一化指數(shù)函數(shù)層的鍵與值在后兩個(gè)維度上作矩陣乘法,所得內(nèi)容再與改變尺度后的查詢(xún)?cè)诤髢蓚€(gè)維度上作矩陣乘法,結(jié)果合并中間兩個(gè)維度,即由(批大小,4,32,特征向量大小)變?yōu)?批大小,128,特征向量大小)后進(jìn)入卷積層,卷積核大小為1,輸入通道為128,輸出通道與輸入特征向量大小相同;卷積之后,輸出向量進(jìn)行均方根標(biāo)準(zhǔn)化;最后,將輸出向量與第二殘差塊的輸出結(jié)果相加,得到多頭注意力機(jī)制的最終輸出;
28、下采樣層的下采樣層部分只包含一個(gè)卷積層,卷積核大小為4,步長(zhǎng)為2;門(mén)控循環(huán)擴(kuò)散模型中的四個(gè)下采樣層的輸入通道數(shù)分別為32,64,128,256;下采樣層中的殘差塊、注意力機(jī)制不改變數(shù)據(jù)形狀,下采樣部分則使通道數(shù)加倍、數(shù)據(jù)大小減半;在第四個(gè)下采樣層的下采樣部分中,卷積層步長(zhǎng)為1,卷積核大小為3,數(shù)據(jù)大小不變;下采樣部分的卷積層輸出即為下采樣層的輸出。
29、步驟3中,所述中間層包括初始?xì)埐顗K、門(mén)控循環(huán)單元陣列、多頭注意力機(jī)制與末尾殘差塊;
30、所述中間層的初始?xì)埐顗K、末尾殘差塊與下采樣層中的殘差塊結(jié)構(gòu)相同,輸入、輸出通道數(shù)均為256;
31、所述中間層的門(mén)控循環(huán)單元陣列總共包含16層串聯(lián)的門(mén)控循環(huán)單元,門(mén)控循環(huán)單元包括重置門(mén)、更新門(mén)和隱藏狀態(tài),公式表示為:
32、zt=sigmoid(wz·[ht-1,xt]),
33、rt=sigmoid(wr·[gt-1,xt]),
34、
35、其中rt表示重置門(mén),zt表示更新門(mén),ht為隱藏狀態(tài),wz、wr、wh為權(quán)重,表示候選隱藏狀態(tài),ht-1表示上一時(shí)刻的隱藏狀態(tài),xt為當(dāng)前時(shí)刻的輸入,x0為初始時(shí)刻的輸入;數(shù)據(jù)從x0開(kāi)始按序輸入門(mén)控循環(huán)單元,門(mén)控循環(huán)單元初始隱藏狀態(tài)h0為零向量;按公式計(jì)算出新的隱藏狀態(tài),全部數(shù)據(jù)輸入完畢后,輸出為每一步的隱藏狀態(tài)的組合,初始?xì)埐顗K的輸出向量作為第一層門(mén)控循環(huán)單元的輸入向量,第一層門(mén)控循環(huán)單元的輸出向量作為第二層門(mén)控循環(huán)單元的輸入向量,依此類(lèi)推;
36、所述中間層的多頭注意力機(jī)制包括:特征向量首先經(jīng)過(guò)前置均方根標(biāo)準(zhǔn)化,再進(jìn)入卷積層被分割為查詢(xún)、鍵、值;多頭注意力機(jī)制頭數(shù)為4,單頭的維度為32,即查詢(xún)、鍵、值張量的形狀為(批大小,4,32,特征向量大小);首先將查詢(xún)乘-16從而改變尺度,與鍵在后兩個(gè)維度上進(jìn)行矩陣乘法,結(jié)果經(jīng)過(guò)歸一化指數(shù)函數(shù)層,然后在與值在后兩個(gè)維度上進(jìn)行矩陣乘法,合并中間兩個(gè)維度,即由(批大小,4,32,特征向量大小)變?yōu)?批大小,128,特征向量大小)然后進(jìn)入卷積層,卷積層輸出與前置均方根標(biāo)準(zhǔn)化之前的特征向量相加,得到多頭注意力機(jī)制的最終輸出。
37、步驟3中,所述上采樣層包括兩個(gè)殘差塊、注意力部分與上采樣部分;
38、所述上采樣層的殘差塊結(jié)構(gòu)與下采樣層中的殘差塊相同,但每個(gè)殘差塊的輸出通道數(shù)均與輸入通道數(shù)不同,因此殘差卷積部分中卷積層輸出不與原數(shù)據(jù)相加;殘差塊的輸入數(shù)據(jù)除原輸入數(shù)據(jù),還包括從下采樣的數(shù)據(jù)棧中提取的數(shù)據(jù),原輸入數(shù)據(jù)和從下采樣的數(shù)據(jù)棧中提取的數(shù)據(jù)連接后作為殘差塊的輸入;
39、所述上采樣層的注意力部分與下采樣層的注意力部分相同;
40、所述上采樣層的上采樣部分包括上采樣函數(shù)與卷積層,所述上采樣函數(shù)采用鄰近算法,將數(shù)據(jù)大小變?yōu)樵瓉?lái)的2倍,設(shè)原向量為表示自然數(shù),n表示原向量長(zhǎng)度,x0,x1,…,xn-1表示原向量中的n個(gè)元素;則(x0,x1,…,xn)經(jīng)過(guò)上采樣函數(shù)的輸出結(jié)果為(x0,x0,x1,x1,…,xn,xn);卷積層的卷積核大小為3;
41、門(mén)控循環(huán)擴(kuò)散模型中的四個(gè)上采樣層的輸入通道數(shù)分別為256,128,64,32;上采樣部分使通道數(shù)減半、數(shù)據(jù)大小加倍;在第四個(gè)上采樣層的上采樣部分中,只有卷積層而無(wú)上采樣函數(shù),通道數(shù)和數(shù)據(jù)大小不變;上采樣部分的卷積層輸出即為上采樣層的輸出。
42、步驟3中,所述輸出層包括一個(gè)殘差塊和卷積層;所述殘差塊的結(jié)構(gòu)與下采樣層中的殘差塊相同,輸入、輸出通道數(shù)均為32;所述卷積層輸入、輸出通道數(shù)均為32,卷積核大小為1。
43、步驟4包括:
44、步驟4-1,將心電信號(hào)數(shù)據(jù)集按批大小分為x1個(gè)批次,隨機(jī)取出一個(gè)批次;
45、步驟4-2,隨機(jī)生成一個(gè)時(shí)間戳t;
46、步驟4-3,計(jì)算當(dāng)前批次中的每一條數(shù)據(jù)x0迭代t次后的含噪數(shù)據(jù)xt:
47、
48、其中βt表示迭代t次后的噪聲比例參數(shù),αt=1-βt,αt表示迭代t次后的信號(hào)比例參數(shù),αs表示迭代s次后的信號(hào)比例參數(shù),表示迭代t次后的累積信號(hào)比例參數(shù),q(xt|x0)表示已知數(shù)據(jù)x0時(shí)含噪數(shù)據(jù)xt的概率分布,n表示正態(tài)分布,i表示單位矩陣;
49、步驟4-4,將含噪數(shù)據(jù)xt與時(shí)間戳t輸入擴(kuò)散模型得到輸出,計(jì)算損失loss=||∈-∈θ(xt,t)||2,進(jìn)行梯度下降修改擴(kuò)散模型的參數(shù);其中∈θ(xt,t)表示擴(kuò)散模型的預(yù)測(cè)結(jié)果,∈表示服從于標(biāo)準(zhǔn)正態(tài)分布的隨機(jī)噪聲;
50、步驟4-5,重復(fù)步驟4-1~步驟4-4過(guò)程x2次;
51、步驟4-6,擴(kuò)散模型訓(xùn)練完畢后,將心電信號(hào)數(shù)據(jù)集按比例隨機(jī)劃分為測(cè)試集與訓(xùn)練集;
52、步驟4-7,依照訓(xùn)練好的擴(kuò)散模型進(jìn)行采樣以生成新的數(shù)據(jù),包括如下步驟:
53、步驟4-7-1,生成服從于標(biāo)準(zhǔn)正態(tài)分布的隨機(jī)噪聲,設(shè)定時(shí)間戳t;
54、步驟4-7-2,將隨機(jī)噪聲作為輸入信號(hào),和時(shí)間戳t一并輸入擴(kuò)散模型;
55、步驟4-7-3,將擴(kuò)散模型的輸出結(jié)果與輸入信號(hào)相加,作為新的輸入信號(hào),并使時(shí)間戳自減一次;
56、步驟4-7-4,重復(fù)x3步,直至?xí)r間戳自減為0,此時(shí)的輸出信號(hào)即為擴(kuò)散模型生成的新數(shù)據(jù);
57、步驟4-8,將生成的新數(shù)據(jù)補(bǔ)充到對(duì)應(yīng)類(lèi)別的訓(xùn)練集中。
58、步驟6包括:所述分類(lèi)模型包括四層,第一層包括4個(gè)卷積塊convolution?block與最大池化層max?pooling?layer;第二層包括全連接層、隨機(jī)失活層、批正則化層與線性整流單元(rectified?linear?units,relu)激活函數(shù);第三層為門(mén)控循環(huán)單元層;第四層包括全連接層與歸一化指數(shù)函數(shù)層;
59、第一層中,一個(gè)卷積塊包含兩個(gè)子塊和一個(gè)擠壓激發(fā)塊(squeeze-and-excitation?block,se-block);四個(gè)卷積塊的輸入通道數(shù)分別為1,64,128,256,輸出通道數(shù)分別為64,128,256,512;
60、卷積塊中的子塊包括一維卷積層、批正則化層與線性整流單元激活函數(shù);在子塊中,每個(gè)一維卷積層的卷積核大小均為3,步長(zhǎng)均為1,填充均為1;每個(gè)子塊的公式表達(dá)為:其中表示卷積運(yùn)算符,wconv表示卷積核的權(quán)重,bconv為偏置向量,xi-1與xi分別表示輸入向量與輸出向量,bn表示批正則化;第一個(gè)子塊的一維卷積層的輸入通道數(shù)和輸出通道數(shù)等該卷積塊設(shè)定的輸入通道數(shù)和輸出通道數(shù),第二個(gè)子塊的卷積層的輸入通道數(shù)和輸出通道數(shù)均等于卷積塊設(shè)定的輸出通道數(shù);
61、卷積塊中的擠壓激發(fā)塊包括全局最大池化層、第一全連接層、線性整流單元激活函數(shù)、第二全連接層與s型激活函數(shù)(sigmoid激活函數(shù));全局最大池化表示為:
62、
63、其中ymp表示全局最大池化值,xmpk表示輸入信號(hào)xmp中第k個(gè)值,l為輸入信號(hào)xmp的長(zhǎng)度;數(shù)據(jù)經(jīng)過(guò)第一全連接層后,通道數(shù)變?yōu)樵瓉?lái)的接著經(jīng)過(guò)線性整流單元激活函數(shù),表示為:
64、xs=relu(w1xs-1+b1),
65、其中w1表示全連接層的權(quán)重,b1為偏置向量,xs-1與xs分別表示輸入向量與輸出向量;數(shù)據(jù)經(jīng)過(guò)第二全連接層后,恢復(fù)原來(lái)的通道數(shù),再經(jīng)過(guò)s型激活函數(shù),表示為:xe=sigmoid(w2xe-1+b2),其中w2表示全連接層的權(quán)重,b2為偏置向量,xe-1與xe分別表示輸入向量與輸出向量;最后將結(jié)果作為權(quán)重與進(jìn)入擠壓激發(fā)塊前的原數(shù)據(jù)相乘,得到最終結(jié)果;
66、第一層中,一維最大池化表達(dá)為:其中yi表示池化范圍ri內(nèi)的最大池化輸出值,xp表示ri內(nèi)處于位置p的元素;
67、在第一層與第二層之間,降低數(shù)據(jù)的維度,形狀由(批大小,特征圖數(shù),數(shù)據(jù)大小)變?yōu)?批大小,特征圖數(shù)*數(shù)據(jù)大小);
68、第二層中,全連接層的輸入通道數(shù)為特征圖數(shù)*數(shù)據(jù)大小;
69、第三層中,門(mén)控循環(huán)單元輸入大小等于第二層的輸出通道數(shù);
70、第四層中,全連接層的輸入通道數(shù)等于門(mén)控循環(huán)單元的隱藏層數(shù)、輸出通道數(shù)為分類(lèi)數(shù);歸一化指數(shù)函數(shù)層的公式為:
71、
72、其中p(yc)為神經(jīng)元經(jīng)過(guò)歸一化指數(shù)函數(shù)的概率輸出,yc為上一全連接層第c個(gè)神經(jīng)元的輸出值,m為所目標(biāo)分類(lèi)的數(shù)量。
73、本發(fā)明還提供了一種電子設(shè)備,包括處理器和存儲(chǔ)器,所述存儲(chǔ)器存儲(chǔ)有程序代碼,當(dāng)所述程序代碼被所述處理器執(zhí)行時(shí),使得所述處理器執(zhí)行所述的方法的步驟。
74、本發(fā)明方法通過(guò)引入門(mén)控循環(huán)擴(kuò)散模型來(lái)增強(qiáng)數(shù)據(jù)集,特別是對(duì)異常心電信號(hào)的數(shù)據(jù)增強(qiáng),有效解決了數(shù)據(jù)不平衡和異常數(shù)據(jù)難獲取的問(wèn)題。同時(shí),嵌入擠壓激發(fā)塊的cnn-gru模型能夠更好地捕捉心電信號(hào)中的局部和全局特征,提高對(duì)時(shí)間序列特征的學(xué)習(xí)能力,增強(qiáng)對(duì)異常心電信號(hào)的識(shí)別精度,從而全面提升心電信號(hào)分類(lèi)的性能和魯棒性。
75、有益效果:(1)本發(fā)明方法引入門(mén)控循環(huán)擴(kuò)散模型補(bǔ)充數(shù)據(jù),相較于傳統(tǒng)的生成式模型,更能捕捉心電信號(hào)的時(shí)序信息,從而模擬出心率的特征。另外,門(mén)控循環(huán)擴(kuò)散模型相較于常見(jiàn)的u-net擴(kuò)散模型參數(shù)量少,訓(xùn)練更迅速,且由于gru的引入,能有效防止梯度爆炸問(wèn)題。
76、(2)本發(fā)明提出一種嵌入擠壓激發(fā)塊的cnn與gru的分類(lèi)模型,嵌入擠壓激發(fā)塊的cnn與gru的分類(lèi)模型能夠在心電信號(hào)分類(lèi)中更好地捕捉到特征,并提高對(duì)異常波形的識(shí)別能力,從而有效改善分類(lèi)模型的性能。擠壓激發(fā)塊允許網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)對(duì)不同類(lèi)型的心電信號(hào)進(jìn)行不同程度的注意力分配,使得網(wǎng)絡(luò)能夠更加關(guān)注對(duì)分類(lèi)起決定性作用的特征。例如,對(duì)于早期室性心搏(pvc)這種異常波形,通常具有突然出現(xiàn)的寬qrs波和沒(méi)有p波的特征,而早期房性心搏(apb)則具有異常形態(tài)的p波。通過(guò)引入擠壓激發(fā)塊,cnn與gru網(wǎng)絡(luò)能夠更好地捕捉到這些局部特征,并在分類(lèi)過(guò)程中更加關(guān)注這些關(guān)鍵特征,提高了對(duì)異常波形的識(shí)別準(zhǔn)確率。cnn的卷積層能夠捕捉到心電信號(hào)中的局部特征,而gru能夠更好地捕捉到時(shí)間序列的動(dòng)態(tài)特征。結(jié)合兩者,cnn與gru網(wǎng)絡(luò)能夠更全面地考慮整個(gè)心電信號(hào)的空間和時(shí)間特征,從而進(jìn)一步提升分類(lèi)模型的性能。比如,對(duì)于vfw(窄qrs波,寬t波)這種異常波形,通常具有qrs波較窄和t波較寬的特征,使用cnn與gru的結(jié)合模型能夠更好地捕捉到這種復(fù)雜的特征,提高了對(duì)其的分類(lèi)準(zhǔn)確性。