本發(fā)明屬于數(shù)據(jù)處理,具體涉及一種基于人工智能的蒸汽發(fā)生器狀態(tài)實時監(jiān)測方法。
背景技術(shù):
1、隨著工業(yè)自動化和智能化水平的提升,對于能源設(shè)備如蒸汽發(fā)生器的效率與安全運行監(jiān)控的需求日益增加。蒸汽發(fā)生器作為能源轉(zhuǎn)換的關(guān)鍵設(shè)備,在很多工業(yè)過程中扮演著核心角色,其狀態(tài)的實時監(jiān)控對保證生產(chǎn)安全、提高能效及減少環(huán)境影響至關(guān)重要。然而,傳統(tǒng)的監(jiān)控方法依賴于有限的傳感器數(shù)據(jù)和人工監(jiān)測,往往難以實時準確地捕捉設(shè)備的復(fù)雜動態(tài)變化,特別是在面對大規(guī)模數(shù)據(jù)處理和實時響應(yīng)要求時,存在明顯的局限性。此外,常規(guī)的數(shù)據(jù)處理方法在樣本不足、數(shù)據(jù)多樣性缺乏及處理復(fù)雜非線性數(shù)據(jù)結(jié)構(gòu)的能力上有所不足,這限制了監(jiān)控系統(tǒng)在異常預(yù)測和故障診斷中的效果。
2、針對上述不足,申請?zhí)枮閏n202311255147.0的中國發(fā)明專利提出一種無人機檢測方法、機器學習模型訓練方法及相關(guān)設(shè)備,方法包括:獲取初始圖像,使用目標檢測模型對所述初始圖像中的至少一個第一區(qū)域進行檢測,獲得所述第一區(qū)域中的目標對象的檢測結(jié)果,將檢測結(jié)果滿足預(yù)設(shè)要求的目標對象所在的所述第一區(qū)域確定為第二區(qū)域,使用分類模型對所述第二區(qū)域進行二元分類,獲得所述第二區(qū)域中目標對象的第二分類標簽,篩選出包含的目標對象的所述第二分類標簽為所述無人機類別的所述第二區(qū)域,并將篩選出的所述第二區(qū)域中的目標對象確定為無人機。本技術(shù)先基于目標檢測模型對初始圖像進行篩選,再通過分類模型進行精準分類,并進行二次篩選。兩次篩選的組合可以有效降低無人機檢測的誤報率。申請?zhí)枮閏n202110250990.4的中國發(fā)明專利提出一種機器學習模型的處理方法、裝置、存儲介質(zhì)及電子設(shè)備,其中方法包括:獲取配置文件和處理數(shù)據(jù),所述配置文件中包括至少一個機器學習模型的至少一個處理過程;根據(jù)所述配置文件中各所述處理過程,調(diào)用各所述處理過程對應(yīng)的執(zhí)行器,得到各處理過程的處理結(jié)果,其中,所述執(zhí)行器基于所述配置文件中各處理過程對應(yīng)的機器學習模型和處理數(shù)據(jù)執(zhí)行對應(yīng)的處理過程,本實施例中,通過設(shè)置機器學習模型的各個處理過程的執(zhí)行器,實現(xiàn)各處理過程的執(zhí)行,得到各處理過程的執(zhí)行結(jié)果,無需編寫程序代碼,降低了機器學習模型的實現(xiàn)難度,提高了機器學習模型的學習研發(fā)效率。申請?zhí)枮閏n202011607378.x的中國發(fā)明專利提出一種機器學習模型的訓練方法、服務(wù)器及計算機設(shè)備,其中方法包括:生成同態(tài)密鑰對,其中,同態(tài)密鑰對之中包括公鑰和私鑰;將公鑰發(fā)送至多個數(shù)據(jù)所有者服務(wù)器,以使多個數(shù)據(jù)所有者服務(wù)器對自身數(shù)據(jù)通過公鑰進行加密,并將加密之后生成的密文數(shù)據(jù)發(fā)送至機器學習服務(wù)器,其中,機器學習服務(wù)器根據(jù)多個數(shù)據(jù)所有者服務(wù)器提供的密文數(shù)據(jù)進行模型訓練和測試以生成密文機器學習模型;以及接收機器學習服務(wù)器發(fā)送的密文機器學習模型,并根據(jù)私鑰進行解密以形成明文機器學習模型,從而能夠保護數(shù)據(jù)所有者服務(wù)器提供的數(shù)據(jù),且能夠保護明文機器學習模型,安全性高。
3、上述技術(shù)方案具有一定的創(chuàng)新性,但仍存在以下問題需進一步解決:
4、1、在傳統(tǒng)方法中,數(shù)據(jù)樣本通常受限于實際采集情況,常常導(dǎo)致樣本數(shù)量不足,缺乏足夠的多樣性和代表性,限制了模型的泛化能力。
5、2、傳統(tǒng)的特征提取方法可能因結(jié)構(gòu)或算法限制出現(xiàn)梯度消失、梯度爆炸,或者因算法優(yōu)化策略不足而陷入局部最優(yōu)解,影響模型的訓練效率和性能。
6、3、傳統(tǒng)的特征降維技術(shù)在處理復(fù)雜和非線性數(shù)據(jù)時可能無法有效保持數(shù)據(jù)的主要特征和局部結(jié)構(gòu),導(dǎo)致降維后的數(shù)據(jù)失去重要信息,影響后續(xù)處理的效果。
7、4、傳統(tǒng)的分類方法在處理具有噪聲或不清晰分類邊界的數(shù)據(jù)時,通常缺乏足夠的魯棒性,導(dǎo)致分類結(jié)果不穩(wěn)定或準確度不高,特別是在復(fù)雜的監(jiān)測場景中。
技術(shù)實現(xiàn)思路
1、本發(fā)明的目的是提出一種基于人工智能的蒸汽發(fā)生器狀態(tài)實時監(jiān)測方法,能夠解決傳統(tǒng)方法中樣本數(shù)量不足和數(shù)據(jù)多樣性缺乏的問題,可有效避免梯度消失、爆炸或陷入局部最優(yōu)的常見問題,進而增強了模型在處理具有噪聲或模糊分類邊界數(shù)據(jù)時的魯棒性。
2、本發(fā)明采取的技術(shù)方案是:
3、基于人工智能的蒸汽發(fā)生器狀態(tài)實時監(jiān)測方法,包括如下步驟:
4、s1、數(shù)據(jù)采集與標注:采集的數(shù)據(jù)來源于燃燒生物質(zhì)蒸汽發(fā)生器的工藝流程數(shù)據(jù),以及引風機、鼓風機、送料、循環(huán)泵的控制狀態(tài)數(shù)據(jù)和系統(tǒng)操作狀態(tài),數(shù)據(jù)通過傳感器和監(jiān)控系統(tǒng)實時收集,以結(jié)構(gòu)化的json格式存儲;對采集到的數(shù)據(jù)進行人工標注;
5、s2、數(shù)據(jù)擴充:采用基于隨機投影嵌入的量子生成對抗網(wǎng)絡(luò)進行樣本生成,進而實現(xiàn)數(shù)據(jù)擴充;
6、s3、特征提取模型訓練:將擴充后的數(shù)據(jù)輸入到特征提取模型中進行特征提取模型的訓練,采用5層的全連接神經(jīng)網(wǎng)絡(luò)進行特征提取;
7、s4:特征降維模型訓練:將特征提取后的數(shù)據(jù)輸入到特征降維模型中進行特征降維模型訓練;
8、s5、分類器模型訓練:將降維后的數(shù)據(jù)輸入到分類器中進行分類器模型的訓練;
9、s6、蒸汽發(fā)生器狀態(tài)識別監(jiān)測:通過訓練完成的模型對新的蒸汽發(fā)生器狀態(tài)數(shù)據(jù)進行處理,實現(xiàn)實時監(jiān)測和狀態(tài)分類,具體是將采集的原始數(shù)據(jù)輸入到訓練完成的特征提取和特征降維模型中進行特征處理,再將處理得到的特征輸入到分類器模型中進行分類器的訓練,進而得到分類結(jié)果。
10、進一步的,在步驟s2的數(shù)據(jù)擴充中,訓練數(shù)據(jù)的采集獲取、標注及預(yù)處理是耗時耗力的,且訓練樣本不足容易導(dǎo)致模型泛化能力差,同時影響模型的精度。采用基于隨機投影嵌入的量子生成對抗網(wǎng)絡(luò)進行樣本生成,進而實現(xiàn)數(shù)據(jù)擴充;所述基于隨機投影嵌入的量子生成對抗網(wǎng)絡(luò)通過隨機投影將高維數(shù)據(jù)映射到低維量子態(tài),然后利用量子機制加速生成對抗網(wǎng)絡(luò)的訓練過程,通過隨機矩陣理論來設(shè)計量子態(tài)的初始化過程,提高數(shù)據(jù)映射的隨機性和覆蓋范圍,確保生成數(shù)據(jù)的多樣性和實用性。
11、基于隨機投影嵌入的量子生成對抗網(wǎng)絡(luò)算法的訓練流程如下:
12、s201、量子生成對抗網(wǎng)絡(luò)首先將高維數(shù)據(jù)映射到低維量子態(tài)空間,具體采用隨機投影嵌入方法初始化量子生成對抗網(wǎng)絡(luò)的量子態(tài),初始量子態(tài)的定義方式為:
13、;
14、式中,表示初始化的量子態(tài);表示第個數(shù)據(jù)點的復(fù)數(shù)概率幅度;表示第個數(shù)據(jù)點映射后的量子基態(tài);n表示數(shù)據(jù)樣本的總數(shù);
15、s202、在量子生成器的訓練過程中,通過量子門操作生成具有特定分布的量子態(tài),并調(diào)整量子生成器的參數(shù),進而最小化生成數(shù)據(jù)與實際數(shù)據(jù)之間的差異,量子生成器的參數(shù)更新方式表示為:
16、;
17、式中,表示量子生成器的參數(shù);表示第次迭代的量子生成器的參數(shù);表示第次迭代的量子生成器的參數(shù);表示量子生成器的學習率;表示量子信息增益損失函數(shù);表示量子信息增益損失函數(shù)關(guān)于參數(shù)的梯度;為第次迭代的動態(tài)調(diào)整系數(shù);
18、其中,動態(tài)調(diào)整系數(shù)根據(jù)數(shù)據(jù)的變異系數(shù)動態(tài)調(diào)整,調(diào)整方式表示為:
19、;
20、式中,是第一調(diào)整超參數(shù);是第二調(diào)整超參數(shù);為變異系數(shù);
21、變異系數(shù)的計算方式表示為:
22、;
23、其中,和分別為當前輸入批次數(shù)據(jù)的標準差和平均值;
24、s203、量子生成器輸出的量子態(tài)經(jīng)過逆量子傅里葉變換后,轉(zhuǎn)換為用于機器學習的合成數(shù)據(jù),表示為:
25、;
26、式中,表示生成的合成數(shù)據(jù);表示逆量子傅里葉變換函數(shù);
27、s204、在量子判別器的訓練過程中,量子判別器通過對比真實數(shù)據(jù)和合成數(shù)據(jù)的量子態(tài)構(gòu)建量子判別器的損失函數(shù),并通過最小化量子判別器的損失函數(shù)實現(xiàn)參數(shù)的尋優(yōu),量子判別器的參數(shù)的更新過程表示為:
28、;
29、式中,表示量子判別器的參數(shù);表示第次迭代的量子判別器的參數(shù);表示第次迭代的量子判別器的參數(shù);表示量子判別器的學習率;表示量子判別器的損失函數(shù);表示量子判別器的損失函數(shù)關(guān)于參數(shù)的梯度;
30、其中,量子判別器的損失函數(shù)的計算方式表示為:
31、;
32、式中,是第個樣本的標簽;是第個樣本的量子態(tài);
33、s205、重復(fù)迭代步驟s201-s204,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓練完成;數(shù)據(jù)擴充模型訓練完成后,利用訓練好的數(shù)據(jù)擴充模型增加樣本數(shù)量。
34、進一步的,在步驟s3的特征提取模型訓練中,將擴充后的數(shù)據(jù)輸入到特征提取模型中進行特征提取模型的訓練,采用5層的全連接神經(jīng)網(wǎng)絡(luò)進行特征提?。滑F(xiàn)有技術(shù)中,一些方案使用神經(jīng)網(wǎng)絡(luò)進行特征提取,在某些神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,可能會遇到梯度消失、梯度爆炸或陷入局部最優(yōu)解的問題,影響訓練的穩(wěn)定性和模型的性能。本發(fā)明采用基于特征提取果蠅優(yōu)化的神經(jīng)網(wǎng)絡(luò)作為特征提取模型,輸入層接收采集的多維傳感器數(shù)據(jù),隱藏層通過多層神經(jīng)網(wǎng)絡(luò)進行深度特征提取,本發(fā)明采用信息瓶頸策略約束特征提取過程,確保傳遞到輸出層的信息是最關(guān)鍵的,從而減少冗余信息的傳播,有效加速學習過程。
35、具體的,采用基于特征提取果蠅優(yōu)化的神經(jīng)網(wǎng)絡(luò)算法,其訓練流程如下:
36、s301、初始化神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置,權(quán)重和偏置的初始化方式表示為:
37、;
38、式中,為神經(jīng)網(wǎng)絡(luò)第層的權(quán)重;為神經(jīng)網(wǎng)絡(luò)第層的偏置;表示服從于特定分布;為第l-1層的神經(jīng)元數(shù)量;表示均值為0、標準差為的正態(tài)分布,對于第一層神經(jīng)元,其初始化的正態(tài)分布標準差設(shè)置為0.01;
39、s302、數(shù)據(jù)通過網(wǎng)絡(luò)層逐層傳遞,在隱藏層到輸出層的傳遞過程中,采用信息瓶頸層通過限制信息量來強制網(wǎng)絡(luò)學習更有用的特征,具體的,前向傳播的過程表示為:
40、;
41、式中,為神經(jīng)網(wǎng)絡(luò)第層的線性變換輸出;為神經(jīng)網(wǎng)絡(luò)第層的輸出;為神經(jīng)網(wǎng)絡(luò)第層的激活噪聲;為relu激活函數(shù);為信息瓶頸的縮放因子;表示范數(shù);
42、激活噪聲的強度根據(jù)損失函數(shù)的值動態(tài)調(diào)整,調(diào)整方式表示為:
43、;
44、式中,是基線噪聲系數(shù);為神經(jīng)網(wǎng)絡(luò)的損失函數(shù);是噪聲敏感度超參數(shù);是從標準正態(tài)分布生成的隨機噪聲向量;
45、信息瓶頸的縮放因子基于輸入數(shù)據(jù)的熵變化來動態(tài)調(diào)整,以增加模型對數(shù)據(jù)變化的敏感性,計算方式表示為:
46、;
47、式中,為目標數(shù)據(jù)的熵;為第層輸出數(shù)據(jù)的熵;為輸入到信息瓶頸層的目標數(shù)據(jù),目標數(shù)據(jù)表征輸入數(shù)據(jù)對應(yīng)的預(yù)測為正確樣本標簽的概率數(shù)據(jù),由預(yù)設(shè)的softmax函數(shù)計算得到;
48、目標數(shù)據(jù)的熵的計算方式表示為:
49、;
50、式中,為熵值計算函數(shù);文中所有的log都沒有底數(shù),是因為:在計算機編程語言中,log函數(shù)默認計算自然對數(shù),所以沒有寫底數(shù),而且在本領(lǐng)域?qū)C器學模型進行原理解釋時,通常默認不帶底數(shù),因為不論底數(shù)是多少,只要固定任意一個底數(shù),都不影響模型訓練的過程和結(jié)果。
51、s303、利用損失函數(shù)評估輸出層的特征表達與目標特征之間的差異,損失函數(shù)的計算方式表示為:
52、;
53、式中,為神經(jīng)網(wǎng)絡(luò)的損失函數(shù),為真實輸出;為模型的輸出經(jīng)過預(yù)設(shè)的softmax函數(shù)計算得到的預(yù)測輸出;為平衡參數(shù);
54、s304、在誤差反向傳播階段,采用果蠅優(yōu)化算法評估每一組參數(shù)對應(yīng)的損失,指導(dǎo)參數(shù)向損失最小的方向更新,參數(shù)的更新方式表示為:
55、;
56、式中,為第層第次迭代的神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù),為第層第次迭代的神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù),為第層第次迭代的神經(jīng)網(wǎng)絡(luò)的偏置參數(shù),為第層第次迭代的神經(jīng)網(wǎng)絡(luò)的偏置參數(shù);為基于果蠅算法得出的權(quán)重參數(shù)調(diào)整量;為基于果蠅算法得出的偏置參數(shù)調(diào)整量;為神經(jīng)網(wǎng)絡(luò)的學習率;
57、s305、重復(fù)迭代步驟s301-s304,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓練完成。
58、進一步的,在步驟s4的特征降維模型訓練中,將特征提取后的數(shù)據(jù)輸入到特征降維模型中進行特征降維模型訓練,本發(fā)明采用基于局部保持投影的自編碼神經(jīng)網(wǎng)絡(luò)實現(xiàn)特征降維,所述基于局部保持投影的自編碼神經(jīng)網(wǎng)絡(luò)包括編碼器部分和解碼器部分,編碼器用于將高維特征空間映射到低維特征空間,解碼器則試圖從這低維空間恢復(fù)原始數(shù)據(jù),從而在降維的同時保持數(shù)據(jù)的主要特征。本發(fā)明采用基于特征的非線性哈希編碼策略在編碼過程中保留了數(shù)據(jù)的局部結(jié)構(gòu),并通過非線性函數(shù)將特征映射到哈希空間,增強了模型在處理非線性數(shù)據(jù)結(jié)構(gòu)時的能力。
59、具體的,采用基于局部保持投影的自編碼神經(jīng)網(wǎng)絡(luò)算法實現(xiàn)特征降維,訓練流程如下:
60、s401、對自編碼神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置進行隨機初始化,初始化的方式表示為:
61、;
62、式中,為自編碼神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù),為自編碼神經(jīng)網(wǎng)絡(luò)的偏置參數(shù),是自編碼神經(jīng)網(wǎng)絡(luò)的初始化標準差;是自編碼神經(jīng)網(wǎng)絡(luò)的輸入層維度,也即特征提取后的特征維度;是自編碼神經(jīng)網(wǎng)絡(luò)的隱藏層維度;為生成區(qū)間的標準正態(tài)分布;生成維的零向量;
63、s402、輸入的特征降維后的數(shù)據(jù)通過編碼器部分進行處理,形成編碼后的低維表示,前向傳播的過程表示為:
64、;
65、式中,表示編碼后的特征表示;表示注意力權(quán)重;為點積符號;為sigmoid激活函數(shù);是權(quán)重矩陣的轉(zhuǎn)置;是輸入到自編碼神經(jīng)網(wǎng)絡(luò)的特征降維后的數(shù)據(jù);
66、注意力權(quán)重通過對輸入特征進行加權(quán),突出對當前監(jiān)測任務(wù)更為重要的特征,計算方式表示為:
67、;
68、式中,為可學習的權(quán)重矩陣;為softmax函數(shù);
69、s403、在自編碼神經(jīng)網(wǎng)絡(luò)的隱藏層,采用局部保持投影策略,根據(jù)數(shù)據(jù)的鄰接關(guān)系優(yōu)化隱藏層神經(jīng)元的輸出,以保持數(shù)據(jù)點間的局部關(guān)系,表示為:
70、;
71、式中,是局部保持損失項,用于約束隱藏層神經(jīng)元的訓練過程;是第個樣本和第個樣本之間的相似性權(quán)重;表示范數(shù);是核函數(shù)的帶寬參數(shù);
72、s404、將局部保持的低維特征通過非線性函數(shù)映射到哈??臻g,通過提升數(shù)據(jù)的可分性優(yōu)化降維效果,增強模型的特征表達能力,表示為:
73、;
74、式中,為哈希編碼后的特征;是從特征空間到哈??臻g的映射矩陣;是映射過程中的偏置項;是符號函數(shù),用于生成二值哈希碼;
75、的計算方式表示為:
76、;
77、式中,表示的轉(zhuǎn)置,是正則化系數(shù),用以確保數(shù)值穩(wěn)定性;表示單位矩陣;
78、s405、通過計算輸出層與原始輸入之間的重構(gòu)誤差,采用梯度下降方法更新自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù)和,優(yōu)化整個網(wǎng)絡(luò)的性能,更新模型參數(shù)的方式表示為:
79、;
80、式中,是總損失函數(shù);為的轉(zhuǎn)置;是重構(gòu)的輸入數(shù)據(jù);是正則化參數(shù);是自編碼神經(jīng)網(wǎng)絡(luò)的學習率;是sigmoid激活函數(shù);表示參數(shù)更新操作;
81、將總損失函數(shù)代入權(quán)重和偏置的更新公式中,得到權(quán)重和偏置的更新方式,表示為:
82、;
83、式中,梯度項和分別表示重構(gòu)誤差關(guān)于權(quán)重和偏置的偏導(dǎo)數(shù),和表示局部保持損失關(guān)于權(quán)重和偏置的偏導(dǎo)數(shù);
84、權(quán)重矩陣采用梯度下降的方式進行更新,更新方式表示為:
85、;
86、式中,表示總損失對注意力權(quán)重的偏導(dǎo)數(shù);表示注意力權(quán)重對權(quán)重矩陣的偏導(dǎo)數(shù);
87、s406、重復(fù)迭代步驟s401-s405,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓練完成。
88、進一步的,在步驟s5的分類器模型訓練中,將降維后的數(shù)據(jù)輸入到分類器中進行分類器模型的訓練,本發(fā)明采用基于稀疏子空間學習的隨機森林算法作為分類器,所述隨機森林算法利用多個決策樹構(gòu)建一個集成學習框架,通過在隨機選擇的子空間中構(gòu)建每棵樹來增強模型的泛化能力和準確性。本發(fā)明在隨機森林算法的基礎(chǔ)上采用模糊變量約束,使模型在處理具有噪聲或模糊分類邊界的數(shù)據(jù)時更加魯棒,通過在決策樹的節(jié)點分裂過程中采用模糊邏輯,優(yōu)化了特征選擇和分類決策的過程,從而更好地適應(yīng)蒸汽發(fā)生器狀態(tài)監(jiān)測中的復(fù)雜情況。
89、具體的,采用基于稀疏子空間學習的隨機森林算法進行訓練,流程如下:
90、s501、初始化決策樹的數(shù)量和每棵樹的特征數(shù)量,每棵樹的特征數(shù)量初始化為:
91、;
92、式中,為輸入的特征降維后的數(shù)據(jù)特征的總數(shù)量;
93、s502、從原始特征集中隨機抽取個特征,并從訓練樣本中隨機選擇樣本,形成每棵樹的訓練數(shù)據(jù);對于每棵樹,遞歸構(gòu)建決策節(jié)點,在每個節(jié)點,采用模糊邏輯來評估和選擇每個特征對樣本分類的貢獻,允許部分重疊和不確定性的存在,以增加模型處理復(fù)雜、模糊數(shù)據(jù)的能力,則基于模糊邏輯在節(jié)點分裂時的信息增益的計算方式表示為:
94、;
95、式中,為基于模糊邏輯的信息增益,用于選擇分裂特征se和分裂閾值te;為分裂特征se和分裂閾值te條件下取最大值操作;為閾值te下的模糊熵;為第個樣本權(quán)重;nf為當前批次的輸入樣本總數(shù);為屬于閾值te下類別的隸屬度函數(shù);為樣本的總隸屬度;
96、其中,模糊熵表征模糊隸屬度,計算方式表示為:
97、;
98、式中,為閾值te下樣本屬于第個類別的模糊概率,為所有類別的集合;
99、s503、在決策樹的每個分裂過程中,計算模糊隸屬度,根據(jù)糊隸屬度選擇分裂特征和點,以優(yōu)化樹的結(jié)構(gòu),計算方式表示為:
100、;
101、式中,是控制隸屬度的陡峭程度參數(shù);為樣本在閾值te下的核函數(shù);為控制隸屬度的平滑性參數(shù);
102、核函數(shù)的計算方式表示為:
103、;
104、式中,為自適應(yīng)核函數(shù)的帶寬參數(shù);
105、自適應(yīng)核函數(shù)的帶寬參數(shù)的計算方式表示為:
106、;
107、式中,為調(diào)節(jié)因子;為中位數(shù)計算函數(shù),表示樣本與其鄰域樣本之間歐式距離的中位數(shù),且,;
108、s504、在決策樹的成長過程中,對每個節(jié)點進行分裂,直到滿足停止條件;
109、s505、所有的決策樹停止分類后,即表示模型訓練完成,訓練完成的模型的輸出通過投票的方式進行最終的分類結(jié)果的輸出。
110、進一步地,在步驟s202中,量子信息增益損失函數(shù)采用基于量子態(tài)的wasserstein損失進行計算,計算方式表示為:
111、;
112、式中,表示期望,和分別代表真實和生成的量子態(tài);是真實和生成量子態(tài)之間的插值;表示量子判別器的判別函數(shù);是平衡系數(shù);為范數(shù)。
113、進一步地,在步驟s203中,生成的合成數(shù)據(jù)通過混合核密度估計進行調(diào)整,利用核函數(shù)更精確地模擬目標數(shù)據(jù)分布,表示為:
114、;
115、式中,表示混合核密度函數(shù);表示第個核的混合權(quán)重;表示第個核函數(shù)的帶寬;表示核中心;表示數(shù)據(jù)的第個特征;表示生成的合成數(shù)據(jù)的特征維度;
116、其中,混合核密度函數(shù)的計算方式表示為:
117、;
118、式中,和是數(shù)據(jù)的第個特征的均值和標準差;是拉普拉斯核的位置參數(shù);是防止分母為零的小正數(shù)。
119、進一步地,在步驟s304中,基于果蠅算法得出的權(quán)重參數(shù)調(diào)整量和偏置參數(shù)調(diào)整量的計算方式分別表示為:
120、;
121、式中,為果蠅算法的搜索半徑;生成(0,1)區(qū)間的標準正態(tài)分布的隨機數(shù);為符號函數(shù);表示損失函數(shù)關(guān)于權(quán)重的梯度;表示損失函數(shù)關(guān)于偏置的梯度。
122、進一步地,在步驟s502中,模糊概率的計算方式表示為:
123、;
124、式中,是樣本在閾值te下屬于第個類別的模糊隸屬度;是樣本在閾值te下的模糊隸屬度。
125、本發(fā)明的有益效果:
126、1、本發(fā)明通過基于隨機投影嵌入的量子生成對抗網(wǎng)絡(luò)實現(xiàn)數(shù)據(jù)樣本的生成和擴充,解決了傳統(tǒng)方法中樣本數(shù)量不足和數(shù)據(jù)多樣性缺乏的問題。
127、2、本發(fā)明利用全連接神經(jīng)網(wǎng)絡(luò)結(jié)合信息瓶頸策略和果蠅優(yōu)化算法進行特征提取,有效避免了梯度消失、爆炸或陷入局部最優(yōu)的常見問題。
128、3、本發(fā)明利用基于局部保持投影的自編碼神經(jīng)網(wǎng)絡(luò)進行特征降維,通過保持數(shù)據(jù)點間局部關(guān)系的策略,提升了模型處理非線性數(shù)據(jù)的能力。
129、4、本發(fā)明利用基于稀疏子空間學習的隨機森林算法結(jié)合模糊邏輯,增強了模型在處理具有噪聲或模糊分類邊界數(shù)據(jù)時的魯棒性。