[0043]表1卷煙感官質(zhì)量評判標(biāo)準(zhǔn)
[0044]
[0045]
[0046] 步驟3-2:對卷煙感官質(zhì)量評估訓(xùn)練數(shù)據(jù)樣本集進(jìn)行預(yù)處理:根據(jù)感官質(zhì)量評判標(biāo) 準(zhǔn)和數(shù)據(jù)的具體特征,分別對5種感官評吸指標(biāo)的專家評分結(jié)果進(jìn)行離散化;同時(shí)對卷煙化 學(xué)成分指標(biāo)進(jìn)行歸一化處理;
[0047] 步驟3-2-1:分別對5種感官評吸指標(biāo)的專家評分結(jié)果進(jìn)行離散化;
[0048] 離散化方法如表2所示,其中離散區(qū)間長度等于0.5。以光澤為例,打分評判標(biāo)準(zhǔn)為 3-5,而實(shí)際數(shù)據(jù)中不存在小于3.75的數(shù)據(jù),因此將[3.75,4.25]歸為第1類,(4.25,4.75]歸 為第2類,(4.75,5.25]歸為第3類。
[0049] 表2專家評分結(jié)果離散方法
[0050]
[0051 ]步驟3-2-2:卷煙化學(xué)成分指標(biāo)的歸一化;
[0052]定義集合X= {xi,X2, . . .,X684}為條件屬性的取值,max(X)為該集合中的最大取值, min(X)為該集合中的最小取值,則對Xn,ne{l,2,. . .,684}有歸一化后的結(jié)果
[0053;
[0054] 步驟3-3:根據(jù)成品煙感官評估的歷史數(shù)據(jù),根據(jù)感官指標(biāo)的數(shù)據(jù)特點(diǎn)(類別數(shù))獲 得多個(gè)成對的兩分類問題,如圖1所示;
[0055] 步驟3-4:利用數(shù)據(jù)挖掘技術(shù)對各個(gè)子問題建立分類器,本發(fā)明采用三種不同的分 類算法,包括決策樹(Classification and Regression Tree,CART),支持向量機(jī)(Support Vector Machine,SVM)和反饋神經(jīng)網(wǎng)絡(luò)(Back-propagation neural network,BPNN);
[0056] 步驟 3-4-1:決策樹(CART)
[0057 ] 步驟3-4?:生成樹
[0058] 在CART中,利用Gini指標(biāo)來計(jì)算節(jié)點(diǎn)D的純凈度。Gini指標(biāo)的計(jì)算方式如下:
[0059]
[0060]其中,Pl是節(jié)點(diǎn)D中屬于類別匕的概率,m是類別數(shù),另外,Ρι=|(^|/|?且卜|是子 集中的樣本數(shù)。
[0061] 在CART中,指標(biāo)Gini被用來分割各個(gè)屬性。如果屬性Α具有η個(gè)離散值{ai,a2,··· an},那么該屬性則有2n個(gè)可能的子集。但是,整個(gè)集合和空集不能作為一個(gè)分割點(diǎn),所以只 有2 n-2個(gè)可能的子集。另一方面,如果屬性A是連續(xù)的,潛在的分割點(diǎn)就在每兩個(gè)連續(xù)點(diǎn)的 中間。如果在屬性A上的分割點(diǎn)將D分割成DjPD 2,那么節(jié)點(diǎn)D的Gini值為如下:
[0062]
[0063] 這樣,在屬性A上分割點(diǎn)的純凈度下降量為:
[0064] Δ Gini(A) =Gini(D)_GiniA(D)
[0065] 最大化上述公式的屬性和分割點(diǎn)將被選為相應(yīng)的分割屬性和分割點(diǎn)。這個(gè)過程反 復(fù)執(zhí)行直到達(dá)到停止準(zhǔn)則。
[0066] 步驟 3-4-1-2:剪枝
[0067] 由于存在噪聲的影響,為了防止過擬合現(xiàn)象的出現(xiàn),剪枝是必不可少的步驟。在 CART中,錯(cuò)誤率被用來確定是否剪枝的標(biāo)準(zhǔn)。
[0068] 步驟3-4-1-3:對于給定待評估數(shù)據(jù),依據(jù)決策樹自頂向下地輸出即可得到葉結(jié)點(diǎn) 的分類。
[0069] 步驟3-4-2:支持向量機(jī)(SVM)
[0070]步驟3-4-2-1:給定訓(xùn)練數(shù)據(jù)樣本集(xi,yi),(X2,y2) · · ·,(xi,yi),給定SVM方法核 函數(shù)、懲罰參數(shù)c、核參數(shù)g;
[0071] SVM的核函數(shù)選取徑向基(RBF)函數(shù),懲罰參數(shù)c (調(diào)節(jié)特征子空間中SVM模型的置 信范圍與經(jīng)驗(yàn)風(fēng)險(xiǎn)的比例使支持向量機(jī)的泛化能力達(dá)到最好)選取c = 2,核參數(shù)g (影響樣 本數(shù)據(jù)在高維特征空間中分布的復(fù)雜程度)選取g = l;
[0072] 步驟3-4-2-2:通過引入Lagrange函數(shù),將SVM算法歸結(jié)為一個(gè)有約束的二次型規(guī) 劃(QP)問題:
[0073]
[0074] s.t. yi[(xi· ω )+b]-l+Ci > 0, i = 1,2, . . . , 1
[0075] 其中xgco+b = 0為超平面,|i>0代表對分類錯(cuò)誤樣本進(jìn)行懲罰的松弛變量,A>0 為用來維持樣本誤分類導(dǎo)致的懲罰水平和算法復(fù)雜度之間平衡的常數(shù),ω為輸入變量的權(quán) 重向量,b為超平面的閾值標(biāo)量,SVM旨在尋找一個(gè)最優(yōu)的超平面使得超平面兩側(cè)點(diǎn)與超平 面距離最大化;
[0076] 步驟3-4-2-3:基于最優(yōu)化問題的求解,將該問題轉(zhuǎn)化為QP問題的對偶問題:
[0077]
[0078]
[0079] 其中ai表示Lagrange乘子,K(xi · xj)為核函數(shù),那些ai>〇對應(yīng)的訓(xùn)練數(shù)據(jù)樣本點(diǎn) 稱為支持向量;
[0080] 步驟3-4-2-4:對于給定的待評估數(shù)據(jù)樣本X,基于得到的支持向量,計(jì)算分類結(jié) 果,分類函數(shù)定義為
[0081]
[0082] 其中a J表示> 〇的Lagrange乘子,為對應(yīng)的分類閾值標(biāo)量。
[0083] 步驟3-4-3:反饋神經(jīng)網(wǎng)絡(luò)(BPNN)
[0084] 步驟3-4-3-1:神經(jīng)網(wǎng)絡(luò)初始化,給定訓(xùn)練數(shù)據(jù)樣本集(X,Y)給定輸入層節(jié)點(diǎn)數(shù)M、 隱含層節(jié)點(diǎn)數(shù)Ρ、輸出層節(jié)點(diǎn)數(shù)Ν,初始化權(quán)重值 Vlj和ω>,初始化隱含層閾值輸出層閾值 &,給定學(xué)習(xí)率t,給定神經(jīng)元激活函數(shù),給定迭代次數(shù)S;
[0085] BP神經(jīng)網(wǎng)絡(luò)采用單隱層結(jié)構(gòu),選取迭代次數(shù)S為100,隱層節(jié)點(diǎn)數(shù)P為10,給定學(xué)習(xí) 率t為0.001,初始權(quán)重值和閾值均為0~1之間的隨機(jī)數(shù);激活函數(shù)為S i gmo i d函數(shù)。
[0086]步驟3-4-3-2:由權(quán)值和激活函數(shù)計(jì)算隱含層輸出H和輸出層輸出0;
[0087]步驟3-4-3-3:計(jì)算輸出層輸出0與訓(xùn)練數(shù)據(jù)樣本實(shí)際輸出Υ之間的誤差,定義誤差 E為
[0088] ek = yk~〇k k = l,2,...,N
[0089] 步驟3-4-3-4:根據(jù)網(wǎng)絡(luò)誤差更新權(quán)重值Vij和ω jk
[0090]
[0091] ωjk= ωjk+thjek j = l,2, . . . ,P;k = l,2, . . . ,N[0092] 步驟3-4-3-5:根據(jù)誤差向量E和權(quán)重值更新閾值a
[0093]
[0094]
[0095] 步驟3-4-3-6:判斷是否達(dá)到迭代次數(shù),達(dá)到則完成訓(xùn)練過程,對于待評估數(shù)據(jù)直 接代入步驟3.4.2計(jì)算輸出分類結(jié)果;若未達(dá)到則返回步驟3.4.2繼續(xù)訓(xùn)練,直至迭代次數(shù) 達(dá)到S。
[0096] 步驟4:得到卷煙感官質(zhì)量評估結(jié)果。針對未知樣本,每個(gè)分類器給出預(yù)測結(jié)果,獲 得分值表,然后采用聚合策略將兩分類器組合成多分類器,輸出預(yù)測結(jié)果,采用的聚合策略 包括 Vote,WV,LVPC,ND,DRCW 和 DCS;
[0097] 步驟 4-1:投票法(Vote)
[0098] 該方法利用投票機(jī)制獲得最終類別標(biāo)識。具體是:每個(gè)成對的分類器對未知樣本 給出預(yù)測類別,獲得最多投票的類別最終獲勝,作為輸出結(jié)果。預(yù)測類別如下:
[0099]
[0100] ru是分類器對未知樣本相對于類別j預(yù)測為類別i的概率。 [0101]步驟4-2 :加權(quán)投票法(WV)
[0102] 不同于投票法,每個(gè)兩分類器給出"是"或"否"的預(yù)測結(jié)果,在加權(quán)投票法中,每個(gè) 分類器給m的結(jié)里1;1習(xí)彳言磨的報(bào)式出現(xiàn)。預(yù)測類別為如下公式所示:
[0103]
[0104]步驟4-3:學(xué)習(xí)權(quán)值偏好法(LVPC)
[0105] 這種方法將模糊偏好關(guān)系引入到分值表中。絕對偏好,沖突和未知被引入到最終 類別的識別過程中。最