亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法及訓(xùn)練系統(tǒng)與流程

文檔序號:12365868閱讀:621來源:國知局
一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法及訓(xùn)練系統(tǒng)與流程

本發(fā)明涉及數(shù)據(jù)分析技術(shù)領(lǐng)域,尤其涉及一種基于隨機權(quán)網(wǎng)絡(luò)的FNR(Fuzzy Nonlinear Regression,模糊非線性回歸)分析模型的訓(xùn)練方法及訓(xùn)練系統(tǒng)。



背景技術(shù):

模糊回歸分析分為模糊線性回歸(Fuzzy Linear Regression-FLR)分析和FNR(Fuzzy Nonlinear Regression-FNR)分析兩種。1982年,日本學(xué)者Tanaka等人[1]給出了最早的FLR分析模型:清晰輸入與模糊輸出之間的關(guān)系通過構(gòu)建一個帶有模糊系數(shù)的線性函數(shù)來表示。之后,大批學(xué)者對Tanaka的FLR模型進(jìn)行了擴(kuò)展,主要包括兩個方面:帶有清晰系數(shù)的模糊輸入-模糊輸出FLR模型和帶有模糊系數(shù)的模糊輸入-模糊輸出FLR模型。求解FLR模型的主要任務(wù)就是確定線性函數(shù)中的清晰系數(shù)或者模糊系數(shù)。常用的方法包括目標(biāo)規(guī)劃法(Goal Programming Approach)和模糊最小二乘法(Fuzzy Least Square Method)。然而,對于大多數(shù)的實際應(yīng)用而言,輸入與輸出之間的關(guān)系往往是非線性的。顯然,Tanaka的FLR模型以及之后的FLR改進(jìn)模型不能夠處理非線性模糊輸入-模糊輸出的回歸問題。鑒于神經(jīng)網(wǎng)絡(luò)在處理非線性回歸問題上的優(yōu)勢,1995年日本學(xué)者Ishibuchi等人[2]以及2005年Zhang等人[3]分別提出使用Sigmoid神經(jīng)網(wǎng)絡(luò)和徑向基函數(shù)網(wǎng)絡(luò)處理非線性模糊輸入-模糊輸出回歸問題的FNR模型FNRBP和FNRRBF,其中Sigmoid神經(jīng)網(wǎng)絡(luò)的輸入層和輸出層權(quán)重以及徑向基函數(shù)網(wǎng)絡(luò)的徑向基函數(shù)中心、半徑以及輸出層權(quán)重均采用迭代式的、基于梯度下降的誤差反傳方法確定。盡管FNRBP和FNRRBF獲得了良好的實驗效果,但是較高的計算復(fù)雜度以及模型的易過擬合在很大程度上限制了FNRBP和FNRRBF向?qū)嶋H應(yīng)用領(lǐng)域的推廣。

FNR分析是一種有效的、用于分析模糊輸入-模糊輸出變量之間非線性函數(shù)關(guān)系的數(shù)據(jù)挖掘技術(shù),已被成功地應(yīng)用于商業(yè)管理、工程控制、經(jīng)濟(jì)學(xué)、社會學(xué)、以及生物科學(xué)等領(lǐng)域,獲得了良好的實際應(yīng)用效果。現(xiàn)有的解決FNR問題的主要策略是利用迭代式的誤差反傳算法訓(xùn)練Sigmoid神經(jīng)網(wǎng)絡(luò)或者是徑向基函數(shù)網(wǎng)絡(luò),這兩種策略的主要缺陷表現(xiàn)在:訓(xùn)練復(fù)雜度較高以及模型易過擬合。

現(xiàn)有的使用神經(jīng)網(wǎng)絡(luò)解決非線性模糊輸入-模糊輸出回歸問題的主要方法包括以下兩種:基于Sigmoid神經(jīng)網(wǎng)絡(luò)的FNR模型FNRBP和基于徑向基函數(shù)網(wǎng)絡(luò)的FNR模型FNRRBF。

FNRBP為一個三層全鏈接前饋式神經(jīng)網(wǎng)絡(luò),隱含層節(jié)點的激活函數(shù)為Sigmoid函數(shù),輸入層權(quán)重、隱含層偏置、以及輸出層權(quán)重均為清晰值,用于處理輸入和輸出均為區(qū)間值模糊數(shù)的非線性模糊回歸問題。FNRBP基于梯度下降法推導(dǎo)出權(quán)重的更新規(guī)則,之后使用誤差反傳方法迭代地調(diào)整網(wǎng)絡(luò)權(quán)重,從而使得預(yù)測誤差最小化。

FNRRBF為一個輸入和輸出均為L-R型模糊數(shù)的徑向基函數(shù)網(wǎng)絡(luò),其徑向基函數(shù)的中心、半徑、以及輸出層權(quán)重均為L-R型模糊數(shù)。類似于FNRBP,F(xiàn)NRRBF同樣采用梯度下降法推導(dǎo)出權(quán)重的更新規(guī)則,之后再使用誤差反傳方法迭代地調(diào)整網(wǎng)絡(luò)參數(shù),從而達(dá)到最小化預(yù)測誤差的目的。

上述基于Sigmoid神經(jīng)網(wǎng)絡(luò)的FNR模型FNRBP和基于徑向基函數(shù)網(wǎng)絡(luò)的FNR模型FNRRBF的主要缺點為:

時間復(fù)雜度高:由于采用了基于梯度下降的迭代式參數(shù)調(diào)整策略,為了保證預(yù)測誤差的最小化,模型的訓(xùn)練往往需要幾百次乃至上千次的迭代,因此FNRBP和FNRRBF的訓(xùn)練非常耗時;

易過擬合:過擬合是神經(jīng)網(wǎng)絡(luò)最為顯著的缺陷,當(dāng)使用神經(jīng)網(wǎng)絡(luò)處理非線性模糊輸入-模糊輸出回歸問題時,這一缺陷同樣不可避免。當(dāng)使用誤差反傳算法在訓(xùn)練訓(xùn)練樣本上獲得了神經(jīng)網(wǎng)絡(luò)的最優(yōu)參數(shù)后,神經(jīng)網(wǎng)絡(luò)很容易陷入一種“飽和”的狀態(tài),即來自于訓(xùn)練集的知識使神經(jīng)網(wǎng)絡(luò)的知識庫充滿,從而無法接受新知識。



技術(shù)實現(xiàn)要素:

本發(fā)明所要解決的技術(shù)問題是,提供一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法及訓(xùn)練系統(tǒng),以解決現(xiàn)有的基于Sigmoid神經(jīng)網(wǎng)絡(luò)的FNR分析模型和基于徑向基函數(shù)網(wǎng)絡(luò)的FNR分析模型時間復(fù)雜度高、且易于過擬合的缺陷。本發(fā)明是這樣實現(xiàn)的:

一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法,包括如下步驟:

步驟1:確定用以引導(dǎo)隨機權(quán)網(wǎng)絡(luò)隱含層輸出權(quán)重的訓(xùn)練模式的損失函數(shù)E;

所述損失函數(shù)E的表達(dá)式如下:

其中:

N為訓(xùn)練樣本數(shù)目;

α表示截點值;

[Tn]α為訓(xùn)練樣本Xn預(yù)測輸出的α-截集,

n]α為訓(xùn)練樣本Xn實際輸出的α-截集,

其中:

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的上邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的上邊界點;

步驟2:確定所述訓(xùn)練樣本Xn預(yù)測輸出的α-截集的具體形式為:

;其中:

Hnj表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸出;

表示Hnj的α‐截集的下邊界點;

表示Hnj的α‐截集的上邊界點;

rnj1表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rnj2表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rnj3表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

βj表示第j個隱含層節(jié)點與輸出層節(jié)點鏈接的權(quán)重;

步驟3:根據(jù)所述損失函數(shù)E確定隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的具體形式;具體為:

其中:

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的下邊界矩陣,

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的上邊界矩陣,

為實際輸出的α‐截集的下邊界向量,

為實際輸出的α‐截集的上邊界向量,其中:

N×K表示矩陣的階數(shù)為N行K列;

T表示向量的轉(zhuǎn)置;

根據(jù)推導(dǎo)出

其中:

為隱含層輸出的α‐截集的下邊界矩陣的積分,

為隱含層輸出的α‐截集的上邊界矩陣的積分,

為實際輸出的α‐截集的下邊界向量的積分,

為實際輸出的α‐截集的上邊界向量的積分,

其中:

yN1表示第N個訓(xùn)練樣本實際輸出的α‐截集的左端點;

yN2表示第N個訓(xùn)練樣本實際輸出的α‐截集的中值點;

yN3表示第N個訓(xùn)練樣本實際輸出的α‐截集的右端點;

令則得出隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的解析表達(dá)式為:

β=H+γ;

其中,H+為矩陣H的廣義逆矩陣,

其中,C為正則化因子,用以控制隨機權(quán)網(wǎng)絡(luò)的過擬合,C>0;I為單位矩陣。

進(jìn)一步地,假設(shè)訓(xùn)練樣本Xn對應(yīng)的隱含層輸入向量為Rn=(Rn1,Rn2,…,RnK),則第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸入Rnj對應(yīng)的三角模糊數(shù)為:

其中:

wji表示模糊隨機權(quán)網(wǎng)絡(luò)第i個輸入層節(jié)點與第j個隱含層節(jié)點鏈接的權(quán)重;

xni1表示第n個訓(xùn)練樣本的左端點;

xni2表示第n個訓(xùn)練樣本的中值點;

xni3表示第n個訓(xùn)練樣本的右端點;

利用Hn=(Hn1,Hn2,…,HnK)表示訓(xùn)練樣本Xn對應(yīng)的隱含層輸出向量,則分量Hnj表示為:

<mrow> <msub> <mi>H</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>.</mo> </mrow>

進(jìn)一步地,假設(shè)未知樣本為:

X=(X1,X2,…,XD)=((x11,x12,x13),(x21,x22,x23),…,(xD1,xD2,xD3));其中:

X為未知樣本;

XD表示未知樣本的第D個三角模糊數(shù)屬性;

xD1表示三角模糊數(shù)XD的左端點;

xD2表示三角模糊數(shù)XD的中值點;

xD3表示三角模糊數(shù)XD的右端點;

所述方法還包括:

步驟4:利用訓(xùn)練得到的FNR分析模型對未知樣本X進(jìn)行預(yù)測,得到的預(yù)測輸出的α‐截集表示為:

其中:

其中:

Rj表示未知樣本對應(yīng)的第j個隱含層節(jié)點的輸入;

rj1表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rj2表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rj3表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

xi1表示未知樣本的左端點;

xi2表示未知樣本的中值點;

xi3表示未知樣本的右端點。

進(jìn)一步地,所述方法還包括:

步驟5:通過如下方式對所述得到的預(yù)測輸出的α‐截集進(jìn)行修正:

<mrow> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <mo>=</mo> <mi>min</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>;</mo> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <mo>=</mo> <mi>max</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>H</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>.</mo> </mrow>

進(jìn)一步地,

一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練系統(tǒng),包括:

損失函數(shù)確定模塊,其用于確定用以引導(dǎo)隨機權(quán)網(wǎng)絡(luò)隱含層輸出權(quán)重的訓(xùn)練模式的損失函數(shù)E;

所述損失函數(shù)E的表達(dá)式如下:

其中:

N為訓(xùn)練樣本數(shù)目;

α表示截點值;

[Tn]α為訓(xùn)練樣本Xn預(yù)測輸出的α-截集,

n]α為訓(xùn)練樣本Xn實際輸出的α-截集,

其中:

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的上邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的上邊界點;

訓(xùn)練樣本預(yù)測輸出確定模塊,其用于確定所述訓(xùn)練樣本Xn預(yù)測輸出的α-截集的具體形式為:;其中:

Hnj表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸出;

表示Hnj的α‐截集的下邊界點;

表示Hnj的α‐截集的上邊界點;

rnj1表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rnj2表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rnj3表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

βj表示第j個隱含層節(jié)點與輸出層節(jié)點鏈接的權(quán)重;

隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重確定模塊,其用于根據(jù)所述損失函數(shù)E確定隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的具體形式:

其中:

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的下邊界矩陣,

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的上邊界矩陣,

為實際輸出的α‐截集的下邊界向量,

為實際輸出的α‐截集的上邊界向量,其中:

N×K表示矩陣的階數(shù)為N行K列;

T表示向量的轉(zhuǎn)置;

所述隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重確定模塊根據(jù)推導(dǎo)出其中:

為隱含層輸出的α‐截集的下邊界矩陣的積分,

為隱含層輸出的α‐截集的上邊界矩陣的積分,

為實際輸出的α‐截集的下邊界向量的積分,

為實際輸出的α‐截集的上邊界向量的積分,

其中:

yN1表示第N個訓(xùn)練樣本實際輸出的α‐截集的左端點;

yN2表示第N個訓(xùn)練樣本實際輸出的α‐截集的中值點;

yN3表示第N個訓(xùn)練樣本實際輸出的α‐截集的右端點;

令則得出隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的解析表達(dá)式為:

β=H+γ;

其中,H+為矩陣H的廣義逆矩陣,

其中,C為正則化因子,用以控制隨機權(quán)網(wǎng)絡(luò)的過擬合,C>0;I為單位矩陣。

進(jìn)一步地,假設(shè)訓(xùn)練樣本Xn對應(yīng)的隱含層輸入向量為Rn=(Rn1,Rn2,…,RnK),則第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸入Rnj對應(yīng)的三角模糊數(shù)為:

其中:

wji表示模糊隨機權(quán)網(wǎng)絡(luò)第i個輸入層節(jié)點與第j個隱含層節(jié)點鏈接的權(quán)重;

xni1表示第n個訓(xùn)練樣本的左端點;

xni2表示第n個訓(xùn)練樣本的中值點;

xni3表示第n個訓(xùn)練樣本的右端點;

利用Hn=(Hn1,Hn2,…,HnK)表示訓(xùn)練樣本Xn對應(yīng)的隱含層輸出向量,則分量Hnj表示為:

<mrow> <msub> <mi>H</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>.</mo> </mrow>

進(jìn)一步地,假設(shè)未知樣本為:

X=(X1,X2,…,XD)=((x11,x12,x13),(x21,x22,x23),…,(xD1,xD2,xD3));其中:

X為未知樣本;

XD表示未知樣本的第D個三角模糊數(shù)屬性;

xD1表示三角模糊數(shù)XD的左端點;

xD2表示三角模糊數(shù)XD的中值點;

xD3表示三角模糊數(shù)XD的右端點;

所述系統(tǒng)還包括:

預(yù)測模塊,其利用訓(xùn)練得到的FNR分析模型對未知樣本X進(jìn)行預(yù)測,得到的預(yù)測輸出的α‐截集表示為:

其中:

其中:

Rj表示未知樣本對應(yīng)的第j個隱含層節(jié)點的輸入;

rj1表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rj2表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rj3表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

xi1表示未知樣本的左端點;

xi2表示未知樣本的中值點;

xi3表示未知樣本的右端點。

進(jìn)一步地,所述訓(xùn)練系統(tǒng)還包括:

預(yù)測輸出修正模塊,其用于通過如下方式對所述得到的預(yù)測輸出的α‐截集進(jìn)行修正:

<mrow> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <mo>=</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>;</mo> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>.</mo> </mrow>

進(jìn)一步地,

本發(fā)明提供的基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法及訓(xùn)練系統(tǒng)中使用的隨機權(quán)網(wǎng)絡(luò)不需要迭代訓(xùn)練,它的輸入權(quán)重隨機選取,輸出權(quán)重基于模糊輸入-模糊輸出的訓(xùn)練集解析式地求得,并通過對輸出層權(quán)重解析表達(dá)式的正則化處理來控制模型的過擬合。與傳統(tǒng)的基于Sigmoid神經(jīng)網(wǎng)絡(luò)的FNR模型和基于徑向基函數(shù)網(wǎng)絡(luò)的FNR模型相比較,本發(fā)明的優(yōu)勢體現(xiàn)在:具有極快的訓(xùn)練速度(最快比現(xiàn)有方法快將近1000倍)和高效的過擬合控制能力(基本上不存在過擬合現(xiàn)象)。

附圖說明

圖1:用以處理非線性模糊輸入-模糊輸出回歸問題的隨機權(quán)網(wǎng)絡(luò)示意圖;

圖2:本發(fā)明提供的基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法的流程示意圖;

圖3:基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練系統(tǒng)的組成結(jié)構(gòu)示意圖。

具體實施方式

為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點更加清楚明白,以下結(jié)合附圖及實施例,對本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說明。

本發(fā)明提供的基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法說明如下:

設(shè)計一個如圖1所示的隨機權(quán)網(wǎng)絡(luò)RWN(Random Weights Network,隨機權(quán)網(wǎng)絡(luò)),該隨機權(quán)網(wǎng)絡(luò)的輸入和輸出均為三角模糊函數(shù)。假設(shè)訓(xùn)練集中的第n個訓(xùn)練樣本為Xn=(Xn1,Xn2,…,XnD),其對應(yīng)的實際輸出為γn,其中Xni=(xni1,xni2,xni3)(i=1,2,…,D)和γn=(yn1,yn2,yn3)均為三角模糊數(shù),[Xni]α表示三角模糊數(shù)Xni的α‐截集(α∈(0,1]),D為數(shù)據(jù)集輸入屬性的個數(shù),K為隨機權(quán)網(wǎng)絡(luò)RWN隱含層節(jié)點的個數(shù),wji為連接第i個輸入層節(jié)點和第j個隱含層節(jié)點的權(quán)重,bj為第j個隱含層節(jié)點的偏置,βj為第j個隱含層節(jié)點與輸出層節(jié)點鏈接的權(quán)重。wji和bj隨機選取,如何確定βj非迭代式的解析表達(dá)式是本發(fā)明需要解決的關(guān)鍵核心問題。

為確定圖1所示的隨機權(quán)網(wǎng)絡(luò)RWN中的輸出層權(quán)重βj,本發(fā)明提供了一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練方法,如圖2所示,該訓(xùn)練方法包括如下步驟:

步驟S1:確定用以引導(dǎo)隨機權(quán)網(wǎng)絡(luò)隱含層輸出權(quán)重的訓(xùn)練模式的損失函數(shù)E。

所述損失函數(shù)E的表達(dá)式如下:

其中:

N為訓(xùn)練樣本數(shù)目;

α表示截點值;

[Tn]α為訓(xùn)練樣本Xn預(yù)測輸出的α-截集,

n]α為訓(xùn)練樣本Xn實際輸出的α-截集,

其中:

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的上邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的上邊界點。

步驟S2:確定所述訓(xùn)練樣本Xn預(yù)測輸出的α-截集的具體形式為,其中:

Hnj表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸出;

表示Hnj的α‐截集的下邊界點;

表示Hnj的α‐截集的上邊界點;

rnj1表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rnj2表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rnj3表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

βj表示第j個隱含層節(jié)點與輸出層節(jié)點鏈接的權(quán)重。

步驟S3:根據(jù)所述損失函數(shù)E確定隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的具體形式。具體為:

其中:

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的下邊界矩陣,

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的上邊界矩陣,

為實際輸出的α‐截集的下邊界向量,

為實際輸出的α‐截集的上邊界向量,其中:

N×K表示矩陣的階數(shù)為N行K列;

T表示向量的轉(zhuǎn)置。

根據(jù)推導(dǎo)出

其中:

為隱含層輸出的α‐截集的下邊界矩陣的積分,

為隱含層輸出的α‐截集的上邊界矩陣的積分,

為實際輸出的α‐截集的下邊界向量的積分,

為實際輸出的α‐截集的上邊界向量的積分,

其中:

yN1表示第N個訓(xùn)練樣本實際輸出的α‐截集的左端點;

yN2表示第N個訓(xùn)練樣本實際輸出的α‐截集的中值點;

yN3表示第N個訓(xùn)練樣本實際輸出的α‐截集的右端點。

令則得出隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的解析表達(dá)式為:

β=H+γ。

其中,H+為矩陣H的廣義逆矩陣,

其中,C為正則化因子,用以控制隨機權(quán)網(wǎng)絡(luò)的過擬合,C>0;I為單位矩陣。

本實施例中,假設(shè)訓(xùn)練樣本Xn對應(yīng)的隱含層輸入向量為Rn=(Rn1,Rn2,…,RnK),則第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸入Rnj對應(yīng)的三角模糊數(shù)為:

其中:

wji表示模糊隨機權(quán)網(wǎng)絡(luò)第i個輸入層節(jié)點與第j個隱含層節(jié)點鏈接的權(quán)重;

xni1表示第n個訓(xùn)練樣本的左端點;

xni2表示第n個訓(xùn)練樣本的中值點;

xni3表示第n個訓(xùn)練樣本的右端點;

利用Hn=(Hn1,Hn2,…,HnK)表示訓(xùn)練樣本Xn對應(yīng)的隱含層輸出向量,則分量Hnj表示為:

<mrow> <msub> <mi>H</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>.</mo> </mrow>

本實施例中,假設(shè)未知樣本為X=(X1,X2,…,XD)=((x11,x12,x13),(x21,x22,x23),…,(xD1,xD2,xD3)),其中:

X為未知樣本;

XD表示未知樣本的第D個三角模糊數(shù)屬性;

xD1表示三角模糊數(shù)XD的左端點;

xD2表示三角模糊數(shù)XD的中值點;

xD3表示三角模糊數(shù)XD的右端點;

則所述方法還包括:

步驟S4:利用訓(xùn)練得到的FNR分析模型對未知樣本X進(jìn)行預(yù)測,得到的預(yù)測輸出的α‐截集表示為其中:

其中:

Rj表示未知樣本對應(yīng)的第j個隱含層節(jié)點的輸入;

rj1表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rj2表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rj3表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

xi1表示未知樣本的左端點;

xi2表示未知樣本的中值點;

xi3表示未知樣本的右端點。

本實施例中,所述方法還包括:

步驟S5:通過如下方式對所述得到的預(yù)測輸出的α‐截集進(jìn)行修正:

<mrow> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <mo>=</mo> <mi>min</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>;</mo> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <mo>=</mo> <mi>max</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>.</mo> </mrow>

本實施例中,

如圖3所示,本發(fā)明還提供了一種基于隨機權(quán)網(wǎng)絡(luò)的FNR分析模型的訓(xùn)練系統(tǒng),包括損失函數(shù)確定模塊1、訓(xùn)練樣本預(yù)測輸出確定模塊2和隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重確定模塊3。

損失函數(shù)確定模塊1用于確定用以引導(dǎo)隨機權(quán)網(wǎng)絡(luò)隱含層輸出權(quán)重的訓(xùn)練模式的損失函數(shù)E。損失函數(shù)E的表達(dá)式如下:

其中:

N為訓(xùn)練樣本數(shù)目;

α表示截點值;

[Tn]α為訓(xùn)練樣本Xn預(yù)測輸出的α-截集,

n]α為訓(xùn)練樣本Xn實際輸出的α-截集,

其中:

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn預(yù)測輸出的α-截集的上邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的下邊界點;

表示訓(xùn)練樣本Xn實際輸出的α-截集的上邊界點。

訓(xùn)練樣本預(yù)測輸出確定模塊2用于確定所述訓(xùn)練樣本Xn預(yù)測輸出的α-截集的具體形式為:。其中:

Hnj表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸出;

表示Hnj的α‐截集的下邊界點;

表示Hnj的α‐截集的上邊界點;

rnj1表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rnj2表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rnj3表示第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

βj表示第j個隱含層節(jié)點與輸出層節(jié)點鏈接的權(quán)重。

隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重確定模塊3用于根據(jù)所述損失函數(shù)E確定隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的具體形式:

其中:

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的下邊界矩陣,

為隨機權(quán)網(wǎng)絡(luò)隱含層輸出的α‐截集的上邊界矩陣,

為實際輸出的α‐截集的下邊界向量,

為實際輸出的α‐截集的上邊界向量,其中:

N×K表示矩陣的階數(shù)為N行K列;

T表示向量的轉(zhuǎn)置。

所述隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重確定模塊3根據(jù)推導(dǎo)出其中:

為隱含層輸出的α‐截集的下邊界矩陣的積分,

為隱含層輸出的α‐截集的上邊界矩陣的積分,

為實際輸出的α‐截集的下邊界向量的積分,

為實際輸出的α‐截集的上邊界向量的積分,

其中:

yN1表示第N個訓(xùn)練樣本實際輸出的α‐截集的左端點;

yN2表示第N個訓(xùn)練樣本實際輸出的α‐截集的中值點;

yN3表示第N個訓(xùn)練樣本實際輸出的α‐截集的右端點。

令則得出隨機權(quán)網(wǎng)絡(luò)輸出層權(quán)重β的解析表達(dá)式為:

β=H+γ;

其中,H+為矩陣H的廣義逆矩陣,

其中,C為正則化因子,用以控制隨機權(quán)網(wǎng)絡(luò)的過擬合,C>0;I為單位矩陣。

本實施例中,假設(shè)訓(xùn)練樣本Xn對應(yīng)的隱含層輸入向量為Rn=(Rn1,Rn2,…,RnK),則第n個訓(xùn)練樣本對應(yīng)的第j個隱含層節(jié)點的輸入Rnj對應(yīng)的三角模糊數(shù)為:

其中:

wji表示模糊隨機權(quán)網(wǎng)絡(luò)第i個輸入層節(jié)點與第j個隱含層節(jié)點鏈接的權(quán)重;

xni1表示第n個訓(xùn)練樣本的左端點;

xni2表示第n個訓(xùn)練樣本的中值點;

xni3表示第n個訓(xùn)練樣本的右端點。

利用Hn=(Hn1,Hn2,…,HnK)表示訓(xùn)練樣本Xn對應(yīng)的隱含層輸出向量,則分量Hnj表示為:

<mrow> <msub> <mi>H</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>h</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>1</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>2</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>r</mi> <mrow> <mi>n</mi> <mi>j</mi> <mn>3</mn> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>.</mo> </mrow>

本實施例中,假設(shè)未知樣本為X=(X1,X2,…,XD)=((x11,x12,x13),(x21,x22,x23),…,(xD1,xD2,xD3))。其中:

X為未知樣本;

XD表示未知樣本的第D個三角模糊數(shù)屬性;

xD1表示三角模糊數(shù)XD的左端點;

xD2表示三角模糊數(shù)XD的中值點;

xD3表示三角模糊數(shù)XD的右端點。則所述系統(tǒng)還包括預(yù)測模塊4,預(yù)測模塊4利用訓(xùn)練得到的FNR分析模型對未知樣本X進(jìn)行預(yù)測,得到的預(yù)測輸出的α‐截集表示為:

其中:

其中:

Rj表示未知樣本對應(yīng)的第j個隱含層節(jié)點的輸入;

rj1表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的左端點;

rj2表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的中值點;

rj3表示未知樣本對應(yīng)的第j個隱含層節(jié)點輸入的右端點;

xi1表示未知樣本的左端點;

xi2表示未知樣本的中值點;

xi3表示未知樣本的右端點。

本實施例中,所述訓(xùn)練系統(tǒng)還包括預(yù)測輸出修正模塊5,預(yù)測輸出修正模塊5用于通過如下方式對所述得到的預(yù)測輸出的α‐截集進(jìn)行修正:

<mrow> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <mo>=</mo> <mi>min</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>;</mo> <msubsup> <mrow> <mo>&lsqb;</mo> <mi>T</mi> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <mo>=</mo> <mi>max</mi> <mo>{</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>L</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>,</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msubsup> <mrow> <mo>&lsqb;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>&rsqb;</mo> </mrow> <mi>&alpha;</mi> <mi>U</mi> </msubsup> <msub> <mi>&beta;</mi> <mi>j</mi> </msub> <mo>}</mo> <mo>.</mo> </mrow>

本實施例中,

以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1