亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種東南太平洋莖柔魚中心漁場預(yù)測方法與流程

文檔序號:11953157閱讀:493來源:國知局

本發(fā)明涉及中心漁場預(yù)報方法,尤其是東南太平洋莖柔魚中心漁場預(yù)測方法。



背景技術(shù):

中心漁場預(yù)報是漁況速報的一種,準(zhǔn)確的中心漁場預(yù)報可以為捕撈生產(chǎn)提高漁獲產(chǎn)量并降低燃油成本,漁況速報是對未來24h或幾天內(nèi)的中心漁場位置、魚群動向及旺發(fā)的可能性進(jìn)行預(yù)測,由漁訊指揮單位每天定時將預(yù)報內(nèi)容通過電訊系統(tǒng)迅速而準(zhǔn)確地傳播給生產(chǎn)船只,達(dá)到指揮現(xiàn)場生產(chǎn)的目的。

目前已有多種方法預(yù)報大洋性經(jīng)濟(jì)柔魚類的中心漁場,這些方法的基礎(chǔ)是魚類行動和生物學(xué)狀況與環(huán)境條件之間的關(guān)系及其規(guī)律,本質(zhì)都是根據(jù)生產(chǎn)統(tǒng)計數(shù)據(jù)樣本獲取“經(jīng)驗知識”用于預(yù)報,但以往對樣本的時空尺度和環(huán)境因子的選擇均沒有深入研究,基本是根據(jù)經(jīng)驗(如大漁區(qū)小漁區(qū)等)設(shè)定,沒有考慮不同時空尺度和環(huán)境因子對中心漁場預(yù)測模型的影響;在模型的選擇上,也很少考慮海洋環(huán)境因子的實時性問題。



技術(shù)實現(xiàn)要素:

本發(fā)明研究了大洋性經(jīng)濟(jì)柔魚類的樣本時空尺度和環(huán)境因子的選擇對其中心漁場預(yù)測模型的影響,提出一種東南太平洋莖柔魚中心漁場預(yù)測方法。

本發(fā)明的技術(shù)方案包括時空尺度設(shè)置、環(huán)境因子設(shè)置、建立中心漁場預(yù)測模型,其特征是時空尺度設(shè)置采用三個級別的空間尺度,經(jīng)緯度分別為0.25°×0.25°、0.5°×0.5°、1.0°×1.0°,周和月兩個級別的時間尺度;環(huán)境因子設(shè)置采用SST為主要環(huán)境因子,再輔以SSH、Chl-a兩種環(huán)境因子,在建立中心漁場預(yù)測模型時將環(huán)境因子分為四種情況:ⅠSST;ⅡSST,SSH;ⅢSST,Chl-a;ⅣSST,SSH,Chl-a;根據(jù)時空尺度和環(huán)境因子設(shè)置情況,建立24種情況的樣本方案集;中心漁場預(yù)測模型采用經(jīng)典的誤差反向傳播BP神經(jīng)網(wǎng)絡(luò)模型,BP神經(jīng)網(wǎng)絡(luò)模型為三層結(jié)構(gòu),即輸入層、隱藏層和輸出層,輸入層輸入漁場的時空因子和環(huán)境因子,輸出層輸出CPUE或是由CPUE轉(zhuǎn)化而成的漁場等級指標(biāo);BP神經(jīng)網(wǎng)絡(luò)模型正向傳播時,樣本從輸入層進(jìn)入,經(jīng)隱藏層激活函數(shù)處理,傳向輸出層,如輸出層的實際輸出與期望的輸出不符合誤差要求,則轉(zhuǎn)入誤差的反向傳播階段,反向傳播是將誤差通過隱藏層向輸入層逐層反向傳播,將誤差分?jǐn)偨o各層所有節(jié)點,從而獲得各層節(jié)點的誤差信號,此誤差信號作為修正的依據(jù),這種信號的正向傳播與誤差的反向傳播周而復(fù)始地進(jìn)行,權(quán)值不斷調(diào)整,此過程一直進(jìn)行到網(wǎng)絡(luò)輸出的誤差減少到可接受的程度或進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止,通過學(xué)習(xí)訓(xùn)練獲得到最佳模型,供預(yù)報使用。

本發(fā)明考慮不同時空尺度和環(huán)境因子的選擇對中心漁場預(yù)測模型的影響,采用經(jīng)典的誤差反向傳播神經(jīng)網(wǎng)絡(luò)(Error Backpropagation Network,BP),BP神經(jīng)網(wǎng)絡(luò)屬于多層前向神經(jīng)網(wǎng)絡(luò),使用誤差反向傳播的監(jiān)督算法,BP神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)和存儲大量的模式映射模式,用于主要(高產(chǎn))作業(yè)時間,最佳的作業(yè)海域范圍,莖柔魚棲息適宜的SST范圍,SSH范圍,Chl-a范圍預(yù)報,為捕撈生產(chǎn)提高漁獲產(chǎn)量并降低燃油成本提供技術(shù)支撐,建立的漁場預(yù)測模型的預(yù)報精度70%,具有較高的精度和較小的ARV值。

附圖說明

圖1是BP神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖。

具體實施方式

為了能夠比較大洋性經(jīng)濟(jì)柔魚類的中心漁場預(yù)測模型的最適時空尺度,設(shè)置三個級別的空間尺度,經(jīng)緯度分別為0.25°×0.25°、0.5°×0.5°、1.0°×1.0°,兩個級別的時間尺度為周和月。

大洋性經(jīng)濟(jì)柔魚類的漁場的資源豐度不但受時空因子的影響,而且受棲息地的環(huán)境因子影響。其中,SST是被廣泛研究且最為重要的影響因子,因此選定SST為主要環(huán)境因子,再輔以SSH、Chl-a兩種環(huán)境因子,所以在建立中心漁場預(yù)測模型時將環(huán)境因子分為四種情況(表1)。

表1環(huán)境因子設(shè)置

因此,根據(jù)樣本的時空尺度和環(huán)境因子設(shè)置情況,建立大洋性經(jīng)濟(jì)柔魚類中心漁場預(yù)測模型的樣本方案集有如下24種情況:

表2BP預(yù)測模型樣本集方案

中心漁場預(yù)測模型采用經(jīng)典的誤差反向傳播神經(jīng)網(wǎng)絡(luò)(Error Backpropagation Network,BP),BP神經(jīng)網(wǎng)絡(luò)屬于多層前向神經(jīng)網(wǎng)絡(luò),使用誤差反向傳播的監(jiān)督算法,BP神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)和存儲大量的模式映射模式。

BP模型采用三層結(jié)構(gòu),即輸入層、隱藏層和輸出層(圖1)。輸入層為漁場的時空因子和海洋環(huán)境因子,輸出層是CPUE或是由CPUE轉(zhuǎn)化而成的漁場等級指標(biāo),不同漁場等級的劃分方法參考漁業(yè)專家的領(lǐng)域知識。隱藏層節(jié)點個數(shù)由經(jīng)驗公式(1)確定。

Pnum=2Nnum+1 (1)

式中:Pnum為隱藏層節(jié)點個數(shù),Nnum為輸入層節(jié)點個數(shù)。

BP算法主要包括學(xué)習(xí)過程信號的正向傳播與誤差的反向傳播兩個過程組成。正向傳播時,樣本從輸入層進(jìn)入,經(jīng)隱藏層激活函數(shù)處理,傳向輸出層,如輸出層的實際輸出與期望的輸出不符合誤差要求,則轉(zhuǎn)入誤差的反向傳播階段。反向傳播是將誤差以某種形式通過隱藏層向輸入層逐層反向傳播,將誤差分?jǐn)偨o各層所有節(jié)點,從而獲得各層節(jié)點的誤差信號,此誤差信號作為修正的依據(jù)。這種信號的正向傳播與誤差的反向傳播是周而復(fù)始地進(jìn)行,權(quán)值不斷調(diào)整,也就是網(wǎng)絡(luò)學(xué)習(xí)的過程。此過程一直進(jìn)行到網(wǎng)絡(luò)輸出的誤差減少到可接受的程度或進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止。

訓(xùn)練方法采用最速下降法。假設(shè)輸入神經(jīng)元個數(shù)為M,隱藏層神經(jīng)元個數(shù)為I,輸出層神經(jīng)元個數(shù)為J。輸入層第m個神經(jīng)元記為xm,隱藏層第i個神經(jīng)元記為ki,輸出層第j個神經(jīng)元記為yj。從xm到ki的鏈接權(quán)值為wmi,從ki到y(tǒng)j的連接權(quán)值為wij。隱藏層傳遞函數(shù)為Sigmoid函數(shù),輸出層傳遞函數(shù)為線性函數(shù)。u和v分別表示每一層的輸入和輸出,如表示I層(隱藏層)第一個神經(jīng)元的輸入,網(wǎng)絡(luò)的實際輸出可表示為:

<mrow> <mi>Y</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mn>1</mn> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mn>2</mn> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>J</mi> </msubsup> <mo>&rsqb;</mo> </mrow>

網(wǎng)絡(luò)的期望輸出為:

d(n)=[d1,d2,...,dJ]

n為迭代次數(shù)。第n次迭代的誤差信號定義為:

ej(n)=dj(n)-Yj(n)

將誤差能量定義為:

<mrow> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>e</mi> <mi>j</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

訓(xùn)練過程即是將誤差能量減小的過程。

在權(quán)值調(diào)整階段,沿著網(wǎng)絡(luò)逐層反向進(jìn)行調(diào)整。首先調(diào)整隱藏層與輸出層之間的權(quán)值wij,根據(jù)最速下降法,應(yīng)計算誤差對wij的梯度再沿著該方向的反方向進(jìn)行調(diào)整:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mi>&eta;</mi> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

wij(n+1)=Δwij(n)+wij(n)

梯度可由求偏導(dǎo)得到,根據(jù)微分的鏈?zhǔn)揭?guī)則,有

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

由于e(n)是ej(n)的二次函數(shù),其微分為一次函數(shù):

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mn>1</mn> </mrow>

輸出層傳遞函數(shù)的導(dǎo)數(shù):

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

因此,梯度值為

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

權(quán)值的修正量為

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&eta;e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

引入局部梯度的定義:

<mrow> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

所以權(quán)值的修正量為:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&eta;&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

在輸出層,傳遞函數(shù)為線性函數(shù),因此其導(dǎo)數(shù)為1,即

<mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> </mrow>

所以可得

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&eta;e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

誤差信號向前傳播,對輸入層與隱藏層之間的權(quán)值wmi進(jìn)行調(diào)整,與上一步類似應(yīng)有

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>m</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&eta;&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msubsup> <mi>v</mi> <mi>M</mi> <mi>m</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

為輸入神經(jīng)元的輸出,即

為局部梯度,定義為

<mrow> <msubsup> <mi>&delta;</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mo>-</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

f(g)為sigmoid函數(shù),同時又上一步計算可見,

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>

故有

<mrow> <msubsup> <mi>&delta;</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>=</mo> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>

到此,三層BP網(wǎng)絡(luò)的學(xué)習(xí)權(quán)值調(diào)整過程結(jié)束,可歸結(jié)為:

權(quán)值調(diào)整量Δw=學(xué)習(xí)率η·局部梯度δ·上一層輸出信號v。至于學(xué)習(xí)率η、誤差范圍等的設(shè)定,在不過擬合的狀態(tài)下進(jìn)行逐步調(diào)優(yōu)。

BP神經(jīng)網(wǎng)絡(luò)的建立過程在matlab(2010b)軟件中完成,使用神經(jīng)網(wǎng)絡(luò)工具箱的擬合工具,將樣本集分為訓(xùn)練樣本、驗證樣本和測試樣本三部分。網(wǎng)絡(luò)設(shè)計的參數(shù)為:學(xué)習(xí)速率0.1,動量參數(shù)0.5,輸入層與隱藏層、隱藏層與輸出層神經(jīng)元之間的傳遞函數(shù)分別是S型正切函數(shù)tansig、線性函數(shù)purelin;網(wǎng)絡(luò)訓(xùn)練的終止參數(shù)為:最大訓(xùn)練次數(shù)為1000,最大誤差給定為0.001。模型通過多次訓(xùn)練獲得到最佳模型,取權(quán)重供預(yù)報使用。

模型從預(yù)報精度、穩(wěn)定性和可解釋性三方面評價BP預(yù)報模型:

(1)預(yù)報精度評價

當(dāng)模型的輸出為CPUE等級時,根據(jù)模型預(yù)報出的正確等級百分比,比較各種模型的精度;當(dāng)模型的輸出為CPUE數(shù)值時,計算模型的均方誤差(MSE),比較各個模型的精度。

<mrow> <mi>M</mi> <mi>S</mi> <mi>E</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>k</mi> </msub> <mo>-</mo> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>

其中,yk為CPUE的實際值,為CPUE的預(yù)報值。

(2)穩(wěn)定性評價

評價不同樣本建立的BP模型精度的穩(wěn)定性,計算平均相對變動值(Average Relative Variance,ARV),其定義為

<mrow> <mi>A</mi> <mi>R</mi> <mi>V</mi> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>&lsqb;</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>&lsqb;</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>&OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow>

其中,N為比較數(shù)據(jù)的個數(shù),x(i)為漁場等級實際值,為漁場等級實際平均值,為漁場等級預(yù)測值。平均相對變動值A(chǔ)RV越小,表明預(yù)測效果越好,ARV=0表示達(dá)到了理想預(yù)測效果,當(dāng)ARV=1時,表明模型僅達(dá)到了平均值的預(yù)測效果。

(3)可解釋性評價

用變量相關(guān)性(Independent variable relevance)和靈敏度分析(Sensitivity Analyses)評價在不同時空尺度和環(huán)境因子樣本上建立的預(yù)報模型的可解釋性。

變量相關(guān)用來比較各輸入變量對CPUE的貢獻(xiàn)率,計算方法是輸入變量與隱藏層連接的權(quán)重平方和與所有輸入層變量到隱藏層連接權(quán)重平方和之比。

靈敏度分析是探究輸入變量變化與輸出變量之間的關(guān)系,其過程是:首先計算各個輸入變量的最大值、最小值、中值、平均值、眾數(shù)特殊值;然后選擇其中一個輸入變量,使其從最小值到最大值逐漸變化,其他輸入變量都確定為四個特殊值中的一個,輪流改變變化的輸入變量,觀察輸出變量的變化情況。

東南太平洋莖柔魚的魷釣生產(chǎn)數(shù)據(jù)處理成時間分辨率為“月”,空間分辨率為0.5°×0.5°的樣本,計算小漁區(qū)內(nèi)的Nominal CPUE,并根據(jù)漁業(yè)專家知識(表3)將Nominal CPUE劃分為不同的漁場等級(fishing ground levels),在MarineStar軟件中繪制基于漁場等級的作業(yè)分布圖。

表3基于CPUE的東南太平洋莖柔魚漁場等級

本方法所建立的漁場預(yù)測模型的預(yù)報精度70%,具有較高的精度和較小的ARV值。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1