亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于rbf的城域數(shù)據(jù)網(wǎng)流量測算方法_3

文檔序號:9754326閱讀:來源:國知局
第j+Ι層的高頻分量。
[0081] 采用公式(5)將上的信號函數(shù)S分解為其函數(shù)子空間%和^的投影,即分解為一 個低頻分量和一個高頻分量之和,采用公式(6)得到信號的重構(gòu)算法,即由函數(shù)子空間%上 的一個低頻分量和Wj上的一個高頻分量重構(gòu)出上的信號函數(shù)S,
[0082]
[0083]整個小波分解和重構(gòu)的過程稱為Mallat算法,通過小波分解的低頻分量和高頻分 量分別重構(gòu)出原始輸入信號的近似值和細(xì)節(jié)值;由小波分解的低頻分量和高頻分量可以重 構(gòu)出原始信號。同樣,可由低頻分量和高頻分量分別重構(gòu)出信號的近似值或細(xì)節(jié)值,這時只 要低頻分量或高頻分量單獨(dú)處理即可。
[0084]脈沖噪聲多存在于高頻分量,丟掉細(xì)枝末節(jié)可有效減少噪聲,所以只對L分解后的 低頻系數(shù)加窗處理,對數(shù)據(jù)起到增加作用。流量數(shù)據(jù)是典型的非平穩(wěn)信號,它的均值函數(shù)隨 時間而發(fā)生變化。但數(shù)據(jù)在短時過程中保持平穩(wěn),也就是說,在20~30ms內(nèi),流量的形狀(物 理特征)保持不變。因此,預(yù)處理采用平穩(wěn)過程的處理方法:先將連續(xù)的數(shù)據(jù)用窗函數(shù)序列 截取一些時間片段,然后對每一段(幀)進(jìn)行處理。在取數(shù)據(jù)時,前一幀和后一幀的交疊部分 成為幀移,幀移與幀長的比值一般取為〇~0.5。為了避免分幀時產(chǎn)生截?cái)嘈?yīng),每幀都要經(jīng) 過加窗處理,即用一定的窗函數(shù)E(r)與L的低頻系數(shù)相乘,從而形成加窗信號。鑒于流量屬 il ()<r< /V-l 于窄帶信號,因此本發(fā)明選用矩形窗函數(shù)五(r) = ,使得能量集中在主瓣,然后 重構(gòu)出L的近似值L'。
[0085] (3)建模。如圖2所示,
[0086]訓(xùn)練網(wǎng)絡(luò)模型共有三層結(jié)構(gòu),即輸入層、隱含層和輸出層,各層神經(jīng)元數(shù)目依次是 m、p、mi輸入樣本向量為尤=,:輸出樣本向量為Γ = (^, j2,......?該模 型實(shí)現(xiàn)由,......到輸出的映射,對于每個輸出節(jié)點(diǎn) >'、(./丨=1二…,"/丨'1.滿足如下公式:
[0087]
[0088] 其中表示m個隱含層到第個輸出層的權(quán)值矩陣,,R表示徑向基函數(shù)的中心, g( ·)是一類非線性徑向?qū)ΨQ基函數(shù),u · | |表示距中心的距離。高斯函數(shù)除了徑向?qū)ΨQ, 還擁有形式簡單、解析性高、任意階導(dǎo)數(shù)均存在的優(yōu)點(diǎn),則采用高斯函數(shù)的網(wǎng)絡(luò)輸出為:
[0089]
[0090] 那么,基函數(shù)的中心氣和基函數(shù)寬度σ是RBF需要學(xué)習(xí)的參數(shù)。對于這兩個參數(shù),常 用的學(xué)習(xí)算法有四種:隨機(jī)選取中心法,自組織選取中心法,正交最小二乘法和有監(jiān)督選取 中心法,這里重點(diǎn)介紹自組織選取中心法。
[0091] 自組織選取中心法的目的是為隱含層的激活函數(shù)選取一個合適的中心位置,通常 采用Κ-均值聚類方法獲取基函數(shù)中心,按照以下步驟進(jìn)行:
[0092] 1)網(wǎng)絡(luò)初始化。隨機(jī)選取hi個訓(xùn)練樣本作為聚類中心=U2,···,')。
[0093] 2)分配樣本。按照X與中心S之間的歐式距離將X分配到輸入樣本的各個聚類集合 中,滿足下列條件
[0094]
[0095] 3)調(diào)整聚類中心。計(jì)算各個聚類集合中訓(xùn)練樣本的平均值,即新的聚類中心A。
[0096]
[0097] 4)重復(fù)步驟2)和步驟3),直到G,沒有變化,得到最終的基函數(shù)中心。
[0098] 待確定中心以后,基函數(shù)的寬度選擇類的半徑或者類的半徑的倍數(shù)。
[0099]
[0100] 式(11)中,dmax為所選取中心之間的最大聚類,I為隱層的單元個數(shù)。此外還需要學(xué) 習(xí)輸出層和隱層的連接權(quán)。選定基函數(shù)中心和寬度,則權(quán)值用最小均方算法得出。
[0101] 假設(shè)輸入樣本為尤= ,……,第ji個隱含層節(jié)點(diǎn)的輸出為:
[0102]
[0103]隱層輸出矩陣如下:
[0104]
[0105]如果網(wǎng)絡(luò)當(dāng)前權(quán)值為b = [h,b2,…,bP]τ,則所有樣本的網(wǎng)絡(luò)輸出為:
[0106] f^Ph (Η)
[0107] 令&為逼近誤差,則如果已知網(wǎng)絡(luò)輸出7并確定了F ,將式(15)最小化:
[0108]
[0109] 求出網(wǎng)絡(luò)的輸出權(quán)值:
[0110] b = P y (16)
[0111] 式(16)中,聲+為#的偽逆。
[0112] RBF網(wǎng)絡(luò)的具體學(xué)習(xí)過程見圖3,常見的參數(shù)和設(shè)置方法如下。
[0113] 1)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜性
[0114] Moody準(zhǔn)則指出:在使用正則化方法的網(wǎng)絡(luò)中,有效參數(shù)個數(shù)并不等于神經(jīng)網(wǎng)絡(luò)中 自由參數(shù)的數(shù)目。這一準(zhǔn)則證實(shí)了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的最簡原則:對達(dá)到給定訓(xùn)練精度的 神經(jīng)網(wǎng)絡(luò),其有效參數(shù)越少泛化能力越好。
[0115] 2)樣本的質(zhì)量
[0116] 訓(xùn)練樣本一般反映了樣本總體分布的程度。實(shí)際過程中要注意選取適中的樣本數(shù) 量,否則訓(xùn)練數(shù)據(jù)不完整或過多都會影響到學(xué)習(xí)的效果。有時候,網(wǎng)絡(luò)的學(xué)習(xí)能力差,出現(xiàn) 過擬合現(xiàn)象,是因?yàn)閷W(xué)習(xí)了太多的細(xì)節(jié)特征,導(dǎo)致網(wǎng)絡(luò)不能捕捉規(guī)律的本質(zhì),無法真正地解 決問題。但是,有時候訓(xùn)練數(shù)據(jù)含一定的噪聲,反而能夠提高RBF網(wǎng)絡(luò)的泛化能力。
[0117] 3)網(wǎng)絡(luò)權(quán)值的初始化
[0118] 由于神經(jīng)網(wǎng)絡(luò)傳遞函數(shù)的非線性,網(wǎng)絡(luò)的初始權(quán)值對網(wǎng)絡(luò)訓(xùn)練收斂快慢以及是否 容易陷入局部最小點(diǎn)都有很大關(guān)系。選擇合適的初始化權(quán)值可以節(jié)省網(wǎng)絡(luò)訓(xùn)練所需的時 間,一般將初始權(quán)值設(shè)為較小范圍的隨機(jī)數(shù),如在(-1,1)區(qū)間內(nèi)。
[0119] 4)訓(xùn)練次數(shù)
[0120] 訓(xùn)練次數(shù)并非越多越好,訓(xùn)練次數(shù)過多、時間太長可能會造成網(wǎng)絡(luò)過學(xué)習(xí)現(xiàn)象。據(jù) 研究發(fā)現(xiàn),隨著訓(xùn)練誤差的減小,泛化誤差由最初逐步減小,達(dá)到最小值后,開始逐步增加, 即出現(xiàn)了過擬合現(xiàn)象。因此在網(wǎng)絡(luò)訓(xùn)練的過程中,不能一味地追求訓(xùn)練次數(shù)增多或訓(xùn)練誤 差減小,否則很可能導(dǎo)致網(wǎng)絡(luò)的泛化能力下降。
[0121] 5)訓(xùn)練步長
[0122] 即學(xué)習(xí)速率,其大小對網(wǎng)絡(luò)學(xué)習(xí)的過程影響較大。若學(xué)習(xí)速率太小,則網(wǎng)絡(luò)訓(xùn)練自 適應(yīng)的過程緩慢,訓(xùn)練次數(shù)增加;而在流量變化強(qiáng)烈的區(qū)域,步長過大會跨過較窄的邊界 處,使訓(xùn)練出現(xiàn)振蕩。為了加速收斂過程,較好的方法是自適應(yīng)改變學(xué)習(xí)率,使其隨著誤差 和迭代次數(shù)的變化進(jìn)行修正。
[0123] 從網(wǎng)絡(luò)結(jié)構(gòu)來看,RBF只有單隱層,最常用的徑向基函數(shù)為高斯函數(shù)。只要有足夠 的隱節(jié)點(diǎn),網(wǎng)絡(luò)能夠逼近緊集上的任意連續(xù)函數(shù)。RBF隱含層的神經(jīng)元數(shù)能夠在訓(xùn)練階段自 適應(yīng)地調(diào)整,這樣應(yīng)用起來更加靈活。徑向基函數(shù)屬于局部響應(yīng)函數(shù),訓(xùn)練簡潔,這種局部 調(diào)整連接權(quán)和閾值的特性能夠加快速度,有效地避免"遺忘"數(shù)據(jù)的現(xiàn)象。
[0124] 如圖5所示,絕大多數(shù)的樣本分布在一個較小的范圍內(nèi),有個別樣本數(shù)值非常大, 超大樣本代表了瞬時突發(fā)流量,但是概率很低。L和Η曲線走勢類似,數(shù)值范圍隨時間的變化 而增長。如圖6所示,預(yù)處理后的L'形狀更光滑,和Η重合度較高,建立這兩者之間的模型更 有利于找尋規(guī)律。將L'作為網(wǎng)絡(luò)輸入,Η作為輸出,徑向基函數(shù)采用Κ-均值聚類方法,反復(fù)學(xué) 習(xí)、多次修改后得到訓(xùn)練好的網(wǎng)絡(luò)。本發(fā)明主要預(yù)測流量在未來時間段內(nèi)的變化趨勢,從訓(xùn) 練信息區(qū)得到學(xué)習(xí)所用的維數(shù)和誤差,選擇訓(xùn)練效果最佳的預(yù)測模型。在預(yù)測的時候,從預(yù) 測效果對比曲線中可以觀察預(yù)測的準(zhǔn)確率。
[0125] (4)對Η預(yù)處理得到Η',預(yù)處理的結(jié)果見圖7(a)。將Η'輸入步驟(3)的網(wǎng)絡(luò)中,就可 以得到目標(biāo)數(shù)據(jù)Τ,仿真實(shí)驗(yàn)結(jié)果見圖7(b),可以看出,超大和超小數(shù)據(jù)所占比重相對很小, 普遍數(shù)據(jù)在短時間趨向于正態(tài)分布并且變化平穩(wěn)。預(yù)測得出的數(shù)據(jù)Τ和實(shí)際該周期的數(shù)據(jù)S 對比曲線見圖8,圖8表示預(yù)測出的曲線保留了大部分信息,和實(shí)際曲線較吻合,存在一定的 誤差。從流量的變化規(guī)律來看,預(yù)測出的帶寬更能應(yīng)對瞬時突發(fā)流量。根據(jù)圖8所示,本發(fā)明 對帶寬的需求最大為290Μ。
[0126] (5)為了進(jìn)一步說明預(yù)測結(jié)果,和運(yùn)營商常用的線性算法做對比,運(yùn)營商用戶模型 如表2所示:
[0127] 表2各用戶業(yè)務(wù)模型
[0128]
[0129] 運(yùn)營商測算用戶流量=寬帶用戶數(shù)*忙時集中系數(shù)*(用戶占比*在線用戶忙時
當(dāng)前第3頁1 2 3 4 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1