亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

減少ason分層網(wǎng)絡拓撲抽象中信息失真的一種方法

文檔序號:7600283閱讀:115來源:國知局
專利名稱:減少ason分層網(wǎng)絡拓撲抽象中信息失真的一種方法
技術(shù)領域
本發(fā)明涉及光通信領域,尤其是一種減少ASON分層網(wǎng)絡拓撲抽象中信息失真的方法。
背景技術(shù)
隨著IP業(yè)務的爆炸式增長,不僅對網(wǎng)絡帶寬的需求愈來愈高,而且由于IP業(yè)務與傳統(tǒng)話音業(yè)務相比本身具有的不確定性和不可預見性,也要求網(wǎng)絡具有動態(tài)選擇和建立路由的能力。在這種情況下,在基于波分復用(WDMWavelength Division Multiplexing)技術(shù)的光傳送網(wǎng)(OTNOptical Transport Network)上增加自動交換能力的自動交換光網(wǎng)絡(ASONAutomatic Switched Optical Network)應運而生。
ASON的一大優(yōu)勢在于其能夠通過控制平面進行動態(tài)分布式的QoS(Quality of Service)路由功能。QoS路由的目標是為某一個業(yè)務請求選擇一條能夠滿足其QoS要求或約束的“可行”路由。由于QoS路由功能要求對動態(tài)的網(wǎng)絡狀態(tài)信息進行頻繁更新,所以ASON路由協(xié)議應具有良好的可擴展性以適應大規(guī)模網(wǎng)絡的要求。為此,ASON標準特別建議其應由一系列層次包含的路由域(Routing Area)組成。每一個路由域的拓撲信息被加以抽象并發(fā)布到網(wǎng)絡中的其他路由域。這樣,每個路由域只維護自身的詳細拓撲以及其他域的抽象拓撲,從而大大減少了網(wǎng)絡中需要存儲和發(fā)布的信息量。然而,由于抽象的拓撲信息往往不夠準確,從而導致根據(jù)此信息選擇的“可行”路由實際上并不能滿足QoS約束。一個好的拓撲抽象算法試圖在兩者之間找到最佳平衡點。
拓撲抽象過程通常包含兩個步驟。第一步是必須的,稱做“全連通圖構(gòu)建”。在此步驟中,在每對邊界節(jié)點之間構(gòu)建一條邏輯鏈路,從而形成一個全連通圖抽象拓撲。根據(jù)不同的QoS路由算法,每條邏輯鏈路與一個或多個QoS參數(shù)相關(guān)聯(lián)。QoS參數(shù)可以是加性的,如延時和物理層損傷;也可以是限制性的,如帶寬。這些參數(shù)從原拓撲上邊界節(jié)點間的路徑的QoS參數(shù)得到。第二步是可選的,稱作“全連通圖壓縮”。在此步驟中,全連通圖拓撲可以進一步被壓縮為一個更加稀疏的拓撲結(jié)構(gòu),如樹型或星型。經(jīng)過抽象的拓撲及其相應的QoS參數(shù)就可以被發(fā)布到其他路由域。如果在某一路由域內(nèi)的一個節(jié)點接收到另一個路由域的樹型或星型拓撲,它需要首先將此拓撲解碼為全連通圖版本,才能在此拓撲上進行路由選擇。
在波長路由的光網(wǎng)絡中,由于波長的帶寬顆粒度較大,業(yè)務請求的帶寬要求通常為一個單位(一條光路)。這個特點消除了第一步引入的失真。在構(gòu)造邏輯鏈路時,將對應的邊界節(jié)點之間的所有光路徑的最小延時與其相關(guān)聯(lián)。在路由選擇時,如果在抽象拓撲上存在一條最短路徑,則其一定符合帶寬要求。如果此最短路也滿足延時要求,則其為一條“可行”路由。否則,該業(yè)務請求被阻塞。
由于在全連通圖抽象中存在O(|B|2)個邏輯鏈路(|B|表示一個域的邊界節(jié)點數(shù)),而在樹型和星型抽象中只有O(|B|)個邏輯鏈路或更少,因此在此編碼過程中很可能丟失一些信息。文獻[W.C.Lee,“Spanning tree method for link state aggregation in large communication networks,”Proc.IEEE INFORCOM,pp.297-302,2-6 April,1995.]顯示使用生成樹算法來表示一個域?qū)ο拗菩詤?shù)不會失真,而對加性參數(shù)來說就可能產(chǎn)生失真。文獻[W.C.Lee,“Minimum equivalent subspanner algorithms for topology aggregation inATM networks,”Proc.2nd Int.Conf.on ATM(ICATM),pp.351-359,21-23 June,1999.]提出一種算法可以得到最小加性參數(shù)無失真表示。然而,這樣得到的表示在某些情況下可能需要O(|B|2)個邏輯鏈路。

發(fā)明內(nèi)容
本發(fā)明的目的在于針對具有兩個QoS約束延時和帶寬的ASON網(wǎng)絡中的拓撲抽象問題,提出一種單點逼近方法來減少ASON中由于拓撲抽象產(chǎn)生的延時參數(shù)失真,采用本發(fā)明方法后抽象拓撲的空間復雜度仍為O(|B|),并同時最大化信息準確性。雖然本發(fā)明以時延參數(shù)為例,但此方法可以用于減少任何加性QoS參數(shù)的失真。
抽象模型用一個三維向量(V,B,E)表示一個網(wǎng)絡,其中V為域內(nèi)節(jié)點集合,BV為邊界節(jié)點集合,E為連接V中節(jié)點的雙向鏈路。此域的全連通圖抽象用(B,Lm)表示,其中Lm為每對邊界節(jié)點之間的邏輯鏈路。每條邏輯鏈路都存在一個對應的延時參數(shù)。此參數(shù)值等于邏輯鏈路邊界節(jié)點之間所有光路徑的延時值的最小值。
下一步,此帶有O(|B|2)邏輯鏈路的全連通圖抽象將被壓縮為帶有O(|B|)邏輯鏈路的最小生成樹。用(B,Lt)表示此生成樹,其中Lt為邏輯鏈路集合。由于LtLm,用Lm-t表示Lm-Lt中的邏輯鏈路集合。集合Lm的基數(shù)為|B|(|B|-1)/2,Lt的基數(shù)為|B|-1,Lm-t的基數(shù)為1/2|B|2-3/2|B|+1。當解碼時,邏輯鏈路li∈Lt的延時值可以直接從生成樹表示中得到,而邏輯鏈路li∈Lm-t的延時值則較難得到。根據(jù)最小生成樹的性質(zhì)可以推出,最小生成樹表示上任意兩節(jié)點之間存在唯一一條路徑,此路徑上的每條邏輯鏈路的延時值都不能大于全連通圖表示中連接此兩節(jié)點間的邏輯鏈路的延時值。例如,如果圖1所示為從全連通圖表示中得來得最小生成樹,則有d≥max(a,b,c)。另一方面,由于全連通圖表示中的延時值是從原拓撲中計算最小延時值得到的,因此最小生成樹上任何兩個節(jié)點之間的唯一路徑的總延時值不能小于全連通圖表示中連接此兩節(jié)點的邏輯鏈路的延時值。即,d≤∑(a,b,c)。
定理1對于任何邏輯鏈路li∈Lm-t,此鏈路的延時值li.d滿足如下不等式maxlj.d≤li.d≤∑lj.d,lj∈Pi.
(1)其中Pi為邏輯鏈路li的端節(jié)點在最小生成樹上的唯一路徑。
當將樹解碼為全連通圖時,可以如文獻[W.C.Lee,“Spanning tree method for link stateaggregation in large communication networks,”Proc.IEEE INFORCOM,pp.297-302,2-6 April,1995.]提出,將邏輯鏈路li∈Lm-t的延時值的上界或下界作為估計的延時值。然而,此方法將引入失真。
本發(fā)明提出一種得到邏輯鏈路li∈Lm-t的延時值的新方法----單點逼近方法用li.d.l代表鏈路li延時值的下限,li.d.u代表上限,li.d.a代表真實值,li.d.e.代表估計值。某一業(yè)務請求的延時約束表示為s.d,為此請求在抽象拓撲上選擇的具有最小延時的光路徑表示為P。如果如下限解碼時可能發(fā)生的那樣,有Σli∈Pli.d.e<s.d<Σli∈Pli.d.a,]]>則業(yè)務請求會被源節(jié)點接受,但在信令過程中發(fā)現(xiàn)并不可行而最終被拒絕,即誤接受。另一方面,如果如上限解碼時可能發(fā)生的那樣,有Σli∈Pli.d.a<s.d<Σli∈Pli.d.e,]]>則業(yè)務請求實際上可以被支持,卻被源節(jié)點拒絕,即誤拒絕。為了減少誤接受和誤拒絕的發(fā)生,li.d.e的值應盡量與li.d.a的值接近。因此,逼近方法的目標為最小化li.d.e的均方誤差 ϵ2‾=1|Lm-t|Σli∈Lm-t|li.d.a-li.d.e|2]]>
(2)在下限和上限解碼中,li.d.e分別等于li.d.l和li.d.u。為了改進這些解碼方法的性能,在編碼時需要加入附加的信息。由于li.d.a∈(li.d.l,li.d.u),定義一個邏輯鏈路li的分點(li.dp)為li.dp=li.d.a-li.d.lli.d.u-li.d.l---(3)]]>一個域中存在|Lm-t|=1/2|B|2-3/2|B|+1個分點。本發(fā)明提出將這些分點的信息編碼并與最小生成樹表示一起發(fā)布到網(wǎng)絡的其他各個域中。在解碼過程中,得到這些分點的估計值(li.dp′)。這樣,li.d.e的值可通過如下公式得到li.d.e=li.d.l+li.dp′×(li.d.u-li.d.l)(4)在本發(fā)明提出的方法中,li.dp的逼近算法在決定抽象過程的性能時起到了至關(guān)重要的作用。它既需要將發(fā)布的信息的空間復雜度限制在O(|B|),又需要盡可能準確的表示|Lm-t|個li.dp的值。
在單點逼近中,|Lm-t|個分點由一個值l.dp′近似。事實上,l.dp′在下限解碼中等于0,而在上限解碼中等于1。然而,無論0還是1都不是最小化 的最優(yōu)值。結(jié)合(2)和(4),得到ϵ2‾=1|Lm-t|Σli∈Lm-t|li.d.a-(li.d.l+l.dp′×(li.d.u-li.d.i)|2---(5)]]>為了最小化 使dϵ2‾d(l.dp′)=0---(6)]]>通過解方程(6),可以得到l.dp′的值為l.dp′=Σli∈Lm-t(li.d.a-li.d.l)Σli∈Lm-t(li.d.u-li.d.l)---(7)]]>綜上所述,本發(fā)明提出的單點逼近方法具體步驟如下1將本域拓撲的全連通圖表示壓縮抽象為最小生成樹表示。
2利用公式l.dp′=Σli∈Lm-t(li.d.a-lid.l)(li.d.u-li.d.l)Σli∈Lm-t(li.d.u-li.d.l)2]]>
計算編碼后的分點值。
3將壓縮后的生成樹表示以及編碼后的分點值發(fā)布給網(wǎng)絡,其附加占用的空間為一個浮點數(shù)。
4將編碼后的分點值l.dp′作為每條鏈路的分點估計值li.dp′,利用公式li.d.e=li.d.l+li.dp′×(li.d.u-li.d.l)將生成樹表示解碼還原為全連通圖表示。
由于采用上述方法,本發(fā)明具有如下優(yōu)點本發(fā)明研究了分層ASON網(wǎng)絡中的拓撲抽象問題,并提出一個最小化時延參數(shù)失真的新方法----單點逼近算法SP。在SP中,只需要在生成樹的基礎上增加一個浮點數(shù)。本發(fā)明方法將空間復雜度限制在O(|B|)。仿真結(jié)果顯示其性能都大大優(yōu)于傳統(tǒng)的上限或下限解碼。


圖1為最小生成樹2為分層網(wǎng)絡示意3a為全連通3b為最小生成樹圖4為傳統(tǒng)生成樹拓撲抽象流程5為改進的拓撲抽象方法流程6為平均時延方差vs.時延約束圖7為誤(拒絕+接受)數(shù)vs.時延約束具體實施方式
在如圖2所示的網(wǎng)絡中,假設存在兩個域,域A和域B。每個域中有一個指定的組長A.1和B.1,負責將本域的拓撲信息進行抽象,并發(fā)布到其他的域中。節(jié)點a,b,c,d為域A的邊界節(jié)點,A.1在進行拓撲抽象時,首先將域A的拓撲抽象為關(guān)于此四個邊界節(jié)點的全連通圖,即“全連通構(gòu)建”,如圖3a所示。其中,每條鏈路上標明的數(shù)字為此鏈路對應的時延值,該時延值等于鏈路對應的兩個邊界節(jié)點在原拓撲上最小時延光路徑的時延值。接下來進行“全連通壓縮”。如果采用傳統(tǒng)的生成樹拓撲抽象方法,則流程如下對應上面的例子,即步驟1A.1將圖3(a)所示的全連通圖抽象為圖3(b)所示的最小生成樹。
步驟2將圖3(b)所示的最小生成樹表示發(fā)布給B.1。
步驟3B.1在接收到生成樹表示后,將其解碼還原為全連通圖表示。即,根據(jù)生成樹表示中鏈路a-d,d-c,c-b的時延值估計出鏈路a-c,a-b,以及d-b的時延值。如果采用上限估計法,則鏈路a-c,a-b,以及d-b的時延值分別為(1+1.5=2.5),(1+1.5+2=4.5),(1.5+2=3.5)。如果采用下限估計法,則此三條鏈路的時延值分別為(max(1,1.5)=1.5),(max(1,1.5,2)=2),(max(1.5,2)=2)。
采用本發(fā)明改進的拓撲抽象方法,對應上面的例子,采用單點逼近算法,則流程如下步驟1A.1將圖3(a)所示的全連通圖抽象為圖3(b)所示的最小生成樹。
步驟2利用公式(7)計算壓縮后的分點值為((2-1.5)+(2.5-2)+(3-2))((2.5-1.5)+(4.5-2)+(3.5-2))=0.4]]>步驟3將圖3(b)所示的最小生成樹表示以及壓縮后的分點值發(fā)布給B.1。
步驟4B.1在接收到生成樹表示及壓縮后的分點值后,將其解碼還原為全連通圖表示。即,根據(jù)生成樹表示中鏈路a-d,d-c,c-b的時延值以及壓縮后的分點值,通過公式(4)估計出鏈路a-c,a-b,以及d-b的時延值。則鏈路a-c,a-b,以及d-b的時延值分別為(1.5+0.4×1=1.9),(2+0.4×2.5=3),(2+0.4×1.5=2.6)。
將上例中采用三種不同方法后(上限解碼,下限解碼以及本發(fā)明提出的方法)各條鏈路產(chǎn)生的失真情況進行比較,不難看出本發(fā)明提出的方法所產(chǎn)生的參數(shù)失真最小。
表1采用各種方法后的參數(shù)失真情況

通過本發(fā)明提出的方法,可以有效的減少拓撲抽象后各鏈路時延參數(shù)的失真,從而減少對業(yè)務請求的誤拒絕與誤接受數(shù)。例如,如果網(wǎng)絡中某一業(yè)務請求要經(jīng)過域A的邊界節(jié)點a和b,且要求a和b之間的時延值不能超過3.2。由于a和b之間的實際時延值為2.5,故可以滿足要求。如果采用本文的方法,則a和b之間的時延值被估計為3,雖然高于實際的時延值,但仍然可以滿足此業(yè)務請求。然而,如果采用上限解碼,則a和b之間的時延值被估計為4.5,從而誤認為不能滿足要求,而拒絕該業(yè)務。
具體性能比較如下本發(fā)明通過仿真比較各種逼近算法的性能。比較的算法有單點逼近(SP)及保守的上限解碼(UB)和激進的下限解碼(LB)。比較的性能指標有平均時延方差(m.d.d.),和誤(拒絕+接受)數(shù)(w.(r.+a.)n.)。
時延方差測量一條光路徑的實際時延和估計時延之間的差別。由于抽象產(chǎn)生的失真,估計的時延可能大于或小于實際的時延,導致誤拒絕和誤接受的發(fā)生。平均時延方差計算所有滿足帶寬約束的業(yè)務請求的平均時延方差值。
本發(fā)明測量所有業(yè)務請求到達網(wǎng)絡后的誤拒絕和誤接受數(shù),并將兩者相加以比較三種方法的綜合性能。
本發(fā)明使用的拓撲是隨機生成的300節(jié)點網(wǎng)絡。網(wǎng)絡中包含在5個域,且每個域包含60個節(jié)點。每個域中隨機選擇10%的節(jié)點作為邊界節(jié)點。域內(nèi)節(jié)點度在2到4之間,域間節(jié)點度在1到3之間。每個鏈路的延時值為一個1到5的隨機數(shù)。我們假設每條鏈路有一對單向光纖組成,每條光纖上存在兩條波長。網(wǎng)絡的連接到達率為泊松分布,連接持續(xù)時間為指數(shù)分布。將業(yè)務請求的時延約束從20以步長為5的速度增加到60進行仿真。
每個數(shù)據(jù)點是1600個隨機產(chǎn)生的業(yè)務請求的平均值。具體來講,給出一個時延約束,隨機產(chǎn)生4個拓撲。在每個拓撲上,產(chǎn)生400個隨機選取源節(jié)點和目的節(jié)點的業(yè)務請求。分別運行三個算法。
不同算法的平均時延方差如圖7所示。橫軸代表時延約束。仿真結(jié)果顯示本發(fā)明提出的SP方法的m.d.d.都遠遠小于UB和LB。另外,從圖中可以看出LB的m.d.d小于UB。此結(jié)果表示下限比上限更接近實際的時延值。此結(jié)果是合理的。由于一個域內(nèi)的各個邊界節(jié)點之間的最小時延值不會相差太大,所以圖1中max(a,b,c)的值比∑(a,b,c)的值更可能接近d的值。
對于一個好的抽象算法,由于失真引起的誤接受和誤拒絕的總數(shù)應該盡可能小。因此,本發(fā)明比較各種算法的w.r.n+w.a.n,結(jié)果如圖10所示(w.r.n.+w.a.n.)都遠遠小于UB和LB,這與平均時延方差的結(jié)果一致。
權(quán)利要求
1.一種減少ASON中拓撲抽象引起的加性參數(shù)失真的方法,包括以下步驟(1)將本域拓撲的全連通圖表示壓縮抽象為最小生成樹表示;(2)利用公式l.dp′=Σli∈Lm-t(li.d.a-li.d.l)×(li.d.u-li.d.l)Σli∈Lm-t(li.d.u-li.d.l)2]]>計算編碼后的分點值;(3)將壓縮后的生成樹表示以及編碼后的分點值發(fā)布給網(wǎng)絡,其附加占用的空間為一個浮點數(shù);(4)將編碼后的分點值l.dp′作為每條鏈路的分點估計值li.dp′,利用公式li.d.e=li.d.l+li.dp′×(li.d.u-li.d.l)將生成樹表示解碼還原為全連通圖表示。
2.根據(jù)權(quán)利要求1所述的減少ASON中拓撲抽象引起的加性參數(shù)失真的方法,其特征在于li.d.l代表鏈路li延時值的下限,li.d.u代表上限,li.d.a代表真實值,li.d.e代表估計值。
全文摘要
本發(fā)明涉及光通信領域,尤其是一種減少ASON分層網(wǎng)絡拓撲抽象中信息失真的方法。本發(fā)明針對ASON網(wǎng)絡中的拓撲抽象問題,提出一個最小化加性參數(shù)失真的新方法,即單點逼近方法SP。在SP中,只需要在拓撲的生成樹表示基礎上增加一個浮點數(shù),從而可將抽象后拓撲的空間復雜度限制為O(|B|),其中B為路由域邊界節(jié)點的集合。仿真結(jié)果顯示本發(fā)明的性能大大優(yōu)于傳統(tǒng)的生成樹上限或下限解碼,可有效減少拓撲抽象后各鏈路加性參數(shù)的失真,從而減少對業(yè)務請求的誤拒絕與誤接受。
文檔編號H04L12/24GK1787418SQ20041009689
公開日2006年6月14日 申請日期2004年12月10日 優(yōu)先權(quán)日2004年12月10日
發(fā)明者紀越峰, 雷蕾, 陸月明 申請人:北京郵電大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1