亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

無線接入網(wǎng)的基帶單元池的資源分配方法和裝置與流程

文檔序號:12731409閱讀:667來源:國知局
無線接入網(wǎng)的基帶單元池的資源分配方法和裝置與流程

本發(fā)明涉及無線通信領(lǐng)域,尤其涉及云接入網(wǎng)的資源池中的資源分配。



背景技術(shù):

云接入網(wǎng)(Cloud-RAN)中的集中式處理已被認(rèn)為是未來無線通信網(wǎng)絡(luò)的重要解決方案。在最近的關(guān)于第五代無線通信技術(shù)(5G)的文獻(xiàn)中,集中處理也是一個熱門的話題。這種新型的RAN架構(gòu)的主要特點是集中式的基帶單元(BBU)池和分布式遠(yuǎn)程射頻頭(RRH)?;诩刑幚淼腞AN可以解決運(yùn)營商面臨著的許多挑戰(zhàn),如基站數(shù)量大、功耗高、資金支出和運(yùn)營支出迅速提高、基站利用率低等。

為實現(xiàn)為基于集中處理的RAN,所有的基站都對應(yīng)于相同的BBU池,以便于基站間的處理能力共享。業(yè)界的觀察表明,地理上分離的不同小區(qū)的載荷與時間的關(guān)系的相關(guān)性非常低,也即,這些小區(qū)不一定同時到達(dá)各自的峰值載荷,也不一定同時到達(dá)各自的谷值載荷。作為一個結(jié)果,在BBU池中匯總的處理資源可以在基站間共享,并可以預(yù)期相應(yīng)的收益,使得運(yùn)營商可以提供更少的處理單元(例如,CPU)以降低投入,或是關(guān)閉空閑的處理單元以減少能耗。研究表明,BBU池的增益可以達(dá)到22%以上。

BBU池可以對應(yīng)于數(shù)百個基站,這些基站通過實時虛擬化平臺實現(xiàn)相互隔離,這允許以十計甚至更多的基站同時運(yùn)行在同一臺主機(jī)上。如何組織和管理這么多的基站和如何為這些載荷實時變化的基站分配資源,是云接入網(wǎng)面臨的巨大挑戰(zhàn)。



技術(shù)實現(xiàn)要素:

本發(fā)明實施例的目的是希望能夠提供一種在資源的分配方法、裝置和 系統(tǒng),以解決尤其是云接入網(wǎng)中所存在的上述問題。

根據(jù)本發(fā)明的第一方面,提供了一種無線通信網(wǎng)絡(luò)的接入網(wǎng)中分配基帶單元池的處理資源的方法,其中,所述基帶單元池對應(yīng)于多個虛擬基站,其特征在于,所述資源的分配通過搬移載荷來實現(xiàn),所述搬移的載荷以虛擬基站為單位。

進(jìn)一步地,所述基帶單元池通過多臺主機(jī)服務(wù)于多個虛擬基站,其中,所述資源的分配包括在所述多臺主機(jī)之間搬移載荷。

進(jìn)一步地,所述基帶單元通過至少一臺主機(jī)服務(wù)于多個虛擬基站,且每臺主機(jī)具有多個處理單元,所述資源的分配包括在一臺主機(jī)的所述多個處理單元之間搬移載荷。

進(jìn)一步地,基于多點協(xié)作傳輸?shù)亩鄠€虛擬基站被安排在由同一主機(jī)的同一處理單元支持。

進(jìn)一步地,該方法包括以下各項中的至少一項:將各個主機(jī)的當(dāng)前載荷與一個第一閾值相比較,并將載荷高于所述第一閾值的主機(jī)確定為過載主機(jī);將各個主機(jī)的當(dāng)前載荷與一個第二閾值相比較,并將載荷低于所述第二閾值的主機(jī)確定為欠載主機(jī)。

進(jìn)一步地,該方法還包括:為欠載主機(jī)確定用于載荷遷移的對象主機(jī);根據(jù)載荷遷移所需的開銷,判斷從所述欠載主機(jī)將載荷遷往所述對象主機(jī),還是從所述對象主機(jī)將載荷遷往所述欠載主機(jī)。

根據(jù)本發(fā)明的第二方面,提供了一種在無線通信網(wǎng)絡(luò)的接入網(wǎng)中分配基帶單元池的處理資源的設(shè)備,其中,所述基帶單元池對應(yīng)于多個虛擬基站,其特征在于,所述設(shè)備通過搬移載荷來實現(xiàn)所述的資源分配,所述搬移的載荷以虛擬基站為單位。

進(jìn)一步地,所述基帶單元池通過多臺主機(jī)服務(wù)于多個虛擬基站,其中,所述設(shè)備包括第一單元,配置為在所述多臺主機(jī)之間搬移載荷以實現(xiàn)所述資源分配。

進(jìn)一步地,所述基帶單元池通過至少一臺主機(jī)服務(wù)于多個虛擬基站,且每臺主機(jī)具有多個處理單元,所述設(shè)備包括第二單元,所述第二單元配置為在一臺主機(jī)的所述多個處理單元之間搬移載荷以實現(xiàn)所述資源分配。

進(jìn)一步地,所述設(shè)備進(jìn)行所述資源分配使得基于多點協(xié)作傳輸?shù)亩鄠€虛擬基站被安排在由同一主機(jī)的同一處理單元支持。

進(jìn)一步地,所述第一單元配置為,執(zhí)行包括以下各項中的至少一項:將各個主機(jī)的當(dāng)前載荷與一個第一閾值相比較,并將載荷高于所述第一閾值的主機(jī)確定為過載主機(jī);將各個主機(jī)的當(dāng)前載荷與一個第二閾值相比較,并將載荷低于所述第二閾值的主機(jī)確定為欠載主機(jī)。

進(jìn)一步地,所述第一單元還配置為:為欠載主機(jī)確定用于載荷遷移的對象主機(jī);根據(jù)載荷遷移所需的開銷,判斷從所述欠載主機(jī)將載荷遷往所述對象主機(jī),還是從所述對象主機(jī)將載荷遷往所述欠載主機(jī)。

進(jìn)一步地,所述第一單元還配置為:為過載主機(jī)確定用于載荷遷移的對象主機(jī);將所述過載主機(jī)上的至少一個處理單元所上的全部載荷搬移到所述對象主機(jī)的一個處理單元上。

根據(jù)本發(fā)明的第三方面,提供了一種無線通信網(wǎng)絡(luò)中的基帶單元池,其特征在于,包括前述設(shè)備。

根據(jù)本發(fā)明的第四方面,提供了一種無線通信網(wǎng)絡(luò)中的接入網(wǎng)系統(tǒng),其特征在于,包括前述的基帶單元池。

本發(fā)明從一個新的角度出發(fā),不再拘泥于細(xì)碎資源的分配,而是換以搬移載荷,且一次搬移的載荷總是以一個虛擬基站為最小單位,也即,一次搬移一個虛擬基站或者多個虛擬基站。通過本發(fā)明,能夠更有效地組織和管理基帶單元池所對應(yīng)的大量的虛擬基站,以最合理和可行的方式為這些載荷每時每刻都在發(fā)生變化的虛擬基站分配基帶單元池的資源。

附圖說明

為了描述能獲得前述及其它本發(fā)明優(yōu)勢與特點的方法和裝置,將在以下參考具體實施例及附圖中的圖示來對上文簡述的各個方面進(jìn)行更文詳細(xì)的描述。應(yīng)當(dāng)理解,這些圖片所描述的只是本發(fā)明的典型實施例,因此不應(yīng)被認(rèn)為是對本發(fā)明的范圍的限制。

圖1為一個C-RAN的簡要示意圖。

圖2a-2b為根據(jù)本發(fā)明實施例的無線通信網(wǎng)絡(luò)的接入網(wǎng)中分配基帶單 元池的資源的設(shè)備的示意圖。

圖3為一個主機(jī)內(nèi)實現(xiàn)虛擬基站作為載荷的搬移的簡要示意圖。

圖4為根據(jù)本發(fā)明的實施例的無線協(xié)議棧的虛擬化示意圖。

圖5為根據(jù)本發(fā)明的實施例的虛擬化的無線協(xié)議棧實現(xiàn)的子組的示意圖。

圖6示出了在本發(fā)明實施例中的過載主機(jī)和欠載主機(jī)的區(qū)分。

具體實施方式

以下結(jié)合附圖對本發(fā)明的各個實施例進(jìn)行詳細(xì)描述。

圖1示出了本發(fā)明適用的一個C-RAN的簡要示意圖。其中,簡明起見僅示出了該無線接入網(wǎng)0中的5個虛擬基站2-6,這些虛擬基站分別具有遠(yuǎn)程射頻單元RRU以實現(xiàn)與基帶單元池1的互通,虛擬基站的RRU與基帶單元池之間通過光纖連接。本發(fā)明的這些和其它方面將要重點探討的就是基帶單元池1如何應(yīng)對基站2-6上的業(yè)務(wù)流量變化給基帶單元池1帶來的載荷變化,從而實現(xiàn)硬件成本、能源成本(如電力)的優(yōu)化配置。

本發(fā)明實施例提供的資源分配方案是基于這樣的背景,即,基帶單元池1所對應(yīng)的虛擬基站2-6所需要的資源是時變的,于是基帶單元池1的主機(jī)之間,和/或某個主機(jī)的處理單元的載荷有時會因此呈現(xiàn)不期望的狀態(tài)。為了更方便理解,先來了解一下這些虛擬基站的資源需求為何會有隨時間變化的特點。

虛擬基站的移動業(yè)務(wù)流量(對應(yīng)于所需的資源)具有雙重屬性:周期性和隨機(jī)性。

●周期性:移動業(yè)務(wù)流量在24小時的間隔內(nèi)會有類似周期性的變化。例如,在城市,由于辦公時間,非辦公時間等因素,可能從早9點到晚11點流量較高,而在午夜則較低。

●隨機(jī)性:本領(lǐng)域技術(shù)人員理解,一個基站的負(fù)載總是在動態(tài)變化,主要原因包括活躍用戶數(shù)的變化、用戶和信道質(zhì)量的變化以及服務(wù)數(shù)量的變化。要準(zhǔn)確預(yù)測下一個瞬間的業(yè)務(wù)流量是不可能的。傳輸時間間隔(TTI)是一毫秒,即處理載荷的變化發(fā)生在極短的 時間尺度上(以毫秒為單位),但是,在這么小的時間尺度上完成資源的動態(tài)分配是不可能的。

云接入網(wǎng)0提出的課題之一,就是如何在同一臺主機(jī)上管理和支持多個虛擬基站。業(yè)內(nèi)討論過將無線協(xié)議棧(wireless stack)為多個子任務(wù),如物理層、MAC層加速器等,在一臺機(jī)器上,處理一組虛擬基站的同樣的子任務(wù)。也即,同一虛擬基站的不同子任務(wù)可能會被分配到不同的主機(jī)上去完成。本發(fā)明的發(fā)明人發(fā)現(xiàn),這樣做存在如下問題:

●實現(xiàn)主機(jī)之間的同步非常困難:既然一個虛擬基站的任務(wù)可能分布在不同的主機(jī)上,物理層處理和MAC層之間的同步調(diào)度會很困難。如果多個基站之間部署了多點協(xié)作(Coordinated Multiple Points Transmission/Reception,CoMP),那么不同基站間的同步也是一個大問題。

●同一基站的子任務(wù)之間有大量的信令和數(shù)據(jù)交換,而在不同的主機(jī)之間的上述交換勢必造成主機(jī)間鏈路上更多的通信資源開銷,增大延遲,降低系統(tǒng)性能。

本發(fā)明的發(fā)明人所提出的資源分配方案中,以搬移載荷為體現(xiàn)方式,且搬移的載荷的基本單位是一個虛擬基站。于是,相當(dāng)于分配資源給一個基站,而不是分配給一個任務(wù)或一個用戶設(shè)備(UE),由此,可以避免上述的兩個問題。

不僅如此,本發(fā)明的實施例還體現(xiàn)了以下優(yōu)勢。由于在分配基帶單元池1中的資源時,一個虛擬基站被作為一個整體,這使得從系統(tǒng)的角度看來,每個載荷(也即,基站)所需的資源變化曲線相對平滑。這是因為,在一個虛擬基站所轄的小區(qū)內(nèi),一些用戶體驗良好的信道質(zhì)量造成的處理負(fù)荷高,其他用戶體驗差的信道質(zhì)量導(dǎo)致低的處理負(fù)荷,且不同的用戶設(shè)備使用不同的服務(wù),這些都有助于平順一個虛擬基站對處理資源的需求。但如果處理(計算)資源分配給用戶設(shè)備或子任務(wù),則巨大的載荷波動將劇烈到資源調(diào)度難以承受的地步。

因此,本發(fā)明針對性地提供需要一種合理的動態(tài)資源分配機(jī)制,根據(jù)一個實施例,提供了用于這種資源分配的設(shè)備,如圖2所示。這種資源分 配方案可以分兩層,即第一層的池資源管理(Pool Resource Manager,PRM)以及第二層的局部資源管理(Local Resource Manage,LRM)。需要指出的是,PRM和LRM可以單獨使用,也可結(jié)合使用。根據(jù)發(fā)明人所掌握的信息,或許結(jié)合使用有助于實現(xiàn)最佳的效果。在一個例子中,PRM負(fù)責(zé)處理長時的載荷變化,而LRM負(fù)責(zé)處理一臺主機(jī)內(nèi)的短時/瞬時載荷。

PRM的目的是希望進(jìn)行主機(jī)間的載荷合并,減少在閑時所使用的主機(jī)數(shù)(或稱負(fù)載收斂),從而延長主機(jī)使用壽命,降低能耗。而在繁忙時段,PRM則可以通過控制,將過載或重載的主機(jī)所服務(wù)的虛擬基站搬移到另一臺主機(jī)之下。也即,PRM的主要職能是池資源管理器的主要任務(wù)是負(fù)責(zé)主機(jī)間虛擬基站的遷移。

借助上述機(jī)制,業(yè)務(wù)流量變化在大的時間尺度和小的時間尺度都可以得到適當(dāng)?shù)奶幚?,池增?pooling gain)可以實現(xiàn),性能得以保證。

根據(jù)本例,設(shè)備20可以包含第一單元22,用于根據(jù)需要,在多臺主機(jī)之間搬移載荷。設(shè)備20還可以包含第二單元24,用于根據(jù)需要,在一臺主機(jī)內(nèi)的多個處理單元之間搬移載荷。應(yīng)當(dāng)清楚,設(shè)備20也可以只具有第一單元或者只具有第二單元,本發(fā)明并不要求兼具二者。

隨著網(wǎng)絡(luò)、計算機(jī)設(shè)備的集成化和小型化,雖然圖中示出了設(shè)備20及包含在其中的兩個功能單元,但本領(lǐng)域技術(shù)人員理解,設(shè)備20的功能可以分布于多個裝置,例如,圖2b所示的對應(yīng)于基帶單元池1的多個主機(jī)a-d之上。其中,由于第一單元22需要負(fù)責(zé)不同主機(jī)間的資源調(diào)配,因此在實現(xiàn)時,可以只在一臺主機(jī)上配置該單元,而無須在多個主機(jī)上冗余地配置,當(dāng)然,這種冗余的配置也在隨附權(quán)利要求的保護(hù)范圍之內(nèi)。

參照圖2a-2b,BBU池1具有多個強(qiáng)大的主機(jī),每臺主機(jī)的主板上通常有多個中央處理器(CPU),每個CPU帶有多個CPU核。研究顯示,一臺主機(jī)可以支持至少幾十個無線協(xié)議棧,且多個協(xié)議棧以時分的方式共享一個核。這些主機(jī)通過高速網(wǎng)絡(luò)相互連接。各個主機(jī)上的第二單元24a-24d定期將主機(jī)上各個處理單元(這里,處理單元可以指CPU,也可以指CPU上的一個核)的使用情況報告給第一單元22,第二單元22了解全局的資源使用情況。在忙時,第一單元22將這些虛擬基站以一個虛擬基站為基 本單位分布在各臺主機(jī)上,以保證性能和處理速度,而在閑時,第一單元22將這些虛擬基站合并到少量的主機(jī)上,于是空閑的主機(jī)可以關(guān)機(jī)或待機(jī)以降低能耗。

前已述及,虛擬基站的業(yè)務(wù)流量所帶來的處理載荷在24小時的時間尺度上具有周期性,而在小的時間尺度上則有隨機(jī)性。

如果一個主機(jī)的處理負(fù)荷過高,第一單元22會將該主機(jī)負(fù)責(zé)的一些虛擬基站搬移到一個載荷較低的主機(jī)上。在閑時,如果一臺主機(jī)的處理載荷很低,第一單元22可以通過控制,將這臺主機(jī)所支持的所有虛擬基站都搬移到其它主機(jī)上,而這臺主機(jī)就可以暫時關(guān)機(jī)。也即,本發(fā)明的實施例中,發(fā)明人建議進(jìn)行以虛擬基站為單位的載荷搬移,而非為一個任務(wù)增加或減少分配的時間片。

根據(jù)一個優(yōu)選實施例,由于任務(wù)的調(diào)度是以每個CPU核為基礎(chǔ)完成的,當(dāng)無線協(xié)議棧為虛擬化時,所有共享相同的CPU核的無線協(xié)議棧都必須在同一個虛擬主機(jī)中。如果他們被置于在共享CPU核的不同的虛擬機(jī)上,底層的操作系統(tǒng)將會看到多個任務(wù),并會以大于1毫秒的周期來調(diào)度這些任務(wù),將可能會導(dǎo)致無線協(xié)議棧失敗。本發(fā)明的實施例中的虛擬基站的搬移不同于虛擬化平臺和Linux系統(tǒng)傳統(tǒng)中的資源調(diào)度和分配機(jī)制,頻繁的任務(wù)切換的另一個問題是,造成不可忽視的開銷,浪費了大量的處理器時間。

第一單元22實現(xiàn)的池資源管理(PRM)的目標(biāo)是在閑時執(zhí)行主機(jī)間的載荷合并(負(fù)載收斂),以減少所用主機(jī)的數(shù)量。在忙時,第一單元22將一些虛擬基站從繁忙的主機(jī)搬移到閑置的機(jī)器。第一單元22的主要任務(wù)是進(jìn)行主機(jī)間的載荷搬移決策,載荷搬移的目標(biāo)主機(jī)的選擇,控制虛擬基站作為載荷的搬移。

第二單元24a-24d實現(xiàn)的本地資源管理(LRM)的目標(biāo)是處理瞬時載荷波動,并在主機(jī)內(nèi)的處理單元之間(例如,CPU之間,和/或CPU核)之間的負(fù)載平衡。它的主要任務(wù)是進(jìn)行主機(jī)內(nèi)的載荷搬移決策,載荷搬移的目標(biāo)處理單元的選擇,以及控制一臺主機(jī)內(nèi)部的載荷搬移。

第二單元24a-24d的工作又如圖3所示,某主機(jī)(例如圖2b所示主 機(jī)b)上的整體載荷不重,但在不同的處理單元,例如CPU核32-38之間,載荷分配不平衡,例如,核32的載荷很低,而核36的載荷又過高,因此,一些第二單元24b將本機(jī)(主機(jī)b)上原來由核36支持的虛擬基站搬移到其他核,例如載荷最低的核32,實現(xiàn)良好的整體性能。為了能夠很好地處理瞬時載荷波動,各個第二單元進(jìn)行上述載荷調(diào)度的周期短于第一單元進(jìn)行主機(jī)間的載荷調(diào)度的周期。

具體地,第二單元24a-24d分別監(jiān)控本機(jī)每個CPU核的使用情況,并定期向第一單元22報告。在忙時,如果一臺主機(jī)的處理器載荷高于一個較高的閾值,則會觸發(fā)主機(jī)間的載荷搬移。在閑時,如果一臺主機(jī)的CPU核載荷低于較低閾值,這臺主機(jī)上的所有虛擬基站將被分發(fā)給其他一些主機(jī)器,而作為遷出來源的主機(jī)則可被關(guān)閉以節(jié)能。

以下,為了更詳實地說明本發(fā)明的這些和其它方面,對無線協(xié)議棧加以介紹,其中,參照圖4-5。

使用通用處理平臺來構(gòu)建BBU池1,并實現(xiàn)簡化的L2棧。使用Linux Container(LXC)來虛擬化無線協(xié)議棧。LXC是一種新型的輕量級虛擬化技術(shù),允許在單個服務(wù)器上運(yùn)行多個獨立的虛擬系統(tǒng)。它提供了一個容器到本機(jī)系統(tǒng)和所有其他容器的完整的邏輯隔離。測試表明,LXC幾乎能夠達(dá)到原生Linux系統(tǒng)的實時性能,這對于5G中的無線接入網(wǎng)中的基帶信號處理至關(guān)重要。LXC的另一個重要優(yōu)點是,可以實現(xiàn)在不同的容器上運(yùn)行的兩個或多個進(jìn)程之間的內(nèi)存共享,而這是其他虛擬化平臺所不支持的。這一優(yōu)勢使得虛擬基站間的快速信號和數(shù)據(jù)交換成為了現(xiàn)實,大大提高了CoMP的性能。

為了保證實時性能,每一個CPU核只承載一個容器,多個無線協(xié)議棧(對應(yīng)于多個虛擬基站)運(yùn)行在該容器內(nèi),共享同一個CPU核,如圖4所示。

此外,還可以定義基站子組,如圖5所示。我們希望屬于同一子組的基站能夠被同一個CPU核所支持,以減少CoMP基站之間的數(shù)據(jù)交換所帶來的延遲。載荷允許時,多個子組也可以再共享同一個CPU核,構(gòu)成子組的基站也可以根據(jù)CoMP性能的要求而發(fā)生變化。例如,一個基站可 以之前是第一子組的成員,但在下一時刻,它又成了第二子組的成員。

圖6示出了根據(jù)本發(fā)明的過載與欠載的一種示例性區(qū)分方法。其中,定義了較高的第一閾值T1和較低的第二閾值T2,在第一閾值之上為過載,在第二閾值之下為欠載,兩個閾值之間可以視為載荷適中。根據(jù)本發(fā)明的一個實施例,只有過載主機(jī)和欠載主機(jī)的載荷需要考慮被調(diào)節(jié)。

以下結(jié)合幾個具體的例子,來說明本發(fā)明主旨下的載荷搬移。其中將涉及主機(jī)間和主機(jī)內(nèi)的搬移。以下說明參照圖2a-2b

例1.因欠載主機(jī)觸發(fā)的主機(jī)間的載荷搬移

基于從各個第二單元24a-d獲得的各主機(jī)a-d的CPU使用情況報告,第一單元22將每個主機(jī)的處理負(fù)荷與第一閾值和第二閾值進(jìn)行比較。假定所有主機(jī)具有相同的處理能力。如果主機(jī)a欠載,則可以為主機(jī)a尋找一個對象主機(jī),這個對象主機(jī)優(yōu)選地可以實現(xiàn)以下目的:

即,主機(jī)a的每個核上的現(xiàn)有全部載荷,都能夠移到對象主機(jī)的某一個核上。主機(jī)a的這些核上的現(xiàn)有載荷可以移到對象主機(jī)的一個或多個核上,但優(yōu)選保證原來在一個核上的虛擬主機(jī),在搬移后依然在一個核上。

確定了對象主機(jī),例如主機(jī)b,第一單元22可以決定將主機(jī)a上的所有虛擬基站搬移到主機(jī)b的某一個或幾個核上,或者將主機(jī)b上的所有虛擬基站搬移到主機(jī)a,這取決于兩個方向分別所需要的搬移成本,一般,搬移成本可以是搬出主機(jī)上的虛擬基站數(shù),或是搬出主機(jī)上的所有基站的總的載荷需求。當(dāng)從主機(jī)b向主機(jī)a搬移虛擬基站時,也可以考慮將在主機(jī)b的同一核上的虛擬基站搬移到主機(jī)a的同一個核上。當(dāng)然,本領(lǐng)域技術(shù)人員也可以對這種細(xì)化的分配方案加以調(diào)整,且這些變化例仍在本申請隨附的權(quán)利要求書定義的保護(hù)范圍之內(nèi)。

如果第一單元22保存了各個主機(jī)及各個核的載荷信息,那么在完成上述的載荷搬移后,優(yōu)選地,第一單元22還更新保存的相應(yīng)主機(jī)及其各核的載荷信息。

在第一單元22完成了主機(jī)間的搬移后,第二單元還可以根據(jù)需要進(jìn)行處理單元例如核之間的載荷再分配,使得一個主機(jī)上盡可能多的核參與載荷分擔(dān)

在例1中,如果沒能找到滿足前述條件的基站,則確定將主機(jī)a上的載荷搬移到多個其它主機(jī)上。優(yōu)選地,在搬移后,原來在主機(jī)a的一個核上的多個基戰(zhàn)還會在目的主機(jī)的一個核上。

如果第一單元22保存了各個主機(jī)及各個核的載荷信息,那么在完成上述的載荷搬移后,優(yōu)選地,第一單元22還更新保存的相應(yīng)主機(jī)及其各核的載荷信息。在第一單元22完成了主機(jī)間的搬移后,第二單元還可以根據(jù)需要進(jìn)行處理單元例如核之間的載荷再分配,使得一個主機(jī)上盡可能多的核參與載荷分擔(dān)

例2.因過載主機(jī)觸發(fā)的主機(jī)間的載荷搬移

基于從各個第二單元24a-d獲得的各主機(jī)a-d的CPU使用情況報告,第一單元22將每個主機(jī)的處理負(fù)荷與第一閾值和第二閾值進(jìn)行比較。假定所有主機(jī)具有相同的處理能力。如果主機(jī)c過載,那么需要將其上的一些虛擬基站搬移到其它主機(jī)。由于工作在CoMP模式下的多個基站在主機(jī)c上位于同一個核,那么,在搬移后,優(yōu)選地它們還將在目的主機(jī)的同一個核上以保證CoMP的性能。在第一單元22完成了主機(jī)間的搬移后,第二單元還可以根據(jù)需要進(jìn)行處理單元例如核之間的載荷再分配,使得一個主機(jī)上盡可能多的核參與載荷分擔(dān)。

從過載主機(jī)c搬出載荷的過程簡述如下:

首先,計算主機(jī)c的載荷與第一閾值之間的差值。

接著,找出主機(jī)c上的所有載荷高于該差值的核,并從中比較出載荷最小的一個核,假設(shè)其載荷為Lm

然后,在其它在使用的主機(jī)上找出可以接收載荷Lm的核,該查找過程可以基于Best-Fit/First-Fit算法。

如果找到了其它主機(jī)上有這樣的核,則將Lm搬移到找到的核上,并更新存儲了的相應(yīng)主機(jī)和核的載荷信息。優(yōu)選地,還由主機(jī)c上的第二單 元24c來進(jìn)行本地的核之間的載荷再分配,例如,從其中當(dāng)前載荷較高的一個或多個核向載荷較低的一個或多個核遷出載荷。

如果沒有在其它主機(jī)上找到能夠容納Lm的核,則啟動一個處于關(guān)機(jī)或休眠狀態(tài)的主機(jī),并將Lm搬移到該主機(jī)。并更新相關(guān)主機(jī)和核的載荷信息。

例3.前已述及的在一個主機(jī)的不同處理單元之間搬移載荷的過程將在本例中進(jìn)行進(jìn)一步的介紹

不失一般性地,為了在一個主機(jī)內(nèi)平衡載荷,第二單元可以從具有最高載荷的核選出虛擬基站并將其搬移到載荷最低的一個核上。當(dāng)然,優(yōu)選地,在上述搬移中,屬于同一子組的虛擬基站可以一起搬移以保證它們始終對應(yīng)于一個核,保證CoMP的性能

具體地,主機(jī)(例如主機(jī)d)獲得本主機(jī)上所有核的載荷信息,并計算平均值。

接著,確定其中載荷最高的核,以及其上的子組列表。

確定其中載荷最低的核,以及其上的子組列表。

計算填充載荷最低的核所需要的額外的載荷,具體可以用該平均值減去該核的載荷所得的差值gap。

計算載荷最高的核上的各個子組對應(yīng)的載荷LSub與gap之間差值的絕對值x。

確定載荷最高的那個核上的各個子組中得到最小x值的那個子組。

將載荷最高的核上的x值最小的那個子組中的虛擬基站搬移到載荷最低的那個核上。

更新兩個核的載荷信息。

在本發(fā)明所提供的幾個實施例中,應(yīng)該理解到,所揭露的系統(tǒng)和方法,可以通過其它的方式實現(xiàn)。例如,以上所描述的系統(tǒng)實施例僅僅是示意性的,例如,各個功能單元的劃分,可以僅為邏輯功能劃分,實際實現(xiàn)時可以有另外的劃分方式。

所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位于一個地方,或者也可以分布到多個網(wǎng)絡(luò)單元上??梢愿鶕?jù)實際的需要選擇其中的部分或者全部單元來實現(xiàn)本實施例方案的目的。

另外,在本發(fā)明各個實施例中的各功能單元可以集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。上述集成的單元既可以采用硬件的形式實現(xiàn),也可以采用硬件加軟件功能單元的形式實現(xiàn)。

以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所做的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明保護(hù)的范圍之內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1