專利名稱:云計算實現(xiàn)方法和系統(tǒng)的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及計算機技術(shù),尤其是涉及一種云計算實現(xiàn)方法和系統(tǒng)。
背景技術(shù):
傳統(tǒng)的云計算實現(xiàn)方法和系統(tǒng),通過對多臺物理服務(wù)器進行虛擬化,在物理服務(wù)器上建立虛擬機,從而實現(xiàn)云計算。在傳統(tǒng)的云計算系統(tǒng)中各個虛擬機分別實現(xiàn)不同的功能,不同虛擬機上配置的操作系統(tǒng)和應(yīng)用程序也通常不同,多個虛擬機配合工作實現(xiàn)相應(yīng)的功能。由于各個虛擬機分別實現(xiàn)不同的功能,不同虛擬機上配置的操作系統(tǒng)和應(yīng)用程序也通常不同,所以傳統(tǒng)的云計算系統(tǒng),當系統(tǒng)中的任一虛擬機出現(xiàn)故障時,會影響整個系統(tǒng)的運行,造成業(yè)務(wù)停頓,甚至導(dǎo)致系統(tǒng)的崩潰。例如,Linux操作系統(tǒng)及第三擴展文件系統(tǒng)(ext3)廣泛應(yīng)用于云計算系統(tǒng)。在傳統(tǒng)Linux操作系統(tǒng)中,當文件系統(tǒng)代碼嘗試去寫出關(guān)鍵數(shù)據(jù),存儲層報告錯誤時系統(tǒng)的過度負載,ext3代碼的一個預(yù)讀優(yōu)化的機制能被觸發(fā)從存儲層發(fā)生一個不可恢復(fù)的錯誤。當出現(xiàn)這種情況后,業(yè)務(wù)系統(tǒng)將無法寫入數(shù)據(jù),Linux操作系統(tǒng)必須重啟進行文件系統(tǒng)檢查 (file system check, fsck)修復(fù)以檢查文件系統(tǒng)完整性,這時,文件系統(tǒng)就改變成只讀狀態(tài)以避免更大的毀壞。但是,由于ext3文件系統(tǒng)的另一個自身設(shè)計原因,fsck必須同時比對日志文件 (journal)和原數(shù)據(jù)(meta-data),因此造成文件系統(tǒng)完整性檢查時間無法預(yù)計,并且文件系統(tǒng)越大,數(shù)據(jù)量越大,該情況越嚴重,fsck檢查時間可能數(shù)小時、數(shù)天、甚至數(shù)周。而傳統(tǒng)的云計算系統(tǒng)中的Linux操作系統(tǒng),也只實現(xiàn)了 Linux操作系統(tǒng)從物理服務(wù)器到虛擬化平臺的轉(zhuǎn)換,但是沒有改變ext3文件系統(tǒng)本身固有的特性和缺陷,當系統(tǒng)中任一虛擬機出現(xiàn)文件系統(tǒng)只讀的情況,即該虛擬機上發(fā)生故障時,會影響整個系統(tǒng)的運行, 造成業(yè)務(wù)停頓,甚至導(dǎo)致系統(tǒng)的崩潰。
發(fā)明內(nèi)容
本發(fā)明要解決的技術(shù)問題是能夠避免單個虛擬機節(jié)點的故障對整個云計算平臺造成影響,保證業(yè)務(wù)的通暢,提高用戶體驗和整個系統(tǒng)的性能。為解決上述技術(shù)問題,本發(fā)明提供了一種云計算實現(xiàn)方法,采用的技術(shù)方案是一 .在H臺物理服務(wù)器上安裝相同的虛擬化平臺軟件,H為大于等于3的整數(shù),各臺物理服務(wù)器間網(wǎng)絡(luò)連接;二.運行所述H臺物理服務(wù)器上的虛擬化平臺軟件,在各臺物理服務(wù)器上分別虛擬化成一個或多個虛擬機,在各虛擬機里分別部署相同的客戶機操作系統(tǒng);各物理服務(wù)器分別設(shè)置共享系統(tǒng)資源,同一個物理服務(wù)器上的各個虛擬機共享該物理服務(wù)器的共享系統(tǒng)資源;三.安裝管理中心,并將所述H臺各物理服務(wù)器上的虛擬化平臺軟件全部加入到管理中心里并接受管理;四.在所述H臺物理服務(wù)器上的各虛擬機上部署故障監(jiān)控模塊,所述故障監(jiān)控模塊用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障時,自動將該虛擬機關(guān)閉,并將故障信息上報所述管理中心;所述H臺物理服務(wù)器中的M臺物理服務(wù)器作為主物理服務(wù)器,所述主物理服務(wù)器上的E個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的中間件作為主中間件虛擬機,另外 F個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的數(shù)據(jù)庫軟件作為主數(shù)據(jù)庫虛擬機,2 <M < H,E、F大于等于2且E+F小于等于在所述M臺主物理服務(wù)器上的虛擬機的個數(shù);所述H臺物理服務(wù)器中的另外N臺物理服務(wù)器作為備物理服務(wù)器,所述備物理服務(wù)器中的C個虛擬機的客戶機操作系統(tǒng)上分別安裝與主中間件虛擬機相同的中間件作為備中間件虛擬機,另外D個虛擬機的客戶機操作系統(tǒng)上分別安裝與主數(shù)據(jù)庫虛擬機相同的數(shù)據(jù)庫軟件作為備數(shù)據(jù)庫虛擬機,N = H-M, C、D大于等于1且C+D小于等于在所述N臺備物理服務(wù)器上的虛擬機的個數(shù);五·配置管理中心,使所述M臺主物理服務(wù)器上的主中間件虛擬機及主數(shù)據(jù)庫虛擬機配置成主服務(wù)器集群;所述N臺備物理服務(wù)器上的備中間件虛擬機及備數(shù)據(jù)庫虛擬機配置成備服務(wù)器集群;所述管理中心接收到主服務(wù)器集群中的一虛擬機上的故障監(jiān)控模塊上報的故障信息后,將對該發(fā)生故障的虛擬機的訪問請求遷移至主服務(wù)器集群中的類型相同的運行正常一虛擬機;若主服務(wù)器集群中不存在類型相同的運行正常的虛擬機,則將對該發(fā)生故障的虛擬機的訪問請求遷移至備服務(wù)器集群中的類型相同的運行正常一虛擬機;類型相同是指同為中間件虛擬機或同為數(shù)據(jù)庫虛擬機。所述M臺主物理服務(wù)器上的E個主中間件虛擬機通過中間件配置成主負載均衡集群;配置成主負載均衡集群的各主中間件虛擬機上的中間件,根據(jù)各主中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同主中間件虛擬機進行調(diào)度操作的遷移;所述N臺備物理服務(wù)器上的C個備中間件虛擬機通過中間件配置成備負載均衡集群;配置成備負載均衡集群的各備中間件虛擬機上的中間件,根據(jù)各備中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同備中間件虛擬機進行調(diào)度操作的遷移;所述M臺主物理服務(wù)器上的F個主數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成主實時應(yīng)用集群,共用主數(shù)據(jù)庫;配置成主實時應(yīng)用集群的各主數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件, 根據(jù)各主數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各主數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;所述N臺備物理服務(wù)器上的D個備數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成備實時應(yīng)用集群,共用備數(shù)據(jù)庫;配置成備實時應(yīng)用集群的各備數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件, 根據(jù)各備數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各備數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;在主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件,配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中。所述H臺物理服務(wù)器具有相同CPU平臺和內(nèi)核微碼,所述各中間件虛擬機上設(shè)置相同的應(yīng)用程序。
所述管理中心安裝在所述H臺物理服務(wù)器的一虛擬機上,或者安裝在另一獨立的物理服務(wù)器上。所述管理中心,當監(jiān)測到一個物理服務(wù)器上的任一虛擬機的應(yīng)用負載大于負載閾值時,從該虛擬機所屬的物理服務(wù)器的共享系統(tǒng)資源中為該虛擬機分配所需系統(tǒng)資源;當監(jiān)測到一物理服務(wù)器上任一虛擬機對資源的要求大于該物理服務(wù)器的共享系統(tǒng)資源時,將對該虛擬機的訪問請求遷移至能夠滿足資源要求的另一物理服務(wù)器上的類型相同的運行正常的一虛擬機。為解決上述技術(shù)問題,本發(fā)明還提供了一種云計算系統(tǒng),其采用的技術(shù)方案是,包括H臺物理服務(wù)器、一管理中心,所述H臺物理服務(wù)器及管理中心通過網(wǎng)絡(luò)連接,H為大于等于3的整數(shù);所述H臺物理服務(wù)器安裝相同的虛擬化平臺軟件,所述H臺物理服務(wù)器各自分別設(shè)置共享系統(tǒng)資源,所述H臺物理服務(wù)器各自通過運行所述虛擬化平臺軟件分別虛擬化成一個或多個虛擬機;同一個物理服務(wù)器上的各個虛擬機共享該物理服務(wù)器的共享系統(tǒng)資源;所述各虛擬機上分別部署相同的客戶機操作系統(tǒng)、故障監(jiān)控模塊;所述故障監(jiān)控模塊用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障, 自動將該虛擬機關(guān)閉,并將故障信息上報所述管理中心;所述H臺物理服務(wù)器中的M臺物理服務(wù)器作為主物理服務(wù)器,所述主物理服務(wù)器上的E個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的中間件作為主中間件虛擬機,另外 F個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的數(shù)據(jù)庫軟件作為主數(shù)據(jù)庫虛擬機,2 <M < H,E、F大于等于2且E+F小于等于在所述M臺主物理服務(wù)器上的虛擬機的個數(shù);所述H臺物理服務(wù)器中的另外N臺物理服務(wù)器作為備物理服務(wù)器,所述備物理服務(wù)器中的C個虛擬機的客戶機操作系統(tǒng)上分別安裝與主中間件虛擬機相同的中間件作為備中間件虛擬機,另外D個虛擬機的客戶機操作系統(tǒng)上分別安裝與主數(shù)據(jù)庫虛擬機相同的數(shù)據(jù)庫軟件作為備數(shù)據(jù)庫虛擬機,N = H-M, C、D大于等于1且C+D小于等于在所述N臺備物理服務(wù)器上的虛擬機的個數(shù);所述管理中心,用于管理所述H臺物理服務(wù)器上的虛擬化平臺軟件及其虛擬化成的各虛擬機,將多個虛擬機組成集群,并在各個虛擬化平臺軟件之間動態(tài)遷移虛擬機;所述管理中心,將所述M臺主物理服務(wù)器上的主中間件虛擬機及主數(shù)據(jù)庫虛擬機配置成主服務(wù)器集群,將所述N臺備物理服務(wù)器上的備中間件虛擬機及備數(shù)據(jù)庫虛擬機配置成備服務(wù)器集群;所述管理中心,接收到主服務(wù)器集群中的一虛擬機上的故障監(jiān)控模塊上報的故障信息后,將對該發(fā)生故障的虛擬機的訪問請求遷移至主服務(wù)器集群中的類型相同的運行正常一虛擬機;若主服務(wù)器集群中不存在類型相同的運行正常的虛擬機,則將對該發(fā)生故障的虛擬機的訪問請求遷移至備服務(wù)器集群中的類型相同的運行正常一虛擬機;類型相同是指同為中間件虛擬機或同為數(shù)據(jù)庫虛擬機。 所述M臺主物理服務(wù)器上的E個主中間件虛擬機通過中間件配置成主負載均衡集群;配置成主負載均衡集群的各主中間件虛擬機上的中間件,根據(jù)各主中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同主中間件虛擬機進行調(diào)度操作的遷移;所述N臺備物理服務(wù)器上的C個備中間件虛擬機通過中間件配置成備負載均衡集群;配置成備負載均衡集群的各備中間件虛擬機上的中間件,根據(jù)各備中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同備中間件虛擬機進行調(diào)度操作的遷移;所述M臺主物理服務(wù)器上的F個主數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成主實時應(yīng)用集群,共用主數(shù)據(jù)庫;配置成主實時應(yīng)用集群的各主數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件, 根據(jù)各主數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各主數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;所述N臺備物理服務(wù)器上的D個備數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成備實時應(yīng)用集群,共用備數(shù)據(jù)庫;配置成備實時應(yīng)用集群的各備數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件, 根據(jù)各備數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各備數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;所述主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件,所述數(shù)據(jù)庫復(fù)制軟件用于配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中。所述H臺物理服務(wù)器具有相同CPU平臺和內(nèi)核微碼,所述各中間件虛擬機上設(shè)置相同的應(yīng)用程序。所述管理中心安裝在所述H臺物理服務(wù)器的一虛擬機上,或者安裝在另一獨立的物理服務(wù)器上。所述管理中心,當監(jiān)測到一個物理服務(wù)器上的任一虛擬機的應(yīng)用負載大于負載閾值時,從該虛擬機所屬的物理服務(wù)器的共享系統(tǒng)資源中為該虛擬機分配所需系統(tǒng)資源;當監(jiān)測到一物理服務(wù)器上任一虛擬機對資源的要求大于該物理服務(wù)器的共享系統(tǒng)資源時,將對該虛擬機的訪問請求遷移至能夠滿足資源要求的另一物理服務(wù)器上的類型相同的運行正常的一虛擬機。本發(fā)明的云計算實現(xiàn)方法和系統(tǒng),通過多層負載均衡架構(gòu)設(shè)計,在應(yīng)用層、中間層、數(shù)據(jù)庫層每個層都部署了多臺功能完全相同的的虛擬機,并在各虛擬機上分別部署故障監(jiān)控模塊,當一虛擬機發(fā)生文件系統(tǒng)只讀等故障時,故障監(jiān)控模塊自動將該虛擬機關(guān)閉, 實現(xiàn)虛擬機節(jié)點的自動隔離,并將故障信息上報管理中心,管理中心將對發(fā)生故障的虛擬機的訪問請求遷移至相應(yīng)的另一虛擬機,任何一個主虛擬機的故障或缺失都不會對當前業(yè)務(wù)系統(tǒng)造成停頓,從而能夠避免單個主虛擬機的故障對整個云計算平臺造成影響,保證了業(yè)務(wù)的通暢,提高了用戶體驗和整個系統(tǒng)的性能。這樣當任何一個主虛擬機由于Linux操作系統(tǒng)ext3文件系統(tǒng)保護機制導(dǎo)致ext3文件系統(tǒng)只讀情況發(fā)生,該主虛擬機關(guān)閉,防止應(yīng)用系統(tǒng)對故障主虛擬機的繼續(xù)訪問,避免了 ext3文件系統(tǒng)只讀造成的業(yè)務(wù)停頓,解決了 ext3文件系統(tǒng)完整性檢查帶來的時間不可預(yù)知問題,由于每個層面的虛擬機都是相同的, 所以對于故障虛擬機無須修復(fù),只要通過模板重新克隆部署即可。本發(fā)明的云計算實現(xiàn)方法和系統(tǒng),由于業(yè)務(wù)數(shù)據(jù)放在裸設(shè)備(RAW Device)上,由數(shù)據(jù)庫軟件(如Oracle IOg RAC) 直接訪問和管理,并由數(shù)據(jù)庫復(fù)制軟件將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中,即使主數(shù)據(jù)庫全部失效,也能快速切換到備數(shù)據(jù)庫,不再受ext3文件系統(tǒng)功能和機制限制, 實現(xiàn)了真實數(shù)據(jù)的有效保護。
下面結(jié)合附圖和具體實施方式
對本發(fā)明進行進一步詳細說明。
圖1是本發(fā)明的云計算實現(xiàn)方法和系統(tǒng)一實施例示意圖。
具體實施例方式本發(fā)明的云計算實現(xiàn)方法一實施方式的技術(shù)方案如下一 .在H臺物理服務(wù)器上安裝相同的虛擬化平臺軟件(如VMware ESX4. 1),作為云計算的底層基礎(chǔ)運行的虛擬化平臺,所述虛擬化平臺軟件用于將物理服務(wù)器的處理器、 內(nèi)存、存儲器和資源虛擬化為一個或多個虛擬機,H為大于等于3的整數(shù),所述H臺物理服務(wù)器具有相同CPU平臺和內(nèi)核微碼,各臺物理服務(wù)器間網(wǎng)絡(luò)連接;二 .運行所述H臺物理服務(wù)器上的虛擬化平臺軟件(如VMware ESX 4. 1),在各臺物理服務(wù)器上分別虛擬化成一個或多個虛擬機(如在每臺物理服務(wù)器上分別虛擬化成K個虛擬機,K為正整數(shù)),在各虛擬機里分別部署相同的客戶機操作系統(tǒng)(如紅帽Linux 5. 5), 客戶機操作系統(tǒng)用于為數(shù)據(jù)庫、中間件這些軟件提供基礎(chǔ)服務(wù);各物理服務(wù)器分別設(shè)置共享系統(tǒng)資源(如內(nèi)存資源),同一個物理服務(wù)器上的各個虛擬機共享該物理服務(wù)器的共享系統(tǒng)資源(如內(nèi)存資源);三.安裝管理中心(如VMware Vcenter),并將所述H臺各物理服務(wù)器上的虛擬化平臺軟件(如VMware ESX 4. 1)全部加入到管理中心(如VMware Vcenter)里并接受管理,管理中心(如VMware Vcenter)可以安裝在所述H臺物理服務(wù)器的一虛擬機上,也可以安裝在另一獨立的物理服務(wù)器上,管理中心用于管理所述H臺物理服務(wù)器上的各虛擬化平臺軟件及其虛擬化成的各虛擬機,將多個虛擬機組成集群,可在各個虛擬化平臺軟件之間動態(tài)遷移虛擬機;四.在所述H臺物理服務(wù)器上的各虛擬機上部署故障監(jiān)控模塊,所述故障監(jiān)控模塊用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障(如發(fā)生文件系統(tǒng)只讀)時, 自動將該虛擬機關(guān)閉,實現(xiàn)該虛擬機節(jié)點的自動隔離,并將故障信息上報所述管理中心;所述H臺物理服務(wù)器中的M臺物理服務(wù)器作為主物理服務(wù)器,所述主物理服務(wù)器上的E個虛擬機的客戶機操作系統(tǒng)(如紅帽Linux 5.5)上分別安裝相同的中間件(如 Jboss EAP 4.3)作為主中間件虛擬機,另外F個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的數(shù)據(jù)庫軟件(如Oracle IOg R2)作為主數(shù)據(jù)庫虛擬機,2 < M < H,E、F大于等于2且 E+F小于等于在所述M臺主物理服務(wù)器上的虛擬機的個數(shù);所述H臺物理服務(wù)器中的另外N臺物理服務(wù)器作為備物理服務(wù)器,所述備物理服務(wù)器中的C個虛擬機的客戶機操作系統(tǒng)(如紅帽Linux 5.5)上分別安裝與主中間件虛擬機相同的中間件(如Jboss EAP 4.3)作為備中間件虛擬機,另外D個虛擬機的客戶機操作系統(tǒng)上分別安裝與主數(shù)據(jù)庫虛擬機相同的數(shù)據(jù)庫軟件(如Oracle IOg R2)作為備數(shù)據(jù)庫虛擬機,N = H-M, C、D大于等于1且C+D小于等于在所述N臺備物理服務(wù)器上的虛擬機的個數(shù);所述各中間件虛擬機上設(shè)置相同的應(yīng)用程序;五.所述M臺主物理服務(wù)器上的E個主中間件虛擬機通過中間件(如Jboss EAP 4. 3)配置成主負載均衡集群;配置成主負載均衡集群的各主中間件虛擬機上的中間件,根據(jù)各主中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同主中間件虛擬機進行調(diào)度操作的遷移,以保證各主中間件虛擬機上調(diào)度操作的均衡;
所述N臺備物理服務(wù)器上的C個備中間件虛擬機通過中間件(如Jboss EAP 4. 3) 配置成備負載均衡集群,實現(xiàn)會話復(fù)制和會話保持功能;配置成備負載均衡集群的各備中間件虛擬機上的中間件,根據(jù)各備中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同備中間件虛擬機進行調(diào)度操作的遷移,以保證各備中間件虛擬機上調(diào)度操作的均衡;所述M臺主物理服務(wù)器上的F個主數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件(如 Oracle IOg R2)中的集群軟件(如Oracle Clusterware)配置成主實時應(yīng)用集群(real application clusters,RAC),共用主數(shù)據(jù)庫;配置成主實時應(yīng)用集群的各主數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各主數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各主數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移,以保證各主數(shù)據(jù)庫虛擬機上數(shù)據(jù)訪問的均衡;所述N臺備物理服務(wù)器上的D個備數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件(如 Oracle IOg R2)中的集群軟件(如Oracle Clusterware)配置成備實時應(yīng)用集群(real application clusters,RAC),共用備數(shù)據(jù)庫;配置成備實時應(yīng)用集群的各備數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各備數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各備數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移,以保證各備數(shù)據(jù)庫虛擬機上數(shù)據(jù)訪問的均衡;在主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件(如DSG RealSync數(shù)據(jù)庫容災(zāi)實時同步復(fù)制軟件),配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中;六.配置管理中心,通過管理中心(如VMware Vcenter的VMware向?qū)?及所述M臺物理服務(wù)器上安裝的虛擬化平臺軟件(如VMware ESX 4. 1的VMware向?qū)?使所述M臺主物理服務(wù)器上的主中間件虛擬機及主數(shù)據(jù)庫虛擬機配置成主服務(wù)器集群;通過管理中心(如VMware Vcenter的VMware向?qū)?及所述N臺備物理服務(wù)器上安裝的虛擬化平臺軟件(如VMware ESX 4. 1的VMware向?qū)?使所述N臺備物理服務(wù)器上的備中間件虛擬機及備數(shù)據(jù)庫虛擬機配置成備服務(wù)器集群;使所述管理中心,當接收到主服務(wù)器集群中的一虛擬機上的故障監(jiān)控模塊上報的故障信息(如發(fā)生文件系統(tǒng)只讀情況)后,將對該發(fā)生故障的虛擬機的訪問請求遷移至主服務(wù)器集群中的類型相同的運行正常一虛擬機;若主服務(wù)器集群中不存在類型相同的運行正常的虛擬機,則將對該發(fā)生故障的虛擬機的訪問請求遷移至備服務(wù)器集群中的類型相同的運行正常一虛擬機。由于只有當主服務(wù)器集群的所有虛擬機全部失效才訪問備服務(wù)器集群,可以保證備服務(wù)器集群的數(shù)據(jù)是安全和有效的;并使所述管理中心,當監(jiān)測到一個物理服務(wù)器上的任一虛擬機的應(yīng)用負載大于負載閾值時,從該虛擬機所屬的物理服務(wù)器的共享系統(tǒng)資源中為該虛擬機分配所需系統(tǒng)資源 (如內(nèi)存資源);當監(jiān)測到一物理服務(wù)器上任一虛擬機對資源的要求大于該物理服務(wù)器的共享系統(tǒng)資源時,將對該虛擬機的訪問請求遷移至能夠滿足資源要求的另一物理服務(wù)器上的類型相同的運行正常的一虛擬機;類型相同是指同為中間件虛擬機或同為數(shù)據(jù)庫虛擬機。本發(fā)明的云計算系統(tǒng)一實施方式的技術(shù)方案如下該云計算系統(tǒng)包括H臺物理服務(wù)器、一管理中心,所述H臺物理服務(wù)器及管理中心通過網(wǎng)絡(luò)連接,H為大于等于3的整數(shù);所述H臺物理服務(wù)器具有相同CPU平臺和內(nèi)核微碼,并安裝相同的虛擬化平臺軟件(如VMware ESX 4. 1);所述H臺物理服務(wù)器各自分別設(shè)置共享系統(tǒng)資源(如內(nèi)存資源)所述H臺物理服務(wù)器各自通過運行所述虛擬化平臺軟件(如VMware ESX4. 1)分別虛擬化成一個或多個虛擬機(如在每臺物理服務(wù)器上分別虛擬化成K個虛擬機,K為正整數(shù));同一個物理服務(wù)器上的各個虛擬機共享該物理服務(wù)器的共享系統(tǒng)資源(如內(nèi)存資源);所述各虛擬機上分別部署相同的客戶機操作系統(tǒng)(如紅帽Linux 5. 5)、故障監(jiān)控模塊;所述故障監(jiān)控模塊用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障 (如發(fā)生文件系統(tǒng)只讀)時,自動將該虛擬機關(guān)閉,實現(xiàn)該虛擬機的自動隔離,并將故障信息上報所述管理中心;所述H臺物理服務(wù)器中的M臺物理服務(wù)器作為主物理服務(wù)器,所述主物理服務(wù)器上的E個虛擬機的客戶機操作系統(tǒng)(如紅帽Linux 5.5)上分別安裝相同的中間件(如 Jboss EAP 4.3)作為主中間件虛擬機,另外F個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的數(shù)據(jù)庫軟件(如Oracle IOg R2)作為主數(shù)據(jù)庫虛擬機,2 < M < H,E、F大于等于2且 E+F小于等于在所述M臺主物理服務(wù)器上的虛擬機的個數(shù);所述H臺物理服務(wù)器中的另外N臺物理服務(wù)器作為備物理服務(wù)器,所述備物理服務(wù)器中的C個虛擬機的客戶機操作系統(tǒng)(如紅帽Linux 5.5)上分別安裝與主中間件虛擬機相同的中間件(如Jboss EAP 4.3)作為備中間件虛擬機,另外D個虛擬機的客戶機操作系統(tǒng)上分別安裝與主數(shù)據(jù)庫虛擬機相同的數(shù)據(jù)庫軟件(如Oracle IOg R2)作為備數(shù)據(jù)庫虛擬機,N = H-M, C、D大于等于1且C+D小于等于在所述N臺備物理服務(wù)器上的虛擬機的個數(shù);所述各中間件虛擬機上設(shè)置相同的應(yīng)用程序;所述M臺主物理服務(wù)器上的E個主中間件虛擬機通過中間件(如Jboss EAP 4. 3) 配置成主負載均衡集群;配置成主負載均衡集群的各主中間件虛擬機上的中間件,根據(jù)各主中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同主中間件虛擬機進行調(diào)度操作的遷移, 以保證各主中間件虛擬機上調(diào)度操作的均衡;所述N臺備物理服務(wù)器上的C個備中間件虛擬機通過中間件(如Jboss EAP 4. 3) 配置成備負載均衡集群,實現(xiàn)會話復(fù)制和會話保持功能;配置成備負載均衡集群的各備中間件虛擬機上的中間件,根據(jù)各備中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同備中間件虛擬機進行調(diào)度操作的遷移,以保證各備中間件虛擬機上調(diào)度操作的均衡;所述M臺主物理服務(wù)器上的F個主數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件(如 Oracle IOg R2)中的集群軟件(如Oracle Clusterware)配置成主實時應(yīng)用集群(real application clusters,RAC),共用主數(shù)據(jù)庫;配置成主實時應(yīng)用集群的各主數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各主數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各主數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移,以保證各主數(shù)據(jù)庫虛擬機上數(shù)據(jù)訪問的均衡;所述N臺備物理服務(wù)器上的D個備數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件(如 Oracle IOg R2)中的集群軟件(如Oracle Clusterware)配置成備實時應(yīng)用集群(real application clusters,RAC),共用備數(shù)據(jù)庫;配置成備實時應(yīng)用集群的各備數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各備數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各備數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移,以保證各備數(shù)據(jù)庫虛擬機上數(shù)據(jù)訪問的均衡;所述主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件(如DSG RealSync數(shù)據(jù)庫容災(zāi)實時同步復(fù)制軟件),所述數(shù)據(jù)庫復(fù)制軟件用于配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中;所述管理中心(如VMware Vcenter)安裝在所述H臺物理服務(wù)器之外的另一獨立的物理服務(wù)器上或者安裝在所述H臺物理服務(wù)器的一虛擬機上,管理中心用于管理所述 H臺物理服務(wù)器上的虛擬化平臺軟件及其虛擬化成的各虛擬機,將多個虛擬機組成集群,并可在各個虛擬化平臺軟件之間動態(tài)遷移虛擬機;所述管理中心,將所述M臺主物理服務(wù)器上的主中間件虛擬機及主數(shù)據(jù)庫虛擬機配置成主服務(wù)器集群,將所述N臺備物理服務(wù)器上的備中間件虛擬機及備數(shù)據(jù)庫虛擬機配置成備服務(wù)器集群;所述管理中心,接收到主服務(wù)器集群中的一虛擬機上的故障監(jiān)控模塊上報的故障信息(如發(fā)生文件系統(tǒng)只讀)后,將對該發(fā)生故障的虛擬機的訪問請求遷移至主服務(wù)器集群中的類型相同的運行正常一虛擬機;若主服務(wù)器集群中不存在類型相同的運行正常的虛擬機,則將對該發(fā)生故障的虛擬機的訪問請求遷移至備服務(wù)器集群中的類型相同的運行正常一虛擬機;所述管理中心,當監(jiān)測到一個物理服務(wù)器上的任一虛擬機的應(yīng)用負載大于負載閾值時,從該虛擬機所屬的物理服務(wù)器的共享系統(tǒng)資源中為該虛擬機分配所需系統(tǒng)資源(如內(nèi)存資源);當監(jiān)測到一物理服務(wù)器上任一虛擬機對資源的要求大于該物理服務(wù)器的共享系統(tǒng)資源時,將對該虛擬機的訪問請求遷移至能夠滿足資源要求的另一物理服務(wù)器上的類型相同的運行正常的一虛擬機;類型相同是指同為中間件虛擬機或同為數(shù)據(jù)庫虛擬機。中間件是在操作系統(tǒng)、網(wǎng)絡(luò)和數(shù)據(jù)庫之上,應(yīng)用軟件的下層,主要功能是為處于自己上層的應(yīng)用軟件提供運行與開發(fā)的環(huán)境,幫助用戶靈活、高效地開發(fā)和集成復(fù)雜的應(yīng)用軟件。中間件是一種獨立的系統(tǒng)軟件或服務(wù)程序,分布式應(yīng)用軟件借助這種軟件在不同的技術(shù)之間共享資源,中間件位于客戶機服務(wù)器的操作系統(tǒng)之上,管理計算資源和網(wǎng)絡(luò)通信, 來實現(xiàn)負載均衡等目的。JBoss是一個基于J2EE的開放源代碼的應(yīng)用服務(wù)器,JBoss應(yīng)用服務(wù)器充分利用了它先進的軟件架構(gòu)和高效穩(wěn)定的底層組件,敏捷地實現(xiàn)了各種集群功能。VMware 主服務(wù)器集群可啟用 VMware DRS (Distributed Resource Scheduler)和 VMware HA(High Availability)解決方案。VMware DRS (Distributed Resource Scheduler,分布式資源調(diào)度程序),跨聚合到邏輯資源池中的硬件資源集合來動態(tài)地分配和平衡計算容量,VMware DRS跨資源池不間斷地監(jiān)控利用率,并根據(jù)反映了業(yè)務(wù)需要和不斷變化的優(yōu)先事務(wù)的預(yù)定義的規(guī)則,在多個虛擬機之間智能地分配可用資源。當虛擬機遇到負載增大時,VMware DRS將通過在資源池中的物理服務(wù)器之間重新分布虛擬機來自動為其分配更多資源。VMware HA可使運行在ESX/ESXi主機上的虛擬機從主機故障中自動恢復(fù)過來。一臺主機出現(xiàn)故障時,VMware HA會立即重新啟動群集中其他主機上的所有關(guān)聯(lián)的虛擬機。使用集群可最大限度地利用主機,并為虛擬機提供高可用性。集群在主機間分發(fā)資源并管理負載平衡。本發(fā)明的云計算實現(xiàn)方法和系統(tǒng)一實施例如圖1所示,包括3臺物理服務(wù)器;在3臺物理服務(wù)器上安裝VMware ESX 4. 1虛擬化平臺軟件,這個是云計算的底層基礎(chǔ)運行平臺;配置VMwareVcenter管理中心,并將所有物理服務(wù)器上的VMware ESX4. 1虛擬化平臺軟件全部加入到VMwareVcenter管理中心里并接受管理,這個是實現(xiàn)云計算資源自動調(diào)整和分配的關(guān)鍵;運行各臺物理服務(wù)器上的虛擬化平臺軟件(如VMware ESX 4.1),在每臺物理服務(wù)器上分別虛擬化成4個虛擬機,在3臺物理服務(wù)器上的12個虛擬機里分別部署紅帽 Linux 5. 5客戶機操作系統(tǒng),在VMwareVcenter管理中心里部署紅帽Linux 5. 5客戶機操作系統(tǒng)共12臺;在每臺物理服務(wù)器上的4個部署紅帽Linux 5. 5客戶機操作系統(tǒng)的虛擬機中,其中2個虛擬機安裝Jboss EAP 4. 3中間件,另外2個虛擬機安裝Oracle IOg R2數(shù)據(jù)庫軟件;第1、2臺物理服務(wù)器的安裝有Jboss EAP 4. 3中間件的4個虛擬機配置成主負載均衡集群,實現(xiàn)會話復(fù)制和會話保持功能;第1、2臺物理服務(wù)器的安裝有Oracle IOg R2數(shù)據(jù)庫的4個虛擬機配置成主實時應(yīng)用集群(real application clusters,RAC),共用主數(shù)據(jù)庫;第3臺物理服務(wù)器的安裝有Jboss EAP 4. 3中間件的2個虛擬機配置成備負載均衡集群,實現(xiàn)會話復(fù)制和會話保持功能;第3臺物理服務(wù)器的安裝有Oracle IOg R2數(shù)據(jù)庫的2個虛擬機配置成備實時應(yīng)用集群(real application clusters,RAC),共用備數(shù)據(jù)庫;在主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件(如DSG RealSync數(shù)據(jù)庫容災(zāi)實時同步復(fù)制軟件),配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中;第1、2臺物理服務(wù)器上的8個虛擬機節(jié)點組成主服務(wù)器集群。第3臺物理服務(wù)器上的4個虛擬機節(jié)點組成備服務(wù)器集群。所述各虛擬機上分別部署故障監(jiān)控模塊,用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障(如發(fā)生文件系統(tǒng)只讀情況)時,自動將該虛擬機關(guān)閉,實現(xiàn)虛擬機節(jié)點的自動隔離,并將故障信息上報所述管理中心;管理中心VMwareVeenter通過Vmotion功能自動實現(xiàn)虛擬機資源的動態(tài)在線遷移。本發(fā)明的云計算實現(xiàn)方法和系統(tǒng),通過多層負載均衡架構(gòu)設(shè)計,在應(yīng)用層、中間層、數(shù)據(jù)庫層每個層都部署了多臺功能完全相同的的虛擬機,并在各虛擬機上分別部署故障監(jiān)控模塊,當一虛擬機發(fā)生文件系統(tǒng)只讀等故障時,故障監(jiān)控模塊自動將該虛擬機關(guān)閉, 實現(xiàn)虛擬機節(jié)點的自動隔離,并將故障信息上報管理中心,管理中心將對發(fā)生故障的虛擬機的訪問請求遷移至相應(yīng)的另一虛擬機,任何一個主虛擬機的故障或缺失都不會對當前業(yè)務(wù)系統(tǒng)造成停頓,從而能夠避免單個主虛擬機的故障對整個云計算平臺造成影響,保證了業(yè)務(wù)的通暢,提高了用戶體驗和整個系統(tǒng)的性能。這樣當任何一個主虛擬機由于Linux操作系統(tǒng)ext3文件系統(tǒng)保護機制導(dǎo)致ext3文件系統(tǒng)只讀情況發(fā)生,該主虛擬機關(guān)閉,防止應(yīng)用系統(tǒng)對故障主虛擬機的繼續(xù)訪問,避免了 ext3文件系統(tǒng)只讀造成的業(yè)務(wù)停頓,解決了ext3文件系統(tǒng)完整性檢查帶來的時間不可預(yù)知問題,由于每個層面的虛擬機都是相同的, 所以對于故障虛擬機無須修復(fù),只要通過模板重新克隆部署即可。本發(fā)明的云計算實現(xiàn)方法和系統(tǒng),由于業(yè)務(wù)數(shù)據(jù)放在裸設(shè)備(RAW Device)上,由數(shù)據(jù)庫軟件(如Oracle IOg RAC) 直接訪問和管理,并由數(shù)據(jù)庫復(fù)制軟件將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中,即使主數(shù)據(jù)庫全部失效,也能快速切換到備數(shù)據(jù)庫,不再受ext3文件系統(tǒng)功能和機制限制, 實現(xiàn)了真實數(shù)據(jù)的有效保護。 以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所做的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明保護的范圍之內(nèi)。
權(quán)利要求
1.一種云計算實現(xiàn)方法,其特征在于,一.在H臺物理服務(wù)器上安裝相同的虛擬化平臺軟件,H為大于等于3的整數(shù),各臺物理服務(wù)器間網(wǎng)絡(luò)連接;二.運行所述H臺物理服務(wù)器上的虛擬化平臺軟件,在各臺物理服務(wù)器上分別虛擬化成一個或多個虛擬機,在各虛擬機里分別部署相同的客戶機操作系統(tǒng);各物理服務(wù)器分別設(shè)置共享系統(tǒng)資源,同一個物理服務(wù)器上的各個虛擬機共享該物理服務(wù)器的共享系統(tǒng)資源;三.安裝管理中心,并將所述H臺各物理服務(wù)器上的虛擬化平臺軟件全部加入到管理中心里并接受管理;四.在所述H臺物理服務(wù)器上的各虛擬機上部署故障監(jiān)控模塊,所述故障監(jiān)控模塊用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障時,自動將該虛擬機關(guān)閉,并將故障信息上報所述管理中心;所述H臺物理服務(wù)器中的M臺物理服務(wù)器作為主物理服務(wù)器,所述主物理服務(wù)器上的 E個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的中間件作為主中間件虛擬機,另外F個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的數(shù)據(jù)庫軟件作為主數(shù)據(jù)庫虛擬機,2 < M < H,E、 F大于等于2且E+F小于等于在所述M臺主物理服務(wù)器上的虛擬機的個數(shù);所述H臺物理服務(wù)器中的另外N臺物理服務(wù)器作為備物理服務(wù)器,所述備物理服務(wù)器中的C個虛擬機的客戶機操作系統(tǒng)上分別安裝與主中間件虛擬機相同的中間件作為備中間件虛擬機,另外D個虛擬機的客戶機操作系統(tǒng)上分別安裝與主數(shù)據(jù)庫虛擬機相同的數(shù)據(jù)庫軟件作為備數(shù)據(jù)庫虛擬機,N = H-M, C、D大于等于1且C+D小于等于在所述N臺備物理服務(wù)器上的虛擬機的個數(shù); 五·配置管理中心,使所述M臺主物理服務(wù)器上的主中間件虛擬機及主數(shù)據(jù)庫虛擬機配置成主服務(wù)器集群; 所述N臺備物理服務(wù)器上的備中間件虛擬機及備數(shù)據(jù)庫虛擬機配置成備服務(wù)器集群; 所述管理中心接收到主服務(wù)器集群中的一虛擬機上的故障監(jiān)控模塊上報的故障信息后,將對該發(fā)生故障的虛擬機的訪問請求遷移至主服務(wù)器集群中的類型相同的運行正常一虛擬機;若主服務(wù)器集群中不存在類型相同的運行正常的虛擬機,則將對該發(fā)生故障的虛擬機的訪問請求遷移至備服務(wù)器集群中的類型相同的運行正常一虛擬機; 類型相同是指同為中間件虛擬機或同為數(shù)據(jù)庫虛擬機。
2.根據(jù)權(quán)利要求1所述的云計算實現(xiàn)方法,其特征在于,所述M臺主物理服務(wù)器上的E個主中間件虛擬機通過中間件配置成主負載均衡集群; 配置成主負載均衡集群的各主中間件虛擬機上的中間件,根據(jù)各主中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同主中間件虛擬機進行調(diào)度操作的遷移;所述N臺備物理服務(wù)器上的C個備中間件虛擬機通過中間件配置成備負載均衡集群; 配置成備負載均衡集群的各備中間件虛擬機上的中間件,根據(jù)各備中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同備中間件虛擬機進行調(diào)度操作的遷移;所述M臺主物理服務(wù)器上的F個主數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成主實時應(yīng)用集群,共用主數(shù)據(jù)庫;配置成主實時應(yīng)用集群的各主數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各主數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各主數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;所述N臺備物理服務(wù)器上的D個備數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成備實時應(yīng)用集群,共用備數(shù)據(jù)庫;配置成備實時應(yīng)用集群的各備數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各備數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各備數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;在主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件,配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中。
3.根據(jù)權(quán)利要求1所述的云計算實現(xiàn)方法,其特征在于,所述H臺物理服務(wù)器具有相同CPU平臺和內(nèi)核微碼,所述各中間件虛擬機上設(shè)置相同的應(yīng)用程序。
4.根據(jù)權(quán)利要求1所述的云計算實現(xiàn)方法,其特征在于,所述管理中心安裝在所述H臺物理服務(wù)器的一虛擬機上,或者安裝在另一獨立的物理服務(wù)器上。
5.根據(jù)權(quán)利要求1所述的云計算實現(xiàn)方法,其特征在于,所述管理中心,當監(jiān)測到一個物理服務(wù)器上的任一虛擬機的應(yīng)用負載大于負載閾值時,從該虛擬機所屬的物理服務(wù)器的共享系統(tǒng)資源中為該虛擬機分配所需系統(tǒng)資源;當監(jiān)測到一物理服務(wù)器上任一虛擬機對資源的要求大于該物理服務(wù)器的共享系統(tǒng)資源時,將對該虛擬機的訪問請求遷移至能夠滿足資源要求的另一物理服務(wù)器上的類型相同的運行正常的一虛擬機。
6.根據(jù)權(quán)利要求1所述的云計算實現(xiàn)方法,其特征在于,所述故障監(jiān)控模塊,當監(jiān)測到所在虛擬機發(fā)生文件系統(tǒng)只讀故障時,自動將該虛擬機關(guān)閉,并將故障信息上報所述管理中心。
7.根據(jù)權(quán)利要求1所述的云計算實現(xiàn)方法,其特征在于,在每臺物理服務(wù)器上分別虛擬化成K個虛擬機,K為正整數(shù)。
8.根據(jù)權(quán)利要求7所述的云計算實現(xiàn)方法,其特征在于,K等于4。
9.根據(jù)權(quán)利要求8所述的云計算實現(xiàn)方法,其特征在于,H等于3,M等于2,N等于1, E等于4,F(xiàn)等于4,C等于2,D等于2。
10.根據(jù)權(quán)利要求2所述的云計算實現(xiàn)方法,其特征在于, 所述虛擬化平臺軟件為VMware ESX 4. 1,所述管理中心為VMware Vcenter, 所述客戶機操作系統(tǒng)為紅帽Linux 5. 5, 所述中間件為Jboss EAP 4.3, 所述數(shù)據(jù)庫軟件為Oracle IOg R2, 所述數(shù)據(jù)庫復(fù)制軟件為DSG Real Sync0
11.一種云計算系統(tǒng),其特征在于,包括H臺物理服務(wù)器、一管理中心,所述H臺物理服務(wù)器及管理中心通過網(wǎng)絡(luò)連接,H為大于等于3的整數(shù);所述H臺物理服務(wù)器安裝相同的虛擬化平臺軟件,所述H臺物理服務(wù)器各自分別設(shè)置共享系統(tǒng)資源;所述H臺物理服務(wù)器各自通過運行所述虛擬化平臺軟件分別虛擬化成一個或多個虛擬機;同一個物理服務(wù)器上的各個虛擬機共享該物理服務(wù)器的共享系統(tǒng)資源; 所述各虛擬機上分別部署相同的客戶機操作系統(tǒng)、故障監(jiān)控模塊;所述故障監(jiān)控模塊用于對所在虛擬機進行監(jiān)測,當監(jiān)測到所在虛擬機發(fā)生故障,自動將該虛擬機關(guān)閉,并將故障信息上報所述管理中心;所述H臺物理服務(wù)器中的M臺物理服務(wù)器作為主物理服務(wù)器,所述主物理服務(wù)器上的 E個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的中間件作為主中間件虛擬機,另外F個虛擬機的客戶機操作系統(tǒng)上分別安裝相同的數(shù)據(jù)庫軟件作為主數(shù)據(jù)庫虛擬機,2 < M < H,E、 F大于等于2且E+F小于等于在所述M臺主物理服務(wù)器上的虛擬機的個數(shù);所述H臺物理服務(wù)器中的另外N臺物理服務(wù)器作為備物理服務(wù)器,所述備物理服務(wù)器中的C個虛擬機的客戶機操作系統(tǒng)上分別安裝與主中間件虛擬機相同的中間件作為備中間件虛擬機,另外D個虛擬機的客戶機操作系統(tǒng)上分別安裝與主數(shù)據(jù)庫虛擬機相同的數(shù)據(jù)庫軟件作為備數(shù)據(jù)庫虛擬機,N = H-M, C、D大于等于1且C+D小于等于在所述N臺備物理服務(wù)器上的虛擬機的個數(shù);所述管理中心,用于管理所述H臺物理服務(wù)器上的虛擬化平臺軟件及其虛擬化成的各虛擬機,將多個虛擬機組成集群,并在各個虛擬化平臺軟件之間動態(tài)遷移虛擬機;所述管理中心,將所述M臺主物理服務(wù)器上的主中間件虛擬機及主數(shù)據(jù)庫虛擬機配置成主服務(wù)器集群,將所述N臺備物理服務(wù)器上的備中間件虛擬機及備數(shù)據(jù)庫虛擬機配置成備服務(wù)器集群;所述管理中心,接收到主服務(wù)器集群中的一虛擬機上的故障監(jiān)控模塊上報的故障信息后,將對該發(fā)生故障的虛擬機的訪問請求遷移至主服務(wù)器集群中的類型相同的運行正常一虛擬機;若主服務(wù)器集群中不存在類型相同的運行正常的虛擬機,則將對該發(fā)生故障的虛擬機的訪問請求遷移至備服務(wù)器集群中的類型相同的運行正常一虛擬機; 類型相同是指同為中間件虛擬機或同為數(shù)據(jù)庫虛擬機。
12.根據(jù)權(quán)利要求11所述的云計算系統(tǒng),其特征在于,所述M臺主物理服務(wù)器上的E個主中間件虛擬機通過中間件配置成主負載均衡集群; 配置成主負載均衡集群的各主中間件虛擬機上的中間件,根據(jù)各主中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同主中間件虛擬機進行調(diào)度操作的遷移;所述N臺備物理服務(wù)器上的C個備中間件虛擬機通過中間件配置成備負載均衡集群; 配置成備負載均衡集群的各備中間件虛擬機上的中間件,根據(jù)各備中間件虛擬機上執(zhí)行的調(diào)度操作數(shù)據(jù)量,在不同備中間件虛擬機進行調(diào)度操作的遷移;所述M臺主物理服務(wù)器上的F個主數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成主實時應(yīng)用集群,共用主數(shù)據(jù)庫;配置成主實時應(yīng)用集群的各主數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各主數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各主數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;所述N臺備物理服務(wù)器上的D個備數(shù)據(jù)庫虛擬機通過所述數(shù)據(jù)庫軟件配置成備實時應(yīng)用集群,共用備數(shù)據(jù)庫;配置成備實時應(yīng)用集群的各備數(shù)據(jù)庫虛擬機上的數(shù)據(jù)庫軟件,根據(jù)各備數(shù)據(jù)庫虛擬機中的數(shù)據(jù)訪問量,在各備數(shù)據(jù)庫虛擬機之間進行數(shù)據(jù)訪問的遷移;所述主數(shù)據(jù)庫及備數(shù)據(jù)庫上部署數(shù)據(jù)庫復(fù)制軟件,所述數(shù)據(jù)庫復(fù)制軟件用于配置數(shù)據(jù)庫表復(fù)制,將數(shù)據(jù)庫表從主數(shù)據(jù)庫同步復(fù)制到備數(shù)據(jù)庫中。
13.根據(jù)權(quán)利要求11所述的云計算系統(tǒng),其特征在于,所述H臺物理服務(wù)器具有相同CPU平臺和內(nèi)核微碼,所述各中間件虛擬機上設(shè)置相同的應(yīng)用程序。
14.根據(jù)權(quán)利要求11所述的云計算系統(tǒng),其特征在于,所述管理中心安裝在所述H臺物理服務(wù)器的一虛擬機上,或者安裝在另一獨立的物理服務(wù)器上。
15.根據(jù)權(quán)利要求11所述的云計算系統(tǒng),其特征在于,所述管理中心,當監(jiān)測到一個物理服務(wù)器上的任一虛擬機的應(yīng)用負載大于負載閾值時,從該虛擬機所屬的物理服務(wù)器的共享系統(tǒng)資源中為該虛擬機分配所需系統(tǒng)資源;當監(jiān)測到一物理服務(wù)器上任一虛擬機對資源的要求大于該物理服務(wù)器的共享系統(tǒng)資源時,將對該虛擬機的訪問請求遷移至能夠滿足資源要求的另一物理服務(wù)器上的類型相同的運行正常的一虛擬機。
16.根據(jù)權(quán)利要求11所述的云計算系統(tǒng),其特征在于,所述故障監(jiān)控模塊,當監(jiān)測到所在虛擬機發(fā)生文件系統(tǒng)只讀故障時,自動將該虛擬機關(guān)閉,并將故障信息上報所述管理中心。
17.根據(jù)權(quán)利要求11所述的云計算系統(tǒng),其特征在于,在每臺物理服務(wù)器上分別虛擬化成K個虛擬機,K為正整數(shù)。
18.根據(jù)權(quán)利要求17所述的云計算系統(tǒng),其特征在于,K等于4。
19.根據(jù)權(quán)利要求18所述的云計算系統(tǒng),其特征在于,H等于3,M等于2,N等于1,E 等于4,F(xiàn)等于4,C等于2,D等于2。
20.根據(jù)權(quán)利要求12所述的云計算系統(tǒng),其特征在于,所述虛擬化平臺軟件為VMware ESX 4. 1,所述管理中心為VMware Vcenter,所述客戶機操作系統(tǒng)為紅帽Linux 5. 5,所述中間件為Jboss EAP 4.3,所述數(shù)據(jù)庫軟件為Oracle IOg R2,所述數(shù)據(jù)庫復(fù)制軟件為DSG Real Sync0
全文摘要
本發(fā)明公開了一種云計算實現(xiàn)方法,通過多層負載均衡架構(gòu)設(shè)計,在應(yīng)用層、中間層、數(shù)據(jù)庫層每個層都部署了多臺功能完全相同的的虛擬機,并在各虛擬機上分別部署故障監(jiān)控模塊,當一虛擬機發(fā)生文件系統(tǒng)只讀等故障時,故障監(jiān)控模塊自動將該虛擬機關(guān)閉,實現(xiàn)虛擬機節(jié)點的自動隔離,并將故障信息上報管理中心,管理中心將對發(fā)生故障的虛擬機的訪問請求遷移至相應(yīng)的另一虛擬機,任何一個主虛擬機的故障或缺失都不會對當前業(yè)務(wù)系統(tǒng)造成停頓,從而能夠避免單個主虛擬機的故障對整個云計算平臺造成影響,保證了業(yè)務(wù)的通暢,提高了用戶體驗和整個系統(tǒng)的性能。本發(fā)明還公開了一種云計算系統(tǒng)。
文檔編號H04L29/08GK102325192SQ20111029551
公開日2012年1月18日 申請日期2011年9月30日 優(yōu)先權(quán)日2011年9月30日
發(fā)明者伍志平, 周蓉, 崔巖, 張永起, 敖士, 朱承, 李曼, 林東輝, 毛喻明, 王戎, 王潔, 胡兵, 辛旻, 黃立志 申請人:上海寶信軟件股份有限公司, 上海拜服信息科技有限公司