專利名稱:一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng)的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及云存儲技術(shù)領(lǐng)域,涉及一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng)。
背景技術(shù):
國內(nèi)的云存儲技術(shù)根據(jù)提供存儲的層面不同可以分為文件級別存儲技術(shù)和塊級別存儲技術(shù)。文件級別的云存儲技術(shù)主要指分布式文件系統(tǒng),它管理一系列分布在網(wǎng)絡(luò)上的存儲資源,并為用戶提供了一整套文件操作接口,如Amazon Simple storage service (S3)、 Eucalyptus S3、OpenStack、Hadoop Distribute File System (HDFS)均使用分布式文件系統(tǒng)為用戶虛擬機(jī)提供后臺存儲。分布式文件系統(tǒng)具有較高的安全性、可擴(kuò)展性以及讀寫效率,但是文件級別的存儲不能為用戶提供原始塊設(shè)備。
塊級別云存儲通過遠(yuǎn)程存儲技術(shù)為用戶提供原始塊級別存儲資源,使用戶可以在其提供的塊設(shè)備上定制文件系統(tǒng)和數(shù)據(jù)庫,這類產(chǎn)品如Amazon Elastic Block Store (AmazonEBS), Eucalyptus EBS,印第安納大學(xué)的 Virtual Block Store (VBS)及其改進(jìn)項(xiàng)目VBS-Lustre。然而,以上塊級別云存儲系統(tǒng)都部分存在如下的不足。(I)與自身平臺系統(tǒng)緊密稱合,不利于系統(tǒng)間集成和二次開發(fā)。如Amazon EBS和Eucalyptus EBS分別為 Amazon EC2、Eucalyptus EC2的用戶提供持久的存儲,但無法為其他云計(jì)算系統(tǒng)提供存儲, 不適用于科學(xué)研究領(lǐng)域。(2)系統(tǒng)中存在瓶頸。如VBS中單臺邏輯卷管理服務(wù)器的設(shè)計(jì)方法,影響系統(tǒng)整體性能,并可能引起單點(diǎn)故障。雖然VBS-Lustre利用分布式文件系統(tǒng)的思想改進(jìn)了 VBS的架構(gòu),消除了單邏輯卷管理服務(wù)器的設(shè)計(jì)缺陷,但是VBS-Lustre把邏輯卷以文件的形式存儲于Lustre文件系統(tǒng),而Lustre文件系統(tǒng)的寫保護(hù)機(jī)制使得邏輯卷無法支持多個(gè)用戶同時(shí)寫入數(shù)據(jù),因此在一定程度上限制了云存儲系統(tǒng)的功能,無法滿足用戶部分需求。
發(fā)明內(nèi)容
本發(fā)明的目的在于避免現(xiàn)有塊級別存儲系統(tǒng)中存儲服務(wù)器單點(diǎn)瓶頸問題,而提出一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng)。該系統(tǒng)使用集群技術(shù)和基于集群的邏輯卷管理技術(shù),實(shí)現(xiàn)了多臺邏輯卷管理服務(wù)器對后臺存儲設(shè)備的共同管理,又可以通過系統(tǒng)中央控制服務(wù)器控制邏輯卷管理服務(wù)器將存儲資源以邏輯卷的形式分配給虛擬機(jī)服務(wù)器之上的用戶虛擬機(jī),實(shí)現(xiàn)了用戶虛擬機(jī)存儲空間的動態(tài)分配,消除了傳統(tǒng)塊級別存儲系統(tǒng)的存儲管理單點(diǎn)瓶頸問題,從而提高了系統(tǒng)的可靠性和存儲性能。為了達(dá)到以上目的,本系統(tǒng)的基本思路是在各邏輯卷管理服務(wù)器上部署負(fù)載和運(yùn)行狀態(tài)偵聽程序,定時(shí)向中央控制服務(wù)器發(fā)送負(fù)載和狀態(tài)信息。中央控制服務(wù)器使用這些信息更新自己的數(shù)據(jù)庫,以獲得進(jìn)行故障管理和負(fù)載均衡決策的必要數(shù)據(jù)。在本系統(tǒng)中,中央控制服務(wù)器需要根據(jù)此類數(shù)據(jù)進(jìn)行決策的問題有以下三種收到某臺用戶虛擬機(jī)對存儲空間請求時(shí),決策通過哪臺邏輯卷管理服務(wù)器來執(zhí)行卷分配任務(wù);當(dāng)檢測到系統(tǒng)中存在故障邏輯卷管理服務(wù)器時(shí),決策將故障服務(wù)器上已建立的iSCSI鏈接遷移到哪臺邏輯卷管理服務(wù)器上;當(dāng)檢測到系統(tǒng)中存在負(fù)載不均衡狀態(tài)時(shí),決策哪兩臺服務(wù)器間執(zhí)行負(fù)載均衡,以及如何執(zhí)行負(fù)載均衡。本發(fā)明解決技術(shù)問題所采取的技術(shù)方案為
一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),包括后臺異構(gòu)存儲設(shè)備組成的存儲池,多臺邏輯卷管理服務(wù)器組成的卷服務(wù)器集群,虛擬機(jī)服務(wù)器,中央控制服務(wù)器以及客戶端。卷服務(wù)器集群與后臺存儲池通過光纖進(jìn)行數(shù)據(jù)交換,邏輯卷管理服務(wù)器通過iSCSI方式為虛擬機(jī)服務(wù)器提供存儲資源,中央控制服務(wù)器通過web service接口接受來自客戶端的請求,定時(shí)檢測各卷管理服務(wù)器工作負(fù)載和運(yùn)行狀態(tài),根據(jù)工作負(fù)載給多邏輯卷管理服務(wù)器分配卷管理任務(wù),同時(shí)對檢測到的運(yùn)行故障的邏輯卷管理服務(wù)器進(jìn)行數(shù)據(jù)遷移和故障隔離;當(dāng)中間控制服務(wù)器檢測到多卷管理服務(wù)器間負(fù)載不均衡狀態(tài)后,根據(jù)系統(tǒng)實(shí)時(shí)負(fù)載數(shù)據(jù)和各邏輯卷管理服務(wù)器的性能,采用遺傳算法找出合理的負(fù)載分配方式,最后以最小的遷移代價(jià)對系統(tǒng)負(fù)載進(jìn)行重分配。本發(fā)明的有益效果本發(fā)明所提出的多邏輯卷管理服務(wù)器負(fù)載均衡的云存儲系統(tǒng)能夠按用戶需求動態(tài)地為用戶虛擬機(jī)提分配塊級別存儲資源,具有較高的可靠性和可用性。同時(shí)在性能上有效地提高了系統(tǒng)的存儲讀寫吞吐量,縮短了平均讀寫響應(yīng)時(shí)間,具有較高的讀寫效率。
圖I是多邏輯卷管理服務(wù)器云存儲系統(tǒng)的架構(gòu)圖2是創(chuàng)建/查看邏輯卷工作流程示意圖3是創(chuàng)建/查看快照工作流程示意圖4是刪除卷/快照工作流程示意圖5是掛載邏輯卷工作流程示意圖6是卸載邏輯卷工作流程示意圖7是服務(wù)器故障管理工作流程示意圖。
具體實(shí)施例方式下面結(jié)合附圖和具體實(shí)施應(yīng)用過程對本系統(tǒng)進(jìn)一步說明。如圖I所示,整個(gè)系統(tǒng)由七個(gè)功能模塊組成,分別是邏輯卷托管模塊、邏輯邏輯卷管理服務(wù)器負(fù)載監(jiān)控模塊、邏輯邏輯卷管理服務(wù)器狀態(tài)監(jiān)控模塊、虛擬機(jī)監(jiān)視器托管模塊、 系統(tǒng)中央控制模塊、邏輯邏輯卷管理服務(wù)器狀態(tài)偵聽管理模塊和客戶端模塊,這些模塊被分別部署在邏輯卷管理服務(wù)器、虛擬機(jī)服務(wù)器、系統(tǒng)中央控制服務(wù)器以及系統(tǒng)客戶端四類功能不同的結(jié)點(diǎn)上。各個(gè)模塊通過Web Service接口發(fā)布自己的功能供其他模塊調(diào)用,通過系統(tǒng)中央控制模塊的協(xié)調(diào)共同完成系統(tǒng)的各項(xiàng)工作。多臺邏輯卷管理服務(wù)器采用Iinux集群技術(shù)組成一個(gè)集群,主要功能是管理共享的存儲設(shè)備,部署有邏輯卷托管模塊、負(fù)載監(jiān)控模塊和邏輯卷管理服務(wù)器狀態(tài)監(jiān)控模塊。邏輯卷托管模塊通過調(diào)用基于集群的Linux邏輯卷管理(CLVM)提供的功能接口,實(shí)現(xiàn)在邏輯卷管理服務(wù)器上創(chuàng)建/刪除卷、創(chuàng)建/刪除快照、將快照信息拷貝到新卷等功能,CLVM保證了各臺邏輯卷管理服務(wù)器上卷信息的同步;此外,邏輯卷托管模塊通過iSCSI Enterprise Target提供的功能接口將邏輯卷映射成為iSCSI目標(biāo)器(iSCSI target)供虛擬機(jī)服務(wù)器上iSCSI啟動器(iSCSI initiator)調(diào)用。負(fù)載監(jiān)控模塊可以從邏輯卷管理服務(wù)器的tcp 端口獲取每條iSCSI連接的負(fù)載大小以及邏輯卷管理服務(wù)器的總負(fù)載。邏輯卷管理服務(wù)器狀態(tài)監(jiān)控模塊通過對CLVM功能接口的調(diào)用來判斷邏輯卷管理服務(wù)器是否處于正常工作狀態(tài)。虛擬機(jī)服務(wù)器使用Xen來管理虛擬機(jī)實(shí)例。虛擬機(jī)監(jiān)視器托管模塊部署在虛擬機(jī)服務(wù)器上,通過調(diào)用iSCSI啟動器提供的功能接口登入邏輯卷管理服務(wù)器的iSCSI目標(biāo)器,以獲得與邏輯卷管理服務(wù)器上的邏輯卷的遠(yuǎn)程連接。之后虛擬機(jī)監(jiān)視器托管模塊可以通過Virtual Block Device (VBD)技術(shù)將塊設(shè)備從Domain O掛載到虛擬機(jī)Domain U上, 使得用戶虛擬機(jī)可以利用遠(yuǎn)程存儲資源。系統(tǒng)中央控制|旲塊在系統(tǒng)中央控制服務(wù)器上,根據(jù)來自系統(tǒng)客戶端的請求類型和參數(shù),向邏輯卷管理服務(wù)器和VMM結(jié)點(diǎn)發(fā)出相應(yīng)命令和接受反饋信息,并保存卷、快照以及掛載信息,以協(xié)調(diào)整個(gè)系統(tǒng)使之有序工作。系統(tǒng)中央控制服務(wù)器上還部署有邏輯卷管理服務(wù)器狀態(tài)偵聽管理模塊,定時(shí)向邏輯卷管理服務(wù)器發(fā)送邏輯卷管理服務(wù)器運(yùn)行狀態(tài)請求和負(fù)載狀況請求。當(dāng)狀態(tài)偵聽子模塊收到邏輯卷管理服務(wù)器運(yùn)行異常反饋,將調(diào)用故障處理子模塊執(zhí)行邏輯卷管理服務(wù)器切換工作;當(dāng)負(fù)載偵聽子模塊通過各邏輯卷管理服務(wù)器反饋的負(fù)載信息判斷系統(tǒng)進(jìn)入負(fù)載不均衡狀態(tài)時(shí),將調(diào)用負(fù)載均衡子模塊,執(zhí)行負(fù)載均衡過程平衡系統(tǒng)負(fù)載。系統(tǒng)中的邏輯卷管理工作主要包括卷的創(chuàng)建刪除與查看、快照的創(chuàng)建刪除與查看,以及掛載/卸載卷的操作。當(dāng)中央控制服務(wù)器收到來自客戶端的創(chuàng)建卷請求時(shí),會立即向一臺邏輯卷管理服務(wù)器發(fā)送創(chuàng)建卷命令以及相關(guān)參數(shù)。收到命令的邏輯卷管理服務(wù)器在確定存儲池中有足夠的存儲空間后,調(diào)用CLVM提供的“l(fā)vcreate”命令創(chuàng)建此卷。系統(tǒng)中央控制服務(wù)器向客戶端返回該卷的信息,其中卷狀態(tài)為“pending”。如果該卷是通過一個(gè)快照創(chuàng)建的,則系統(tǒng)創(chuàng)建一個(gè)新的線程在隨后的時(shí)間里通過dd命令將制定快照中的內(nèi)容復(fù)制到卷中,復(fù)制完成后,系統(tǒng)中央控制服務(wù)器上數(shù)據(jù)庫中卷的狀態(tài)更新為“available” ;否則,直接將卷狀態(tài)更新為“available”。當(dāng)需要查看已創(chuàng)建的卷的時(shí),系統(tǒng)中央控制服務(wù)器將數(shù)據(jù)庫中卷信息的查詢結(jié)果返回給客戶端,創(chuàng)建與查看卷的流程如圖2所示。當(dāng)需要?jiǎng)h除已創(chuàng)建的卷時(shí),系統(tǒng)中央控制服務(wù)器向邏輯卷管理服務(wù)器發(fā)送刪除卷命令,邏輯卷管理服務(wù)器調(diào)用lvremove 命令刪除指定卷,流程如圖四所示。由于所有的邏輯卷管理服務(wù)器組成一個(gè)集群,一臺邏輯卷管理服務(wù)器對于共享存儲池中卷和快照的操作結(jié)果會在每一臺邏輯卷管理服務(wù)器上得到同步,因此以上操作均只需在一臺邏輯卷管理服務(wù)器上進(jìn)行。對快照的管理工作流與對卷的管理工作流類似,僅僅是在創(chuàng)建過程中調(diào)用 “l(fā)vcreate”命令的參數(shù)不同,流程如圖3、圖4所示。掛載卷過程如圖5所示。來自客戶端的掛載卷請求會指定一個(gè)可用的卷,需要掛載到的用戶虛擬機(jī),以及該虛擬機(jī)所在的VMM服務(wù)器。根據(jù)這些信息,系統(tǒng)中央控制服務(wù)器首先選擇一臺邏輯卷管理服務(wù)器,在這臺邏輯卷管理服務(wù)器上將目標(biāo)卷映射成為iSCSI目標(biāo)器進(jìn)行發(fā)布。接著VMM服務(wù)器通過iSCSI啟動器登入到iSCSI目標(biāo)器,此時(shí)VMM服務(wù)器上會出現(xiàn)一個(gè)虛擬iSCSI設(shè)備。最后通過“xm block-attach”命令將虛擬iSCSI設(shè)備掛載到虛擬機(jī)上,虛擬機(jī)上就成功添加了一個(gè)遠(yuǎn)程塊存儲設(shè)備。卸載卷工作為掛載卷的逆過程,流程如圖6所示。圖7是服務(wù)器故障管理工作流程示意圖。故障管理工作流程由偵聽-故障檢測流程和偵聽-故障處理流程組成。首先,部署在系統(tǒng)中央控制服務(wù)器結(jié)點(diǎn)上的邏輯卷管理服務(wù)器狀態(tài)偵聽程序定時(shí)輪詢每一臺邏輯卷管理服務(wù)器,通過調(diào)用邏輯卷管理服務(wù)器上的狀態(tài)監(jiān)控程序獲得邏輯卷管理服務(wù)器的狀態(tài)信息。當(dāng)一臺邏輯卷管理服務(wù)器返回了邏輯卷管理服務(wù)器故障消息,部署在系統(tǒng)中央控制服務(wù)器結(jié)點(diǎn)上的邏輯卷管理服務(wù)器狀態(tài)管理程序啟用。故障邏輯卷管理服務(wù)器上已建立的iSCSI連接將被重置客戶端虛擬機(jī)斷開與故障邏輯卷管理服務(wù)器建立的iSCSI連接,再選擇其他正常的邏輯卷管理服務(wù)器進(jìn)行iSCSI重連接,重新獲得對目標(biāo)卷的使用權(quán)。多邏輯卷管理服務(wù)器故障管理的主要步驟如下
A.中央控制服務(wù)器定時(shí)輪詢各邏輯卷管理服務(wù)器,調(diào)用邏輯卷管理服務(wù)器上的服務(wù)器狀態(tài)偵聽程序獲得邏輯卷管理服務(wù)器的實(shí)時(shí)運(yùn)行狀態(tài)。B.當(dāng)發(fā)現(xiàn)系統(tǒng)中存在故障邏輯卷管理服務(wù)器時(shí),調(diào)用故障遷移程序,將該服務(wù)器上已建立的iSCSI鏈接逐條遷移至其他邏輯卷管理服務(wù)器上。C.當(dāng)故障服務(wù)器上所有iSCSI鏈接均遷移完畢后,調(diào)用故障隔離程序,將故障邏輯卷管理服務(wù)器隔離出邏輯卷管理服務(wù)器集群。圖8是負(fù)載均衡策略流程圖。邏輯卷管理服務(wù)器狀態(tài)偵聽程序每隔時(shí)間f調(diào)用邏輯卷管理服務(wù)器負(fù)載監(jiān)控程序獲取各條iSCSI連接的負(fù)載狀況,然后邏輯卷管理服務(wù)器管理程序計(jì)算出每臺卷服務(wù)器的性能加權(quán)負(fù)載值。當(dāng)系統(tǒng)中存在兩臺服務(wù)器性能加權(quán)負(fù)載值之差大于閾值ω時(shí),取出系統(tǒng)中負(fù)載最大和最小的卷服務(wù)器執(zhí)行iSCSI鏈接負(fù)載均衡過程。定義遺傳算法的適應(yīng)度函數(shù)為兩臺服務(wù)器的負(fù)載均衡度,經(jīng)過N代遺傳得出適應(yīng)度最高的iSCSI鏈接遷移方式。最后按照遺傳算法模擬得到的遷移策略進(jìn)行iSCSI鏈接遷移。多邏輯卷管理服務(wù)器間動態(tài)負(fù)載均衡具體的操作步驟如下
A.各邏輯卷管理服務(wù)器加入系統(tǒng)集群前,采用黑盒方法,根據(jù)其隊(duì)列中等待的請求個(gè)數(shù)與IO響應(yīng)時(shí)間的關(guān)系,對其性能建模。B.中央控制服務(wù)器定時(shí)輪詢各邏輯卷管理服務(wù)器,調(diào)用邏輯卷管理服務(wù)器上的服務(wù)器負(fù)載偵聽程序獲得邏輯卷管理服務(wù)器的實(shí)時(shí)負(fù)載信息,與服務(wù)器性能模型加權(quán)后得到服務(wù)器性能加權(quán)負(fù)載狀況。C.當(dāng)中央控制服務(wù)器探測到系統(tǒng)處于負(fù)載不均衡狀態(tài)時(shí),對系統(tǒng)中性能加權(quán)負(fù)載最大和最小的兩臺服務(wù)器執(zhí)行負(fù)載均衡過程通過遺傳算法模擬得到綜合考慮均衡效果和遷移代價(jià)后最佳的iSCSI鏈接遷移策略。D.根據(jù)模擬得到的最佳遷移策略,在兩臺服務(wù)器之間進(jìn)行iSCSI鏈接遷移。本發(fā)明提出的多邏輯卷管理服務(wù)器負(fù)載均衡的云存儲系統(tǒng),解決了傳統(tǒng)塊級別云存儲系統(tǒng)中存儲管理服務(wù)器單點(diǎn)故障和性能瓶頸的問題。它提高了系統(tǒng)的可靠性和可用性;改善了系統(tǒng)的讀寫性能。
權(quán)利要求
1.一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),包括后臺異構(gòu)存儲設(shè)備組成的存儲池,多臺邏輯卷管理服務(wù)器組成的卷服務(wù)器集群,虛擬機(jī)服務(wù)器,中央控制服務(wù)器以及客戶端, 其特征在于卷服務(wù)器集群與后臺存儲池通過光纖進(jìn)行數(shù)據(jù)交換,邏輯卷管理服務(wù)器通過 iSCSI方式為虛擬機(jī)服務(wù)器提供存儲資源,中央控制服務(wù)器通過web service接口接受來自客戶端的請求以及協(xié)調(diào)邏輯卷管理服務(wù)器、虛擬機(jī)服務(wù)器的工作。
2.根據(jù)權(quán)利要求I所述一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),其特征在于多邏輯卷管理服務(wù)器通過基于集群的邏輯卷管理程序管理后臺存儲設(shè)備,同步各邏輯卷管理服務(wù)器對后臺存儲設(shè)備的變更信息。
3.根據(jù)權(quán)利要求I所述一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),其特征在于系統(tǒng)具有故障處理機(jī)制,避免因?yàn)槟撑_邏輯卷管理服務(wù)器故障而影響系統(tǒng)工作;所述的故障處理機(jī)制通過如下方法實(shí)現(xiàn)中央控制服務(wù)器定時(shí)檢測各臺邏輯卷管理服務(wù)器的運(yùn)行狀態(tài),發(fā)現(xiàn)某服務(wù)器異常后,對其進(jìn)行數(shù)據(jù)遷移和故障服務(wù)器隔離。
4.根據(jù)權(quán)利要求I所述一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),其特征在于中央控制服務(wù)器接受系統(tǒng)客戶端請求,動態(tài)管理多臺邏輯卷管理服務(wù)器為多臺虛擬機(jī)服務(wù)器之上用戶虛擬機(jī)分配存儲空間。
5.根據(jù)權(quán)利要求I所述一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),其特征在于性能不一的邏輯卷管理服務(wù)器在系統(tǒng)中可以進(jìn)行動態(tài)負(fù)載均衡。
6.根據(jù)權(quán)利要求5所述一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng),其特征在于利用遺傳算法對多邏輯卷管理服務(wù)器進(jìn)行負(fù)載均衡具體如下利用黑盒方法對邏輯卷管理服務(wù)器性能建模,通過在iSCSI端口捕捉到的總iSCSI數(shù)據(jù)包大小對各邏輯卷管理服務(wù)器負(fù)載建模,根據(jù)前兩個(gè)模型的比值得到各邏輯卷管理服務(wù)器性能加權(quán)負(fù)載模型;中央控制服務(wù)器定時(shí)檢測各邏輯卷管理服務(wù)器性能加權(quán)負(fù)載狀況,當(dāng)檢測到存在服務(wù)器負(fù)載不均衡狀態(tài)時(shí),對系統(tǒng)中性能加權(quán)負(fù)載最大和最小的服務(wù)器進(jìn)行負(fù)載均衡;根據(jù)兩臺服務(wù)器上各iSCSI鏈接的負(fù)載狀況,使用遺傳算法模擬出遷移代價(jià)最小的負(fù)載均衡方法;D.根據(jù)模擬得到的最佳遷移策略,在兩臺服務(wù)器之間進(jìn)行iSCSI鏈接遷移。
全文摘要
本發(fā)明涉及一種多服務(wù)器負(fù)載均衡的云存儲系統(tǒng)?,F(xiàn)有的云存儲系統(tǒng)部分存在兩點(diǎn)不足與自身平臺系統(tǒng)緊密耦合,不利于系統(tǒng)間集成和二次開發(fā);邏輯卷管理服務(wù)器瓶頸嚴(yán)重影響了系統(tǒng)整體性能和可靠性。在本發(fā)明中,多邏輯卷管理服務(wù)器通過基于集群的邏輯卷管理技術(shù)來管理后臺存儲設(shè)備;中間控制服務(wù)器協(xié)調(diào)管理系統(tǒng)各個(gè)模塊工作,為用戶虛擬機(jī)分配存儲資源;同時(shí)通過故障管理機(jī)制和動態(tài)負(fù)載均衡機(jī)制保證系統(tǒng)的可靠性和性能。本發(fā)明實(shí)現(xiàn)了可靠的云存儲服務(wù)器中存儲設(shè)備管理,并且在性能上有效地提高了系統(tǒng)存儲設(shè)備讀寫吞吐量,縮短了平均讀寫響應(yīng)時(shí)間。
文檔編號H04L29/08GK102594861SQ20111042027
公開日2012年7月18日 申請日期2011年12月15日 優(yōu)先權(quán)日2011年12月15日
發(fā)明者萬健, 任永堅(jiān), 周麗, 張紀(jì)林, 徐向華, 殷昱煜, 王毅成 申請人:杭州電子科技大學(xué)