本公開涉及人機(jī)交互技術(shù)領(lǐng)域,具體而言,涉及一種游戲交互方法與裝置。
背景技術(shù):
在現(xiàn)有的體感游戲或虛擬現(xiàn)實游戲中,通??梢酝ㄟ^對用戶肢體動作的捕捉來判斷用戶的交互意圖。但是,當(dāng)用戶在游戲過程中想調(diào)整顯示界面的視覺焦距以放大顯示對象從而看得更清楚,或者當(dāng)用戶想要瞄準(zhǔn)一個顯示對象時,通常需要通過手動操控硬件來實現(xiàn)。由于手動操控的過程需要與硬件進(jìn)行交互,具有一定的中斷和延時,影響了用戶游戲體驗的流暢性。
因此,需要一種能給用戶帶來流暢的游戲體驗的顯示界面調(diào)整方式。
需要說明的是,在上述背景技術(shù)部分公開的信息僅用于加強(qiáng)對本公開的背景的理解,因此可以包括不構(gòu)成對本領(lǐng)域普通技術(shù)人員已知的現(xiàn)有技術(shù)的信息。
技術(shù)實現(xiàn)要素:
本公開的目的在于提供一種游戲交互方法與裝置,用于至少在一定程度上克服由于相關(guān)技術(shù)的限制和缺陷而導(dǎo)致的一個或多個問題。
根據(jù)本公開實施例的第一方面,提供一種游戲交互方法,包括:
獲取用戶在預(yù)設(shè)表情下的預(yù)設(shè)表情參數(shù);
獲取用戶的實時表情參數(shù);
判斷用戶的預(yù)設(shè)表情程度,所述預(yù)設(shè)表情程度表征實時表情與所述預(yù)設(shè)表情之間的接近度;
根據(jù)所述預(yù)設(shè)表情程度調(diào)整游戲顯示界面。
在本公開的一種示例性實施例中,獲取用戶的預(yù)設(shè)表情參數(shù)包括:
獲取用戶正常狀態(tài)下的面部特征點的第一坐標(biāo);
獲取用戶在所述預(yù)設(shè)表情下的所述面部特征點的第二坐標(biāo);
根據(jù)所述第一坐標(biāo)與所述第二坐標(biāo)獲取所述預(yù)設(shè)表情參數(shù)。
在本公開的一種示例性實施例中,獲取用戶的實時表情參數(shù)包括:
追蹤所述面部特征點,以獲取所述面部特征點的第三坐標(biāo);
根據(jù)所述第一坐標(biāo)與所述第三坐標(biāo)獲取所述實時表情參數(shù)。
在本公開的一種示例性實施例中,所述預(yù)設(shè)面部表情包括瞇眼表情和瞄準(zhǔn)表情。
在本公開的一種示例性實施例中,獲取用戶的預(yù)設(shè)表情參數(shù)包括獲取用戶正常狀態(tài)下的視線焦點位置。
在本公開的一種示例性實施例中,通過所述實時表情參數(shù)與所述預(yù)設(shè)表情參數(shù)的比值判斷用戶的預(yù)設(shè)表情程度。
在本公開的一種示例性實施例中,當(dāng)所述比值大于等于1時,顯示預(yù)設(shè)界面。
在本公開的一種示例性實施例中,當(dāng)所述比值小于1時,根據(jù)所述比值調(diào)整游戲顯示界面的焦距。
根據(jù)本公開的一個方面,提供一種游戲交互裝置,包括:
參數(shù)設(shè)置模塊,用于獲取用戶在預(yù)設(shè)表情下的預(yù)設(shè)表情參數(shù);
表情監(jiān)控模塊,用于獲取用戶的實時表情參數(shù);
表情判斷模塊,用于判斷用戶的預(yù)設(shè)表情程度;
界面調(diào)整模塊,用于根據(jù)所述預(yù)設(shè)表情程度調(diào)整游戲顯示界面。
在本公開的一種示例性實施例中,所述預(yù)設(shè)面部表情包括瞇眼表情和瞄準(zhǔn)表情。
本公開的游戲交互方法通過判斷用戶面部表情調(diào)整游戲顯示界面,在不需要用戶主動控制的情況下實現(xiàn)了對用戶意圖的適應(yīng),相比于傳統(tǒng)的游戲交互方式,具有交互速度快、交互方式自然等優(yōu)點,極大改善了用戶的游戲體驗。
應(yīng)當(dāng)理解的是,以上的一般描述和后文的細(xì)節(jié)描述僅是示例性和解釋性的,并不能限制本公開。
附圖說明
此處的附圖被并入說明書中并構(gòu)成本說明書的一部分,示出了符合本公開的實施例,并與說明書一起用于解釋本公開的原理。顯而易見地,下面描述中的附圖僅僅是本公開的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
圖1示意性示出本公開示例性實施例中一種游戲交互方法的流程圖。
圖2示意性示出本公開示例性實施例中面部特征點的示意圖。
圖3示意性示出本公開示例性實施例中面部特征參數(shù)示意圖。
圖4A示意性示出本公開示例性實施例中顯示焦距為初始顯示焦距的游戲顯示界面。
圖4B示意性示出本公開示例性實施例中顯示焦距為實時顯示焦距的游戲顯示界面
圖5A示意性示出本公開示例性實施例中正常顯示界面的示意圖。
圖5B示意性示出本公開示例性實施例中瞄準(zhǔn)顯示界面的示意圖。
圖6示意性示出本公開示例性實施例中一種游戲交互裝置的方框圖。
具體實施方式
現(xiàn)在將參考附圖更全面地描述示例實施方式。然而,示例實施方式能夠以多種形式實施,且不應(yīng)被理解為限于在此闡述的范例;相反,提供這些實施方式使得本公開將更加全面和完整,并將示例實施方式的構(gòu)思全面地傳達(dá)給本領(lǐng)域的技術(shù)人員。所描述的特征、結(jié)構(gòu)或特性可以以任何合適的方式結(jié)合在一個或更多實施方式中。在下面的描述中,提供許多具體細(xì)節(jié)從而給出對本公開的實施方式的充分理解。然而,本領(lǐng)域技術(shù)人員將意識到,可以實踐本公開的技術(shù)方案而省略所述特定細(xì)節(jié)中的一個或更多,或者可以采用其它的方法、組元、裝置、步驟等。在其它情況下,不詳細(xì)示出或描述公知技術(shù)方案以避免喧賓奪主而使得本公開的各方面變得模糊。
此外,附圖僅為本公開的示意性圖解,圖中相同的附圖標(biāo)記表示相同或類似的部分,因而將省略對它們的重復(fù)描述。附圖中所示的一些方框圖是功能實體,不一定必須與物理或邏輯上獨立的實體相對應(yīng)。可以采用軟件形式來實現(xiàn)這些功能實體,或在一個或多個硬件模塊或集成電路中實現(xiàn)這些功能實體,或在不同網(wǎng)絡(luò)和/或處理器裝置和/或微控制器裝置中實現(xiàn)這些功能實體。
下面結(jié)合附圖對本公開示例實施方式進(jìn)行詳細(xì)說明。
圖1是本公開示例性實施例中一種游戲交互方法100的流程圖。
參考圖1,所述游戲交互方法100可以包括:
步驟S102:獲取用戶在預(yù)設(shè)表情下的預(yù)設(shè)表情參數(shù);
步驟S104:獲取用戶的實時表情參數(shù);
步驟S106:判斷用戶的預(yù)設(shè)表情程度,所述預(yù)設(shè)表情程度表征實時表情與所述預(yù)設(shè)表情之間的接近度;
步驟S108:根據(jù)所述預(yù)設(shè)表情程度調(diào)整游戲顯示界面。
通過本示例性實施例中的游戲交互方法通過判斷用戶面部表情調(diào)整游戲顯示界面,在不需要用戶主動控制的情況下實現(xiàn)了對用戶意圖的適應(yīng),相比于傳統(tǒng)的游戲交互方式,具有交互速度快、交互方式自然等優(yōu)點,極大改善了用戶的游戲體驗。
下面,將對本公開的示例性實施例中的游戲交互方法中的各步驟作進(jìn)一步的說明。
在步驟S102中,獲取用戶在預(yù)設(shè)表情下的預(yù)設(shè)表情參數(shù)。
本公開提供的游戲交互方法可以適用于體感游戲設(shè)備、虛擬現(xiàn)實設(shè)備等具有運動捕捉功能的設(shè)備。
運動捕捉是一種用于準(zhǔn)確測量運動物體在三維空間運動狀況的技術(shù)。它基于計算機(jī)圖形學(xué)原理,通過排布在空間中的數(shù)個視頻捕捉設(shè)備將運動物體(或附著在運動物體上的跟蹤器)的運動狀況以圖像的形式記錄下來,然后使用獲取機(jī)對該圖象數(shù)據(jù)進(jìn)行處理,從而獲得不同時間計量單位上不同物體(跟蹤器)的空間坐標(biāo)。
進(jìn)一步地,在本公開的示例性實施方式中,所述步驟S102:獲取用戶在預(yù)設(shè)表情下的預(yù)設(shè)表情參數(shù),可以包括:
步驟S1022,獲取用戶正常狀態(tài)下的面部特征點的第一坐標(biāo)。
首先,通過逆向建模獲得用戶面部模型以及特征點。可以通過設(shè)備的光傳感器捕捉用戶在正常狀態(tài)下面部肌肉反射光的光譜。這些光譜可以是自然光投射在面部肌肉上的反射光的光譜,也可以是設(shè)備投射在面部肌肉上的反射光的光譜。通過對上述光譜的分析,可以通過逆向建?!缫郧嬷貥?gòu)的方式,對用戶面部進(jìn)行建模。
曲面重構(gòu)是一種逆向建模方法。在曲面重構(gòu)過程中,可以先對離散數(shù)據(jù)點進(jìn)行參數(shù)化,然后根據(jù)數(shù)據(jù)點塊的邊界構(gòu)造初始曲面,并使各數(shù)據(jù)點的相對位置在初始曲面上得以呈現(xiàn),從而通過獲取數(shù)據(jù)點各自的參數(shù)(u,v)分布,使各數(shù)據(jù)點成為曲面片真正的節(jié)點。在對各節(jié)點進(jìn)行順序排列,例如對各節(jié)點的節(jié)點次序、節(jié)點編號和節(jié)點參數(shù)化值進(jìn)行排序后,可以得到具有有序的多個節(jié)點的曲面片。
在本示例實施方式中,可以通過獲取用戶面部的特征點來作為曲面重構(gòu)過程中的數(shù)據(jù)點。此處可引入MPEG-4對三維人臉動畫定義的國際標(biāo)準(zhǔn)【ISO/IEC 1988a】和【IOS/IEC 1988b】,這兩種標(biāo)準(zhǔn)都包括了對FAP(facial animation parameter,人臉動畫參數(shù))的定義。FAP是一種具有通用性的參數(shù),可以用來表示人臉運動數(shù)據(jù),其值通常以FAPU(facial animation parameter unit,人臉動畫參數(shù)單元)為單位,以使同樣的FAP在應(yīng)用到不同的模型上時,產(chǎn)生的是同樣的肌肉變化。
在本示例實施方式中,預(yù)設(shè)面部表情可以包括瞇眼表情和瞄準(zhǔn)表情。因此,本步驟可以包括獲取用戶眼周肌肉的運動,從而獲取所述用戶的表情??梢詫㈩~肌、顳肌、眼輪匝肌、皺眉肌鼻肌、顴肌等眼周肌肉作為能夠最大程度反映用戶表情特征的肌肉,在這些肌肉位置上標(biāo)記特征點,再通過曲面重構(gòu)等逆向建模方式獲得用戶的眼周局部建模。值得一提的是,逆向建模方式并不僅限于此,本領(lǐng)域相關(guān)技術(shù)人員當(dāng)可根據(jù)實際情況選擇逆向建模方式。
在獲得用戶的面部模型后,可以選取特征點,并記錄這些特征點的坐標(biāo)。將此時的用戶面部特征點坐標(biāo)記錄為第一坐標(biāo),以表示用戶在正常狀態(tài)下的面部表情特征。
步驟S1024,獲取用戶在所述預(yù)設(shè)表情下的所述面部特征點的第二坐標(biāo)。
可以提示用戶做出預(yù)設(shè)表情。提示用戶的方法包括但不限于在游戲界面中進(jìn)行視覺提示、通過設(shè)備進(jìn)行音頻提示等。當(dāng)發(fā)出上述提示后,可以通過對進(jìn)行圖像處理、分析與模式識別,實時捕捉上述用戶面部特征點的坐標(biāo),以判斷用戶面部肌肉運動,并在用戶面部肌肉保持穩(wěn)定時記錄用戶的表情。
可以將此時的用戶面部特征點坐標(biāo)記錄為第二坐標(biāo),以表示用戶在預(yù)設(shè)表情下的面部表情特征。
步驟S1026,根據(jù)所述第一坐標(biāo)與所述第二坐標(biāo)獲取所述預(yù)設(shè)表情參數(shù)。
可以根據(jù)第一坐標(biāo)得出選定特征點之間的距離以獲取第一面部表情參數(shù)K0,根據(jù)第二坐標(biāo)得出選定特征點之間的距離以獲取第二面部表情參數(shù)K1,計算K1與K0的比值K1/K0,將所述比值記錄為預(yù)設(shè)表情參數(shù)。
當(dāng)預(yù)設(shè)面部表情包括瞇眼表情和瞄準(zhǔn)表情時,獲取用戶的預(yù)設(shè)表情參數(shù)除了獲取用戶眼周肌肉特征點的坐標(biāo),也可以包括獲取用戶正常狀態(tài)下的視線焦點位置。例如,可以通過追蹤用戶瞳孔位置確定用戶的視線焦點位置,而所述位置是根據(jù)顯示界面的坐標(biāo)預(yù)先設(shè)置的,一旦檢測到用戶視線焦點停留于所述位置超過預(yù)設(shè)時間閾值時,則觸發(fā)相應(yīng)的游戲操作(如,在射擊游戲中,執(zhí)行瞄準(zhǔn)對焦和射擊)。
在步驟S104中,獲取用戶的實時表情參數(shù)。
通過追蹤上述面部特征點,以獲取所述面部特征點的第三坐標(biāo),并根據(jù)所述第一坐標(biāo)與所述第三坐標(biāo)獲取所述實時表情參數(shù)。根據(jù)第三坐標(biāo)記得出選定特征點之間的距離以獲取第三面部表情參數(shù)K2,實時表情參數(shù)例如可以通過K2/K0來表示。
在步驟S106中,判斷用戶的預(yù)設(shè)表情程度,所述預(yù)設(shè)表情程度表征實時表情與所述預(yù)設(shè)表情之間的接近度。
通過所述實時表情參數(shù)與所述預(yù)設(shè)表情參數(shù)的比值判斷用戶的預(yù)設(shè)表情程度。例如,可以通過K2/K1來獲取實時表情與預(yù)設(shè)表情之間的接近度。
在步驟S108中,根據(jù)所述預(yù)設(shè)表情程度調(diào)整游戲顯示界面。
得出上述用戶表情判斷結(jié)果后,可以根據(jù)實時表情與預(yù)設(shè)表情之間的接近度調(diào)整游戲顯示界面。例如,在當(dāng)所述比值大于等于1時,顯示預(yù)設(shè)界面。當(dāng)所述比值大于1時,表示用戶的實時表情超出l預(yù)設(shè)表情的面部肌肉運動范圍,過度做出了預(yù)設(shè)表情;當(dāng)所述比值等于1時,表示用戶的實時表情十分接近預(yù)設(shè)表情,可認(rèn)為用戶做出了預(yù)設(shè)表情。因此,當(dāng)用戶做出預(yù)設(shè)表情或過度做出預(yù)設(shè)表情時,可顯示預(yù)設(shè)界面。
當(dāng)預(yù)設(shè)表情包括瞇眼表情和瞄準(zhǔn)表情時,此時的顯示界面可以是允許顯示的最大視覺焦距界面或者瞄準(zhǔn)界面(例如可以包括準(zhǔn)星或者瞄準(zhǔn)窗口)。在本公開的其他實施例中,當(dāng)預(yù)設(shè)表情包括其他表情時,上述的預(yù)設(shè)界面也可以是其他顯示界面,本領(lǐng)域相關(guān)技術(shù)人員當(dāng)可根據(jù)實際情況實施。
同時,當(dāng)預(yù)設(shè)表情包括瞇眼表情,且當(dāng)所述比值小于1時,可以根據(jù)所述比值調(diào)整游戲顯示界面的焦距。在這里,可以認(rèn)為當(dāng)所述比值小于1時,用戶的面部肌肉運動未達(dá)到預(yù)設(shè)表情的面部肌肉運動范圍,例如預(yù)設(shè)表情是瞇眼表情,用戶的瞇眼程度可能并未達(dá)到預(yù)設(shè)的瞇眼表情的瞇眼程度。此時,可以根據(jù)用戶的瞇眼程度調(diào)整游戲顯示界面的焦距,例如,用戶瞇眼程度越大,越接近預(yù)設(shè)瞇眼程度,則游戲顯示界面的焦距越大,用戶可以看到相對更遠(yuǎn)的景象;用戶瞇眼程度越小,越接近正常狀態(tài)的面部表情,則游戲顯示界面的焦距越小,越接近用戶正常表情情況下能看到的游戲顯示界面。
由于人在看不清遠(yuǎn)處較為模糊或者視線不清晰時,會下意識瞇眼來看清楚更遠(yuǎn)的物體,因此,通過上述方法,可以通過檢測人眼周圍的肌肉的變化判斷用戶是否做出了瞇眼表情,從而判斷用戶是否有查看更遠(yuǎn)目標(biāo)的需求。通過建立用戶的瞇眼表情程度與游戲顯示界面的焦距之間比例參數(shù)關(guān)系,可以使用戶通過下意識的面部肌肉動作來控制游戲顯示界面,從而看到更符合需求的游戲顯示界面。同理,當(dāng)用戶做出瞄準(zhǔn)表情或其他預(yù)設(shè)表情時,上述方法也可以使游戲顯示界面顯示游戲瞄準(zhǔn)界面或其他符合用戶需求的游戲顯示界面,本公開對此不作特殊限定。
下面通過具體實施例來對本公開實施例實施方式進(jìn)行詳細(xì)說明。
圖2是MPEG-4標(biāo)準(zhǔn)規(guī)定的人面部特征點的示意圖。
參考圖2,在MPEG-4標(biāo)準(zhǔn)中,F(xiàn)AP包括84個面部特征點,面部特征點可以按部位命名。在本實施例中,可以將虹膜直徑、兩眼中心距離、眼睛-鼻子距離作為最能表征用戶眼部表情的特征值,選取能夠表達(dá)這些特征值的特征點,例如特征點3.10、3.14、5.4、4.4、4.6、3.12。
圖3是本公開示例性實施例中面部特征參數(shù)示意圖。
參考圖3,可以通過幾組特征點之間的長度(以右眼為例)L1(3.10&3.14)、L2(5.4&4.4)、L3(4.6&3.12)設(shè)置面部表情參數(shù)K。例如,將面部表情參數(shù)K定義為:K=a1*L1+a2*L2+a3*L3,其中a1、a2、a3為常量,用于分配三段L值的權(quán)重。
因此,可以首先通過用戶面部的反射光使用曲面重構(gòu)等逆向建模方法獲取用戶的面部模型,并在面部模型上定位上述特征點。然后,提示用戶做出正常表情,記錄上述特征點的坐標(biāo)作為第一坐標(biāo),并根據(jù)第一坐標(biāo)計算特征點之間的長度,從而獲取第一面部表情參數(shù)K0。
接下來,可以提示用戶做出預(yù)設(shè)表情,例如瞇眼表情,獲取上述特征點的第二坐標(biāo),并根據(jù)第二坐標(biāo)計算特征點之間的長度,獲取第二面部表情參數(shù)K1。獲取第二坐標(biāo)的過程可以包括判斷用戶面部肌肉所呈現(xiàn)的表情狀態(tài)是否穩(wěn)定,例如各特征點坐標(biāo)的穩(wěn)定時間超過預(yù)設(shè)時間,以判斷用戶按照指示做出了其想要表達(dá)的預(yù)設(shè)面部表情(例如為瞇眼表情)。
追蹤定位上述特征點,并計算特征點之間的長度,從而獲取用戶的實時面部表情參數(shù)K2,并根據(jù)K2獲取用戶的預(yù)設(shè)面部表情程度,例如瞇眼程度。
當(dāng)預(yù)設(shè)面部表情為瞇眼表情時,可以設(shè)定游戲顯示界面可視范圍初始顯示焦距為J0,允許可看的最大焦距為J1,(K1/K0)=a(J1/J0),其中常數(shù)a的值可以由(K1/K0)/(J1/J0)確定。
此時,可以得到游戲顯示界面的焦距J和用戶面部表情參數(shù)K之間的對應(yīng)關(guān)系J=K/a。由于實時面部表情參數(shù)可表示為K2/K0,因此,通過計算確定實時游戲顯示界面的實時顯示焦距J2,并根據(jù)J2調(diào)整游戲顯示界面。
圖4A是本公開示例實施例中焦距為初始顯示焦距J0的游戲顯示界面。圖4B是本公開示例實施例中焦距為實時顯示焦距J2的游戲顯示界面。
參考圖4A~圖4B,當(dāng)用戶做出正常表情時,K2=K0,J2=J0,顯示焦距為J0的游戲顯示界面;當(dāng)預(yù)設(shè)表情程度小于1時,J2<J1,顯示焦距為J2的游戲顯示界面;當(dāng)預(yù)設(shè)表情程度大于等于1時,可以得出J2≥J1,此時可以仍然顯示最大焦距J1。
圖5A是本公開示例實施例中正常顯示界面的示意圖。圖5B是本公開示例性實施例中瞄準(zhǔn)顯示界面的示意圖。
參考圖5A~圖5B,當(dāng)預(yù)設(shè)表情為瞄準(zhǔn)表情時,可以在獲取第一面部表情參數(shù)K0后,提示用戶做出瞄準(zhǔn)表情,并在判斷用戶面部肌肉穩(wěn)定時間達(dá)到或超過一預(yù)設(shè)時間(例如可以為0.5s)時,獲取用戶面部特征點的第二坐標(biāo),從而獲取第二面部表情參數(shù)K1。需要注意的是,在本實施例中,獲取第二面部表情參數(shù)K1還包括獲取用戶視線在游戲顯示界面的焦點位置F。
當(dāng)通過獲取用戶實時面部表情參數(shù)從而判斷用戶做出了瞄準(zhǔn)表情時,可以顯示以上述焦點位置F為圓心、以預(yù)設(shè)數(shù)值為半徑的瞄準(zhǔn)界面。進(jìn)一步的,當(dāng)判斷第三面部表情參數(shù)在預(yù)設(shè)時間內(nèi)從K1陡降到K0時,將游戲顯示界面還原為正常界面。上述瞄準(zhǔn)界面的顯示方式可以為多種,例如矩形、靶形、準(zhǔn)星標(biāo)記等,本公開不以此為限。
對應(yīng)于上述方法實施例,本公開還提供一種游戲交互裝置,用于執(zhí)行上述方法實施例。
圖2示意性示出本公開示例性實施例中一種游戲交互裝置的方框圖。參考圖2,游戲交互裝置200包括參數(shù)設(shè)置模塊202、表情監(jiān)控模塊204、表情判斷模塊206以及界面調(diào)整模塊208。
參數(shù)設(shè)置模塊202用于獲取用戶在預(yù)設(shè)表情下的預(yù)設(shè)表情參數(shù)。在本公開的一種示例性實施例中,預(yù)設(shè)面部表情可以包括瞇眼表情和瞄準(zhǔn)表情。
表情監(jiān)控模塊204用于獲取用戶的實時表情參數(shù)。
表情判斷模塊206用于判斷用戶的預(yù)設(shè)表情程度,所述預(yù)設(shè)表情程度表征實時表情與所述預(yù)設(shè)表情之間的接近度。
界面調(diào)整模塊208用于根據(jù)所述預(yù)設(shè)表情程度調(diào)整游戲顯示界面。
由于裝置200的各部分功能已在對應(yīng)的方法實施例中詳細(xì)描述,本公開于此不再贅述。
本公開的游戲交互方法與裝置通過對用戶面部進(jìn)行逆向建模,并追蹤定位用戶面部特征點,判斷用戶面部表情,實現(xiàn)了根據(jù)用戶自然表情調(diào)整游戲顯示界面,在不需要用戶主動控制的情況下實現(xiàn)了對用戶意圖的適應(yīng),相比于傳統(tǒng)的游戲交互方式,具有交互速度快、交互方式自然等優(yōu)點,極大改善了用戶的游戲體驗。
本領(lǐng)域技術(shù)人員在考慮說明書及實踐這里公開的發(fā)明后,將容易想到本公開的其它實施方案。本申請旨在涵蓋本公開的任何變型、用途或者適應(yīng)性變化,這些變型、用途或者適應(yīng)性變化遵循本公開的一般性原理并包括本公開未公開的本技術(shù)領(lǐng)域中的公知常識或慣用技術(shù)手段。說明書和實施例僅被視為示例性的,本公開的真正范圍和精神由所附的權(quán)利要求指出。