本發(fā)明涉及虛擬現(xiàn)實(shí)領(lǐng)域,更具體地涉及一種基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法與教學(xué)系統(tǒng)。
背景技術(shù):
在復(fù)雜肢體動(dòng)作輔助教學(xué)領(lǐng)域,例如舞蹈教學(xué),使用了動(dòng)作捕捉器采集學(xué)員肢體動(dòng)作,并進(jìn)行事后數(shù)據(jù)分析對(duì)比,這種方式還停留在單純數(shù)據(jù)層面的分析,缺乏實(shí)時(shí)性且不夠形象,學(xué)員無法實(shí)時(shí)看到哪里做的不到位從而進(jìn)行實(shí)時(shí)調(diào)整,缺乏一個(gè)循環(huán)正反饋的閉環(huán)過程,體驗(yàn)和效果都不好。
在社交應(yīng)用中,很多有特殊肢體動(dòng)作技能(例如街舞)的業(yè)余人士找不到專業(yè)的渠道學(xué)習(xí)發(fā)展自己的特長(zhǎng),很多想學(xué)習(xí)特殊肢體動(dòng)作的人士找不到好的或者有名的教練指導(dǎo);同樣的,很多專業(yè)水平很高的教練員因找不到合適的學(xué)員,而浪費(fèi)其專業(yè)技能資源。從而使得供需兩端的信息不對(duì)稱,而不能很好的滿足供需兩端的需求。
因此,有必要提供一種在教練者與學(xué)習(xí)者之間實(shí)現(xiàn)信息對(duì)稱、實(shí)現(xiàn)教學(xué)資源有效利用的基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法與教學(xué)系統(tǒng)。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明的目的是提供一種基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法與教學(xué)系統(tǒng),使教學(xué)者與學(xué)習(xí)者兩端的需求信息實(shí)時(shí)對(duì)等,讓學(xué)習(xí)者在虛擬場(chǎng)景中通過自我對(duì)比學(xué)習(xí)調(diào)整,且無需教學(xué)者監(jiān)督指導(dǎo)即可完美匹配教學(xué)者的肢體動(dòng)作,該方式更加形象,更加簡(jiǎn)單,且更易推廣。
為實(shí)現(xiàn)上述目的,本發(fā)明提供一種基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法,其包括如下步驟:
a.捕捉教學(xué)者的肢體動(dòng)作信息,并將教學(xué)者的肢體動(dòng)作映射至第一虛擬主體;
b.將所述第一虛擬主體的動(dòng)作信息上傳至網(wǎng)絡(luò)服務(wù)器;
c.學(xué)習(xí)者從網(wǎng)絡(luò)服務(wù)器上下載所述第一虛擬主體的動(dòng)作信息;
d.學(xué)習(xí)者根據(jù)下載的第一虛擬主體的動(dòng)作信息學(xué)習(xí)教學(xué)者的肢體動(dòng)作。
較佳地,所述步驟學(xué)習(xí)者根據(jù)下載的第一虛擬主體的動(dòng)作信息學(xué)習(xí)教學(xué)者的肢體動(dòng)作,具體地還包括:
d01.學(xué)習(xí)者根據(jù)第一虛擬主體的動(dòng)作信息做出相應(yīng)的肢體動(dòng)作;
d02.捕捉學(xué)習(xí)者的肢體動(dòng)作信息,并將學(xué)習(xí)者的肢體動(dòng)作信息映射至第二虛擬主體;
d03.學(xué)習(xí)者對(duì)比第二虛擬主體與第一虛擬主體的動(dòng)作差異,并調(diào)整學(xué)習(xí)者的肢體動(dòng)作;
d04.重復(fù)步驟d02與步驟d03,直到第二虛擬主體與第一虛擬主體的動(dòng)作相同。
較佳地,所述步驟將所述第一虛擬主體的動(dòng)作信息上傳至網(wǎng)絡(luò)服務(wù)器,具體地為:
將所述第一虛擬主體的動(dòng)作信息編碼壓縮形成數(shù)據(jù)包,并將所述數(shù)據(jù)包上傳至網(wǎng)絡(luò)服務(wù)器。
較佳地,對(duì)所述數(shù)據(jù)包進(jìn)行加密,以使所述數(shù)據(jù)包攜帶有使用權(quán)限狀態(tài)信息,且所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài)。
較佳地,當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時(shí),在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息。
較佳地,本發(fā)明的基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法還包括步驟:
根據(jù)學(xué)習(xí)者的關(guān)節(jié)位置調(diào)整所述第一虛擬主體對(duì)應(yīng)的關(guān)節(jié)位置,以使所述第一虛擬主體的關(guān)節(jié)位置信息與所述第二虛擬主體的關(guān)節(jié)位置信息完全相同。
相應(yīng)地,本發(fā)明還提供了一種基于虛擬現(xiàn)實(shí)的肢體教學(xué)系統(tǒng),其包括:
肢體動(dòng)作捕捉器,用以捕捉教學(xué)者與學(xué)習(xí)者的肢體動(dòng)作信息;
第一控制處理器,用以接收所述肢體動(dòng)作捕捉器獲得的教學(xué)者的肢體動(dòng)作信息,且將所述教學(xué)者的肢體動(dòng)作信息映射至第一虛擬主體,并形第一成虛擬現(xiàn)實(shí)場(chǎng)景;
網(wǎng)絡(luò)服務(wù)器,用以接收并存儲(chǔ)所述第一控制處理器形成的第一虛擬現(xiàn)實(shí)場(chǎng)景;
第二控制處理器,用以接收所述肢體動(dòng)作捕捉器獲得的學(xué)習(xí)者的肢體動(dòng)作信息,將所述學(xué)習(xí)者的肢體動(dòng)作信息映射至第二虛擬主體,以形成第二虛擬現(xiàn)實(shí)場(chǎng)景,且,從所述網(wǎng)絡(luò)服務(wù)器下載并存儲(chǔ)所述第一虛擬現(xiàn)實(shí)場(chǎng)景;
顯示器,用以顯示所述第二虛擬現(xiàn)實(shí)場(chǎng)景與存第一虛擬現(xiàn)實(shí)場(chǎng)景;
虛擬現(xiàn)實(shí)眼鏡,佩戴于學(xué)習(xí)者的眼睛上,用以向?qū)W習(xí)者顯示所述顯示器上的第一虛擬現(xiàn)實(shí)場(chǎng)景與第二虛擬現(xiàn)實(shí)場(chǎng)景。
較佳地,所述第一控制處理器包括一編碼單元,用以將所述第一虛擬主體的動(dòng)作信息編碼壓縮形成數(shù)據(jù)包,并對(duì)所述數(shù)據(jù)包進(jìn)行加密,以形成所述數(shù)據(jù)包的使用權(quán)限狀態(tài)信息。
較佳地,所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài)。
較佳地,當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時(shí),在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息。
較佳地,所述肢體動(dòng)作捕捉器由多個(gè)傳感器構(gòu)成,且佩戴于教學(xué)者與學(xué)習(xí)者設(shè)定的關(guān)節(jié)表面,用以獲取各關(guān)節(jié)的三維空間位置信息及運(yùn)動(dòng)軌跡信息。
較佳地,所述肢體動(dòng)作捕捉器還包括多個(gè)角度傳感器,所述角度傳感器用以獲取當(dāng)前關(guān)節(jié)的角度翻轉(zhuǎn)信息。
較佳地,所述肢體動(dòng)作捕捉器為攝像器件,所述攝像器件拍攝教學(xué)者或?qū)W習(xí)者的肢體動(dòng)作,并通過所述第一控制處理器或第二控制處理器的視覺算法處理,識(shí)別教學(xué)者或?qū)W習(xí)者的肢體動(dòng)作信息。
較佳地,所述虛擬現(xiàn)實(shí)眼鏡還包括一角度檢測(cè)單元,用以獲取佩戴有所述虛擬現(xiàn)實(shí)眼鏡的學(xué)習(xí)者的頭部轉(zhuǎn)動(dòng)角度信息,所述虛擬現(xiàn)實(shí)眼鏡根據(jù)獲取的學(xué)習(xí)者的頭部轉(zhuǎn)動(dòng)角度信息而調(diào)整顯示的第一虛擬現(xiàn)實(shí)場(chǎng)景與第二虛擬現(xiàn)實(shí)場(chǎng)景的角度,以使學(xué)習(xí)者從360°觀看第一虛擬主體與第二虛擬主體的對(duì)應(yīng)肢體動(dòng)作。
較佳地,所述虛擬現(xiàn)實(shí)眼鏡還包括一控制單元,所述控制單元用以控制所述控制處理器中虛擬現(xiàn)實(shí)場(chǎng)景的播放顯示。
與現(xiàn)有技術(shù)相比,與現(xiàn)有技術(shù)相比,本發(fā)明的基于虛擬現(xiàn)實(shí)的的肢體教學(xué)方法與教學(xué)系統(tǒng)突破傳統(tǒng)肢體運(yùn)動(dòng)教學(xué)中,學(xué)習(xí)者看教學(xué)者動(dòng)作然后自己模仿,或者教學(xué)者手把手糾正學(xué)習(xí)者的動(dòng)作的模式,通過本發(fā)明的方式可以讓學(xué)習(xí)者在虛擬場(chǎng)景中無需教學(xué)者監(jiān)督指導(dǎo)即可完美地與教學(xué)者的肢體動(dòng)作進(jìn)行匹配,實(shí)現(xiàn)了自我學(xué)習(xí),而教學(xué)者通過上傳自己的肢體動(dòng)作信息至網(wǎng)絡(luò)服務(wù)器而獲得預(yù)期的回報(bào),使得教學(xué)者能更好的發(fā)揮并利用其自身的技能;而且本發(fā)明的方式更加形象,更加簡(jiǎn)單,且更易推廣。
通過以下的描述并結(jié)合附圖,本發(fā)明將變得更加清晰,這些附圖用于解釋本發(fā)明的實(shí)施例。
附圖說明
圖1為本發(fā)明基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法的流程圖。
圖2為本發(fā)明一實(shí)施例的流程圖。
具體實(shí)施方式
現(xiàn)在參考附圖描述本發(fā)明的實(shí)施例,附圖中類似的元件標(biāo)號(hào)代表類似的元件。如上所述,本發(fā)明提供了一種基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法與教學(xué)系統(tǒng),使教學(xué)者與學(xué)習(xí)者兩端的需求信息實(shí)時(shí)對(duì)等,教學(xué)者能更好的發(fā)揮與利用其自身的技能,學(xué)習(xí)者在虛擬場(chǎng)景中通過自我對(duì)比學(xué)習(xí)調(diào)整,且無需教學(xué)者監(jiān)督指導(dǎo)即可完美匹配教學(xué)者的肢體動(dòng)作,該方式更加形象,更加簡(jiǎn)單,且更易推廣。
請(qǐng)參考圖1,描述本發(fā)明基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法的具體過程。圖1為本發(fā)明基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法的流程圖,如圖所示,本發(fā)明基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法包括如下步驟:
步驟S101:捕捉教學(xué)者的肢體動(dòng)作信息,并將教學(xué)者的肢體動(dòng)作映射至第一虛擬主體;在本步驟中,所述肢體動(dòng)作信息具體表現(xiàn)為教學(xué)者的各關(guān)節(jié)的動(dòng)作信息,即教學(xué)者的各關(guān)節(jié)在某一連續(xù)時(shí)間范圍內(nèi)的具體動(dòng)作,且各關(guān)節(jié)的所述動(dòng)作信息包括該關(guān)節(jié)的三維空間位置信息及運(yùn)動(dòng)軌跡信息;例如,教學(xué)者的手臂進(jìn)行一個(gè)平擺動(dòng)作,則所述動(dòng)作信息包括肩關(guān)節(jié)在三維空間的轉(zhuǎn)動(dòng)角度信息、腕關(guān)節(jié)或肘關(guān)節(jié)在水平位置上的位置移動(dòng)信息,而肩關(guān)節(jié)與腕關(guān)節(jié)之間整個(gè)手臂在三維空間的運(yùn)動(dòng)即形成該手臂的運(yùn)動(dòng)軌跡信息。
另外,作為本發(fā)明的一個(gè)優(yōu)選的具體實(shí)施例,所述第一虛擬主體可具體為高度仿真為人形的布娃娃或提線木偶,所述布娃娃或提線木偶根據(jù)映射關(guān)系做出與教學(xué)者完全相同的肢體動(dòng)作,也即實(shí)現(xiàn)對(duì)教學(xué)者肢體動(dòng)作的錄制;當(dāng)然所述第一虛擬主體并不限于布娃娃或提線木偶,其它可仿真成人形并能在虛擬現(xiàn)實(shí)場(chǎng)景中根據(jù)映射關(guān)系做出與教學(xué)者完全相同的肢體動(dòng)作的物件均可。
步驟S102:將所述第一虛擬主體的動(dòng)作信息上傳至網(wǎng)絡(luò)服務(wù)器;在本步驟中,可通過使用有線傳輸方式或無線傳輸方式將第一虛擬主體的動(dòng)作信息傳送至網(wǎng)絡(luò)服務(wù)器;而且教學(xué)者可以通過有償?shù)姆绞缴蟼髋c其肢體動(dòng)作對(duì)應(yīng)的第一虛擬主體的動(dòng)作信息,從而獲得教學(xué)者預(yù)期的回報(bào),使得教學(xué)者能更好的發(fā)揮并利用其自身的技能。
另外,在本發(fā)明中,本步驟具體地體現(xiàn)為:將所述第一虛擬主體的動(dòng)作信息編碼壓縮形成數(shù)據(jù)包,并將所述數(shù)據(jù)包上傳至網(wǎng)絡(luò)服務(wù)器;形成數(shù)據(jù)包后,以方便教學(xué)者上傳其肢體動(dòng)作信息,同時(shí)也方便后續(xù)學(xué)習(xí)者從所述網(wǎng)絡(luò)服務(wù)器上下載教學(xué)者的肢體動(dòng)作信息并進(jìn)行學(xué)習(xí)。更進(jìn)一步地,對(duì)所述數(shù)據(jù)包進(jìn)行打包,以使所述數(shù)據(jù)包攜帶有使用權(quán)限狀態(tài)信息,且所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài);從而教學(xué)者通過在所述數(shù)據(jù)包加密形成使用權(quán)限狀態(tài)信息而限定當(dāng)前學(xué)習(xí)者是否可以無償使用該數(shù)據(jù)包,進(jìn)而教學(xué)者可以從中獲得預(yù)期的回報(bào),使得教學(xué)者能更好的發(fā)揮并利用其自身的技能。例如,可設(shè)置注冊(cè)登錄機(jī)制,讓某些平臺(tái)的注冊(cè)會(huì)員可以無償獲得該數(shù)據(jù)包,即該平臺(tái)上的學(xué)習(xí)者可通過注冊(cè)的特定平臺(tái)而免費(fèi)下載所述數(shù)據(jù)包,當(dāng)然該數(shù)據(jù)包的使用權(quán)限狀態(tài)為授權(quán)狀態(tài),從而學(xué)習(xí)者可免費(fèi)學(xué)習(xí)教學(xué)者的肢體動(dòng)作;當(dāng)然,這種方式教學(xué)者不能直接從學(xué)習(xí)者側(cè)獲得有償回報(bào),但可通過與這些特定的平臺(tái)協(xié)議而從平臺(tái)上獲得有償回報(bào),具體方式教學(xué)者可自行設(shè)定。而當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時(shí),在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息;除上述特定平臺(tái)的注冊(cè)學(xué)習(xí)者以外,其他學(xué)習(xí)者則只能有償使用教學(xué)者上傳的肢體動(dòng)作信息,有償使用的學(xué)習(xí)者通過有償獲取所述數(shù)據(jù)包的解壓密碼信息,學(xué)習(xí)者通過所述密碼信息將該數(shù)據(jù)包成功解壓后即可正常利用數(shù)據(jù)包內(nèi)的肢體動(dòng)作信息;其中,為了保證教學(xué)者的回報(bào)率及防止資源被濫用并提高學(xué)習(xí)者的自我監(jiān)督意識(shí),還設(shè)置有限定使用的次數(shù),學(xué)習(xí)者將數(shù)據(jù)包解壓后即獲得具體的使用次數(shù)信息,解壓后,學(xué)習(xí)者每使用一次所述數(shù)據(jù)包內(nèi)的肢體動(dòng)作信息次數(shù)即減1,直到最后次數(shù)信息變?yōu)?。
步驟S103:學(xué)習(xí)者從網(wǎng)絡(luò)服務(wù)器上下載所述第一虛擬主體的動(dòng)作信息;在本步驟中,學(xué)習(xí)者通過所述網(wǎng)絡(luò)服務(wù)器下載包含有教學(xué)者肢體動(dòng)作信息的數(shù)據(jù)包,也即是所述第一虛擬主體的動(dòng)作信息。且在本步驟中,學(xué)習(xí)者通過有償下載包含有教學(xué)者肢體動(dòng)作信息的數(shù)據(jù)包進(jìn)行學(xué)習(xí),使得其學(xué)習(xí)的時(shí)間場(chǎng)合更靈活,而且獲得學(xué)習(xí)資源的途徑更為廣泛;另外由于設(shè)置了使用次數(shù)的限定,學(xué)習(xí)者在學(xué)習(xí)的過程中會(huì)更認(rèn)真,自我監(jiān)督意識(shí)也會(huì)相應(yīng)加強(qiáng),其體驗(yàn)感更真實(shí)。
步驟S104:學(xué)習(xí)者根據(jù)下載的第一虛擬主體的動(dòng)作信息學(xué)習(xí)教學(xué)者的肢體動(dòng)作;在本步驟中,學(xué)習(xí)者根據(jù)第一虛擬主體的動(dòng)作信息進(jìn)行自我學(xué)習(xí),其具體的包括如下步驟,請(qǐng)結(jié)合參考圖2:
步驟S401.學(xué)習(xí)者根據(jù)第一虛擬主體的動(dòng)作信息做出相應(yīng)的肢體動(dòng)作;在本步驟中,即為學(xué)習(xí)者通過觀察第一虛擬主體的動(dòng)作而學(xué)習(xí)做出與第一虛擬主體相同的動(dòng)作。
步驟S402.捕捉學(xué)習(xí)者的肢體動(dòng)作信息,并將學(xué)習(xí)者的肢體動(dòng)作信息映射至第二虛擬主體;在本步驟中,具體的操作過程與步驟S101相同,不同僅在于捕捉的是學(xué)習(xí)者的肢體動(dòng)作信息,第二虛擬主體的動(dòng)作表現(xiàn)為學(xué)習(xí)者的具體肢體動(dòng)作。其中,所述第二虛擬主體與第一虛擬主體相同地,可為布娃娃或提線木偶,或其它可仿真成人形并能在虛擬現(xiàn)實(shí)場(chǎng)景中根據(jù)映射關(guān)系做出與學(xué)習(xí)者完全相同的肢體動(dòng)作的物件;另外,對(duì)學(xué)習(xí)者肢體動(dòng)作的具體捕捉過程,與對(duì)教學(xué)者肢體動(dòng)作的捕捉過程完全相同,在此不再細(xì)述.
步驟S403.學(xué)習(xí)者對(duì)比第二虛擬主體與第一虛擬主體的動(dòng)作差異,并調(diào)整學(xué)習(xí)者的肢體動(dòng)作;在本步驟中,學(xué)習(xí)者通過對(duì)比第二虛擬主體(學(xué)習(xí)者自己的肢體動(dòng)作)與第一虛擬主體之間的動(dòng)作差異,而發(fā)現(xiàn)學(xué)習(xí)者與教學(xué)者之間的肢體動(dòng)作差異,進(jìn)而學(xué)習(xí)者對(duì)有差異的肢體動(dòng)作進(jìn)行調(diào)整改進(jìn),以達(dá)到學(xué)習(xí)的目的。從而在本發(fā)明中,學(xué)習(xí)者可從第三方的角度通過觀察兩個(gè)虛擬主體之間動(dòng)作的差異,而發(fā)現(xiàn)自己在學(xué)習(xí)過程中存在的問題,并相應(yīng)作出動(dòng)作的改進(jìn),從而不需要通過教學(xué)者或其他第三方來輔助認(rèn)識(shí)到問題所在并進(jìn)行改進(jìn),因此學(xué)習(xí)效果更直觀,且學(xué)習(xí)成本也大大降低了。
步驟S404.重復(fù)步驟S402與步驟S403,直到第二虛擬主體與第一虛擬主體的動(dòng)作相同。在本步驟中,學(xué)習(xí)者每練習(xí)一次肢體動(dòng)作即可與教學(xué)者對(duì)應(yīng)的第二虛擬主體的動(dòng)作進(jìn)行對(duì)比,通過對(duì)比學(xué)習(xí)者發(fā)現(xiàn)自己肢體動(dòng)作(第一虛擬主體的動(dòng)作)與教學(xué)者肢體動(dòng)作之間存在的差異,進(jìn)而學(xué)習(xí)者在下一次練習(xí)中對(duì)自己的肢體動(dòng)作進(jìn)行改進(jìn),如此重復(fù)多次練習(xí),直到學(xué)習(xí)者完成的肢體動(dòng)作與教學(xué)者的肢體動(dòng)作完全一致,也即第二虛擬主體與第一虛擬主體的動(dòng)作相同,從而完成學(xué)習(xí)過程。
另外,由上述可知,在本發(fā)明的具體實(shí)際應(yīng)用中,教學(xué)者的動(dòng)作信息已事先錄制映射至所述第一虛擬主體上,而不同的學(xué)習(xí)者的體型、關(guān)節(jié)位置可能均與教學(xué)者不一樣,為了讓學(xué)習(xí)者更好的達(dá)到學(xué)習(xí)的效果,學(xué)習(xí)者可在開始學(xué)習(xí)之前對(duì)所述第一虛擬主體進(jìn)行初始化設(shè)置。因此,作為本發(fā)明的優(yōu)選實(shí)施例,所述基于虛擬現(xiàn)實(shí)的肢體教學(xué)方法還包括步驟:根據(jù)學(xué)習(xí)者的關(guān)節(jié)位置調(diào)整所述第一虛擬主體對(duì)應(yīng)的關(guān)節(jié)位置,以使所述第一虛擬主體的關(guān)節(jié)位置信息與所述第二虛擬主體的關(guān)節(jié)位置信息完全相同;通過調(diào)整設(shè)置所述第一虛擬主體對(duì)應(yīng)的關(guān)節(jié)位置,以使其與學(xué)習(xí)者對(duì)應(yīng)的第二虛擬主體的關(guān)節(jié)位置完全相同,從而也間接使得教學(xué)者的關(guān)節(jié)位置匹配了學(xué)習(xí)者的關(guān)節(jié)位置,因此,學(xué)習(xí)者可以更直觀形象地發(fā)現(xiàn)自己的肢體動(dòng)作與教學(xué)者的肢體動(dòng)作之間的差別,以達(dá)到更好的學(xué)習(xí)效果。由上述可知,該初始化設(shè)置是學(xué)習(xí)者在開始學(xué)習(xí)之前進(jìn)行設(shè)置的,因此,在具體流程中可設(shè)置在步驟S101與步驟S102之間。
同時(shí),本發(fā)明還提供了一種基于虛擬現(xiàn)實(shí)的肢體教學(xué)系統(tǒng),該系統(tǒng)包括:
肢體動(dòng)作捕捉器,用以捕捉教練者與學(xué)習(xí)者的肢體動(dòng)作信息;
第一控制處理器,用以接收所述肢體動(dòng)作捕捉器獲得的教學(xué)者的肢體動(dòng)作信息,且將所述教學(xué)者的肢體動(dòng)作信息映射至第一虛擬主體,并形第一成虛擬現(xiàn)實(shí)場(chǎng)景;
網(wǎng)絡(luò)服務(wù)器,用以接收并存儲(chǔ)所述第一控制處理器形成的第一虛擬現(xiàn)實(shí)場(chǎng)景;
第二控制處理器,用以接收所述肢體動(dòng)作捕捉器獲得的學(xué)習(xí)者的肢體動(dòng)作信息,將所述學(xué)習(xí)者的肢體動(dòng)作信息映射至第二虛擬主體,以形成第二虛擬現(xiàn)實(shí)場(chǎng)景,且,從所述網(wǎng)絡(luò)服務(wù)器下載并存儲(chǔ)所述第一虛擬現(xiàn)實(shí)場(chǎng)景;
顯示器,用以顯示所述第第二虛擬現(xiàn)實(shí)場(chǎng)景與第一虛擬現(xiàn)實(shí)場(chǎng)景;
虛擬現(xiàn)實(shí)眼鏡,佩戴于學(xué)習(xí)者的眼睛上,用以向?qū)W習(xí)者顯示所述顯示器上的第一虛擬現(xiàn)實(shí)場(chǎng)景與第二虛擬現(xiàn)實(shí)場(chǎng)景。
如上所述,本發(fā)明的基于虛擬現(xiàn)實(shí)的肢體教學(xué)系統(tǒng),教學(xué)者與學(xué)習(xí)者的肢體動(dòng)作信息通過所述肢體動(dòng)作捕捉器捕捉后分別映射至所述第一虛擬主體與第二虛擬主體上,并通過所述第一控制處理器與第二控制處理器而分別形成第一虛擬現(xiàn)實(shí)場(chǎng)景與第二虛擬現(xiàn)實(shí)場(chǎng)景,且所述第一控制處理器將第一虛擬現(xiàn)實(shí)場(chǎng)景上傳至網(wǎng)絡(luò)服務(wù)器,學(xué)習(xí)者可有償從所述網(wǎng)絡(luò)服務(wù)器上下載所述第一虛擬現(xiàn)實(shí)場(chǎng)景并進(jìn)行學(xué)習(xí),從而教學(xué)者可從中獲得應(yīng)有的回報(bào),使得教學(xué)者更好的發(fā)揮與利用其自身的技能。學(xué)習(xí)者從所述網(wǎng)絡(luò)服務(wù)器下載所述第一虛擬現(xiàn)實(shí)場(chǎng)景并佩戴上虛擬現(xiàn)實(shí)眼鏡即可在所述顯示器上觀看包含有教學(xué)者肢體動(dòng)作信息的第一虛擬現(xiàn)實(shí)場(chǎng)景及與包含有學(xué)習(xí)者自身肢體動(dòng)作信息的的第二虛擬現(xiàn)實(shí)場(chǎng)景,從而學(xué)習(xí)者在學(xué)習(xí)過程中的體驗(yàn)效果更直觀形象,且學(xué)習(xí)者能夠以第三方的視角來觀看體現(xiàn)自己肢體動(dòng)作的第二虛擬主體與體現(xiàn)教學(xué)者肢體動(dòng)作的第一虛擬主體兩者之間的動(dòng)作差異,而發(fā)現(xiàn)自己在學(xué)習(xí)過程中存在的問題,并相應(yīng)作出動(dòng)作的改進(jìn),從而不需要通過教學(xué)者或其他第三方來輔助認(rèn)識(shí)到問題所在并進(jìn)行改進(jìn),因此學(xué)習(xí)效果更直觀,且學(xué)習(xí)成本也大大降低了。
具體地,在本發(fā)明基于虛擬現(xiàn)實(shí)的肢體教學(xué)系統(tǒng)的具體實(shí)施方式中:
所述肢體動(dòng)作捕捉器有兩種實(shí)現(xiàn)方案:第一種,由多個(gè)傳感器構(gòu)成,且佩戴于教學(xué)者與學(xué)習(xí)者設(shè)定的關(guān)節(jié)表面,用以獲取對(duì)應(yīng)關(guān)節(jié)的三維空間位置信息及運(yùn)動(dòng)軌跡信息。根據(jù)設(shè)定的動(dòng)作要求在教學(xué)者和學(xué)習(xí)者對(duì)應(yīng)的關(guān)節(jié)處佩戴所述傳感器,所述傳感器用以獲取當(dāng)前關(guān)節(jié)的動(dòng)作信息;例如,教學(xué)者或?qū)W習(xí)者的手臂進(jìn)行一個(gè)平擺動(dòng)作,則只需要在教學(xué)者或?qū)W習(xí)者的肩關(guān)節(jié)與腕關(guān)節(jié)/肘關(guān)節(jié)處佩戴有傳感器即可,其它各關(guān)節(jié)可以不用佩戴。當(dāng)然在實(shí)際應(yīng)用過程中,為了動(dòng)作的連貫體現(xiàn),通常會(huì)在所有需要用到的關(guān)節(jié)處均佩戴傳感器,以獲取各關(guān)節(jié)實(shí)時(shí)的三維空間位置信息及運(yùn)動(dòng)軌跡信息,從而以使教學(xué)者與學(xué)習(xí)者的肢體動(dòng)作更好的映射至所述第一虛擬主體與第二虛擬主體上。其中,基于傳感器的肢體動(dòng)作捕捉,可以使用慣性傳感器二次積分獲取位移技術(shù),或者使用UWB定位技術(shù)。優(yōu)選地,所述肢體動(dòng)作捕捉器還包括多個(gè)角度傳感器,所述角度傳感器用以獲取當(dāng)前關(guān)節(jié)的角度翻轉(zhuǎn)信息;當(dāng)某些肢體動(dòng)作中需要頻繁地使某一關(guān)節(jié)進(jìn)行角度翻轉(zhuǎn)時(shí),則需要使用所述角度傳感器來獲取當(dāng)前關(guān)節(jié)的角度翻轉(zhuǎn)信息;從而以更真實(shí)而準(zhǔn)確地獲取學(xué)習(xí)者與教學(xué)者的肢體動(dòng)作。第二種,無需佩戴傳感器設(shè)備,所述肢體動(dòng)作捕捉器為攝像器件,所述攝像器件拍攝教學(xué)者或?qū)W習(xí)者的肢體動(dòng)作,并通過所述第一控制處理器或第二控制處理器的視覺算法處理,識(shí)別教學(xué)者或?qū)W習(xí)者的肢體動(dòng)作信息;通過這種方式,直接通過攝像器件拍攝教學(xué)者或?qū)W習(xí)者的肢體動(dòng)作,經(jīng)過所述控制處理器的視覺算法技術(shù)識(shí)別為肢體關(guān)節(jié)動(dòng)作信息;且在該方式的具體應(yīng)用中,攝像器件的動(dòng)作捕捉,可以使用微軟的kinect技術(shù)。
所述第一控制處理器包括一編碼單元,用以將所述第一虛擬主體的動(dòng)作信息編碼壓縮形成數(shù)據(jù)包,并對(duì)所述數(shù)據(jù)包進(jìn)行加密,以形成所述數(shù)據(jù)包的使用權(quán)限狀態(tài)信息;將所述第一虛擬主體的動(dòng)作信息編碼壓縮形成數(shù)據(jù)包,不僅方便教學(xué)者將其自身的肢體動(dòng)作信息上傳到所述網(wǎng)絡(luò)服務(wù)器,同時(shí)也方便學(xué)習(xí)者從所述網(wǎng)絡(luò)服務(wù)器上載教學(xué)者的肢體動(dòng)作信息并進(jìn)行學(xué)習(xí)。其中,所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài);通過設(shè)置所述使用權(quán)限狀態(tài)信息,而使不同的學(xué)習(xí)者獲得不同的使用權(quán)限,例如,可設(shè)置注冊(cè)登錄機(jī)制,讓某些平臺(tái)的注冊(cè)會(huì)員可以無償獲得該數(shù)據(jù)包,即該平臺(tái)上的學(xué)習(xí)者可通過注冊(cè)的特定平臺(tái)而免費(fèi)下載所述數(shù)據(jù)包,明顯地,該數(shù)據(jù)包的使用權(quán)限狀態(tài)為授權(quán)狀態(tài),從而學(xué)習(xí)者可免費(fèi)學(xué)習(xí)教學(xué)者的肢體動(dòng)作;當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時(shí),在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息;也即,除上述特定平臺(tái)的注冊(cè)學(xué)習(xí)者以外,其他學(xué)習(xí)者則只能有償使用教學(xué)者上傳的肢體動(dòng)作信息,有償使用的學(xué)習(xí)者通過有償獲取所述數(shù)據(jù)包的解壓密碼信息,學(xué)習(xí)者通過所述密碼信息將該數(shù)據(jù)包成功解壓后即可正常利用數(shù)據(jù)包內(nèi)的肢體動(dòng)作信息;其中,為了保證教學(xué)者的回報(bào)及防止資源被濫用,還設(shè)置有限定使用的次數(shù),學(xué)習(xí)者將數(shù)據(jù)包解壓后即獲得具體的使用次數(shù)信息,解壓后,學(xué)習(xí)者每使用一次所述數(shù)據(jù)包內(nèi)的肢體動(dòng)作信息次數(shù)即減1,直到最后次數(shù)信息變?yōu)?。
所述虛擬現(xiàn)實(shí)眼鏡還包括一角度檢測(cè)單元,用以獲取佩戴有所述虛擬現(xiàn)實(shí)眼鏡的學(xué)習(xí)者的頭部轉(zhuǎn)動(dòng)角度信息,所述虛擬現(xiàn)實(shí)眼鏡根據(jù)獲取的學(xué)習(xí)者的頭部轉(zhuǎn)動(dòng)角度信息而調(diào)整顯示的第一虛擬現(xiàn)實(shí)場(chǎng)景和第二虛擬現(xiàn)實(shí)場(chǎng)景的角度,以使學(xué)習(xí)者從360°觀看第一虛擬主體與第二虛擬主體的對(duì)應(yīng)肢體動(dòng)作。其中,學(xué)習(xí)者的頭部轉(zhuǎn)后,其視角信息也對(duì)應(yīng)發(fā)生了變化,所述角度檢測(cè)單元檢測(cè)到學(xué)習(xí)者頭部的轉(zhuǎn)動(dòng)角度信息后,虛擬現(xiàn)實(shí)眼鏡將學(xué)習(xí)者的視角變動(dòng)信息發(fā)送給虛擬現(xiàn)實(shí)引擎,對(duì)應(yīng)視角會(huì)隨之運(yùn)動(dòng)。具體地,當(dāng)學(xué)習(xí)者當(dāng)前觀看第二虛擬主體的動(dòng)作時(shí),視角朝向始終面向第二虛擬主體的三維中心位置,視角位置可以在以第二虛擬主體的中心為圓心,視角當(dāng)前位置到圓心距離為半徑的球面上運(yùn)動(dòng);其控制指令即由所述虛擬現(xiàn)實(shí)眼鏡的視角變動(dòng)信息控制;當(dāng)學(xué)習(xí)者當(dāng)前觀看第一虛擬主體的動(dòng)作時(shí),視角的調(diào)整過程與觀看第二虛擬主體的動(dòng)作的調(diào)整過程相同,不同僅在于,此時(shí)是以第一虛擬主體的三維中心為圓心,在此不再細(xì)述;方便學(xué)習(xí)者觀看第一虛擬主體與第二虛擬主體的各個(gè)部位的匹配情況。其中,虛擬現(xiàn)實(shí)引擎采用U3D引擎,其支持的平臺(tái)包括但不限于web瀏覽器,android系統(tǒng),ios系統(tǒng)等。優(yōu)選地,所述虛擬現(xiàn)實(shí)眼鏡還包括一控制單元,所述控制單元用以控制所述控制處理器中虛擬現(xiàn)實(shí)場(chǎng)景的播放顯示;從而學(xué)習(xí)者在學(xué)習(xí)過程中可通過所述虛擬現(xiàn)實(shí)眼鏡實(shí)時(shí)地控制所述第一虛擬現(xiàn)實(shí)場(chǎng)景與第二虛擬現(xiàn)實(shí)場(chǎng)景的呈現(xiàn),使用更加靈活,且更有利于及時(shí)地發(fā)現(xiàn)動(dòng)作存在的差異,能進(jìn)一步提高學(xué)習(xí)效率。
綜上所述,本發(fā)明的基于虛擬現(xiàn)實(shí)的的肢體教學(xué)方法與教學(xué)系統(tǒng)突破傳統(tǒng)肢體運(yùn)動(dòng)教學(xué)中,學(xué)習(xí)者看教學(xué)者動(dòng)作然后自己模仿,或者教學(xué)者手把手糾正學(xué)習(xí)者的動(dòng)作的模式,通過本發(fā)明的方式可以讓學(xué)習(xí)者在虛擬場(chǎng)景中無需教學(xué)者監(jiān)督指導(dǎo)即可完美地與教學(xué)者的肢體動(dòng)作進(jìn)行匹配,實(shí)現(xiàn)了自我學(xué)習(xí),而教學(xué)者通過上傳自己的肢體動(dòng)作信息至網(wǎng)絡(luò)服務(wù)器而獲得預(yù)期的回報(bào),使得教學(xué)者能更好的發(fā)揮并利用其自身的技能;而且本發(fā)明的方式更加形象,更加簡(jiǎn)單,且更易推廣。
以上結(jié)合最佳實(shí)施例對(duì)本發(fā)明進(jìn)行了描述,但本發(fā)明并不局限于以上揭示的實(shí)施例,而應(yīng)當(dāng)涵蓋各種根據(jù)本發(fā)明的本質(zhì)進(jìn)行的修改、等效組合。