一種體感輸入方法及裝置的制造方法
【技術(shù)領(lǐng)域】
[0001]本申請涉及用戶和計(jì)算機(jī)之間的交互技術(shù),尤其涉及一種體感輸入方法及裝置。
【背景技術(shù)】
[0002]隨著微電子元件技術(shù)的不斷進(jìn)步,廠商把各種微電子感應(yīng)元件(如加速度計(jì)、慣性陀螺儀、光電、生物、壓力…等)導(dǎo)入消費(fèi)性電子產(chǎn)品(包含但不限于PDA、手機(jī)、平板電腦、游戲機(jī)、個(gè)人計(jì)算機(jī)、汽車電子等),使得體感、手勢動(dòng)作等獨(dú)特操控方式成為可能,可為產(chǎn)業(yè)界帶來不少創(chuàng)新應(yīng)用,也為人類生活帶來了更直覺、更智能的生活應(yīng)用。
[0003]以游戲機(jī)為例,傳統(tǒng)的搖桿或按鍵控制的方式直到任天堂推出Wii才有突破,其采用創(chuàng)新的體感控制器(Mot1n Controller),透過手部傳感方式來進(jìn)行游戲,為體感游戲開創(chuàng)先河,爾后微軟推出Kinect、索尼(Sony)推出PS Move等體感控制器,讓玩家藉由手勢或身體來控制游戲,為業(yè)界帶來全新的娛樂革命。
[0004]現(xiàn)有技術(shù)中的體感控制主要包括兩大類:
[0005]第一類,利用內(nèi)建微電子感應(yīng)元件的控制器,透過手部傳感動(dòng)作來達(dá)到控制的目的;
[0006]第二類,透過視訊攝影機(jī)來偵測肢體動(dòng)作,以分辨出有效移動(dòng)進(jìn)而控制。
[0007]其中,尤其以第二類的應(yīng)用更多元,例如可以通過人臉辨識(Face Recognit1n)技術(shù),將人臉圖象轉(zhuǎn)換成特征,并實(shí)時(shí)對攝影人臉進(jìn)行比對與識別,用以當(dāng)作登入系統(tǒng)或解鎖之用。目前計(jì)算機(jī)軟件、智能型手機(jī)皆可通過人臉辨識來登入或解鎖系統(tǒng)。
[0008]現(xiàn)有技術(shù)中根據(jù)人臉辨識技術(shù)實(shí)現(xiàn)輸入的應(yīng)用往往限于身份辨識,并無根據(jù)人的臉部活動(dòng)進(jìn)行輸入的應(yīng)用。
【發(fā)明內(nèi)容】
[0009]本申請?zhí)峁┝艘环N體感輸入方法及裝置,能夠根據(jù)用戶鼻子的移動(dòng)生成輸入信息。
[0010]本申請實(shí)施例提供的一種體感輸入方法,包括:
[0011]根據(jù)預(yù)定的時(shí)間間隔,通過攝像頭獲取玩家在鏡頭前的圖像;
[0012]采用圖像識別技術(shù)識別出每一張圖像中特征部的位置坐標(biāo);
[0013]將當(dāng)前圖像的特征部的位置坐標(biāo)與上一張圖像的特征部的位置坐標(biāo)求差,求出特征部的位移向量,將位移向量除以兩張圖像的時(shí)間間隔,得到當(dāng)前特征部的運(yùn)動(dòng)速度;
[0014]將所述運(yùn)動(dòng)速度參數(shù)轉(zhuǎn)換為游戲的輸入信號。
[0015]可選地,所述特征部為鼻子或嘴。
[0016]可選地,所述時(shí)間間隔為0.1秒。
[0017]可選地,該方法進(jìn)一步包括:在創(chuàng)建玩家角色的過程中,采用圖像識別技術(shù)識別用戶的臉部特征信息,根據(jù)臉部特征信息生成玩家角色的屬性參數(shù)。
[0018]可選地,所述臉部特征信息為眼睛大小、鼻子的長度和寬度,嘴巴長度和寬度,以及眼睛、鼻子和嘴巴三者之間的位置關(guān)系。
[0019]可選地,該方法進(jìn)一步包括:通過圖像識別技術(shù)識別出臉部動(dòng)作作為操作輸入。
[0020]本申請實(shí)施例還提供了一種體感輸入裝置,包括:
[0021]圖像獲取模塊,其中包括攝像頭,用于根據(jù)預(yù)定的時(shí)間間隔,通過攝像頭獲取玩家在鏡頭前的圖像;
[0022]識別模塊,用于采用圖像識別技術(shù)識別出所述圖像獲取模塊所獲取的每一張圖像中特征部的位置坐標(biāo);
[0023]速度計(jì)算模塊,用于將當(dāng)前圖像的特征部的位置坐標(biāo)與上一張圖像的特征部的位置坐標(biāo)求差,求出特征部的位移向量,將位移向量除以兩張圖像的時(shí)間間隔,得到當(dāng)前特征部的運(yùn)動(dòng)速度;
[0024]輸入模塊,用于將所述運(yùn)動(dòng)速度參數(shù)轉(zhuǎn)換為游戲的輸入信號。
[0025]可選地,所述特征部為鼻子或嘴。
[0026]可選地,所述時(shí)間間隔為0.1秒。
[0027]可選地,所述識別模塊進(jìn)一步用于采用圖像識別技術(shù)識別用戶的臉部特征信息;
[0028]所述輸入模塊進(jìn)一步用于在創(chuàng)建玩家角色的過程中,根據(jù)識別模塊所識別的臉部特征信息生成玩家角色的屬性參數(shù)。
[0029]可選地,所述識別模塊進(jìn)一步用于通過圖像識別技術(shù)識別出臉部動(dòng)作;
[0030]所述輸入模塊進(jìn)一步用于將所述臉部動(dòng)作作為操作輸入。
[0031]從以上技術(shù)方案可以看出,通過攝像頭獲取玩家在鏡頭前的圖像,采用圖像識別技術(shù)識別出特征部的位置坐標(biāo),并計(jì)算出其運(yùn)動(dòng)速度,根據(jù)運(yùn)動(dòng)速度即可生成輸入信息。通過應(yīng)用本申請方案可以提供一種較為新穎的操作游戲的方式。此外,根據(jù)玩家的五官特征生成個(gè)性化的角色屬性值,增強(qiáng)用戶體驗(yàn)。
【附圖說明】
[0032]圖1為本申請實(shí)施例提供的一種體感輸入方法流程示意圖;
[0033]圖2為本申請實(shí)施例提供的一種體感輸入裝置的結(jié)構(gòu)示意圖。
【具體實(shí)施方式】
[0034]為使本申請技術(shù)方案的技術(shù)原理、特點(diǎn)以及技術(shù)效果更加清楚,以下結(jié)合具體實(shí)施例對本申請技術(shù)方案進(jìn)行詳細(xì)闡述。
[0035]本申請實(shí)施例提供的一種體感輸入方法流程如圖1所示,包括如下步驟:
[0036]步驟101:根據(jù)預(yù)定的時(shí)間間隔,通過攝像頭獲取玩家在鏡頭前的圖像。
[0037]圖像獲取頻率根據(jù)游戲的精確度來設(shè)置。在本申請的一個(gè)具體實(shí)施例中,該頻率取為每隔0.1秒獲取一次圖像。
[0038]步驟102:采用圖像識別技術(shù)識別出每一張圖像中特征部的位置坐標(biāo)。
[0039]所述特征部為人身上共有的、且易于識別的部分。例如,可以將人面部的鼻子或嘴作為特征部,也可以將張開的左手或右手作為特征部。
[0040]步驟103:將當(dāng)前圖像的特征部的位置坐標(biāo)與上一張圖像的特征部的位置坐標(biāo)求差,求出特征部的位移向量,將位移向量除以兩張圖像的時(shí)間間隔,得到當(dāng)前特征部的運(yùn)動(dòng)速度。
[0041]步驟104:將所述運(yùn)動(dòng)速度參數(shù)轉(zhuǎn)換為游戲的輸入信號。
[0042]運(yùn)動(dòng)速度包括了運(yùn)動(dòng)方向和速率大小。根據(jù)不同的游戲,可以僅根據(jù)運(yùn)動(dòng)方向生成輸入信號,如運(yùn)動(dòng)方向向左,則生成一個(gè)用于控制游戲角色向左移動(dòng)的輸入信號。也可以根