亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于視頻分析的智能玩具的制作方法

文檔序號:1597608閱讀:595來源:國知局
專利名稱:基于視頻分析的智能玩具的制作方法
基于視頻分析的智能玩具技術領域
本發(fā)明涉及智能玩具領域,特別涉及一種基于視頻分析的智能玩具。背景技術
智能玩具是玩具類別的一個分支,它把一些IT技術和傳統(tǒng)的玩具整合在一起,使 玩具具有更多的功能,甚至能與人進行一些簡單的互動。目前市場上的智能玩具其中一類具有選定和播放功能,可以按照設定的程序來運 行,比如,在玩具的內(nèi)置芯片中存儲預先設定的聲音或者動作程序,當小孩按動玩具上的 不同功能的按鈕時,玩具可以播放相應的聲音或者作出相應的動作,以吸引孩子的注意力, 激發(fā)孩子對玩具的興趣,進而訓練孩子的聽覺和觀察能力。還有一類智能玩具具有識別功能,目前大多是基于語音識別技術,即在玩具內(nèi)部 嵌入一個語音識別的芯片,玩具可以識別出簡單的指令,進而執(zhí)行芯片中存儲的相應程序。 比如,一種具有語音識別功能的電動玩具車,當開啟開關后,它就可以根據(jù)小孩發(fā)出的前 進、后退、左轉(zhuǎn),右轉(zhuǎn)、停止等指令執(zhí)行相應的動作。由于語音識別只能識別一些口頭指令, 識別功能單一,因此,和兒童之間的互動也比較有限。為了能和兒童實現(xiàn)更好的互動,需要在智能玩具上增加更多的識別功能,以實現(xiàn) 和孩子進行更好的互動,從而使孩子在與玩具的交流互動中獲得快樂,提高智商。因此,有必要提出一種改進的智能玩具來解決上述問題。
發(fā)明內(nèi)容
本發(fā)明的目的在于提供一種基于視頻分析的智能玩具,其可以和孩子達到更好的互動 效果。為了達到本發(fā)明的目的,根據(jù)本發(fā)明的一方面,本發(fā)明提供一種智能玩具,其包括 運動參數(shù)數(shù)據(jù)庫、驅(qū)動模塊、機械運動模塊、視頻采集模塊、人臉檢測模塊、表情識別模塊, 所述運動參數(shù)數(shù)據(jù)庫存儲有多個表情對應的運動參數(shù);所述視頻采集模塊用于采集視頻圖 像;所述人臉檢測模塊對采集到的圖像進行人臉檢測,并將檢測到的人臉信息提供給所 述表情識別模塊;所述表情識別模塊對檢測到的人臉信息進行表情識別,并將表情識別結(jié) 果提供給所述驅(qū)動模塊;所述驅(qū)動模塊根據(jù)表情識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與 其對應表情的運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。進一步的,所述智能玩具為玩具熊或玩具娃娃。進一步的,所述表情包括高興、憤怒、悲傷和驚訝。進一步的,每個表情對應的運動參數(shù)包括眼睛參數(shù)、嘴巴參數(shù)、鼻子參數(shù)和眉毛參 數(shù)。進一步的,其還包括頭部姿態(tài)識別模塊,所述運動參數(shù)數(shù)據(jù)庫存儲有各頭部姿態(tài) 對應的運動參數(shù),所述頭部姿態(tài)識別模塊對檢測到的人臉信息進行頭部姿態(tài)識別,并將頭 部姿態(tài)識別結(jié)果提供給所述驅(qū)動模塊;所述驅(qū)動模塊根據(jù)頭部姿態(tài)識別結(jié)果從所述運動參 數(shù)數(shù)據(jù)庫中找到與其對應頭部的運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出 相應的動作。
根據(jù)本發(fā)明的另一方面,本發(fā)明提供一種智能玩具,其包括運動參數(shù)數(shù)據(jù)庫、驅(qū)動 模塊、機械運動模塊、視頻采集模塊、人臉檢測模塊、頭部姿態(tài)識別模塊。所述運動參數(shù)數(shù)據(jù) 庫存儲有多個頭部姿態(tài)對應的運動參數(shù);所述視頻采集模塊用于采集視頻圖像;所述人 臉檢測模塊對采集到的圖像進行人臉檢測,并將檢測到的人臉信息提供給所述頭部姿態(tài)識 別模塊;所述頭部姿態(tài)識別模塊對檢測到的人臉信息進行頭部姿態(tài)識別,并將頭部姿態(tài)識 別結(jié)果提供給所述驅(qū)動模塊;所述驅(qū)動模塊根據(jù)頭部姿態(tài)識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫 中找到與其對應頭部姿態(tài)的運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應 的動作。進一步的,所述智能玩具為玩具熊或玩具娃娃。進一步的,所述頭部姿態(tài)包括左、右、上、下四個方向的頭部姿態(tài)。進一步的,其還包括表情識別模塊,所述運動參數(shù)數(shù)據(jù)庫存儲有多個表情對應的 運動參數(shù),所述表情識別模塊對檢測到的人臉信息進行表情識別,并將表情識別結(jié)果提供 給所述驅(qū)動模塊;所述驅(qū)動模塊根據(jù)表情識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與其對應 表情的運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。與現(xiàn)有技術相比,本發(fā)明通過在智能玩具上引入視頻采集和視頻分析技術,通過 內(nèi)置在玩具內(nèi)的智能視頻分析模塊,識別兒童的表情、姿態(tài)等信息進而做出相應的反應,以 增強玩具的交互性和娛樂性。

結(jié)合參考附圖及接下來的詳細描述,本發(fā)明將更容易理解,其中同樣的附圖標記對應 同樣的結(jié)構(gòu)部件,其中
圖1為本發(fā)明中基于視頻分析的智能玩具在一個實施例中的結(jié)構(gòu)方框圖;和 圖2為本發(fā)明中智能玩具的表情示意圖。
具體實施方式
為使本發(fā)明的上述目的、特征和優(yōu)點能夠更加明顯易懂,下面結(jié)合附圖和具體實施方 式對本發(fā)明作進一步詳細的說明。請參考圖1所示,其示出了本發(fā)明中的基于視頻分析的智能玩具100在一個實施 例中的結(jié)構(gòu)方框圖。所述智能玩具包括視頻采集模塊110、人臉檢測模塊120、表情識別模 塊130、頭部姿態(tài)識別模塊140、驅(qū)動模塊150、運動參數(shù)數(shù)據(jù)庫160和機械運動模塊170。在 一個實施例中,所述智能玩具可以僅包括表情識別模塊130和頭部姿態(tài)識別模塊140中的 其中一個,而不包括其中的另一個。所述視頻采集模塊110用于對玩具前的一定區(qū)域進行拍攝,以獲取使用者的運動 圖像,其可以由攝像頭芯片和相關的傳輸協(xié)議構(gòu)成。攝像頭芯片已經(jīng)比較成熟,基于USB接 口的攝像頭可以得到很好的成像效果。在一個實施例中,可以將該模塊放置在玩具中的一 個合理位置,比如說,將攝像頭內(nèi)嵌在玩具的眼睛,嘴巴,鼻子等相對隱蔽的位置。所述人臉檢測模塊120用于從采集的圖像中檢測出人臉位置,并從中提取人臉信 息,為后續(xù)的智能分析做準備。在一個實施例中,使用基于Adaboost的訓練方式來得到人 臉和非人臉的分類器,利用分類器來從圖像中提取出人臉位置。Adaboost需要事先采集較 多的人臉樣本和非人臉樣本來作為正負樣本,訓練前首先要對正負樣本進行預處理,并將 正負樣本圖片歸一化,然后從歸一化的圖片中提取特征矢量,并從特征矢量中挑選出分類
4能力最強的特征來組成分類器。人臉檢測技術已經(jīng)很成熟,目前該技術可以達到實時檢測 和跟蹤的效果,在另一個實施例中,該跟蹤步驟是采用以下方式實現(xiàn)的在未獲取跟蹤目標 前,對每幀圖像進行搜索,檢測人臉是否存在;如果某幀圖像檢測到一個或者多個人臉,則 在接下來的的兩幀圖像中跟蹤這些人臉,并對這兩幀圖像中跟蹤的人臉進行檢測和驗證, 判斷前面的檢測結(jié)果是否是真人臉;只有某個位置三幀都檢測到人臉后,算法才認為該位 置人臉存在,繼續(xù)對人臉圖像進行判斷識別。在此跟蹤步驟中,如果場景中存在有多個人 臉,選擇其中一個進行跟蹤。在后續(xù)幀中持續(xù)跟蹤該人臉,如果相鄰幀中后一幀與前一幀的 跟蹤結(jié)果的相似度過低,則停止跟蹤;如果某個跟蹤目標所在區(qū)域長時間為檢測到正面直 立人臉,則認為該目標的跟蹤價值不大,停止跟蹤該目標,當前一個跟蹤目標停止跟蹤后, 在后續(xù)圖像中重新進行人臉檢測,直到找到新的人臉,跟蹤新的人臉,重復人臉跟蹤的步 馬聚ο所述表情識別模塊130用于對所述人臉檢測模塊120檢測到的人臉信息進行表情 識別。表情識別的方法一般都是基于統(tǒng)計學來完成的,即從人臉圖像中提取特征矢量,然后 訓練分類器。特征的提取是識別成敗的關鍵,目前用于表情識別的特征可以分為兩種局 部特征和整體特征?;诰植刻卣鞯娜四樏娌勘砬樽R別是利用每個人的面部特征,比如眉 毛、眼睛、嘴巴、鼻子和面部輪廓等的位置、大小、及其相互位置的不同進行特征提取,達到 人臉面部表情識別的目的?;谌四樥w特征的識別是從整個人臉圖像出發(fā),提出反映了 整體的特征,實現(xiàn)人臉面部表情識別。人臉目前的表情識別一般是識別幾種常見的表情,包 括中性表情,笑,憤怒,悲傷,驚訝,在識別前首先采集大量的樣本,可以由USB相機錄下被 采集者的表情視頻,從視頻文件中分離出包含人臉表情的圖像作為用來進行統(tǒng)計的初始樣 本。在公開申請?zhí)枮?00510135670. 5的專利申請中,提到了一種基于視頻的面部表 情識別方法和裝置,其基于人臉的整體特征,根據(jù)自動提取的人臉下巴輪廓生成一個標準 臉,然后采用AdaBoost的算法選擇最有效的特征,得到穩(wěn)健的識別結(jié)果。該方法包括的步 驟如下
從USB攝像頭輸入的視頻數(shù)據(jù)中采集人臉的面部表情圖像數(shù)據(jù),對該圖像數(shù)據(jù)做預處
理;
實時提取人臉在預處理后圖像中的位置;
依據(jù)人眼分類器對確定出的圖像中的人臉中的人眼做出定位;
根據(jù)確定的人眼的位置和人臉分類器的信息提取包含人臉的圖像區(qū)域,進行歸一化處
理;
對人臉器官定位;
根據(jù)對人臉器官的定位確定人臉下巴的位置,確定圖像中的人臉區(qū)域,在提取出的人 臉輪廓上由上至下標示多條平行的直線,其中一條直線確定了人臉下巴的位置,在人臉分 類器中的標準特征臉上也由上至下標示相同數(shù)目的平行線條,其中相應的一條線同樣確定 了臉下巴的位置;
沿計算出來的傾斜角度,根據(jù)對應線條之間的關系,將視頻檢測到的人臉區(qū)域重采樣 為和標準特征臉大小和角度一致的人臉圖像,即,生成特征臉,并作為分類樣本; 基于所述的分類樣本計算所述的特征臉圖像的Gabor特征;利用AdaBoost算法對計算出的Gabor特征進行選擇; 由挑選的特征構(gòu)造支持向量機分類器; 根據(jù)構(gòu)造的分類器得出人臉表情識別結(jié)果。在一個實施例中,所述表情識別模塊基于該專利的人臉表情識別技術進行表情識 別。在玩具系統(tǒng)中,該模塊的實現(xiàn)比較簡單,只需要將訓練好的模塊加載到系統(tǒng)中,然后用 分類器進行判別即可。所述頭部姿態(tài)識別模塊140用于對所述人臉檢測模塊120檢測到的人臉信息進行 頭部姿態(tài)識別?;谝曨l的姿態(tài)識別模塊的作用是識別出視頻中的人的頭部姿態(tài),即視頻 中人的頭部是往左看,往右看,還是往上或者往下看。姿態(tài)識別的方法一般有兩種第一種 是基于統(tǒng)計的方法,該方法采集不同姿態(tài)的人臉信息,然后訓練出一個多類的分類器(比如 可以訓練能夠區(qū)分左、右、上、下四個方向的分類器),根據(jù)分類的結(jié)果來判斷人臉的姿態(tài)。 基于訓練的方法只能識別四種方向,不能準確識別姿態(tài)的角度。第二種是基于幾何變形的 方法,該方法的原理是當人臉姿態(tài)發(fā)生變化時,人臉上的器官特征點會發(fā)生相應的變形,可 以用某種變形方程來對特征點的變化進行擬合,根據(jù)擬合的結(jié)果來判斷姿態(tài)。在公開申請 號為200610012233.9的專利申請中公開了一種基于AAM的頭部姿態(tài)實時估算系統(tǒng),其 根據(jù)人臉跟蹤和人臉特征點定位的結(jié)果來確定視頻中人臉器官的初始輪廓位置,然后基于 AAM模型來精確定位出器官的真實位置,由于輪廓的定位具有整體性,因此,用定位的結(jié)果 來反算出的姿態(tài)比較準確,而且可以獲得連續(xù)的姿態(tài)。包括如下步驟
(1)根據(jù)采集的不同頭部姿態(tài)的人臉圖像樣本,訓練獲得ASM模型和AAM灰度模型,其 中,根據(jù)ASM模型獲得一個ASM平均輪廓臉,根據(jù)AAM灰度模型得到一個平均灰度臉;
(2)根據(jù)所述ASM模型與AAM灰度模型,計算出人臉輪廓定位時需要的梯度矩陣和 Hessain矩陣,并根據(jù)所述ASM模型、AAM灰度模型、梯度矩陣和Hessain矩陣,獲得預處理 模型;
(3)獲得輸入的人臉圖像序列,并進行人臉檢測與跟蹤,根據(jù)檢測和跟蹤得到人臉輪廓 的訓略位置,并將ASM平均輪廓臉對應到人臉輪廓的粗略位置,獲得人臉初始輪廓的位置, 根據(jù)初始輪廓的位置,通過對圖像序列重采樣,獲得一個與ASM平均輪廓臉大小相符的圖 像區(qū)域;
(4)在該圖像區(qū)域內(nèi),根據(jù)所述預處理模型包括的梯度矩陣和Hessian矩陣,首先基于 整體相似變換對人臉輪廓進行定位,然后基于ASM模型參數(shù)對輪廓進行精確定位,并計算 對應的ASM參數(shù);
(5)根據(jù)所述ASM參數(shù)與樣本訓練時確定的人臉角度的關系,估算出頭部的姿態(tài)。在一個實施例中,所述頭部姿態(tài)識別模塊基于該專利的頭部姿態(tài)識別技術,來進 行姿態(tài)識別,所述頭部姿態(tài)包括往左看、往右看、往上看和往下看。在玩具系統(tǒng)中,該模塊的 實現(xiàn)比較簡單,只需要將訓練好的模塊加載到系統(tǒng)中,然后用分類器進行判別即可。所述機械運動模塊170用于模仿使用者或用戶的表情和頭部姿態(tài),其包括玩具中 的可運動組件,所述運動組件可以進行規(guī)定的相對運動,通過相互配合來完成規(guī)定的動作。 面部表情主要表現(xiàn)為眼、眉、嘴、鼻的變化。一般來說,面部各個器官是一個有機整體,通過 相互協(xié)調(diào)表達同一種情感。由于所述智能玩具需要模仿人的表情和頭部姿態(tài),所以該玩具 可以具有和人相似的面部結(jié)構(gòu),比如說,該智能玩具為一只玩具娃娃,其具有眼睛,眉毛,嘴巴,臉部輪廓等可以作出不同表情的臉部組件。在一個實施例中,所述表情識別模塊可以 識別笑、憤怒、悲傷、驚訝四種面部表情,相應的所述玩具娃娃也可以做出笑、憤怒、悲傷、驚 訝四種表情,并且設定所述玩具娃娃的眼睛、眉毛、嘴巴運動組件為面部表情的運動參數(shù), 在不同的面部表情中各組件會發(fā)生一定的變化,即不同的面部表情對應著不同的運動參數(shù) 值,如圖2所示。由于面部表情會涉及到面部肌肉的變化,在另一個實施例中,所述智能玩 具為高仿真的玩具娃娃,其中還裝有仿真的面部肌肉組件,可以將面部肌肉組件也設定為 面部表情的運動參數(shù)。玩具姿態(tài)的實現(xiàn)原理也如此。在一個實施例中,所述頭部姿態(tài)識別模塊可以識別 左、右、上、下四個方向的頭部姿態(tài),相應的玩具娃娃包括頭頸部的連接關節(jié)組件,其可以帶 動頭部進行這四個方向的運動。所述頭頸部的連接關節(jié)組件,可以設定為頭部姿態(tài)的運動 參數(shù)。在另一個實施例中,所述玩具為高仿真的玩具娃娃,其中還裝有仿真頸部肌肉和頸椎 組件,其可以帶動頭部做出四個方向的運動,可以將仿真頸部肌肉和頸椎組件設定為頭部 姿態(tài)的運動參數(shù)。這里需要注意的是所述智能玩具不僅僅是可以做出面部表情和頭部姿態(tài)的娃娃, 也可以是做出面部表情和頭部姿態(tài)的其他造型的玩具。所述運動參數(shù)存儲模塊160用于存儲預先設定的每個表情或者頭部姿態(tài)對應的 玩具部件的運動參數(shù)。在玩具設計時,可以事先將每個表情對應的玩具組件的運動參數(shù)求 出來。在一個實施例中,所述運動參數(shù)存儲模塊存儲有預先設定的表情或者頭部姿態(tài)的名 稱和對應的運動參數(shù)。比如,每個表情對應的運動參數(shù)可以包括眼睛參數(shù)、嘴巴參數(shù)、鼻子 參數(shù)和眉毛參數(shù)。所述驅(qū)動模塊150根據(jù)表情識別模塊和頭部姿態(tài)識別模塊的識別結(jié)果從所述運 動參數(shù)數(shù)據(jù)庫中找到該表情對應的運動參數(shù)或者該姿態(tài)對應的運動參數(shù),并根據(jù)所述參數(shù) 驅(qū)動機械運動模塊作出相應的表情和頭部姿態(tài)。由于所述智能玩具可以識別使用者的表情和頭部姿態(tài),并能作出相應表情和頭部 姿態(tài),可以實現(xiàn)和孩子更好的互動,激發(fā)孩子的興趣和好奇心。為了使模仿的效果更加生動可以在面部表情模仿的同時增加語音播放模塊,在一 個實施例中,存儲有每個表情對應的聲音,比如說,模仿笑的同時,播放“咯咯“的笑聲哭的 同時播放嗚嗚的哭聲
所述機械運動模塊170由玩具構(gòu)件組成,通過相互配合完成規(guī)定的動作。在一個實施 例中,所述機械模塊可以做出常見的四種表情。上述說明已經(jīng)充分揭露了本發(fā)明的具體實施方式
。需要指出的是,熟悉該領域的 技術人員對本發(fā)明的具體實施方式
所做的任何改動均不脫離本發(fā)明的權(quán)利要求書的范圍。 相應地,本發(fā)明的權(quán)利要求的范圍也并不僅僅局限于所述具體實施方式
。
權(quán)利要求
1.一種智能玩具,其包括運動參數(shù)數(shù)據(jù)庫、驅(qū)動模塊和機械運動模塊,其特征在于其 還包括視頻采集模塊、人臉檢測模塊、表情識別模塊,所述運動參數(shù)數(shù)據(jù)庫存儲有多個表情對應的運動參數(shù);所述視頻采集模塊用于采集視頻圖像;所述人臉檢測模塊對采集到的圖像進行人臉檢測,并將檢測到的人臉信息提供給所述 表情識別模塊;所述表情識別模塊對檢測到的人臉信息進行表情識別,并將表情識別結(jié)果提供給所述 驅(qū)動模塊;所述驅(qū)動模塊根據(jù)表情識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與其對應表情的運動 參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。
2.如權(quán)利要求1所述的智能玩具,其特征在于,所述智能玩具為玩具熊或玩具娃娃。
3.如權(quán)利要求1所述的智能玩具,其特征在于,所述表情包括高興、憤怒、悲傷和驚訝。
4.如權(quán)利要求1所述的智能玩具,其特征在于,每個表情對應的運動參數(shù)包括眼睛參 數(shù)、嘴巴參數(shù)、鼻子參數(shù)和眉毛參數(shù)。
5.如權(quán)利要求1所述的智能玩具,其特征在于,其還包括頭部姿態(tài)識別模塊,所述運動參數(shù)數(shù)據(jù)庫存儲有各頭部姿態(tài)對應的運動參數(shù),所述頭部姿態(tài)識別模塊對檢測到的人臉信息進行頭部姿態(tài)識別,并將頭部姿態(tài)識別結(jié) 果提供給所述驅(qū)動模塊;所述驅(qū)動模塊根據(jù)頭部姿態(tài)識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與其對應頭部的 運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。
6.一種智能玩具,其包括運動參數(shù)數(shù)據(jù)庫、驅(qū)動模塊和機械運動模塊,其特征在于其 還包括視頻采集模塊、人臉檢測模塊、頭部姿態(tài)識別模塊,所述運動參數(shù)數(shù)據(jù)庫存儲有多個頭部姿態(tài)對應的運動參數(shù);所述視頻采集模塊用于采集視頻圖像;所述人臉檢測模塊對采集到的圖像進行人臉檢測,并將檢測到的人臉信息提供給所述 頭部姿態(tài)識別模塊;所述頭部姿態(tài)識別模塊對檢測到的人臉信息進行頭部姿態(tài)識別,并將頭部姿態(tài)識別結(jié) 果提供給所述驅(qū)動模塊;所述驅(qū)動模塊根據(jù)頭部姿態(tài)識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與其對應頭部姿 態(tài)的運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。
7.如權(quán)利要求6所述的智能玩具,其特征在于,所述智能玩具為玩具熊或玩具娃娃。
8.如權(quán)利要求6所述的智能玩具,其特征在于,所述頭部姿態(tài)包括左、右、上、下四個方 向的頭部姿態(tài)。
9.如權(quán)利要求6所述的智能玩具,其特征在于,其還包括表情識別模塊,所述運動參數(shù)數(shù)據(jù)庫存儲有多個表情對應的運動參數(shù),所述表情識別模塊對檢測到的人臉信息進行表情識別,并將表情識別結(jié)果提供給所述 驅(qū)動模塊;所述驅(qū)動模塊根據(jù)表情識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與其對應表情的運動 參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。
全文摘要
本發(fā)明公開了一種智能玩具,其包括運動參數(shù)數(shù)據(jù)庫、驅(qū)動模塊、機械運動模塊、視頻采集模塊、人臉檢測模塊、表情識別模塊。所述運動參數(shù)數(shù)據(jù)庫存儲有預先設定的多個表情對應的運動參數(shù)。所述視頻采集模塊用于采集視頻圖像。所述人臉檢測模塊對采集到的圖像進行人臉檢測。所述表情識別模塊對檢測到的人臉信息進行表情識別。所述驅(qū)動模塊根據(jù)表情識別結(jié)果從所述運動參數(shù)數(shù)據(jù)庫中找到與其對應表情的運動參數(shù),并根據(jù)該運動參數(shù)驅(qū)動所述機械運動模塊做出相應的動作。從而可以增強玩具的交互性和娛樂性。
文檔編號A63H13/02GK102058983SQ20101053831
公開日2011年5月18日 申請日期2010年11月10日 優(yōu)先權(quán)日2010年11月10日
發(fā)明者謝東海 申請人:無錫中星微電子有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1