亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法與流程

文檔序號(hào):11865294閱讀:491來源:國(guó)知局
一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法與流程
本發(fā)明屬于圖像處理領(lǐng)域,具體涉及一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法。
背景技術(shù)
:大規(guī)模在線開放課程(MassiveOpenOnlineCourse,MOOC)是近些年快速興起一種課程形式,在全球范圍內(nèi)獲得了政府、高校和企業(yè)的高度重視,成為推動(dòng)“高等教育變革”的重要力量。MOOC課程利用視頻傳播的快速性和便捷性,實(shí)現(xiàn)授課過程的大規(guī)模傳播,并針對(duì)視頻單向傳播帶來的教學(xué)反饋不足的問題,引入交互式練習(xí)。但是交互式練習(xí)所提供的教學(xué)反饋能力與傳統(tǒng)線下面授課過程相比仍顯不足。線下課程中,授課者可以通過學(xué)生的面部表情和通過對(duì)學(xué)生提問獲得反饋,從而做出及時(shí)的教學(xué)調(diào)整,MOOC課程還無法做到這一點(diǎn)。表情識(shí)別技術(shù)被視為未來情感人機(jī)交互的重要技術(shù),吸引了國(guó)內(nèi)外眾多高校和科研機(jī)構(gòu)的參與和研究。目前,針對(duì)JAFFE等標(biāo)準(zhǔn)表情數(shù)據(jù)庫(kù)的多種表情識(shí)別方法已取得較高的識(shí)別率,將表情識(shí)別技術(shù)應(yīng)用于MOOC課程,可以實(shí)時(shí)的獲得學(xué)生課堂狀態(tài),并針對(duì)學(xué)生反映作出課堂調(diào)整,但是,已有的表情識(shí)別方法應(yīng)用于MOOC課程時(shí)仍具有以下缺點(diǎn):1、將人臉上存在的人為表情作為前提,而忽略了表情組成的多樣性,實(shí)用性不大;2、表情不夠細(xì)致。人臉表情并非只局限于6種基本表情;3、表情不具備針對(duì)性。人臉表情在特定的場(chǎng)景下往往會(huì)有趨勢(shì),即某些表情出現(xiàn)的概率較大,某一些較小。技術(shù)實(shí)現(xiàn)要素:針對(duì)上述現(xiàn)有技術(shù)存在的不足,本發(fā)明提供一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法。本發(fā)明的技術(shù)方案如下:一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法,包括如下步驟:步驟1:對(duì)MOOC課程上學(xué)生學(xué)習(xí)過程中的面部表情進(jìn)行拍攝,得到學(xué)生面部表情視頻;步驟2:獲取MOOC課程中學(xué)生面部表情歷史視頻;步驟3:對(duì)MOOC課程學(xué)生面部表情歷史視頻進(jìn)行分幀處理,使其轉(zhuǎn)換為具有學(xué)生面部特征的n幀歷史靜態(tài)圖像;步驟4:使用face++人臉識(shí)別系統(tǒng)依次提取每幀歷史靜態(tài)圖像中學(xué)生面部特征的特征點(diǎn),并將所提取的學(xué)生面部特征的特征點(diǎn)分別以像素坐標(biāo)向量的形式保存;步驟5:對(duì)每幀歷史靜態(tài)圖像中學(xué)生面部特征的特征點(diǎn)進(jìn)行預(yù)處理,具體方法為:將特征點(diǎn)的像素坐標(biāo)轉(zhuǎn)換為齊次坐標(biāo),對(duì)齊次坐標(biāo)依次進(jìn)行旋轉(zhuǎn)、平移和縮放變換處理后,再轉(zhuǎn)換回像素坐標(biāo);步驟6:從預(yù)處理后的每幀圖像的學(xué)生面部特征的特征點(diǎn)中,抽取面部關(guān)鍵部位:眼睛、嘴巴、眉毛的特征點(diǎn);步驟7:分別根據(jù)每幀圖像中眼睛、嘴巴和眉毛的特征點(diǎn),建立每幀圖像的眼睛特征向量、嘴巴特征向量和眉毛特征向量;步驟8:定義眼睛動(dòng)作模式分別為瞪眼、正常和閉眼,嘴巴動(dòng)作模式分別為正常、偏向于思考與悲傷的抿嘴、偏向于憤怒的抿嘴和咧嘴,眉毛動(dòng)作模式分別為皺眉、正常和挑眉;步驟9:根據(jù)動(dòng)作模式的定義,分別對(duì)每幀圖像中眼睛特征向量所屬的動(dòng)作模式、嘴巴特征向量所屬的動(dòng)作模式和眉毛特征向量所屬的動(dòng)作模式進(jìn)行標(biāo)定;步驟10:將每幀圖像的眼睛特征向量、嘴巴特征向量和眉毛特征向量分別保存到各自所標(biāo)的動(dòng)作模式的特征向量集合中;步驟11:使用支持向量機(jī)(SupportVectorMachine,SVM)對(duì)各動(dòng)作模式的特征向量集合進(jìn)行訓(xùn)練,得到各動(dòng)作模式分類器;步驟12:獲取MOOC課程中學(xué)生面部表情實(shí)時(shí)視頻;步驟13:對(duì)學(xué)生面部表情實(shí)時(shí)視頻進(jìn)行分幀處理,使其轉(zhuǎn)換為m幀具有學(xué)生面部特征的實(shí)時(shí)靜態(tài)圖像;步驟14:使用face++api依次提取每幀實(shí)時(shí)靜態(tài)圖像中學(xué)生面部特征的特征點(diǎn),并將所提取的學(xué)生面部特征的特征點(diǎn)分別以像素坐標(biāo)向量的形式保存;步驟15:對(duì)每幀實(shí)時(shí)圖像中學(xué)生面部特征的特征點(diǎn)進(jìn)行預(yù)處理,具體方法為:將特征點(diǎn)的像素坐標(biāo)轉(zhuǎn)換為齊次坐標(biāo),對(duì)齊次坐標(biāo)依次進(jìn)行旋轉(zhuǎn)、平移和縮放變換處理后,再轉(zhuǎn)換回像素坐標(biāo);步驟16:從每幀預(yù)處理后的實(shí)時(shí)圖像中抽取眼睛、嘴巴、眉毛的特征點(diǎn),并分別建立眼睛特征向量、嘴巴特征向量和眉毛特征向量;步驟17:使用動(dòng)作模式分類器分別對(duì)每幀實(shí)時(shí)圖像的嘴巴、眼睛和眉毛特征向量進(jìn)行分類,得到每幀實(shí)時(shí)圖像中嘴巴、眼睛和眉毛對(duì)應(yīng)的動(dòng)作模式;步驟18:根據(jù)每幀實(shí)時(shí)圖像中嘴巴、眼睛和眉毛的動(dòng)作模式的組合,確定在每幀實(shí)時(shí)圖像中學(xué)生的表情所屬的表情模式;所述步驟7和步驟16中所述的眼睛特征向量、嘴巴特征向量和眉毛特征向量的建立方法為:分別計(jì)算眼睛特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即眼睛特征點(diǎn)歐氏距離值,嘴巴特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即嘴巴特征點(diǎn)歐氏距離值,眉毛特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即眉毛特征點(diǎn)歐氏距離值,分別使用眼睛特征點(diǎn)歐氏距離值、嘴巴特征點(diǎn)歐氏距離值和眉毛特征點(diǎn)歐氏距離值構(gòu)成眼睛特征向量、嘴巴特征向量和眉毛特征向量。所述步驟18中所述表情模式采用表1中映射關(guān)系確定:表1動(dòng)作模式與表情模式的映射關(guān)系表有益效果:本發(fā)明的一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法,具有以下優(yōu)點(diǎn):1、六種基本表情模式為快樂、傷心、恐懼、憤怒、驚訝和厭惡,但在MOOC課堂中出現(xiàn)恐懼與厭惡的表情概率較小,即使出現(xiàn),大多與課程的內(nèi)容無關(guān),因此,將恐懼和厭惡從表情模式中去掉,將出現(xiàn)頻率較高的思考、無聊和正常添加到表情識(shí)別的結(jié)果中,使表情識(shí)別結(jié)果對(duì)MOOC課堂更加有效;2、通過對(duì)動(dòng)作模式的組合得到表情模式,使表情模式的識(shí)別更準(zhǔn)確;3、使用歐式距離構(gòu)建的動(dòng)作模式特征向量,特征向量具有維度低、數(shù)量少的特點(diǎn),使表情識(shí)別速度更快。附圖說明圖1一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法流程圖;圖2MOOC課程中表情識(shí)別過程示意圖;圖3(a)眼睛動(dòng)作模式中瞪眼示意圖;圖3(b)眼睛動(dòng)作模式中正常示意圖;圖3(c)眼睛動(dòng)作模式中閉眼示意圖;圖4(a)嘴巴動(dòng)作模式中正常示意圖;圖4(b)嘴巴動(dòng)作模式中偏向于思考與悲傷的抿嘴示意圖;圖4(c)嘴巴動(dòng)作模式中偏向于憤怒的抿嘴示意圖;圖4(d)嘴巴動(dòng)作模式中咧嘴示意圖;圖5(a)眉毛動(dòng)作模式中皺眉示意圖;圖5(b)眉毛動(dòng)作模式中正常示意圖;圖5(c)眉毛動(dòng)作模式中挑眉示意圖;圖6截取圖像中部分圖像示意圖;圖7面部特征點(diǎn)示意圖;圖8面部特征點(diǎn)坐標(biāo)示意圖;圖9旋轉(zhuǎn)基準(zhǔn)示意圖;圖10平移及縮放基準(zhǔn)示意圖;圖11眼睛特征點(diǎn)示意圖;圖12嘴部特征點(diǎn)示意圖;圖13眉毛特征點(diǎn)示意圖;圖14分類樹模型示意圖,其中E代表眼睛,E1、E2和E3分別代表正常、閉眼和瞪眼;M代表嘴巴,M1、M2、M3和M4分別代表正常、偏于思考與悲傷的抿嘴、偏于憤怒的抿嘴和咧嘴;B代表眉毛,B1、B2和B3分別代表正常、皺眉和挑眉。具體實(shí)施方式下面結(jié)合附圖對(duì)本發(fā)明的一種實(shí)施方式作詳細(xì)說明。如圖1和圖2所示,本實(shí)施方式的一種MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法的表情動(dòng)態(tài)識(shí)別過程包括如下步驟:本實(shí)施方式的MOOC課程中學(xué)生面部表情的動(dòng)態(tài)識(shí)別方法,具體包括如下步驟:步驟1:對(duì)MOOC課程上學(xué)生學(xué)習(xí)過程中的面部表情進(jìn)行拍攝,得到學(xué)生面部表情視頻;步驟2:獲取MOOC課程中學(xué)生面部表情歷史視頻;步驟3:對(duì)MOOC課程學(xué)生面部表情歷史視頻進(jìn)行分幀處理,使其轉(zhuǎn)換為具有學(xué)生面部特征的n幀歷史靜態(tài)圖像,并從第一幀靜態(tài)圖像開始,每5幀靜態(tài)圖像截取一幀圖像,直到歷史視頻截取完畢,這樣的截取不會(huì)造成表情缺失,同時(shí)有效避免了數(shù)據(jù)冗余。本實(shí)施方式中下述的歷史圖像為歷史視頻中截取到的歷史靜態(tài)圖像。步驟4:使用face++人臉識(shí)別系統(tǒng)依次提取每幀歷史圖像中學(xué)生面部特征的83個(gè)特征點(diǎn),并將所提取的學(xué)生面部特征的特征點(diǎn)分別以像素坐標(biāo)向量的形式保存;步驟5:由于歷史圖像中的人臉有大有小,且坐標(biāo)比例大小不一,無法用特征點(diǎn)間歐氏距離值描述動(dòng)作模式,因此,對(duì)學(xué)生面部特征的特征點(diǎn)進(jìn)行預(yù)處理,使學(xué)生面部特征的特征點(diǎn)在圖像中保持水平且可以用統(tǒng)一坐標(biāo)描述,具體方法如下:步驟5.1:將2維的像素坐標(biāo)轉(zhuǎn)化為3維的齊次坐標(biāo),轉(zhuǎn)化公式為:其中,C'i'k'為第i'個(gè)歷史圖像中第k'個(gè)特征點(diǎn)的像素坐標(biāo);M'i'k'為第i'個(gè)歷史圖像中第k'個(gè)特征點(diǎn)的齊次坐標(biāo);k'∈[1,83];步驟5.2:以左眼角和右眼角為水平基準(zhǔn),將齊次坐標(biāo)進(jìn)行旋轉(zhuǎn)θ'角。令第i'個(gè)歷史靜態(tài)圖像中左眼右角點(diǎn)為第一個(gè)特征點(diǎn),即k'=1,其齊次坐標(biāo)為M'i'1(x'i'1,y'i'1,1),右眼左角點(diǎn)為第二個(gè)特征點(diǎn),即k'=2,其齊次坐標(biāo)為M'i'2(x'i'2,y'i'2,1),定義旋轉(zhuǎn)矩陣N'1為:N′1=cosθ′-sinθ′0sinθ′cosθ′0001=p′2-q′20q′2p′20001---(2)]]>其中,對(duì)旋轉(zhuǎn)后的坐標(biāo)進(jìn)行平移,定義平移矩陣N'2為:N′2=100010p′1q′11---(3)]]>其中,p'1=(x'i'2-x'i'1)+x'i'2,q'1=(y'i'2-y'i'1)+y'i'2;對(duì)平移后的坐標(biāo)進(jìn)行縮放,令L'為鼻梁左右距離,定義縮放矩陣N'3為:N′3=10001000L′---(4)]]>步驟5.3:將齊次坐標(biāo)M'i'k'進(jìn)行變換,得到轉(zhuǎn)換后的齊次坐標(biāo)變換公式為:Mi′k′′*=M′i′k′×N′1×N′2×N′3---(5)]]>步驟5.4:將變換后的齊次坐標(biāo)通過式(1)的逆過程,轉(zhuǎn)換為變換后的特征點(diǎn)的像素坐標(biāo)步驟6:由于人面部能體現(xiàn)表情變化的部位只有嘴巴、眼睛和眉毛,鼻子不隨著表情的變化而變化,因此本發(fā)明將嘴巴、眼睛和眉毛作為面部關(guān)鍵部位,從預(yù)處理后的每幀歷史圖像的學(xué)生面部特征的特征點(diǎn)中,抽取面部關(guān)鍵部位:眼睛、嘴巴、眉毛的特征點(diǎn);步驟7:分別根據(jù)每幀歷史圖像中眼睛、嘴巴和眉毛的特征點(diǎn),建立每幀歷史圖像的眼睛特征向量、嘴巴特征向量和眉毛特征向量,方法為:分別計(jì)算眼睛特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即眼睛特征點(diǎn)歐氏距離值,嘴巴特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即嘴巴特征點(diǎn)歐氏距離值,眉毛特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即眉毛特征點(diǎn)歐氏距離值,分別使用眼睛特征點(diǎn)歐氏距離值、嘴巴特征點(diǎn)歐氏距離值和眉毛特征點(diǎn)歐氏距離值構(gòu)成眼睛特征向量、嘴巴特征向量和眉毛特征向量;步驟8:預(yù)先定義眼睛的動(dòng)作模式、嘴巴的動(dòng)作模式和眉毛的動(dòng)作模式;如圖3所示,眼睛動(dòng)作模式分別為圖3(a)所示瞪眼、圖3(b)所示正常和圖3(c)所示閉眼;如圖4所示,嘴巴動(dòng)作模式分別為圖4(a)所示正常、圖4(b)所示偏向于思考與悲傷的抿嘴、圖4(c)所示偏向于憤怒的抿嘴和圖4(d)所示咧嘴;如圖5所示,眉毛動(dòng)作模式分別為圖5(a)所示皺眉、圖5(b)所示正常和圖5(c)所示挑眉。步驟9:根據(jù)動(dòng)作模式的定義,分別對(duì)每幀歷史圖像中眼睛特征向量所屬的動(dòng)作模式、嘴巴特征向量所屬的動(dòng)作模式和眉毛特征向量所屬的動(dòng)作模式進(jìn)行標(biāo)定;步驟10:將每幀歷史圖像的眼睛特征向量、嘴巴特征向量和眉毛特征向量分別保存到各自所標(biāo)的動(dòng)作模式的特征向量集合中;步驟11:通過matlab的LIBSVM工具箱進(jìn)行編程,使用支持向量機(jī)(SupportVectorMachine,SVM)對(duì)各動(dòng)作模式的特征向量集合進(jìn)行訓(xùn)練,得到動(dòng)作模式分類器;步驟12:獲取MOOC課程中學(xué)生面部表情實(shí)時(shí)視頻;步驟13:對(duì)學(xué)生面部表情實(shí)時(shí)視頻進(jìn)行分幀處理,使其轉(zhuǎn)換為m幀具有學(xué)生面部特征的實(shí)時(shí)靜態(tài)圖像,并從第一幀實(shí)時(shí)靜態(tài)圖像開始,每5幀實(shí)時(shí)靜態(tài)圖像截取一幀圖像,直到歷史視頻截取完畢,這樣的截取不會(huì)造成表情缺失,同時(shí)有效避免了數(shù)據(jù)冗余。部分圖像如圖6所示,本實(shí)施方式中下述的實(shí)時(shí)圖像為實(shí)時(shí)視頻中截取到的實(shí)時(shí)靜態(tài)圖像。步驟14:如圖7所示,使用face++人臉識(shí)別系統(tǒng)依次提取每幀實(shí)時(shí)圖像中學(xué)生面部特征的83個(gè)特征點(diǎn),并將所提取的學(xué)生面部特征的特征點(diǎn)分別以如圖8所示像素坐標(biāo)向量的形式保存;步驟15:由于實(shí)時(shí)圖像中的人臉有大有小,且坐標(biāo)比例大小不一,無法用特征點(diǎn)間歐氏距離值描述動(dòng)作模式,因此,對(duì)學(xué)生面部特征的特征點(diǎn)進(jìn)行預(yù)處理,使學(xué)生面部特征的特征點(diǎn)在圖像中保持水平且可以用統(tǒng)一坐標(biāo)描述,具體方法如下:步驟15.1:將2維的像素坐標(biāo)轉(zhuǎn)化為3維的齊次坐標(biāo),轉(zhuǎn)化公式為:其中,Cik為第i個(gè)實(shí)時(shí)圖像中第k個(gè)特征點(diǎn)的像素坐標(biāo);Mik為第i個(gè)實(shí)時(shí)圖像中第k個(gè)特征點(diǎn)的齊次坐標(biāo);k∈[1,83];步驟15.2:如圖9所示,以左眼角和右眼角為水平基準(zhǔn),將得到的齊次坐標(biāo)進(jìn)行旋轉(zhuǎn)θ角。令第i個(gè)實(shí)時(shí)圖像中左眼右角點(diǎn)為第一個(gè)特征點(diǎn),即k=1,其齊次坐標(biāo)為Mi1(xi1,yi1,1),右眼左角點(diǎn)為第二個(gè)特征點(diǎn),即k=2,其齊次坐標(biāo)為Mi2(xi2,yi2,1),定義旋轉(zhuǎn)矩陣N1為:N1=cosθ-sinθ0sinθcosθ0001=p2-q20q2p20001---(7)]]>其中,對(duì)旋轉(zhuǎn)后的坐標(biāo)進(jìn)行平移,平移后坐標(biāo)原點(diǎn)及坐標(biāo)軸如圖10所示,定義平移矩陣N2為:N2=100010p1q11---(8)]]>其中,p1=(xi2-xi1)+xi2,q1=(yi2-yi1)+yi2;對(duì)平移后的坐標(biāo)進(jìn)行縮放,如圖10所示,令L為鼻梁左右距離,定義縮放矩陣N3為:N3=10001000L---(9)]]>步驟15.3:將齊次坐標(biāo)Mik進(jìn)行變換,得到轉(zhuǎn)換后的齊次坐標(biāo)變換公式為:Mik*=Mik×N1×N2×N3---(10)]]>步驟15.4:將變換后的齊次坐標(biāo)Mik通過式(6)的逆過程,轉(zhuǎn)換為變換后的特征點(diǎn)的像素坐標(biāo)步驟16:從預(yù)處理后的每幀實(shí)時(shí)圖像的學(xué)生面部特征的特征點(diǎn)中,抽取面部關(guān)鍵部位:眼睛、嘴巴、眉毛的特征點(diǎn);步驟17:分別根據(jù)每幀實(shí)時(shí)圖像中眼睛、嘴巴和眉毛的特征點(diǎn),建立每幀實(shí)時(shí)圖像的眼睛特征向量、嘴巴特征向量和眉毛特征向量;本實(shí)施方式中特征向量生成方法為:(1)如圖11所示,將圖片中的特征點(diǎn)去除瞳孔定位的兩個(gè)點(diǎn),得到眼睛部位的8個(gè)特征點(diǎn),計(jì)算特征點(diǎn)中兩兩點(diǎn)之間的歐氏距離,即眼睛特征點(diǎn)歐氏距離值,共28個(gè)值構(gòu)成眼睛特征向量;(2)如圖12所示,將圖片中的特征點(diǎn)去除鼻子左右兩個(gè)點(diǎn),以及嘴唇內(nèi)部左右共4個(gè)點(diǎn),得到嘴巴部位的15個(gè)特征點(diǎn),其中14個(gè)特征點(diǎn)來自于嘴巴,還有一個(gè)特征點(diǎn)來自于鼻尖下部,取兩兩特征點(diǎn)之間的距離,即嘴巴特征點(diǎn)歐氏距離值,共105個(gè)值構(gòu)成特征向量;(3)如圖13所示,將圖片中的特征點(diǎn)去除眼部所有點(diǎn),得到眉毛部位的9個(gè)特征點(diǎn),除了眉毛輪廓的8個(gè)點(diǎn),還選取了眼角處的一個(gè)點(diǎn)作為參照點(diǎn),取兩兩特征點(diǎn)之間的距離,即眉毛特征點(diǎn)歐氏距離值,共有36個(gè)值構(gòu)成特征向量。步驟17:使用動(dòng)作模式分類器分別對(duì)每幀實(shí)時(shí)圖像的嘴巴、眼睛和眉毛特征向量進(jìn)行分類,得到每幀實(shí)時(shí)圖像中嘴巴、眼睛和眉毛對(duì)應(yīng)的動(dòng)作模式。本實(shí)施方式中,對(duì)動(dòng)作模式識(shí)別準(zhǔn)確率進(jìn)行測(cè)試,測(cè)試結(jié)果如表2所示:表2動(dòng)作模式識(shí)別準(zhǔn)確率表步驟18:根據(jù)每幀實(shí)時(shí)圖像中嘴巴、眼睛和眉毛的動(dòng)作模式的組合,采用表3中映射關(guān)系,確定在每幀實(shí)時(shí)圖像中學(xué)生的表情所屬的表情模式,表3如下;表3動(dòng)作模式與表情模式的映射關(guān)系表表3中表情模式的定義依據(jù)如下分類樹模型的思想:如圖14所示,其中E代表眼睛,E1、E2和E3分別代表正常、閉眼和瞪眼,M代表嘴巴,M1、M2、M3和M4分別代表正常、偏于思考與悲傷的抿嘴、偏于憤怒的抿嘴和咧嘴,B代表眉毛,B1、B2和B3分別代表正常、皺眉和挑眉。將動(dòng)作模式識(shí)別率最高的眼睛最為樹的第一層節(jié)點(diǎn),嘴巴作為第二層節(jié)點(diǎn),眉毛作為樹葉,共36個(gè)樹葉對(duì)應(yīng)著36種動(dòng)作模式的組合,將36種動(dòng)作模式定義為7中表情模式時(shí),定義過程中以眼睛動(dòng)作模式為主,即讓眼睛的動(dòng)作模式識(shí)別結(jié)果對(duì)表情模式識(shí)別結(jié)果產(chǎn)生最主要影響,其次為嘴巴動(dòng)作模式,最后為眉毛動(dòng)作模式,這樣的定義可以提高表情識(shí)別的準(zhǔn)確率。本實(shí)施方式中,表情模式識(shí)別準(zhǔn)確率如表4所示:表4表情模式識(shí)別準(zhǔn)確率表當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1