本發(fā)明涉及智能機器人技術(shù)領(lǐng)域,尤其是涉及一種機器人表情控制方法和裝置。
背景技術(shù):
機器人是自動執(zhí)行工作的機器裝置;它既可以接受人類指揮,又可以運行預先編排的程序,也可以根據(jù)以人工智能技術(shù)制定的原則綱領(lǐng)行動。機器人可以協(xié)助或取代人類的部分工作。表情機器人是能模擬人類面部表情和情緒動作的智能機器人,以實現(xiàn)與人類的對話或互動。
現(xiàn)有在售的機器人的表情表達一般依靠單一光源或者單純的顯示固定表情,與用戶的互動性不高;而仿人臉表情機器人技術(shù)要求和成本都比較高,不適用于批量生產(chǎn)。
針對現(xiàn)有機器人的表情表達方法互動性和實用性較差的問題,尚未提出有效的解決方案。
技術(shù)實現(xiàn)要素:
有鑒于此,本發(fā)明的目的在于提供一種機器人表情控制方法和裝置,以增強機器人與用戶的互動性和實用性,進而提高用戶的體驗度。
第一方面,本發(fā)明實施例提供了一種機器人表情控制方法,該方法由機器人控制器執(zhí)行,該機器人控制器連接機器人,該方法包括:接收機器人采集的用戶行為信號;其中,用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;從用戶行為信號中提取用戶情緒特征;其中,用戶情緒特征包括表情特征、動作特征和聲音特征中的一種或多種;聲音特征包括語言特征和/或語氣特征;從預先建立的表情參數(shù)數(shù)據(jù)庫中查找與用戶情緒特征對應的表情參數(shù);其中,預先建立的表情參數(shù)數(shù)據(jù)庫中保存了用戶情緒特征的數(shù)值范圍與表情參數(shù)的對應關(guān)系;表情參數(shù)與人臉的表情種類一一對應;將表情參數(shù)發(fā)送至機器人,以使機器人從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);根據(jù)表情表達數(shù)據(jù)控制機器人面部進行表情展示;其中,表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
結(jié)合第一方面,本發(fā)明實施例提供了第一方面的第一種可能的實施方式,其中,上述從預先建立的表情參數(shù)數(shù)據(jù)庫中查找與用戶情緒特征對應的表情參數(shù)包括:通過機器學習算法,從預先建立的表情參數(shù)數(shù)據(jù)庫中搜索與用戶情緒特征的差值最小的理想情緒特征,將理想情緒特征對應的表情參數(shù)作為用戶情緒特征的表情參數(shù)。
第二方面,本發(fā)明實施例提供了另一種機器人表情控制方法,該方法由機器人執(zhí)行,該機器人連接機器人控制器,該方法包括:采集用戶行為信號,將用戶行為信號發(fā)送至機器人控制器;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;接收機器人控制器發(fā)送的表情參數(shù);其中,該表情參數(shù)與人臉的表情種類一一對應;從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
結(jié)合第二方面,本發(fā)明實施例提供了第二方面的第一種可能的實施方式,其中,上述采集用戶行為信號包括:通過攝像頭實時檢測是否有用戶進入攝像頭的預設(shè)距離內(nèi);如果是,通過多媒體信號采集設(shè)備采集用戶行為信號。
結(jié)合第二方面,本發(fā)明實施例提供了第二方面的第二種可能的實施方式,其中,上述根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示包括:根據(jù)表情表達數(shù)據(jù)控制機器人的面部五官的動作,通過顯示屏進行表情展示;其中,該顯示屏包括點陣塊。
第三方面,本發(fā)明實施例提供了一種機器人表情控制裝置,該裝置設(shè)置于機器人控制器,該機器人控制器連接機器人,該裝置包括:信號接收模塊,用于接收機器人采集的用戶行為信號;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;特征提取模塊,用于從用戶行為信號中提取用戶情緒特征;其中,該用戶情緒特征包括表情特征、動作特征和聲音特征中的一種或多種;該聲音特征包括語言特征和/或語氣特征;參數(shù)查找模塊,用于從預先建立的表情參數(shù)數(shù)據(jù)庫中查找與用戶情緒特征對應的表情參數(shù);其中,該預先建立的表情參數(shù)數(shù)據(jù)庫中保存了用戶情緒特征的數(shù)值范圍與表情參數(shù)的對應關(guān)系;表情參數(shù)與人臉的表情種類一一對應;發(fā)送模塊,用于將表情參數(shù)發(fā)送至機器人,以使機器人從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);根據(jù)表情表達數(shù)據(jù)控制機器人面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
結(jié)合第三方面,本發(fā)明實施例提供了第三方面的第一種可能的實施方式,其中,上述參數(shù)查找模塊還用于:通過機器學習算法,從預先建立的表情參數(shù)數(shù)據(jù)庫中搜索與用戶情緒特征的差值最小的理想情緒特征,將理想情緒特征對應的表情參數(shù)作為用戶情緒特征的表情參數(shù)。
第四方面,本發(fā)明實施例提供了另一種機器人表情控制裝置,該裝置設(shè)置于機器人,該機器人連接機器人控制器,該裝置包括:信號采集模塊,用于采集用戶行為信號,將用戶行為信號發(fā)送至機器人控制器;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;參數(shù)接收模塊,用于接收機器人控制器發(fā)送的表情參數(shù);其中,該表情參數(shù)與人臉的表情種類一一對應;數(shù)據(jù)查找模塊,用于從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);表情展示模塊,用于根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
結(jié)合第四方面,本發(fā)明實施例提供了第四方面的第一種可能的實施方式,其中,上述信號采集模塊包括:檢測單元,用于通過攝像頭實時檢測是否有用戶進入攝像頭的預設(shè)距離內(nèi);采集單元,用于如果有用戶進入攝像頭的預設(shè)距離內(nèi),通過多媒體信號采集設(shè)備采集用戶行為信號。
結(jié)合第四方面,本發(fā)明實施例提供了第四方面的第二種可能的實施方式,其中,上述表情展示模塊還用于:根據(jù)表情表達數(shù)據(jù)控制機器人的面部五官的動作,通過顯示屏進行表情展示;其中,該顯示屏包括點陣塊。
本發(fā)明實施例帶來了以下有益效果:
本發(fā)明實施例提供的一種機器人表情控制方法和裝置,通過用戶的面部反射信號、肢體反射信號和聲音信號中的一種或多種用戶行為信號中可以提取用戶表情特征、動作特征和聲音特征中的一種或多種情緒特征;通過查找預先建立的表情參數(shù)數(shù)據(jù)庫可以獲取用戶情緒特征對應的表情參數(shù);并將該表情參數(shù)發(fā)送至機器人,以使該機器人根據(jù)表情參數(shù)獲取表情表達數(shù)據(jù),進而控制機器人面部進行表情展示;上述方式可以通過多種信號綜合獲取用戶的情緒特征,提高了獲取用戶情緒的準確性;根據(jù)該情緒特征控制機器人進行表情展示,使機器人可以準確地根據(jù)用戶的情緒展示表情,增強了機器人與用戶的互動性和實用性,進而提高了用戶的體驗度。
本發(fā)明的其他特征和優(yōu)點將在隨后的說明書中闡述,并且,部分地從說明書中變得顯而易見,或者通過實施本發(fā)明而了解。本發(fā)明的目的和其他優(yōu)點在說明書、權(quán)利要求書以及附圖中所特別指出的結(jié)構(gòu)來實現(xiàn)和獲得。
為使本發(fā)明的上述目的、特征和優(yōu)點能更明顯易懂,下文特舉較佳實施例,并配合所附附圖,作詳細說明如下。
附圖說明
為了更清楚地說明本發(fā)明具體實施方式或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對具體實施方式或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖是本發(fā)明的一些實施方式,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
圖1為本發(fā)明實施例提供的一種機器人表情控制方法的流程圖;
圖2為本發(fā)明實施例提供的另一種機器人表情控制方法的流程圖;
圖3為本發(fā)明實施例提供的第三種機器人表情控制方法的流程圖;
圖4為本發(fā)明實施例提供的一種機器人表情控制裝置的結(jié)構(gòu)示意圖;
圖5為本發(fā)明實施例提供的另一種機器人表情控制裝置的結(jié)構(gòu)示意圖。
具體實施方式
為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合附圖對本發(fā)明的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
考慮到現(xiàn)有機器人的表情表達方法互動性和實用性較差的問題,本發(fā)明實施例提供了一種機器人表情控制方法和裝置,該技術(shù)可以應用于機器人技術(shù)領(lǐng)域中,尤其是機器人表情控制的相關(guān)技術(shù)環(huán)境中;該技術(shù)可以采用相關(guān)的軟件和硬件實現(xiàn),下面通過實施例進行描述。
實施例一:
參見圖1所示的一種機器人表情控制方法的流程圖,該方法由機器人控制器執(zhí)行,該機器人控制器連接機器人,該方法包括如下步驟:
步驟S102,接收機器人采集的用戶行為信號;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;
通常,用戶的情緒可以通過多種途徑表達出來,例如,面部反射信號的表情可以直接反映出該用戶的情緒;且,肢體反射信號和聲音信號中均包含該用戶的情緒特征;例如,當用戶的情緒為“高興”時,該用戶的肢體動作可能會有跳躍、舞蹈等,該用戶的聲音信號中可能會有“開心”、“高興”的語言,且聲調(diào)較為高亢。
步驟S104,從用戶行為信號中提取用戶情緒特征;其中,該用戶情緒特征包括表情特征、動作特征和聲音特征中的一種或多種;該聲音特征包括語言特征和/或語氣特征;
在具體實現(xiàn)時,提取的用戶情緒特征的種類和數(shù)量,在此不做限定;可以同時提取用戶的表情特征、動作特征和聲音特征,將這些特征進行綜合處理;也可以提取可以明顯反映出該用戶情緒的特征種類;例如,當該用戶靜止站立在機器人面前講話,且面部沒有明顯表情時,可以僅提取該用戶的聲音特征,根據(jù)該聲音特征分析該用戶的情緒。
步驟S106,從預先建立的表情參數(shù)數(shù)據(jù)庫中查找與用戶情緒特征對應的表情參數(shù);其中,該預先建立的表情參數(shù)數(shù)據(jù)庫中保存了用戶情緒特征的數(shù)值范圍與表情參數(shù)的對應關(guān)系;該表情參數(shù)與人臉的表情種類一一對應;
上述表情參數(shù)數(shù)據(jù)庫可以以下述方式建立:獲取人臉的多種表情,包括6種基本表情(高興、吃驚、悲傷、憤怒、厭惡和恐懼),以及多種復合表情(悲傷且恐懼、悲傷且吃驚、憤怒且恐懼等),并對每種表情賦予唯一的表情參數(shù);通過機器學習和訓練的方式,總結(jié)和歸類每種表情可能對應的面部反射信號表達的表情特征、肢體反射信號表達的動作特征以及聲音特征;并根據(jù)每種特征與該表情的關(guān)聯(lián)度,對每種特征賦予權(quán)重值。
在該表情參數(shù)數(shù)據(jù)庫中,用戶情緒特征可以為具體的數(shù)值(此時,該具體的數(shù)值即為數(shù)值范圍),也可以為一個多個數(shù)據(jù)組成數(shù)據(jù)范圍;當獲取到的情緒特征的數(shù)值落入某個表情的情緒特征數(shù)值范圍時,則獲取該表情的表情參數(shù)。
步驟S108,將表情參數(shù)發(fā)送至機器人,以使機器人從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);根據(jù)表情表達數(shù)據(jù)控制機器人面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
上述機器人控制器可以與機器人通過串口通信連接,通過通用串行總線USB將上述表情參數(shù)發(fā)送至機器人;上述機器人控制器還可以與機器人通過無線連接,通過WIFI或藍牙將上述表情參數(shù)發(fā)送至機器人。
本發(fā)明實施例提供的一種機器人表情控制方法,由機器人控制器執(zhí)行,通過用戶的面部反射信號、肢體反射信號和聲音信號中的一種或多種用戶行為信號中可以提取用戶表情特征、動作特征和聲音特征中的一種或多種情緒特征;通過查找預先建立的表情參數(shù)數(shù)據(jù)庫可以獲取用戶情緒特征對應的表情參數(shù);并將該表情參數(shù)發(fā)送至機器人,以使該機器人根據(jù)表情參數(shù)獲取表情表達數(shù)據(jù),進而控制機器人面部進行表情展示;上述方式可以通過多種信號綜合獲取用戶的情緒特征,提高了獲取用戶情緒的準確性;根據(jù)該情緒特征控制機器人進行表情展示,使機器人可以準確地根據(jù)用戶的情緒展示表情,增強了機器人與用戶的互動性和實用性,進而提高了用戶的體驗度。
考慮到獲取到的情緒特征數(shù)據(jù)變化較大,上述從預先建立的表情參數(shù)數(shù)據(jù)庫中查找與用戶情緒特征對應的表情參數(shù)包括:通過機器學習算法,從預先建立的表情參數(shù)數(shù)據(jù)庫中搜索與用戶情緒特征的差值最小的理想情緒特征,將理想情緒特征對應的表情參數(shù)作為用戶情緒特征的表情參數(shù)。
上述機器學習算法可以利用概率論、統(tǒng)計學、逼近論、凸分析、算法復雜度理論等多種方法,使計算機模擬或?qū)崿F(xiàn)人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結(jié)構(gòu)使之不斷改善自身的性能;通過不斷的歸納和綜合,發(fā)現(xiàn)數(shù)據(jù)之間的規(guī)律和特點,進而實現(xiàn)上述通過用戶情緒特征獲取應該表達表情種類的功能。
實施例二:
參見圖2所示的另一種機器人表情控制方法的流程圖,該方法由機器人執(zhí)行,該機器人連接機器人控制器,該方法包括如下步驟:
步驟S202,采集用戶行為信號,將該用戶行為信號發(fā)送至機器人控制器;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;
步驟S204,接收機器人控制器發(fā)送的表情參數(shù);其中,該表情參數(shù)與人臉的表情種類一一對應;
步驟S206,從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);
上述表情表達數(shù)據(jù)庫可以以下述方式建立:由于大多數(shù)表情可以通過五官的動作表達,因此每種表情下需要對應所涉及到的五官的具體動作的控制數(shù)據(jù),例如,表情“高興”,所涉及到的五官包括眼睛和嘴巴,其中,眼睛的控制數(shù)據(jù)包括眼睛的橫向拉伸和縱向縮小,嘴巴的控制數(shù)據(jù)包括嘴巴的橫向拉伸和縱向拉伸等;一種表情對應一組控制數(shù)據(jù),該組控制數(shù)據(jù)中包括一個或多個五官的具體動作的控制數(shù)據(jù)。由于表情的種類與表情參數(shù)一一對應,根據(jù)表情參數(shù)可以查找到與該表情參數(shù)對應的一組控制數(shù)據(jù)。
步驟S208,根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
本發(fā)明實施例提供的另一種機器人表情控制方法,由機器人執(zhí)行,通過將采集到的面部反射信號、肢體反射信號和聲音信號中的一種或多種用戶行為信號發(fā)送至機器人控制器,可以獲得該機器人控制器發(fā)送的表情參數(shù);通過查找預先建立的表情表達數(shù)據(jù)庫可以獲得與該表情參數(shù)對應的表情表達數(shù)據(jù),并通過該根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示。上述方式可以通過多種信號綜合獲取用戶的情緒特征,提高了獲取用戶情緒的準確性;根據(jù)該情緒特征控制機器人進行表情展示,使機器人可以準確地根據(jù)用戶的情緒展示表情,增強了機器人與用戶的互動性和實用性,進而提高了用戶的體驗度。
為了更加清晰準確地獲取用戶行為信號,上述采集用戶行為信號包括如下步驟:(1)通過攝像頭實時檢測是否有用戶進入攝像頭的預設(shè)距離內(nèi);(2)如果是,通過多媒體信號采集設(shè)備采集用戶行為信號。
具體而言,為了節(jié)約機器人的內(nèi)存資源,當檢測到有用戶進入檢測區(qū)域內(nèi),多媒體信號采集設(shè)備才啟動采集用戶行為信號的動作;上述預設(shè)的距離可以為距離攝像頭1米至3米內(nèi)。上述多媒體信號采集設(shè)備包括攝像頭和話筒,通過攝像頭可以獲取用戶的面部反射信號、肢體反射信號,通過話筒可以獲取用戶的聲音信號。
考慮到機器人的面部可以通過多種硬件實現(xiàn),上述根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示,可以以下述方式實現(xiàn):根據(jù)表情表達數(shù)據(jù)控制機器人的面部五官的動作,通過顯示屏進行表情展示;其中,該顯示屏包括點陣塊。
例如,可以通過三塊16*16的點陣塊分別顯示左眼、右眼和嘴巴;進一步地,可以使用一塊高清LCD或LED顯示屏顯示機器人的面部,還可以使用相關(guān)機械結(jié)構(gòu)模擬面部五官;通過上述表情表達數(shù)據(jù)控制多個電機動作,進而機械結(jié)構(gòu)發(fā)生變化,進行表現(xiàn)展示。
實施例三:
參見圖3所示的第三種機器人表情控制方法的流程圖,該方法包括如下步驟:
步驟S302,機器人通過內(nèi)部攝像頭檢測到用戶,獲取表情參數(shù),并將該表情參數(shù)轉(zhuǎn)換成數(shù)字控制信號;
具體地,當用戶在機器人的面前站定后,檢測用戶是否站在攝像頭拍攝范圍的1m-3m之內(nèi);如果是,當機器人通過人臉識別到用戶或者跟用戶對話時,得到用戶的表情參數(shù)(該表情參數(shù)包括happy、sad、nurture等);該步驟中,要求用戶頭部不能歪斜,且正視機器人;將得到的表情參數(shù)轉(zhuǎn)換成數(shù)字控制信號(該數(shù)字控制信號可以為與表情參數(shù)一一對應的數(shù)字,0、1、2、3…);其中,所有表情參數(shù)值個數(shù)不少于10個;在實際實現(xiàn)時,上述用戶距離攝像頭的范圍決定了獲取表情參數(shù)的快速性以及攝像頭捕獲用戶表情圖像的清晰性。
步驟304:將上述數(shù)字控制信號發(fā)送至機器人表情顯示程序;
具體地,信號發(fā)送時,系統(tǒng)觸發(fā)串口通訊程序,通過USB進行通信;將數(shù)字控制信號發(fā)送給機器人表情顯示程序,表情顯示程序內(nèi)存儲的動態(tài)表情圖不少于10個;
步驟306:表情顯示程序顯示相應的動態(tài)卡通表情;
具體地,上述表情顯示程序根據(jù)接收到的信號顯示相應的動態(tài)卡通表情,要求通過3塊16*16的點陣塊顯示左眼、右眼以及嘴巴;
在具體實現(xiàn)時,上述方法可以通過下述硬件實現(xiàn):將工控機作為上位機,51單片機作為下位機,攝像頭獲取用戶的表情參數(shù),上位機將獲取的表情參數(shù)轉(zhuǎn)換為下位機能夠控制的表情命令,上位機通過串口通訊程序與下位機通信并將轉(zhuǎn)換的表情命令發(fā)送給下位機,下位機將接收到的命令與表情庫進行匹配,輸出顯示相應的動態(tài)表情。
實施例四:
對應于上述實施例一,參見圖4所示的一種機器人表情控制裝置的結(jié)構(gòu)示意圖,該裝置設(shè)置于機器人控制器,該機器人控制器連接機器人,該裝置包括如下部分:
信號接收模塊402,用于接收機器人采集的用戶行為信號;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;
特征提取模塊404,用于從用戶行為信號中提取用戶情緒特征;其中,該用戶情緒特征包括表情特征、動作特征和聲音特征中的一種或多種;該聲音特征包括語言特征和/或語氣特征;
參數(shù)查找模塊406,用于從預先建立的表情參數(shù)數(shù)據(jù)庫中查找與用戶情緒特征對應的表情參數(shù);其中,該預先建立的表情參數(shù)數(shù)據(jù)庫中保存了用戶情緒特征的數(shù)值范圍與表情參數(shù)的對應關(guān)系;該表情參數(shù)與人臉的表情種類一一對應;
發(fā)送模塊408,用于將表情參數(shù)發(fā)送至機器人,以使機器人從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);根據(jù)表情表達數(shù)據(jù)控制機器人面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
本發(fā)明實施例提供的一種機器人表情控制裝置,設(shè)置于機器人控制器,通過用戶的面部反射信號、肢體反射信號和聲音信號中的一種或多種用戶行為信號中可以提取用戶表情特征、動作特征和聲音特征中的一種或多種情緒特征;通過查找預先建立的表情參數(shù)數(shù)據(jù)庫可以獲取用戶情緒特征對應的表情參數(shù);并將該表情參數(shù)發(fā)送至機器人,以使該機器人根據(jù)表情參數(shù)獲取表情表達數(shù)據(jù),進而控制機器人面部進行表情展示;上述方式可以通過多種信號綜合獲取用戶的情緒特征,提高了獲取用戶情緒的準確性;根據(jù)該情緒特征控制機器人進行表情展示,使機器人可以準確地根據(jù)用戶的情緒展示表情,增強了機器人與用戶的互動性和實用性,進而提高了用戶的體驗度。
考慮到獲取到的情緒特征數(shù)據(jù)變化較大,上述參數(shù)查找模塊還用于:通過機器學習算法,從預先建立的表情參數(shù)數(shù)據(jù)庫中搜索與用戶情緒特征的差值最小的理想情緒特征,將理想情緒特征對應的表情參數(shù)作為用戶情緒特征的表情參數(shù)。
對應于上述實施例二,參見圖5所示的另一種機器人表情控制裝置的結(jié)構(gòu)示意圖,該裝置設(shè)置于機器人,機器人連接機器人控制器,該裝置包括如下部分:
信號采集模塊502,用于采集用戶行為信號,將用戶行為信號發(fā)送至機器人控制器;其中,該用戶行為信號包括面部反射信號、肢體反射信號和聲音信號中的一種或多種;
參數(shù)接收模塊504,用于接收機器人控制器發(fā)送的表情參數(shù);其中,該表情參數(shù)與人臉的表情種類一一對應;
數(shù)據(jù)查找模塊506,用于從預先建立的表情表達數(shù)據(jù)庫中查找與表情參數(shù)對應的表情表達數(shù)據(jù);
表情展示模塊508,用于根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示;其中,該表情表達數(shù)據(jù)包括人臉面部五官的動作控制數(shù)據(jù)。
本發(fā)明實施例提供的另一種機器人表情控制裝置,設(shè)置于機器人,通過將采集到的面部反射信號、肢體反射信號和聲音信號中的一種或多種用戶行為信號發(fā)送至機器人控制器,可以獲得該機器人控制器發(fā)送的表情參數(shù);通過查找預先建立的表情表達數(shù)據(jù)庫可以獲得與該表情參數(shù)對應的表情表達數(shù)據(jù),并通過該根據(jù)表情表達數(shù)據(jù)控制機器人的面部進行表情展示。上述方式可以通過多種信號綜合獲取用戶的情緒特征,提高了獲取用戶情緒的準確性;根據(jù)該情緒特征控制機器人進行表情展示,使機器人可以準確地根據(jù)用戶的情緒展示表情,增強了機器人與用戶的互動性和實用性,進而提高了用戶的體驗度。
為了更加清晰準確地獲取用戶行為信號,上述信號采集模塊包括:(1)檢測單元,用于通過攝像頭實時檢測是否有用戶進入攝像頭的預設(shè)距離內(nèi);(2)采集單元,用于如果有用戶進入攝像頭的預設(shè)距離內(nèi),通過多媒體信號采集設(shè)備采集用戶行為信號。
考慮到機器人的面部可以通過多種硬件實現(xiàn),上述表情展示模塊還用于:根據(jù)表情表達數(shù)據(jù)控制機器人的面部五官的動作,通過顯示屏進行表情展示;其中,顯示屏包括點陣塊。
本發(fā)明實施例提供的一種機器人表情控制方法和裝置,首先通過機器人內(nèi)部攝像頭檢測到用戶,經(jīng)過人臉識別獲取用戶的表情并將表情參數(shù)轉(zhuǎn)換成數(shù)字控制信號,然后觸發(fā)串口通訊程序,將數(shù)字控制信號發(fā)送給機器人表情顯示程序,最后表情顯示程序根據(jù)接收到的信號顯示相應的動態(tài)卡通表情。本發(fā)明具有操作簡單、控制簡便、效果生動等特點,用戶還可自己編程設(shè)計表情,克服了傳統(tǒng)機器人表情的單一、呆板以及與用戶交互性差等缺陷。
本發(fā)明實施例所提供的一種機器人表情控制方法和裝置的計算機程序產(chǎn)品,包括存儲了程序代碼的計算機可讀存儲介質(zhì),所述程序代碼包括的指令可用于執(zhí)行前面方法實施例中所述的方法,具體實現(xiàn)可參見方法實施例,在此不再贅述。
所屬領(lǐng)域的技術(shù)人員可以清楚地了解到,為描述的方便和簡潔,上述描述的系統(tǒng)和/或裝置的具體工作過程,可以參考前述方法實施例中的對應過程,在此不再贅述。
所述功能如果以軟件功能單元的形式實現(xiàn)并作為獨立的產(chǎn)品銷售或使用時,可以存儲在一個計算機可讀取存儲介質(zhì)中。基于這樣的理解,本發(fā)明的技術(shù)方案本質(zhì)上或者說對現(xiàn)有技術(shù)做出貢獻的部分或者該技術(shù)方案的部分可以以軟件產(chǎn)品的形式體現(xiàn)出來,該計算機軟件產(chǎn)品存儲在一個存儲介質(zhì)中,包括若干指令用以使得一臺計算機設(shè)備(可以是個人計算機,服務(wù)器,或者網(wǎng)絡(luò)設(shè)備等)執(zhí)行本發(fā)明各個實施例所述方法的全部或部分步驟。而前述的存儲介質(zhì)包括:U盤、移動硬盤、只讀存儲器(ROM,Read-Only Memory)、隨機存取存儲器(RAM,Random Access Memory)、磁碟或者光盤等各種可以存儲程序代碼的介質(zhì)。
最后應說明的是:以上所述實施例,僅為本發(fā)明的具體實施方式,用以說明本發(fā)明的技術(shù)方案,而非對其限制,本發(fā)明的保護范圍并不局限于此,盡管參照前述實施例對本發(fā)明進行了詳細的說明,本領(lǐng)域的普通技術(shù)人員應當理解:任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),其依然可以對前述實施例所記載的技術(shù)方案進行修改或可輕易想到變化,或者對其中部分技術(shù)特征進行等同替換;而這些修改、變化或者替換,并不使相應技術(shù)方案的本質(zhì)脫離本發(fā)明實施例技術(shù)方案的精神和范圍,都應涵蓋在本發(fā)明的保護范圍之內(nèi)。因此,本發(fā)明的保護范圍應所述以權(quán)利要求的保護范圍為準。