專利名稱:信息處理裝置和方法、程序存儲(chǔ)介質(zhì)和程序的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及用于處理信息的方法和裝置、程序存儲(chǔ)介質(zhì)、以及程序。更具體地,本發(fā)明涉及用于處理信息的方法和裝置、程序存儲(chǔ)介質(zhì)、以及程序,其中,可提高學(xué)習(xí)效率并容易擴(kuò)大規(guī)模。
背景技術(shù):
到目前為止,已經(jīng)研究作為與人腦或動(dòng)物大腦有關(guān)的一個(gè)模型的神經(jīng)網(wǎng)絡(luò)。在神經(jīng)網(wǎng)絡(luò)中,在一開始學(xué)習(xí)預(yù)定運(yùn)動(dòng)圖案,以檢查輸入數(shù)據(jù)是否與學(xué)習(xí)的運(yùn)動(dòng)模型相對應(yīng)。
對于識別運(yùn)動(dòng)圖案的模型,已經(jīng)知道借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型和借助分布表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型。
如圖1所示,利用借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型,通過相關(guān)的門2-1至2-3互連獨(dú)立的局部模塊1-1至1-3。局部模塊1-1至1-3學(xué)習(xí)獨(dú)立的運(yùn)動(dòng)圖案。
在借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型中,通過控制門2-1至2-3而確定全部輸出。
此借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型在專利出版物1中公布。
如圖2所示,另一方面,在借助分布表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型中,模塊21學(xué)習(xí)多個(gè)運(yùn)動(dòng)圖案。
日本特開專利出版號H-11-126198然而,在借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型中,不考慮不同圖案中的關(guān)系,因而難以歸納用于學(xué)習(xí)的多個(gè)圖案。
在借助分布表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型中,通過只有少量參數(shù)的單一模型而學(xué)習(xí)多個(gè)運(yùn)動(dòng)圖案,因而,學(xué)習(xí)效率較低,同時(shí),遇到與規(guī)??蓴U(kuò)展性有關(guān)的困難。
發(fā)明內(nèi)容
考慮到現(xiàn)有技術(shù)中的這些固有問題,本發(fā)明的目的是提供一種用于處理信息的裝置、程序存儲(chǔ)介質(zhì)和程序,其中,可提高學(xué)習(xí)效率并容易擴(kuò)大規(guī)模。
在一個(gè)方面中,本發(fā)明提供一種用于處理時(shí)間序列圖案的信息處理裝置,包括用于學(xué)習(xí)時(shí)間序列圖案的借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型;用于學(xué)習(xí)時(shí)間序列圖案的借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型;借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型,該模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都計(jì)算學(xué)習(xí)誤差,基于學(xué)習(xí)誤差而計(jì)算學(xué)習(xí)參數(shù)的修正量的加權(quán)系數(shù),并且基于加權(quán)系數(shù)而修正學(xué)習(xí)參數(shù)。
在另一方面,本發(fā)明提供一種用于信息處理裝置的信息處理方法,該信息處理裝置用于處理時(shí)間序列圖案,該方法包括通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案的步驟;通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案的步驟;以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案的步驟,該模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
根據(jù)本發(fā)明的信息處理方法進(jìn)一步包括第一計(jì)算步驟,該步驟用于計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差;第二計(jì)算步驟,該步驟基于學(xué)習(xí)誤差而計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于加權(quán)系數(shù)而修正第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)。
在又一方面中,本發(fā)明提供一種在其上儲(chǔ)存用于信息處理裝置的程序的程序存儲(chǔ)介質(zhì),該信息處理裝置配置為用于處理時(shí)間序列圖案,該程序允許計(jì)算機(jī)執(zhí)行以下處理,包括通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案的步驟;通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案的步驟;以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案的步驟,該模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
根據(jù)本發(fā)明的用于存儲(chǔ)介質(zhì)的程序進(jìn)一步包括第一計(jì)算步驟,該步驟用于計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差;第二計(jì)算步驟,該步驟基于學(xué)習(xí)誤差而計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于加權(quán)系數(shù)而修正第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)。
在還一方面中,本發(fā)明提供一種用于計(jì)算機(jī)控制信息處理裝置的程序,該信息處理裝置配置為用于處理時(shí)間序列圖案,該程序允許計(jì)算機(jī)執(zhí)行以下處理,包括通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案的步驟;通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案的步驟;以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案的步驟,第三運(yùn)動(dòng)圖案學(xué)習(xí)模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
根據(jù)本發(fā)明的程序進(jìn)一步包括第一計(jì)算步驟,該步驟用于計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差;第二計(jì)算步驟,該步驟基于學(xué)習(xí)誤差而計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于加權(quán)系數(shù)而修正第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)。
根據(jù)本發(fā)明,第一和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都是借助分布表達(dá)方案的模型,并且借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型由第一和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型形成。
根據(jù)本發(fā)明,可學(xué)習(xí)運(yùn)動(dòng)圖案。具體地,有可能提高學(xué)習(xí)效率并極其容易地?cái)U(kuò)大規(guī)模。
以下解釋用于執(zhí)行本發(fā)明的最佳模式。然而,首先解釋在說明書中所公布的本發(fā)明各個(gè)方面與實(shí)施例之間的對應(yīng)關(guān)系。如果在說明書中應(yīng)該有實(shí)施例,但實(shí)施例的描述不與本發(fā)明的方面相對應(yīng),則這些實(shí)施例不被認(rèn)為不與本發(fā)明的方面相對應(yīng)。相反,如果在此描述的實(shí)施例應(yīng)該與本發(fā)明的某個(gè)方面相對應(yīng),則這些實(shí)施例不被認(rèn)為沒有與除本發(fā)明所述方面之外的方面相對應(yīng)。
另外,公布的內(nèi)容不意味著表示在此公布的本發(fā)明的全部方面與在說明書中描述的實(shí)施例相對應(yīng)。換句話說,公布的內(nèi)容被解釋為包括在將來由單獨(dú)的應(yīng)用或修改所提供或增加的本發(fā)明方面。
圖1示出借助常規(guī)局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型的實(shí)例。
圖2示出借助常規(guī)分布表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型的實(shí)例。
圖3為示出體現(xiàn)本發(fā)明的處理裝置的示例性結(jié)構(gòu)的框圖。
圖4為用于說明圖3所示處理裝置的基本處理的流程圖。
圖5為示出體現(xiàn)本發(fā)明的處理裝置的另一示例性結(jié)構(gòu)的框圖。
圖6示出再生型神經(jīng)網(wǎng)絡(luò)的示例性結(jié)構(gòu)。
圖7為用于說明圖4中步驟S2的學(xué)習(xí)處理的流程圖。
圖8-16示出運(yùn)動(dòng)圖案的不同實(shí)例。
圖17示出具有圖5處理裝置所學(xué)習(xí)的運(yùn)動(dòng)圖案的狀態(tài)。
圖18為用于說明圖7中步驟S13的局部模塊學(xué)習(xí)處理的流程圖。
圖19為用于說明系數(shù)設(shè)定處理的流程圖。
圖20示出在具有圖5中處理裝置所學(xué)習(xí)的運(yùn)動(dòng)圖案的情況下的學(xué)習(xí)誤差。
圖21為用于說明運(yùn)動(dòng)圖案識別處理的流程圖。
圖22示出運(yùn)動(dòng)圖案識別處理。
圖23為用于說明運(yùn)動(dòng)圖案產(chǎn)生處理的流程圖。
圖24示出產(chǎn)生運(yùn)動(dòng)圖案的處理。
圖25為用于說明圖4中步驟S2的學(xué)習(xí)處理的另一實(shí)例的流程圖。
圖26為示出體現(xiàn)本發(fā)明的個(gè)人計(jì)算機(jī)的示例性結(jié)構(gòu)的框圖。
具體實(shí)施例方式
下面參照附圖詳細(xì)解釋本發(fā)明的一些優(yōu)選實(shí)施例。
本發(fā)明提供用于處理時(shí)間序列圖案的信息處理裝置,如圖3所示的處理裝置41。此信息處理裝置包括借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型,該模型用于學(xué)習(xí)時(shí)間序列圖案(例如,圖3的局部模塊43-1);借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,該模型用于學(xué)習(xí)時(shí)間序列圖案(例如,圖3的局部模塊43-2);以及,借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型,該模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件(例如,圖3的集成模塊42)。
此信息處理裝置的第一和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由再生型神經(jīng)網(wǎng)絡(luò)構(gòu)成,每個(gè)再生型神經(jīng)網(wǎng)絡(luò)都具有操作參數(shù)(如圖5的RNN61-1和61-2)。
而且,此信息處理裝置的第一和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都能(例如通過圖5的步驟S114的處理)計(jì)算學(xué)習(xí)誤差(如公式(5)的學(xué)習(xí)誤差ei),從而,基于學(xué)習(xí)誤差而計(jì)算公式(7)的學(xué)習(xí)參數(shù)的修正值Δw′i的加權(quán)系數(shù),如公式(6)的加權(quán)系數(shù)gi(如圖25中步驟S115的處理),并且基于加權(quán)系數(shù)而修正學(xué)習(xí)參數(shù)(如圖25中步驟S117的處理)。
本發(fā)明還提供一種信息處理裝置(如,圖3的處理裝置41)。此方法包括以下步驟通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型(如圖3的局部模塊43-1)而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案(例如,在學(xué)習(xí)圖3中局部模塊43-1的情況下,為圖7的步驟S13);通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型(如圖3的局部模塊43-2)而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案(例如,在學(xué)習(xí)圖3中局部模塊43-2的情況下,為圖7的步驟S13);以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案(如圖4的步驟S3),其中,此模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
信息處理裝置的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)可由設(shè)置有操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
信息處理方法進(jìn)一步包括第一計(jì)算步驟(如圖25中步驟S114的處理),該步驟計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差(公式(5)的學(xué)習(xí)誤差ei);第二計(jì)算步驟(如圖25中步驟S115的處理),該步驟基于學(xué)習(xí)誤差而計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)的修正值(如圖7的學(xué)習(xí)參數(shù)的修正值(Δw′i)的加權(quán)系數(shù))(如公式(6)的加權(quán)系數(shù)gi);以及,修正步驟(如圖25中步驟S117的處理),該步驟基于加權(quán)系數(shù)而修正第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)。
本發(fā)明還提供程序存儲(chǔ)介質(zhì)(如光盤172),該介質(zhì)中儲(chǔ)存用于處理時(shí)間序列圖案的程序。該程序包括以下步驟通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型(如圖3的局部模塊43-1)而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案(例如,在學(xué)習(xí)圖3中局部模塊43-1的情況下,為圖7的步驟S13);通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型(如圖3的局部模塊43-2)而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案(例如,在學(xué)習(xí)圖3中局部模塊43-2的情況下,為圖7的步驟S13);以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案(如圖4的步驟S3)。第三運(yùn)動(dòng)圖案學(xué)習(xí)模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
在程序存儲(chǔ)介質(zhì)的程序中的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都可由設(shè)置有操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
所述程序進(jìn)一步包括第一計(jì)算步驟(如圖25中步驟S114的處理),該步驟計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差(公式(5)的學(xué)習(xí)誤差ei);第二計(jì)算步驟(如圖25中步驟S115的處理),該步驟基于學(xué)習(xí)誤差而計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)的修正值(如圖7的學(xué)習(xí)參數(shù)的修正值(Δw′i)的加權(quán)系數(shù))(如公式(6)的加權(quán)系數(shù)gi);以及,修正步驟(如圖25中步驟S117的處理),該步驟基于加權(quán)系數(shù)而修正第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)。
本發(fā)明還提供用于處理時(shí)間序列圖案的程序。該程序包括以下步驟通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型(如圖3的局部模塊43-1)而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案(例如,在學(xué)習(xí)圖3中局部模塊43-1的情況下,為圖7的步驟S13);通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型(如圖3的局部模塊43-2)而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案(例如,在學(xué)習(xí)圖3中局部模塊43-2的情況下,為圖7的步驟S13);以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案(如圖4的步驟S3)。第三運(yùn)動(dòng)圖案學(xué)習(xí)模型具有第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
在程序中的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都可由設(shè)置有操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
所述程序進(jìn)一步包括第一計(jì)算步驟(如圖25中步驟S114的處理),該步驟計(jì)算程序中第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差(如公式(6)的學(xué)習(xí)誤差ei);第二計(jì)算步驟(如圖25中步驟S115的處理),該步驟基于學(xué)習(xí)誤差而計(jì)算第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)的修正值(如圖7的學(xué)習(xí)參數(shù)的修正值(Δw′i)的加權(quán)系數(shù))(如公式(6)的系數(shù)gi);以及,修正步驟(如圖25中步驟S117的處理),該步驟基于加權(quán)系數(shù)而修正第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)。
以下解釋本發(fā)明的實(shí)施例。
圖3示出體現(xiàn)本發(fā)明的處理裝置41的示例性結(jié)構(gòu)。此處理裝置41由集成模塊42形成,集成模塊42是借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型。集成模塊42由多個(gè)(在此為三個(gè))局部模塊43-1至43-3以及相關(guān)的門44-1至44-3形成。對于門44-1至44-3,分別設(shè)定系數(shù)W1-W3。門的輸出用以下公式表達(dá)總輸出=∑Wi×modulei(pi)在以上公式中,I的值為1、2或3,并且代表局部模塊43-1至43-3中的一個(gè)。另外,modulei(pi)表示在參數(shù)值為pi的情況下局部模塊43-1至43-3的輸出。
參照圖4的流程圖,解釋圖3的處理裝置41的基本處理。
在步驟S1中,執(zhí)行由局部模塊43-1至43-3產(chǎn)生集成模塊42的處理。所產(chǎn)生的局部模塊43-1至43-3的輸出分別在門44-1至44-3中乘以系數(shù)W1-W3,接著綜合在一起,并且發(fā)送這樣綜合的輸出。
接著,在步驟S2中,執(zhí)行學(xué)習(xí)處理。通過此學(xué)習(xí)處理,在各個(gè)局部模塊43-1至43-3中學(xué)習(xí)并儲(chǔ)存多個(gè)運(yùn)動(dòng)圖案(時(shí)間序列圖案)。
后面結(jié)合圖7的流程圖詳細(xì)解釋步驟S2的學(xué)習(xí)處理。
在如上所述地學(xué)習(xí)運(yùn)動(dòng)圖案之后,執(zhí)行利用處理裝置41的處理,如向各個(gè)局部模塊43-1至43-3輸入所需的參數(shù)以便輸出相應(yīng)圖案,或者,向各個(gè)局部模塊43-1至43-3輸入預(yù)定運(yùn)動(dòng)圖案以便輸出相應(yīng)的系數(shù)。
后面結(jié)合圖21和23詳細(xì)解釋步驟S3的利用處理。
按此順序執(zhí)行步驟S1-S3的處理。然而,這些步驟不必連續(xù)執(zhí)行,從而,可在步驟S1和S2之間或在步驟S2和S3之間設(shè)置預(yù)定時(shí)間間隔。
在本實(shí)施例中,如圖5所示,局部模塊43-1至43-3由再生神經(jīng)網(wǎng)絡(luò)(RNN)61-1至61-3形成,每一個(gè)模塊都具有學(xué)習(xí)運(yùn)動(dòng)圖案的功能。在以下解釋中,如果不必個(gè)別地區(qū)分局部模塊43-1至43-3或RNN61-1至61-3,它們就分別簡稱為局部模塊43或RNN 61。
圖6示出RNN 61的例示性結(jié)構(gòu)。此RNN 61由輸入層111、中間層(隱藏層)112和輸出層113組成。輸入層111、中間層112和輸出層113每一個(gè)都由可選數(shù)量的神經(jīng)元組成。
神經(jīng)元111-1是輸入層111的一部分,它被提供與時(shí)間序列圖案有關(guān)的數(shù)據(jù)xt。具體地,提供與人體運(yùn)動(dòng)圖案有關(guān)的數(shù)據(jù),該數(shù)據(jù)在畫面處理中例如基于照相機(jī)圖象(如手指尖的運(yùn)動(dòng)軌跡)而獲得。
參數(shù)偏置節(jié)點(diǎn)111-2是一部分輸入層111的一神經(jīng)元,向該節(jié)點(diǎn)提供參數(shù)Pt。參數(shù)偏置節(jié)點(diǎn)的數(shù)量是一個(gè)或多個(gè)。與組成再生神經(jīng)網(wǎng)絡(luò)的神經(jīng)元的總數(shù)相比,節(jié)點(diǎn)數(shù)量優(yōu)選足夠小,上述總數(shù)決定權(quán)矩陣的數(shù)量并作為模型確定部件的參數(shù)。在本實(shí)施例中,神經(jīng)元的總數(shù)為50,同時(shí),參數(shù)偏置節(jié)點(diǎn)的數(shù)量為1或2左右。應(yīng)指出,這些數(shù)量僅僅是示例性的,并且不限制本發(fā)明。
參數(shù)偏置節(jié)點(diǎn)調(diào)整非線性機(jī)械系統(tǒng)中的機(jī)械結(jié)構(gòu),并且,在本實(shí)施例中,調(diào)整由再生神經(jīng)網(wǎng)絡(luò)所擁有的機(jī)械結(jié)構(gòu)。然而,本發(fā)明不局限于再生神經(jīng)網(wǎng)絡(luò)。
從輸出層113的神經(jīng)元113-2輸出的數(shù)據(jù)反饋回神經(jīng)元111-3,作為代表RNN 61內(nèi)部狀態(tài)的語境Ct,其中,神經(jīng)元111-3形成輸入層111的一部分。語境Ct是與再生神經(jīng)網(wǎng)絡(luò)有關(guān)的常規(guī)術(shù)語,并且例如在參考資料(Elman,J.L.(1990)。尋找時(shí)間結(jié)構(gòu)(Finding Structurein Time),認(rèn)識科學(xué)(Cognitive Science),14.170-211)中闡述。
中間層112的神經(jīng)元對輸入數(shù)據(jù)執(zhí)行加權(quán)求和,以便向下游級順序地輸出所得到的數(shù)據(jù)。即,中間層的神經(jīng)元利用預(yù)定加權(quán)系數(shù)的計(jì)算處理(基于非線性函數(shù)的計(jì)算處理)來處理數(shù)據(jù)xt、Pt和Ct,以便向輸出層113輸出結(jié)果。在本實(shí)施例中,利用基于具有非線性輸出特征的函數(shù)如S形函數(shù)的計(jì)算,處理與數(shù)據(jù)xt、Pt和Ct的預(yù)定加權(quán)和相應(yīng)的輸入,以向輸出層113輸出結(jié)果。
形成輸出層113一部分的神經(jīng)元113-1輸出與輸入數(shù)據(jù)有關(guān)的數(shù)據(jù)x*t+1。
RNN 61包括通過后向傳播而學(xué)習(xí)的計(jì)算單元121。計(jì)算單元122為RNN 61設(shè)置加權(quán)系數(shù)。
參照圖7的流程圖,解釋圖4中步驟S2的學(xué)習(xí)處理。
在步驟S11中,執(zhí)行用于在計(jì)算單元122中保存局部模塊61-1至61-3的學(xué)習(xí)參數(shù)(各個(gè)神經(jīng)元的加權(quán)系數(shù))的處理。在下一步驟S12中,執(zhí)行在每個(gè)局部模塊61-1至61-3中接收學(xué)習(xí)主題的運(yùn)動(dòng)圖案的處理。在下一步驟S13中,執(zhí)行局部模塊的學(xué)習(xí)處理。后面結(jié)合圖18的流程圖詳細(xì)解釋局部模塊的學(xué)習(xí)處理。通過此步驟S13的處理,由局部模塊61-1至61-3中的一個(gè),如局部模塊61-1,學(xué)習(xí)運(yùn)動(dòng)圖案。
在下一步驟S14中,計(jì)算單元122獲得局部模塊61-1至61-3的學(xué)習(xí)誤差,以便互相比較誤差值。以此方式,計(jì)算單元122確定具有最小學(xué)習(xí)誤差值的局部模塊。
在下一步驟S15中,計(jì)算單元122執(zhí)行以下處理把在步驟S11的處理時(shí)保存的學(xué)習(xí)參數(shù)(加權(quán)系數(shù))返回給除具有最小學(xué)習(xí)誤差的局部模塊之外的局部模塊。例如,如果具有最小學(xué)習(xí)誤差的局部模塊是局部模塊61-1,局部模塊61-2和61-3的學(xué)習(xí)參數(shù)就恢復(fù)到學(xué)習(xí)前狀態(tài)。
在下一步驟S16中,計(jì)算單元122確定全部運(yùn)動(dòng)圖案的學(xué)習(xí)是否已經(jīng)結(jié)束。如果全部運(yùn)動(dòng)圖案未結(jié)束,計(jì)算單元122就返回到步驟S11,以重復(fù)執(zhí)行從此步驟開始的處理。
如果在步驟S16中確定全部運(yùn)動(dòng)圖案的學(xué)習(xí)已經(jīng)結(jié)束,學(xué)習(xí)處理就結(jié)束。
以此方式,由局部模塊43-1至43-3逐個(gè)學(xué)習(xí)如圖8-16所示的全部9種運(yùn)動(dòng)圖案。在此情況下,如圖8-10所示的運(yùn)動(dòng)圖案、如圖11-13所示的運(yùn)動(dòng)圖案和如圖14-16所示的運(yùn)動(dòng)圖案分別由如圖17所示的局部模塊43-1、43-2和43-3學(xué)習(xí)。在門44-1至44-3中,從器件設(shè)置預(yù)定值的系數(shù)W1-W3,該器件未示出。
在每一個(gè)局部模塊43-1至43-3中,學(xué)習(xí)具有可共同擁有機(jī)械結(jié)構(gòu)的運(yùn)動(dòng)圖案。這在后面結(jié)合圖20進(jìn)行解釋。
現(xiàn)在參照圖18的流程圖,解釋圖7中步驟S13的局部模塊學(xué)習(xí)處理。
從一個(gè)將被學(xué)習(xí)運(yùn)動(dòng)圖案到另一個(gè)地執(zhí)行圖18流程圖所示的處理。換句話說,提供與將被學(xué)習(xí)運(yùn)動(dòng)圖案數(shù)量相應(yīng)的虛擬RNN數(shù)量,并且從一個(gè)虛擬RNN到另一個(gè)地執(zhí)行圖18的處理。
在逐個(gè)虛擬RNN執(zhí)行圖18流程圖所示處理并逐個(gè)從虛擬RNN學(xué)習(xí)所述學(xué)習(xí)圖案之后,執(zhí)行設(shè)置實(shí)用RNN 61的系數(shù)的處理。然而,在以下解釋中,虛擬RNN被解釋為實(shí)際RNN 61。
首先,在步驟S31中,RNN 61的輸入層111的神經(jīng)元111-1在預(yù)定時(shí)間t接收輸入xt。在步驟S32中,RNN 61的中間層112對輸入xt的加權(quán)系數(shù)執(zhí)行計(jì)算處理,并且從輸出層113的神經(jīng)元113-1輸出在輸入時(shí)間序列圖案中時(shí)間序列的值t+1的預(yù)測值x*t+1。
在步驟S33中,計(jì)算單元121接收下一時(shí)間點(diǎn)t+1的輸入xt+1,作為教師數(shù)據(jù)。在步驟S32中,計(jì)算單元121在步驟S34中計(jì)算在步驟S33的處理所接收的教師輸入xt+1與步驟S32的處理所計(jì)算得到的預(yù)測值x*t+1之間的誤差。
在步驟S35中,從輸出層113的神經(jīng)元113-1向RNN 61提供步驟S34的處理所計(jì)算得到的誤差,并且向中間層112后向傳播輸入誤差,并因而后向傳播給輸入層111,以執(zhí)行學(xué)習(xí)處理,得到計(jì)算結(jié)果dXpt。
在步驟S36中,中間層112基于以下公式(1)獲得內(nèi)部狀態(tài)的修正值dXUdXUt=kbp·Σt-12t+12dXbpt+knb·(XUt+1-XUt+XUt-1-XUt)----(1)]]>
接著,中間層112基于以下公式(2)-(4)而修正所述修正值dXUd1XUt=ε·dXUt+monentum·d1XUt(2)XUt=XUt+d1XUt(3)Xt=sigmoid(XUt) (4)在步驟S37中,參數(shù)節(jié)點(diǎn)111-2執(zhí)行保存其內(nèi)部狀態(tài)值的處理。
在下一步驟S38中,RNN 61檢查學(xué)習(xí)處理是否將結(jié)束。如果學(xué)習(xí)處理未結(jié)束,參數(shù)節(jié)點(diǎn)就返回到步驟S31,以便重復(fù)執(zhí)行從此步驟開始的處理。
如果在步驟S38中確定學(xué)習(xí)處理將結(jié)束,就終止學(xué)習(xí)處理。
通過執(zhí)行以上的學(xué)習(xí)處理,虛擬RNN學(xué)習(xí)所述學(xué)習(xí)圖案。
在對與學(xué)習(xí)圖案數(shù)量相應(yīng)的一定數(shù)量的虛擬RNN執(zhí)行學(xué)習(xí)處理之后,如上所述,執(zhí)行在實(shí)用RNN 61上設(shè)置加權(quán)系數(shù)的處理,其中,加權(quán)系數(shù)通過學(xué)習(xí)處理而獲得。圖19示出在此情況下的處理。
計(jì)算單元122在步驟S51中計(jì)算系數(shù)的綜合值,所述系數(shù)通過對每個(gè)虛擬RNN執(zhí)行圖18流程圖所示處理而獲得。對于此綜合值,例如可使用平均值。也就是說,在此計(jì)算虛擬RNN的加權(quán)系數(shù)的平均值。
在下一步驟S52中,計(jì)算單元122執(zhí)行設(shè)置綜合值(平均值)的處理,綜合值由步驟S51的處理計(jì)算,作為實(shí)用RNN 61的神經(jīng)元的加權(quán)系數(shù)。
這在實(shí)用RNN 61的中間層112的各個(gè)神經(jīng)元上設(shè)置所述系數(shù),所述系數(shù)在學(xué)習(xí)多個(gè)運(yùn)動(dòng)圖案時(shí)而獲得。
在中間層112的各個(gè)神經(jīng)元的加權(quán)系數(shù)中保存在產(chǎn)生多個(gè)教師運(yùn)動(dòng)圖案時(shí)與可共同擁有機(jī)械結(jié)構(gòu)有關(guān)的信息,同時(shí),在參數(shù)偏置節(jié)點(diǎn)中保存用于把可共同擁有機(jī)械結(jié)構(gòu)切換到適于產(chǎn)生各個(gè)教師運(yùn)動(dòng)圖案的機(jī)械結(jié)構(gòu)所需的信息。
在圖8-10、11-13和14-16中,具有不同振幅和頻率并且波形基本相似的機(jī)械結(jié)構(gòu)被認(rèn)為是‘可共同擁有的機(jī)械結(jié)構(gòu)’。
圖20示出局部模塊43-1至43-3正學(xué)習(xí)運(yùn)動(dòng)圖案時(shí)的中間狀態(tài)。在圖20所示狀態(tài)中,圖9和10所示的運(yùn)動(dòng)圖案已經(jīng)在局部模塊43-1中學(xué)習(xí),圖12和13所示的運(yùn)動(dòng)圖案已經(jīng)在局部模塊43-2中學(xué)習(xí),并且,圖14和15所示的運(yùn)動(dòng)圖案已經(jīng)在局部模塊43-3中學(xué)習(xí)。圖20示出已進(jìn)一步學(xué)習(xí)圖11所示運(yùn)動(dòng)圖案的狀態(tài)。
局部模塊43-1的學(xué)習(xí)誤差為0.9,局部模塊43-2的學(xué)習(xí)誤差為0.1,并且局部模塊43-3的學(xué)習(xí)誤差為0.4。因而,是局部模塊43-3具有最小的學(xué)習(xí)誤差。
這意味著,在局部模塊43-1至43-3中,局部模塊43-2已經(jīng)學(xué)習(xí)與圖11所示運(yùn)動(dòng)圖案類似的運(yùn)動(dòng)圖案,即圖12和13所示的運(yùn)動(dòng)圖案。換句話說,如圖11-13所示的運(yùn)動(dòng)圖案設(shè)置有可共同擁有的機(jī)械結(jié)構(gòu)。
在此情況下,在圖7的步驟S14中確定局部模塊43-2的學(xué)習(xí)誤差是最小的,從而,在步驟S15中,在步驟S11的處理時(shí)在學(xué)習(xí)參數(shù)存儲(chǔ)緩沖器141中保存的學(xué)習(xí)參數(shù)返回給局部模塊43-1和43-3,學(xué)習(xí)參數(shù)存儲(chǔ)緩沖器141形成計(jì)算單元122。這防止通過學(xué)習(xí)不具有‘可共同擁有機(jī)械結(jié)構(gòu)’的運(yùn)動(dòng)圖案而實(shí)質(zhì)破壞局部模塊43-1和43-3的學(xué)習(xí)參數(shù)。
以下參照圖21的流程圖,解釋在學(xué)習(xí)之后在圖4的步驟S3中執(zhí)行的利用處理的實(shí)例。
如圖22所示,圖8-10所示的運(yùn)動(dòng)圖案已經(jīng)在局部模塊43-1中學(xué)習(xí),圖11-13所示的運(yùn)動(dòng)圖案已經(jīng)在局部模塊43-2中學(xué)習(xí),并且圖14-16所示的運(yùn)動(dòng)圖案已經(jīng)在局部模塊43-3中學(xué)習(xí)。
在此狀態(tài)下,如果在如圖21所示的步驟S71中輸入如圖11所示的運(yùn)動(dòng)圖案,各個(gè)局部模塊43-1至43-3就在步驟S72中對輸入到節(jié)點(diǎn)111-1中的運(yùn)動(dòng)圖案的數(shù)據(jù)執(zhí)行計(jì)算。在此情況下,局部模塊43-1中的識別誤差為0.9,局部模塊43-2中的識別誤差為0.1,并且局部模塊43-3中的識別誤差為0.4。由于局部模塊43-2已經(jīng)學(xué)習(xí)并記憶如圖11所示的運(yùn)動(dòng)圖案,因此識別誤差小于其它局部模塊中的識別誤差。
在步驟S73中,局部模塊43-1至43-3向門44-1至44-3輸出運(yùn)動(dòng)圖案的計(jì)算結(jié)果。因而,集成模塊42的輸出是這些計(jì)算結(jié)果與系數(shù)W1-W3相乘之和。
門44-1至44-3的系數(shù)W1-W3與識別誤差成反比地加權(quán),即,識別誤差越小,分配給局部模塊輸出的加權(quán)就越大。
而且,在此情況下,局部模塊43-1至43-3的參數(shù)分別為P1、P2和P3。在這些參數(shù)中,局部模塊43-2的參數(shù)基本與圖11所示的運(yùn)動(dòng)圖案相對應(yīng)。
圖23示出用于產(chǎn)生運(yùn)動(dòng)圖案的處理的實(shí)例,該實(shí)例作為圖4的步驟S3中利用處理的典范。
首先,在步驟S91中,與學(xué)習(xí)時(shí)不同的預(yù)設(shè)值參數(shù)輸入到局部模塊43-1至43-3的參數(shù)偏置節(jié)點(diǎn)111-2中。在步驟S92中,中間層112基于在步驟S91的處理中輸入到參數(shù)偏置節(jié)點(diǎn)111-2的參數(shù)而執(zhí)行計(jì)算。在步驟S93中,RNN 61的神經(jīng)元113-1輸出與在步驟S91的處理中輸入的參數(shù)一致的圖案的數(shù)據(jù)。各個(gè)圖案的數(shù)據(jù)由門44-1至44-3分別乘以系數(shù)W1-W3,求和,并作為輸出而發(fā)送。
圖24示出以上述方式產(chǎn)生運(yùn)動(dòng)圖案的情形。在圖24的情形中,向局部模塊43-1至43-3輸入與迄今為止未學(xué)習(xí)的運(yùn)動(dòng)圖案保持一致的值的參數(shù)P11-P13。門44-1至44-3的系數(shù)W1-W3設(shè)定為與在各個(gè)局部模塊43-1至43-3中計(jì)算的識別誤差一致的值。結(jié)果是產(chǎn)生與迄今為止學(xué)習(xí)過的運(yùn)動(dòng)圖案類似并且還未學(xué)習(xí)的運(yùn)動(dòng)圖案,作為運(yùn)動(dòng)圖案。
還可基于與學(xué)習(xí)前學(xué)習(xí)圖案的相互關(guān)系而對運(yùn)動(dòng)圖案進(jìn)行分類。
在前述中,局部模塊43的數(shù)量假設(shè)為三。如果需要,此數(shù)量可以增加,由此擴(kuò)大規(guī)模。而且,由于局部模塊用RNN構(gòu)造,作為借助分布表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型,因此,可有效地學(xué)習(xí)多個(gè)運(yùn)動(dòng)圖案。
在前述中,只有具有最小學(xué)習(xí)誤差的局部模塊執(zhí)行學(xué)習(xí),即,根據(jù)所謂的勝者全贏系統(tǒng)而執(zhí)行學(xué)習(xí)。圖25示出此處理情形。
在圖25中,步驟S111-S113的處理與圖7的步驟S11-S13的處理相似。也就是說,通過此處理,保存局部模塊43-1至43-3的學(xué)習(xí)參數(shù),并且,通過局部模塊43-1至43-3接收學(xué)習(xí)主題的運(yùn)動(dòng)圖案。在這些局部模塊43-1至43-3中執(zhí)行學(xué)習(xí)處理。
在步驟S114中,局部模塊43-1至43-3計(jì)算學(xué)習(xí)誤差ei(I=1,2,3)。此學(xué)習(xí)誤差ei通過以下公式計(jì)算ei=Σt=1T(d(t)-oi(t))2----(5)]]>這里,d(t)代表將被學(xué)習(xí)的運(yùn)動(dòng)圖案,并且o(t)是在學(xué)習(xí)時(shí)獲得的輸出圖案。
在下一步驟S115中,各個(gè)局部模塊43-1至43-3基于各個(gè)學(xué)習(xí)誤差ei而計(jì)算各個(gè)學(xué)習(xí)參數(shù)修正值Δwi的加權(quán)系數(shù)gi。加權(quán)系數(shù)gi可用以下公式表達(dá)gi=exp(ei)Σi=1nexp(ei)----(6)]]>在下一步驟S116中,局部模塊43-1至43-3執(zhí)行以下處理把在步驟S111的處理時(shí)保存的學(xué)習(xí)前學(xué)習(xí)參數(shù)恢復(fù)為原始狀態(tài)。在步驟S117中,局部模塊43-1至43-3執(zhí)行以下處理根據(jù)以下公式,基于步驟S115的處理所找到的加權(quán)系數(shù)gi,修正通過步驟S116的處理而恢復(fù)為原始狀態(tài)的學(xué)習(xí)前學(xué)習(xí)參數(shù)。
Δw′i=(1-gi)Δwi...(7)即,對修正值Δwi的Δw′i的修正結(jié)果是學(xué)習(xí)誤差越小,執(zhí)行的學(xué)習(xí)就越多,并且學(xué)習(xí)誤差越大,執(zhí)行的學(xué)習(xí)就越少,其中,修正值Δwi通過步驟S113的學(xué)習(xí)處理而獲得。換句話說,通過本處理,在步驟S113中執(zhí)行的學(xué)習(xí)處理的目標(biāo)是獲得學(xué)習(xí)誤差,并且在步驟S117中執(zhí)行實(shí)質(zhì)性學(xué)習(xí)。
在下一步驟S118中,檢查全部運(yùn)動(dòng)圖案的學(xué)習(xí)是否已經(jīng)結(jié)束。如果留有任何未學(xué)習(xí)的運(yùn)動(dòng)圖案,處理就回到步驟S111,并且重復(fù)地執(zhí)行從此步驟開始的處理。如果在步驟S118中確定全部運(yùn)動(dòng)圖案的學(xué)習(xí)已經(jīng)結(jié)束,就終止學(xué)習(xí)處理。
在局部模塊43-1至43-3所學(xué)習(xí)運(yùn)動(dòng)圖案的相關(guān)性較低以致于運(yùn)動(dòng)圖案相互獨(dú)立的情況下,通過圖7所示的勝者全贏系統(tǒng)的學(xué)習(xí)處理而提高學(xué)習(xí)效率。相反,如果運(yùn)動(dòng)圖案與多個(gè)局部模塊所學(xué)習(xí)運(yùn)動(dòng)圖案或多或少相關(guān),就可利用結(jié)合圖25所解釋的學(xué)習(xí)處理而改善學(xué)習(xí)處理。
在前述中,本發(fā)明還結(jié)合運(yùn)動(dòng)圖案進(jìn)行解釋。然而,本發(fā)明可應(yīng)用于一般的時(shí)間序列圖案。如果使用規(guī)定機(jī)器人動(dòng)作的圖案作為運(yùn)動(dòng)圖案(時(shí)間序列圖案),本發(fā)明就可應(yīng)用于控制自主型機(jī)器人。
可通過硬件或軟件而執(zhí)行上述處理操作序列。在此情況下,可使用個(gè)人計(jì)算機(jī)160,如圖26中所示。
在圖26中,CPU(中央處理單元)161根據(jù)儲(chǔ)存在ROM(只讀存儲(chǔ)器)162中的程序或從存儲(chǔ)單元168向RAM(隨機(jī)存取存儲(chǔ)器)163裝載的程序,而執(zhí)行各種處理操作。在RAM 163中,還儲(chǔ)存CPU161所需的數(shù)據(jù),以執(zhí)行各種處理操作。
CPU 161、ROM 162和RAM 163通過總線164互連。輸入/輸出接口165還連接到此總線164。
諸如鍵盤或鼠標(biāo)的輸入單元166、諸如CRT或LCD的顯示器、諸如揚(yáng)聲器的輸出單元167、諸如硬盤的存儲(chǔ)單元168、以及諸如終端適配器的通信單元169連接到輸入/輸出接口165。通信單元169在網(wǎng)絡(luò)上執(zhí)行通信處理。
如果需要,驅(qū)動(dòng)器170連接到輸入/輸出接口165。磁盤171、光盤172、磁光盤173或半導(dǎo)體存儲(chǔ)器174裝入到適當(dāng)位置,并且,如果需要,從其讀出的計(jì)算機(jī)程序安裝在存儲(chǔ)單元168上。
當(dāng)通過軟件執(zhí)行處理操作序列時(shí),形成軟件的程序從網(wǎng)絡(luò)或從記錄介質(zhì)安裝到個(gè)人計(jì)算機(jī)上。
記錄介質(zhì)可由與裝置主體單元分開的封裝介質(zhì)形成,所述介質(zhì)分發(fā)給用戶,用于提供程序,所述介質(zhì)例如為磁盤171(包括軟盤)、光盤172(包括CD-ROM(緊致盤只讀存儲(chǔ)器)或DVD(數(shù)字多用途盤))、或磁光盤(包括MD(小型盤))或半導(dǎo)體存儲(chǔ)器174。這些盤或存儲(chǔ)器包括記錄在其上的程序。另外,記錄介質(zhì)可由ROM 162或包括在存儲(chǔ)單元168中的硬盤形成,該介質(zhì)隨著預(yù)安裝在裝置的主體單元內(nèi)而提供給用戶并且具有記錄在其上的程序。
在本發(fā)明中,描述記錄在記錄介質(zhì)上的程序的步驟不僅包括根據(jù)本文規(guī)定的順序而按時(shí)間順序執(zhí)行的操作,而且包括分批或并行執(zhí)行的處理操作。
權(quán)利要求
1.一種用于處理時(shí)間序列圖案的信息處理裝置,包括用于學(xué)習(xí)時(shí)間序列圖案的借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型;用于學(xué)習(xí)時(shí)間序列圖案的借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型;借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型,該模型具有所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
2.如權(quán)利要求1所述的信息處理裝置,其中,所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
3.如權(quán)利要求1所述的信息處理裝置,其中,所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都計(jì)算學(xué)習(xí)誤差,基于所述學(xué)習(xí)誤差而計(jì)算學(xué)習(xí)參數(shù)的修正量的加權(quán)系數(shù),并且基于所述加權(quán)系數(shù)而修正所述學(xué)習(xí)參數(shù)。
4.一種用于信息處理裝置的信息處理方法,該信息處理裝置用于處理時(shí)間序列圖案,所述方法包括通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案的步驟;通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案的步驟;以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案的步驟,該模型具有所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
5.如權(quán)利要求4所述的信息處理方法,其中,所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
6.如權(quán)利要求4所述的信息處理方法,進(jìn)一步包括第一計(jì)算步驟,該步驟用于計(jì)算所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差;第二計(jì)算步驟,該步驟基于所述學(xué)習(xí)誤差而計(jì)算所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和所述第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于所述加權(quán)系數(shù)而修正所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和所述第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的所述學(xué)習(xí)參數(shù)。
7.一種在其上儲(chǔ)存用于信息處理裝置的程序的程序存儲(chǔ)介質(zhì),該信息處理裝置配置為用于處理時(shí)間序列圖案,所述程序允許計(jì)算機(jī)執(zhí)行以下處理通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案的步驟;通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案的步驟;以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案的步驟,該模型具有所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
8.如權(quán)利要求7所述的程序,其中,所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
9.如權(quán)利要求7所述的程序,進(jìn)一步包括第一計(jì)算步驟,該步驟用于計(jì)算所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差;第二計(jì)算步驟,該步驟基于所述學(xué)習(xí)誤差而計(jì)算所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和所述第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于所述加權(quán)系數(shù)而修正所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和所述第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的所述學(xué)習(xí)參數(shù)。
10.一種用于計(jì)算機(jī)控制信息處理裝置的程序,該信息處理裝置配置為用于處理時(shí)間序列圖案,所述程序允許計(jì)算機(jī)執(zhí)行以下處理,包括通過借助分布表達(dá)方案的第一運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第一時(shí)間序列圖案的步驟;通過借助分布表達(dá)方案的第二運(yùn)動(dòng)圖案學(xué)習(xí)模型而學(xué)習(xí)多個(gè)第二時(shí)間序列圖案的步驟;以及通過借助局部表達(dá)方案的第三運(yùn)動(dòng)圖案學(xué)習(xí)模型而識別或產(chǎn)生時(shí)間序列圖案的步驟,所述第三運(yùn)動(dòng)圖案學(xué)習(xí)模型具有所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型,作為元件。
11.如權(quán)利要求10所述的程序,其中,所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型每一個(gè)都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡(luò)形成。
12.如權(quán)利要求10所述的程序,進(jìn)一步包括第一計(jì)算步驟,該步驟用于計(jì)算所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差和第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)誤差;第二計(jì)算步驟,該步驟基于所述學(xué)習(xí)誤差而計(jì)算所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和所述第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的學(xué)習(xí)參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于所述加權(quán)系數(shù)而修正所述第一運(yùn)動(dòng)圖案學(xué)習(xí)模型和所述第二運(yùn)動(dòng)圖案學(xué)習(xí)模型的所述學(xué)習(xí)參數(shù)。
全文摘要
本發(fā)明涉及一種信息處理方法和信息處理裝置,其中,可提高學(xué)習(xí)效率并容易擴(kuò)大規(guī)模。通過借助局部表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型而形成集成模塊(42)。集成模塊(42)的局部模塊(43-1至43-3)每一個(gè)都由再生神經(jīng)網(wǎng)絡(luò)形成,作為借助分布表達(dá)方案的運(yùn)動(dòng)圖案學(xué)習(xí)模型。使局部模塊(43-1至43-3)學(xué)習(xí)多個(gè)運(yùn)動(dòng)圖案。向局部模塊(43-1至43-3)提供預(yù)定參數(shù)作為輸入,局部模塊(43-1至43-3)的輸出分別由門(44-1至44-3)乘以系數(shù)(W1-W3),并且,得到的乘積被求和并且輸出。
文檔編號G06K9/66GK1581143SQ20041005631
公開日2005年2月16日 申請日期2004年8月6日 優(yōu)先權(quán)日2003年8月7日
發(fā)明者伊藤真人, 谷淳 申請人:索尼株式會(huì)社, 獨(dú)立行政法人理化學(xué)研究所