本發(fā)明涉及一種采用基于局部感受野的極速學習機(LRF-ELM)來處理室內(nèi)場景分類問題的方法,屬于移動機器人的室內(nèi)場景識別方法領域。
背景技術(shù):
室內(nèi)場景識別作為當前的研究熱點,對人們的日常生活產(chǎn)生著深遠的影響。其應用價值主要在于視頻監(jiān)控、智能家居、機器人的日常生產(chǎn)作業(yè)和危險環(huán)境的救援等。
隨著現(xiàn)代傳感器、控制和人工智能技術(shù)的發(fā)展,科研人員對基于計算機視覺和基于深度感知兩大方面的場景識別方法開展了廣泛的研究。浙江大學的發(fā)明專利“一種基于混合攝像機的室內(nèi)場景定位方法”用混合攝像機拍攝的當前幀的深度圖和彩色圖以及訓練好的回歸森林,計算出當前攝像機對應的世界坐標,完成室內(nèi)場景定位,但其效果受光線影響較大。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的是克服傳統(tǒng)技術(shù)的不足之處,提出一種快速有效的室內(nèi)場景定位方法,在基于局部感受野的極速學習機的基礎上實現(xiàn)基于2-D雷達信息的室內(nèi)場景定位,提高了室內(nèi)場景識別的效率及準確率。
本發(fā)明提出的一種利用基于局部感受野的極速學習機的室內(nèi)場景定位方法,包括以下步驟:
(1)采集作為訓練樣本的場景的雷達信息,設訓練樣本的個數(shù)為N,則得到訓練樣本數(shù)據(jù)集Str的表達式為:
Str={Str1,Str2,…,StrN}
其中Str1,Str2,…,StrN分別表示訓練樣本數(shù)據(jù)集Str中第一個訓練樣本、第二個超聲訓練樣本、…第N個訓練樣本。不同場景中,所采集的訓練樣本個數(shù)大致相同;
(2)對需要進行識別的測試樣本場景進行雷達信息的采集。設測試樣本的個數(shù)為M,則得到超聲測試樣本數(shù)據(jù)集Ste的表達式為:
Ste={Ste1,Ste2,…,SteM}
其中Ste1,Ste2,…,SteM分別表示測試樣本數(shù)據(jù)集Ste中第一個測試樣本、第二個測試樣本、…第M個測試樣本。不同場景中,所采集的訓練樣本個數(shù)大致相同。M和N分別為訓練樣本的個數(shù)和測試樣本的個數(shù),一般情況下M≤N;
(3)對雷達測距訓練集Str的樣本信息進行特征提取,具體處理過程如下:
(3-1)記訓練樣本集Str中的任意一個訓練樣本為SI,1≤I≤N,SI是一個由雷達掃描一周獲得的雷達數(shù)據(jù)所構(gòu)成的一維特征向量,即SI=[SI.1,SI.2,…,SI.l],其中SI.1,SI.2,…,SI.l表示一次掃描中l(wèi)個采樣點的雷達數(shù)據(jù),將這組雷達數(shù)據(jù)其轉(zhuǎn)化為極坐標圖像;
(3-2)將極坐標圖像提取到直角坐標系中,且將極坐標圖像的圓心作為矩形圖像的中心,對輪廓內(nèi)部分進行紅色填充;
(3-3)對(3-2)中得到的以白色為背景的矩形紅色填充圖進行二值化處理,使其成為黑白圖像,獲取圖像數(shù)據(jù),得到新的訓練集的樣本SI',完成對訓練集樣本的特征提??;
進而得到新的訓練樣本集Str':
Str'={Str1',Str2',…,Strk',…,StrN'};
其中,Str1',Str2',…,Strk',…,StrN'分別表示經(jīng)求二值化圖像數(shù)據(jù)后得到的測試訓練集Str'中的第一個訓練樣本、第二個訓練樣本、…、第k個訓練樣本、…、第N個訓練樣本,N為訓練樣本數(shù);
(3-4)給訓練集Str'中來自不同類型房間的樣本設定不同的標簽,并組成標簽矩陣T;
(4)對雷達測距測試集Ste的樣本信息進行特征提取,具體處理過程如下:
(4-1)記測試樣本集Ste中的任意一個訓練樣本為SJ,1≤J≤M,SJ是一個由雷達掃描一周獲得的雷達數(shù)據(jù)所構(gòu)成的一維特征向量,即SJ=[SJ.1,SJ.2,…,SJ.l],其中SJ.1,SJ.2,…,SJ.l表示一次掃描中l(wèi)個采樣點的雷達數(shù)據(jù),將這組雷達數(shù)據(jù)其轉(zhuǎn)化為極坐標圖像;
(4-2)將極坐標圖像提取到直角坐標系中,且將極坐標圖像的圓心作為矩形圖像的中心,對輪廓內(nèi)部分進行紅色填充;
(4-3)對(4-2)中得到的以白色為背景的矩形紅色填充圖進行二值化處理,使其成為黑白圖像,獲取圖像數(shù)據(jù),得到新的訓練集的樣本SJ',完成對訓練集樣本的特征提取;
進而得到新的測試樣本集Ste':
Ste'={Ste1',Ste2',…,Stek',…,SteM'};
其中,Ste1',Ste2',…,Stek',…,SteM'分別表示經(jīng)求二值化圖像數(shù)據(jù)后得到的測試集Ste'中的第一個測試樣本、第二個測試樣本、…、第k個測試樣本、…、第M個測試樣本,M為測試樣本數(shù);
(4-4)以(3-4)中的方式給測試集Ste'中來自不同類型房間的樣本設定不同的標簽,并組成標簽矩陣T';
(5)將訓練集Str'及相應的標簽矩陣T、測試集Ste'及相應的標簽矩陣T'作為基于局部感受野的極速學習機的輸入,并設置卷積層、池化層等相應參數(shù);
(5-1)隨機生成輸入權(quán)重Wi=[wi1,,,win]T和隱層單元的偏置bi=[bi1,…bin]T,對初始權(quán)重進行正交化,得到新的輸入權(quán)重設訓練集樣本輸入大小為(d×d),感受野大小為(r×r),第k個特征圖的卷積節(jié)點(i,j)的值ci,j,k由下式計算:
(5-2)對特征圖進行平方根池化,池化大小e表示池化中心到邊的距離,hp,q,k表示第k個池化圖中的組合節(jié)點(p,q),計算如下:
(5-3)簡單地連接所有組合節(jié)點的值形成一個行向量,并把N個訓練集輸入樣例的行向量放在一起,得到組合層矩陣H,通過下式計算輸出權(quán)重β:
當N>K·(d-r+1)2,
當N≤K·(d-r+1)2,
(5-4)輸入權(quán)重不變,對測試集Ste'的樣本進行與(5-1)及(5-2)中相同的卷積與池化過程,得到組合層H',設算法對測試集樣本的標簽預測為Y,計算可得:
Y=H'*β
將預測標簽Y與測試集的給定標簽T'進行對比,得出場景識別的正確率。
本發(fā)明提出的基于2-D雷達信息,采用基于局部感受野的極速學習機的室內(nèi)場景識別方法,大大縮短了運算時間,提高了室內(nèi)場景識別的效率。而且本發(fā)明方法簡單可靠,具有很強的實用性。
附圖說明
圖1是本發(fā)明所用算法流程圖。
圖2是本發(fā)明中所用算法基于局部感受野的極速學習機(LRF-ELM)的原理圖。
圖3是對訓練集和測試集進行特征提取過程中,二值化圖像信息提取的過程圖。
具體實施方式
本發(fā)明提出的一種基于2-D雷達信息,采用基于局部感受野的極速學習機的室內(nèi)場景識別方法,具體實施例進一步詳細說明如下。
(1)在移動機器人上安裝雷達傳感器,采集作為訓練樣本的場景的雷達信息,設訓練樣本的個數(shù)為N,則得到訓練樣本數(shù)據(jù)集Str的表達式為:
Str={Str1,Str2,…,StrN}
其中Str1,Str2,…,StrN分別表示訓練樣本數(shù)據(jù)集Str中第一個訓練樣本、第二個超聲訓練樣本、…第N個訓練樣本。不同場景中,所采集的訓練樣本個數(shù)大致相同。
(2)對需要進行識別的測試樣本場景進行雷達信息的采集。設測試樣本的個數(shù)為M,則得到超聲測試樣本數(shù)據(jù)集Ste的表達式為:
Ste={Ste1,Ste2,…,SteM}
其中Ste1,Ste2,…,SteM分別表示測試樣本數(shù)據(jù)集Ste中第一個測試樣本、第二個測試樣本、…第M個測試樣本。不同場景中,所采集的訓練樣本個數(shù)大致相同。M和N分別為訓練樣本的個數(shù)和測試樣本的個數(shù),一般情況下M≤N。
(3)對雷達測距樣本信息進行特征提取,具體處理過程如下:
(3-1)記訓練樣本集Str中的任意一個訓練樣本為SI,1≤I≤N,SI是一個由雷達掃描一周獲得的雷達數(shù)據(jù)所構(gòu)成的一維特征向量,即SI=[SI.1,SI.2,…,SI.l],其中SI.1,SI.2,…,SI.l表示一次掃描中l(wèi)個采樣點的雷達數(shù)據(jù),將這組雷達數(shù)據(jù)其轉(zhuǎn)化為極坐標圖像;
(3-2)將極坐標圖像提取到直角坐標系中,且將極坐標圖像的圓心作為矩形圖像的中心,對輪廓內(nèi)部分進行紅色填充;
(3-3)對(3-2)中得到的以白色為背景的矩形紅色填充圖進行二值化處理,使其成為黑白圖像,獲取圖像數(shù)據(jù),得到新的訓練集的樣本SI',完成對訓練集樣本的特征提取。
進而得到新的訓練樣本集Str':
Str'={Str1',Str2',…,Strk',…,StrN'}
其中,Str1',Str2',…,Strk',…,StrN'分別表示經(jīng)求二值化圖像數(shù)據(jù)后得到的測試訓練集Str'中的第一個訓練樣本、第二個訓練樣本、…、第k個訓練樣本、…、第N個訓練樣本,N為訓練樣本數(shù);
(3-4)給訓練集Str'中來自不同類型房間的樣本設定不同的標簽,如走廊是1,浴室是2,臥室是3等,并組成標簽矩陣T。
(4-1)記測試樣本集Ste中的任意一個訓練樣本為SJ,1≤J≤M,SJ是一個由雷達掃描一周獲得的雷達數(shù)據(jù)所構(gòu)成的一維特征向量,即SJ=[SJ.1,SJ.2,…,SJ.l],其中SJ.1,SJ.2,…,SJ.l表示一次掃描中l(wèi)個采樣點的雷達數(shù)據(jù),將這組雷達數(shù)據(jù)其轉(zhuǎn)化為極坐標圖像;
(4-2)將極坐標圖像提取到直角坐標系中,且將極坐標圖像的圓心作為矩形圖像的中心,對輪廓內(nèi)部分進行紅色填充;
(4-3)對(4-2)中得到的以白色為背景的矩形紅色填充圖進行二值化處理,使其成為黑白圖像,獲取圖像數(shù)據(jù),得到新的訓練集的樣本SJ',完成對訓練集樣本的特征提取。
進而得到新的測試樣本集Ste':
Ste'={Ste1',Ste2',…,Stek',…,SteM'}
其中,Ste1',Ste2',…,Stek',…,SteM'分別表示經(jīng)求二值化圖像數(shù)據(jù)后得到的測試集Ste'中的第一個測試樣本、第二個測試樣本、…、第k個測試樣本、…、第M個測試樣本,M為測試樣本數(shù);
(4-4)以(3-4)中的方式給測試集Ste'中來自不同類型房間的樣本設定不同的標簽,并組成標簽矩陣T'。
(5)將訓練集Str'及相應的標簽矩陣T、測試集Ste'及相應的標簽矩陣T'作為基于局部感受野的極速學習機的輸入,并設置卷積層、池化層等相應參數(shù)。
(5-1)隨機生成輸入權(quán)重Wi=[wi1,,,win]T和隱層單元的偏置bi=[bi1,…bin]T,對初始權(quán)重進行正交化,得到新的輸入權(quán)重設訓練集樣本輸入大小為(d×d),感受野大小為(r×r),第k個特征圖的卷積節(jié)點(i,j)的值ci,j,k由下式計算:
(5-2)對特征圖進行平方根池化,池化大小e表示池化中心到邊的距離,hp,q,k表示第k個池化圖中的組合節(jié)點(p,q),計算如下:
(5-3)簡單地連接所有組合節(jié)點的值形成一個行向量,并把N個訓練集輸入樣例的行向量放在一起,得到組合層矩陣H,通過下式計算輸出權(quán)重β:
當N>K·(d-r+1)2,
當N≤K·(d-r+1)2,
(5-4)輸入權(quán)重不變,對測試集Ste'的樣本進行與(5-1)及(5-2)中相同的卷積與池化過程,得到組合層H',設算法對測試集樣本的標簽預測為Y,計算可得:
Y=H'*β
最后,將預測標簽Y與測試集的給定標簽T'進行對比,得出本次場景識別的正確率。