1.基于卷積神經(jīng)網(wǎng)絡(luò)特征描述子的機(jī)器人幀間位姿估計(jì)方法,首先采用特征點(diǎn)提取算法提取當(dāng)前幀圖像中的特征點(diǎn),其特征在于:裁剪以所述特征點(diǎn)位置為中心的局部區(qū)域圖像,將該局部區(qū)域圖像輸入到具有中間層的卷積神經(jīng)網(wǎng)絡(luò)中,并提取卷積神經(jīng)網(wǎng)絡(luò)的中間層輸出向量作為該特征點(diǎn)的特征描述子;對(duì)相鄰兩幀圖像中的特征描述子進(jìn)行特征點(diǎn)匹配,根據(jù)得到的特征匹配關(guān)系采用幀間運(yùn)動(dòng)估計(jì)算法估計(jì)相鄰兩幀圖像之間機(jī)器人的位姿變化。
2.根據(jù)權(quán)利要求1所述的方法,其特征在于:當(dāng)所述特征點(diǎn)為多尺度特征時(shí),根據(jù)特征點(diǎn)所在的圖像尺度進(jìn)行局部區(qū)域圖像的裁剪。
3.根據(jù)權(quán)利要求1所述的方法,其特征在于:所述特征點(diǎn)包括SIFT特征、SURF特征或ORB特征中的一種。
4.根據(jù)權(quán)利要求3所述的方法,其特征在于:需提取SIFT特征時(shí),采用DOG算法;需提取SURF特征時(shí),采用Hessian Matrix算法;需提取ORB特征時(shí),采用FAST算法。
5.根據(jù)權(quán)利要求1所述的方法,其特征在于:所述卷積神經(jīng)網(wǎng)絡(luò)采用預(yù)訓(xùn)練的AlexNet模型、Overfeat模型或基于實(shí)測(cè)數(shù)據(jù)庫(kù)對(duì)預(yù)訓(xùn)練網(wǎng)絡(luò)再訓(xùn)練和參數(shù)調(diào)優(yōu)的數(shù)據(jù)庫(kù)。
6.根據(jù)權(quán)利要求1所述的方法,其特征在于:對(duì)相鄰兩幀圖像中的特征描述子采用近似最近鄰方法進(jìn)行特征點(diǎn)匹配,根據(jù)得到的特征匹配關(guān)系估計(jì)采用幀間運(yùn)動(dòng)估計(jì)算法相鄰兩幀圖像之間機(jī)器人的位姿變化。
7.根據(jù)權(quán)利要求1所述的方法,其特征在于:所述幀間運(yùn)動(dòng)估計(jì)算法包括:采用三點(diǎn)算法計(jì)算特征點(diǎn)匹配的基本矩陣并剔除誤配點(diǎn),然后采用最小二乘算法結(jié)合隨機(jī)采樣RANSAC算法獲得所述相鄰兩幀圖像之間機(jī)器人的位姿變化。
8.根據(jù)權(quán)利要求7所述的方法,其特征在于:所述三點(diǎn)算法替換為五點(diǎn)算法、八點(diǎn)算法或PnP算法。