亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于視頻采集的VisualMap數(shù)據(jù)庫(kù)建立方法及利用該數(shù)據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法

文檔序號(hào):6639496閱讀:349來(lái)源:國(guó)知局
基于視頻采集的Visual Map數(shù)據(jù)庫(kù)建立方法及利用該數(shù)據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法
【專利摘要】基于視頻采集的Visual Map數(shù)據(jù)庫(kù)建立方法及利用該數(shù)據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法,涉及室內(nèi)定位導(dǎo)航領(lǐng)域。是為了解決現(xiàn)有方法的室內(nèi)視覺(jué)定位精度低,且費(fèi)時(shí)費(fèi)力的問(wèn)題。本發(fā)明在快速建立基于視頻的Visual Map數(shù)據(jù)庫(kù)的基礎(chǔ)上,通過(guò)載有視頻獲取設(shè)備的平臺(tái)在勻速直線過(guò)程中進(jìn)行視頻拍攝,并且通過(guò)對(duì)所獲得的視頻進(jìn)行處理來(lái)記錄視頻中幀的坐標(biāo)位置信息以及圖像匹配信息。在線的定位階段,系統(tǒng)將帶定位用戶上傳的圖片與基于視頻的Visual Map數(shù)據(jù)庫(kù)通過(guò)利用感知哈希算法計(jì)算而來(lái)的哈希值進(jìn)行粗匹配,再通過(guò)獲得的粗匹配幀與上傳圖片通過(guò)SURF算法和相應(yīng)的對(duì)極幾何算法來(lái)完成基于視覺(jué)的室內(nèi)定位。本發(fā)明適用于室內(nèi)視覺(jué)定位場(chǎng)合。
【專利說(shuō)明】基于視頻采集的VisualMap數(shù)據(jù)庫(kù)建立方法及利用該數(shù) 據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法

【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及室內(nèi)定位導(dǎo)航領(lǐng)域。

【背景技術(shù)】
[0002] 隨著智能手機(jī)的普及,位置定位服務(wù)越來(lái)越受到人們的重視。而現(xiàn)如今的衛(wèi)星定 位只解決了室外定位的問(wèn)題,室內(nèi)定位仍未得到統(tǒng)一。近年來(lái)基于Wifi的室內(nèi)定位方法由 于其部署方便,得到了比較廣泛的關(guān)注,但是目前的研究成果顯示,其定位精度受室人流疏 密、墻壁遮擋等因素的影響較大。綜合設(shè)備的部署成本和定位精度的影響因素考慮,并結(jié)合 發(fā)展較為成熟的圖像處理技術(shù),視覺(jué)定位技術(shù)逐漸成為室內(nèi)定位研究的另一個(gè)熱點(diǎn),并獲 得了越來(lái)越多的關(guān)注。關(guān)于視覺(jué)定位方法的研究始于機(jī)器人定位領(lǐng)域,但是近年來(lái)隨著具 有攝像頭的智能手機(jī)的發(fā)展,視覺(jué)室內(nèi)定位方法由于其所需設(shè)備簡(jiǎn)單,除用戶配備攝像頭 的智能手機(jī)外,無(wú)需添加其他硬件設(shè)備而得到廣泛的關(guān)注。
[0003] 基于視覺(jué)的室內(nèi)定位通過(guò)將用戶所在位置的圖像信息來(lái)估計(jì)出移動(dòng)設(shè)備的位置, 從而進(jìn)行定位。通常該定位系統(tǒng)分為兩步:即建立基于視頻采集的VisualMap數(shù)據(jù)庫(kù)的離 線階段和在線的定位估計(jì)階段。如表1所示:
[0004] 表 1
[0005]

【權(quán)利要求】
1. 基于視頻采集的VisualMap數(shù)據(jù)庫(kù)建立方法,其特征是:它由以下步驟實(shí)現(xiàn): 步驟一、根據(jù)需要定位的室內(nèi)環(huán)境,選擇坐標(biāo)原點(diǎn)PO(H),建立平面二維直角坐標(biāo) 系; 步驟二、通過(guò)載有視頻獲取設(shè)備的平臺(tái)在勻速直線過(guò)程中進(jìn)行視頻拍攝,并且通過(guò)對(duì) 所獲得的視頻進(jìn)行處理來(lái)記錄視頻中幀的位置坐標(biāo)信息,該位置坐標(biāo)通過(guò)拍攝平臺(tái)的運(yùn)動(dòng) 速度和該幀的序號(hào)以及該視頻的幀速率,通過(guò)公式:
獲得;其中,η為該幀的序號(hào),V為拍攝平臺(tái)運(yùn)動(dòng)速度,α為拍攝平臺(tái)運(yùn)動(dòng)方向和坐標(biāo)系X軸夾角,(Χ〇,Υ〇)為坐標(biāo)原點(diǎn),(Xn,Yn)為該巾貞在步驟一中所建立的平面坐標(biāo)系中的位置坐 標(biāo); 步驟三、通過(guò)感知哈希算法計(jì)算出已經(jīng)標(biāo)記位置坐標(biāo)信息的幀的哈希值,并存儲(chǔ),完成VisualMap數(shù)據(jù)庫(kù)的建立。
2. 基于權(quán)利要求1的VisualMap數(shù)據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法,其特征是:它由以下步 驟實(shí)現(xiàn): 步驟A、通過(guò)感知哈希算法計(jì)算出待定位用戶上傳的圖像的哈希值; 步驟B、根據(jù)步驟A獲得的哈希值從VisualMap數(shù)據(jù)庫(kù)中搜索到4巾貞圖像,完成粗匹配 過(guò)程; 步驟C、將步驟B中得到的4幀粗匹配圖像與用戶上傳圖像通過(guò)SURF算法進(jìn)行匹配點(diǎn) 計(jì)算; 步驟D、通過(guò)RANSAC算法從步驟C中每對(duì)圖像得到的匹配點(diǎn)中選擇8對(duì)匹配點(diǎn),并記錄 其相對(duì)應(yīng)圖像中的坐標(biāo); 步驟E、將步驟C中得到的像素坐標(biāo)通過(guò)對(duì)極幾何來(lái)計(jì)算出用戶的位置坐標(biāo),完成室內(nèi) 視覺(jué)定位。
3. 根據(jù)權(quán)利要求2所述的基于VisualMap數(shù)據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法,其特征在于步 驟E中所述將步驟C中得到的像素坐標(biāo)通過(guò)對(duì)極幾何來(lái)計(jì)算出用戶的位置坐標(biāo)的具體方法 為: 步驟El、采用8點(diǎn)法求基本矩陣F,所述基本矩陣F是對(duì)極幾何的數(shù)學(xué)描述; 對(duì)極幾何中基本矩陣F的基本關(guān)系式為: Xi tFx = O (2) 其中,X,分別表示兩幅匹配圖像中的一對(duì)匹配點(diǎn)在其像素坐標(biāo)系中的坐標(biāo); 將獲得的8對(duì)匹配點(diǎn)父1(111,\,1),父'1(11' 1,。1,1),(1彡1彡8)代入公式(2)中, 令基本矩陣F= (Aj),即:
其中,f= (fn,f12,f13,f21,f22,f23,f31,f32,f33)T; 求解該線性方程組,獲得基本矩陣F; 步驟E2、調(diào)用建立VisualMap數(shù)據(jù)庫(kù)所用相機(jī)的內(nèi)部參數(shù)矩陣K1,并讀取待定位用戶 的相機(jī)內(nèi)部參數(shù)矩陣K2 ;相機(jī)內(nèi)部參數(shù)矩陣K由公式(4)給出:
其中,f為相機(jī)焦距,ku,kv表示相機(jī)的像素點(diǎn)尺寸,U(l,Vtl表示圖像的尺寸即圖像坐標(biāo) 系中u軸和V軸所包含像素點(diǎn)的個(gè)數(shù),Θ表示圖像坐標(biāo)系中u軸和V軸之間的夾角,并由 公式(5)求得本質(zhì)矩陣E: E = K2tFK1 (5) 步驟E3、由于步驟E2計(jì)算出的本質(zhì)矩陣E包含了用戶拍照位置與數(shù)據(jù)庫(kù)中匹配圖像所 處位置之間的旋轉(zhuǎn)矩陣R和轉(zhuǎn)移向量t,如公式(6)所示: E= [t]XR (6) 其中,[L·表示反對(duì)稱矩陣,如公式(7)所示,
從而通過(guò)本質(zhì)矩陣E求出旋轉(zhuǎn)矩陣R和轉(zhuǎn)移向量t; 步驟E4、在步驟E3中求出的轉(zhuǎn)移向量t是以用戶拍照位置為參考系得出的,將其轉(zhuǎn)換 至世界坐標(biāo)系中,如公式(8)所示, tw = -Rr_1R_1t (8) 其中:tw表示在規(guī)定的世界坐標(biāo)系中用戶拍照位置與匹配圖像位置之間的方向向量, 表示匹配圖像在被采集時(shí)相機(jī)的旋轉(zhuǎn)矩陣; 步驟E5、已知世界坐標(biāo)系中兩幅圖像的方向向量及其中一個(gè)匹配圖像的二維位置坐標(biāo) (Xd,Yd),確定一條過(guò)匹配圖像的直線,如公式(9)所示,
其中:tw是步驟四得出的轉(zhuǎn)移向量,是一個(gè)3X1的列向量,tw(2)代表tw第二行的元 素,同理tw(l)代表^第一行的元素; 步驟E6、將粗匹配得到的4幀圖像分別和用戶上傳圖像按照上述步驟求出4條直線,該 4條直線存在若干交點(diǎn),采用公式(10)完成最優(yōu)點(diǎn)的確定,即:定位結(jié)果的確定:
其中=Ni表示第i個(gè)匹配圖像與用戶提供圖像的匹配點(diǎn)數(shù),Cli (X,y)表示選定的交點(diǎn)到 第i個(gè)匹配圖像所做直線的距離,如公式(11)表示,
其中:ai=t(2),IDi =-t(I),Ci =-t(2)Xi+t(I)Yi, Xi和Yi表示第i幅匹配圖像對(duì)應(yīng) 的坐標(biāo)。
4.根據(jù)權(quán)利要求3所述的基于VisualMap數(shù)據(jù)庫(kù)的室內(nèi)視覺(jué)定位方法,其特征在于步 驟E3中從本質(zhì)矩陣E恢復(fù)旋轉(zhuǎn)矩陣R和轉(zhuǎn)移矩陣t的算法,其特征在于以下步驟: 步驟E31、將3X3階的本質(zhì)矩陣E分解為E= [eaebe。]的形式,其中ea,eb,e。為3X1 階列向量;對(duì)ea,eb,e。三個(gè)列向量?jī)蓛汕笸夥e得eaXeb,eaXe。和ebXe。,并選出其中幅值最 大的一組,且設(shè)eaXeb結(jié)果的幅值最大; 步驟E32、根據(jù)公式(12)和公式(13),分別計(jì)算出矩陣V= [vaVbv。]以及矩陣U= [Ua Ub Uc]:
步驟E33、構(gòu)造矩陣D形式如下:
矩陣V和矩陣U,得出轉(zhuǎn)移向量t如公式(15)所示: t=[u13 U23 u33] (1) 其中:U13表示矩陣U第1行第3列的元素,U23表示矩陣U第2行第3列的元素,U33表 示矩陣U第3行第3列的元素;旋轉(zhuǎn)矩陣R如公式(16)所示:
可知,旋轉(zhuǎn)矩陣R有兩個(gè)取值Ra或Rb ; 步驟E34、構(gòu)造矩陣札=[Ra|t],Hb= [Ra|-t],H。= [Rb|t],Hd= [Ra|-t];其中:Ha = [Ra 11]表示3X3階的旋轉(zhuǎn)矩陣R和3XI階的轉(zhuǎn)移向量t合并成為4X4階的向量Ha,如公 式(17)所示:
1?,?,?的構(gòu)造方式同理; 步驟E35、令向量P=[III1]τ,并計(jì)算L1 =HaP,L2 =HbPA3 =HcP,L4 =Ht^iLiQ=1,2, 3, 4)滿足條件(18)時(shí),取Li對(duì)應(yīng)的R和t作為最終的旋轉(zhuǎn)矩陣R和轉(zhuǎn)移向量t;
其中,1^是4乂1階的列向量,Li⑶和Li⑷分別表示向量1^的第3行第1列元素和 第4行第1列元素。
【文檔編號(hào)】G06F17/30GK104457758SQ201410798521
【公開(kāi)日】2015年3月25日 申請(qǐng)日期:2014年12月19日 優(yōu)先權(quán)日:2014年12月19日
【發(fā)明者】馬琳, 薛昊, 譚學(xué)治, 何晨光 申請(qǐng)人:哈爾濱工業(yè)大學(xué)
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1