本發(fā)明屬于計算機視覺技術(shù)領(lǐng)域,特別涉及了一種基于orb算法的大視角圖像快速識別方法。
背景技術(shù):
圖像匹配技術(shù)在很多領(lǐng)域都有廣泛的應(yīng)用,大約有40%的計算機視覺應(yīng)用中都會用到圖像匹配技術(shù)。人臉識別、指紋識別、筆跡識別、機器人定位等技術(shù)已經(jīng)廣泛應(yīng)用到社會生活中,其安全性與圖像匹配算法的性能有著不可分割的聯(lián)系。在軍事、工業(yè)和精密農(nóng)業(yè)等領(lǐng)域中,擁有高精度優(yōu)點的景象匹配技術(shù)是發(fā)展主流。巡航導(dǎo)彈就是應(yīng)用景象匹配技術(shù)來實現(xiàn)匹配制導(dǎo)的典型例子,且制導(dǎo)系統(tǒng)的性能決定了巡航導(dǎo)彈的制導(dǎo)精度,而巡航導(dǎo)彈末端制導(dǎo)系統(tǒng)的重要組成部分是景象匹配技術(shù)。提高景象匹配技術(shù)的匹配性能提高工作任務(wù)系統(tǒng)的精確率和準(zhǔn)確率。
經(jīng)典的圖像匹配算法可分為基于灰度信息的圖像匹配算法、基于變換域的圖像匹配算法和基于特征的圖像匹配算法?;谔卣鞯膱D像匹配算法是通過圖像上有代表性的特征信息,如點、線、面等,進行圖像間匹配的算法,主要分為特征提取、特征描述和特征匹配三部分。優(yōu)秀的不變特征量至少滿足三個不變性,即平移不變性、旋轉(zhuǎn)不變性和縮放不變性,這樣基于特征的方法具有更強的普適性和穩(wěn)健性,不僅對同源圖像間的匹配效果很好,對異源圖像之間的匹配效果較好。基于特征的圖像匹配算法操作相對簡單,計算量比較少,有一定的抗噪聲、抗形變能力,是當(dāng)前圖像匹配技術(shù)的主流方向。
目前,國內(nèi)外學(xué)者對大視角圖像匹配算法有著廣泛而深入的研究。國外,mser、harris-affine、hessian-affine、asift等算法均實現(xiàn)了尺度不變性和一定程度的仿射不變性,能夠在大視角差異下正常工作。國內(nèi),中國礦業(yè)大學(xué)、河南理工大學(xué)、國防科大、上海大學(xué)、長春光學(xué)精密機械與物理研究所等均提出了相關(guān)算法,可以在一定大視角情況獲得較好的效果。上述算法可以在一定大視角情況獲得較好的效果,但是匹配速度慢,提高匹配算法的速度就成了關(guān)鍵。
技術(shù)實現(xiàn)要素:
為了解決上述背景技術(shù)提出的技術(shù)問題,本發(fā)明旨在提供一種基于orb算法的大視角圖像快速識別方法,該方法結(jié)合了透視變換模型和orb算法,在粗匹配算法獲得單應(yīng)性矩陣基礎(chǔ)上進行精匹配,有效減少了模擬次數(shù),并提高了算法運算效率。
為了實現(xiàn)上述技術(shù)目的,本發(fā)明的技術(shù)方案為:
一種基于orb算法的大視角圖像快速識別方法,包括以下步驟:
(1)建立世界坐標(biāo)系w-xwywzw、相機坐標(biāo)系c-xcyczc和圖像坐標(biāo)系o-uv,設(shè)物體平面位于世界坐標(biāo)系w-xwywzw中xwwyw平面的中心,根據(jù)相機成像原理和世界坐標(biāo)系w-xwywzw與相機坐標(biāo)系c-xcyczc的位置關(guān)系,建立透視變換模型,用于表征同一點在圖像坐標(biāo)系o-uv與世界坐標(biāo)系w-xwywzw中的對應(yīng)關(guān)系;
(2)通過采樣的方式設(shè)置透視變換模型的相機外參參數(shù),獲得不同的透視變換矩陣,對目標(biāo)圖像o進行透視變換,得到模擬圖像集s;
(3)按順序選擇模擬圖像集s中的某一子圖si,對子圖si和基準(zhǔn)圖像b進行尺度不變orb特征提取與描述,采用最小漢明距離度量特征點間的相似性進行粗匹配,將子圖si中粗匹配點映射到目標(biāo)圖像o中,保存目標(biāo)圖像o中粗匹配點位置及其描述符至匹配點對集d1、基準(zhǔn)圖像b中粗匹配點的位置及其描述符至匹配點對集d2;
(4)當(dāng)子圖si與基準(zhǔn)圖像b的粗匹配點對達到設(shè)定對數(shù)n時,停止粗匹配,進入步驟(5);若子圖si不為模擬圖像集s中最后一幅圖像,且獲得的粗匹配點對少于n時,重新選擇模擬圖像集s中的子圖s′i,返回步驟(3),若子圖si為模擬圖像集s中最后一幅圖像,且獲得的粗匹配點對少于n時,則算法失效;
(5)對匹配點對集d1、d2中所有特征點進行雙向匹配以篩除錯誤匹配點對,得到篩除后的特征點對集t1、t2,根據(jù)t1和t2,利用ransac算法獲取基準(zhǔn)圖像b和目標(biāo)圖像o之間的單應(yīng)性矩陣h,并對目標(biāo)圖像o進行重采樣,獲得重采樣圖像r;
(6)對重采樣圖像r和基準(zhǔn)圖像b進行尺度不變orb特征提取與描述,根據(jù)最近次臨近原則,采用最小漢明距離度量特征點間的相似性完成精匹配;利用單應(yīng)性矩陣h將重采樣圖像r和基準(zhǔn)圖像b的匹配結(jié)果投影到基準(zhǔn)圖像b和目標(biāo)圖像o中。
進一步地,在步驟(1)中,根據(jù)相機成像原理,同一點p在世界坐標(biāo)系w-xwywzw、相機坐標(biāo)系c-xcyczc和圖像坐標(biāo)系o-uv的位置關(guān)系如下:
上式中,
設(shè)相機光軸czc在xwwzw平面的投影與wzw的夾角為θ,相機光軸czc與xwwzw平面的夾角為
上式中,ci表示cosi,sγ表示sini,
將式(2)、(3)代入式(1)中,得到透視變換模型
進一步地,在步驟(2)中,透視變換模型中相機外參參數(shù)
θ∈[0,2π),γ∈[0,2π)
上式中,b為設(shè)定的常數(shù),決定了采樣間隔。
進一步地,在步驟(3)中,建立多尺度空間,獲得不同尺度下像素點的hessian矩陣行列式,將尺度空間中的hessian矩陣的行列式局部極值點作為特征點,依據(jù)灰度質(zhì)心法獲得特征點的主方向,將特征點位置與其主方向輸入orb描述符獲得尺度不變orb特征點描述符。
進一步地,利用特征點到鄰域灰度質(zhì)心的向量方向表示特征點的主方向,對任意一個特征點,定義其局部區(qū)域灰度矩為:
其中,m(x,y)為點(x,y)處的灰度值,p與q的和為灰度矩的階數(shù),局部區(qū)域零階灰度矩
特征點的主方向為:
θ=arctan(m01,m10)(6)
進一步地,設(shè)i(x,y)表示圖像,(x,y)表示圖像中某一點,尺度為σ的hessian矩陣:
上式中,lxx(x,y,σ)、lxy(x,y,σ)、lyy(x,y,σ)是高斯濾波后的圖像點(x,y)的二階導(dǎo)數(shù),
用方框濾波器與圖像i(x,y)的卷積dxx(x,y,σ)、dxy(x,y,σ)、dyy(x,y,σ)近似代替lxx(x,y,σ)、lxy(x,y,σ)、lyy(x,y,σ),將hessian矩陣近似表示:
采用行列式
進一步地,行列式
進一步地,在步驟(5)中,獲取基準(zhǔn)圖像b和目標(biāo)圖像o之間的單應(yīng)性矩陣h的過程:
在特征點對集t1中隨機選取4個特征點,要求其中3個特征點為非共線的,根據(jù)這4個點及其對應(yīng)的t2中的點獲得變換矩陣,即初始單應(yīng)性矩陣;然后將t1中的其他各點通過變換矩陣變換得到點集temp_t1,求得t2中各點與temp_t1中對應(yīng)點的誤差;當(dāng)誤差小于設(shè)定值時,該點為內(nèi)點,統(tǒng)計初始單應(yīng)性矩陣下的內(nèi)點數(shù)目;重復(fù)前述過程,選擇內(nèi)點數(shù)最多時的初始單應(yīng)性矩陣為所求的單應(yīng)性矩陣h。
采用上述技術(shù)方案帶來的有益效果:
本發(fā)明采用的基于球坐標(biāo)系的透視變換模型,從相機成像原理出發(fā),將相機內(nèi)參帶入模型中,與傳統(tǒng)的仿射變換模型相比,更能夠描述三維場景到二維圖像的映射,更精確。
本發(fā)明采用基于單應(yīng)性矩陣的精匹配算法,有效減少模擬視角變換的次數(shù),加快了算法運算效率;先篩除錯誤匹配點對再采用ransac算法計算單應(yīng)性矩陣,不存在由于采樣間隔選取產(chǎn)生的圖像模擬誤差,更精確地描述基準(zhǔn)圖像和目標(biāo)圖像坐標(biāo)間的對應(yīng)關(guān)系,提高了匹配正確率。
附圖說明
圖1是本發(fā)明的整體流程示意圖。
圖2是攝像機成像模型。
圖3是基于球坐標(biāo)的透視變換模型。
圖4是方框濾波器示意圖。
具體實施方式
以下將結(jié)合附圖,對本發(fā)明的技術(shù)方案進行詳細說明。
一種基于orb算法的大視角圖像快速識別方法,如圖1所示,利用目標(biāo)圖像根據(jù)透視變換模型和其采樣參數(shù)生成一組模擬圖像,依次對基準(zhǔn)圖像和模擬圖像集中子圖進行粗匹配,求解單應(yīng)性矩陣,根據(jù)單應(yīng)性矩陣獲得重采樣圖像,進行精匹配。下文將具體闡述本發(fā)明的過程。
步驟1:如圖2所示,建立世界坐標(biāo)系w-xwywzw、相機坐標(biāo)系c-xcyczc和圖像坐標(biāo)系o-uv,w、c、o分別為世界坐標(biāo)系、相機坐標(biāo)系、圖像坐標(biāo)系的原點,設(shè)物體平面位于世界坐標(biāo)系w-xwywzw中xwwyw平面的中心,根據(jù)相機成像原理和世界坐標(biāo)系w-xwywzw與相機坐標(biāo)系c-xcyczc的位置關(guān)系,建立基于球坐標(biāo)系的透視變換模型,用于表征同一點在圖像坐標(biāo)系o-uv與世界坐標(biāo)系w-xwywzw中的對應(yīng)關(guān)系。
根據(jù)相機成像原理,同一點p在世界坐標(biāo)系w-xwywzw、相機坐標(biāo)系c-xcyczc和圖像坐標(biāo)系o-uv的位置關(guān)系如下:
上式中,
世界坐標(biāo)系w-xwywzw和相機坐標(biāo)系c-xcyczc的位置關(guān)系如圖3所示。相機初始位置位于世界坐標(biāo)系wzw軸上,相機光軸wzw垂直于xwwyw平面,物體中心位于世界坐標(biāo)系原點。設(shè)相機光軸czc在xwwzw平面的投影與wzw的夾角為θ,相機光軸czc與xwwzw平面的夾角為
上式中,ci表示cosi,sγ表示sini,
將式(2)、(3)代入式(1)中,得到透視變換模型
步驟2:通過采樣的方式設(shè)置透視變換模型的相機外參參數(shù),獲得不同的透視變換矩陣,對目標(biāo)圖像o進行透視變換,得到模擬圖像集s。
透視變換模型中相機外參參數(shù)
θ∈[0,2π),γ∈[0,2π)
上式中,b為設(shè)定的常數(shù),決定了采樣間隔,本實施例設(shè)定b=0.4。
步驟3:按順序選擇模擬圖像集s中的某一子圖si,對子圖si和基準(zhǔn)圖像b進行尺度不變orb特征提取與描述,采用最小漢明距離度量特征點間的相似性進行粗匹配,將子圖si中粗匹配點映射到目標(biāo)圖像o中,保存目標(biāo)圖像o中粗匹配點位置及其描述符至匹配點對集d1、基準(zhǔn)圖像b中粗匹配點的位置及其描述符至匹配點對集d2。
建立多尺度空間,獲得不同尺度下像素點的hessian矩陣行列式,將尺度空間中的hessian矩陣的行列式局部極值點作為特征點,依據(jù)灰度質(zhì)心法獲得特征點的主方向,將特征點位置與其主方向輸入orb描述符獲得尺度不變orb特征點描述符。
利用特征點到鄰域灰度質(zhì)心的向量方向表示特征點的主方向,對任意一個特征點,定義其局部區(qū)域灰度矩為:
其中,m(x,y)為點(x,y)處的灰度值,p與q的和為灰度矩的階數(shù),局部區(qū)域零階灰度矩
特征點的主方向為:
θ=arctan(m01,m10)(6)
設(shè)i(x,y)表示圖像,(x,y)表示圖像中某一點,尺度為σ的hessian矩陣:
上式中,lxx(x,y,σ)、lxy(x,y,σ)、lyy(x,y,σ)是高斯濾波后的圖像點(x,y)的二階導(dǎo)數(shù),
在離散的像素點中,可以用方框濾波器近似表示
采用行列式
其中,ω是為補償近似所產(chǎn)生的誤差而設(shè)定的比例因子,本實施例設(shè)定為0.9。
將每個像素點與在尺度空間鄰域內(nèi)26個點的
步驟4:當(dāng)子圖si與基準(zhǔn)圖像b的粗匹配點對達到設(shè)定對數(shù)n時,停止粗匹配,進入步驟5;若子圖si不為模擬圖像集s中最后一幅圖像,且獲得的粗匹配點對少于n時,重新選擇模擬圖像集s中的子圖s′i,返回步驟3,若子圖si為模擬圖像集s中最后一幅圖像,且獲得的粗匹配點對少于n時,則算法失效。
步驟5:先將粗匹配階段獲得的匹配點對集d1和d2中所有特征點進行雙向匹配,即計算出d1和d2中既滿足匹配映射關(guān)系{d1→d2}又滿足{d2→d1}的匹配點對集合t1、t2,特征點對集t1、t2分別對應(yīng)目標(biāo)圖像o和基準(zhǔn)圖像b。根據(jù)t1和t2利用ransac算法獲取基準(zhǔn)圖像b和目標(biāo)圖像o間的單應(yīng)性矩陣h。特征點對集t1、t2將粗匹配階段所有正確匹配點對保留,增加匹配利用率,獲得更精確的單應(yīng)性矩陣h;再根據(jù)h進行視角變換,消除部分變形,獲得重采樣圖像r。
在特征點對集t1中隨機選取4個特征點,要求其中3個特征點為非共線的,根據(jù)這4個點及其對應(yīng)的t2中的點獲得變換矩陣,即初始單應(yīng)性矩陣;然后將t1中的其他各點通過變換矩陣變換得到點集temp_t1,求得t2中各點與temp_t1中對應(yīng)點的誤差;當(dāng)誤差小于設(shè)定值時,該點為內(nèi)點,統(tǒng)計初始單應(yīng)性矩陣下的內(nèi)點數(shù)目;重復(fù)前述過程,選擇內(nèi)點數(shù)最多時的初始單應(yīng)性矩陣為所求的單應(yīng)性矩陣h。
步驟6:對重采樣圖像r和基準(zhǔn)圖像b進行尺度不變orb特征提取與描述,根據(jù)最近次臨近原則,采用最小漢明距離度量特征點間的相似性完成精匹配;利用單應(yīng)性矩陣h將重采樣圖像r和基準(zhǔn)圖像b的匹配結(jié)果投影到基準(zhǔn)圖像b和目標(biāo)圖像o中。
實施例僅為說明本發(fā)明的技術(shù)思想,不能以此限定本發(fā)明的保護范圍,凡是按照本發(fā)明提出的技術(shù)思想,在技術(shù)方案基礎(chǔ)上所做的任何改動,均落入本發(fā)明保護范圍之內(nèi)。