基于局部線性遷移的非剛性變換圖像特征匹配方法及系統(tǒng)的制作方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像特征匹配技術(shù)領(lǐng)域,具體地說,本發(fā)明涉及基于局部線性迀移的 非剛性變換圖像特征匹配技術(shù)方案。
【背景技術(shù)】
[0002] 圖像匹配的基本目標(biāo)是將使用不同傳感器在不同的時間和視角下獲得的同一個 場景的兩幅圖像的相同部位進行對應(yīng)。
[0003] 在過去的幾十年里,學(xué)者們研究了很多方法來解決遙感圖像匹配問題。這些方法 大致可以分為兩類:基于區(qū)域的匹配方法和基于特征的匹配方法。前者通過搜索兩幅圖像 中一定區(qū)域內(nèi)原始灰度值的相似程度來尋找匹配信息;后者則利用局部特征的描述子相似 性或空間幾何約束來尋找匹配點對。在具有少量顯著細節(jié)的情況中,灰度值提供的信息比 局部形狀和結(jié)構(gòu)要多,從而基于區(qū)域的方法的匹配效果更好。但是基于區(qū)域的方法計算量 大,且在圖像失真和光度改變的情況下并不適用。相反,特征方法具有更好的魯棒性,可以 處理復(fù)雜失真的圖像,得到廣泛的應(yīng)用。
[0004] 如何尋找兩幅圖像中對應(yīng)的匹配點,形成匹配點對,并確保匹配點對的正確性是 圖像匹配方法的關(guān)鍵。
[0005] 基于區(qū)域的匹配方法主要有相關(guān)法、傅里葉方法和互信息法三種。相關(guān)法的主要 思想是計算兩幅圖像中對應(yīng)窗的相似性,然后將具有最大相似程度的一對作為匹配點對。 但相關(guān)法在相似性不顯著的無紋理區(qū)域無法適用,且計算復(fù)雜。傅里葉方法利用了圖像在 頻率域的傅里葉表示。與傳統(tǒng)的相關(guān)方法相比,這種方法在計算效率更高并且對頻率類噪 聲具有很好的魯棒性。然而,這種方法在處理具有不同譜結(jié)構(gòu)的圖像具有一定限制性?;バ?息法盡管其匹配效果良好,但是它無法得到整個搜索空間中的全局最大值,因此不可避免 的會減低它的魯棒性。
[0006] 基于特征的匹配方法中,通常采用一種分為兩個步驟的策略。第一步,通過特征描 述子的相似程度確定一組初始的匹配點對,其中絕大多數(shù)是正確匹配,但不可避免的含有 大量的錯誤匹配。第二步,通過通過幾何約束來去除錯誤的匹配,最后便可得到正確的匹配 點對和兩幅圖像之間變換的幾何參數(shù)。這種策略的典型例子包括RANSAC方法 (M.A.Fischler and R.C.Bolles,"Random sample consensus : A paradigm for model fitting with application to image analysis and automated cartog-raphy,', Commun · ACM,vol.24,no.6,pp.381-395,Jun.l981)、ARHV 方法(P.H.S.Torr and A.Zisserman,UMLESAC:A new robust estimator with application to estimating image geometry,',Comput.Vis.Image Under-stand. ,νο1.78,ηο.1,ρρ.138-156, 八卩^.2000)等依賴于參數(shù)模型的方法和¥?(:方法(<1.]^, <1.21^〇,<1.1^&11,丄.¥1^1^,&11(1 Z.Tu,"Robust point matching via vector field consensus,',IEEE Trans. Image Process ·,vo 1 · 23,no ·4,pp · 1706-1721,Apr · 2014·)、GS方法(H.Liu and S.Yan,"Common visual pattern discovery via spatially coher-ent correspondence,',in Proc · IEEE Conf · Comput · Vis · Pattern Recog.,Jun .2010, pp .1609-1616.)和ICF方法(X · Li and Z. Hu, Rejecting misma tches by correspondence functionInt.J.Comput. Vis ., vol.89,no. 1,pp. l-17,Aug.2010) ·等基于非參數(shù)模型的方法。
[0007] 雖然這些方法在許多領(lǐng)域獲得了成功,但是在圖像中含有大量因視角變化造成的 局部失真以及圖像內(nèi)容較復(fù)雜時,初步匹配后會得到很多錯誤的初始匹配點對,當(dāng)錯誤率 超過一定比例時,這些方法就不能有效的去除錯誤。因此亟需一種對初始匹配錯誤率具有 較強魯棒性的匹配方法。
【發(fā)明內(nèi)容】
[0008] 針對現(xiàn)有技術(shù)缺陷,本發(fā)明提出了一種基于局部線性迀移的非剛性變換圖像特征 匹配方法。
[0009] 為達到上述目的,本發(fā)明采用的技術(shù)方案提供一種基于局部線性迀移的非剛性變 換圖像特征匹配方法,包括以下步驟,
[0010] 步驟1,建立待匹配圖像間幾何變換相應(yīng)的模型和匹配點對為正確匹配的后驗概 率相應(yīng)的模型,實現(xiàn)如下,
[0011 ]設(shè)已知的一組初始匹配點對中圖像a上點集為X = {X1,…,XN}τ,圖像b上相應(yīng)點集 為Y={yi,…,yN}T,包含N對初始匹配點對;
[0012]針對待匹配圖像間的非剛性變換,建立變換數(shù)學(xué)模型如下,
[0013]
[0014] 其中,設(shè)兩幅待匹配圖像為圖像a和圖像b,x和y分別是圖像a和圖像b上像素的坐 標(biāo)向量,t(x)表示非剛性變換關(guān)系,c n是1 X2的向量參數(shù),記集合C={ci,…,cn},β是模型參 數(shù),I是單位矩陣;
[0015] 計算第η對匹配點為正確匹配的后驗概率ρη有如下后驗概率數(shù)學(xué)模型,
[0016]
[0017] 其中,γ和。均為模型參數(shù),e為數(shù)學(xué)常量,b為預(yù)設(shè)的系數(shù);
[0018] 步驟2,根據(jù)點集Χ= {χι,···,xn}t和Y= {yi,···,yN}T求解模型參數(shù),包括以下子步 驟,
[0019] 步驟2.1,為每一個匹配點χη,η=1,···,Ν,分別搜索最近的K個鄰居匹配點,K取預(yù) 設(shè)值;
[0020] 步驟2.2,根據(jù)步驟2.1的搜索結(jié)果,采用最小二乘法求解維度為Ν X Ν的權(quán)重矩陣 W;
[0021] 步驟2.3,通過最優(yōu)化方法求解模型參數(shù)C、γ、〇,包括以下子步驟,
[0022] 步驟2.3.1,初始化,包括令丫 = 丫〇,0 = 0,? = 1~>^,丫()為丫的預(yù)設(shè)初始值,令當(dāng)前 迭代次數(shù)k= 1,采用下述模型參數(shù)公式計算〇,
[0023]
[0024] 其中,矩陣T=(t(xi),…,t(XN))T,tr()表示求矩陣的跡;
[0025] 步驟2.3.2,更新矩陣P,包括采用步驟1中所得后驗概率數(shù)學(xué)模型,計算得到N對匹 配點對分別為正確匹配的后驗概率口1,~心,令? = (^8化1,"_^),(^8表示對角矩陣; [0026] 步驟2.3.3,計算參數(shù)C如下,
[0027]采用下述公式計算參數(shù)C,
[0028] (P+2Ao2Q) Γ C = PY-(P+2Ao2Q)X
[0029] 其中,矩陣Q=(I-W)TP(I-W),I表示ΙΝΧΝ,λ為預(yù)設(shè)的參數(shù);
[0030] 步驟2.3.4,根據(jù)步驟2.3.3計算得到的參數(shù)C,重新計算參數(shù)γ、σ如下,
[0031 ] 采用下述公式計算參數(shù)γ,
[0032]
[0033] 采用步驟2.3.1中模型參數(shù)公式計算σ;
[0034] 步驟2.3.5,判別收斂條件,包括計算當(dāng)前的參數(shù)]^,當(dāng)滿足1^ = 1^£?或者(]^-]^。1(〇/ 1^^,結(jié)束迭代,1^_為最大迭代次數(shù),£是收斂閾值;否則汰=1^1,返回步驟2.3.2;所述 參數(shù)L的計算公式如下,
[0035]
[0036]其中,Loid表示上一次計算得到的L;
[0037] 步驟3,計算初始匹配點對為正確匹配的后驗概率,并根據(jù)閾值判斷初始匹配點對 的正誤,實現(xiàn)如下,
[0038] 將所述步驟2.3中求解的模型參數(shù)代入步驟1中所述后驗概率數(shù)學(xué)模型,計算得到 第η對匹配點對為正確匹配的后驗概率;當(dāng)p n 2 threshold時,則認(rèn)為第η對匹配點是正確匹 配;當(dāng)pn〈threshold時,則認(rèn)為第η對匹配點是錯誤的匹配,其中threshold為預(yù)設(shè)的判斷閾 值。
[0039] 而且,步驟2.2包括以下子步驟,
[0040] 步驟2.2.