亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

圖像檢索比對(duì)方法

文檔序號(hào):6470663閱讀:296來源:國知局
專利名稱:圖像檢索比對(duì)方法
技術(shù)領(lǐng)域
本發(fā)明屬于特別適用于特定功能的數(shù)據(jù)處理方法技術(shù)領(lǐng)域,是一種圖像檢索比對(duì)方法
背景技術(shù)
自90年代以來,隨著計(jì)算機(jī)技術(shù)、多媒體技術(shù)和互聯(lián)網(wǎng)技術(shù)的迅猛發(fā)展,越來越多的人能夠更加方便、快捷、經(jīng)濟(jì)地接觸和應(yīng)用到數(shù)字多媒體。同時(shí)全世界數(shù)字圖像的數(shù)量正以驚人的速度增長,圖像的來源不斷擴(kuò)大,我們每天都會(huì)獲得數(shù)以千兆字節(jié)的數(shù)字圖像信息。然而目前人們面臨的問題已經(jīng)不再是缺少圖像內(nèi)容,而是如何對(duì)其進(jìn)行存儲(chǔ)、表達(dá)和組織,如何在浩如煙海的數(shù)字圖像數(shù)據(jù)中快速、準(zhǔn)確地找到自己所需要的圖像信息。圖像檢索技術(shù)就是在這種背景下產(chǎn)生的新興研究鄰域,對(duì)它的研究具有十分重要的意義。
早期的圖像檢索系統(tǒng)采用傳統(tǒng)的文本檢索技術(shù),該方法簡單但不能充分描述圖像的豐富內(nèi)涵,存在無法克服的缺點(diǎn)。人們提出了基于內(nèi)容的圖像檢索方法,其主要思想是使用圖像的視覺特征來描述圖像的內(nèi)容,進(jìn)行圖像信息的檢索。在建立圖像數(shù)據(jù)庫時(shí),對(duì)輸入圖像所包含的顏色、紋理、形狀等底層圖像特征進(jìn)行特征提取,表示為特征向量的形式,在圖像入庫時(shí)同時(shí)存入輸入圖像及其對(duì)應(yīng)的特征向量。在進(jìn)行圖像檢索時(shí),通過將待查圖像的特征向量與數(shù)據(jù)庫中圖像的特征向量采用一定的匹配策略進(jìn)行匹配,然后根據(jù)匹配結(jié)果返回最相似的若干圖像給用戶。由于利用圖像本身的物理內(nèi)容描述圖像,而且特征的提取可以用計(jì)算機(jī)自動(dòng)實(shí)現(xiàn),因此避免了人工標(biāo)注的主觀性,大大減少了工作量,很好地解決了基于文本檢索中存在的問題。
根據(jù)圖像特征的作用域,基于內(nèi)容的圖像檢索技術(shù)(CBIR)可以分為兩類其一,基于全局特征的圖像檢索;其二,基于局部特征的圖像檢索?;谌痔卣鞯姆椒ú粎^(qū)分圖像前景和背景,提取整幅圖像的內(nèi)容特征用于相似比較。該方法無法描述圖像內(nèi)容在空間上的差異,不能體現(xiàn)圖像的空間關(guān)系,通常很難或不能反映圖像真實(shí)的內(nèi)容,只能比較圖像全局的統(tǒng)計(jì)相似性,不能在物體層次上比較圖像的相似性,檢索效率不高。同時(shí),在相當(dāng)多的情況下用戶并不關(guān)心圖像全局的相似性,而是更多關(guān)注于圖像中能夠明顯表達(dá)圖像內(nèi)容的區(qū)域,人們需要找到包含特定目標(biāo)(對(duì)象)的圖像,如檢索出包含大象的圖像。因此,為了克服全局特征在描述圖像內(nèi)容上的不足,人們開發(fā)出基于局部特征的圖像檢索技術(shù)。
基于局部特征的檢索方法是一種能產(chǎn)生較精確檢索結(jié)果的策略,該方法不是把圖像看成是一個(gè)不可分的整體,而是看成由一些子區(qū)域(對(duì)象)組。首先需要預(yù)先對(duì)圖像進(jìn)行分割把圖像分成若干個(gè)區(qū)域,如果分割效果理想,這些區(qū)域?qū)?duì)應(yīng)于一個(gè)個(gè)對(duì)象,然后提取各個(gè)區(qū)域的顏色、紋理、形狀等特征,則一幅圖像的特征由這些區(qū)域?qū)ο蟮奶卣骶C合而成。然后根據(jù)一定的區(qū)域匹配準(zhǔn)則,計(jì)算待查圖像的各個(gè)區(qū)域與數(shù)據(jù)庫圖像的各個(gè)區(qū)域之間的相似度,將其綜合可得到圖像之間的相似度?;诰植刻卣鞯臋z索方法,針對(duì)具有前景非常明顯的圖像具有很高的查準(zhǔn)率,而針對(duì)前景和背景界線比較模糊的圖像,其查準(zhǔn)率是非常低的?;诰植刻卣鞯臋z索方法針對(duì)每個(gè)區(qū)域都進(jìn)行一次特征提取和特征匹配工作,而沒有充分考慮影響人類對(duì)圖像視覺注意力的眾多因素,這樣就會(huì)增加了與人類視覺注意力無關(guān)的特征處理工作,也就會(huì)增加檢索所需要空間和時(shí)間,也會(huì)影響檢索結(jié)果的查準(zhǔn)率。尺度不變量特征算法SIFT是目前最好的不變局部特征提取算法。然而SIFT算法的特征維數(shù)高,匹配耗時(shí)。不過對(duì)同一個(gè)物體在不同場(chǎng)景,不同視角下照的相片具有很高的查準(zhǔn)率。


發(fā)明內(nèi)容
本發(fā)明的目的在于提供一種充分利用了影響人類對(duì)圖像視覺注意力的眾多因素,通過圖像分割,從圖像中自動(dòng)提取出用戶最感興趣區(qū)域即顯著區(qū)域,將這些提取出來的顯著區(qū)域的特征與圖像特征庫中區(qū)域特征部分進(jìn)行匹配的圖像檢索比對(duì)方法。
為實(shí)現(xiàn)本發(fā)明的目的,所述的一種圖像檢索比對(duì)方法, 1)在一個(gè)圖像區(qū)域R內(nèi),當(dāng)圖像區(qū)域的像素I(i,j)的均方誤差SR大于設(shè)定值時(shí),利用相鄰的兩列或者兩行像素集合之間的最大分裂權(quán)值的分裂線將一個(gè)圖像區(qū)域分裂成兩個(gè),依此,對(duì)分裂后的圖像區(qū)域再一分為二,直至分成M個(gè)不可分裂圖像區(qū)域; 2)在合并權(quán)值大于0的條件下,將最大的合并權(quán)值對(duì)應(yīng)的相鄰的不可分裂圖像區(qū)域合并成一個(gè)圖像區(qū)域,依此,將合并后成一個(gè)圖像區(qū)域作為一個(gè)不可分裂圖像區(qū)域,直至合并成N個(gè)不可合并圖像區(qū)域; 3)計(jì)算不可合并圖像區(qū)域的視覺感興趣權(quán)值visualWR,如果最大的視覺感興趣權(quán)值所對(duì)應(yīng)的不可合并圖像區(qū)域的外接矩形最小邊的像素大于或者等于2τ+1個(gè),其中τ是自定義的取值,τ為自然數(shù),則該不可合并圖像區(qū)域?yàn)轱@著區(qū)域,其余的則為無顯著區(qū)域; 4)根據(jù)顯著區(qū)域的外接矩形,通過亞抽樣構(gòu)建第一圖像臺(tái)階,根據(jù)第一圖像臺(tái)階中同一階層的相鄰層的差分圖建立第二圖像臺(tái)階,在第二臺(tái)階中求出具有局部極值的點(diǎn)確定特征點(diǎn); 5)在所述的第一圖像臺(tái)階中,利用特征點(diǎn)所在層的鄰域像素的梯度方向分布特性為每個(gè)特征點(diǎn)指定主方向,計(jì)算各個(gè)鄰域像素的梯度,把梯度直方圖中具有最大幅值的柱所代表的方向作為特征點(diǎn)的主方向; 6)根據(jù)所述的梯度直方圖的

個(gè)幅度值表示的向量進(jìn)行歸一化處理,將歸一化處理后的向量的最大分量排在這個(gè)向量的第一個(gè)分量里,其余分量按照位置依次作相應(yīng)移動(dòng),最后得到的向量即該特征點(diǎn)的特征向量。
7)設(shè)要檢驗(yàn)是否匹配的兩個(gè)特征點(diǎn)的特征向量分別為F,F(xiàn)′,則這兩個(gè)特征向量的歐氏距離D(F,F(xiàn)),利用歐氏距離D(F,F(xiàn))對(duì)要匹配的兩個(gè)顯著區(qū)域中的特征點(diǎn)進(jìn)行兩兩距離計(jì)算,取以上計(jì)算的候選匹配點(diǎn)的交集為兩副圖像的匹配點(diǎn),兩幅圖像的匹配點(diǎn)越多,就表示兩副圖像越相似; 8)在無顯著區(qū)域的圖像中,利用由Stricker提出的分塊顏色矩算法,提取圖像的全局特征,得到K維的特征向量,將兩幅圖像中的K維的特征向量進(jìn)行匹配,判定無顯著區(qū)域圖像的相似程度。
大部分人使用圖像檢索系統(tǒng),都是提供能夠表達(dá)自己檢索意愿的樣本圖像,也就是說,樣本圖像中顯著區(qū)域最能表達(dá)出用戶的檢索意愿。我們綜合利用影響人類視覺的各種因素,從樣本圖像中提取出圖像的顯著區(qū)域,在顯著區(qū)域中求出具有尺度不變性的特征點(diǎn),把特征點(diǎn)的鄰域像素的梯度方向分布特性作為該特征點(diǎn)的特征,這些特征對(duì)區(qū)域的尺度變化和旋轉(zhuǎn)是不變的,而且對(duì)光照的變化和區(qū)域變形具有較強(qiáng)的適應(yīng)性。同時(shí)這種特征還具有較高的辨別能力,有利于后續(xù)的匹配,從而提高圖像比對(duì)的準(zhǔn)確率和效率。
本圖像對(duì)比方法利用了圖像的顯著區(qū)域,把特征集中在顯著區(qū)域,把圖像的特征與人類視覺特性相結(jié)合,這些特征更能準(zhǔn)確地表達(dá)人們對(duì)圖像的視覺感受。本圖像對(duì)比方法不受圖像尺度變化和旋轉(zhuǎn)的影響,而且對(duì)光照的變化和區(qū)域變形具有較強(qiáng)的適應(yīng)性。



附圖的圖面說明如下 圖1為像區(qū)域R內(nèi)兩行水平分裂線LK,K+1,Lr,r+1的示意圖。
圖2為像區(qū)域R內(nèi)兩列垂直分裂線LK,K+1,Lc,c+1的示意圖。
圖3為一個(gè)圖像區(qū)域R分解成2個(gè)圖像區(qū)域R1、R2的示意圖。
圖4為不可合并圖像區(qū)域的外接矩形示意圖。
圖5為第一圖像臺(tái)階、第二圖像臺(tái)階示意圖。
圖6為特征點(diǎn)圓形窗口示意圖。
圖7為θ為30度時(shí)的梯度直方圖示意圖。

具體實(shí)施例方式 下面結(jié)合附圖,對(duì)本發(fā)明圖像檢索比對(duì)方法的具體實(shí)施例作進(jìn)一步詳述 本發(fā)明所述的圖像檢索比對(duì)方法包括。
計(jì)算區(qū)域像素平均值A(chǔ)reaVR 公式(1) 計(jì)算區(qū)域均方誤差SR 公式(2) 公式(1)和公式(2)中p為區(qū)域R內(nèi)的像素,n為區(qū)域R內(nèi)的像素個(gè)數(shù)。
在區(qū)域R中,把任意相鄰的兩行的像素集合Lr和Lr+1之間的一條虛直線設(shè)定為水平分裂線Lr,r+1,如圖1所示。則Lr,r+1的分裂權(quán)值為 公式(3) 在區(qū)域R中,把任意相鄰的兩列的像素集合Lc和Lc+1之間的一條虛直線設(shè)定為垂直分裂線Lc,c+1,如圖2所示。則Lc,c+1的分裂權(quán)值為 公式(4) 分裂權(quán)值反映了分裂線兩邊的像素灰度值的反差程度。
圖像區(qū)域分裂方法 傳統(tǒng)的Split-Merge算法的分割只能分成大小相等的一分為四的矩形,分割區(qū)域的邊界位置不準(zhǔn)確。為了解決這個(gè)缺點(diǎn),利用計(jì)算分裂權(quán)值的方法求得最優(yōu)的分割位置。在本方法中,最優(yōu)表示分裂線的分裂權(quán)值最大。
步驟一設(shè)定允許誤差閥值ε=T,其中T∈(0,255); 步驟二判定圖像區(qū)域R是否可以再分裂。
通過公式(1)和公式(2)求得區(qū)域R的均方誤差SR。如果SR>ε則圖像區(qū)域R可再分裂,如果SR≤ε則圖像區(qū)域R不可再分裂。
步驟三根據(jù)步驟二,若圖像區(qū)域R可再分裂,則在圖像區(qū)域R中選擇一條分裂權(quán)值splitWk,k+1最大的分裂線Lk,k+1,以分裂線Lk,k+1為分裂位置,把圖像區(qū)域R分裂為兩個(gè)子區(qū)域Rnew1,Rnew2,如圖3所示。
將第一幅圖像作為一個(gè)圖像區(qū)域。按照?qǐng)D像區(qū)域分裂法可以分裂成兩個(gè)子圖像區(qū)域,再將子圖像區(qū)域作為一個(gè)圖像區(qū)域,再按照?qǐng)D像區(qū)域分裂法又可以分裂成兩個(gè)相對(duì)應(yīng)的子圖像區(qū)域。如此按照?qǐng)D像分裂方法進(jìn)行分裂,直至無法分裂,得到m個(gè)不可分裂圖像區(qū)域。同理,將第二幅圖像分裂成n個(gè)不可分裂圖像區(qū)域。
相鄰區(qū)域定義把與區(qū)域R有公共邊(不包括一個(gè)像素)的區(qū)域定義為區(qū)域R的相鄰區(qū)域。
兩個(gè)相鄰不可分裂區(qū)域Rk和Rl的合并權(quán)值 公式(5) 其中,


為區(qū)域Rk和Rl的均方誤差,

為區(qū)域Rk和Rl合并區(qū)域的均方誤差。ck,l是區(qū)域Rk和Rl之間的公共邊的像素個(gè)數(shù),參數(shù)φ可用來調(diào)節(jié)長度項(xiàng)的作用,φ>1。
在m個(gè)不可分裂圖像區(qū)域中,通過公式(5)計(jì)算出所有相鄰不可分裂圖像區(qū)域的相對(duì)應(yīng)的合并權(quán)值,在所有大于零的合并權(quán)值中,把最大的合并權(quán)值相對(duì)應(yīng)的相鄰區(qū)域合并生成一個(gè)圖像區(qū)域,在合并后的所有圖像區(qū)域中,利用剛才的方法進(jìn)行合并處理,直到所有的相鄰區(qū)域的合并權(quán)值都不大于0,最后合并成M個(gè)不可合并圖像區(qū)域。
計(jì)算不可合并圖像區(qū)域的對(duì)比度因子 公式(6) 其中AreaVR為不可合并圖像區(qū)域R的像素平均值,

是把與圖像區(qū)域R相鄰的所有區(qū)域組成的圖像區(qū)域的像素平均值。
計(jì)算不可合并圖像區(qū)域的尺寸因子 公式(7) 其中AreaR是不可合并圖像區(qū)域R內(nèi)的像素個(gè)數(shù),AR是整幅圖像像素個(gè)數(shù)的1%。MAX(M,N)表示取M,N中較大的那個(gè)數(shù)。
計(jì)算不可合并圖像區(qū)域的形狀因子 公式(8) 其中,BorderR是不可合并圖像區(qū)域R的邊界像素個(gè)數(shù),AreaR是圖像區(qū)域R內(nèi)的像素個(gè)數(shù),1<p<3,實(shí)驗(yàn)表明把p取值為1.75時(shí),合并效果好很多。
圖像中央cp%范圍以圖像中央為中心并且高和寬分別是圖像的高和寬的

的圖像區(qū)域所包含的像素集合。其中1≤cp≤25。
計(jì)算不可合并圖像區(qū)域的位置因子 對(duì)于任何圖像區(qū)域R,把圖像區(qū)域R中處于圖像中央cp%范圍之內(nèi)的像素個(gè)數(shù)CenterR除以圖像區(qū)域R的總像素個(gè)數(shù)所得的值設(shè)定為圖像區(qū)域R的位置因子positionFR,則 公式(9) 其中,CenterR是不可合并圖像區(qū)域R中處于圖像中央25%范圍之內(nèi)的像素個(gè)數(shù),AreaR是圖像區(qū)域R內(nèi)的像素個(gè)數(shù)。
不可合并圖像區(qū)域R的背景因子 公式(10) 其中RBorderR是不可合并圖像區(qū)域R與整幅圖像邊界接壤的像素個(gè)數(shù),imageBorder是圖像邊界的像素個(gè)數(shù)。MIN(M,N)表示取M,N中較小的那個(gè)數(shù)。
計(jì)算區(qū)域的前景因子 foregroundFR=(1-backgroundFR)公式(11) 其中,backgroundFR是不可合并圖像區(qū)域R的背景因子。
計(jì)算不可合并圖像區(qū)域的視覺感興趣權(quán)值 visualWR=contrastFR2+sizeFR2 +shapeFR2+positionFR2公式(12) +foregroundFR2 其中contrastFR、sizeFR、shapeFR、positionFR和foregrounFR分別是不可合并區(qū)域R的對(duì)比度因子、計(jì)算區(qū)域的尺寸因子、計(jì)算區(qū)域的形狀因子、計(jì)算區(qū)域的位置因子和前景因子。
視覺感興趣權(quán)值綜合考慮了影響人類視覺注意力的低層次因素,能夠比較準(zhǔn)確地表達(dá)了人類對(duì)圖像的各個(gè)不同區(qū)域的注意程度。
圖像區(qū)域R的最小外接矩形的構(gòu)造方法。通過圖像區(qū)域R的最上,最下的兩個(gè)邊界象素點(diǎn)(Pmosttop和Pmostbottom)的兩條水平線與通過圖像區(qū)域R最左,最右的兩個(gè)邊界象素點(diǎn)(Pmostleft和Pmostright)的兩條豎直線相交得到四個(gè)交點(diǎn)Plefttop,Pleftbottom,Prighttop,Prightbottom,這四個(gè)交點(diǎn)就是最小外接矩形的四個(gè)頂點(diǎn)。(如圖4所示) 找顯著區(qū)域方法 針對(duì)整幅圖像,利用圖像區(qū)域分裂方法可以把圖像分裂為n1個(gè)相互獨(dú)立的區(qū)域,然后,利用圖像區(qū)域與其相鄰區(qū)域的合并方法把n1個(gè)相互獨(dú)立的區(qū)域最終合并成n2個(gè)區(qū)域。如果N=1,則認(rèn)為圖像沒有顯著區(qū)域,否則通過公式(12)計(jì)算出

n2個(gè)區(qū)域的視覺感興趣權(quán)值,在這n2個(gè)區(qū)域的視覺感興趣權(quán)值中,如果最大的視覺感興趣權(quán)值對(duì)應(yīng)的區(qū)域的最小外接矩形的最小邊長大于或等于2τ+1個(gè)像素(其中τ是自定義的取值,一般取τ=2,與公式(15)中的τ取值一致),則該區(qū)域?yàn)閳D像的顯著區(qū)域;如果最大的視覺感興趣權(quán)值對(duì)應(yīng)的所有區(qū)域的最小外接矩形的最小邊長小于2τ+1個(gè)像素,圖像沒有顯著區(qū)域。
通過找出圖像的顯著區(qū)域,能夠從客觀上把握大部分用戶對(duì)同一幅圖像所關(guān)注的區(qū)域,這樣就可以避免處理一些不必要的信息,從而提高圖像檢索方法的效率。
在顯著區(qū)域中提取特征點(diǎn)的特征向量方法。
步驟一、構(gòu)造顯著區(qū)域salienceR最小外接矩形Rectmin。
步驟二、根據(jù)步驟一,針對(duì)最小外接矩形Rectmin代表的圖像進(jìn)行以下的處理過程 (1)、設(shè)最小外接矩形Rectmin代表的圖像區(qū)域?yàn)樽訄D像IR(x,y),對(duì)IR(x,y)構(gòu)建本文描述的第一圖像臺(tái)階。圖像臺(tái)階的結(jié)構(gòu)如下(如圖5所示)它由一系列圖像組成,具有相同分辨率的S幅圖像組成一階,即階有S層,每層對(duì)應(yīng)相應(yīng)的圖像;圖像臺(tái)階有V階,隨著階數(shù)的遞增,圖像分辨率不斷減少。本文描述的第一圖像臺(tái)階具體構(gòu)建過程描述如下第v階第s層(下標(biāo)從0算起)圖像Lv,s(x,y) Lv,s(x,y)=G(x,y,σ02v+s/(S-3))*IR,v(x,y)(v=0,1,2,3,...,V-1;s=0,1,2,3...,S-1;S>3;*表示卷積運(yùn)算;σ0是自定義的初始值)公式(13) 其中IR,0(x,y)=IR(x,y),IR,1(x,y)是圖像L0,S-3(x,y)通過在x和y方向上進(jìn)行1∶2的亞抽樣得到,IR,2(x,y)是圖像L1,S-3(x,y)通過在x和y方向上進(jìn)行1∶2的亞抽樣得到,其余依次類推。而G表示高斯函數(shù),標(biāo)準(zhǔn)差為σ的高斯函數(shù)是 公式(14) 設(shè)IR(x,y)分辨率為Height×Width,則階數(shù)V V=log2(MIN(Height,Width))/log2 2-τ公式(15) 其中τ是可自定義的取值,其大小決定了第(V-1)階上圖像的分辨率。
根據(jù)以上方法,就得到了第一圖像臺(tái)階。
(2)、建立第二圖像臺(tái)階。根據(jù)步驟(1)所建立的第一圖像臺(tái)階,求同一階中的相鄰層Lv,s(x,y),Lv,s+1(x,y)的差分圖 Dv,s(x,y)=Lv,s+1(x,y)-Lv,s(x,y)公式(16) 所有差分圖組成本文描述的第二圖像臺(tái)階,如圖5所示。
步驟三、尋找候選特征點(diǎn)。根據(jù)步驟二產(chǎn)生的第二圖像臺(tái)階,在第二圖像臺(tái)階里尋找具有局部極值(極大值和極小值)的點(diǎn)作為候選特征點(diǎn)。
尋找方法如下在同一階里的每一層圖像(除去同階里最上和最下兩層不處理),對(duì)圖像中的每個(gè)像素(邊界上的像素不處理),如果此像素的像素值同時(shí)都大于或同時(shí)都小于同層周圍8個(gè)鄰域像素的像素值和相鄰的上下兩層圖像對(duì)應(yīng)位置各9個(gè)像素的像素值(一共比較26個(gè)像素值),則此像素點(diǎn)作為候選特征點(diǎn)。(如圖5所示) 步驟四、本文描述的第二圖像臺(tái)階里的每一個(gè)像素,可以由階數(shù)v,層數(shù)s和同層里的位置坐標(biāo)(x,y)唯一確定。而階數(shù)v,層數(shù)s唯一確定了與圖像進(jìn)行卷積運(yùn)算的高斯函數(shù)的σ的值,即σ=σ02v+s/(S-3)。所以Dv,s(x,y)是關(guān)于x,y,σ的函數(shù),設(shè)為D(x,y,σ),則通過擬和三維二次函數(shù)把第二圖像臺(tái)階里的圖像擬和成空間連續(xù)的曲面,以便在亞像素精度上精確確定候選特征點(diǎn)的位置和σ的值。候選特征點(diǎn)附近區(qū)域的曲面是通過在候選特征點(diǎn)處的泰勒展開式(展開到2階為止)表示的 公式(17) 上式中,X=(xyσ)T,D是D(x,y,σ)在候選特征點(diǎn)處的值。令可以得到該候選特征點(diǎn)的精確位置和σ的偏移 公式(18) 設(shè)則該候選特征點(diǎn)的精確位置和σ是(x+Δx,y+Δy,σ+Δσ),將公式(18)代入公式(17)式得

可以用來衡量該候選特征點(diǎn)與周圍象素點(diǎn)的差異程度,即如果則該候選特征點(diǎn)與周圍象素點(diǎn)差異不明顯,把該候選特征點(diǎn)從侯選特征點(diǎn)集中除去。(c是自定義閥值) 步驟五、去除不穩(wěn)定的候選特征點(diǎn)(由步驟三產(chǎn)生第二臺(tái)階的方法會(huì)產(chǎn)生較強(qiáng)的邊緣響應(yīng),即使很弱的噪聲也會(huì)導(dǎo)致邊緣上的候選特征點(diǎn)很不穩(wěn)定)。不穩(wěn)定的候選特征點(diǎn)在橫跨邊緣的地方有較大的主曲率,而在垂直邊緣的方向有較小的主曲率。主曲率通過一個(gè)2×2的Hessian矩陣H求出 其中 D的主曲率和矩陣H的特征值成正比,令α為最大特征值,β為最小的特征值,則 矩陣H的跡Tr(H)=Dxx+Dyy=α+β 矩陣H的行列式Det(H)=DxxDyy-(Dxy)2=αβ 令α=γβ,則

的值在兩個(gè)特征值相等的時(shí)候最小,隨著r的增大而增大,因此,為了檢測(cè)主曲率是否在某閥值r下,只需檢測(cè) 公式(19) 對(duì)每一個(gè)候選特征點(diǎn),都構(gòu)造一個(gè)2×2的Hessian矩陣H,如果矩陣滿足公式(19),則該候選特征點(diǎn)就成為特征點(diǎn)。
步驟六、求特征點(diǎn)的主方向。在上文描述的第一圖像臺(tái)階中,利用特征點(diǎn)所在層的鄰域像素的梯度方向分布特性為每個(gè)特征點(diǎn)指定主方向。鄰域范圍采用特征點(diǎn)為中心的圓形窗口來確定(如圖6所示),圓形窗口的半徑為自定義長度。在此圓形窗口范圍的像素點(diǎn)(x,y)的梯度幅值 公式(20) 此圓形窗口范圍的像素點(diǎn)(x,y)的梯度方向 θv,s(x,y)=arctan((Lv,s(x,y+1)-Lv,s(x,y-1)/(Lv,s(x+1,y)-Lv,s(x-1,y)))公式(21) 使用以上公式的時(shí)候,如果特征點(diǎn)的圓形窗口范圍越出特征點(diǎn)所在層圖像的邊界,則忽略此特征點(diǎn)。
在以特征點(diǎn)為中心的圓形窗口范圍內(nèi)進(jìn)行計(jì)算通過公式(20)和(21),計(jì)算圓形窗口范圍內(nèi)所有像素的梯度,在圓形窗口范圍內(nèi)的各梯度幅值還需要進(jìn)行高斯平滑,以突出靠近特征點(diǎn)像素所占的比重而減少遠(yuǎn)離特征點(diǎn)像素所占的比重。然后對(duì)計(jì)算的結(jié)果用梯度直方圖統(tǒng)計(jì)梯度方向。梯度直方圖角度的范圍是0~360度,設(shè)每θ度一個(gè)柱,則共有

個(gè)柱。把梯度直方圖中具有最大幅值的柱所代表的方向作為特征點(diǎn)的主方向,如圖7所示。
步驟七、計(jì)算特征點(diǎn)的特征向量。
設(shè)根據(jù)步驟六計(jì)算的某特征點(diǎn)的梯度直方圖的

個(gè)幅度值表示的向量的形式為其中

表示0~360度各個(gè)方向的幅度值。對(duì)此向量進(jìn)行歸一化處理,歸一化后得到 公式(22) 設(shè)fi是

中的最大值,即fi代表了步驟六所描述的特征點(diǎn)的主方向的幅度值,使fi排在向量的第一個(gè)分量里,其余分量按照位置依次作相應(yīng)移動(dòng),最后就形成了該特征點(diǎn)的特征向量即每個(gè)特征點(diǎn)向量是

維的向量。
在無顯著區(qū)域的圖像中找K維的特征向量方法。
利用由Stricker提出的分塊顏色矩算法提取圖像的全局特征,得到K維的特征向量(El,i,δl,i,Sl,i),K=5×3×顏色通道個(gè)數(shù)ch,其中l(wèi)∈[1,5],i∈[1,ch]。K維的特征向量(El,i,δl,i,Sl,i)展開如下 (E1,1,δ1,1,S1,1,...,E1,ch,δ1,ch,S1,ch,...,E5,ch,δ5,ch,S5,ch) 由分塊顏色矩算法產(chǎn)生的K維的特征向量(El,i,δl,i,Sl,i).的匹配方法。
設(shè)查詢圖像與目標(biāo)圖像分別為q和t。其顏色矩特征分別為和
則圖像q的區(qū)域l1與圖像t的區(qū)域l2的距離為 公式(23) 這里ωi1,ωi2,ωi3為權(quán)重,以下為在HSV顏色空間中所使用的權(quán)值 通過以上方法,把輸入圖像的全局特征與特征庫中的全局特征比較,生成五個(gè)距離,分別為 D1,1(q,t),D2,2(q,t),D3,3(q,t),D4,4(q,t),D5,5(q,t)。
設(shè) 公式(24) Sv越小就越相似。
顯著區(qū)域特征點(diǎn)的匹配方法。
設(shè)要檢驗(yàn)是否匹配的兩個(gè)特征點(diǎn)的特征向量分別為F=(f1,f2,...fn)F′=(f′1,f′2,...f′n)則這兩個(gè)特征向量的歐氏距離D(F,F(xiàn)′), 公式(25) 利用公式(25)對(duì)要匹配的兩個(gè)顯著區(qū)域中的特征點(diǎn)進(jìn)行兩兩距離計(jì)算。
設(shè)P和Q分別是兩副圖像的各自顯著區(qū)域的特征點(diǎn)的特征向量集合。先對(duì)P中的任一特征向量Fi,在Q中與Fi的特征向量的歐氏距離最小的兩個(gè)特征向量為qj,q′j,對(duì)應(yīng)的歐氏距離為distj,dist′j,且distj≤dist′j,如果distj<dist′j×ψ,則Fi與qj為對(duì)應(yīng)的候選匹配點(diǎn),ψ是0<ψ<1范圍內(nèi)預(yù)先設(shè)定的一個(gè)閥值。然后對(duì)Q中的任一特征向量Fk,在P中與Fk的特征向量的歐氏距離最小的兩個(gè)特征向量為pl,p′l,對(duì)應(yīng)的歐氏距離為distl,dist′l且distl≤dist′l,如果distl<dist′l×ψ,則Fk與pl為對(duì)應(yīng)的候選匹配點(diǎn)。取以上計(jì)算的候選匹配點(diǎn)的交集為兩副圖像的匹配點(diǎn)。
通過以上的匹配方法,兩幅圖像的匹配點(diǎn)越多,就表示兩副圖像越相似。
利用上述對(duì)一幅圖像的特征提取方法,分別對(duì)第一幅圖像和第二幅圖像進(jìn)行特征提取。會(huì)出現(xiàn)以下三種情況 (1)兩幅圖像都有顯著區(qū)域。那么這兩幅圖像就用顯著區(qū)域特征點(diǎn)的匹配方法進(jìn)行匹配。
(2)兩幅圖像都沒有顯著區(qū)域。那么這兩幅圖像就用由分塊顏色矩算法產(chǎn)生的K維的特征向量(El,i,δl,i,Sl,i)的匹配方法進(jìn)行匹配。
(3)在兩幅圖像中,有一幅是有顯著區(qū)域,另一沒有顯著區(qū)域。我們可以判定,這兩幅圖像是完全不同類別的圖像,是完全不相似的。
權(quán)利要求
1.一種圖像檢索比對(duì)方法,其特征是
1)在一個(gè)圖像區(qū)域R內(nèi),當(dāng)圖像區(qū)域的像素I(i,j)的均方誤差SR大于設(shè)定值時(shí),利用相鄰的兩列或者兩行像素集合之間的最大分裂權(quán)值的分裂線將一個(gè)圖像區(qū)域分裂成兩個(gè),依此,對(duì)分裂后的圖像區(qū)域再一分為二,直至分成M個(gè)不可分裂圖像區(qū)域;
2)在合并權(quán)值大于0的條件下,將最大的合并權(quán)值對(duì)應(yīng)的相鄰的不可分裂圖像區(qū)域合并成一個(gè)圖像區(qū)域,依此,將合并后成一個(gè)圖像區(qū)域作為一個(gè)不可分裂圖像區(qū)域,直至合并成N個(gè)不可合并圖像區(qū)域;
3)計(jì)算不可合并圖像區(qū)域的視覺感興趣權(quán)值visualWR,如果最大的視覺感興趣權(quán)值所對(duì)應(yīng)的不可合并圖像區(qū)域的外接矩形最小邊的像素大于或者等于2τ+1個(gè),其中τ是自定義的取值,τ為自然數(shù),則該不可合并圖像區(qū)域?yàn)轱@著區(qū)域,其余的則為無顯著區(qū)域;
4)根據(jù)顯著區(qū)域的外接矩形,通過亞抽樣構(gòu)建第一圖像臺(tái)階,根據(jù)第一圖像臺(tái)階中同一階層的相鄰層的差分圖建立第二圖像臺(tái)階,在第二臺(tái)階中求出具有局部極值的點(diǎn)確定特征點(diǎn);
5)在所述的第一圖像臺(tái)階中,利用特征點(diǎn)所在層的鄰域像素的梯度方向分布特性為每個(gè)特征點(diǎn)指定主方向,計(jì)算各個(gè)鄰域像素的梯度,把梯度直方圖中具有最大幅值的柱所代表的方向作為特征點(diǎn)的主方向;
6)根據(jù)所述的梯度直方圖的
個(gè)幅度值表示的向量進(jìn)行歸一化處理,將歸一化處理后的向量的最大分量排在這個(gè)向量的第一個(gè)分量里,其余分量按照位置依次作相應(yīng)移動(dòng),最后得到的向量即該特征點(diǎn)的特征向量。
7)設(shè)要檢驗(yàn)是否匹配的兩個(gè)特征點(diǎn)的特征向量分別為F,F(xiàn)′,則這兩個(gè)特征向量的歐氏距離D(F,F(xiàn)′),利用歐氏距離D(F,F(xiàn)′)對(duì)要匹配的兩個(gè)顯著區(qū)域中的特征點(diǎn)進(jìn)行兩兩距離計(jì)算,取以上計(jì)算的候選匹配點(diǎn)的交集為兩副圖像的匹配點(diǎn),兩幅圖像的匹配點(diǎn)越多,就表示兩副圖像越相似;
8)在無顯著區(qū)域的圖像中,利用由Stricker提出的分塊顏色矩算法,提取圖像的全局特征,得到K維的特征向量,將兩幅圖像中的K維的特征向量進(jìn)行匹配,判定無顯著區(qū)域圖像的相似程度。
2.根據(jù)權(quán)利要求1所述的圖像檢索比對(duì)方法,其特征是所述的視覺感興趣權(quán)值visualWR=contrastFR2+sizeFR2
+shapeFR2+positionFR2
+foregroundFR2
其中contrastFR、sizeFR、shapeFR、positionFR和foregroundFR分別是不可合并區(qū)域R的對(duì)比度因子、計(jì)算區(qū)域的尺寸因子、計(jì)算區(qū)域的形狀因子、計(jì)算區(qū)域的位置因子和前景因子。
3.根據(jù)權(quán)利要求1所述的圖像檢索比對(duì)方法,其特征是所述的相鄰的兩行像素集合之間的分裂權(quán)值為
所述的相鄰的兩列像素集合之間的分裂權(quán)值為
其中Lr和Lr+1為相鄰的兩行的像素集合,Lc和Lc+1為相鄰的兩列的像素集合,p為區(qū)域R內(nèi)的像素。
4.根據(jù)權(quán)利要求1所述的圖像檢索比對(duì)方法,其特征是所述的均方誤差
其中,區(qū)域像素平均值p為區(qū)域R內(nèi)的像素,n為區(qū)域R內(nèi)的像素個(gè)數(shù)。
全文摘要
本發(fā)明屬于特別適用于特定功能的數(shù)據(jù)處理方法技術(shù)領(lǐng)域。解決如何對(duì)圖像進(jìn)行存儲(chǔ)、表達(dá)和組織,并且快速、準(zhǔn)確地找到自己所需要的圖像信息。所述的圖像檢索比對(duì)方法,是在一個(gè)圖像區(qū)域R內(nèi)利用相鄰的兩列或者兩行像素集合之間的最大分裂權(quán)值的分裂線將圖像區(qū)分成M個(gè)不可分裂圖像區(qū)域,再合并成N個(gè)不可合并圖像區(qū)域,計(jì)算不可合并圖像區(qū)域的視覺感興趣權(quán)值確定顯著區(qū)域、無顯著區(qū)域,根據(jù)顯著區(qū)域構(gòu)建第一圖像臺(tái)階,第二圖像臺(tái)階,確定特征點(diǎn),利用特征點(diǎn)、梯度直方圖確定特征點(diǎn)的主方向,進(jìn)行歸一化處理,確定特征點(diǎn)的特征向量,找出兩副圖像的匹配點(diǎn)進(jìn)行比對(duì),在無顯著區(qū)域的圖像中,將兩幅圖像中的K維的特征向量進(jìn)行匹配,判定相似程度。
文檔編號(hào)G06F17/30GK101526944SQ200810220278
公開日2009年9月9日 申請(qǐng)日期2008年12月23日 優(yōu)先權(quán)日2008年12月23日
發(fā)明者戴穎萌, 黃萬民, 崔錦威, 聰 羅, 鄭義平, 賴風(fēng)光 申請(qǐng)人:廣州樂庚信息科技有限公司, 廣東拓思軟件科學(xué)園有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1