本發(fā)明基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法屬于圖像檢索技術(shù)領(lǐng)域。
背景技術(shù):
圖像檢索方法產(chǎn)生至今,已經(jīng)形成了三個重要的分支:基于文本的圖像檢索、基于內(nèi)容的圖像檢索和基于語義的圖像檢索。
基于文本的圖像檢索,是用圖像名、圖像特征等文本來描述用戶的需求,但由于文本表達能力具有局限性,文本標注具有歧義性,因此檢索結(jié)果往往和用戶需求不符;
基于語義的圖像檢索,是在圖像視覺特征的基礎(chǔ)上,進一步提煉其高級語義表達能力,但這類檢索方法的檢索過程復(fù)雜,而且存在方法體系發(fā)展尚不完善的問題;
基于內(nèi)容的圖像檢索,是以顏色、紋理、形狀等作為圖像的特征表達,并以此為判斷相似性的依據(jù),開展圖像檢索。
如果能夠準確提取圖像特征,基于內(nèi)容的圖像檢索將具有另外兩類檢索不具有的準確率優(yōu)勢。廣大學者也都瞄準該技術(shù)優(yōu)勢,開展如何提高提取圖像特征的準確性方面的研究,以期進一步提高基于內(nèi)容的圖像檢索的準確率。
技術(shù)實現(xiàn)要素:
針對上述技術(shù)需求,本發(fā)明公開了一種基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,能夠有效提高基于內(nèi)容的圖像檢索的準確率,此外,該方法能夠消除背景信息對圖像檢索準確率的影響,對于具有復(fù)雜背景的圖像,檢索準確率高的技術(shù)優(yōu)勢尤其明顯。
本發(fā)明的目的是這樣實現(xiàn)的:
基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,包括以下步驟:
步驟a、提取待檢索圖像及圖像庫SIFT特征;
步驟b、生成SIFT描述符直方圖和SIFT描述符核密度;
步驟c、融合SIFT描述符核密度和SIFT描述符直方圖;
步驟d、改進傳統(tǒng)Hausdorff距離度量;
步驟e、將改進的Hausdorff距離用于圖像匹配。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟a的具體步驟如下:
步驟a1:構(gòu)建待檢索圖像及圖像庫高斯差分尺度函數(shù)
利用不同尺度的高斯函數(shù)與圖像做卷積運算,構(gòu)建二維圖像的高斯差分尺度函數(shù)D(x,y,σ),有:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
其中,k是尺度比例系數(shù),G(x,y,σ)是尺度可變的高斯函數(shù),I(x,y)是圖像,并且有:
其中,(x,y)是尺度坐標,σ的大小決定圖像平滑的程度;
步驟a2:檢測高斯差分尺度空間極值點
將圖像中的每一個采樣點都與該采樣點相鄰的點比較,當某個采樣點在高斯差分尺度空間的所有點中是最大值或最小值時,認為該點是圖像在該尺度下的一個特征點;
步驟a3:除去邊緣不穩(wěn)定的特征點,生成SIFT描述符
使用Harris Corner檢測器去除邊緣的不穩(wěn)定特征點,保留穩(wěn)定的特征點,生成SIFT描述符。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟b的具體步驟如下:
步驟b1:通過SIFT描述符的分層聚類來構(gòu)造可擴展詞匯樹
提取每張圖片的SIFT描述符,得到一個集合F={fi},然后對集合F采用K-Means聚類方法進行分層聚類,初始時,在第1層對集合F進行K-Means聚類,把集合F分成k份{Fi|1≤i≤k};以此類推,對新產(chǎn)生的簇集利用K-Means再分成k個簇集,不斷地重復(fù)上述操作直到深度達到預(yù)先設(shè)定的L值,構(gòu)造出可擴展詞匯樹,共有c=BL個節(jié)點組成,其中,B是分支因子,L是深度,c是節(jié)點總個數(shù),fi表示圖片中某個SIFT描述符,F(xiàn)是描述符集合,F(xiàn)i是對集合F進行K-Means聚類得到的某個簇集;
步驟b2:累計可擴展詞匯樹中每個節(jié)點上的描述符出現(xiàn)的次數(shù),得到SIFT描述符直方圖
在構(gòu)造可擴展詞匯樹中,共有c=BL個節(jié)點,對第一個節(jié)點上的SIFT描述符出現(xiàn)的次數(shù)進行累計,獲得基于可擴展詞匯樹的SIFT描述符直方圖,用H=[h1,...,hi,...,hc]表示,其中hi表示第i個節(jié)點出現(xiàn)SIFT描述符的次數(shù);
步驟b3:對SIFT描述符進行量化,得到SIFT描述符核密度
對所有的SIFT描述符進行量化,則每個SIFT描述符fi都對應(yīng)可擴展詞匯樹中一條從根節(jié)點到葉子節(jié)點的量化路徑,即對應(yīng)一組視覺詞每一組視覺詞都對應(yīng)它的核密度f(c),得到基于可擴展詞匯樹的SIFT描述符核密度;其中是一個視覺詞,即可擴展詞匯樹中的每個節(jié)點都代表一個視覺詞,l表示該節(jié)點在可擴展詞匯樹中所在的層數(shù),hl表示該節(jié)點在該層樹節(jié)點中的索引,L是深度。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟c的具體步驟如下:
步驟c1:得到SIFT描述符直方圖和SIFT描述符核密度的基本概率分配函數(shù)
為了計算方便,將SIFT描述符直方圖設(shè)為A,SIFT描述符核密度設(shè)為B,則辨別框Ω:{A,B},辨別框是描述構(gòu)成整個假設(shè)空間所有元素的集合,用基本概率分配函數(shù)考慮到所有的可能結(jié)果,用m()表示;此時,
子集A的基本概率分配函數(shù)為
子集B的基本概率分配函數(shù)為
其中,M為歸一化常數(shù),
m1(Ai)表示焦元為Ai的基本概率賦值,m2(Bj)表示焦元為Bj的基本概率賦值;
步驟c2:應(yīng)用Dempster組合規(guī)則結(jié)合步驟c1得到融合結(jié)果
Dempster組合規(guī)則為:將步驟c1得到結(jié)果m(A)和m(B)代入得到m(AB);
其中,M為歸一化常數(shù),M=∑A∩B=φ(m(A)m(B))=1-∑A∩B≠φ(m(A)m(B))
m(A)表示子集A的基本概率分配函數(shù),m(B)表示子集B的基本概率分配函數(shù),m(AB)表示子集A和子集B融合的基本概率分配函數(shù)。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟d的具體步驟如下:
步驟d1:寫出成本函數(shù)的微分方程形式
成本函數(shù)的微分方程形式如下:
步驟d2:得到成本函數(shù)的通解
解微分方程,得到成本函數(shù)的表達式為如下:
其中γ0是成本函數(shù)初始值,它的范圍為0~1,k是比例系數(shù),τ是匹配參數(shù);
步驟d3:用傳統(tǒng)的Hausdorff距離作為成本函數(shù)的變量,改進的Hausdorff距離
給定兩個有限集合X={x1,x2,...,xM}和Y={y1,y2,...,yN},則X和Y之間傳統(tǒng)的Hausdorff距離定義為
其中,d(X,Y)是傳統(tǒng)的Hausdorff距離,min表示最小值,max表示最大值,x和y分別是點集X和Y中的點,d(x,y)表示點x和點y之間的幾何距離;
改進的Hausdorff距離為:
其中|X|是有限集合X的個數(shù),dH(X,Y)是改進的Hausdorff距離,d(X,Y)是傳統(tǒng)的Hausdorff距離,γ(d(X,Y))是變量為d(X,Y)的成本函數(shù)。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟e的具體步驟如下:
根據(jù)步驟c得到的融合特征,用改進的Hausdorff距離進行圖像的相似度測量,將得到的相似度按照降序排列,得出檢索結(jié)果。
有益效果:
本發(fā)明采用了如下技術(shù)手段,首先提取待檢索圖像及圖像庫SIFT特征,然后生成SIFT描述符直方圖和SIFT描述符核密度,再融合SIFT描述符核密度和SIFT描述符直方圖,通過改進傳統(tǒng)Hausdorff距離度量,最后將改進的Hausdorff距離用于圖像匹配;該技術(shù)手段相互依存,缺一不可,作為一個整體,共同實現(xiàn)了其中任何一個手段存在時都不能實現(xiàn)的有效提高基于內(nèi)容的圖像檢索準確率的技術(shù)目的,此外,本發(fā)明方法還能夠消除背景信息對圖像檢索準確率的影響,對于具有復(fù)雜背景的圖像,檢索準確率高的技術(shù)優(yōu)勢更加明顯。
附圖說明
圖1是本發(fā)明基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法的流程圖。
圖2是三種方法的查準率對比圖。
圖3是待檢索“榕樹”圖像。
圖4是基于本發(fā)明方法的“榕樹”檢索結(jié)果。
圖5是基于SIFT描述符直方圖方法的“榕樹”檢索結(jié)果。
圖6是基于SIFT描述符核密度方法的“榕樹”檢索結(jié)果。
圖7是待檢索“老虎”圖像。
圖8是基于本發(fā)明方法的“老虎”檢索結(jié)果。
圖9是基于SIFT描述符直方圖方法的“老虎”檢索結(jié)果。
圖10是基于SIFT描述符核密度方法的“老虎”檢索結(jié)果。
具體實施方式
下面結(jié)合附圖對本發(fā)明具體實施方式作進一步詳細描述。
具體實施例一
本實施例是基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法的理論實施例。
本實施例的基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,流程圖如圖1所示,該方法包括以下步驟:
步驟a、提取待檢索圖像及圖像庫SIFT特征;
步驟b、生成SIFT描述符直方圖和SIFT描述符核密度;
步驟c、融合SIFT描述符核密度和SIFT描述符直方圖;
步驟d、改進傳統(tǒng)Hausdorff距離度量;
步驟e、將改進的Hausdorff距離用于圖像匹配。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟a的具體步驟如下:
步驟a1:構(gòu)建待檢索圖像及圖像庫高斯差分尺度函數(shù)
利用不同尺度的高斯函數(shù)與圖像做卷積運算,構(gòu)建二維圖像的高斯差分尺度函數(shù)D(x,y,σ),有:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
其中,k是尺度比例系數(shù),G(x,y,σ)是尺度可變的高斯函數(shù),I(x,y)是圖像,并且有:
其中,(x,y)是尺度坐標,σ的大小決定圖像平滑的程度;
步驟a2:檢測高斯差分尺度空間極值點
將圖像中的每一個采樣點都與該采樣點相鄰的點比較,當某個采樣點在高斯差分尺度空間的所有點中是最大值或最小值時,認為該點是圖像在該尺度下的一個特征點;
步驟a3:除去邊緣不穩(wěn)定的特征點,生成SIFT描述符
使用Harris Corner檢測器去除邊緣的不穩(wěn)定特征點,保留穩(wěn)定的特征點,生成SIFT描述符。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟b的具體步驟如下:
步驟b1:通過SIFT描述符的分層聚類來構(gòu)造可擴展詞匯樹
提取每張圖片的SIFT描述符,得到一個集合F={fi},然后對集合F采用K-Means聚類方法進行分層聚類,初始時,在第1層對集合F進行K-Means聚類,把集合F分成k份{Fi1≤i≤k};以此類推,對新產(chǎn)生的簇集利用K-Means再分成k個簇集,不斷地重復(fù)上述操作直到深度達到預(yù)先設(shè)定的L值,構(gòu)造出可擴展詞匯樹,共有c=BL個節(jié)點組成,其中,B是分支因子,L是深度,c是節(jié)點總個數(shù),fi表示圖片中某個SIFT描述符,F(xiàn)是描述符集合,F(xiàn)i是對集合F進行K-Means聚類得到的某個簇集;
步驟b2:累計可擴展詞匯樹中每個節(jié)點上的描述符出現(xiàn)的次數(shù),得到SIFT描述符直方圖
在構(gòu)造可擴展詞匯樹中,共有c=BL個節(jié)點,對第一個節(jié)點上的SIFT描述符出現(xiàn)的次數(shù)進行累計,獲得基于可擴展詞匯樹的SIFT描述符直方圖,用H=[h1,...,hi,...,hc]表示,其中hi表示第i個節(jié)點出現(xiàn)SIFT描述符的次數(shù);
步驟b3:對SIFT描述符進行量化,得到SIFT描述符核密度
對所有的SIFT描述符進行量化,則每個SIFT描述符fi都對應(yīng)可擴展詞匯樹中一條從根節(jié)點到葉子節(jié)點的量化路徑,即對應(yīng)一組視覺詞每一組視覺詞都對應(yīng)它的核密度f(c),得到基于可擴展詞匯樹的SIFT描述符核密度;其中是一個視覺詞,即可擴展詞匯樹中的每個節(jié)點都代表一個視覺詞,l表示該節(jié)點在可擴展詞匯樹中所在的層數(shù),hl表示該節(jié)點在該層樹節(jié)點中的索引,L是深度。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟c的具體步驟如下:
步驟c1:得到SIFT描述符直方圖和SIFT描述符核密度的基本概率分配函數(shù)
為了計算方便,將SIFT描述符直方圖設(shè)為A,SIFT描述符核密度設(shè)為B,則辨別框Ω:{A,B},辨別框是描述構(gòu)成整個假設(shè)空間所有元素的集合,用基本概率分配函數(shù)考慮到所有的可能結(jié)果,用m()表示;此時,
子集A的基本概率分配函數(shù)為
子集B的基本概率分配函數(shù)為
其中,M為歸一化常數(shù),
m1(Ai)表示焦元為Ai的基本概率賦值,m2(Bj)表示焦元為Bj的基本概率賦值;
步驟c2:應(yīng)用Dempster組合規(guī)則結(jié)合步驟c1得到融合結(jié)果
Dempster組合規(guī)則為:將步驟c1得到結(jié)果m(A)和m(B)代入得到m(AB);
其中,M為歸一化常數(shù),M=∑A∩B=φ(m(A)m(B))=1-∑A∩B≠φ(m(A)m(B))
m(A)表示子集A的基本概率分配函數(shù),m(B)表示子集B的基本概率分配函數(shù),m(AB)表示子集A和子集B融合的基本概率分配函數(shù)。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟d的具體步驟如下:
步驟d1:寫出成本函數(shù)的微分方程形式
成本函數(shù)的微分方程形式如下:
步驟d2:得到成本函數(shù)的通解
解微分方程,得到成本函數(shù)的表達式為如下:
其中γ0是成本函數(shù)初始值,它的范圍為0~1,k是比例系數(shù),τ是匹配參數(shù);
步驟d3:用傳統(tǒng)的Hausdorff距離作為成本函數(shù)的變量,改進的Hausdorff距離
給定兩個有限集合X={x1,x2,...,xM}和Y={y1,y2,...,yN},則X和Y之間傳統(tǒng)的Hausdorff距離定義為
其中,d(X,Y)是傳統(tǒng)的Hausdorff距離,min表示最小值,max表示最大值,x和y分別是點集X和Y中的點,d(x,y)表示點x和點y之間的幾何距離;
改進的Hausdorff距離為:
其中|X|是有限集合X的個數(shù),dH(X,Y)是改進的Hausdorff距離,d(X,Y)是傳統(tǒng)的Hausdorff距離,γ(d(X,Y))是變量為d(X,Y)的成本函數(shù)。
上述基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,步驟e的具體步驟如下:
根據(jù)步驟c得到的融合特征,用改進的Hausdorff距離進行圖像的相似度測量,將得到的相似度按照降序排列,得出檢索結(jié)果。
具體實施例二
本實施例是基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法的理論實施例。
鑒于本領(lǐng)域技術(shù)人員多為學術(shù)人員,對于技術(shù)文件的撰寫更習慣文章的撰寫方式,為此,在與具體實施例一無本質(zhì)區(qū)別的基礎(chǔ)上,按照學術(shù)習慣,補充具體實施例二。
本實施例的基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法,包括以下步驟:
步驟a:待檢索圖像及圖像庫SIFT特征提取(SIFT:尺度不變特征變換)
步驟a1:構(gòu)建待檢索圖像及圖像庫高斯差分尺度函數(shù)
在SIFT描述符提取期間,首先構(gòu)建高斯差分尺度空間,二維圖像的尺度空間為L(x,y,σ)=G(x,y,σ)*I(x,y),其中G(x,y,σ)是尺度可變的高斯函數(shù),(x,y)是尺度坐標,I(x,y)是圖像,L(x,y,σ)是二維圖像的尺度空間,σ的大小決定圖像平滑的程度。
為了更準確的檢測圖像特征點,需要構(gòu)造二維圖像的高斯差分尺度函數(shù),它是利用不同尺度的高斯函數(shù)與圖像卷積生成的,即D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ),其中D(x,y,σ)是二維圖像的高斯差分尺度函數(shù),k是尺度比例系數(shù)
步驟a2:檢測高斯差分尺度空間極值點
為了尋找尺度空間的極值點需要圖像中的每一個采樣點都與它所相鄰的點比較,當某個采樣點在DoG(高斯差分尺度)空間的所有點中是最大值或最小值時,認為該點是圖像在該尺度下的一個特征點。
步驟a3:除去邊緣不穩(wěn)定的特征點,生成SIFT描述符
為了增強匹配穩(wěn)定點、提高噪聲能力,使用Harris Comer檢測器去除邊緣的不穩(wěn)定特征點。保留穩(wěn)定的特征點,生成SIFT描述符。
步驟b:生成SIFT描述符直方圖和SIFT描述符核密度
步驟b1:通過SIFT描述符的分層聚類來構(gòu)造可擴展詞匯樹SVT
提取每張圖片的SIFT描述符,得到一個集合F={fi},然后對集合F采用K-Means聚類方法進行分層聚類。初始時,在第1層對集合F進行K-Means聚類,把集合F分成k份{Fi|1≤i≤k}。類似地,對新產(chǎn)生的簇集利用K-Means再分成k個簇集,不斷地重復(fù)上述操作直到深度達到預(yù)先設(shè)定的L值,就不再分裂,將構(gòu)造出可擴展詞匯樹,共有c=BL個節(jié)點組成。其中B是分支因子,L是深度,c是節(jié)點總個數(shù),fi表示圖片中某個SIFT描述符,F(xiàn)是描述符集合,F(xiàn)i是對集合F進行K-Means聚類得到的某個簇集。
步驟b2:累計可擴展詞匯樹中每個節(jié)點上的描述符出現(xiàn)的次數(shù),得到SIFT描述符直方圖
在構(gòu)造可擴展詞匯樹中,共有c=BL個節(jié)點,對第一個節(jié)點上的SIFT描述符出現(xiàn)的次數(shù)進行累計,獲得基于可擴展詞匯樹的SIFT描述符直方圖用H=[h1,...,hi,...,hc]表示,其中hi表示第i個節(jié)點出現(xiàn)SIFT描述符的次數(shù),B是分支因子,L是深度,c是節(jié)點總個數(shù)。
步驟b3:對SIFT描述符進行量化,得到SIFT描述符核密度
對所有的SIFT描述符進行量化,則每個SIFT描述符fi都對應(yīng)可擴展詞匯樹中一條從根節(jié)點到葉子節(jié)點的量化路徑,也即對應(yīng)一組視覺詞每一組視覺詞都對應(yīng)它的核密度f(c),得到基于可擴展詞匯樹的SIFT描述符核密度。其中是一個視覺詞,即可擴展詞匯樹中的每個節(jié)點都代表一個視覺詞,l表示該節(jié)點在可擴展詞匯樹中所在的層數(shù),hl表示該節(jié)點在該層樹節(jié)點中的索引,L是深度。
步驟c:融合SIFT描述符核密度和SIFT描述符直方圖
步驟c1:得到SIFT描述符直方圖和SIFT描述符核密度的基本概率分配函數(shù)
為了下面計算方便,將SIFT描述符直方圖設(shè)為A,SIFT描述符核密度設(shè)為B,則辨別框Ω:{A,B},辨別框是描述構(gòu)成整個假設(shè)空間所有元素的集合。用基本概率分配函數(shù)(BPA)考慮到所有的可能結(jié)果,常用m()表示。
子集A的基本概率分配函數(shù)為
子集B的基本概率分配函數(shù)為
其中,M為歸一化常數(shù),m1(Ai)表示焦元為Ai的基本概率賦值,m2(Bj)表示焦元為Bj的基本概率賦值;
步驟c2:應(yīng)用Dempster組合規(guī)則結(jié)合步驟c1得到融合結(jié)果
Dempster組合規(guī)則為:將步驟c1得到結(jié)果m(A)和m(B)代入得到m(AB)。
其中,M為歸一化常數(shù),M=∑A∩B=φ(m(A)m(B))=1-∑A∩B≠φ(m(A)m(B))
m(A)表示子集A的基本概率分配函數(shù),m(B)表示子集B的基本概率分配函數(shù),m(AB)表示子集A和子集B融合的基本概率分配函數(shù)。
步驟d:將傳統(tǒng)的Hausdorff距離度量改進
傳統(tǒng)的Hausdorff距離為它會因噪聲點、偽邊緣點和出格點造成誤匹配的問題,為了提高匹配過程的可靠性和穩(wěn)定性,本發(fā)明將傳統(tǒng)的Hausdorff距離度量進行改進即用傳統(tǒng)的Hausdorff距離作為成本函數(shù)的變量作為改進的Hausdorff距離。
步驟d1:寫出成本函數(shù)的微分方程形式
成本函數(shù)的微分方程形式如下:
步驟d2:得到成本函數(shù)的通解
解微分方程,得到成本函數(shù)的表達式為如下:
其中γ0是成本函數(shù)初始值,它的范圍為0~1,k是比例系數(shù),τ是匹配參數(shù)。
步驟d3:用傳統(tǒng)的Hausdorff距離作為成本函數(shù)的變量作為改進的Hausdorff距離
給定兩個有限集合X={x1,x2,...,xM}和Y={y1,y2,...,yN},則X和Y之間傳統(tǒng)的Hausdorff距離定義為
其中d(X,Y)是傳統(tǒng)的Hausdorff距離,min表示最小值,max表示最大值,x和y分別是點集X和Y中的點,d(x,y)表示點x和點y之間的幾何距離
改進的Hausdorff距離為:
其中|X|是有限集合X的個數(shù),dH(X,Y)是改進的Hausdorff距離,d(X,Y)是傳統(tǒng)的Hausdorff距離,γ(d(X,Y))是變量為d(X,Y)的成本函數(shù)
步驟e:將改進的Hausdorff距離用于圖像匹配
根據(jù)步驟c得到的融合特征,將此特征用改進的Hausdorff距離進行圖像的相似度測量,將得到的相似度按照降序排列,得出檢索結(jié)果。
具體實施例三
本實施例是基于詞匯樹信息融合與豪斯多夫距離結(jié)合的圖像檢索方法的實驗實施例。
圖2給出了基于SIFT描述符直方圖的圖像檢索、基于SIFT描述符核密度的圖像檢索和基于本發(fā)明的圖像檢索的查準率。
從圖2中可以看出,圖像類別中前四項云、星、鳥、樹為背景簡單的圖片,三種檢索出的圖像的查準率相差不大;圖像類別中的后四項為虎、魚、山、花為背景復(fù)雜的圖片,三種檢索方法檢索的查準率相差很大,本發(fā)明的檢索遠遠大于前兩種的檢索。
下面給出兩種圖像類型的實驗結(jié)果
實驗中使用小型自建圖像數(shù)據(jù)庫,此數(shù)據(jù)庫中含有8類圖像,分別是花、鳥、魚、虎、山、樹、星、云,每類圖像100幅,圖像總數(shù)共計800幅。
實驗一:待檢索圖像背景清晰實驗
以背景簡單的“榕樹”圖像作為待檢索圖像,在所有“榕樹”中隨機抽取5幅圖像作為查詢圖像,最后以選取5幅圖像查準率的平均值作為最終結(jié)果。查準率定義如下:查準率=(查詢結(jié)果中與關(guān)鍵圖相關(guān)的圖像數(shù)/查詢返回的圖像數(shù))*100%。
下面給出一幅背景簡單的“榕樹”圖像作為待檢索圖像,如圖3所示;按照本發(fā)明方法的檢索結(jié)果如圖4所示,基于SIFT描述符直方圖方法的檢索結(jié)果如圖5所示,基于SIFT描述符核密度方法的檢索結(jié)果如圖6所示。
從圖4、圖5和圖6的檢索結(jié)果可以看出:待檢索圖像背景清晰并且榕樹顏色信息鮮明,榕樹樹冠部分大,覆蓋了圖像的大部分區(qū)域,形成了豐富的紋理特征信息;待檢索圖像樹冠和背景之間、樹干處的形狀信息較清晰。
每幅待檢索圖像都返回30幅圖像,其中用本發(fā)明方法準確檢索的圖像分別為23幅、23幅、25幅、25幅、25幅,查準率分別為76.7%、76.7%、83.3%、83.3%、83.3%,平均查準率=(76.7+76.7+83.3+83.3+83.3)/5*100%=80.66%;用SIFT描述符直方圖方法準確檢索的圖像分別為23幅、23幅、24幅、25幅、25幅,查準率分別為76.7%、76.7%、80%、83.3%、83.3%,平均查準率=(76.7+76.7+80+83.3+83.3)/5*100%=80%;用SIFT描述符核密度方法準確檢索的圖像分別為23幅、23幅、24幅、25幅、25幅,查準率分別為76.7%、76.7%、80%、83.3%、83.3%,平均查準率=(80+76.7+76.7+83.3+83.3)/5*100%=80%;
對于背景簡單的圖片,用本發(fā)明的檢索方法與用基于SIFT描述符直方圖檢索和基于SIFT描述符核密度檢索出來的圖像差別不大,查準率相差不大,均達到80%左右。實驗二:待檢索圖像背景復(fù)雜實驗
下面以背景復(fù)雜的“老虎”圖像作為待檢索圖像,在所有“老虎”中隨機抽取5幅圖像作為查詢圖像,最后以所選取的5幅圖像查準率的平均值最為最終結(jié)果。查準率定義如下:查準率=(查詢結(jié)果中與關(guān)鍵圖相關(guān)的圖像數(shù)/查詢返回的圖像數(shù))*100%。
下面給出一幅背景復(fù)雜的“老虎”圖像為待檢索圖像,如圖7所示;按照本發(fā)明方法的檢索結(jié)果如圖8所示,基于SIFT描述符直方圖方法的檢索結(jié)果如圖9所示,基于SIFT描述符核密度方法的檢索結(jié)果如圖10所示。
從圖8可以看出,共返回30張圖像,其中準確檢索到26幅圖像,準確率為86.7%。檢索結(jié)果的第一幅圖像為待檢索圖像本身,其余29幅中檢索出25幅也全部是“老虎”類圖像,并且這25幅圖像中的虎頭的形狀、虎皮的花紋、背景區(qū)域等特征和待檢索圖像也都是非常相似的。
從圖9可以看出,共返回30張圖像,其中準確檢索到12幅圖像,準確率為40%。從圖10可以看出,共返回30張圖像,其中準確檢索到13幅圖像,準確率為43.3%。這兩種檢索結(jié)果,可以看出檢索的12幅、13幅圖像雖然也都是“老虎”類圖像,但是虎頭的形狀、虎皮的花紋以及背景區(qū)域都與待檢索圖像有很大的不同,但其檢索出圖像的特點背景單一。
檢索其余四幅待檢索圖像為“老虎”的圖像,每幅待檢索圖像都返回30張圖像,其中用本發(fā)明方法準確檢索的圖像分別為25幅、25幅、26幅、27幅,查準率分別為83.3%、83.3%、86.7%、90.0%,平均查準率=(86.7+83.3+83.3+86.7+90.0)/5*100%=86.0%;用SIFT描述符直方圖方法準確檢索的圖像分別為12幅、12幅、13幅、13幅,查準率分別為40.0%、40.0%、43.3%、43.3%,平均查準率=(40.0+40.0+40.0+43.3+43.3)/5*100%=41.32%;用SIFT描述符核密度方法準確檢索的圖像分別為12幅、12幅、13幅、13幅,查準率分別為40.0%、40.0%、40.0%、43.3%,平均查準率=(43.3+40.0+40.0+43.3+43.3)/5*100%=41.98%;
從實驗二的檢索結(jié)果可以得出未被融合的兩種檢索結(jié)果在檢索背景復(fù)雜的圖片平均查準率僅達到了41.32%與41.98%,相當于根本不能檢索出背復(fù)雜的圖片。而本發(fā)明的方法平均查準率達到了86%,并沒有因為背景復(fù)雜而降低查準率,這一檢索結(jié)果,充分證明了提出的可擴展詞匯樹信息融合和Hausdorff距離結(jié)合的圖像檢索方法可以彌補原來檢索方法不能檢索復(fù)雜背景的圖片的缺點。