亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法與流程

文檔序號(hào):11830633閱讀:295來源:國(guó)知局
一種基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法與流程
本發(fā)明涉及一種圖像檢索方法,特別是涉及一種基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法。
背景技術(shù)
:視覺詞典方法(BagofVisualWords,BoVW)通過視覺詞典將圖像的局部特征量化為詞頻向量進(jìn)行檢索,既能利用圖像局部信息,又能達(dá)到比局部特征直接檢索更快的速度,成為當(dāng)前圖像檢索的主流方法。但是基于BoVW的圖像檢索方法存在以下問題:一是當(dāng)前生成視覺詞典的聚類算法時(shí)間效率低、計(jì)算量大,使得BoVW難以應(yīng)用于大規(guī)模數(shù)據(jù)集;二是由于聚類算法的局限性和圖像背景噪聲的存在,使得視覺詞典中存在不包含目標(biāo)信息的視覺單詞,嚴(yán)重影響視覺詞典質(zhì)量;三是沒有充分利用初次檢索結(jié)果中的有用信息,使得檢索效果不理想。針對(duì)視覺詞典生成效率低問題,Philbin等將KD-Tree引入K-means中提出近似K-Means利用KD-Tree對(duì)聚類中心構(gòu)建索引目錄,加速尋找最近聚類中心以提高聚類效率。Nister等提出了層次K-means將時(shí)間復(fù)雜度降為,但是該方法忽略了特征維數(shù)d對(duì)聚類效率的影響。為此,研究者們提出基于降維的聚類方法,如主成分分析、自組織特征映射等,主要思路是利用降維算法對(duì)高維特征數(shù)據(jù)進(jìn)行降維,再用聚類算法對(duì)降維后的特征點(diǎn)進(jìn)行聚類。此外,Mclachlan通過構(gòu)造混合概率分布函數(shù)來擬合數(shù)據(jù)集,但是該方法需要待聚類數(shù)據(jù)的先驗(yàn)知識(shí),而且其聚類準(zhǔn)確率依賴于密度函數(shù)的構(gòu)造質(zhì)量。因此,本發(fā)明的第一個(gè)特點(diǎn)是利用基于密度的聚類方法生成視覺詞典,既不需要設(shè)置初始聚類中心也不用設(shè)計(jì)目標(biāo)函數(shù),避免了初值選取對(duì)聚類結(jié)果的影響,而且有效提高了視覺詞典生成效率。不包含目標(biāo)信息的視覺單詞類似于文本中的“是”、“的”、“了”等停用詞,這里稱其為“視覺停用詞”,去除“視覺停用詞”不僅能縮小詞典規(guī)模,還能提高檢索準(zhǔn)確率。針對(duì)“視覺停用詞”去除問題,Sivic等認(rèn)為“視覺停用詞”與其出現(xiàn)的頻率存在一定關(guān)系,提出一種基于詞頻的去除方法。Yuan等通過統(tǒng)計(jì)視覺短語(即視覺單詞組合)的出現(xiàn)概率濾除無用信息,F(xiàn)ulkerson等則利用信息瓶頸準(zhǔn)則濾除一定數(shù)量的視覺單詞。但是,上述方法僅在視覺單詞層面考慮如何過濾“視覺停用詞”。因此,本發(fā)明的第二個(gè)特點(diǎn)是利用視覺單詞與圖像語義概念之間的相互關(guān)系度量視覺單詞包含的語義信息,能更加準(zhǔn)確地去除“視覺停用詞”。為利用初次檢索結(jié)果中的有用信息,豐富原有查詢的信息量,Perd'och等提出平均查詢擴(kuò)展策略,將初始檢索結(jié)果的圖像特征平均值作為新的查詢實(shí)例,結(jié)合二次檢索結(jié)果對(duì)初次檢索得到的圖像進(jìn)行重排序。Shen等[13]對(duì)查詢圖像的K近鄰進(jìn)行多次檢索,對(duì)多次檢索結(jié)果進(jìn)行重排序得到最終檢索結(jié)果。Chum等則利用查詢圖像和檢索結(jié)果中的上下文語義信息提出了自動(dòng)查詢擴(kuò)展方法,有效提高了檢索準(zhǔn)確率。然而,現(xiàn)有的查詢擴(kuò)展方法依賴于較高的初始準(zhǔn)確率,在初始準(zhǔn)確率較低時(shí),初始檢索結(jié)果中的不相關(guān)圖像會(huì)帶來負(fù)面影響。因此,本發(fā)明的第三個(gè)特點(diǎn)是通過連接圖查找與查詢圖像相關(guān)的圖像作為擴(kuò)展項(xiàng),并對(duì)初始檢索結(jié)果進(jìn)行重排序,降低了初始檢索中不相關(guān)圖像的影響,提高了圖像檢索準(zhǔn)確率。技術(shù)實(shí)現(xiàn)要素:本發(fā)明克服了現(xiàn)有技術(shù)中,當(dāng)前圖像檢索存在檢索準(zhǔn)確率低、抗干擾能力差等問題,提供一種提高圖像檢索準(zhǔn)確率為目的的基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法。本發(fā)明解決其技術(shù)問題所采用的技術(shù)方案是:一種具有以下步驟的基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法,包括如下步驟:一種基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法,其特征在于,包括:提取訓(xùn)練圖像的SIFT特征,利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類,生成由視覺單詞組成的視覺詞典組;利用卡方模型獲取視覺單詞與各目標(biāo)圖像類別相關(guān)性;結(jié)合相關(guān)性和視覺單詞詞頻過濾掉與目標(biāo)圖像類別無關(guān)的視覺停用詞,獲得優(yōu)化后的視覺詞典;提取查詢圖像的SIFT特征,將訓(xùn)練圖像和查詢圖像的SIFT特征與優(yōu)化后的視覺詞典進(jìn)行映射匹配,得到各自的視覺詞匯直方圖,將查詢圖像的視覺詞匯直方圖與訓(xùn)練圖像的視覺詞匯直方圖進(jìn)行相似性匹配,得到初始檢索結(jié)果;根據(jù)視覺詞匯直方圖之間的相似性確定互相關(guān)圖像,找到與查詢圖像相關(guān)的密度最大子圖;利用最大密度子圖查找算法在連接圖中查找查詢圖像的信任圖像,對(duì)初始檢索結(jié)果進(jìn)行重排序,得到最終檢索結(jié)果。所述提取訓(xùn)練圖像的SIFT特征,利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類,生成由視覺單詞組成的視覺詞典組,包括:利用局部特征提取算子從訓(xùn)練圖像中提取SIFT特征;通過利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類,聚類得到的每個(gè)聚類中心代表一個(gè)視覺單詞,所述視覺單詞組成視覺詞典;提取查詢圖像的SIFT特征,將SIFT特征映射到距離最近的視覺單詞中,統(tǒng)計(jì)得到查詢圖像的視覺詞匯直方圖。所述基于密度的聚類方法指通過尋找合適的密度峰值點(diǎn)確定聚類中心,所述聚類中心滿足以下條件:聚類中心的密度大于臨近數(shù)據(jù)點(diǎn)的密度;與其它密度更大的數(shù)據(jù)點(diǎn)距離相距較遠(yuǎn)。所述利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類,包括:步驟1,對(duì)待聚類的數(shù)據(jù)集中數(shù)據(jù)點(diǎn)xi,定義ρi表示數(shù)據(jù)點(diǎn)xi的局部密度,定義δi表示距xi最近且密度更高點(diǎn)的距離;ρi表達(dá)式如下所示:ρi=Σjχ(dij-dc)]]>其中,dij為數(shù)據(jù)集S的數(shù)據(jù)點(diǎn)xi與xj的距離,dc是設(shè)定的距離閾值,局部密度ρi實(shí)質(zhì)是S中與xi距離不超過dc的數(shù)據(jù)點(diǎn)個(gè)數(shù);δi表達(dá)式如下所示:δi=minj:ρj>ρi(dij)ρi<ρmaxmaxj(dij)ρi=ρmax]]>其中,δi的物理意義是在局部密度大于ρi的數(shù)據(jù)點(diǎn)中尋找與xi最近點(diǎn)的距離,其值越大,表示xi與其它高密度點(diǎn)距離越遠(yuǎn),則xi越有可能成為聚類中心;當(dāng)xi為密度最大點(diǎn)時(shí),δi等于與xi相距最遠(yuǎn)點(diǎn)的距離,該值遠(yuǎn)遠(yuǎn)大于其它高密度點(diǎn)的δ值;步驟2,定義γi=ρiδi作為選取聚類中心的衡量指標(biāo),對(duì)進(jìn)行降序排列,選取前若干個(gè)數(shù)據(jù)點(diǎn)作為聚類中心。所述利用卡方模型獲取視覺單詞與各目標(biāo)圖像類別相關(guān)性,通過如下計(jì)算公式實(shí)現(xiàn):xi2=Σk=12Σj=1m(N·nkj-nk+·n+j)2N·nk+·n+j]]>其中,卡方值代表視覺單詞wi與各圖像類別間統(tǒng)計(jì)相關(guān)性的大小,卡方值越大說明wi與各圖像類別相關(guān)性越大,卡方值越小說明視覺單詞wi與各圖像類別相關(guān)性越??;n1j表示圖像類別Cj中包含wi的圖像數(shù)目,n2j表示圖像類別Cj中不包含wi的圖像數(shù)目,wi出現(xiàn)的頻次獨(dú)立于圖像類別Cj,nk+分別表示圖像集中包含wi和不包含wi的圖像數(shù)目;n+j表示圖像類別Cj中的圖像數(shù)目,N為圖像集中圖像總數(shù)目。所述結(jié)合相關(guān)性和視覺單詞詞頻過濾掉與目標(biāo)圖像類別無關(guān)的視覺停用詞,通過對(duì)卡方值進(jìn)行加權(quán)并過濾加權(quán)后的卡方值實(shí)現(xiàn),加權(quán)后的卡方值的表達(dá)式如下:x~i2=xi2tf(wi)]]>其中,tf(wi)表示視覺單詞wi的詞頻,表示wi的卡方值,表示wi加權(quán)后的卡方值。所述根據(jù)視覺詞匯直方圖之間的相似性確定互相關(guān)圖像,找到與查詢圖像相關(guān)的密度最大子圖,利用最大密度子圖查找算法在連接圖中查找查詢圖像的信任圖像,對(duì)初始檢索結(jié)果進(jìn)行重排序,得到最終檢索結(jié)果,包括:步驟1,利用初始檢索結(jié)果圖像中前k幅圖像的任一圖像i的視覺詞匯直方圖fi進(jìn)行相似性匹配得到k近鄰圖像集Nk(i),定義互為對(duì)方的k近鄰圖像集中元素的圖像對(duì)為互相關(guān)圖像Rk(i,i'),如下:Rk(i,i')=i∈Nk(i')∩i'∈Nk(i)步驟2,根據(jù)Rk(i,i')構(gòu)造圖G=(V,E,W);其中,V表示頂點(diǎn)集,每一個(gè)頂點(diǎn)表示一幅圖像,E表示由連接頂點(diǎn)的邊組成的集合,W中的元素為邊的權(quán)重,k為近鄰數(shù)目,任意兩圖像i和i'之間的連接權(quán)重計(jì)算公式如下所示:w(i,i′)=Nk(i)∩Nk(i′)kif(i,i′)∈Rk(i,i′)0otherwise]]>步驟3,根據(jù)連接權(quán)重在圖G=(V,E,W)中尋找與查詢圖像相關(guān)的密度最大子圖;步驟4,將密度最大子圖頂點(diǎn)所代表的圖像依據(jù)與查詢圖像的相關(guān)性大小進(jìn)行降序排列,選取前Nc幅圖像作為新的查詢圖像,計(jì)算擴(kuò)展查詢結(jié)果與查詢圖像的相似性si,如下:si=min{βn||fi-fn||22σn2|,n=1,2,...,Nc}]]>其中,fi為圖像i的視覺詞匯直方圖,圖像β=0.99,步驟5,根據(jù)si的大小進(jìn)行重排序得到最終檢索結(jié)果。本發(fā)明具有如下有益效果:(1)利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類生成視覺詞典,相比傳統(tǒng)方法既不需要設(shè)置初始聚類中心也不用設(shè)計(jì)目標(biāo)函數(shù),而且有效提高了視覺詞典的生成效率和質(zhì)量;(2)通過卡方模型分析視覺單詞與圖像目標(biāo)的相關(guān)性,去除不包含目標(biāo)信息的視覺單詞,增強(qiáng)視覺詞典的分辨能力;(3)根據(jù)視覺詞匯直方圖之間的相似性確定互相關(guān)圖像,構(gòu)建無向連接圖,降低噪聲對(duì)查找信任圖像的不利影響;(4)利用最大密度子圖查找算法在連接圖中查找查詢圖像的信任圖像,對(duì)初始檢索結(jié)果進(jìn)行重排序,有效提高了圖像檢索準(zhǔn)確率。本發(fā)明涉及基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法,利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類生成視覺詞典,利用基于密度的聚類方法提高視覺詞典的生成效率,并通過卡方模型分析視覺單詞與圖像目標(biāo)的相關(guān)性,去除不包含目標(biāo)信息的視覺單詞,增強(qiáng)視覺詞典的分辨能力,同時(shí)采用基于圖結(jié)構(gòu)的查詢擴(kuò)展方法對(duì)初始檢索結(jié)果進(jìn)行重排序,從而提高圖像檢索的準(zhǔn)確率。相比現(xiàn)有方法,本發(fā)明的圖像檢索性能得到了進(jìn)一步提升。為今后的圖像檢索技術(shù)提供了重要的理論依據(jù)和具體的實(shí)現(xiàn)方案。以下結(jié)合附圖及實(shí)施例對(duì)本發(fā)明作進(jìn)一步詳細(xì)說明,但本發(fā)明的一種基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法不局限于實(shí)施例。附圖說明圖1是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法中視覺詞典法流程圖;圖2是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法的主流程圖;圖3是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法整體流程圖;圖4是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法中基于圖結(jié)構(gòu)的查詢擴(kuò)展方法流程圖;圖5是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法中視覺詞典規(guī)模對(duì)圖像檢索MAP值影響的示意圖;圖6是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法中去除停用詞數(shù)目對(duì)圖像檢索MAP值影響的示意圖;圖7是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法在Oxford5K和Oxford5K+Paris6K數(shù)據(jù)庫上的圖像檢索MAP值的示意圖;圖8是本發(fā)明基于視覺詞典優(yōu)化和查詢擴(kuò)展的圖像檢索方法中EVD+GBQE方法在Oxford5K+Paris6K數(shù)據(jù)庫上的檢索結(jié)果。具體實(shí)施方式具體的,如下將分三部分對(duì)發(fā)明進(jìn)行說明,包括:實(shí)施前提、詳細(xì)的實(shí)施方式和具體的操作過程及具體的實(shí)施例。第一部分實(shí)施前提包括建立視覺詞典模型;第二部分對(duì)應(yīng)于本發(fā)明的步驟,給出整體流程和每一步的具體操作方法;第三部分給出一個(gè)具體的例子,并對(duì)所得結(jié)果進(jìn)行分析。一、建立視覺詞典模型一幅圖像有成百上千個(gè)局部特征,如果以單個(gè)局部特征為單位建立索引,在檢索時(shí)需要對(duì)所有局部特征逐一匹配,這樣不僅極大地增加了檢索時(shí)間開銷,而且影響了系統(tǒng)的實(shí)用性。為降低圖像檢索的時(shí)間開銷,Sivic等借鑒文本檢索領(lǐng)域的詞袋法(BagofWords,BoW)提出了視覺詞典法(BagofVisualWords,BoVW),其流程圖如圖1所示。首先,利用局部特征提取算子從訓(xùn)練圖像中提取大量局部特征(一般為SIFT特征,SIFT,Scale-invariantfeaturetransform,即尺度不變特征變換,是用于圖像處理領(lǐng)域的一種描述。這種描述具有尺度不變性,可在圖像中檢測(cè)出關(guān)鍵點(diǎn),是一種局部特征描述子);然后,通過應(yīng)用聚類算法對(duì)局部特征進(jìn)行聚類,聚類得到的每個(gè)聚類中心代表一個(gè)視覺單詞,由這些視覺單詞組成視覺詞典;最后,提取查詢圖像的局部特征,將局部特征映射到距離最近的視覺單詞中,統(tǒng)計(jì)得到查詢圖像的視覺詞匯直方圖。視覺詞典法通過視覺詞典將圖像的局部特征量化為視覺詞匯直方圖,利用視覺詞匯直方圖進(jìn)行檢索不僅利用了圖像的局部信息,又能達(dá)到比局部特征直接檢索更快的速度,成為當(dāng)前圖像檢索的主流方法,同時(shí)也廣泛應(yīng)用于場(chǎng)景分類、視頻語義概念檢測(cè)、物體檢測(cè)與識(shí)別等方面。二、詳細(xì)的實(shí)施方式和具體的操作過程如圖2和3所示,本發(fā)明的實(shí)施過程包括如下步驟:步驟201,提取訓(xùn)練圖像的SIFT特征,利用基于密度的聚類方法對(duì)SIFT特征進(jìn)行聚類,生成由視覺單詞組成的視覺詞典組。具體的,傳統(tǒng)的聚類算法需要設(shè)計(jì)目標(biāo)函數(shù),反復(fù)迭代計(jì)算達(dá)到最優(yōu),而基于密度的聚類算法(Density-BasedClustering,DBC)通過尋找合適的密度峰值點(diǎn)確定聚類中心,認(rèn)為聚類中心同時(shí)滿足以下2個(gè)條件:(1)聚類中心的密度大于臨近數(shù)據(jù)點(diǎn)的密度;(2)與其它密度更大的數(shù)據(jù)點(diǎn)距離相距較遠(yuǎn)。對(duì)待聚類的數(shù)據(jù)集中數(shù)據(jù)點(diǎn)xi,定義ρi表示數(shù)據(jù)點(diǎn)xi的局部密度,δi表示距xi最近且密度更高點(diǎn)的距離,其表達(dá)式如式(1)、式(2)所示:ρi=Σjχ(dij-dc)---(1)]]>其中,dij為數(shù)據(jù)點(diǎn)xi與xj的距離,dc是設(shè)定的距離閾值,局部密度ρi實(shí)質(zhì)是S中與xi距離不超過dc的數(shù)據(jù)點(diǎn)個(gè)數(shù)。δi={minj:ρj>ρi(dij)ρi<ρmaxminj(dij)ρi=ρmax---(2)]]>其中,δi的物理意義是在局部密度大于ρi的數(shù)據(jù)點(diǎn)中尋找與xi最近點(diǎn)的距離,其值越大,表示xi與其它高密度點(diǎn)距離越遠(yuǎn),則xi越有可能成為聚類中心;當(dāng)xi為密度最大點(diǎn)時(shí),δi等于與xi相距最遠(yuǎn)點(diǎn)的距離,該值遠(yuǎn)遠(yuǎn)大于其它高密度點(diǎn)的δ值。為便于選取合適的聚類中心,定義γi=ρiδi作為衡量指標(biāo),顯然,當(dāng)γi值越大,數(shù)據(jù)點(diǎn)xi越有可能是聚類中心,因此選取聚類中心時(shí)只需對(duì)進(jìn)行降序排列,選取前k個(gè)數(shù)據(jù)點(diǎn)作為聚類中心即可?;诿芏鹊木垲愃惴ㄎ锢硪饬x清晰,不需要任何先驗(yàn)信息,只需設(shè)置合適的距離閾值dc即可完成聚類。步驟202,利用卡方模型獲取視覺單詞與各目標(biāo)圖像類別相關(guān)性;結(jié)合相關(guān)性和視覺單詞詞頻過濾掉與目標(biāo)圖像類別無關(guān)的視覺停用詞,獲得優(yōu)化后的視覺詞典。具體的,在文本處理中通常根據(jù)停用詞表過濾文本中的停用詞,然而在BoVW中,視覺單詞并不像文本中的單詞那樣存在確定的實(shí)體,因此無法構(gòu)造“視覺停用詞”表,但是它們之間具有相同的特性:(1)具有較高的詞頻;(2)與目標(biāo)相關(guān)性不大。針對(duì)以上特性,可以利用卡方模型(Chi-squareModel)統(tǒng)計(jì)視覺單詞與各目標(biāo)圖像類別之間的相關(guān)性,根據(jù)相關(guān)性的大小過濾與目標(biāo)圖像類別無關(guān)的視覺單詞。假設(shè)視覺單詞wi出現(xiàn)的頻次獨(dú)立于圖像類別Cj,其中則視覺單詞wi與圖像集中各圖像類別之間的相互關(guān)系可由表1描述:表1視覺單詞w與各目標(biāo)類別統(tǒng)計(jì)關(guān)系C1C2…CmTotal包含wi的圖像數(shù)目n11n12…n1mn1+不包含wi的圖像數(shù)目n21n22…n2mn2+Totaln+1n+2…n+mN其中,n1j為圖像類別Cj中包含wi的圖像數(shù)目,n2j表示圖像類別Cj中不包含wi的圖像數(shù)目,nk+,k=1,2分別表示圖像集中包含wi和不包含wi的圖像數(shù)目,n+j為圖像類別Cj中的圖像數(shù)目,N為圖像集中圖像總數(shù)目。則表1中視覺單詞wi與各圖像類別的卡方值可由式(3)計(jì)算:xi2=Σk=12Σj=1m(N·nkj-nk+·n+j)2N·nk+·n+j---(3)]]>卡方值就代表了wi與各圖像類別間統(tǒng)計(jì)相關(guān)性的大小,卡方值越大說明視覺單詞wi與各圖像類別相關(guān)性越大,反之亦然??紤]到部分視覺單詞只出現(xiàn)在很少圖像中,具有較強(qiáng)的類別區(qū)分能力,但是由于其詞頻較低導(dǎo)致卡方值較小,因此對(duì)卡方值賦予權(quán)重如下:x~i2=xi2tf(wi)---(4)]]>其中,tf(wi)為視覺單詞wi的詞頻。由此,依據(jù)式(4)計(jì)算各視覺單詞加權(quán)后的卡方值然后過濾值較小的視覺停用詞。步驟203,提取查詢圖像的SIFT特征,將訓(xùn)練圖像和查詢圖像的SIFT特征與優(yōu)化后的視覺詞典進(jìn)行映射匹配,得到各自的視覺詞匯直方圖,將查詢圖像的視覺詞匯直方圖與訓(xùn)練圖像的視覺詞匯直方圖進(jìn)行相似性匹配,得到初始檢索結(jié)果。具體的,去掉“視覺停用詞”后,將圖像的SIFT特征與優(yōu)化后的視覺詞典進(jìn)行映射匹配,得到視覺詞匯直方圖,利用圖像的視覺詞匯直方圖進(jìn)行檢索即可得到初始檢索結(jié)果。步驟204,根據(jù)視覺詞匯直方圖之間的相似性確定互相關(guān)圖像,找到與查詢圖像相關(guān)的密度最大子圖;利用最大密度子圖查找算法在連接圖中查找查詢圖像的信任圖像,對(duì)初始檢索結(jié)果進(jìn)行重排序,得到最終檢索結(jié)果。具體的,由于圖像噪聲的存在,初始檢索結(jié)果中會(huì)存在一些與查詢圖像無關(guān)的檢索圖像,因此需要對(duì)初始檢索結(jié)果中的圖像進(jìn)行甄別,選出與查詢圖像相關(guān)的圖像作為新的查詢圖像,具體流程如圖4所示:利用初始檢索結(jié)果圖像中前k幅圖像的任一圖像i的視覺詞匯直方圖fi進(jìn)行相似性匹配得到k近鄰圖像集Nk(i),定義互為對(duì)方的k近鄰圖像集中元素的圖像對(duì)為互相關(guān)圖像Rk(i,i'):Rk(i,i')=i∈Nk(i')∩i'∈Nk(i)(5)根據(jù)式(5)構(gòu)造圖G=(V,E,W),其中,V為頂點(diǎn)集,每一個(gè)頂點(diǎn)表示一幅圖像,E是由連接頂點(diǎn)的邊組成的集合,W中的元素為邊的權(quán)重,k為近鄰數(shù)目,圖像i,i'之間的連接權(quán)重計(jì)算如式(6)所示:w(i,i′)=Nk(i)∩Nk(i′)kif(i,i′)∈Rk(i,i′)0otherwise---(6)]]>然后在圖G=(V,E,W)中尋找與查詢圖像相關(guān)的密度最大子圖G',將子圖頂點(diǎn)所代表的圖像依據(jù)與查詢圖像的相關(guān)性大小進(jìn)行降序排列,選取前Nc幅圖像作為新的查詢圖像,計(jì)算擴(kuò)展查詢結(jié)果與查詢圖像的相似性si:si=min{βn||fi-fn||22σn2|,n=1,2,...,Nc}---(7)]]>其中,fi為圖像i的視覺詞匯直方圖,β=0.99,最后,根據(jù)si的大小進(jìn)行重排序得到最終檢索結(jié)果。三、具體實(shí)施例本發(fā)明在Oxford5K圖像集上進(jìn)行實(shí)施,此外,引入Paris6K數(shù)據(jù)庫作為干擾圖像,以驗(yàn)證本發(fā)明在復(fù)雜環(huán)境下的魯棒性。為了驗(yàn)證基于密度聚類算法(簡(jiǎn)稱DBC)的有效性,設(shè)置距離閾值dc=0.013,利用DBC進(jìn)行聚類生成不同規(guī)模的視覺詞典,分析視覺詞典的規(guī)模大小對(duì)檢索平均準(zhǔn)確率(MAP)的影響,并與近似K-Means(AKM)方法進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果如圖5所示:可以看出,當(dāng)單詞數(shù)目較小時(shí),視覺詞典的目標(biāo)分辨能力不強(qiáng),隨著視覺單詞數(shù)量k不斷增加,其目標(biāo)分辨能力逐漸增強(qiáng),MAP值也逐漸增加,當(dāng)詞典規(guī)模大于10K時(shí),MAP值增長(zhǎng)速度逐漸變慢。對(duì)比DBC和AKM方法的MAP曲線可以看出,DBC方法的MAP值均高于AKM,這是因?yàn)锳KM對(duì)初始聚類中心的選擇敏感且容易陷入局部極值,而DBC的聚類思想不同于基于劃分的聚類方法,既不需要設(shè)置初始聚類中心也不用設(shè)計(jì)目標(biāo)函數(shù),而是根據(jù)聚類中心具有密度大且與其它高密度點(diǎn)距離較遠(yuǎn)的特性尋找適合的數(shù)據(jù)點(diǎn)作為聚類中心,避免了初值選取對(duì)聚類結(jié)果的影響,而且不需要任何先驗(yàn)信息,只需設(shè)置合適的距離閾值dc即可完成聚類。隨后,為驗(yàn)證卡方模型去除“視覺停用詞”的有效性,實(shí)驗(yàn)利用DBC生成規(guī)模M=10000的視覺詞典,然后通過卡方模型濾除一定數(shù)目的“視覺停用詞”,并與未去除“視覺停用詞”的圖像檢索MAP值進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如圖6所示。對(duì)比圖5中的MAP曲線不難看出,當(dāng)去除“視覺停用詞”數(shù)目S<1200時(shí),隨著S逐漸增加,視覺詞典的目標(biāo)分辨能力得到有效提高,并在S=1200時(shí)MAP值達(dá)到最大值75.81%。但是,當(dāng)S>1200時(shí),隨著“視覺停用詞”濾除數(shù)目增加,使得一些代表性較強(qiáng)的視覺單詞被去除,導(dǎo)致圖像檢索MAP值逐漸降低,并最終低于未去除“視覺停用詞”的MAP值。而視覺詞典規(guī)模M發(fā)生變化時(shí),濾除“視覺停用詞”的最佳數(shù)目也會(huì)隨著變化,當(dāng)M較小時(shí),聚類準(zhǔn)確率較低,使得包含目標(biāo)信息的視覺單詞中噪聲SIFT特征數(shù)目較多,“視覺停用詞”數(shù)目較少,因此單詞停用率較低;隨著詞典規(guī)模M逐漸變大,聚類準(zhǔn)確率隨之增加,使得包含目標(biāo)信息的視覺單詞中噪聲SIFT特征數(shù)目逐漸減少,“視覺停用詞”的數(shù)目逐漸增加,因此視覺單詞停用率逐步增加。而且不同的圖像集中背景噪聲均不一樣,因此,在具體應(yīng)用時(shí)需根據(jù)實(shí)際情況設(shè)置濾除“視覺停用詞”的數(shù)目。然后,在詞典規(guī)模為10000,去除“視覺停用詞”數(shù)目S=1200的情況下對(duì)查詢圖像進(jìn)行檢索,將初始檢索結(jié)果與平均擴(kuò)展查詢方法(AQE)、K近鄰重排序方法(K-NearestNeighborsRe-ranking,KNNR)、區(qū)分?jǐn)U展查詢方法(DiscriminativeQueryExpansion,DQE)和本發(fā)明的基于圖結(jié)構(gòu)查詢擴(kuò)展方法(Graph-BasedQueryExpansion,GBQE)進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果如表2所示。表2不同查詢擴(kuò)展方法的圖像檢索MAP值對(duì)比(%)從表2中不難看出,經(jīng)過查詢擴(kuò)展后的檢索MAP值均高于初始檢索結(jié)果,說明查詢擴(kuò)展方法能利用初始檢索結(jié)果中的有用信息,以此提高檢索性能。其中,AQE利用初始檢索結(jié)果的前k幅圖像的特征平均值作為新的查詢實(shí)例進(jìn)行檢索,而KNNR方法分別對(duì)這k幅圖像進(jìn)行擴(kuò)展查詢,更為有效地利用了擴(kuò)展圖像的細(xì)節(jié)信息,但是AQE和KNNR方法依賴于較高的初始準(zhǔn)確率,沒有分析新的查詢實(shí)例與查詢圖像之間的相關(guān)性。DQE通過線性支持向量機(jī)(SupportVectorMachine,SVM)分析擴(kuò)展項(xiàng)與查詢圖像的相關(guān)性,并根據(jù)相關(guān)性大小為其分配權(quán)重,減少無關(guān)擴(kuò)展項(xiàng)的負(fù)面影響,檢索性能優(yōu)于AQE和KNNR方法,然而DQE僅考慮了查詢圖像與擴(kuò)展項(xiàng)的單向相關(guān)性,并沒有考慮利用擴(kuò)展項(xiàng)是否能檢索到查詢圖像。GBQE方法根據(jù)訓(xùn)練圖像的互相關(guān)圖像構(gòu)建連接圖,定義圖像對(duì)的k近鄰中包含相同近鄰的數(shù)目作為連接權(quán)重,降低了圖像中噪聲對(duì)連接權(quán)重的影響,然后將與查詢圖像相關(guān)的密度最大子圖的頂點(diǎn)圖像作為擴(kuò)展項(xiàng)進(jìn)行擴(kuò)展查詢,有效去除了無關(guān)擴(kuò)展項(xiàng)對(duì)檢索結(jié)果的影響,此外,連接圖可離線構(gòu)造,減少了在線檢索時(shí)間,并可以對(duì)新的查詢圖像進(jìn)行增量更新。實(shí)驗(yàn)結(jié)果表明GBQE方法檢索性能優(yōu)于其它方法。為進(jìn)一步驗(yàn)證本文方法的性能,從Paris6K數(shù)據(jù)庫中隨機(jī)選取1000幅圖片作為干擾圖像,將本發(fā)明方法(EVD+GBQE)與基于空間特征擴(kuò)展和區(qū)分?jǐn)U展查詢方法(SPAUG+DQE)、基于上下文近義詞和查詢擴(kuò)展圖像檢索方法(CSVW+QE)和基于顯著度分析的圖像檢索方法(S-sim)進(jìn)行試驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果如圖7所示:對(duì)比圖7中的數(shù)據(jù)可知,采用本發(fā)明方法(EVD+GBQE)較之其它三種方法有更好的表現(xiàn)。S-sim方法通過對(duì)圖像顯著區(qū)域分析,有效降低了圖像背景噪聲的不利影響,由于沒有利用初始檢索結(jié)果對(duì)查詢圖像進(jìn)行有效擴(kuò)展,加入大量干擾圖像后其檢索性能明顯下降;CSVW+QE方法利用視覺單詞的上下文信息增強(qiáng)單詞對(duì)圖像內(nèi)容的表達(dá)能力,然而CSVW+QE依賴較高的初始查準(zhǔn)率,當(dāng)無關(guān)圖像增加時(shí),其檢索性能逐漸下降;SPAUG+DQE結(jié)合視覺單詞的上下文信息對(duì)局部特征進(jìn)行擴(kuò)展,并根據(jù)查詢圖像與擴(kuò)展項(xiàng)的相關(guān)性大小分配權(quán)重,降低了無關(guān)擴(kuò)展項(xiàng)的不利影響,使得其抗干擾能力強(qiáng)于CSVW+QE和S-sim,但是一幅圖像包含大量的局部特征,對(duì)局部特征進(jìn)行擴(kuò)展的計(jì)算和時(shí)間開銷均較大,導(dǎo)致實(shí)用性不強(qiáng);EVD+GBQE則采用無需迭代尋優(yōu)的聚類方法生成視覺詞典,提高了詞典生成效率,再利用卡方模型濾除不包含目標(biāo)信息的視覺單詞,增強(qiáng)了詞典的語義分辨能力,然后通過連接圖查找與查詢圖像相關(guān)的圖像作為擴(kuò)展項(xiàng)并進(jìn)行擴(kuò)展查詢,根據(jù)擴(kuò)展查詢結(jié)果對(duì)初始檢索結(jié)果重排序,實(shí)驗(yàn)結(jié)果表明,EVD+GBQE在復(fù)雜環(huán)境下仍具有較好的表現(xiàn),實(shí)用性更強(qiáng)。圖8給出了本文方法在Oxford5K+Paris6K數(shù)據(jù)庫上的圖像檢索結(jié)果,不難看出,本發(fā)明可以將初始檢索結(jié)果中無關(guān)圖像剔除,從而檢索得到更多與查詢圖像相關(guān)的圖像。以上所述僅為本發(fā)明的較佳實(shí)施例,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1