亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法與流程

文檔序號(hào):12666651閱讀:198來(lái)源:國(guó)知局
一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法與流程

本發(fā)明涉及計(jì)算機(jī)視覺(jué)和圖像檢索領(lǐng)域,具體涉及一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法。



背景技術(shù):

隨著圖像處理技術(shù)在醫(yī)學(xué)領(lǐng)域的應(yīng)用日益廣泛,每天都會(huì)產(chǎn)生大量的醫(yī)學(xué)圖像,如CT圖像、B超圖像、MRI圖像等,它們是臨床診斷治療和醫(yī)學(xué)圖像研究的重要依據(jù)。如何對(duì)這些醫(yī)學(xué)圖像進(jìn)行有效管理,從中檢索中醫(yī)生需要的信息,是當(dāng)今醫(yī)學(xué)圖像研究方面的重要課題。傳統(tǒng)基于內(nèi)容的醫(yī)學(xué)圖像檢索(CBMIR)方法是順序地將查詢(xún)圖像與數(shù)據(jù)庫(kù)中圖像逐個(gè)進(jìn)行比對(duì),其線(xiàn)性復(fù)雜性導(dǎo)致其在現(xiàn)實(shí)環(huán)境中存在著低效率和低擴(kuò)展性等缺點(diǎn),同時(shí)提取特征為底層視覺(jué)特征,它與高層的語(yǔ)義特征之間存在著語(yǔ)義鴻溝,而且通常具有高維度,計(jì)算難度較大等難題。

受深度學(xué)習(xí)及卷積神經(jīng)網(wǎng)絡(luò)在視覺(jué)檢索任務(wù)及在應(yīng)對(duì)像素級(jí)信息與人類(lèi)感知語(yǔ)義信息關(guān)聯(lián)之間問(wèn)題上的突出性能表現(xiàn),越來(lái)越多的注意力轉(zhuǎn)移到深度網(wǎng)絡(luò)中。但醫(yī)學(xué)圖像具有其特別之處:大部分醫(yī)學(xué)圖像都是灰度級(jí)且醫(yī)學(xué)圖像中大部分有價(jià)值的信息都包含在很小的局部區(qū)域內(nèi),如異常或惡性腫瘤等。不同于生活中的其它圖像,醫(yī)學(xué)圖像自身的特殊性限制了深度網(wǎng)絡(luò)的可用性,在涉及醫(yī)學(xué)圖像檢索方法時(shí),須充分考慮醫(yī)學(xué)圖像的全局特性和局部特性。

雖然卷積神經(jīng)網(wǎng)絡(luò)可以提取醫(yī)學(xué)圖像豐富的語(yǔ)義信息,更好地描述圖像,但由于CNN提取圖像特征都是高維的且通常是全局特征表達(dá),對(duì)醫(yī)學(xué)圖像檢索任務(wù)中具有區(qū)分性的特征不能有效地提取,因此需要在此基礎(chǔ)上對(duì)醫(yī)學(xué)圖像做分塊處理并對(duì)卷積神經(jīng)網(wǎng)絡(luò)框架進(jìn)行必要的改進(jìn),同時(shí)結(jié)合傳統(tǒng)方法,進(jìn)一步提高醫(yī)學(xué)圖像檢索的精度和準(zhǔn)確度。



技術(shù)實(shí)現(xiàn)要素:

(一)本發(fā)明要解決的技術(shù)問(wèn)題

本發(fā)明的目的在于針對(duì)上述已有的醫(yī)學(xué)圖像檢索技術(shù)缺陷,提出一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法。在“粗”檢索階段,采用BING(Binarized Normed Gradients)目標(biāo)建議算法檢測(cè)具有顯著對(duì)象的區(qū)域,通過(guò)在深度卷積網(wǎng)絡(luò)架構(gòu)中引入部分均值Pooling,可提取出基于區(qū)域的顯著區(qū)分性特征并降低特征維度,再聚合形成一個(gè)全局特征表達(dá)。同時(shí),在特征向量量化過(guò)程中,使用乘積量化算法來(lái)解決特征向量間相似性度量計(jì)算高復(fù)雜度問(wèn)題。“細(xì)”檢索階段,借助Radon變換可將圖像在多角度做積分投影,獲取圖像更多細(xì)節(jié)信息的特性,將“粗”檢索中得到的Top50圖像經(jīng)過(guò)Radon變換生成Radon條碼(RBC),經(jīng)過(guò)相似性度量從而達(dá)到更精確檢索?!按帧睓z索與“細(xì)”檢索相結(jié)合的方法,大大提高醫(yī)學(xué)圖像檢索的準(zhǔn)確率,克服了直接使用卷積神經(jīng)網(wǎng)絡(luò)帶來(lái)的特征區(qū)分性不強(qiáng),特征維度高等醫(yī)學(xué)圖像檢索問(wèn)題。

(二)本發(fā)明的技術(shù)方案

一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法,其特征在于,包含如下步驟:

步驟一:基于卷積神經(jīng)網(wǎng)絡(luò)的“粗”檢索

(1)將醫(yī)學(xué)圖像數(shù)據(jù)集中的所有圖像采用統(tǒng)一尺寸;

(2)將圖像數(shù)據(jù)集及其對(duì)應(yīng)的類(lèi)別標(biāo)簽信息分為訓(xùn)練集樣本和測(cè)試集樣本兩部分,每個(gè)樣本集中每個(gè)樣本均包含一圖像及其對(duì)應(yīng)的類(lèi)別標(biāo)簽;

(3)采用CaffeNet基本網(wǎng)絡(luò)架構(gòu),構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)包括輸入層、卷積層、Pooling層、全連接層和輸出層;在pool5層生成的每個(gè)特征映射中對(duì)卷積神經(jīng)網(wǎng)絡(luò)pool5層的響應(yīng)做降序排列;將卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中引入兩階段部分均值pooling;

(4)依托構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),輸入訓(xùn)練集樣本進(jìn)行訓(xùn)練得到深度卷積神經(jīng)網(wǎng)絡(luò)模型;

(5)首先采用BING目標(biāo)建議算法對(duì)輸入數(shù)據(jù)庫(kù)圖像做分塊處理,將分塊后的圖像輸入到上述卷積神經(jīng)網(wǎng)絡(luò)模型中,得到與其對(duì)應(yīng)的圖像全局特征向量表達(dá),經(jīng)過(guò)乘積量化處理,當(dāng)給定一張查詢(xún)圖像,便可獲取查詢(xún)圖像所屬類(lèi)別并輸出Top50與查詢(xún)圖像最相似的數(shù)據(jù)庫(kù)中圖像;

步驟二:基于Radon變換的“細(xì)”檢索

對(duì)步驟一中獲得的Top50圖像,通過(guò)Radon變換,生成Radon條碼即RBC,計(jì)算查詢(xún)圖像RBC和數(shù)據(jù)庫(kù)圖像RBC之間的漢明距離,選擇出與查詢(xún)圖像最相似圖像,具體如下:

(1)將查詢(xún)圖像及Top50圖像均降采樣到固定分辨率;

(2)使用Radon變換獲得投影;

(3)通過(guò)改變投影角度獲得不同的投影,然后基于“局部”閾值二值化投影,生成代碼片段;最后,所有代碼片段被連接以生成該圖像的RBC;

(4)對(duì)比查詢(xún)圖像與Top50某一圖像之間的RBC漢明距離,如果距離最小,則認(rèn)為二者最相似,以此得到Top10圖像檢索結(jié)果。

更具體包含如下步驟:

步驟一:基于卷積神經(jīng)網(wǎng)絡(luò)的“粗”檢索

(1)采用Center-crop方法將醫(yī)學(xué)圖像數(shù)據(jù)集中的所有圖像采用統(tǒng)一尺寸,這樣可以保證圖片不變形的條件下突出醫(yī)學(xué)圖像主體;

(2)將圖像數(shù)據(jù)集及其對(duì)應(yīng)的類(lèi)別標(biāo)簽信息分為訓(xùn)練集樣本和測(cè)試集樣本兩部分,每個(gè)樣本集中每個(gè)樣本均包含一圖像及其對(duì)應(yīng)的類(lèi)別標(biāo)簽;

(3)采用CaffeNet基本網(wǎng)絡(luò)架構(gòu)(共七層網(wǎng)絡(luò)),構(gòu)建本發(fā)明所需的深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)包括輸入層、卷積層、Pooling層、輸出層等,網(wǎng)絡(luò)結(jié)構(gòu)如圖2;

(4)依托構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),輸入訓(xùn)練集樣本進(jìn)行訓(xùn)練得到深度卷積神經(jīng)網(wǎng)絡(luò)模型;

(5)首先采用BING目標(biāo)建議算法對(duì)輸入數(shù)據(jù)庫(kù)圖像做分塊處理,將分塊后的圖像輸入到上述卷積神經(jīng)網(wǎng)絡(luò)模型中,即可得到與其對(duì)應(yīng)的圖像全局特征向量表達(dá),經(jīng)過(guò)乘積量化處理,當(dāng)給定一張查詢(xún)圖像,便可獲取查詢(xún)圖像所屬類(lèi)別并輸出Top50與查詢(xún)圖像最相似的數(shù)據(jù)庫(kù)中圖像。

上述的,(5)中由于輸入圖像存在多尺度、噪聲等問(wèn)題,而訓(xùn)練模型很難處理這些問(wèn)題。由于BING能夠有效地檢測(cè)目標(biāo)且具有較高的計(jì)算效率,故采用BING目標(biāo)建議算法對(duì)輸入數(shù)據(jù)庫(kù)圖像進(jìn)行區(qū)域建議,實(shí)現(xiàn)對(duì)圖像的分塊處理操作,分塊處理的好處在于可以提取顯著目標(biāo)區(qū)域,同時(shí)減少噪聲及背景干擾,對(duì)后續(xù)卷積神經(jīng)網(wǎng)絡(luò)提取顯著區(qū)域高區(qū)分性特征,描述顯著區(qū)域語(yǔ)義信息具有重要貢獻(xiàn)。

上述的,(5)中pool5層的每個(gè)特征映射是一個(gè)6*6的矩陣形式,其中每個(gè)矩陣元素編碼不同的位置信息,為了獲取pool5層的結(jié)構(gòu)信息,可通過(guò)連接36個(gè)元素響應(yīng)實(shí)現(xiàn),而位置不變性卻得不到滿(mǎn)足,因此在每個(gè)特征映射中對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型pool5層的響應(yīng)做降序排列,降序排列可以收集在不同位置處的有意義目標(biāo)的更高響應(yīng),減小了后續(xù)相似性度量計(jì)算受目標(biāo)位置方差的影響。

上述的,(3)中受醫(yī)學(xué)圖像自身特殊性限制,即醫(yī)學(xué)圖像中大部分有價(jià)值信息都包含在很小的局部區(qū)域內(nèi)。針對(duì)醫(yī)學(xué)圖像這一特性,在對(duì)醫(yī)學(xué)圖像做分塊操作和對(duì)特征響應(yīng)做降序排列的基礎(chǔ)上,將卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中引入兩階段部分均值pooling(見(jiàn)附圖2),對(duì)降序排列后的特征進(jìn)行重新整合,以形成緊湊且具區(qū)分性的特征表達(dá)。第一階段pooling主要是從特征映射中獲取最具區(qū)分性特征,消除特征表示中位置方差的負(fù)面影響,同時(shí)將特征變換到一個(gè)低維表達(dá);第二階段pooling將第一階段pooling從不同塊中提取出的區(qū)分性特征聚合形成全局特征表達(dá)。這種兩階段部分均值pooling規(guī)避了最大pooling和均值pooling的缺點(diǎn),并對(duì)它們的優(yōu)點(diǎn)進(jìn)行了優(yōu)化。

上述的,(5)中相似性度量過(guò)程中,引入乘積量化算法。傳統(tǒng)通過(guò)比較向量相似度的歐式距離存在兩個(gè)問(wèn)題,一是數(shù)據(jù)庫(kù)中一般含有的特征向量數(shù)目非常多,遍歷特征向量會(huì)花費(fèi)更多時(shí)間;其次,計(jì)算向量之間的歐氏距離也是復(fù)雜度和時(shí)間消耗很高的過(guò)程。而采用乘積量化的思想,則可以減少空間結(jié)構(gòu)的復(fù)雜度,經(jīng)過(guò)量化,任何空間中的點(diǎn)都可以用有限的幾個(gè)code word來(lái)表示,這樣可以加快量化速率。查詢(xún)時(shí),采用ADC(Asymmetric Distance Computation)計(jì)算方法,可有效提高查詢(xún)準(zhǔn)確率。

步驟二:基于Radon變換的“細(xì)”檢索

對(duì)步驟一中獲得的Top50圖像,通過(guò)Radon變換,生成Radon條碼(RBC),計(jì)算查詢(xún)圖像RBC和數(shù)據(jù)庫(kù)圖像RBC之間的漢明距離,選擇出與查詢(xún)圖像最相似圖像,具體如下:

(1)將查詢(xún)圖像及Top50圖像均降采樣到固定分辨率(根據(jù)實(shí)際需要自行設(shè)定);

(2)使用Radon變換獲得投影;

(3)通過(guò)改變投影角度獲得不同的投影,然后基于“局部”閾值二值化投影,生成代碼片段。最后,所有代碼片段被連接以生成該圖像的RBC;

(4)對(duì)比查詢(xún)圖像與Top50某一圖像之間的RBC漢明距離,如果距離最小,則認(rèn)為二者最相似,以此得到Top10圖像檢索結(jié)果。

上述的,(3)中投影角度越多,越多的圖片信息將包含在RBC編碼里。

上述的,(4)中由于越長(zhǎng)的RBC編碼越能更精確地表示圖像,但這會(huì)會(huì)造成更多的時(shí)間消耗,因此將步驟一中獲取的Top50小數(shù)據(jù)集圖像生成長(zhǎng)的RBC編碼,有助于快速、精確地檢索圖像。

(三)本發(fā)明的有益效果

(1)采用了基于卷積神經(jīng)網(wǎng)絡(luò)“粗”檢索+Radon變換“細(xì)”檢索相結(jié)合的方法,有效提高檢索準(zhǔn)確率;

(2)本發(fā)明在用深度卷積神經(jīng)網(wǎng)絡(luò)提取特征前,結(jié)合醫(yī)學(xué)圖像自身特點(diǎn),即有價(jià)值信息一般存在于很小的局部區(qū)域內(nèi),使用BING目標(biāo)建議算法對(duì)輸入數(shù)據(jù)庫(kù)圖像做分塊處理,可提取顯著目標(biāo)區(qū)域,同時(shí)消除噪聲及背景干擾的影響,對(duì)后續(xù)特征提取及檢索的準(zhǔn)確性產(chǎn)生有益效果;

(3)本發(fā)明采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,這樣的特征魯棒性好,且克服了傳統(tǒng)CBMIR方法底層視覺(jué)特征與高級(jí)主義特征間的語(yǔ)義“鴻溝”,具有較好檢索效果;

(4)在卷積神經(jīng)網(wǎng)絡(luò)pool5層后引入了兩階段部分均值pooling,對(duì)分塊后顯著性區(qū)域提取的特征重新整合,以提取醫(yī)學(xué)圖像中最具區(qū)分性的局部特征,降低了特征向量維度,使檢索的準(zhǔn)確性進(jìn)一步提高。同時(shí)將這些特征聚合成一個(gè)全局表達(dá),有利于提高計(jì)算能力和檢索速度;

(5)在相似性度量過(guò)程中,相較于傳統(tǒng)歐式距離計(jì)算,采用乘積量化算法可減少計(jì)算復(fù)雜度和時(shí)間消耗,采用ADC(Asymmetric Distance Computation)計(jì)算方法,可有效提高查詢(xún)準(zhǔn)確率;

(6)Radon變換“細(xì)”檢索過(guò)程中,投影角度越多,越多圖像信息將包含進(jìn)Radon條碼(RBC)中,越長(zhǎng)的RBC可以更好地表示圖像,但這會(huì)帶來(lái)更多的時(shí)間消耗,因此只對(duì)卷積神經(jīng)網(wǎng)絡(luò)“粗”檢索的Top50圖像生成長(zhǎng)的RBC,可有效地縮短計(jì)算時(shí)間,并提高檢索精度。

附圖說(shuō)明

圖1為本發(fā)明一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法流程圖。

圖2為引入部分均值Pooling后的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖。

圖3為量化誤差與參數(shù)K*和m的關(guān)系圖。

圖4為RBC生成過(guò)程示意圖。

圖5為醫(yī)學(xué)圖像檢索效果圖。

具體實(shí)施方式

為使本發(fā)明的目的、技術(shù)方案和相關(guān)優(yōu)點(diǎn)更加清晰明了,下面結(jié)合附圖和具體實(shí)施例,對(duì)本發(fā)明作進(jìn)一步詳細(xì)的說(shuō)明。

本發(fā)明提出一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法,該方法通過(guò)對(duì)輸入圖像使用BING目標(biāo)建議算法做分塊處理后,輸入構(gòu)建的深度卷積網(wǎng)絡(luò),同時(shí)在網(wǎng)絡(luò)中引入部分均值Pooling提取具有區(qū)分性的特征,在相似性度量過(guò)程中,引入乘積量化算法,有效減少計(jì)算復(fù)雜度,得到“粗”檢索結(jié)果,在此基礎(chǔ)上,使用Radon變換方法對(duì)“粗”檢索結(jié)果進(jìn)行更精確檢索,最終得到與查詢(xún)圖像最相似的Top10圖像。以下詳細(xì)說(shuō)明本發(fā)明方法的關(guān)鍵步驟。

請(qǐng)參閱圖1示出的本發(fā)明使用一種基于深度學(xué)習(xí)和Radon變換的醫(yī)學(xué)圖像檢索方法,所述方法包括以下步驟:

步驟1,將醫(yī)學(xué)圖像數(shù)據(jù)集中的所有圖像采用統(tǒng)一尺寸,然后將圖像數(shù)據(jù)集(含標(biāo)簽)中的部分圖像作為訓(xùn)練集D,其余圖像作為測(cè)試集T。

步驟2,利用CaffeNet網(wǎng)絡(luò)構(gòu)建深度卷積網(wǎng)絡(luò);

請(qǐng)參閱圖2所示卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),包含了一個(gè)七層深度卷積神經(jīng)網(wǎng)絡(luò),由于卷積神經(jīng)網(wǎng)絡(luò)提取的特征一般為全局特征而醫(yī)學(xué)圖像有價(jià)值的信息包含在局部區(qū)域,為使提取的特征更具有區(qū)分性,對(duì)pool5層后的特征采取降序排列,以聚集不同位置處有意義目標(biāo)的高響應(yīng)。

pool5層后引入了部分均值pooling層,以構(gòu)建緊湊且具有區(qū)分性的全局特征表達(dá)。第一階段pooling主要是從pool5層特征映射中獲取具有區(qū)分性特征Y,其定義如下Y={yi|i=1,2...,M},其中,{.|.}表示集合運(yùn)算,yi表示第i個(gè)特征映射上的區(qū)分性特征,

K1代表每個(gè)特征映射中排名最靠前的響應(yīng)的數(shù)量(此數(shù)量根據(jù)特征映射不同,由網(wǎng)絡(luò)設(shè)定),xi,j經(jīng)過(guò)降序排列形成x′i,j,xi,j表示第i個(gè)特征映射上的第j個(gè)特征。表示pool5輸出的M個(gè)特征映射,而Xi={xi,j|j=1,2,...,h*w}表示第i個(gè)特征映射,h和w分別為特征映射的高和權(quán)重。

第二階段pooling是將第一階段pooling獲得的特征聚合形成一個(gè)全局的特征表達(dá):

表示經(jīng)過(guò)第一階段pooling后所有塊的特征,中每行表示每塊中Y的特征,yi,j表示第i個(gè)pooling特征Y中的yj,N表示提取圖像塊個(gè)數(shù)。對(duì)于中每一列,y1,j~yN,j通過(guò)降序排列形成y′1,j~y′N,j以用來(lái)計(jì)算Z={zi|i=1,2,...,M},

K2表示每一列中具有顯著目標(biāo)塊的個(gè)數(shù)(此數(shù)量根據(jù)輸入圖像不同及BING算法處理結(jié)果不同由網(wǎng)絡(luò)設(shè)定)。

步驟3,將步驟1中的訓(xùn)練集D和測(cè)試集T輸入到步驟2構(gòu)建的深度卷積網(wǎng)絡(luò)中,得到深度卷積神經(jīng)網(wǎng)絡(luò)模型。

步驟4,使用BING目標(biāo)建議算法對(duì)所有輸入數(shù)據(jù)庫(kù)圖像做分塊操作,依托步驟3生成的深度卷積神經(jīng)網(wǎng)絡(luò)模型,將分塊操作后的圖像輸入深度卷積網(wǎng)絡(luò)中,得到全局特征向量表達(dá)。

步驟5,步驟4得到的全局特征向量,經(jīng)由乘積量化算法處理后,得到與查詢(xún)圖像最相似的Top50圖像。過(guò)程如下:

(1)將步驟3得到的D=512維全局特征向量劃分為m個(gè)子塊,則子空間維度D*=D/m,其中,D為m的整數(shù)倍且1<m<512;

(2)對(duì)數(shù)據(jù)子空間聚類(lèi)操作,得到K*個(gè)聚類(lèi)中心,每個(gè)聚類(lèi)中心為每一個(gè)小塊里面向量的代表,最后高維向量編碼形成m維的聚類(lèi)索引,其中K*和m是通過(guò)MSE函數(shù)為指標(biāo)確定的,MSE函數(shù)值越小則量化誤差越小,量化效果越好。MSE函數(shù)定義如下:

MSE(qt)=∫p(n)d(q(n),n)2dn,x為空間中任一向量,q(n)為量化函數(shù),p(n)為點(diǎn)n的概率,1<t<m。MSE函數(shù)值與(K*,m)的函數(shù)關(guān)系如圖3所示。

(3)查詢(xún)時(shí),采用ADC(Asymmetric Distance Computation)計(jì)算方法,得到與查詢(xún)圖像最相近的Top50圖像,如圖5所示。

步驟6,將步驟5得到的Top50圖像通過(guò)Radon變換生成Radon條碼(RBC),請(qǐng)參閱圖4示出的RBC生成示意圖。首先將Top50圖像降采樣到固定分辨率(根據(jù)實(shí)際需要自行設(shè)定),然后應(yīng)用Radon變換R(ρ,θ)獲得投影,R(ρ,θ)表示如下:

其中,ρ為(x,y)平面內(nèi)直到到原點(diǎn)的距離,θ為投影角度,f(x,y)為圖像上某一點(diǎn)(x,y)的像素點(diǎn)灰度值,δ(·)為狄拉克函數(shù)。通過(guò)改變投影角度獲得不同的投影,然后基于“局部”閾值二值化投影,生成代碼片段。最后,所有代碼片段被連接以生成該圖像的RBC。

步驟7,由于投影角度越多,生成的Radon條碼中包含的圖像信息越豐富,而Radon條碼則會(huì)越長(zhǎng),需花費(fèi)的時(shí)間也越多,故只對(duì)步驟5得到的Top50圖像生成長(zhǎng)的Radon條碼,這樣可以提高準(zhǔn)確率并減少時(shí)間消耗。對(duì)比查詢(xún)圖像生成Radon條碼與Top50圖像生成Radon條碼之間的漢明距離,當(dāng)二者之間的漢明距離越小,則表明對(duì)應(yīng)圖像間的相似性越大,以此可得到與查詢(xún)圖像最相似Top10圖像,即得到圖像檢索結(jié)果,如圖5所示。

本發(fā)明利用深度卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力,提取醫(yī)學(xué)圖像深層具有區(qū)分性特征,克服了傳統(tǒng)方法中利用圖像底層特征而帶來(lái)的特征表達(dá)能力不強(qiáng)、檢索精度低等問(wèn)題,采用分塊操作有助于提取顯著目標(biāo)區(qū)域中的區(qū)分性特征,改進(jìn)后的網(wǎng)絡(luò)框架優(yōu)化了醫(yī)學(xué)圖像自身局限性對(duì)深度網(wǎng)絡(luò)可用性的限制,并通過(guò)“粗”檢索與“細(xì)”檢索相結(jié)合的方式,增強(qiáng)了特征的表達(dá)能力,大大提高醫(yī)學(xué)圖像檢索的準(zhǔn)確率。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1