本發(fā)明涉及一種眼象圖提取方法,特別是關(guān)于一種真彩色眼象圖白睛區(qū)域的完整提取方法。
背景技術(shù):
近一年深度卷積神經(jīng)網(wǎng)絡(luò)在圖像和語音識別技術(shù)上有了劃時代意義的應用,特別是在醫(yī)療影像的預測診斷方向不斷有各種成果發(fā)表,醫(yī)療影像圖主要是灰度圖像,現(xiàn)有的鞏膜識別和虹膜識別及眼底圖像識別主要針對的也是灰度圖像和偽彩色圖像。對于處理自然光的眼象圖,主要對于老年人眼象圖和病癥嚴重的被扒開的眼象圖內(nèi)的特征進行提取分析,特征提取的前提是首先把各個視角的白睛區(qū)域分割完整。而采用各種邊緣檢測算法檢測都會出現(xiàn)邊緣斷開或者閾值不合適的問題,以及利用傳統(tǒng)卷積訓練提取白睛的邊緣受到模糊或遮擋影響而不完整。
眼科醫(yī)學中翼狀胬肉、瞼裂斑、角膜老年環(huán)等眼科疾病都有相關(guān)的文獻描述,更有很多研究者提出了根據(jù)眼底圖像預測判斷糖尿病等疾病,無論是虹膜圖像還是眼底圖像都只關(guān)注眼睛的部分區(qū)域和部分特征。但根據(jù)傳統(tǒng)醫(yī)學和現(xiàn)代醫(yī)學的理論,眼睛白睛區(qū)域內(nèi)的脈管形狀和顏色、斑塊的形狀和顏色或其他特征及白睛底色都和醫(yī)學病癥具有相關(guān)性。為了系統(tǒng)對病癥的預測更精準,所以需要分析白睛區(qū)域更多特征。
技術(shù)實現(xiàn)要素:
針對上述問題,本發(fā)明的目的是提供一種真彩色眼象圖白睛區(qū)域的完整提取方法,該方法能有效完整的提取白睛區(qū)域,準確率較高。
為實現(xiàn)上述目的,本發(fā)明采取以下技術(shù)方案:一種真彩色眼象圖白睛區(qū)域的完整提取方法,其特征在于包括以下步驟:1)對自然光的不同視角24位真彩色眼象圖訓練好地邊緣提取模型進行白睛和黑睛完整區(qū)域的邊緣提取;2)利用提取出的白睛和黑睛完整區(qū)域的邊緣二值圖,經(jīng)過膨脹、腐蝕的形態(tài)學變換后,得到完全封閉的邊緣二值圖,經(jīng)過填充空洞計算最大連通區(qū)域,然后把二值圖映射到原始24位真彩色眼象圖像上,獲得原始彩色rgb眼象圖的白睛和黑睛的完整區(qū)域;3)采用訓練好的具有自動快速預測黑睛位置的深度卷積神經(jīng)網(wǎng)絡(luò)模型即黑睛位置預測模型,計算每張眼象圖的黑睛外接矩形的位置坐標信息,快速定位黑睛位置;4)在步驟2)的黑睛和白睛的整體完整區(qū)域上利用步驟3)獲取的黑睛的位置坐標信息,粗分割出黑睛區(qū)域,然后對粗分割的黑睛區(qū)域的r通道數(shù)據(jù)迭代地利用hough檢測圓計算得到黑睛的準確的中心和半徑,精確分割出黑睛區(qū)域;5)將原始彩色rgb眼象圖像分類出眼象的視角方位信息,根據(jù)眼象的視角方位信息和步驟4)得到的黑睛區(qū)域在黑睛和白睛的整體完整區(qū)域上去除黑睛區(qū)域圖像,得到白睛區(qū)域。
進一步,所述步驟1)中,利用訓練過的模擬人腦識別邊緣的深度神經(jīng)網(wǎng)絡(luò)模型,自動預測各種24位真彩色眼象圖像白睛和黑睛的外邊緣,得到24位真彩色眼象圖白睛和黑睛整體的近乎完整外邊緣的二值圖。
進一步,所述深度神經(jīng)網(wǎng)絡(luò)模型為邊緣提取模型,它包含多個卷積層、激勵層、池化層、全連接層和dropout層。
進一步,所述邊緣提取模型是將預先采集到的上萬級的24位真彩色眼象圖數(shù)據(jù)制作成標簽數(shù)據(jù),然后把訓練集的原始24位真彩色眼象圖像和標簽數(shù)據(jù)同時輸入到一深度卷積神經(jīng)網(wǎng)絡(luò)中,采用gpu服務器集群訓練獲得邊緣提取模型,主要是訓練圖像的邊緣信息,訓練過程中根據(jù)標簽數(shù)據(jù)最終獲取得到想要的邊緣信息。
進一步,所述邊緣提取模型的訓練需要兩種輸入數(shù)據(jù):原始rgb圖和對應的標簽圖;訓練集的每張圖像都對應一張標簽圖像,每張標簽圖像為原始rgb圖的想要保留的邊緣灰度圖像,在原圖上描繪出白睛和黑睛的封閉的外邊緣,然后提取出描繪的輪廓圖像并灰度化該輪廓圖像為對應的標簽圖像。
進一步,所述步驟1)中,采用直接利用深度卷積神經(jīng)網(wǎng)絡(luò)模型提取白睛輪廓邊緣作為一個完整外輪廓邊緣。
進一步,所述步驟3)中,所述黑睛位置預測模型是快速目標檢測的深度卷積神經(jīng)網(wǎng)絡(luò)模型,也是將預先采集到的上萬級的24位真彩色眼象圖數(shù)據(jù)制作成標簽數(shù)據(jù),然后把待處理的原始彩色rgb眼象圖像和標簽數(shù)據(jù)同時輸入到另一深度卷積神經(jīng)網(wǎng)絡(luò)中,采用gpu服務器集群訓練得到。
進一步,所述黑睛位置預測模型網(wǎng)絡(luò)訓練時的輸入數(shù)據(jù)為:原始rgb圖和對應的標簽文件,每個標簽文件中記錄黑睛外接矩形坐標;利用畫筆在原始rgb圖上畫出外接矩形,再得到黑睛外接矩形的坐標位置。
進一步,所述步驟5)中,眼象的視角方位信息為:左右眼的正視、上視、下視、左視、右視以及黑睛和白睛的相對位置。
進一步,所述步驟5)中,從眼象圖像中分割提取出完整的白睛部分,包括白睛輪廓和輪廓內(nèi)的圖像信息。
本發(fā)明由于采取以上技術(shù)方案,其具有以下優(yōu)點:1、本發(fā)明引入深度卷積神經(jīng)網(wǎng)絡(luò),采用gpu服務器集群訓練獲得邊緣提取模型,邊緣提取模型是一個遞進的開放系統(tǒng),隨著采集有效數(shù)據(jù)量越大,網(wǎng)絡(luò)訓練得到模型適用性越好,提取得到白睛區(qū)域越準確完整,后續(xù)特征提取及特征分析越完備。2、本發(fā)明采用黑睛位置預測模型,該模型在cpu上使用時速度快而且準確,并且不受光照、遮擋、視角的影響能快速定位出黑睛的外接矩形位置坐標。3、本發(fā)明采用的兩個不同的深度卷積神經(jīng)網(wǎng)絡(luò)模型都是利用上萬級大數(shù)據(jù)的眼象圖片訓練得到,邊緣提取模型和黑睛位置預測模型的引入為助力傳統(tǒng)圖像處理算法提高準確率,并且兩個網(wǎng)絡(luò)模型隨著訓練數(shù)據(jù)量的增大將更準確。
附圖說明
圖1是本發(fā)明的整體流程示意圖;
圖2是本發(fā)明白睛提取過程示意圖;
圖3a是本發(fā)明眼象圖的正視方位示意圖;
圖3b是本發(fā)明眼象圖的左視方位示意圖;
圖3c是本發(fā)明眼象圖的右視方位示意圖;
圖3d是本發(fā)明眼象圖的上視方位示意圖;
圖3e是本發(fā)明眼象圖的下視方位示意圖;
圖4是本發(fā)明應用時的原始眼象圖和提取的白睛區(qū)域圖;
圖5是本發(fā)明應用時提取的白睛結(jié)果圖。
具體實施方式
下面結(jié)合附圖和實施例對本發(fā)明進行詳細的描述。
如圖1、圖2所示,本發(fā)明提供一種真彩色眼象圖白睛區(qū)域的完整提取方法,其包括以下步驟:
1)對自然光的不同視角24位真彩色眼象圖采用訓練好地邊緣提取模型進行白睛和黑睛完整區(qū)域的邊緣提?。豪糜柧氝^的模擬人腦識別邊緣的深度神經(jīng)網(wǎng)絡(luò)模型,來自動預測各種24位真彩色眼象圖像白睛和黑睛的外邊緣,得到24位真彩色眼象圖白睛和黑睛整體的近乎完整外邊緣的二值圖。
該深度神經(jīng)網(wǎng)絡(luò)模型為邊緣提取模型,它包含多個卷積層、激勵層、池化層、全連接層和dropout層。使用該邊緣提取模型可以確保白睛和黑睛整體的外邊緣近乎完整的預測出來,實現(xiàn)黑睛和白睛完整區(qū)域的預測。
其中,邊緣提取模型是將預先采集到的上萬級的24位真彩色眼象圖數(shù)據(jù)制作成標簽數(shù)據(jù),然后把訓練集的原始24位真彩色眼象圖像和標簽數(shù)據(jù)同時輸入到一深度卷積神經(jīng)網(wǎng)絡(luò)中,采用gpu服務器集群訓練獲得邊緣提取模型,主要是訓練圖像的邊緣信息,訓練過程中根據(jù)標簽數(shù)據(jù)最終獲取得到想要的邊緣信息;在cpu上借助邊緣提取模型獲取更完整和光滑的邊緣二值圖像。
邊緣提取模型的訓練需要兩種輸入數(shù)據(jù):原始rgb圖和對應的標簽圖。訓練集的每張圖像都對應一張標簽圖像,每張標簽圖像為原始rgb圖的想要保留的邊緣灰度圖像,利用畫筆在原圖上描繪出白睛和黑睛的封閉的外邊緣,然后提取出描繪的輪廓圖像并灰度化該輪廓圖像為對應的標簽圖像。
2)利用提取出的白睛和黑睛整體的完整外邊緣二值圖,經(jīng)過膨脹、腐蝕的形態(tài)學變換后,得到完全封閉的邊緣二值圖,經(jīng)過填充空洞計算最大連通區(qū)域,然后把二值圖映射到原始24位真彩色眼象圖像上,獲得原始彩色rgb眼象圖的白睛和黑睛的完整區(qū)域。
3)采用訓練好的具有自動快速預測黑睛位置的深度卷積神經(jīng)網(wǎng)絡(luò)模型即黑睛位置預測模型,計算每張眼象圖的黑睛外接矩形的位置坐標信息,快速定位黑睛位置;
黑睛位置預測模型是快速目標檢測的深度卷積神經(jīng)網(wǎng)絡(luò)模型,也是將預先采集到的上萬級的24位真彩色眼象圖數(shù)據(jù)制作成標簽數(shù)據(jù),然后把待處理的原始彩色rgb眼象圖像和標簽數(shù)據(jù)同時輸入到另一深度卷積神經(jīng)網(wǎng)絡(luò)中,采用gpu服務器集群訓練得到,它的優(yōu)勢是在cpu上使用時速度快而且準確,并且不受光照、遮擋、視角的影響能快速定位出黑睛的外接矩形位置坐標:黑睛的起點(x,y)以及黑睛的長、寬。
黑睛位置預測模型網(wǎng)絡(luò)訓練時的輸入數(shù)據(jù)為:原始rgb圖和對應的標簽文件,每個標簽文件中記錄黑睛外接矩形坐標。為了得到黑睛外接矩形的坐標數(shù)據(jù),利用畫筆在原始rgb圖上畫出外接矩形,再得到矩形的坐標位置。
4)在步驟2)的黑睛和白睛的整體完整區(qū)域上利用步驟3)獲取的黑睛的位置坐標信息,粗分割出黑睛區(qū)域,然后對粗分割的黑睛區(qū)域的r通道數(shù)據(jù)迭代地利用hough檢測圓計算得到黑睛的準確的中心和半徑,精確分割出黑睛區(qū)域;
5)將原始彩色rgb眼象圖像分類出眼象的視角方位信息(如圖3a~圖3e所示):左右眼的正視、上視、下視、左視、右視以及黑睛和白睛的相對位置;根據(jù)眼象的視角方位信息和步驟4)得到的黑睛區(qū)域在黑睛和白睛的整體完整區(qū)域上去除黑睛區(qū)域圖像,得到白睛區(qū)域。
上述步驟1)中,可以直接利用深度卷積神經(jīng)網(wǎng)絡(luò)模型提取白睛輪廓邊緣,替代白睛和黑睛整體作為一個完整外輪廓邊緣提取。
上述步驟5)中,從眼象圖像中分割提取出完整的白睛部分,包括白睛輪廓和輪廓內(nèi)的圖像信息。本發(fā)明提取的是24位真彩色眼象圖的白睛區(qū)域,這樣完整保留了顏色、形態(tài)等特征,并適用于所有人群拍攝的眼象圖。在圖像獲取設(shè)備中模擬自然光照射,主要保留每只眼睛的正視、左視、右視、上視、下視5個視角的圖像,要求拍攝時每個視角盡量把白睛扒開以暴露更多的白睛區(qū)域。
綜上所述,本發(fā)明應用時,根據(jù)提取出的眼象圖白睛區(qū)域的白睛底色、白睛上的脈管形狀和顏色、瞼裂斑塊或其他特征的形狀和顏色等生物特征分析和預測相關(guān)的疾病是一種全新的應用,而要分析這些特征首先準確的分割出完整的白睛區(qū)域來,如圖4所示。
本發(fā)明的優(yōu)勢是引入深度卷積神經(jīng)網(wǎng)絡(luò),并訓練邊緣提取模型和黑睛定位模型,增加了白睛區(qū)域識別和提取的準確率,而且白睛區(qū)域分割的非常完整,保證不會因為眼睛被扒開引起外邊緣不規(guī)則或因病癥嚴重而使得外邊緣模糊,使得白睛提取不完整。特別是對于病癥比較嚴重眼象圖,如在白睛區(qū)域有黃色系或其他色系的斑塊、脈管分布密集的眼象圖,另外一些眼象有一些特殊的癥狀如翼狀胬肉、角膜老年環(huán)、瞼裂斑等特征,這些特征已經(jīng)把白睛區(qū)域或者黑睛區(qū)域本身的特征遮擋,還有一些老年人的眼象圖白睛區(qū)域的顏色與膚色接近,還存在很多干擾,如每個人的眼睛大小、睜開的形態(tài)差異很大,眼睫毛以及眼象內(nèi)部復雜特征,有些特征使得黑睛與白睛區(qū)域模糊,有些特征使得眼瞼和白睛連接處模糊分辨不清,這些都會影響白睛邊緣的準確提取。對于上述圖像,比較了采用傳統(tǒng)圖像算法和本發(fā)明方法提取白睛區(qū)域的效果,采用傳統(tǒng)圖像算法提取白睛區(qū)域。使用了ycrcb顏色空間和canny、log算子提取白睛邊緣。把眼象圖rgb值轉(zhuǎn)換到y(tǒng)crcb顏色空間,計算cr通道的閾值分割白睛,同時利用canny和log算子提取白睛的邊緣,但有些圖像分割效果不好。而采用活動輪廓法分割白睛區(qū)域,針對一些圖像分割效果也不好。為了獲取更多病癥信息,要求對每個視角中的圖都要準確的提取出完整的白睛區(qū)域,本發(fā)明為了解決各種圖像引起的提取白睛區(qū)域不完整的問題,在提取白睛的關(guān)鍵步驟中引入深度卷積神經(jīng)網(wǎng)絡(luò)模型,深度卷積神經(jīng)網(wǎng)絡(luò)是模擬人腦學習的人工智能的一種網(wǎng)絡(luò)結(jié)構(gòu),通過大數(shù)據(jù)訓練獲取預測模型,訓練得到的預測模型大大提高了白睛完整提取準確率(如圖5所示)。
上述各實施例僅用于說明本發(fā)明,各部件的結(jié)構(gòu)、尺寸、設(shè)置位置及形狀都是可以有所變化的,在本發(fā)明技術(shù)方案的基礎(chǔ)上,凡根據(jù)本發(fā)明原理對個別部件進行的改進和等同變換,均不應排除在本發(fā)明的保護范圍之外。