亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于條件隨機(jī)場(chǎng)的二維CT圖片中脂肪位置識(shí)別方法與流程

文檔序號(hào):12721225閱讀:574來(lái)源:國(guó)知局

本發(fā)明涉圖像識(shí)別技術(shù)領(lǐng)域,尤其涉及一種基于條件隨機(jī)場(chǎng)的二維CT圖片中脂肪位置識(shí)別方法。



背景技術(shù):

現(xiàn)有技術(shù)中,對(duì)二維CT圖片中脂肪的位置進(jìn)行識(shí)別一般使用馬爾科夫隨機(jī)場(chǎng)(Markov Random Fields,MRF)的方法。

MRF方法共包含四個(gè)步驟:

步驟一:對(duì)CT圖片中所有的像素點(diǎn)進(jìn)行隨機(jī)分類(lèi),以完成脂肪位置檢測(cè)的初始化。像素點(diǎn)共分為三類(lèi):皮下脂肪P,內(nèi)臟脂肪N及其他區(qū)域Q。

步驟二:首先,統(tǒng)計(jì)每個(gè)像素點(diǎn)周?chē)藗€(gè)像素點(diǎn)的種類(lèi)的數(shù)量。例如,一個(gè)像素點(diǎn)A周?chē)陌藗€(gè)像素從左至右,從上至下的種類(lèi)為[P,P,P,N,N,Q,Q,P]。所以,這個(gè)像素周?chē)灿?個(gè)P,2個(gè)N,2個(gè)Q。其次,對(duì)于像素點(diǎn)A,因?yàn)槠渲車(chē)疃嗟南袼仡?lèi)別為皮下脂肪P,所以將A的種類(lèi)判斷為皮下脂肪P。再次,對(duì)CT圖片中所有的像素點(diǎn)進(jìn)行以上的操作。至此,該CT圖片中所有像素點(diǎn)的種類(lèi)都進(jìn)行了更新。

步驟三:多次重復(fù)步驟二中的操作,對(duì)整個(gè)流程進(jìn)行迭代,以不斷改進(jìn)識(shí)別結(jié)果。迭代次數(shù)的選擇有兩種方案:一是人工給定一個(gè)次數(shù),如120次;二是不給定具體的迭代次數(shù),直到像素的分類(lèi)不再變化(收斂)為止。

步驟四:當(dāng)步驟三中的迭代完成時(shí),對(duì)最終像素的分類(lèi)進(jìn)行可視化,得到脂肪位置的識(shí)別結(jié)果??蓪⑵は轮緲?biāo)、內(nèi)臟脂肪標(biāo)記為不同顏色,其他區(qū)域保持原始狀態(tài)不標(biāo)記。

但是上述MRF方法只能應(yīng)用簡(jiǎn)單的像素信息對(duì)CT圖片中脂肪的位置進(jìn)行識(shí)別。當(dāng)CT圖片質(zhì)量正常時(shí),這些像素信息可以提供良好的識(shí)別信息,進(jìn)而得到良好的脂肪位置檢測(cè)結(jié)果。當(dāng)CT圖片具有大量噪音時(shí),這些簡(jiǎn)單的像素信息容易與噪音發(fā)生混淆,嚴(yán)重影響脂肪位置識(shí)別結(jié)果。

如果能提出一種適用于高噪聲CT圖片脂肪位置識(shí)別技術(shù),將是十分有意義的。



技術(shù)實(shí)現(xiàn)要素:

為解決上述問(wèn)題,本發(fā)明提供了一種基于條件隨機(jī)場(chǎng)(CRF)的二維CT圖片中脂肪位置識(shí)別方法,包括如下步驟:

步驟一:確定若干張用于進(jìn)行條件隨機(jī)場(chǎng)訓(xùn)練的、脂肪位置能被清晰識(shí)別的的原始CT圖像。

步驟二:對(duì)各個(gè)原始CT圖像的各個(gè)像素點(diǎn)進(jìn)行最終特征向量提取,具體包含如下步驟:

步驟2.1:確定圖中各個(gè)像素點(diǎn)的四個(gè)特征向量,分別為:像素值、像素塊均值、方向梯度直方圖(HoG)、HoG塊。

步驟2.2:將各像素點(diǎn)的四個(gè)特征向量聯(lián)合組成一個(gè)向量,該向量為該像素點(diǎn)的最終特征向量。

步驟三:將各個(gè)像素點(diǎn)的最終特征向量作為該點(diǎn)的描述子來(lái)表達(dá)對(duì)應(yīng)原始CT圖片的信息。

步驟四:利用各個(gè)原始CT圖像中的描述子對(duì)分類(lèi)器進(jìn)行概率輸出訓(xùn)練。

步驟五:根據(jù)步驟四的訓(xùn)練,得到一個(gè)CRF模型。

步驟六:利用CRF模型對(duì)將待檢測(cè)脂肪位置的CT圖像進(jìn)行脂肪位置識(shí)別。

進(jìn)一步的,步驟2.1中,像素塊均值的計(jì)算方法為:以被計(jì)算像素點(diǎn)的坐標(biāo)位置為中心,獲取覆蓋中心周?chē)鶱*N個(gè)像素點(diǎn)范圍內(nèi)所有的像素值,計(jì)算這些像素值的均值,其中,N為整數(shù)。

進(jìn)一步的,步驟2.1中,HoG塊的獲取方法為:以被計(jì)算像素點(diǎn)的坐標(biāo)位置為中心,獲取覆蓋中心周?chē)鶰*M個(gè)像素點(diǎn)范圍內(nèi)所有的方向梯度直方圖,這些方向梯度直方圖形成HoG塊,其中,M為整數(shù)。

進(jìn)一步的,所述分類(lèi)器為支持向量機(jī)。

進(jìn)一步的,所述分類(lèi)器為人工神經(jīng)網(wǎng)絡(luò)分類(lèi)器。

進(jìn)一步的,所述分類(lèi)器為貝葉斯分類(lèi)器。

本發(fā)明的有益效果為:

本發(fā)明利用CRF方法的思路,并結(jié)合多特征融合的方法,全新設(shè)計(jì)并實(shí)現(xiàn)了一套CRF識(shí)別模型,能夠有效地應(yīng)對(duì)高噪音CT圖片中脂肪位置的識(shí)別問(wèn)題。

具體實(shí)施方式

本發(fā)明所述基于條件隨機(jī)場(chǎng)的二維CT圖片中脂肪位置識(shí)別方法包括如下步驟:

步驟一:確定若干張用于進(jìn)行條件隨機(jī)場(chǎng)訓(xùn)練(CRF)的、脂肪位置能被清晰識(shí)別的的原始CT圖像。

本發(fā)明共使用超過(guò)5000張二維CT圖片進(jìn)行系統(tǒng)訓(xùn)練。

步驟二:對(duì)各個(gè)原始CT圖像的各個(gè)像素點(diǎn)進(jìn)行最終特征向量提取,具體為:

步驟2.1:確定圖中各個(gè)像素點(diǎn)的四個(gè)特征向量,分別為:像素值、像素塊均值、方向梯度直方圖(HoG)、HoG塊,下面對(duì)各個(gè)特征向量分別予以介紹。

1.像素值(Pixel Value):在一張X像素長(zhǎng),Y像素高的CT圖片中,(x,y)位置的Pixel Value可以定義為P(x,y)。P(x,y)是一個(gè)一維度長(zhǎng)的特征向量。

2.像素塊(Pixel Block)均值:在一張X像素長(zhǎng),Y像素高的CT圖片中,(x,y)位置的Pixel Block均值可以定義為B(x,y)。B(x,y)以(x,y)位置為中心,首先覆蓋其周?chē)鶱*N(N為整數(shù),本實(shí)施例選取N=5,即5x5=25)個(gè)像素點(diǎn)范圍內(nèi)的所有像素信息P(x,y),然后計(jì)算這些像素的平均值,最終形成一個(gè)一維長(zhǎng)度的特征向量。

3.方向梯度直方圖(Histogram of Oriented Gradient,HoG):在一張X像素長(zhǎng),Y像素高的CT圖片中,(x,y)位置的HoG可以定義為H(x,y)。首先將圖像分成小的連通區(qū)域,每個(gè)大小為L(zhǎng)*L(L為整數(shù),本實(shí)施例選取L=3,即3x3=9)像素,稱(chēng)為細(xì)胞單元(Cell)。然后采集Cell中各像素點(diǎn)的梯度的或邊緣的方向直方圖。其中,梯度可以通過(guò)原始圖片與[-1,0,1]和[-1,0,1]T的卷積計(jì)算得到。進(jìn)一步,將梯度的方向劃分為L(zhǎng)*L個(gè)通道,每個(gè)通道覆蓋360/(L*L)度(本實(shí)施例為40度),以建立直方圖(共覆蓋360度)。最后把這些直方圖組合起來(lái)即可得到一個(gè)L*L維長(zhǎng)度的H(x,y)特征向量。

4.HoG塊(HoG Block):在一張X像素長(zhǎng),Y像素高的CT圖片中,(x,y)位置的HoG Block可以定義為HB(x,y)。HB(x,y)以(x,y)位置為中心,覆蓋其周?chē)鶰*M(M為整數(shù),本實(shí)施例選取M=5,即5x5=25)個(gè)Cell范圍內(nèi)的所有H(x,y),最終形成一個(gè)M*M*L*L(本實(shí)施例為225)維長(zhǎng)度的特征向量。

前面所述的N、L、M的取值均為正整數(shù),大小不超過(guò)原始CT圖片的尺寸。

步驟2.2:將各像素點(diǎn)的四個(gè)特征向量聯(lián)合組成一個(gè)向量,該向量為該像素點(diǎn)的最終特征向量。

本發(fā)明將每個(gè)像素點(diǎn)的4個(gè)特征向量聯(lián)合為一個(gè)特征向量,以融合它們各自的優(yōu)勢(shì)。最終,得到一個(gè)1+1+L*L+M*M*L*L(本實(shí)施例為236)維度長(zhǎng)的最終特征向量F(x,y)=[P(x,y),B(x,y),H(x,y),HB(x,y)]。

步驟三:將各個(gè)像素點(diǎn)的最終特征向量F(x,y)作為該點(diǎn)的描述子來(lái)表達(dá)對(duì)應(yīng)原始CT圖片的信息。

步驟四:利用各個(gè)原始CT圖像中的描述子對(duì)分類(lèi)器進(jìn)行概率輸出訓(xùn)練。

因?yàn)镕(x,y)是一個(gè)高維度特征向量,所以本發(fā)明應(yīng)用支持向量機(jī)(Support Vector Machine,SVM)作為分類(lèi)器。特別地,為了達(dá)到CRF條件概率計(jì)算的目的,本發(fā)明使用概率輸出SVM(Probability Output SVM,POSVM)作為條件概率計(jì)算的方法。

步驟五:根據(jù)步驟四的訓(xùn)練,得到一個(gè)CRF模型。

當(dāng)然,還可以利用人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural,Network,ANN)分類(lèi)器或貝葉斯(Bayesian)分類(lèi)器代替支持向量機(jī)分類(lèi)器,進(jìn)行CRF模型設(shè)計(jì),各個(gè)分類(lèi)器的計(jì)算方法為現(xiàn)有技術(shù),在此不做贅述。

步驟六:利用CRF模型對(duì)將待檢測(cè)脂肪位置的CT圖像進(jìn)行脂肪位置識(shí)別。

條件隨機(jī)場(chǎng)(Conditional Random Fields,CRF)是一種在MRF基礎(chǔ)上提出的判別式概率無(wú)向圖學(xué)習(xí)模型,是一種用于標(biāo)注和切分有序數(shù)據(jù)的條件概率模型。與傳統(tǒng)的MRF方法相比,CRF不僅考慮相鄰像素之間的類(lèi)別關(guān)系,而且考慮其他特征之間的條件概率關(guān)系。CRF模型比MRF模型包含了更多圖像信息,因此具有更強(qiáng)的物體識(shí)別能力。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1