亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于卷積神經(jīng)網(wǎng)絡(luò)的宮頸細(xì)胞圖像識(shí)別方法與流程

文檔序號(hào):12471739閱讀:來(lái)源:國(guó)知局

技術(shù)特征:

1.一種基于卷積神經(jīng)網(wǎng)絡(luò)的宮頸細(xì)胞圖像識(shí)別方法,其特征是,包括如下步驟:

1)準(zhǔn)備訓(xùn)練樣本:

(1-1)讀入現(xiàn)有圖庫(kù)中的宮頸細(xì)胞圖像作為訓(xùn)練樣本并分類(lèi):將讀入的所有的宮頸細(xì)胞圖像分為正常宮頸細(xì)胞訓(xùn)練樣本和病變宮頸細(xì)胞訓(xùn)練樣本;

(1-2)灰度化:將宮頸細(xì)胞圖像預(yù)處理為灰度圖像塊,并將宮頸細(xì)胞圖像中的彩色圖片轉(zhuǎn)化為灰度圖像,然后把得到的灰度圖像尺寸歸一化為32*32的灰度圖像塊;

2)構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)層:構(gòu)建一個(gè)具有自適應(yīng)識(shí)別分類(lèi)功能的包括加入BN算法的改進(jìn)卷積神經(jīng)網(wǎng)絡(luò),改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)為一個(gè)多層的神經(jīng)網(wǎng)絡(luò),通過(guò)可訓(xùn)練的卷積核作為濾波器,對(duì)圖像進(jìn)行逐層濾波,并將每一層濾波結(jié)果進(jìn)行自動(dòng)組合,最終自動(dòng)提取出對(duì)分類(lèi)最有利的特征,提取完特征之后,從所有特征參數(shù)中根據(jù)分類(lèi)類(lèi)別不同,進(jìn)行參數(shù)分類(lèi),之后對(duì)不同類(lèi)別之間的特征參數(shù)進(jìn)行組和合訓(xùn)練和識(shí)別,并根據(jù)識(shí)別結(jié)果的不同,調(diào)整訓(xùn)練特征向量,當(dāng)根據(jù)本次特征參數(shù)組合獲得的識(shí)別結(jié)果小于之前的識(shí)別結(jié)果時(shí),則根據(jù)現(xiàn)有的特征向量,添加或刪除相應(yīng)的特征參數(shù),以期再次識(shí)別時(shí)獲得更高的識(shí)別率;

(3)構(gòu)建二分類(lèi)器:將步驟1)得到的正常宮頸細(xì)胞訓(xùn)練樣本和病變宮頸細(xì)胞訓(xùn)練樣本輸入改進(jìn)卷積神經(jīng)網(wǎng)絡(luò),改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)被訓(xùn)練為能夠識(shí)別正常宮頸細(xì)胞和病變宮頸細(xì)胞的二分類(lèi)器;

(4)得到識(shí)別結(jié)果:將待測(cè)試的宮頸細(xì)胞圖片輸入改進(jìn)卷積神經(jīng)網(wǎng)絡(luò),改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)進(jìn)行識(shí)別、歸類(lèi)。

2.根據(jù)權(quán)利要求1所述的基于卷積神經(jīng)網(wǎng)絡(luò)的宮頸細(xì)胞圖像識(shí)別方法,其特征是,所述加入BN算法的改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)為在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中加入了批歸一化算法,即在每一個(gè)卷積層與下采樣層之后都連接一個(gè)BN層,在下采樣S2之后連接3個(gè)全連接層,全連接層后同樣各自接入相應(yīng)BN層,最后一層全連接層使用sigmoid激活函數(shù),直接輸出圖像。

3.根據(jù)權(quán)利要求2所述的基于卷積神經(jīng)網(wǎng)絡(luò)的宮頸細(xì)胞圖像識(shí)別方法,其特征是,所述批歸一化算法,即BN算法為:

BN層和卷積層,下采樣層和全連接層一樣,也是網(wǎng)絡(luò)中的一層結(jié)構(gòu),是一個(gè)歸一化的過(guò)程,進(jìn)行標(biāo)準(zhǔn)化維度:

<mrow> <msup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mfrac> <mrow> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mi>E</mi> <mo>&lsqb;</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>&rsqb;</mo> </mrow> <msqrt> <mrow> <mi>V</mi> <mi>a</mi> <mi>r</mi> <mo>&lsqb;</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>&rsqb;</mo> </mrow> </msqrt> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

式(1)把上一層的輸出轉(zhuǎn)變?yōu)闃?biāo)準(zhǔn)正態(tài)分布,訓(xùn)練過(guò)程中采用mini-batch隨機(jī)梯度下降,E[x(k)]指每一批訓(xùn)練數(shù)據(jù)神經(jīng)元x(k)的期望值,為x(k)激活值的標(biāo)準(zhǔn)差,同時(shí)為防止影響每一層學(xué)習(xí)到的特征,引入變換重構(gòu),加入可學(xué)習(xí)參數(shù)γ和β:

<mrow> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <msup> <mi>&gamma;</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <msup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>+</mo> <msup> <mi>&beta;</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>

式(2)把轉(zhuǎn)變?yōu)檎龖B(tài)分布的特征在一定程度上還原回去,讓它保持它的初始分布趨勢(shì),還原程度則是由卷積神經(jīng)網(wǎng)絡(luò)自己學(xué)習(xí)得來(lái),設(shè)置可以恢復(fù)原始激活值,即恢復(fù)出原始某層學(xué)到的特征,γ和β的引入可以讓卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)恢復(fù)出原始網(wǎng)絡(luò)要學(xué)習(xí)的特征分布,Batch Normalization前向傳導(dǎo)公式為:

<mrow> <msub> <mi>&mu;</mi> <mi>B</mi> </msub> <mo>&RightArrow;</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </msubsup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msubsup> <mi>&sigma;</mi> <mi>B</mi> <mn>2</mn> </msubsup> <mo>&LeftArrow;</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </msubsup> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>&mu;</mi> <mi>B</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <mover> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>^</mo> </mover> <mo>&LeftArrow;</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>&mu;</mi> <mi>B</mi> </msub> </mrow> <msqrt> <mrow> <msubsup> <mi>&sigma;</mi> <mi>B</mi> <mn>2</mn> </msubsup> <mo>+</mo> <mi>&epsiv;</mi> </mrow> </msqrt> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>&LeftArrow;</mo> <mi>&gamma;</mi> <mover> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>^</mo> </mover> <mo>+</mo> <mi>&beta;</mi> <mo>&equiv;</mo> <msub> <mi>BN</mi> <mrow> <mi>&gamma;</mi> <mo>,</mo> <mi>&beta;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>

式(3)是一批mini-batch中所有樣本里的每個(gè)樣本在同一神經(jīng)元上的輸入均值,式(4)為一批mini-batch中所有樣本里的每個(gè)樣本在同一神經(jīng)元上的輸入方差,式(5)是把這批mini-batch中所有樣本里的每個(gè)樣本在同一神經(jīng)元上的輸入進(jìn)行標(biāo)準(zhǔn)化后得到的結(jié)果,式(6)為同構(gòu)變換。

當(dāng)前第2頁(yè)1 2 3 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1