亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于深度學(xué)習(xí)的雞蛋胚胎分類的制作方法

文檔序號(hào):12178056閱讀:498來源:國知局
基于深度學(xué)習(xí)的雞蛋胚胎分類的制作方法與工藝

本發(fā)明涉及圖像處理、深度學(xué)習(xí)以及卷積神經(jīng)網(wǎng)絡(luò),特別涉及胚胎分類方法。



背景技術(shù):

目前在工程中,雞胚的成活性檢測與分類大多采用傳統(tǒng)人工照蛋檢測,通過人眼判斷雞蛋胚胎血管來檢測雞蛋胚胎的成活性,但人眼檢活的方法易受主觀因素干擾,并且存在視覺易疲勞,檢測效率低等缺點(diǎn),容易出現(xiàn)誤檢與漏檢,難以滿足現(xiàn)代胚胎檢測與分類產(chǎn)業(yè)的高標(biāo)準(zhǔn)要求,因此,雞蛋胚胎分類檢測技術(shù)得到了廣泛的研究。

利用機(jī)器視覺技術(shù)對(duì)雞蛋胚胎進(jìn)行成活性檢測以及分類的研究比較多,機(jī)器視覺技術(shù)代替?zhèn)鹘y(tǒng)的人工檢活,運(yùn)用圖像處理的具體算法對(duì)胚胎圖像進(jìn)行精細(xì)的數(shù)字化分析與處理,避免了傳統(tǒng)人工檢活的疲勞以及主觀因素干擾等缺點(diǎn),但是這種方法圖像處理的過程太過繁瑣且準(zhǔn)確率不太高。

綜上所述,目前迫切需要提出一種簡潔且準(zhǔn)確率高的雞蛋胚胎分類方法。



技術(shù)實(shí)現(xiàn)要素:

有鑒于此,本發(fā)明的主要目的在于實(shí)現(xiàn)雞蛋胚胎分類,要求簡潔且準(zhǔn)確率高。

為達(dá)到上述目的,按照本發(fā)明的第一個(gè)方面,提供了一種基于深度學(xué)習(xí)的雞蛋胚胎分類方法,該方法包括:

(1)采集5日胚胎圖像并按照正常胚、中止胚、無精胚分為三類樣本;

(2)對(duì)胚胎圖像預(yù)處理,提取圖像的ROI區(qū)域并將圖像大小歸一化;

(3)結(jié)合遷移學(xué)習(xí)的方法進(jìn)行訓(xùn)練,使用AlexNet經(jīng)典網(wǎng)絡(luò)針對(duì)ImageNet數(shù)據(jù)集預(yù)訓(xùn)練的模型,對(duì)目標(biāo)集進(jìn)行微調(diào);

(4)利用訓(xùn)練好的模型對(duì)待測圖像進(jìn)行判別,并通過特征可視化觀察每一層特征學(xué)習(xí)的變化。

所述步驟(2)進(jìn)一步包括:

二值化處理步驟,選取閾值20對(duì)圖像進(jìn)行二值化處理;

提取ROI區(qū)域處理步驟,從二值圖像中檢索輪廓,遍歷輪廓中的每個(gè)點(diǎn),提取 圖像的ROI區(qū)域;

歸一化處理步驟,對(duì)提取的ROI區(qū)域歸一化處理,將圖像歸一化到227*227大小,以便于作為后續(xù)CNN網(wǎng)絡(luò)的輸入。

所述步驟(3)中遷移學(xué)習(xí)的方法,使用該方法訓(xùn)練的步驟進(jìn)一步包括:

利用Alexnet經(jīng)典網(wǎng)絡(luò),將在Image數(shù)據(jù)集上預(yù)訓(xùn)練得到的模型bvlc reference_caffenet應(yīng)用在雞蛋胚胎分類任務(wù)中,該模型由5個(gè)卷積層、3個(gè)最大池化層和3個(gè)全連接層組成;激活函數(shù)采用relu函數(shù),還用到了局部響應(yīng)歸一化層LRN以及防止過擬合的dropout層。

所述5個(gè)卷積層參數(shù)設(shè)計(jì)的具體步驟進(jìn)一步包括:

每個(gè)卷積層設(shè)置不同大小的卷積核與輸入特征圖之間局部連接,卷積核的大小分別為11*11、5*5、3*3、3*3、3*3,輸出特征圖的個(gè)數(shù)分別為96、256、384、384、256,每一卷積層步長分別為4、1、1、1、1,卷積層分別采用″gaussian″和″constant″初始化權(quán)重和偏置。

所述卷積層參數(shù)計(jì)算步驟進(jìn)一步包括:

卷積層的計(jì)算公式如下所示:

所述池化層采取的池化方式為最大值池化,池化尺寸均為3*3,步長為2。最大值池化參數(shù)計(jì)算的表達(dá)式如下式所示

所述全連接層的參數(shù)設(shè)計(jì)步驟進(jìn)一步包括:

Alexnet網(wǎng)絡(luò)三個(gè)全連接層輸出神經(jīng)元數(shù)分別為4096、4096、1000,其中Alexnet中神經(jīng)元數(shù)為1000的是輸出softmax的類別數(shù),利用預(yù)訓(xùn)練模型進(jìn)行微調(diào)時(shí),需將該全連接層的輸出個(gè)數(shù)改為目標(biāo)集的類別數(shù)3。

所述relu函數(shù)的表達(dá)形式如下:

f(x)=max(0,x)

對(duì)relu函數(shù)優(yōu)化后的Prelu函數(shù)的表達(dá)式為:

所述局部響應(yīng)歸一化層LRN的具體實(shí)現(xiàn)步驟包括:

局部響應(yīng)歸一化層LRN實(shí)現(xiàn)一種“臨近抑制”操作,對(duì)局部輸入?yún)^(qū)域進(jìn)行歸一化;在ACROSS_CHANNELS模式下,局部區(qū)域沿著臨近通道延伸。在WITHIN_CHANNEL模式下,局部區(qū)域在各自通道內(nèi)部的圖像平面上延伸;LRN層可以提高網(wǎng)絡(luò)的泛化能力,LRN具體的實(shí)現(xiàn)如下式:

所述dropout層的具體實(shí)現(xiàn)步驟包括:

阻止網(wǎng)絡(luò)過擬合的dropout層在模型進(jìn)行訓(xùn)練時(shí),按一定的概率隨機(jī)的屏蔽掉網(wǎng)絡(luò)的部分神經(jīng)元,讓這些神經(jīng)元不工作,相對(duì)應(yīng)的權(quán)重也不會(huì)更新傳遞,但是該權(quán)重可以保留下來用于下次訓(xùn)練;隨機(jī)屏蔽掉網(wǎng)絡(luò)的部分神經(jīng)元,避免某些特征只在固定組合下才生效,破壞了固定組合的相關(guān)性,有意識(shí)地讓網(wǎng)絡(luò)去學(xué)習(xí)一些普遍的共性,從而提高了模型的泛化能力,阻止網(wǎng)絡(luò)過擬合;訓(xùn)練時(shí),通常設(shè)定一個(gè)dropout ratio=p,即每一個(gè)輸出節(jié)點(diǎn)以概率p置0,本文設(shè)置為0.25。

所述設(shè)置dropout層輸出節(jié)點(diǎn)置零參數(shù)p的步驟進(jìn)一步包括:

計(jì)算dropout層輸出節(jié)點(diǎn)置零參數(shù)p表達(dá)式為:

所述訓(xùn)練模型學(xué)習(xí)參數(shù)的實(shí)現(xiàn)步驟如下:

CNN的訓(xùn)練過程包括前向傳播與反向傳播兩個(gè)過程,利用梯度下降法對(duì)權(quán)重和偏置進(jìn)行更新,公式如下:

所述采用caffee框架調(diào)整學(xué)習(xí)率的步驟進(jìn)一步包括:

caffe框架中提供了多種學(xué)習(xí)率下降的方法,常用的學(xué)習(xí)率調(diào)整策略有:fixed、step、inv等,本文選用inv方式調(diào)整學(xué)習(xí)率,表達(dá)式如下:

lr=base_lr*(1+gamma*iter)^(power)

所述第四步驟中利用訓(xùn)練好的模型對(duì)待測圖像進(jìn)行判別的進(jìn)一步包括:

直接使用ImageNet數(shù)據(jù)集已經(jīng)訓(xùn)練好的模型bvlc reference caffenet caffemodel進(jìn)行微調(diào),然后對(duì)訓(xùn)練集繼續(xù)訓(xùn)練。最后得到針對(duì)于自己數(shù)據(jù)的模型,該模型對(duì)采集到的特征作可視化處理,最終正確率達(dá)到99%。

所述的方法的特征可視化包括:

通過卷積層特征圖的輸出、全連接層輸出值與直方圖分布以及最后一層′prob′輸出更直觀的觀察卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練目標(biāo)集各層的特征學(xué)習(xí)的變化。卷積一層的輸出,有一些簡單的邊緣輪廓信息;卷積二層的輸出,是一些相對(duì)清晰的特征;后面的卷積五層的輸出,就是更加細(xì)節(jié)的特征,到了全連接層可以觀察到輸出值及直方圖分布,全連接層前后相連,越往后神經(jīng)元的輸出響應(yīng)值越不會(huì)均勻分布化,而是通過神經(jīng)元間的競爭決定輸出值,最后一層產(chǎn)生的峰值即為優(yōu)勝的神經(jīng)元,這個(gè)神經(jīng)元對(duì)應(yīng)的索引決定了對(duì)象屬于哪一類。

與現(xiàn)有的胚胎分類方法相比,本發(fā)明可以成功解決CNN模型在小規(guī)模雞蛋胚胎數(shù)據(jù)集上的多分類問題,具有很高的準(zhǔn)確性,可以滿足雞蛋胚胎成活性檢測與分類的工程要求。

附圖說明

圖1示出了按照本發(fā)明的基于深度學(xué)習(xí)的雞蛋胚胎分類方法的流程圖。

圖2示出了按照本發(fā)明的第三步驟的網(wǎng)絡(luò)結(jié)構(gòu)示意圖。

圖3示出了按照本發(fā)明的基于深度學(xué)習(xí)的訓(xùn)練流程的框架圖。

圖4示出了按照本發(fā)明的基于深度學(xué)習(xí)的特征可視化示意圖。(a)為第一個(gè)卷積層濾波器conv1,(b)為第一卷積層conv1輸出特征圖,(c)為第二卷積層conv2輸出特征圖,(d)為第五卷積層conv5輸出特征圖,(e)為全連接層fc6輸出值與直方圖分布,(f)為全連接層fc7輸出值與直方圖分布,(g)為‘prob’輸出。

具體實(shí)施方式

為使貴審查員能進(jìn)一步了解本發(fā)明的結(jié)構(gòu)、特征及其他目的,現(xiàn)結(jié)合所附較佳實(shí)施例詳細(xì)說明如下,所說明的較佳實(shí)施例僅用于說明本發(fā)明的技術(shù)方案,并非限定本發(fā)明。

圖1給出了按照本發(fā)明的基于深度學(xué)習(xí)的雞蛋胚胎分類方法的流程圖。按照 本發(fā)明的基于深度學(xué)習(xí)的雞蛋胚胎分類方法包括:

(1)采集5日胚胎圖像并按照正常胚、中止胚、無精胚分為三類樣本;

(2)對(duì)胚胎圖像預(yù)處理,提取圖像的ROI區(qū)域并將圖像大小歸一化;

(3)結(jié)合遷移學(xué)習(xí)的方法進(jìn)行訓(xùn)練,使用AlexNet經(jīng)典網(wǎng)絡(luò)針對(duì)ImageNet預(yù)訓(xùn)練的模型,對(duì)目標(biāo)集進(jìn)行微調(diào);

(4)利用訓(xùn)練好的模型對(duì)待測圖像進(jìn)行判別,并通過特征可視化觀察每一層特征學(xué)習(xí)的變化。

所述步驟(2)進(jìn)一步包括:

二值化處理步驟,選取閾值20對(duì)圖像進(jìn)行二值化處理;

提取ROI區(qū)域處理步驟,從二值圖像中檢索輪廓,遍歷輪廓中的每個(gè)點(diǎn),提取圖像的ROI區(qū)域;

歸一化處理步驟,對(duì)提取的ROI區(qū)域歸一化處理,將圖像歸一化到227*227大小,以便于作為后續(xù)CNN網(wǎng)絡(luò)的輸入。

圖2示出了按照本發(fā)明的網(wǎng)絡(luò)結(jié)構(gòu)示意圖,所述步驟(3)中遷移學(xué)習(xí)的方法,使用該方法訓(xùn)練的步驟進(jìn)一步包括:

利用Alexnet經(jīng)典網(wǎng)絡(luò),將在Image數(shù)據(jù)集上預(yù)訓(xùn)練得到的模型bvlc_reference_caffenet應(yīng)用在雞蛋胚胎分類任務(wù)中,該模型由5個(gè)卷積層、3個(gè)最大池化層和3個(gè)全連接層組成;激活函數(shù)采用relu函數(shù),還用到了局部響應(yīng)歸一化層LRN以及防止過擬合的dropout層。

所述5個(gè)卷積層參數(shù)設(shè)計(jì)的具體步驟進(jìn)一步包括:

每個(gè)卷積層設(shè)置不同大小的卷積核與輸入特征圖之間局部連接,卷積核的大小分別為11*11、5*5、3*3、3*3、3*3,輸出特征圖的個(gè)數(shù)分別為96、256、384、384、256,每一卷積層步長分別為4、1、1、1、1,卷積層分別采用″gaussian″和″constant″初始化權(quán)重和偏置。

所述卷積層參數(shù)計(jì)算步驟進(jìn)一步包括:

卷積層的計(jì)算公式如下所示:

其中,表示第1卷積層的第j個(gè)feature map,f(.)表示激活函數(shù)。表示輸入feature map的集合,k表示卷積核,b表示偏置項(xiàng)。

池化層采取的池化方式為最大值池化,池化尺寸均為3*3,步長為2。

所述最大值池化參數(shù)計(jì)算步驟進(jìn)一步包括:

池化層的一般表達(dá)形式如下式所示:

其中,down表示降采樣函數(shù),表示權(quán)重系數(shù)。

所述全連接層的參數(shù)設(shè)計(jì)步驟進(jìn)一步包括:

Alexnet網(wǎng)絡(luò)三個(gè)全連接層輸出神經(jīng)元數(shù)分別為4096、4096、1000,其中Alexnet中神經(jīng)元數(shù)為1000的是輸出softmax的類別數(shù),利用預(yù)訓(xùn)練模型進(jìn)行微調(diào)時(shí),需將該全連接層的輸出個(gè)數(shù)改為目標(biāo)集的類別數(shù)3。

所述relu函數(shù)的設(shè)計(jì)步驟進(jìn)一步包括:

Relu非線性激活函數(shù),其表達(dá)形式如下:

f(x)=max(0,x)

Relu函數(shù)具有單側(cè)抑制、相對(duì)寬闊的興奮邊界等優(yōu)點(diǎn),更符合生物學(xué)的稀疏激活性特點(diǎn)。但是傳統(tǒng)Relu激活函數(shù)也有缺點(diǎn),在學(xué)習(xí)率較大的情況下,容易使一些梯度較大的神經(jīng)元得不到激活,為滿足設(shè)計(jì)需要將Alexnet模型中的Relu函數(shù)改為更優(yōu)化的PRelu函數(shù),PRelu的表達(dá)形式如下所示

PRelu相比較于Relu,修正了數(shù)據(jù)分布,保留了負(fù)值,使負(fù)值不會(huì)完全丟失。PRelu像更新權(quán)重weights一樣使用反向傳播算法更新一個(gè)額外的參數(shù)a,但是相較于權(quán)重的數(shù)量來說,PRelu需要更新的參數(shù)總數(shù)可以忽略不計(jì),所以不會(huì)加重overfitting的影響。

所述局部響應(yīng)歸一化層LRN的具體實(shí)現(xiàn)步驟包括:

局部響應(yīng)歸一化層LRN實(shí)現(xiàn)一種“臨近抑制”操作,對(duì)局部輸入?yún)^(qū)域進(jìn)行歸一化;在ACROSS_CHANNELS模式下,局部區(qū)域沿著臨近通道延伸。在WITHIN_CHANNEL模式下,局部區(qū)域在各自通道內(nèi)部的圖像平面上延伸;LRN層可以提高網(wǎng)絡(luò)的泛化能力,LRN具體的實(shí)現(xiàn)如下式:

其中,表示作用于(x,y)處的第i個(gè)卷積核的激活值。為尺度參數(shù),為指數(shù)參數(shù)。

所述dropout層的具體實(shí)現(xiàn)步驟包括:

阻止網(wǎng)絡(luò)過擬合的dropout層在模型進(jìn)行訓(xùn)練時(shí),按一定的概率隨機(jī)的屏蔽掉網(wǎng)絡(luò)的部分神經(jīng)元,讓這些神經(jīng)元不工作,相對(duì)應(yīng)的權(quán)重也不會(huì)更新傳遞,但是該權(quán)重可以保留下來用于下次訓(xùn)練;隨機(jī)屏蔽掉網(wǎng)絡(luò)的部分神經(jīng)元,避免某些特征只在固定組合下才生效,破壞了固定組合的相關(guān)性,有意識(shí)地讓網(wǎng)絡(luò)去學(xué)習(xí)一些普遍的共性,從而提高了模型的泛化能力,阻止網(wǎng)絡(luò)過擬合;訓(xùn)練時(shí),通常設(shè)定一個(gè)dropout ratio=p,即每一個(gè)輸出節(jié)點(diǎn)以概率p置0,本文設(shè)置為0.25。

設(shè)置dropout層輸出節(jié)點(diǎn)置零參數(shù)p的步驟進(jìn)一步包括:

計(jì)算dropout層輸出節(jié)點(diǎn)置零參數(shù)p表達(dá)式為:

其中U為Bernoulli隨機(jī)數(shù),p代表dropout ratio。

圖3示出了按照本發(fā)明的基于深度學(xué)習(xí)的訓(xùn)練流程的框架圖,所述訓(xùn)練模型學(xué)習(xí)參數(shù)的實(shí)現(xiàn)步驟如下:

CNN的訓(xùn)練過程包括前向傳播與反向傳播兩個(gè)過程,利用梯度下降法對(duì)權(quán)重和偏置進(jìn)行更新,公式如下:

其中,J(w,b)為單個(gè)樣本的代價(jià)函數(shù),α為學(xué)習(xí)速率,學(xué)習(xí)率的調(diào)整,關(guān)系到權(quán)值與偏置的更新范圍,采用caffe框架調(diào)整學(xué)習(xí)率以適應(yīng)訓(xùn)練模型。

采用caffe框架調(diào)整學(xué)習(xí)率的步驟進(jìn)一步包括:

caffe框架中提供了多種學(xué)習(xí)率下降的方法,常用的學(xué)習(xí)率調(diào)整策略(lr_policy)有:fixed、step、inv等,本文選用inv方式調(diào)整學(xué)習(xí)率,表達(dá)式如 下:

lr=base_lr*(1+gamma*iter)^(power)

其中,base_lr為基礎(chǔ)學(xué)習(xí)率,gamma為學(xué)習(xí)速率變化因子,iter為迭代次數(shù)。

所述第四步驟中利用訓(xùn)練好的模型對(duì)待測圖像進(jìn)行判別的進(jìn)一步包括:

直接使用ImageNet數(shù)據(jù)集已經(jīng)訓(xùn)練好的模型bvlc_reference_caffenet.caffemodel進(jìn)行微調(diào),然后對(duì)訓(xùn)練集繼續(xù)訓(xùn)練。最后得到針對(duì)于自己數(shù)據(jù)的模型,該模型對(duì)采集到的特征作可視化處理,最終正確率達(dá)到99%。

圖4示出了按照本發(fā)明的基于深度學(xué)習(xí)的特征可視化示意圖,特征可視化進(jìn)一步包括:對(duì)各中間輸出層進(jìn)行特征可視化,通過卷積層特征圖的輸出、全連接層輸出值與直方圖分布以及最后一層′prob′輸出更直觀的觀察卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練目標(biāo)集各層的特征學(xué)習(xí)的變化。圖(a)為第一個(gè)卷積層濾波器。圖(b)為卷積一層的輸出特征圖,有一些簡單的邊緣輪廓信息;圖(c)為卷積二層的輸出,是一些相對(duì)清晰的特征;后面圖(d)為卷積五層的輸出,就是更加細(xì)節(jié)的特征,到了全連接層,圖(e)為fc6層的輸出值及直方圖分布,圖(f)為fc7層的輸出值及直方圖分布。在fc6層,大多數(shù)神經(jīng)元的輸出響應(yīng)值在30以下,而在fc7層則在9以下。從直方圖可以看出,fc6層直方圖斜率的絕對(duì)值要比fc7層要小,這說明了全連接層前后相連,越往后神經(jīng)元的輸出響應(yīng)值越不會(huì)均勻分布化,而是通過神經(jīng)元間的競爭決定輸出值。最后一層產(chǎn)生的峰值即為優(yōu)勝的神經(jīng)元,這個(gè)神經(jīng)元對(duì)應(yīng)的索引決定了對(duì)象屬于哪一類。從圖(g)‘prob’輸出圖可以看出,該類別屬于標(biāo)簽為1的類別。

與現(xiàn)有的胚胎分類方法相比,本發(fā)明可以成功解決CNN模型在小規(guī)模雞蛋胚胎數(shù)據(jù)集上的多分類問題,具有很高的準(zhǔn)確性,可以滿足雞蛋胚胎成活性檢測與分類的工程要求。

以上所述,僅為本發(fā)明的較佳實(shí)施例而已,并非用于限定本發(fā)明的保護(hù)范圍,應(yīng)當(dāng)理解,本發(fā)明并不限于這里所描述的實(shí)現(xiàn)方案,這些實(shí)現(xiàn)方案描述的目的在于幫助本領(lǐng)域中的技術(shù)人員實(shí)踐本發(fā)明。任何本領(lǐng)域中的技術(shù)人員很容易在不脫離本發(fā)明精神和范圍的情況下進(jìn)行進(jìn)一步的改進(jìn)和完善,因此本發(fā)明只受到本發(fā)明權(quán)利要求的內(nèi)容和范圍的限制,其意圖涵蓋所有包括在由所附權(quán)利要求所限定的本發(fā)明精神和范圍內(nèi)的備選方案和等同方案。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1