本發(fā)明屬于電阻抗層析成像(Electrical Impedance Tomography,EIT)技術(shù)領(lǐng)域,具體涉及一種基于深度學(xué)習(xí)的電阻抗層析成像方法。
背景技術(shù):
電學(xué)層析成像技術(shù)(Electrical Tomography,ET)是自上世紀(jì)80年代后期出現(xiàn)的一種新的基于電特性敏感機(jī)理的過程層析成像技術(shù),它的物理基礎(chǔ)是不同的媒質(zhì)具有不同的電特性(電導(dǎo)率/介電系數(shù)/復(fù)導(dǎo)納/磁導(dǎo)率),通過判斷敏感場(chǎng)內(nèi)物體的電特性分布便可推知該場(chǎng)中媒質(zhì)的分布情況。電學(xué)層析成像技術(shù)在多相流及生物醫(yī)學(xué)領(lǐng)域有廣泛的應(yīng)用前景,可以實(shí)現(xiàn)長(zhǎng)期、持續(xù)監(jiān)測(cè)。
電阻抗層析成像通過在被測(cè)物場(chǎng)某一斷層表面施加一定的交變電流,并測(cè)量相應(yīng)檢測(cè)電極上的邊界電壓,然后根據(jù)一定的重建算法重建出被測(cè)物場(chǎng)內(nèi)部電導(dǎo)率分布圖像。但是由于EIT電場(chǎng)分布具有“軟場(chǎng)”特性,使得測(cè)量電壓和被測(cè)物場(chǎng)內(nèi)電導(dǎo)率分布呈非線性關(guān)系,即EIT逆問題具有非線性。EIT圖像重建算法,大體可以分為三類:非迭代類算法、迭代類算法和智能算法,其中非迭代算法具有成像速度快,算法結(jié)構(gòu)簡(jiǎn)單等特點(diǎn),但其成像質(zhì)量往往不高;迭代類算法成像速度下降,算法結(jié)構(gòu)相對(duì)復(fù)雜,但成像質(zhì)量比非迭代類成像算法質(zhì)量高;智能算法是近幾年來新興的圖像重建算法,其算法構(gòu)造具有直觀性,包含自然機(jī)理,典型的就是神經(jīng)網(wǎng)絡(luò)方法,它簡(jiǎn)化了建模過程及問題的求解難度,完成了輸入與輸出之間的非線性映射關(guān)系即完成了模型的建立。但因其屬于淺層學(xué)習(xí),一般只有很少的隱層,故其缺點(diǎn)一是容易過擬合,二是對(duì)參數(shù)過于敏感,三是對(duì)復(fù)雜的函數(shù)表示能力有限。而深度學(xué)習(xí)是相對(duì)于淺層學(xué)習(xí)提出的,源于神經(jīng)網(wǎng)絡(luò)又不同于神經(jīng)網(wǎng)絡(luò),它擁有比神經(jīng)網(wǎng)絡(luò)更多的隱層,采用逐層初始化的訓(xùn)練機(jī)制,首先訓(xùn)練好每層網(wǎng)絡(luò),然后優(yōu)化訓(xùn)練好的網(wǎng)絡(luò),完成深度學(xué)習(xí)的訓(xùn)練。它的這種多層結(jié)構(gòu)可以減少過擬合現(xiàn)象的產(chǎn)生,并且可以用較少的參數(shù)來表示復(fù)雜的函數(shù),因此用深度學(xué)習(xí)能更好地表征輸入與輸出之間的非線性映射關(guān)系?;诖?,本發(fā)明提出了基于深度學(xué)習(xí)的電阻抗層析成像方法。
技術(shù)實(shí)現(xiàn)要素:
一種基于深度學(xué)習(xí)的電阻抗層析成像方法,適用于醫(yī)學(xué)成像、工業(yè)過程成像和地質(zhì)勘探等技術(shù)領(lǐng)域。該方法通過對(duì)電極陣列傳感器提供的原始邊界測(cè)量電壓序列和電導(dǎo)率分布序列進(jìn)行歸一化處理,并利用EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型表征歸一化邊界測(cè)量電壓序列與電導(dǎo)率分布序列之間的映射關(guān)系,根據(jù)未經(jīng)訓(xùn)練的邊界測(cè)量電壓序列和該映射關(guān)系,獲得電導(dǎo)率分布序列,進(jìn)而重建EIT圖像。該方法解決了電阻抗層析成像逆問題求解時(shí)的非線性和病態(tài)問題,提高了逆問題的求解精度和圖像重建質(zhì)量。
一種基于深度學(xué)習(xí)的電阻抗層析成像方法,包括
獲取與處理原始數(shù)據(jù):
獲取網(wǎng)絡(luò)輸入的原始邊界測(cè)量電壓序列和對(duì)應(yīng)的電導(dǎo)率分布序列,處理后稱之為訓(xùn)練樣本集合;
構(gòu)建網(wǎng)絡(luò)模型:
根據(jù)訓(xùn)練樣本集合,建立EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,包括輸入層、隱層和輸出層的多層結(jié)構(gòu)并確定各層的節(jié)點(diǎn)數(shù),初始化網(wǎng)絡(luò)層與層之間的連接權(quán)重和各層的偏置,并設(shè)置網(wǎng)絡(luò)的初始參數(shù)值:學(xué)習(xí)率、最大迭代次數(shù)、誤差允許值;
訓(xùn)練網(wǎng)絡(luò)模型:
根據(jù)訓(xùn)練樣本集合和構(gòu)建的初始EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,訓(xùn)練網(wǎng)絡(luò)模型,建立邊界測(cè)量電壓序列和電導(dǎo)率分布序列之間的映射關(guān)系。
重建EIT圖像:
根據(jù)未經(jīng)訓(xùn)練的邊界測(cè)量電壓序列和所述訓(xùn)練后的EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,得到電導(dǎo)率分布序列,從而重建EIT圖像。
對(duì)輸入的原始邊界測(cè)量電壓序列和電導(dǎo)率分布序列分別進(jìn)行歸一化處理,得到由歸一化的邊界測(cè)量電壓序列組成的訓(xùn)練樣本集合和由歸一化的電導(dǎo)率分布序列組成的訓(xùn)練樣本集合
其中n1表示每一組邊界測(cè)量電壓序列有n1個(gè)電壓值,n2表示電導(dǎo)率分布被剖分的個(gè)數(shù),m表示訓(xùn)練樣本數(shù)目。
建立EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型的網(wǎng)絡(luò)結(jié)構(gòu),包括:
輸入層的節(jié)點(diǎn)數(shù)為n1;三個(gè)隱層且每個(gè)隱層的節(jié)點(diǎn)數(shù)為n2;輸出層的節(jié)點(diǎn)數(shù)為n2;
網(wǎng)絡(luò)輸入層與第一隱層的連接權(quán)重為第一隱層與第二隱層、第二隱層與第三隱層、第三隱層與輸出層之間的連接權(quán)重分別為
輸入層偏置為第i(i=1,2,3)隱層的偏置為輸出層的偏置為
網(wǎng)絡(luò)的初始參數(shù)值:學(xué)習(xí)率ε=0.3,層與層之間的最大迭代次數(shù)為maxiter=50,層與層之間的誤差允許值為error=2×10-3。
根據(jù)構(gòu)建的EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型和訓(xùn)練樣本集合U和X,訓(xùn)練網(wǎng)絡(luò)模型:
(1)將訓(xùn)練樣本集合輸入到模型輸入層后,根據(jù)限制玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)模型的能量函數(shù)最小原則,得到輸入層與第一隱層之間的條件概率關(guān)系,再由數(shù)據(jù)正向和反向傳播分別得到第一隱層和輸入層的初始狀態(tài);
通過對(duì)比散度(Contrastive Divergence,CD)算法得到兩層之間的參數(shù)(包括連接權(quán)重、輸入層偏置和第一隱層偏置)更新的迭代步長(zhǎng),進(jìn)而獲得更新的網(wǎng)絡(luò)參數(shù)和輸入輸出狀態(tài);
計(jì)算兩層之間的數(shù)據(jù)擬合誤差,直到滿足迭代終止條件,得到模型ml;
(2)將第一隱層輸出的數(shù)據(jù)狀態(tài)特征作為第二隱層的輸入,根據(jù)RBM模型的能量函數(shù)最小原則,得到第一隱層與第二隱層之間的條件概率關(guān)系,再由數(shù)據(jù)正向和反向傳播分別得到第一隱層和第二隱層的初始狀態(tài);
通過CD算法得到兩層之間的參數(shù)(包括連接權(quán)重和第二隱層偏置)更新的迭代步長(zhǎng),進(jìn)而獲得更新的網(wǎng)絡(luò)參數(shù)和輸入輸出狀態(tài);
計(jì)算兩層之間的數(shù)據(jù)擬合誤差,直到滿足迭代終止條件,得到模型m2;
(3)將第二隱層輸出的數(shù)據(jù)狀態(tài)特征作為第三隱層的輸入,根據(jù)RBM模型的能量函數(shù)最小原則,得到第二隱層與第三隱層之間的條件概率關(guān)系,再由數(shù)據(jù)正向和反向傳播分別得到第二隱層和第三隱層的初始狀態(tài);
通過CD算法得到兩層之間的參數(shù)(包括連接權(quán)重和第三隱層偏置)更新的迭代步長(zhǎng),進(jìn)而獲得更新的網(wǎng)絡(luò)參數(shù)和輸入輸出狀態(tài);
計(jì)算兩層之間的數(shù)據(jù)擬合誤差,直到滿足迭代終止條件,得到模型m3;
(4)將第三隱層輸出的數(shù)據(jù)狀態(tài)特征作為輸出層的輸入,根據(jù)RBM模型的能量函數(shù)最小原則,得到第三隱層與輸出層之間的條件概率關(guān)系,再由數(shù)據(jù)正向和反向傳播分別得到第三隱層和輸出層的初始狀態(tài);
通過CD算法得到兩層之間的參數(shù)(包括連接權(quán)重和輸出層偏置)更新的迭代步長(zhǎng),進(jìn)而獲得更新的網(wǎng)絡(luò)參數(shù)和輸入輸出狀態(tài);
計(jì)算兩層之間的數(shù)據(jù)擬合誤差,直到滿足迭代終止條件,得到模型m4;
(5)按照以上步驟進(jìn)行訓(xùn)練后,最終得到EIT深度學(xué)習(xí)模型model{m1,m2,m3,m4}。
上述迭代終止條件包括:
達(dá)到預(yù)設(shè)最大迭代次數(shù)maxiter=50或所訓(xùn)練層的輸入初始狀態(tài)與數(shù)據(jù)擬合狀態(tài)之間的誤差小于誤差允許值error=2×10-3。
重建EIT圖像,將非訓(xùn)練樣本集合的U*輸入EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,即將未訓(xùn)練的邊界測(cè)量電壓序列輸入到網(wǎng)絡(luò)的輸入層,利用訓(xùn)練出的模型model{m1,m2,m3,m4},獲取此時(shí)EIT深度學(xué)習(xí)網(wǎng)絡(luò)的輸出X*(即電導(dǎo)率分布序列),然后將電導(dǎo)率分布序列恢復(fù)為矩陣形式,得到重建圖像。
上述EIT成像方法,根據(jù)預(yù)設(shè)的訓(xùn)練模式訓(xùn)練EIT深度學(xué)習(xí)模型,使用訓(xùn)練獲得的EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型表征邊界測(cè)量電壓序列與電導(dǎo)率分布序列之間的映射關(guān)系,通過給映射關(guān)系輸入邊界測(cè)量電壓序列,獲取電導(dǎo)率分布序列,進(jìn)而由電導(dǎo)率分布序列得到EIT圖像。該方法解決了求解逆問題時(shí)的非線性和病態(tài)問題,提高了逆問題的求解精度和圖像重建質(zhì)量。
附圖說明
圖1是EIT系統(tǒng)原理示意圖。
圖2是實(shí)例中基于深度學(xué)習(xí)的EIT成像方法的示意圖。
圖3是實(shí)例中的圖2的隱層結(jié)構(gòu)示意圖。
圖4是實(shí)例中深度學(xué)習(xí)重建圖像的流程圖。
圖5是實(shí)例中圖4中的“根據(jù)能量最小原則和CD算法訓(xùn)練網(wǎng)絡(luò)參數(shù)”的訓(xùn)練網(wǎng)絡(luò)參數(shù)示意圖。
圖6是實(shí)例中圖5中的“訓(xùn)練輸入層到第一隱層網(wǎng)絡(luò)參數(shù)”的流程示意圖。
圖7是實(shí)例中圖5中的“訓(xùn)練第一隱層到第二隱層網(wǎng)絡(luò)參數(shù)”的流程示意圖。
圖8是實(shí)例中圖5中的“訓(xùn)練第二隱層到第三隱層網(wǎng)絡(luò)參數(shù)”的流程示意圖。
圖9是實(shí)例中圖5中的“訓(xùn)練第三隱層到輸出層網(wǎng)絡(luò)參數(shù)”的流程示意圖。
圖10是實(shí)例中圖6、圖7、圖8、圖9訓(xùn)練所得EIT深度網(wǎng)絡(luò)模型示意圖。
具體實(shí)施方式
為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,以下結(jié)合附圖及實(shí)例,對(duì)本發(fā)明進(jìn)行詳細(xì)說明。此處描述的具體實(shí)例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。
圖1所示是EIT系統(tǒng)原理圖,通過在被測(cè)物場(chǎng)周圍施加電極陣列和電流激勵(lì),獲取邊界測(cè)量電壓序列,再利用該序列和一定的重建算法來重建被測(cè)物場(chǎng)內(nèi)部分布。
本實(shí)例采用外接16電極的方法獲取邊界測(cè)量電壓序列(此時(shí)每一組邊界測(cè)量電壓序列有208個(gè)電壓值,將被測(cè)場(chǎng)剖分為812份,對(duì)應(yīng)812個(gè)電導(dǎo)率值),并通過深度學(xué)習(xí)方法重建EIT圖像。
其具體步驟是:
第一步獲取與處理原始數(shù)據(jù):
獲取網(wǎng)絡(luò)輸入的原始邊界測(cè)量電壓序列和對(duì)應(yīng)的電導(dǎo)率分布序列,處理后稱之為訓(xùn)練樣本集合;
第二步構(gòu)建EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型:
根據(jù)訓(xùn)練樣本集合,建立EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,包括輸入層、隱層和輸出層的多層結(jié)構(gòu)并確定各層的節(jié)點(diǎn)數(shù),初始化網(wǎng)絡(luò)層與層之間的連接權(quán)重和各層的偏置,并設(shè)置網(wǎng)絡(luò)的初始參數(shù)值:學(xué)習(xí)率、最大迭代次數(shù)、誤差允許值;
第三步訓(xùn)練網(wǎng)絡(luò)模型:
根據(jù)訓(xùn)練樣本集合和構(gòu)建的初始EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,訓(xùn)練網(wǎng)絡(luò)模型,建立邊界測(cè)量電壓序列和電導(dǎo)率分布序列之間的映射關(guān)系。
第四步重建EIT圖像:
根據(jù)未經(jīng)訓(xùn)練的邊界測(cè)量電壓序列和所述訓(xùn)練后的EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,得到相應(yīng)電導(dǎo)率分布序列,從而重建EIT圖像。
在第一步獲取與處理原始數(shù)據(jù)中,先獲取原始邊界測(cè)量電壓序列和電導(dǎo)率分布序列,然后對(duì)原始邊界測(cè)量電壓序列和對(duì)應(yīng)的電導(dǎo)率分布序列分別進(jìn)行歸一化處理,歸一化范圍是[0,1],歸一化公式為:
其中y表示歸一化之后得到的值,此處即歸一化的邊界測(cè)量電壓序列或者電導(dǎo)率分布序列;
ymax和ymin分別表示歸一化范圍的最大值和最小值,此處即ymax=1、ymin=0;
x為待歸一化的數(shù)據(jù),即原始邊界測(cè)量電壓序列或原始電導(dǎo)率分布序列;
xmax和xmin分別表示待歸一化數(shù)據(jù)的最大值和最小值,即原始邊界測(cè)量電壓序列或原始電導(dǎo)率分布序列中的最大值和最小值。
經(jīng)過對(duì)1000組原始樣本數(shù)據(jù)進(jìn)行歸一化后,得到由歸一化的邊界測(cè)量電壓序列組成的訓(xùn)練樣本集合U(U∈R1000×208);由歸一化的電導(dǎo)率分布序列組成的訓(xùn)練樣本集合X(X∈R1000×812)。
在第二步構(gòu)建EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型中,模型結(jié)構(gòu)的構(gòu)建包括:
輸入層的節(jié)點(diǎn)數(shù)為n1=208;三個(gè)隱層且每個(gè)隱層的節(jié)點(diǎn)數(shù)為n2=812;輸出層的節(jié)點(diǎn)數(shù)為812。
網(wǎng)絡(luò)輸入層與第一隱層的連接權(quán)重W1∈R208×812,第一隱層與第二隱層、第二隱層與第三隱層、第三隱層與輸出層之間的連接權(quán)重分別為W2∈R812×812、W3∈R812×812、W4∈R812×812,Wi(i=1,2,3,4)均初始化為來自正態(tài)分布N(0,0.01)的隨機(jī)數(shù);輸入層偏置a∈R1000×208、第i(i=1,2,3)隱層的偏置bi∈R1000×812、輸出層的偏置b4∈R1000×812均初始化為較小的隨機(jī)向量。
網(wǎng)絡(luò)的初始參數(shù)值:學(xué)習(xí)率ε=0.3,層與層之間的最大迭代次數(shù)maxiter=50,層與層之間的誤差允許值error=2×10-3。
在第三步訓(xùn)練網(wǎng)絡(luò)模型中,根據(jù)構(gòu)建的EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型和訓(xùn)練樣本集合U和X,訓(xùn)練網(wǎng)絡(luò)模型,具體步驟如下:
步驟(1):輸入層到第一隱層的初始狀態(tài)求解:
給定訓(xùn)練樣本集合U后,得到EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型的能量函數(shù):
其中h表示隱層節(jié)點(diǎn)的狀態(tài)。
根據(jù)能量函數(shù)最小原則有以下迭代訓(xùn)練過程:
首先輸入樣本U正向傳播,由輸入層傳向第一隱層得到
其中sigmoid函數(shù)即S型函數(shù),即
表示第一隱層的1狀態(tài)的初始狀態(tài),之后出現(xiàn)的符號(hào)與之同理:表示第i(i=1,2,3)隱層的j(j=1,2,3)狀態(tài)。
然后由第一隱層反向傳播至輸入層得到v1(0),并記為match_U(0)即由模型數(shù)據(jù)獲得的擬合輸入:
其中v1(0)(v1∈R1000×208)表示輸入層的1狀態(tài)的初始狀態(tài);
最后數(shù)據(jù)再正向傳播,由輸入層此時(shí)的狀態(tài)v1(0)傳向第一隱層得到
其中
步驟(2):輸入層到第一隱層網(wǎng)絡(luò)參數(shù)的更新:
對(duì)于參數(shù)W1、a、b1的更新,需要先利用CD算法求出迭代步長(zhǎng)ΔW1、Δa、Δb1,即由輸入樣本數(shù)據(jù)的自由能量函數(shù)期望值和模型產(chǎn)生的樣本數(shù)據(jù)的自由能量函數(shù)期望值,得到權(quán)值的偏導(dǎo)數(shù)、輸入層偏置的偏導(dǎo)數(shù)以及第一隱層偏置的偏導(dǎo)數(shù),并將這三個(gè)偏導(dǎo)數(shù)作為網(wǎng)絡(luò)參數(shù)各自的迭代步長(zhǎng),即分別為ΔW1、Δa和Δb1:
其中〈·〉data表示由輸入樣本計(jì)算得到的值,〈·〉model表示由模型擬合產(chǎn)生的值。
求出ΔW1(k)、Δa(k)、Δb1(k)后,利用公式:
W1(k+1)=W1(k)+εΔW1(k);
a(k+1)=a(k)+εΔa(k);
b1(k+1)=b1(k)+εΔb1(k);
求解W1(k+1)、a(k+1)、b1(k+1)
之后根據(jù)步驟(1)得到更新后的狀態(tài)值match_U(k+1)、用于下一次迭代。
步驟(3):計(jì)算誤差:
若誤差值沒有達(dá)到指定誤差error=2×10-3,則繼續(xù)執(zhí)行步驟(2)和步驟(3),直到達(dá)到預(yù)設(shè)最大迭代次數(shù)maxiter=50或迭代中獲得的擬合數(shù)據(jù)match_U與輸入數(shù)據(jù)U之間的誤差值小于誤差允許值error=2×10-3,得到網(wǎng)絡(luò)模型m1{W1,a,b1}。
步驟(4):第一隱層到第二隱層的初始狀態(tài)求解:
將得到模型m1時(shí)第一隱層最后的輸出作為第二隱層的輸入記為
根據(jù)得到第二隱層的1狀態(tài)
由得到第一隱層的3狀態(tài),記為
根據(jù)得到
步驟(5):第一隱層到第二隱層網(wǎng)絡(luò)參數(shù)的更新:
對(duì)于參數(shù)W2、b2的更新,需要先根據(jù)CD算法求出迭代步長(zhǎng)ΔW2(k)、Δb2(k),
然后根據(jù)W2(k+1)=W2(k)+εΔW2(k)、b2(k+1)=b2(k)+εΔb2(k)求出W2(k+1)、b2(k+1);
之后根據(jù)步驟(4)得到更新后的狀態(tài)值用于下一次迭代。
步驟(6):計(jì)算誤差:
若誤差值沒有達(dá)到指定誤差error=2×10-3,則繼續(xù)執(zhí)行步驟(5)和步驟(6),直到達(dá)到預(yù)設(shè)最大迭代次數(shù)maxiter=50或迭代中獲得的擬合數(shù)據(jù)與輸入數(shù)據(jù)之間的誤差值小于誤差允許值error=2×10-3,得到網(wǎng)絡(luò)模型m2{W2,b2};
步驟(7):第二隱層到第三隱層的初始狀態(tài)求解:
將得到模型m2時(shí)第二隱層最后的輸出作為第三隱層的輸入記為
根據(jù)得到第三隱層的1狀態(tài)
由得到第二隱層的3狀態(tài),記為
根據(jù)得到
步驟(8):第二隱層到第三隱層網(wǎng)絡(luò)參數(shù)的更新:
對(duì)于參數(shù)W3、b3的更新,需要先根據(jù)CD算法求出迭代步長(zhǎng)ΔW3(k)、Δb3(k),
然后根據(jù)W3(k+1)=W3(k)+εΔW3(k)、b3(k+1)=b3(k)+εΔb3(k)求出W3(k+1)、b3(k+1);
之后根據(jù)步驟(7)得到更新后的狀態(tài)值用于下一次迭代。
步驟(9):計(jì)算誤差:
若誤差值沒有達(dá)到指定誤差error=2×10-3,則繼續(xù)執(zhí)行步驟(8)和步驟(9),直到達(dá)到預(yù)設(shè)最大迭代次數(shù)maxiter=50或迭代中獲得的擬合數(shù)據(jù)與輸入數(shù)據(jù)之間的誤差值小于誤差允許值error=2×10-3,得到網(wǎng)絡(luò)模型m3{W3,b3};
步驟(10):第三隱層到輸出層的初始狀態(tài)求解:
將得到模型m3時(shí)第三隱層最后的輸出作為輸出層σ的輸入記為
根據(jù)得到輸出層的1狀態(tài)σ1(0);
由得到第三隱層的3狀態(tài)
根據(jù)得到輸出層的2狀態(tài),記為
σ2(0)(σ2(0)=match_X(0));
步驟(11):第三隱層到輸出層網(wǎng)絡(luò)參數(shù)的更新:
對(duì)于參數(shù)W4、b4的更新,需要先根據(jù)CD算法求出迭代步長(zhǎng)ΔW4(k)、Δb4(k),
然后根據(jù)W4(k+1)=W4(k)+εΔW4(k)、b4(k+1)=b4(k)+εΔb4(k)求出W4(k+1)、b4(k+1);
之后根據(jù)步驟(10)得到更新后的狀態(tài)值σ1(k+1)、match_X(k+1),用于下一次迭代。
步驟(12):計(jì)算誤差:
若誤差值沒有達(dá)到指定誤差error=2×10-3,則繼續(xù)執(zhí)行步驟(11)和步驟(12),直到達(dá)到預(yù)設(shè)最大迭代次數(shù)maxiter=50或迭代中獲得的擬合數(shù)據(jù)match_X與輸入數(shù)據(jù)X之間的誤差值小于誤差允許值error=2×10-3,得到網(wǎng)絡(luò)模型m4{W4,b4};
全部訓(xùn)練結(jié)束后得到EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型
model{m1{W1a,b1},m2{W2,b2},m3{W3,b3},m4{W4,b4}}。
在第四步重建EIT圖像中,將非訓(xùn)練樣本集合的U*輸入EIT深度學(xué)習(xí)網(wǎng)絡(luò)模型,即將未訓(xùn)練的邊界測(cè)量電壓序列輸入到網(wǎng)絡(luò)的輸入層,利用上述訓(xùn)練出的模型
model{m1{W1a,b1},m2{W2,b2},m3{W3,b3},m4{W4,b4}},
獲取此時(shí)EIT深度學(xué)習(xí)網(wǎng)絡(luò)的輸出X*(即電導(dǎo)率分布序列),然后將電導(dǎo)率分布序列恢復(fù)為矩陣形式,得到重建圖像。
以上所述實(shí)例僅表達(dá)了本發(fā)明的一種實(shí)施方式,其描述較為具體和詳細(xì),但并不能因此理解為對(duì)本發(fā)明的限制。