亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種對醫(yī)療圖像進行轉(zhuǎn)換學習的方法和裝置與流程

文檔序號:11590814閱讀:169來源:國知局

本發(fā)明涉及醫(yī)療人工智能與大數(shù)據(jù)處理領域,特別涉及一種對醫(yī)療圖像轉(zhuǎn)換學習的方法和裝置。



背景技術(shù):

隨著以深度學習框架為內(nèi)核的新人工智能技術(shù)強勢崛起,在各個領域都獲得了長足的發(fā)展與推進,alphago、無人駕駛車、語音識別等人們期盼多年的技術(shù)也都在很短的時間內(nèi)獲得了突破。在可見的未來當中,深度學習也將推動醫(yī)療行業(yè)的大數(shù)據(jù)分析與人工智能應用的發(fā)展。

然而,即便有以上的突破,目前深度學習技術(shù)在訓練環(huán)節(jié)仍然存在著比較大的問題:

i)模型訓練成本高,目前應用得最好的深度學習和大數(shù)據(jù)分析模型都是非常龐大的模型,從頭開始訓練模型的時間動輒數(shù)星期甚至數(shù)月,消耗大量時間與人力。也不利于建模師對模型的迅速迭代與研發(fā)。

ii)某些應用場景訓練數(shù)據(jù)有限,數(shù)據(jù)當中涵蓋的信息不足以支撐訓練一個龐大的深度學習模型,嚴重限制深度學習模型在此類應用場景當中的應用范圍。

具體到醫(yī)療行業(yè),以上兩個問題可以被具體體現(xiàn)為以下:

1)醫(yī)療領域維度本來就比一般應用場景要多,每一個病人的診療數(shù)據(jù)紛繁復雜,深度學習和數(shù)據(jù)分析模型也比一般的要龐大和復雜,訓練成本非常高,傳統(tǒng)方法對深度學習和大數(shù)據(jù)、機器學習模型進行學習和訓練將耗費大量的人力與物力,大大降低該應用的經(jīng)濟可行性。

2)醫(yī)療領域雖然整體數(shù)據(jù)題量大,但是數(shù)據(jù)源分散在各個醫(yī)院當中,缺乏整體可用的統(tǒng)一數(shù)據(jù)庫,圍繞單一應用場景的數(shù)據(jù)量(如病例數(shù))非常有限,數(shù)據(jù)的變化量不足以支撐訓練和運算龐大的深度學習和大數(shù)據(jù)模型,大大限制深度學習和大數(shù)據(jù)技術(shù)能夠被使用的場景。

以上兩個點都大大限制深度學習整體技術(shù)在醫(yī)療行業(yè)的發(fā)展與持續(xù)進步。

一般深度學習與大數(shù)據(jù)建模當中的訓練模塊,我們通過樣本數(shù)據(jù)來對模型當中的各項參數(shù)進行優(yōu)化運算,通過訓練模塊的分析與運算,深度學習和大數(shù)據(jù)模型參數(shù)將變得越來越優(yōu)化,最終能夠形成可以完成特定功能的優(yōu)化后模型。因此通過樣本訓練而進行的優(yōu)化流程在大數(shù)據(jù)、機器學習與深度學習各項建模當中至關重要。

在醫(yī)療行業(yè)當中進行建模,往往因為場景復雜需要建立復雜龐大的深度學習和大數(shù)據(jù)模型來對數(shù)據(jù)進行學習和訓練,可是往往在不同應用場景當中樣本數(shù)量有限,這為深度學習與大數(shù)據(jù)建模訓練模塊當中的參數(shù)優(yōu)化環(huán)節(jié)帶來非常大的壓力,往往我們所擁有的數(shù)據(jù)量不足以支撐整個模型所需要的樣本來完成優(yōu)化,模型往往運算不出足夠的效果,優(yōu)化過程當中找不到最優(yōu)點。



技術(shù)實現(xiàn)要素:

為克服現(xiàn)有技術(shù)的不足,本發(fā)明提供了一種對醫(yī)療圖像進行轉(zhuǎn)換學習的方法和裝置,可有效解決解決以上優(yōu)化問題,以提升深度學習在醫(yī)療圖像領域的實用效果。

本發(fā)明的一種對醫(yī)療圖像進行轉(zhuǎn)換學習的方法,其包括如下步驟:

s1:讀取醫(yī)療圖像的原始數(shù)據(jù)信息,通過分析數(shù)據(jù)屬性,對數(shù)據(jù)進行變換加工,整合成待分析模型能夠接收的數(shù)據(jù)格式;

s2:通過待分析模型與已經(jīng)訓練好的模型進行參數(shù)比較,來選擇轉(zhuǎn)換方式,從而進行參數(shù)轉(zhuǎn)換,并將轉(zhuǎn)換學習應用在醫(yī)療圖像的待分析模型的訓練;

s3:當模型訓練結(jié)束時,將訓練好的模型參數(shù)應用到該圖像類別的分析上;

在步驟s2中,所述參數(shù)包括待分析模型和已經(jīng)訓練好的模型的參數(shù);所述轉(zhuǎn)換方式包括:完全轉(zhuǎn)換方式、部分轉(zhuǎn)換方式、混合轉(zhuǎn)換方式、參數(shù)變形方式、時序?qū)敕绞揭约白远x導入方式。

優(yōu)選地,所述s2步驟中的參數(shù)轉(zhuǎn)換包括如下步驟:

s21:讀取已經(jīng)訓練好的模型中的參數(shù),根據(jù)已經(jīng)訓練好的模型的格式來構(gòu)建參數(shù)讀取接口;

s22:建立對于已經(jīng)訓練好的模型的參數(shù)組的預處理功能,其中包括對于數(shù)據(jù)的截取、分段、數(shù)學變形、混合、改變順序等操作;

s23:將預處理完成之后的已經(jīng)訓練好的模型的參數(shù)組導入待分析模型中,根據(jù)待分析模型的輸入輸出格式構(gòu)建載入接口;

s24:對待分析模型的分析過程進行干預,根據(jù)待分析模型訓練過程當中的相應分析、訓練模塊的功能參數(shù)進行調(diào)整。

優(yōu)選地,所述完全轉(zhuǎn)換方式包括:如果待分析模型與已經(jīng)訓練好的模型的整體結(jié)構(gòu)完全相同,擁有同樣的參數(shù)數(shù)量和參數(shù)結(jié)構(gòu),則將已經(jīng)訓練好的模型的參數(shù)整體直接轉(zhuǎn)入待分析模型開始進行訓練。

優(yōu)選地,所述部分轉(zhuǎn)換方式包括:如果待分析模型與已經(jīng)訓練好的模型整體結(jié)構(gòu)不同,或者不希望將已經(jīng)訓練好的模型的所有參數(shù)轉(zhuǎn)換到待分析模型當中,則將已經(jīng)訓練好的模型當中的部分參數(shù)轉(zhuǎn)換到待分析模型當中;或者不希望待分析模型當中的所有參數(shù)都來自于已經(jīng)訓練好的模型,則將待分析模型當中的部分參數(shù)從已經(jīng)訓練好的模型轉(zhuǎn)換,剩余參數(shù)以其他方式產(chǎn)生和調(diào)整。

優(yōu)選地,所述混合轉(zhuǎn)換方式包括:同時將多個已經(jīng)訓練好的模型的參數(shù)以特定方式進行合并,轉(zhuǎn)入待分析模型當中。

優(yōu)選地,所述參數(shù)變形方式包括:在將已經(jīng)訓練好的模型的參數(shù)轉(zhuǎn)換進入待分析模型的過程當中,對已經(jīng)訓練好的模型的參數(shù)進行特定數(shù)學轉(zhuǎn)換,再導入待分析模型當中。

優(yōu)選地,所述時序?qū)敕绞桨ǎ涸趯⒁呀?jīng)訓練好的模型的參數(shù)轉(zhuǎn)換進入待分析模型的過程當中,按照需求在訓練過程當中逐步轉(zhuǎn)換進入,而不是一次性完成。

優(yōu)選地,所述自定義導入方式包括:在將已經(jīng)訓練好的模型的參數(shù)轉(zhuǎn)換進入待分析模型的過程當中,對已經(jīng)訓練好的模型轉(zhuǎn)換進入待分析模型的基本流程、結(jié)構(gòu)、目標、方法等進行自定義調(diào)整,使得參數(shù)導入的過程更符合實際的應用場景。

本發(fā)明還涉及一種對醫(yī)療圖像進行轉(zhuǎn)換學習的裝置,其包括:數(shù)據(jù)處理模塊,其讀取醫(yī)療圖像的原始數(shù)據(jù)信息,通過分析數(shù)據(jù)屬性,對數(shù)據(jù)進行變換加工,整合成待分析模型能夠接收的數(shù)據(jù)格式;轉(zhuǎn)換學習模塊,其通過待分析模型與已經(jīng)訓練好的模型進行參數(shù)比較,來選擇轉(zhuǎn)換方式,從而進行參數(shù)轉(zhuǎn)換,并將轉(zhuǎn)換學習應用在醫(yī)療圖像的待分析模型的訓練;應用模塊,其當模型訓練結(jié)束時,將訓練好的模型參數(shù)應用到該圖像類別的分析上;其中,所述參數(shù)包括待分析模型和已經(jīng)訓練好的模型的參數(shù);所述轉(zhuǎn)換學習模塊中的轉(zhuǎn)換方式包括:完全轉(zhuǎn)換方式、部分轉(zhuǎn)換方式、混合轉(zhuǎn)換方式、參數(shù)變形方式、時序?qū)敕绞揭约白远x導入方式。

優(yōu)選地,所述轉(zhuǎn)換學習模塊包括:參數(shù)獲取子模塊,其讀取已經(jīng)訓練好的模型中的參數(shù),根據(jù)已經(jīng)訓練好的模型的格式來構(gòu)建參數(shù)讀取接口;參數(shù)預處理子模塊:其對已經(jīng)訓練好的模型的參數(shù)組進行預處理,其中包括對于數(shù)據(jù)的截取、分段、數(shù)學變形、混合、改變順序等操作;參數(shù)導入子模塊:其將預處理完成之后的已經(jīng)訓練好的模型的參數(shù)組導入待分析模型中,根據(jù)待分析模型的輸入輸出格式構(gòu)建載入接口;模型干預子模塊:其對待分析模型的分析過程進行干預,根據(jù)待分析模型訓練過程當中的相應分析、訓練模塊的功能參數(shù)進行調(diào)整。

本發(fā)明提供的技術(shù)方案帶來的有益效果體現(xiàn)在:在深度學習模型或者大數(shù)據(jù)模型開始對于訓練數(shù)據(jù)進行學習和優(yōu)化之前,將在別的應用場景當中已經(jīng)訓練好的模型參數(shù)加載到現(xiàn)有模型當中,再開始對模型進行正常的優(yōu)化運算。本發(fā)明提供的方法和裝置可以幫助模型在參數(shù)空間當中一個比較理想的起點開始進行優(yōu)化,有助于模型在較短的時間和較少的訓練樣本即能夠?qū)ふ业捷^好的優(yōu)化點,大大降低模型訓練的成本與條件,讓更多應用場景下的模型都可以被應用。比如我們可以利用本發(fā)明將分析股骨頭的數(shù)據(jù)模型轉(zhuǎn)移到分析和運算胸肺部疾病來進行進一步提升與分析:例如在不利用參數(shù)轉(zhuǎn)移只用肺部疾病圖片進行訓練,得到模型的準確率只能達到65%,而將分析股骨頭的數(shù)據(jù)模型參數(shù)轉(zhuǎn)移到肺部疾病模型上后,訓練得到模型的準確率可達85%以上,因此降低了肺部疾病建模分析的難度與成本。

附圖說明

為了更清楚地說明本發(fā)明實施例中的技術(shù)方案,下面將對實施例描述中所需要使用的附圖作簡單地介紹。顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領域普通技術(shù)人員來說,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。

圖1是根據(jù)本發(fā)明實施例的對醫(yī)療圖像進行轉(zhuǎn)換學習的方法的示意圖;

圖2是根據(jù)本發(fā)明實施例的對醫(yī)療圖像進行轉(zhuǎn)換學習的方法的流程圖;

圖3是圖2中的方法的參數(shù)轉(zhuǎn)換步驟的流程圖;

圖4是根據(jù)本發(fā)明實施例的對醫(yī)療圖像進行轉(zhuǎn)換學習的裝置的框圖;

圖5是圖3中的轉(zhuǎn)換學習模塊的框圖。

具體實施方式

為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合附圖對本發(fā)明的實施方式做進一步地詳細描述。

本發(fā)明提供了一種對醫(yī)療圖像進行轉(zhuǎn)換學習的方法,如圖1所示,其為根據(jù)本發(fā)明實施例的轉(zhuǎn)換學習的方法的示意圖。

場景a為所期望深度學習、機器學習或大數(shù)據(jù)分析能夠?qū)W習和分析的醫(yī)療場景。首先,收集與場景a相關的訓練樣本數(shù)據(jù),建立訓練樣本數(shù)據(jù)庫。在訓練樣本數(shù)據(jù)庫的基礎上再建立針對場景a的模型訓練模塊,而訓練模塊當中所用到的數(shù)學模型涵蓋場景a模型的基本框架(模型層)與框架上的參數(shù)(參數(shù)層)。在訓練過程當中,訓練模塊當中的基本框架保持不變,但是與基本框架上所涵蓋的參數(shù)會隨著運算流程進行一輪又一輪的持續(xù)更新,自我學習,逐步優(yōu)化,讓模型逐漸擁有所期望的分析和智能化的效果。

當模型非常復雜,訓練樣本有限的情況下,場景a的優(yōu)化過程會非常艱難,很多時候模型甚至起不到想要的效果,場景a的建模和分析過程很容易因此而失敗。而參數(shù)轉(zhuǎn)換學習方法則可有效解決該問題,可以將場景b理解成為另外一個擁有充足數(shù)據(jù),并且深度學習或大數(shù)據(jù)模型已經(jīng)擁有非常良好效果的應用場景。

因此,通過待分析模型a與已經(jīng)訓練好的模型b進行參數(shù)比較,完成轉(zhuǎn)換學習所需要的參數(shù)轉(zhuǎn)換功能。利用參數(shù)轉(zhuǎn)換學習方法,將場景b當中訓練過后的參數(shù)取出,進行加工和預處理,并轉(zhuǎn)移到模型a的基本模型框架當中。

因此,模型a將自己的參數(shù)優(yōu)化流程建立在被轉(zhuǎn)換過來的參數(shù)上,模型a的訓練模塊則不必從頭開始對參數(shù)進行優(yōu)化,而是直接在模型b的參數(shù)上進行進一步優(yōu)化即可,模型b當中具有很強特征挖掘能力的參數(shù)則通過模型參數(shù)轉(zhuǎn)換學習方法有效地被轉(zhuǎn)換到了應用場景a的模型當中。

當參數(shù)轉(zhuǎn)換完成后,對醫(yī)療圖像進行深度學習模型的訓練,訓練結(jié)束時,將模型b的參數(shù)應用到相關醫(yī)療圖像的分析上。該步驟包括將轉(zhuǎn)換學習應用在特定醫(yī)療圖像的深度學習模型訓練,當模型訓練結(jié)束時,就可以將模型b的參數(shù)應用到該圖像類別的分析上。

舉例說明,模型a目標是訓練深度學習模型分析和挖掘肺結(jié)節(jié)在x光上的特征規(guī)律,可以輔助診斷,但是所能獲取肺結(jié)節(jié)數(shù)據(jù)有限,分析得出的模型效果不好。同時另一方面,可以擁有大量的肺積液x光數(shù)據(jù),并成功訓練出針對肺積液的深度學習模型b。因此將模型b訓練所獲得的針對肺積液x光模型參數(shù)放入模型a針對肺結(jié)節(jié)的模型當中開始進行學習。而模型a的訓練因為獲得了模型b的轉(zhuǎn)換而大大降低了數(shù)據(jù)量的門檻,訓練效果大大提升。

如圖2所示,本發(fā)明的一種對醫(yī)療圖像的轉(zhuǎn)換學習的方法包括如下步驟:

s1:讀取醫(yī)療圖像的原始數(shù)據(jù)信息,通過分析數(shù)據(jù)屬性,對數(shù)據(jù)進行變換加工,整合成模型a能夠接收的數(shù)據(jù)格式;

s2:通過模型a與模型b進行參數(shù)比較,來選擇轉(zhuǎn)換方式,從而進行參數(shù)轉(zhuǎn)換,并將轉(zhuǎn)換學習應用在醫(yī)療圖像的模型a的訓練;

s3:當模型訓練結(jié)束時,將模型b參數(shù)應用到該圖像類別的分析上。

在步驟s2中,所述轉(zhuǎn)換方式包括:完全轉(zhuǎn)換方式、部分轉(zhuǎn)換方式、混合轉(zhuǎn)換方式、參數(shù)變形方式、時序?qū)敕绞揭约白远x導入方式。

如圖3所示,所述s2步驟中的參數(shù)轉(zhuǎn)換包括如下步驟:

s21:讀取模型b中的參數(shù),根據(jù)模型b的格式來構(gòu)建參數(shù)讀取接口;

s22:建立對于模型b的參數(shù)組的預處理功能,其中包括對于數(shù)據(jù)的截取、分段、數(shù)學變形、混合、改變順序等操作;

s23:將預處理完成之后的模型b的參數(shù)組導入模型a中,根據(jù)模型a的輸入輸出格式構(gòu)建載入接口;

s24:對模型a的分析過程進行干預,根據(jù)模型a訓練過程當中的相應分析、訓練模塊的功能參數(shù)進行調(diào)整。

在模型a訓練的過程當中也可以對模型a的訓練過程進行干預,調(diào)整模型a訓練過程當中的一系列控制參數(shù)。比如,參數(shù)轉(zhuǎn)換模塊可以有選擇性地調(diào)整模型a當中不同參數(shù)的學習速度,可以對于更底層的參數(shù)減低學習速度,對于更高層次的模型參數(shù)放更高的學習速度,讓不同的參數(shù)擁有不同的學習和調(diào)整速度。

其中,模型b的參數(shù)轉(zhuǎn)換至模型a的轉(zhuǎn)換方式包括:完全轉(zhuǎn)換方式、部分轉(zhuǎn)換方式、混合轉(zhuǎn)換方式、參數(shù)變形方式、時序?qū)敕绞揭约白远x導入方式。所述完全轉(zhuǎn)換方式為如果模型a與模型b的整體結(jié)構(gòu)完全相同,擁有同樣的參數(shù)數(shù)量和參數(shù)結(jié)構(gòu),則可以將模型b的參數(shù)整體直接轉(zhuǎn)入模型a開始進行訓練;所述部分轉(zhuǎn)換方式為如果模型a與模型b整體結(jié)構(gòu)不同,或者不希望將模型b的所有參數(shù)轉(zhuǎn)換到模型a當中,參數(shù)轉(zhuǎn)換模塊仍可以將模型b當中的部分參數(shù)轉(zhuǎn)換到模型a當中,或者不希望讓模型a當中所有參數(shù)都來自于模型b,則可以將模型a當中部分的參數(shù)轉(zhuǎn)換自模型b,剩余參數(shù)以其他方式產(chǎn)生和調(diào)整;所述混合轉(zhuǎn)換方式為參數(shù)轉(zhuǎn)化模塊可以同時將多個模型(模型b、模型c等)的參數(shù)以特定方式進行合并,轉(zhuǎn)入模型a當中;所述參數(shù)變形方式為在參數(shù)轉(zhuǎn)換模塊將模型b的參數(shù)轉(zhuǎn)換進入a的過程當中,可以對模型b的參數(shù)進行特定數(shù)學轉(zhuǎn)換,再導入a當中;所述時序?qū)敕绞綖樵趨?shù)轉(zhuǎn)換模塊將模型b的參數(shù)導入a的過程當中,可以按照需求在訓練過程當中逐步導入,不需要一次性完成;所述自定義導入為在參數(shù)轉(zhuǎn)換模塊將模型b的參數(shù)導入a的過程當中,可以對模型b導入a的基本流程、結(jié)構(gòu)、目標、方法等進行自定義調(diào)整,使得參數(shù)導入的過程更符合實際的應用場景。

如圖4所示,本發(fā)明還涉及一種對醫(yī)療圖像進行轉(zhuǎn)換學習的裝置,所述裝置包括:

數(shù)據(jù)處理模塊,其讀取醫(yī)療圖像的原始數(shù)據(jù)信息,通過分析數(shù)據(jù)屬性,對數(shù)據(jù)進行變換加工,整合成模型a能夠接收的數(shù)據(jù)格式;

轉(zhuǎn)換學習模塊,其通過模型a與模型b進行參數(shù)比較,來選擇轉(zhuǎn)換方式,從而進行參數(shù)轉(zhuǎn)換,并將轉(zhuǎn)換學習應用在醫(yī)療圖像的模型a的訓練;

應用模塊,其當模型訓練結(jié)束時,將模型b的參數(shù)應用到該圖像類別的分析上。

如圖5所示,其圖示了圖4中的轉(zhuǎn)換學習模塊的框圖。所述轉(zhuǎn)換學習模塊包括:

1)參數(shù)獲取子模塊,其讀取模型b中的參數(shù),根據(jù)模型b的格式來構(gòu)建參數(shù)讀取接口;

2)參數(shù)預處理子模塊:其對模型b的參數(shù)組進行預處理,其中包括對于數(shù)據(jù)的截取、分段、數(shù)學變形、混合、改變順序等操作;

3)參數(shù)導入子模塊:其將預處理完成之后的模型b的參數(shù)組導入模型s中,根據(jù)模型a的輸入輸出格式構(gòu)建載入接口;

4)模型干預子模塊:其對模型a的分析過程進行干預,根據(jù)模型a訓練過程當中的相應分析、訓練模塊的功能參數(shù)進行調(diào)整。

下面以示例來進行說明。

第一實施例:將智能分析胸部x光模型參數(shù)轉(zhuǎn)換學習至智能分析胸部ct模型。

假設已經(jīng)通過大量數(shù)據(jù)的學習與分析擁有了一個專門用于分析胸部x光模型。假設每一張x光的數(shù)據(jù)圖像維度為(1,4096,4096),所使用的模型參數(shù)矩陣的維度列表為:[32,3,3,3],[64,32,3,3],[128,64,3,3],[2,4096]。

而此時希望分析胸部ct模型,假設胸部ct的每一張片子圖像維度為(300,256,256),所使用的模型參數(shù)列表為:[32,300,3,3],[64,32,3,3],[128,64,3,3],[1000,4096]。

胸部x光模型數(shù)據(jù)量充足,訓練充分,因此模型效果非常好,而目標訓練胸部ct模型,數(shù)據(jù)量不足,且模型龐大復雜,訓練效果非常差。因此可以使用本發(fā)明提出的模型參數(shù)轉(zhuǎn)換學習裝置:

數(shù)據(jù)處理模塊,其將胸部ct數(shù)據(jù)處理加工成模型可以輸入的格式;

轉(zhuǎn)換學習模塊;其將胸部x光模型的參數(shù)進行轉(zhuǎn)換,對模型進行訓練學習;其中:

參數(shù)獲取子模塊,其從胸部x光模型的參數(shù)當中獲取所有的參數(shù)矩陣,收入模塊當中;

參數(shù)預處理子模塊,由于胸部x光模型的參數(shù)維度與胸部ct模型的參數(shù)維度不同,參數(shù)預處理子模塊對第一層參數(shù)使用特有轉(zhuǎn)換方法進行預處理,此次轉(zhuǎn)換采用的是將胸部x光模型的第一層參數(shù)在第二個軸線上重復100遍,最后一層因為不做載入,因此不做任何預處理,直接去除。其余參數(shù)不做任何預處理,直接進行轉(zhuǎn)換,即通過轉(zhuǎn)換將參數(shù)矩陣的維度轉(zhuǎn)變成為[32,3,3,3]→[32,300,3,3],[64,32,3,3]→[64,32,3,3],[128,64,3,3]→[128,64,3,3]。

參數(shù)載入子模塊,其將除胸部x光模型最后一層以外的參數(shù)載入到胸部ct模型當中,開始分析訓練,因此胸部ct模型當中最后一層參數(shù)不會被轉(zhuǎn)換。

模型干預子模塊,其在胸部ct模型開始訓練學習之后,干預模型訓練過程,對于被轉(zhuǎn)換了的前三層參數(shù)給予較緩慢的更新和學習,而最后一層沒有被轉(zhuǎn)換的參數(shù)給予更高的學習更新速度。應用模塊,在胸部ct模型訓練結(jié)束后,進入應用模塊。

第二實施例:將智能分析股骨頭x光模型參數(shù)轉(zhuǎn)換學習至智能分析心肺x光模型。

假設已經(jīng)通過大量數(shù)據(jù)的學習與分析擁有了一個專門用于分析股骨頭x光模型。假設每一張x光的數(shù)據(jù)圖像維度為(1,2000,2000),所使用的模型參數(shù)矩陣的維度列表為:[32,3,3,3],[64,32,3,3],[128,64,3,3],[2,1024]。

而此時希望分析模型,假設心肺x光的每一張片子圖像維度為(1,2000,2000),所使用的模型參數(shù)列表為:[32,3,3,3],[64,32,3,3],[128,64,3,3],[2,1024]。

股骨頭x光模型數(shù)據(jù)量充足,訓練充分,因此模型效果非常好,而目標訓練心肺x光模型,數(shù)據(jù)量不足,訓練效果比較差。因此可以使用本發(fā)明提出的模型參數(shù)轉(zhuǎn)換學習裝置:

數(shù)據(jù)處理模塊,其將心肺x光數(shù)據(jù)處理加工成模型可以輸入的格式;

轉(zhuǎn)換學習模塊;其將股骨頭x光模型的參數(shù)進行轉(zhuǎn)換,對模型進行訓練學習;其中:

參數(shù)獲取子模塊,其從股骨頭x光模型的參數(shù)當中獲取所有的參數(shù)矩陣,收入模塊當中;

參數(shù)預處理子模塊,由于股骨頭x光模型的參數(shù)維度與心肺x光模型的參數(shù)維度完全一樣,轉(zhuǎn)換可采用參數(shù)完全轉(zhuǎn)換方式。

參數(shù)載入子模塊,其將除股骨頭x光模型最后一層以外的參數(shù)載入到心肺x光模型當中,開始分析訓練,因此心肺x光模型當中最后一層參數(shù)不會被轉(zhuǎn)換。

模型干預子模塊,其在心肺x光模型開始訓練學習之后,干預模型訓練過程,對于被轉(zhuǎn)換了的前三層參數(shù)給予較緩慢的更新和學習,而最后一層沒有被轉(zhuǎn)換的參數(shù)給予更高的學習更新速度。

應用模塊,在心肺x光模型訓練結(jié)束后,進入應用模塊。

第三實施例:將智能分析肺部ct模型參數(shù)轉(zhuǎn)換學習至智能分析大腦mri模型。

假設已經(jīng)通過大量數(shù)據(jù)的學習與分析擁有了一個專門用于分析肺部ct模型。假設ct模型輸入的數(shù)據(jù)圖像維度為(1,100,512,512),所使用的模型參數(shù)矩陣的維度列表為:[32,100,3,3],[64,32,3,3],[128,64,3,3],[1,1024]。

而此時希望分析模型,假設大腦mri的每一張片子圖像維度為(1,100,256,256),所使用的模型參數(shù)列表為:[32,100,3,3],[64,32,3,3],[128,64,3,3],[256,128,3,3],[1,1024]。

肺部ct模型數(shù)據(jù)量充足,訓練充分,因此模型效果非常好,而目標訓練大腦mri模型,數(shù)據(jù)量不足,訓練效果比較差。因此可以使用本發(fā)明提出的模型參數(shù)轉(zhuǎn)換學習裝置:

數(shù)據(jù)處理模塊,其將大腦mri數(shù)據(jù)處理加工成模型可以輸入的格式;

轉(zhuǎn)換學習模塊;其將肺部ct模型的參數(shù)進行轉(zhuǎn)換,對模型進行訓練學習;其中:

參數(shù)獲取子模塊,其從肺部ct模型的參數(shù)當中獲取所有的參數(shù)矩陣,收入模塊當中;

參數(shù)預處理子模塊,雖然肺部ct模型的參數(shù)維度與大腦mri模型的參數(shù)維度完全一樣,但參數(shù)的數(shù)目存在差異,所以此次轉(zhuǎn)換采用的是參數(shù)部分轉(zhuǎn)換方式。

參數(shù)載入子模塊,其將除肺部ct模型最后一層以外的參數(shù)載入到大腦mri模型當中,大腦mri模型多出來的一組參數(shù)[256,128,3,3]采用服從高斯分布的隨機數(shù)初始化,然后開始分析訓練。

模型干預子模塊,其在大腦mri模型開始訓練學習之后,干預模型訓練過程,對于被轉(zhuǎn)換了的前三層參數(shù)給予較緩慢的更新和學習,而最后一層沒有被轉(zhuǎn)換的參數(shù)給予更高的學習更新速度。

應用模塊,在大腦mri模型訓練結(jié)束后,進入應用模塊。

以上詳細描述了本發(fā)明的具體實施例,但可以理解,在不脫離本發(fā)明的精神下可以對其作出修改。本發(fā)明的權(quán)利要求旨在覆蓋這些修改,以保證其落入本發(fā)明的真實范圍和精神內(nèi)。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1