亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

電子病歷實體關系抽取方法及裝置與流程

文檔序號:12271913閱讀:548來源:國知局
電子病歷實體關系抽取方法及裝置與流程

本公開涉及醫(yī)療數(shù)據(jù)挖掘領域,具體地,涉及一種電子病歷實體關系抽取方法及裝置。



背景技術:

隨著信息時代數(shù)據(jù)量的爆炸式增長,臨床醫(yī)療數(shù)據(jù)也展現(xiàn)出其容量大、增速快、形式多樣和潛在價值高的特點。而在臨床醫(yī)療領域,以自然語言文本形式存在的電子病歷數(shù)據(jù)占有重要地位。在這種背景下,使用計算機從非結構化的電子病歷文本數(shù)據(jù)中自動抽取出結構化的信息,即信息抽取技術,受到了廣泛的關注,具有重要的應用價值。電子病歷實體關系抽取是其信息提取的核心任務。

目前,用于文本實體關系抽取主要是有監(jiān)督方法,這類方法將實體關系抽取視為一個分類問題,將句子中實體之間的關系劃分到預先定義好的類別中,從而完成關系抽取任務。這類方法有兩個主流研究方向:(a)人工提取特征,如詞性、語義角色、依存句法樹等,然后使用支持向量機或者最大熵等分類器進行分類;(b)基于核函數(shù)的方法,計算輸入字符的核函數(shù),根據(jù)核函數(shù)的相似度來判定關系類型。但是,由于這些方法的分類性能很大程度上依賴于基礎自然語言處理工具,如詞性標注、語法分析等,至少存在以下缺陷:

(1)這些基礎工具都存在錯誤;

(2)特征集的選擇依靠經(jīng)驗和專家知識;

(3)有些語言沒有完善的基礎處理工具。



技術實現(xiàn)要素:

本公開的目的是提供一種電子病歷實體關系抽取方法及裝置,能夠挖掘出電子病歷中實體之間的關系。

為了實現(xiàn)上述目的,本公開提供一種電子病歷實體關系抽取方法,所述方法包括:通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣;將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量;將所述特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系。

可選地,所述通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣的步驟包括:分割每條電子病歷自然語句的詞;將每個詞映射為一個m維的向量;將映射后的所述每條電子病歷自然語句表示為n×m的矩陣,其中,矩陣的列維數(shù)為m,行維數(shù)為所述詞的個數(shù)n。

可選地,在所述將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量的步驟之前,所述方法還包括:滑動卷積核,得到與映射后的所述電子病歷自然語句的矩陣的卷積結果;根據(jù)所述卷積結果,經(jīng)過最大池化層得到所述電子病歷自然語句的特征;利用已有的電子病歷訓練集數(shù)據(jù)和所述特征,對所述卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)。

可選地,在所述滑動卷積核,得到與映射后的所述電子病歷自然語句的矩陣的卷積結果的步驟之前,所述方法還包括:設置所述電子病歷自然語句中多個相鄰詞的行維數(shù)的卷積核的值為隨機值。

可選地,所述利用已有的電子病歷訓練集數(shù)據(jù)和所述特征,對所述卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)的步驟包括:選取已有的電子病歷訓練集數(shù)據(jù),將所述已有的電子病歷訓練集數(shù)據(jù)的實體關系進行分類標注;根據(jù)所述分類批注和經(jīng)過最大池化層得到的特征,訓練所述卷積神經(jīng)網(wǎng)絡模型,得到卷積核參數(shù)和分類器參數(shù)。

此外,為實現(xiàn)上述目的,本公開還提供一種電子病歷實體關系抽取裝置,所述裝置包括:矩陣獲取模塊,用于通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣;計算模塊,用于將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量;抽取模塊,用于將所述特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系。

可選地,所述矩陣獲取模塊包括:分割子模塊,用于分割每條電子病歷自然語句的詞;映射子模塊,用于將每個詞映射為一個m維的向量;矩陣輸出子模塊,用于將映射后的所述每條電子病歷自然語句表示為n×m的矩陣,其中,矩陣的列維數(shù)為m,行維數(shù)為所述詞的個數(shù)n。

可選地,所述裝置還包括:卷積模塊,用于滑動卷積核,得到與映射后的所述電子病歷自然語句的矩陣的卷積結果;特征計算模塊,用于根據(jù)所述卷積結果,經(jīng)過最大池化層得到所述電子病歷自然語句的特征;參數(shù)計算模塊,用于利用已有的電子病歷訓練集數(shù)據(jù)和所述特征,對所述卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)。

可選地,所述裝置還包括:設置模塊,用于設置所述電子病歷自然語句中多個相鄰詞的行維數(shù)的卷積核的值為隨機值。

可選地,所述參數(shù)計算模塊包括:分類標注子模塊,用于選取已有的電子病歷訓練集數(shù)據(jù),將所述已有的電子病歷訓練集數(shù)據(jù)的實體關系進行分類標注;參數(shù)計算子模塊,用于根據(jù)所述分類批注和經(jīng)過最大池化層得到的特征,訓練所述卷積神經(jīng)網(wǎng)絡模型,得到卷積核參數(shù)和分類器參數(shù)。

通過上述技術方案,通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣,將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量,將特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系。這樣,利用了卷積神經(jīng)網(wǎng)絡模型的優(yōu)勢,挖掘出電子病歷自然語言中實體之間的關系,為自動學習電子病歷信息提供了技術途徑。

本公開的其他特征和優(yōu)點將在隨后的具體實施方式部分予以詳細說明。

附圖說明

附圖是用來提供對本公開的進一步理解,并且構成說明書的一部分,與下面的具體實施方式一起用于解釋本公開,但并不構成對本公開的限制。在附圖中:

圖1是本公開一實施例提供的電子病歷實體關系抽取方法的流程示意圖;

圖2是本公開一實施例提供的獲取電子病歷自然語句映射后的矩陣的流程示意圖;

圖3是本公開另一實施例提供的電子病歷實體關系抽取方法的流程示意圖;

圖4是本公開一實施例提供的對所述卷積神經(jīng)網(wǎng)絡模型進行訓練的流程示意圖;

圖5是本公開一實施例提供的電子病歷實體關系抽取裝置的框圖;

圖6是本公開一實施例提供的矩陣獲取模塊的框圖;

圖7是本公開另一實施例提供的電子病歷實體關系抽取裝置的框圖;

圖8是本公開一實施例提供的參數(shù)計算模塊的框圖。

具體實施方式

以下結合附圖對本公開的具體實施方式進行詳細說明。應當理解的是,此處所描述的具體實施方式僅用于說明和解釋本公開,并不用于限制本公開。

本公開提出的電子病歷實體關系抽取方法及裝置是基于卷積神經(jīng)網(wǎng)絡。所謂卷積神經(jīng)網(wǎng)是一種特殊的深層神經(jīng)網(wǎng)絡,也是第一個成功應用的深層網(wǎng)絡模型。卷積神經(jīng)網(wǎng)利用空間相對關系減少參數(shù)數(shù)目,成為當今很多計算機視覺系統(tǒng),如圖像識別、自動駕駛等的核心部分。

卷積的概念來自于數(shù)字信號處理,一維形式的卷積定義如下:

公式(1)的物理含義是一個信號通過一個系統(tǒng)后的輸出形式,數(shù)學形式上是求信號的加權平均值。

二維形式的卷積定義如下:

二維卷積常用于圖像處理,在公式(2)中,f(x,y)是圖像上點的灰度值,w(x,y)則是卷積核,也稱為濾波器。卷積操作就相當于將圖像通過濾波器進行濾波。在卷積神經(jīng)網(wǎng)絡中,并不是所有上下層神經(jīng)元都能直接相連,而是通過“卷積核”作為中介,同一個卷積核在所有圖像內(nèi)是共享的。

卷積神經(jīng)網(wǎng)絡每層都由特征提取層和其后用來求局部平均與二次提取的計算層,這種特有的兩層特征提取結構使網(wǎng)絡在識別時有較高的畸變?nèi)萑棠芰?。卷積神經(jīng)網(wǎng)有三個主要優(yōu)點:一是通過權值共享機制,減少了網(wǎng)絡參數(shù);二是卷積的操作非??欤蝗峭ㄟ^下采樣機制,使得提取的特征具有旋轉不變性和平移不變性。卷積神經(jīng)網(wǎng)幾乎覆蓋所有識別和檢測任務。

圖1是本公開一實施例提供的電子病歷實體關系抽取方法的流程示意圖。請參照圖1,所述方法可以包括以下步驟。

在步驟S110中,通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣。

具體地,在卷積神經(jīng)網(wǎng)絡模型中,使用詞向量將電子病歷自然語句進行映射,每條語句表示為矩陣。

示例性地,使用詞向量模型工具將每條電子病歷自然語句的詞映射為一個400維的向量,每條語句表示為矩陣。其中,矩陣列維數(shù)為400,行維數(shù)為該語句中詞的個數(shù)。

圖2是本公開一實施例提供的獲取電子病歷自然語句映射后的矩陣的流程示意圖。請參照圖2,通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣的步驟(步驟S110)可以包括以下步驟。

在步驟S210中,分割每條電子病歷自然語句的詞。

具體地,將每條電子病歷自然語句的詞都獨立分割出來,可表示為:

Wn={w1,w2,w3,…,wn} (3)

在公式(3),Wn表示一條語句分割后的詞向量表達式,n表示語句中詞的個數(shù)。

在步驟S220中,將每個詞映射為一個m維的向量。

具體地,利用詞向量模型工具將每個詞映射為一個m維的向量,可表示為:

在公式(4)中,表示詞wi經(jīng)過詞向量模型工具映射后的詞向量,D表示詞向量模型工具的字典函數(shù)。

可選地,所述的詞向量模型工具至少包括谷歌的開源詞向量訓練工具Word2vec和斯坦福大學的GloVe。

示例性地,取m為400,即:將每個詞映射為一個維數(shù)為400的向量。

在步驟S230中,將映射后的所述每條電子病歷自然語句表示為n×m的矩陣,其中,矩陣的列維數(shù)為m,行維數(shù)為所述詞的個數(shù)n。

示例性地,取矩陣的列維數(shù)m為400,行維數(shù)為所述詞的個數(shù)n,則每條映射后的電子病歷自然語句表示為矩陣Vn×400

返回圖1,在步驟S120中,將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量。

具體地,將電子病歷自然語句映射后的矩陣經(jīng)過卷積層和最大池化層,再進行非線性映射,得到特征,輸入測試的電子病歷自然語句,利用訓練好的卷積神經(jīng)網(wǎng)絡模型得到該自然語句的特征向量。

在訓練的時候,對連續(xù)n個詞的窗口進行打分f(wt-n+1,…,wt-1,wt),分數(shù)越高則這句話越正常。在此假設條件下,卷積神經(jīng)網(wǎng)絡模型的最小化目標函數(shù)為:

在公式(5)中,χ是訓練語料中所有連續(xù)n元短語,D是包含所有單詞的詞典。第一個求和使用訓練語料中全部的n元短語作為正樣本。第二個求和通過對詞典中詞的替換獲取負樣本。x(w)是將短語x中最中間的詞,隨機替換成w。在絕大部分情況下,用隨機的一個詞替換正常的一段短語中的詞,這段短語將變得不再合理,所以x(w)構成了負樣本。

在步驟S130中,將所述特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系。

具體地,將特征向量輸入到已訓練的分類器,根據(jù)最大概率原則抽取測試的電子病歷自然語句的實體關系。

可選地,所述分類器可以是Softmax分類器。

本實施例提供的電子病歷實體關系抽取方法,通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣,將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量,將特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系,從而利用了卷積神經(jīng)網(wǎng)絡模型的優(yōu)勢,挖掘出電子病歷自然語言中實體之間的關系,為自動學習電子病歷信息提供了技術途徑。

圖3是本公開另一實施例提供的電子病歷實體關系抽取方法的流程示意圖。參照圖3,在圖1的基礎上,在所述將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量的步驟(步驟S120)之前,所述方法還包括以下步驟。

步驟S310,滑動卷積核,得到與映射后的所述電子病歷自然語句的矩陣的卷積結果。

具體地,縱向滑動卷積核,得到與映射后的電子病歷自然語句矩陣Vn×400的卷積結果,可表示為:

C={c1,c2,…,cn-h+1} (7)

在公式(6)中,Vn×400代表每條映射后的電子病歷自然語句的矩陣,L代表卷積核,C代表卷積結果。在公式(7)中,C的維數(shù)為n-h+1,n為語句中詞的個數(shù),h為卷積核的行維數(shù)。

在步驟S320中,根據(jù)所述卷積結果,經(jīng)過最大池化層得到所述電子病歷自然語句的特征。

具體地,根據(jù)每個卷積核得到的多個卷積結果,經(jīng)過最大池化層得到電子病歷自然語句的特征。

在步驟S330中,利用已有的電子病歷訓練集數(shù)據(jù)和所述特征,對所述卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)。

在本公開的一實施例中,在圖3的基礎上,滑動卷積核,得到與映射后的所述電子病歷自然語句的矩陣的卷積結果的步驟(步驟S310)之前,所述方法還可以包括:設置所述電子病歷自然語句中多個相鄰詞的行維數(shù)的卷積核的值為隨機值。

示例性地,在電子病歷自然語句中,選擇多個相鄰詞的行維數(shù)分別為3、4、5的卷積核各100個,所有卷積核的列維數(shù)為400,卷積核的值為隨機值,則三種卷積核分別表示為L3×400、L4×400、L5×400。

圖4是本公開一實施例提供的對所述卷積神經(jīng)網(wǎng)絡模型進行訓練的流程示意圖。請參照圖4,在圖3的基礎上,利用已有的電子病歷訓練集數(shù)據(jù)和所述特征,對所述卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)的步驟(步驟S330)可以包括以下步驟。

在步驟S410中,選取已有的電子病歷訓練集數(shù)據(jù),將所述已有的電子病歷訓練集數(shù)據(jù)的實體關系進行分類標注。

在步驟S420中,根據(jù)所述分類批注和經(jīng)過最大池化層得到的特征,訓練所述卷積神經(jīng)網(wǎng)絡模型,得到卷積核參數(shù)和分類器參數(shù)。

具體地,根據(jù)梯度下降方法對卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)。

進一步地,上述參數(shù)可以表示為:θ=(F,S),其中,F(xiàn)代表卷積核參數(shù),S代表分類器參數(shù)。

可選地,分類器為Softmax分類器。

本實施例的電子病歷實體關系抽取方法,使用淺層網(wǎng)絡,網(wǎng)絡的輸入層由詞向量將自然語句映射后構成一個矩陣,該矩陣經(jīng)過卷積層和池化層之后,得到特征,使用Softmax分類器,輸出分類后的類別標簽,從而利用卷積神經(jīng)網(wǎng)絡模型,挖掘出電子病歷中實體之間的關系,為自動學習電子病歷信息提供了技術途徑。

圖5是本公開一實施例提供的電子病歷實體關系抽取裝置的框圖。請參照圖5,所述電子病歷實體關系抽取裝置500可以包括矩陣獲取模塊510、計算模塊520和抽取模塊530。

矩陣獲取模塊510,用于通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣。

具體地,在卷積神經(jīng)網(wǎng)絡模型中,矩陣獲取模塊510使用詞向量將電子病歷自然語句進行映射,每條語句表示為矩陣。

示例性地,使用詞向量模型工具將每條電子病歷自然語句的詞映射為一個400維的向量,每條語句表示為矩陣,其中,矩陣列維數(shù)為400,行維數(shù)為該語句中詞的個數(shù)。

圖6是本公開一實施例提供的矩陣獲取模塊510的框圖。請參照圖6,矩陣獲取模塊510可以包括分割子模塊610、映射子模塊620和矩陣輸出子模塊630。

分割子模塊610用于分割每條電子病歷自然語句的詞。

具體地,分割子模塊610將每條電子病歷自然語句的詞都獨立分割出來,可表示為:

Wn={w1,w2,w3,…,wn} (3)

在公式(3)中,Wn表示一條語句分割后的詞向量表達式,n表示語句中詞的個數(shù)。

映射子模塊620用于將每個詞映射為一個m維的向量。

具體地,映射子模塊620利用詞向量模型工具將每個詞映射為一個m維的向量,可表示為:

在公式(4)中,表示詞wi經(jīng)過詞向量模型工具映射后的詞向量,D表示詞向量模型工具的字典函數(shù)。

可選地,所述的詞向量模型工具至少包括谷歌的開源詞向量訓練工具Word2vec和斯坦福大學的GloVe。

示例性地,取m為400,即:將每個詞映射為一個維數(shù)為400的向量。

矩陣輸出子模塊630用于將映射后的所述每條電子病歷自然語句表示為n×m的矩陣,其中,矩陣的列維數(shù)為m,行維數(shù)為所述詞的個數(shù)n。

示例性地,取矩陣的列維數(shù)m為400,行維數(shù)為所述詞的個數(shù)n,則矩陣輸出子模塊630將每條映射后的電子病歷自然語句表示為矩陣Vn×400。

返回圖5,計算模塊520用于將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量。

具體地,計算模塊520將電子病歷自然語句映射后的矩陣經(jīng)過卷積層和最大池化層,再進行非線性映射,得到特征,輸入測試的電子病歷自然語句,計算模塊520利用訓練好的卷積神經(jīng)網(wǎng)絡模型得到該自然語句的特征向量。

在訓練的時候,對連續(xù)n個詞的窗口進行打分f(wt-n+1,…,wt-1,wt),分數(shù)越高則這句話越正常。在此假設條件下,卷積神經(jīng)網(wǎng)絡模型的最小化目標函數(shù)為:

在公式(5)中,χ是訓練語料中所有連續(xù)n元短語,D是包含所有單詞的詞典。第一個求和使用訓練語料中全部的n元短語作為正樣本。第二個求和通過對詞典中詞的替換獲取負樣本。x(w)是將短語x中最中間的詞,隨機替換成w。在絕大部分情況下,用隨機的一個詞替換正常的一段短語中的詞,這段短語將變得不再合理,所以x(w)構成了負樣本。

抽取模塊530,用于將所述特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系。

具體地,將特征向量輸入到已訓練的分類器,抽取模塊530根據(jù)最大概率原則抽取測試的電子病歷自然語句的實體關系。

可選地,所述分類器可以是Softmax分類器。

本實施例提供的電子病歷實體關系抽取裝置,矩陣獲取模塊510通過卷積神經(jīng)網(wǎng)絡模型和詞向量化表示,獲取電子病歷自然語句映射后的矩陣,計算模塊520將測試的電子病歷自然語句輸入至已訓練的卷積神經(jīng)網(wǎng)絡模型,得到特征向量,抽取模塊530將特征向量輸入至已訓練的分類器,抽取所述測試的電子病歷自然語句的實體關系,從而利用了卷積神經(jīng)網(wǎng)絡模型的優(yōu)勢,挖掘出電子病歷自然語言中實體之間的關系,為自動學習電子病歷信息提供了技術途徑。

圖7是本公開另一實施例提供的電子病歷實體關系抽取裝置的框圖。請參照圖7,在圖5的基礎上,所述裝置還包括卷積模塊710、特征計算模塊720、參數(shù)計算模塊730。

卷積模塊710用于滑動卷積核,得到與映射后的所述電子病歷自然語句的矩陣的卷積結果。

具體地,縱向滑動卷積核,卷積模塊710得到與映射后的電子病歷自然語句矩陣Vn×400的卷積結果,可表示為:

C={c1,c2,…,cn-h+1} (7)

在公式(6)中,Vn×400代表每條映射后的電子病歷自然語句的矩陣,L代表卷積核,C代表卷積結果。在公式(7)中,C的維數(shù)為n-h+1,n為語句中詞的個數(shù),h為卷積核的行維數(shù)。

特征計算模塊720用于根據(jù)所述卷積結果,經(jīng)過最大池化層得到所述電子病歷自然語句的特征。

具體地,特征計算模塊730根據(jù)每個卷積核得到的多個卷積結果,經(jīng)過最大池化層得到電子病歷自然語句的特征。

參數(shù)計算模塊730用于利用已有的電子病歷訓練集數(shù)據(jù)和所述特征,對所述卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)。

可選地,在圖7的基礎上,所述裝置還可以包括設置模塊。

設置模塊用于設置所述電子病歷自然語句中多個相鄰詞的行維數(shù)的卷積核的值為隨機值。

示例性地,在電子病歷自然語句中,設置模塊選擇多個相鄰詞的行維數(shù)分別為3、4、5的卷積核各100個,所有卷積核的列維數(shù)為400,卷積核的值為隨機值,則三種卷積核分別表示為L3×400、L4×400、L5×400。

圖8是本公開一實施例提供的參數(shù)計算模塊730的框圖。請參照圖8,參數(shù)計算模塊730可以包括分類標注子模塊810和參數(shù)計算子模塊820。

分類標注子模塊810用于選取已有的電子病歷訓練集數(shù)據(jù),將所述已有的電子病歷訓練集數(shù)據(jù)的實體關系進行分類標注。

參數(shù)計算子模塊820用于根據(jù)所述分類批注和經(jīng)過最大池化層得到的特征,訓練所述卷積神經(jīng)網(wǎng)絡模型,得到卷積核參數(shù)和分類器參數(shù)。

具體地,參數(shù)計算子模塊820根據(jù)梯度下降方法對卷積神經(jīng)網(wǎng)絡模型進行訓練,得到卷積核參數(shù)和分類器參數(shù)。

進一步地,上述參數(shù)可以表示為:θ=(F,S),其中,F(xiàn)代表卷積核參數(shù),S代表分類器參數(shù)。

可選地,分類器為Softmax分類器。

本實施例的電子病歷實體關系抽取裝置,使用淺層網(wǎng)絡,網(wǎng)絡的輸入層由詞向量將自然語句映射后構成一個矩陣,該矩陣經(jīng)過卷積層和池化層之后,得到特征,使用Softmax分類器,輸出分類后的類別標簽,從而利用卷積神經(jīng)網(wǎng)絡模型,挖掘出電子病歷中實體之間的關系,為自動學習電子病歷信息提供了技術途徑。

以上結合附圖詳細描述了本公開的優(yōu)選實施方式,但是,本公開并不限于上述實施方式中的具體細節(jié),在本公開的技術構思范圍內(nèi),可以對本公開的技術方案進行多種簡單變型,這些簡單變型均屬于本公開的保護范圍。

另外需要說明的是,在上述具體實施方式中所描述的各個具體技術特征,在不矛盾的情況下,可以通過任何合適的方式進行組合,為了避免不必要的重復,本公開對各種可能的組合方式不再另行說明。

此外,本公開的各種不同的實施方式之間也可以進行任意組合,只要其不違背本公開的思想,其同樣應當視為本公開所公開的內(nèi)容。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1