999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多分辨率殘差網絡的心肌梗死定位識別研究*

2020-01-03 06:50:50齊繼蔣華張瑞卿沈陽佟彥妮沙憲政常世杰
生物醫學工程研究 2019年4期

齊繼,蔣華,張瑞卿,沈陽,佟彥妮,沙憲政△,常世杰△

(1.中國醫科大學生物醫學工程系,沈陽 110122;2.中國醫科大學附屬第四醫院醫療設備部,沈陽 110032;3.中國醫科大學附屬第一醫院心血管內科,沈陽 110054)

1 引 言

心肌梗死按發生部位分為下壁、前壁、前間壁、廣泛前壁、前側壁、高側壁和后壁七個位置,一般情況下,相較于其他單純部位發生的心肌梗死,前壁心肌梗死的病變面積較大[1]。心肌梗死的定位診斷可以精確地判斷冠狀動脈的病變位置,有助于醫生進行有針對性的介入治療,也為臨床觀察病情和判斷預后提供重要依據[2]。

十二導聯心電圖可以明確地表現出心肌梗死的多種病變部位,是一種能夠準確診斷且成本低廉的無創檢測方法。十二導聯心電圖的原理是通過連接于胸導聯和肢體導聯的電極,檢測心臟傳導系統在每個心動周期中動作電位的變化,從而形成電位隨時間變化的心電波形圖[2]。

心電圖的準確判讀需要醫生具有扎實的專業基礎和豐富的經驗,但人工判讀心電圖易出現誤判漏判的情況,且工作量較為繁重。為了解決上述問題,本研究設計一種心電圖輔助診斷算法,它可以準確地對心電圖自動分析并得出結果,從而減輕醫生的負擔,提高工作效率。

近年來,心電圖輔助識別的研究相繼出現,例如數字濾波和小波變換等技術,后來出現特征提取技術,以及近年來出現的深度學習的方法[3]。深度學習是機器學習的一種,傳統的機器學習有輸入層、隱藏層和輸出層,深度學習有多個隱藏層。深度學習的主要框架有卷積神經網絡(convolutional neural network, CNN)[4]、循環神經網絡(recurrent neural networks,RNN)[5]、長短期記憶網絡(long short-term memory Network,LSTM)[6]等, 殘差網絡(residual network,ResNet)是CNN的一種變體,它特有的短連接結構對于復雜數據有更好的分類效果[7]。ResNet在ILSVRC 2015圖像識別比賽中獲得第一名, ResNet在語義分割[8]、語音干擾檢測[9]、交通車輛識別[10]等研究領域也有一定的應用。此外,研究者提出把多分辨率網絡應用于神經網絡中以增加網絡寬度,提高識別準確率,多分辨率網絡可應用于大規模場景分類[11]、動作識別[12]、生物識別[13]等研究。

對于在醫學的心電識別領域,深度學習也有一些成功的實踐,如Kiranyaz 等[14]基于CNN模型和多層感知機(MLP)模型,對心室異位節拍(VEB)和室上性異位節拍(SVEB)進行研究,得到了95%以上的識別準確率; Isin等[15]利用CNN對MIT-BIH數據進行三分類,得到92.4%的準確率;Rajpurkar等[16]利用ResNet模型對心律失常數據進行研究,得到80.9%的平均識別準確率。

目前,從公開發表的文獻可知,尚未有利用深度學習技術進行心肌梗死定位的研究。本研究在ResNet的基礎上提出改進的多分辨率殘差網絡,該網絡能夠應用于心肌梗死定位的自動識別,并可以輔助醫生進行診斷,有一定的臨床意義。

2 算法的設計

2.1 殘差網絡

殘差網絡(ResNet)是基于CNN在結構方面進行的優化,一個ResNet塊由兩個卷積層和一個跨層連接組成,見圖1,算法如下:

yl=frelu[conv(i)]

(1)

yl+1=conv(yl)

(2)

o=frelu(i+yl+1)

(3)

其中,y為特定層的輸出,frelu為激活函數,i為ResNet塊的輸入,conv為卷積算法,o為ResNet塊的輸出。

ResNet的主要特點是短連接技術,把輸入引入卷積層之后的輸出,從而實現跨層連接。ResNet獨特的跨層連接結構可以解決網絡很深時出現的訓練退化問題和過擬合問題,ResNet可以使網絡得到充分的訓練,隨著網絡的加深,準確率顯著升高,但是網絡深度大于152層時,會進入平臺期,準確率不會有明顯提升[7]。

圖1 殘差網絡模塊

2.2 多分辨率網絡

多分辨率網絡是針對復雜圖像識別任務提出來的,不同尺度空間的圖像信息不同,普通的網絡結構容易產生誤判,多分辨率網絡能夠同時訓練粗分辨率和細分辨率網絡,見圖2。

粗分辨率網絡利用較大的接受域獲取圖像信息,細分辨率網絡利用較小的接受域獲取圖像信息,兩種網絡經訓練而得的數據特征信息,經整合后得到輸出層的預測值。粗分辨率網絡和細分辨率的網絡結構通常由CNN構成。兩個網絡在圖像區域中對應不同大小的感知域,識別圖像的效果是互補的,從而提高圖像識別準確率[13]。

圖2多分辨率卷積神經網絡

Fig.2Multi-resolution CNN

2.3 本研究設計的網絡算法

當采用ResNet等經典的CNN網絡訓練心肌梗死數據時,訓練之后的網絡模型出現了收斂效果不佳,識別準確率低的問題。為解決這些問題,本研究設計的網絡對ResNet網絡做進一步優化,見圖3、圖4。優化后的網絡是以9個卷積層為主體的31層網絡,每個卷積層之后都伴隨一個批量歸一化(batch normalization,BN)層,BN層是一種用來求解協變位移的優化算法,即把每層網絡中神經元的輸入值限制為均值為0方差為1的正態分布,使得梯度變大,訓練過程收斂快,使訓練速度加快,從而減輕梯度消失問題[17]。

該網絡的訓練步驟如下:

(1)見圖3,訓練集數據進入第1個卷積層,經BN層后通過修正線性單元(recitified linear units,ReLU)函數進行激活,ReLU可以有效緩解隨著網絡結構加深而出現的梯度消失問題,并提高訓練效率[18]。

(2)卷積后的局部特征數據經第3層最大池化(max pool)層的下采樣運算后,進入ResNet網絡結構,其余8個卷積層依次組成4個帶有短連接的ResNet模塊,每個ResNet模塊有兩個卷積層。max pool層的算法見式(4):

(4)

(3)第1組ResNet 模塊中第一個卷積層經BN層歸一化處理后,其輸出沿著框架主體向下傳輸,同時連接至第3組ResNet 模塊中第一個卷積層的輸出端。

(4)第2組ResNet 模塊中第一個卷積層經BN層歸一化處理后,輸出端沿著框架主體向下傳輸,同時連接至第4組 ResNet 模塊中第一個卷積層的輸出端。第2組ResNet 模塊的輸出經max pool層處理。

圖3 改進的殘差網絡

(5)第4組的ResNet 模塊經平均池化(average pool)層、全連接層后由ReLU函數激活,再利用dropout層,其作用是在每次訓練的時候,網絡會按照使用者設置的系數隨機使相應個數的神經元不參與該次訓練,進而減輕過擬合現象[19],最后經全連接層和softmax分類器得到輸出。

本研究在改進ResNet網絡的同時引入多分辨率網絡,見圖4,粗略分辨率網絡和精細辨率通道中卷積核的大小分別為1×81和1×9,將上述圖2所示的網絡分別輸入到這兩個分辨率的通道中,經兩個通道所訓練的輸出相加,得到最終的識別結果。

本研究將該網絡結構稱為多分辨率殘差網絡(Multi-resolution ResNet)。

圖4 多分辨率殘差網絡

3 數據

本研究的數據由中國醫科大學附屬第一醫院支持,研究使用的所有病例均由心電圖工作站中存檔的現有心電圖記錄中收集,電圖工作站為數字心電圖儀(Nihon Kohden)。心電圖儀輸出標準12導聯心電圖,采樣率為12位/1 000 Hz(12導聯同步采集),共模抑制比為120 dB,頻率響應為0.05~160 Hz (-3 dB)。所有的患者都在檢查室接受檢查,與醫生的辦公室分開,心電圖數據通過網絡傳輸。心電圖檢查按照標準程序進行:患者仰臥位,肢體導聯采用導電夾粘結,胸部導聯采用一次性導電膏粘結。每個心電圖數據的時間長度為2.5 s。

本研究從上述心電數據原始記錄中選取包括前壁心肌梗死(AMI)、下壁心肌梗死(IWMI)、前間壁心肌梗死(ASMI)在內的共計3 549個數據以及6 250個正常心電數據(NORMAL),其中,每條記錄所屬患者的性別、年齡和種族都是隨機選取的,本研究設計的訓練集與測試集數據見表1。

表1 訓練集與測試集的數據分布

4 結果

4.1 訓練方法

利用較為經典的卷積神經網絡LeNet、Vgg16、ResNet34與本研究提出的多分辨率殘差網絡進行對比。利用訓練集數據對四種網絡算法分別進行訓練,測試集數據輸入到訓練完畢的模型中,得出識別結果。

本研究采用的開發平臺是Windows 10操作系統, CNTK 2.0,編程語言是python 3.5.2。計算機配置:CPU為Intel Core i7-8700 3.3 GHz,顯卡為NVIDIA GeForce GTX1080,內存大小為16 G。

本研究設計的多分辨率殘差網絡參數設置如下:

學習率為0.000025~0.0001,輸入數據大小為12×1×1 400,輸入層的節點數為16 800,隱藏層的節點數為32~256,迭代2 000次。

4.2 結果分析

從臨床數據庫選取如表1所示的訓練集與測試集數據,分別基于LeNet34、Vgg16、ResNet34以及本研究設計的多分辨率殘差網絡進行訓練,識別結果見表2,多分辨率殘差網絡的識別準確率為91.8%,均高于其他四種網絡。

表2 多分辨率殘差網絡與經典卷及神經網絡測試集識別準確率對比

為了分析數據在迭代過程中的收斂情況,上述四種網絡的收斂曲線見圖5。可見與經典的CNN網絡相比,多分辨率殘差網絡的收斂曲線下降得更快,收斂過程更加平穩,收斂效果更好。

測試集的受試者工作特征(receiver operating characteristic,ROC)曲線見圖6,橫軸表示1-特異度,縱軸表示敏感度,AUC為曲線下面積,曲線越接近左上角,表示模型的準確性越高,對疾病的識別能力越強。

圖5在訓練集中多分辨率殘差網絡與經典卷積神經網絡的收斂曲線對比

Fig.5Comparison of Multi-resolution ResNet and classic CNN′s convergent curve on train data

(a).LeNet;(b).VGG;(c).ResNet34;(d).Multi-resolution ResNet

圖6 在訓練集中多分辨率殘差網絡與經典卷積神經網絡的受試者工作特征曲線對比

5 討論

本研究基于經典的神經網絡設計了多分辨率殘差網絡,并將其用于心肌梗死的定位識別。對臨床數據庫進行四分類,多分辨率殘差網絡的識別準確率高于經典的神經網絡;與經典的神經網絡相比,多分辨率殘差網絡的收斂效果更好,根據ROC曲線的分析,其診斷能力更強。

由實驗可知,在心肌梗死定位識別領域,多分辨率殘差網絡可以應用于臨床的心電圖輔助診斷任務。在今后的研究中,將收集更多的數據,并對心肌梗死以外的心電數據進行深度神經網絡訓練,以期利用深度學習技術能夠識別更多的心血管疾病,從而在臨床心電數據自動診斷中實現更廣泛的應用。

主站蜘蛛池模板: 丝袜久久剧情精品国产| 久久黄色一级片| 国产欧美自拍视频| 国产精品流白浆在线观看| 国产视频一区二区在线观看| 香蕉eeww99国产在线观看| 亚洲日韩第九十九页| 亚洲天堂久久| 久久久久免费看成人影片| 久久精品66| 欧美午夜在线视频| 伊伊人成亚洲综合人网7777| 欧美h在线观看| av天堂最新版在线| 动漫精品中文字幕无码| 伊人久久婷婷| 任我操在线视频| 九九久久精品免费观看| 亚洲bt欧美bt精品| 久久特级毛片| 国产精品手机在线观看你懂的| 亚洲人在线| 国产成人综合日韩精品无码不卡| 亚洲国产看片基地久久1024| 99精品热视频这里只有精品7 | 天天躁夜夜躁狠狠躁图片| 国产精品第页| 亚洲小视频网站| 美女啪啪无遮挡| 日韩无码视频专区| 中文字幕在线永久在线视频2020| 国产乱子伦视频在线播放| 老司机久久99久久精品播放| 亚洲欧美不卡视频| 欧美在线免费| 亚洲精品自在线拍| 久久永久免费人妻精品| 91精品国产91久久久久久三级| 91人妻在线视频| 国产乱子精品一区二区在线观看| 国产在线91在线电影| 四虎成人免费毛片| 色偷偷综合网| 久久精品女人天堂aaa| 国产一区二区精品高清在线观看| 国产特一级毛片| 亚洲二区视频| 在线高清亚洲精品二区| 中文字幕在线视频免费| 在线观看网站国产| 久久无码高潮喷水| 精品国产91爱| 精品五夜婷香蕉国产线看观看| 成人自拍视频在线观看| 免费又黄又爽又猛大片午夜| 少妇精品在线| 成人午夜久久| 国产成人高清精品免费软件| 草草影院国产第一页| 国产成人1024精品下载| 色婷婷在线播放| 亚洲国产成人精品一二区| 国产95在线 | 国产精品一区二区久久精品无码| 国产对白刺激真实精品91| 国产高清毛片| 色欲不卡无码一区二区| 午夜不卡福利| 欧美日韩精品一区二区在线线 | 这里只有精品免费视频| 精品一区二区无码av| 全部无卡免费的毛片在线看| 亚洲福利片无码最新在线播放| 国产色网站| 国产成人免费高清AⅤ| 米奇精品一区二区三区| 91免费片| 亚洲视频四区| 久热中文字幕在线观看| 久久国产精品77777| 亚洲欧美不卡中文字幕| 乱系列中文字幕在线视频 |