999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN-LSTM心音分類方法的研究

2019-09-10 07:22:44于乾坤黨鑫陳建霏
現(xiàn)代信息科技 2019年22期
關(guān)鍵詞:特征提取深度學(xué)習(xí)

于乾坤 黨鑫 陳建霏

摘? 要:心音為疾病的診斷提供了初步的線索,有助于醫(yī)生對疾病的評估,但傳統(tǒng)的心音診斷訓(xùn)練費(fèi)用昂貴,難以推廣應(yīng)用。針對以上問題,本文提出了一種基于CNN-LSTM的心音自動診斷分類方法,并給出了該方法的體系結(jié)構(gòu)。網(wǎng)絡(luò)結(jié)構(gòu)由兩個局部特征學(xué)習(xí)塊和一個長短期記憶層組成,局部特征學(xué)習(xí)塊主要包括一個卷積層和一個池化層。CNN利用卷積層和池化層來學(xué)習(xí)局部相關(guān)性,同時提取層次相關(guān)性。LSTM層用于從學(xué)習(xí)到的局部特征中學(xué)習(xí)長期相關(guān)性。文章中設(shè)計的網(wǎng)絡(luò)可以充分利用這兩種網(wǎng)絡(luò)的優(yōu)點(diǎn),克服它們各自的缺點(diǎn)。實(shí)驗(yàn)采用了著名的Peter Bentley心音數(shù)據(jù)集,以梅爾頻率倒譜系數(shù)作為心音特征,實(shí)驗(yàn)結(jié)果表明,設(shè)計的CNN-LSTM在心音識別中具有較好的效果,準(zhǔn)確率約提高5%。所設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)在Peter Bentley數(shù)據(jù)集上的識別率達(dá)到85.4%,遠(yuǎn)高于LSTM和CNN分別在同一數(shù)據(jù)集上獲得的準(zhǔn)確率75.6%和80.5%。

關(guān)鍵詞:特征提取;深度學(xué)習(xí);CNN;LSTM;CNN-LSTM;心音分類

中圖分類號:TN912.3? ? ? ?文獻(xiàn)標(biāo)識碼:A 文章編號:2096-4706(2019)22-0079-05

Abstract:Heart sound provides preliminary clues in the diagnosis of the disease and helps doctors to assess the disease. However,traditional trainning of this skill are expensive and hardly to be widely used. Based on the above problems,a new classification method based CNN-LSTM is proposed for the automatic diagnosis of the heart sound. The network structure consists of two local feature learning blocks and a long-term and short-term memory layer. The local feature learning block mainly consists of a convolution layer and a pooling layer. CNN uses convolution layer and pooling layer to learn local correlation and extract hierarchical correlation at the same time. LSTM layer is used to learn long-term dependencies from the learned local features. The designed network in this paper can take advantage of the strengths of both networks and overcome the shortcomings of them. The widely known Peter Bentley heart sound dataset is used in this paper. The Mel-Frequency Cepstral Coefficients used as heart sound feature in this work. The experimental results show that the designed CNN-LSTM has a good effect in heart sound recognition,and the accuracy is improved by about 5%. The recognition rate of the designed network structure on Peter Bentley data set is 85.4%,which is much higher than the accuracy of 75.6% and 80.5% obtained by LSTM and CNN on the same data set respectively.

Keywords:feature extraction;deep learning;CNN;LSTM;CNN-LSTM;heart sound classification

0? 引? 言

心音是心臟機(jī)械振動而產(chǎn)生的一種聲音,能夠表征人體生理狀態(tài),病變心音中含有大量的病理信息。目前心音的自動診斷識別有兩種主流方法,一種是基于傳統(tǒng)機(jī)器學(xué)習(xí)的分類方法,另一種是基于深度學(xué)習(xí)的分類方法。前者主要采用支持向量機(jī)、隨機(jī)森林等分類算法,如Balili等人提出的一種基于小波分析和隨機(jī)森林分類器的心音分類方法[1],雖然分類效果不錯,但仍存在一些問題,如在前期人工提取的特征不能全面地反映數(shù)據(jù)的本質(zhì)特征,后期計算也比較復(fù)雜,而后者是利用一些神經(jīng)網(wǎng)絡(luò)模型對心音進(jìn)行分類,如人工神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)等。T.Leung等人利用的是時頻特征和人工神經(jīng)網(wǎng)絡(luò)對心音進(jìn)行分類[2],Nilanon等人提出的是利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行心音分類[3]。這些方法也明顯取得了很好的分類效果,但也存在一些不足,如特征信息提取不完全以及對大量數(shù)據(jù)的處理存在問題。

本文提出了一種新的心音分類方法,即將卷積神經(jīng)網(wǎng)絡(luò)和長短期記憶神經(jīng)網(wǎng)絡(luò)相結(jié)合進(jìn)行心音分類,可以有效地學(xué)習(xí)心音特征。本研究基于Peter Bentley數(shù)據(jù)集,即分類心音挑戰(zhàn)賽2011[4],它包含兩類數(shù)據(jù)集,本文使用的是數(shù)據(jù)集B。采用梅爾倒譜系數(shù)(MFCC)表征心音數(shù)據(jù)特征,因?yàn)樵谡Z音識別和說話人識別方面,最常用到的語音特征就是梅爾倒譜系數(shù),它能夠很好地表征音頻特征[5,6]。實(shí)驗(yàn)結(jié)果表明,所設(shè)計的網(wǎng)絡(luò)在心音分類任務(wù)中取得了良好的性能,可以有效幫助醫(yī)生診斷相關(guān)疾病,具有良好的推廣前景。

1? 心音分類方法

1.1? 預(yù)處理

有兩個不同的數(shù)據(jù)集可以驗(yàn)證提出的模型,但本文使用數(shù)據(jù)集B,因?yàn)闃颖鞠鄬碚f比較多,不容易過擬合,總共有461個樣本,數(shù)據(jù)集B有三類,分別是extrasystole、murmur和normal heartbeat,其中149個樣本含有噪聲。本文使用這個數(shù)據(jù)集做對比實(shí)驗(yàn),驗(yàn)證本文的深度學(xué)習(xí)模型。數(shù)據(jù)集B中音頻文件的長度不一,在1秒到30秒之間,因此首先進(jìn)行預(yù)處理,預(yù)處理包括移除短于2秒的心音文件,因?yàn)檫@種音頻文件不包括一個完整的周期,最終有407個心音樣本被使用,最后使用譜減法除噪算法對樣本進(jìn)行降噪處理。

1.2? 梅爾倒譜系數(shù)

在語音識別和說話人識別方面,最常用到的語音特征就是梅爾倒譜系數(shù),因?yàn)樗芎芎玫乇碚饕纛l特征。Librosa是本次實(shí)驗(yàn)用來提取特征的python library,基于此,首先把一維PCG音頻信號轉(zhuǎn)換二維time-frequency表示,即梅爾頻譜,然后在梅爾頻譜上取對數(shù),做離散余弦變換(實(shí)驗(yàn)中dct_type取值為2)得到梅爾倒譜系數(shù),對梅爾倒譜系數(shù)二維矩陣進(jìn)行轉(zhuǎn)置,然后對各列求均值,最終從每個音頻文件中提取40個特征,然后拼在一起用來訓(xùn)練網(wǎng)絡(luò),時域信號波形、頻譜圖、梅爾倒譜系數(shù)如圖1—圖3所示。

1.3? 神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)有一維卷積、二維卷積、三維卷積之分,一維卷積多用于在自然語言處理和語音識別領(lǐng)域,常用于序列模型,二維卷積多用于圖像處理領(lǐng)域,三維卷積多用于視頻處理領(lǐng)域(檢測動作及人物行為)。本次實(shí)驗(yàn)使用的是一維卷積,卷積神經(jīng)網(wǎng)絡(luò)主要的隱藏層是卷積層和池化層,卷積層提取的是局部特征,池化層主要用于特征降維,壓縮數(shù)據(jù)和參數(shù)的數(shù)量,減小過擬合,同時提高模型的容錯性。然后全連接層對局部進(jìn)行綜合操作,從而得到全局信息,卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖如圖4所示。

長短期記憶網(wǎng)絡(luò)(LSTM)是RNN的變種,本質(zhì)上也是一種循環(huán)神經(jīng)網(wǎng)絡(luò),引入LSTM是為了解決RNN的梯度爆炸和梯度消失問題,長短期神經(jīng)網(wǎng)絡(luò)有一個記憶細(xì)胞塊,主要由三個門與一個記憶單元組成。遺忘門的作用是將細(xì)胞狀態(tài)中的信息選擇性地遺忘,輸入門的作用是將新的信息選擇性地加入到細(xì)胞狀態(tài)中,輸出門的作用是根據(jù)細(xì)胞狀態(tài)選擇性輸出信息,內(nèi)部結(jié)構(gòu)如圖5所示。

通常,LSTM接受一個時間序列輸入,記憶細(xì)胞(cl)通過LSTM中反復(fù)出現(xiàn)的隱層從t=1到T不斷地更新三個門的狀態(tài):輸入門(ig),輸出門(og)以及遺忘門(fg),得到預(yù)測輸出序列,LSTM隱層用到的數(shù)學(xué)公式如下:

1.3.1? 神經(jīng)網(wǎng)絡(luò)架構(gòu)

本文提出的CNN-LSTM網(wǎng)絡(luò)結(jié)構(gòu)圖如圖6所示,通過python庫提取的MFCC數(shù)據(jù)作為神經(jīng)網(wǎng)絡(luò)的輸入,它會在卷積層、池化層以及LSTM隱層中傳遞得到最優(yōu)的特征表示,最后,通過全連接層中的多分類非線性激活函數(shù)Softmax把心音文件分類為對應(yīng)的類別。卷積神經(jīng)網(wǎng)絡(luò)里面加了一些處理如批歸一化和dropout,它們能加速訓(xùn)練速度并且避免過擬合。

1.3.2? 實(shí)驗(yàn)設(shè)計

本文實(shí)驗(yàn)使用的是Keras神經(jīng)網(wǎng)絡(luò)框架,首先調(diào)用python庫把數(shù)據(jù)集B按9:1的比例劃分為訓(xùn)練集和測試集,把train_test_split函數(shù)中的random_state參數(shù)設(shè)為0,保證每次訓(xùn)練和測試的數(shù)據(jù)一樣,然后把標(biāo)簽轉(zhuǎn)換為對應(yīng)的one-hot向量,在實(shí)驗(yàn)時把batch size設(shè)為12,訓(xùn)練輪數(shù)設(shè)為200,權(quán)重更新使用的是Adam優(yōu)化器,損失函數(shù)使用的是交叉熵?fù)p失函數(shù),然后進(jìn)行參數(shù)設(shè)置,網(wǎng)絡(luò)超參具體設(shè)置如表1所示,基于劃分相同的數(shù)據(jù)進(jìn)行訓(xùn)練以及測試,通過調(diào)整參數(shù),記錄LSTM、CNN,以及CNN與LSTM組合的網(wǎng)絡(luò)不同層數(shù)最優(yōu)結(jié)果。

2? 結(jié)果

本文采用了四個常用的指標(biāo)描述每種算法的性能。實(shí)驗(yàn)結(jié)果顯示,基于本文提出的網(wǎng)絡(luò)結(jié)構(gòu),即兩層的卷積神經(jīng)網(wǎng)絡(luò)和一層的循環(huán)神經(jīng)網(wǎng)絡(luò)相結(jié)合,能夠獲得更高的識別準(zhǔn)確率。表2顯示的是CNN-LSTM與CNN、LSTM單一網(wǎng)絡(luò)不同層數(shù)的對比實(shí)驗(yàn)結(jié)果。表3顯示的是本文提出的方法與其他作者提出的方法實(shí)驗(yàn)結(jié)果的對比。文獻(xiàn)[7]中,作者使用了三種記憶網(wǎng)絡(luò),分別是RNN、GRU和LSTM進(jìn)行對比實(shí)驗(yàn),RNN識別準(zhǔn)確率是0.652,GRU的識別準(zhǔn)確率是0.744,LSTM的識別準(zhǔn)確率是0.747,其他指標(biāo)結(jié)果如表3所示。

3? 結(jié)? 論

實(shí)驗(yàn)結(jié)果表明,卷積神經(jīng)網(wǎng)絡(luò)和長短期記憶網(wǎng)絡(luò)的結(jié)合比單一神經(jīng)網(wǎng)絡(luò)具有更高的分類準(zhǔn)確率,分類準(zhǔn)確率達(dá)到0.854。即使在數(shù)據(jù)集相對較少的情況下,本文所提出的方法與其他方法相比也有很好的分類效果。在文獻(xiàn)[7]中,即Sujadevi V G使用三種記憶網(wǎng)絡(luò)在同一數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),這些網(wǎng)絡(luò)分別是RNN、LSTM和GRU,其中LSTM的分類準(zhǔn)確率最高,達(dá)到0.747,相信該方法在今后的實(shí)際應(yīng)用中會得到推廣。接下來,我們會收集更多的數(shù)據(jù),并將其分為兩類,以驗(yàn)證這種分類方法的通用性,此外,還需要改進(jìn)特征提取技術(shù)和處理不平衡數(shù)據(jù)集,以提高模型的分類結(jié)果。

參考文獻(xiàn):

[1] BALILI C C,SOBREPENA M C C,NAVAL P C. Classification of heart sounds using discrete and continuous wavelet transform and random forests [C]// 2015 3rd IAPR Asian Conference on Pattern Recognition (ACPR),November 3-6,2015. Kuala Lumpur,Malaysia:IEEE,2016.

[2] LEUNG T,WHITE P,COLLIS W,et al. Classification of heart sounds using time-frequency method and artificial neural networks [C]// Proceedings of the 22nd Annual International Conference of the IEEE Engineering in Medicine and Biology Society (Cat. No.00CH37143),July 23-28,2000. Chicago,USA:IEEE,2000.

[3] NILANON T,PURUSHOTHAM S,LIU Y. Normal/Abnormal Heart Sound Recordings Classification Using Convolutional Neural Network [C]// 2016 Computing in Cardiology Conference (CinC),September 11-14,2016. Vancouver,Canada:IEEE,2016.

[4] BENTLEY P,NORDEHN G,COIMBRA M. Classifying Heart Sounds Challenge [EB/OL].(2012-03-30). http://www.peterjbentley.com/heartchallenge/index.html.

[5] CHAKRABORTY K,TALELE A,UPADHYA S. Voice recognition using MFCC algorithm [J]. International Journal of Innovative Research in Advanced Engineering (IJIRAE),2014,1(10):158-161.

[6] MOHAN B J,RAMESH B N. Speech recognition using MFCC and DTW [C]//2 2014 International Conference on Advances in Electrical Engineering (ICAEE),January 9-11,2014. Vellore,India:IEEE,2014:1-4.

[7] SUJADEVI V G,SOMAN K P,VINAYAKUMAR R,ET AL. DEEP MODELS FOR PHONOCARDIOGRAPHY (PCG) CLASSIFICATION [C]// 2017 International Conference on Intelligent Communication and Computational Techniques (ICCT),December 22-23,2017. Jaipur,India:IEEE,2017.

作者簡介:于乾坤(1992-),男,漢族,河南周口人,碩士研究生,研究方向:自然語言處理和音頻信號處理;黨鑫(1983-),男,漢族,天津人,副教授,工學(xué)博士,研究方向:音頻信號處理、計算醫(yī)學(xué)應(yīng)用和嵌入式系統(tǒng)開發(fā)。

猜你喜歡
特征提取深度學(xué)習(xí)
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識別
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 欧美在线中文字幕| 超清无码一区二区三区| 欧美激情伊人| 97青草最新免费精品视频| 伊人久热这里只有精品视频99| 99精品视频播放| 四虎综合网| 美女国产在线| 全午夜免费一级毛片| 亚洲综合激情另类专区| 亚洲男人天堂网址| 伊人久久青草青青综合| 婷婷六月综合网| 亚洲成a人在线播放www| 97超级碰碰碰碰精品| 麻豆精品国产自产在线| 午夜a视频| 亚洲第一av网站| 91午夜福利在线观看| 波多野结衣久久高清免费| 久久不卡精品| 中文字幕在线播放不卡| 国产真实乱了在线播放| 尤物视频一区| 无码aaa视频| a级毛片免费播放| 亚洲经典在线中文字幕| 日本高清成本人视频一区| 日本午夜精品一本在线观看 | 亚洲丝袜第一页| 福利在线不卡| 98精品全国免费观看视频| 国产日韩精品欧美一区灰| 精品一区二区三区中文字幕| 激情综合网激情综合| 久久精品电影| 午夜视频免费试看| 亚洲中文字幕在线观看| 无码专区在线观看| 国产资源免费观看| 国产91麻豆免费观看| 成人午夜精品一级毛片| 国产一二三区视频| 欧美激情一区二区三区成人| 国产成人无码AV在线播放动漫| 依依成人精品无v国产| 日本人真淫视频一区二区三区 | 中国国产A一级毛片| 特级精品毛片免费观看| 国内精品91| 免费看av在线网站网址| 日韩无码真实干出血视频| 色婷婷在线影院| 中文字幕日韩久久综合影院| 国产一区二区精品福利| 国产美女无遮挡免费视频网站 | 午夜日本永久乱码免费播放片| 97人人模人人爽人人喊小说| 99热国产这里只有精品无卡顿"| 国产精品福利导航| 亚洲三级a| 婷婷成人综合| 亚洲国产日韩在线观看| 日本精品影院| 国产传媒一区二区三区四区五区| 91香蕉视频下载网站| 亚洲最大情网站在线观看| 国产亚洲精久久久久久无码AV| 国产老女人精品免费视频| 国产激情无码一区二区三区免费| 国产a在视频线精品视频下载| 亚洲国产精品无码久久一线| 韩日午夜在线资源一区二区| 亚洲国产无码有码| 国产精品理论片| 无码啪啪精品天堂浪潮av| 五月婷婷丁香综合| 免费A∨中文乱码专区| 制服丝袜一区| 国产精品99在线观看| 国产在线视频福利资源站| 香蕉蕉亚亚洲aav综合|