999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的多通道腦電信號(hào)睡眠分期方法

2022-08-03 06:59:10張金輝鄭宇博羅瑩瑩鄒冰央妮李蕾
中國(guó)醫(yī)療設(shè)備 2022年7期
關(guān)鍵詞:特征融合模型

張金輝,鄭宇博,羅瑩瑩,鄒冰,央妮,李蕾

1. 解放軍總醫(yī)院服務(wù)保障中心 裝備保障室,北京 100853;2. 北京郵電大學(xué) 人工智能學(xué)院,北京 100876

引言

睡眠是人類非常重要的生理活動(dòng),睡眠質(zhì)量與人類身體健康直接相關(guān)[1]。根據(jù)美國(guó)睡眠醫(yī)學(xué)會(huì)(American Academy of Sleep Medicine,AASM)分類標(biāo)準(zhǔn),將人的睡眠劃分為W、N1、N2、N3 和快速眼動(dòng)期(Rapid Eyes Movement,REM)這5 個(gè)階段,不同的睡眠階段中腦電信號(hào)(Electroencephalogram,EEG)呈現(xiàn)出不同的節(jié)律[2-3]。通常選用大腦中心部(C 區(qū))、枕部(O 區(qū))、前額部(FP 區(qū))采集的腦電信號(hào)來(lái)判斷睡眠階段。但基于腦電信號(hào)進(jìn)行人工睡眠分期需要豐富的經(jīng)驗(yàn)且極其耗時(shí)。借助人工智能技術(shù)進(jìn)行睡眠分期有助于提升效率,近年來(lái)已成為人工智能算法的研究熱點(diǎn)。

傳統(tǒng)的睡眠特征主要有時(shí)域、頻域、標(biāo)準(zhǔn)差、中位數(shù)等,因此實(shí)現(xiàn)睡眠分期主要有兩種思路:一種是基于特征提取的分期方法,設(shè)計(jì)算法從原始數(shù)據(jù)提取特征,再通過(guò)特定的分類器進(jìn)行分類,如Phan 等[4]從多通道信號(hào)中提取時(shí)頻分布特征;Chen 等[5]基于多模態(tài)數(shù)據(jù)融合,特征融合實(shí)現(xiàn)睡眠分期。以上方法在其數(shù)據(jù)集上均達(dá)到了約81%的準(zhǔn)確率,但由于需要具備專業(yè)的先驗(yàn)知識(shí)進(jìn)行特征提取,模型可遷移性較差,且非端到端的學(xué)習(xí)受主觀的影響較大。另一種是基于深度學(xué)習(xí)進(jìn)行睡眠分期[6],如Supratak 等[7]基于單通道EEG 信號(hào)提出了一種深度學(xué)習(xí)模式,并命名為DeepSleepNet,其主要采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)提取特征,長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short Term,LSTM)進(jìn)行序列的學(xué)習(xí),相較于人工提取特征方法的準(zhǔn)確率提升了3%;Dong 等[8]提出了循環(huán)神經(jīng)網(wǎng)絡(luò)+LSTM 的混合網(wǎng)絡(luò);Eldele 等[9]利用多頭注意力機(jī)制捕獲分支卷積后的特征之間的時(shí)間依賴關(guān)系;馬家睿等[10]通過(guò)隱馬爾科夫模型狀態(tài)轉(zhuǎn)移規(guī)則優(yōu)化提高使用CNN 網(wǎng)絡(luò)的睡眠分期的準(zhǔn)確率;Sun 等[11]基于多模態(tài)生理信號(hào)進(jìn)行睡眠分期研究。雖然基于深度學(xué)習(xí)的方法不需要設(shè)計(jì)算法提取特征,也不需要依賴專業(yè)知識(shí),且應(yīng)用前景廣闊,然而,這些深度學(xué)習(xí)方法采用的數(shù)據(jù)集多為單通道或雙通道數(shù)據(jù),易使研究人員設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)模型時(shí)忽略了多通道EEG 之間的空間關(guān)聯(lián)性,缺乏對(duì)多通道EEG 數(shù)據(jù)的有效利用。

本研究基于深度學(xué)習(xí)方法,提出基于注意力的多通道EEG 融合睡眠分期方法(Attention Based Multi-Channel EEG Sleep Net,AMCSleepNet),通過(guò)多分支卷積網(wǎng)絡(luò)提取EEG 的時(shí)頻特征。與單通道模型不同,AMCSleepNet 關(guān)注睡眠EEG 樣本的多通道的結(jié)構(gòu),通過(guò)壓縮聚合(Squeeze and Excitation,SE)模塊[12]融合不同通道的時(shí)頻特征,該方法結(jié)合Transformer 思想來(lái)替換LSTM 方案,通過(guò)多頭注意力挖掘特征的時(shí)間前后相關(guān)性,減少了模型訓(xùn)練時(shí)間,相較于單通道模型和多通道深度卷積模型,可提升臨床數(shù)據(jù)的利用率和睡眠分期的準(zhǔn)確率。

1 AMCSleepNet的整體架構(gòu)與提取方法

AMCSleepNet 的整體架構(gòu)如圖1 所示,主要分為特征提取模塊、特征融合模塊、Transformer 編碼器和分類模塊4 個(gè)部分。提取過(guò)程如下:① 特征提取模塊中的多分支卷積網(wǎng)絡(luò)采用不同尺度的卷積,對(duì)EEG 各通道分別提取時(shí)頻域特征;② 特征融合模塊通過(guò)SE 和殘差層(Residual Layer)將不同通道的特征進(jìn)行融合和選擇;③ 利用Transformer 編碼器,捕捉特征的時(shí)間前后關(guān)系;④ 在分類模塊中,全連接網(wǎng)絡(luò)和softmax 層將特征轉(zhuǎn)換為概率向量,得到最終的睡眠分期結(jié)果。特征提取和特征融合模塊的具體操作如下。

1.1 時(shí)頻特征提取

不同睡眠階段采集的EEG 信號(hào)能量集中在不同的頻率范圍。研究表明,小尺度的卷積核能捕捉一定的時(shí)域特征,大尺度的卷積核能捕捉頻域的特征,并且卷積核越大,對(duì)應(yīng)的特征頻率越低;卷積核越小,對(duì)應(yīng)的特征頻率越高。因此,模型第一部分是輸入的EEG 通道,分支卷積網(wǎng)絡(luò)的結(jié)構(gòu)如圖1 所示。兩個(gè)分支均有3 個(gè)卷積層,且第一層卷積核大小不同。由于EEG 數(shù)據(jù)的采樣率為100 Hz,長(zhǎng)度為50 個(gè)采樣點(diǎn)的小尺度卷積核對(duì)應(yīng)0.5 s 的樣本數(shù)據(jù),因此可以捕捉2 Hz 正弦信號(hào)的整個(gè)周期。同樣,長(zhǎng)度為400采樣點(diǎn)的大尺度卷積核對(duì)應(yīng)4 s 的樣本數(shù)據(jù),可以捕捉到0.25 Hz 正弦信號(hào)的完整周期。以此提取EEG 信號(hào)不同頻率范圍的特征,其后兩層卷積用以提取更多特征信息。使用Dropout 層和最大值池化防止過(guò)擬合。每一個(gè)卷積層計(jì)算后均進(jìn)行批量歸一化,并通過(guò)高斯誤差線性單位(Gaussian Error Linear Units,GELU)激活函數(shù)[13]進(jìn)行非線性運(yùn)算。GELU 是非初等函數(shù)的激活函數(shù),為提升神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度,根據(jù)公式(1)近似為初等函數(shù),式中變量x為經(jīng)過(guò)每一個(gè)批量歸一化層得到的中間特征如圖1 所示。

圖1 基于注意力的多通道EEG融合睡眠分期方法AMCSleepNet的整體架構(gòu)

1.2 特征融合網(wǎng)絡(luò)

由于特征提取模塊已經(jīng)得到來(lái)自不同通道的EEG 時(shí)頻特征,因此AMCSleepNet 的特征融合網(wǎng)絡(luò)主要解決各通道的特征融合問(wèn)題,其結(jié)構(gòu)如圖1 所示。特征融合模塊主要有壓縮、聚合、重構(gòu)3 部分。設(shè)輸入特征融合網(wǎng)絡(luò)的特征為FC×N×d,C為通道數(shù),N,d為每個(gè)分支卷積網(wǎng)絡(luò)輸出特征的數(shù)量和特征的長(zhǎng)度。采用卷積和全局平均值池化方法,將輸入的多通道特征矩陣壓縮成一維向量s={s1,s2,…sN}。然后利用兩個(gè)全連接層和sigmoid 函數(shù)將s轉(zhuǎn)換為權(quán)重eN×d。最后通過(guò)F和e點(diǎn)積重新構(gòu)造多通道的特征矩陣F’N×d,作為下一模塊的輸入。

1.3 Transformer編碼網(wǎng)絡(luò)

Transformer 編碼器是Transformer 模型中的重要組成部分,包括多頭注意力、求和與歸一化層、前饋網(wǎng)絡(luò)與殘差連接,其結(jié)構(gòu)如圖1 所示。該編碼器能夠有效捕捉特征的時(shí)間相關(guān)信息,被廣泛應(yīng)用于機(jī)器翻譯[14]、自然語(yǔ)言處理[15]、計(jì)算機(jī)視覺(jué)[16-18]等領(lǐng)域。

在編碼器中,多頭注意力網(wǎng)絡(luò)是第一個(gè)單元,其結(jié)構(gòu)如圖2 所示。設(shè)輸入的特征為X={x1,…xN}N×d,X在d維度上被分為h個(gè)子空間,對(duì)應(yīng)h個(gè)頭部。根據(jù)公式(2)[14],對(duì)每個(gè)子空間Xi,分別乘以WQ、Wk和WV,得到圖2 中的Qi、Ki和Vi。其中,將注意力矩陣轉(zhuǎn)化為標(biāo)準(zhǔn)正態(tài)分布,softman( )用于計(jì)算Vi的權(quán)重。將各個(gè)子空間的注意力拼接,得到多頭注意力MA,如公式(3)所示。

圖2 Transformer編碼器的多頭注意力結(jié)構(gòu)

采用求和與歸一化層以殘差連接的方式,將網(wǎng)絡(luò)的輸入與多頭注意力網(wǎng)絡(luò)的輸出相加,避免深層網(wǎng)絡(luò)的梯度消失。在前饋網(wǎng)絡(luò)中,使用兩層線性全連接和線性整流函數(shù)(Linear Rectification Function,RELU)進(jìn)一步深化模型。

2 結(jié)果

2.1 數(shù)據(jù)獲取與預(yù)處理

本研究使用的睡眠EEG 數(shù)據(jù)來(lái)自2021 全國(guó)智能睡眠科學(xué)大賽提供的6 名受試者的睡眠數(shù)據(jù)。其中包含3 名兒童睡眠數(shù)據(jù)和3 名成人睡眠數(shù)據(jù),共6237 個(gè)樣本。每個(gè)樣本包含30 s 的多通道EEG 信號(hào)。取兒童樣本和成人樣本共有的4 個(gè)EEG 通道:F3-M2、F4-M1、C3-M2、C4-M1,并下采樣至100 Hz。睡眠分期結(jié)果由專家按照AASM 標(biāo)準(zhǔn)進(jìn)行標(biāo)注,并作為標(biāo)簽來(lái)評(píng)估模型。受試者樣本數(shù)量分布如表1 所示。

表1 受試者睡眠樣本分布

2.2 對(duì)比方案

單通道模型性能突出的AttnSleepNet 利用并行CNN 架構(gòu)提取單通道EEG 信號(hào)的特征,并利用因果卷積和時(shí)間前后文編碼來(lái)捕捉時(shí)間相關(guān)性[9]。EEGNet[19]利用深度卷積和可分離卷積提取EEG 特征,從而能對(duì)多通道EEG 信號(hào)進(jìn)行分析。由于缺少多通道睡眠分期模型作為對(duì)比方案,本研究將EEGNet 特征提取模塊的卷積核進(jìn)行調(diào)整,改造成適用于多通道的睡眠分期模型EEGNet-Sleep[20]。

采用留一法開(kāi)展實(shí)驗(yàn):選取1 名受試者整晚的睡眠(0:00—8:00)數(shù)據(jù)作為測(cè)試集,其他受試者的睡眠數(shù)據(jù)作為訓(xùn)練集。對(duì)于多通道模型,將多個(gè)EEG 通道共同輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,計(jì)算其準(zhǔn)確率、訓(xùn)練時(shí)間、內(nèi)存消耗等性能指標(biāo),根據(jù)這些性能指標(biāo)選擇神經(jīng)網(wǎng)絡(luò)超參數(shù)。選擇自適應(yīng)矩估計(jì)(Adaptive Momentum Estimation,Adam)作為優(yōu)化器,學(xué)習(xí)率設(shè)置為5e-5,每次訓(xùn)練的batch size 大小設(shè)置為256,訓(xùn)練500 輪。以準(zhǔn)確率作為性能評(píng)估的標(biāo)準(zhǔn),如公式(4)所示。

其中,TP為正確預(yù)測(cè)類別的個(gè)數(shù),F(xiàn)N為預(yù)測(cè)錯(cuò)誤的個(gè)數(shù),i∈{W,N1,N2,N3,REM}。

單通道模型無(wú)法處理多通道數(shù)據(jù),而多通道模型能夠向下兼容,因此首先將AMCSleepNet 的通道數(shù)設(shè)為1,在數(shù)據(jù)集的每個(gè)EEG 通道分別訓(xùn)練網(wǎng)絡(luò)并進(jìn)行對(duì)比,不同通道睡眠分期準(zhǔn)確率如圖3 所示。由圖3 可知,AMCSleepNet 在各個(gè)通道上相較于AttnSleepNet 均有提升,且在F4-M1 通道上的提升最明顯,睡眠分期準(zhǔn)確率平均提升6.30%,在SA0 上相較于AttnSleepNet 提升了12.51%,結(jié)果表明AMCSleepNet 模型在單通道數(shù)據(jù)上已經(jīng)具有更好的睡眠分期效果,能夠捕捉到不同通道的信息。

圖3 AttnSleepNet與AMCSleepNet不同通道的睡眠分期準(zhǔn)確率對(duì)比

為驗(yàn)證AMCSleepNet 與多通道EEG 數(shù)據(jù)結(jié)合是否能提升睡眠分期效果,采用留一法,將其與EEGNetSleep 在多通道數(shù)據(jù)集上分別進(jìn)行訓(xùn)練和測(cè)試,并與兩種單通道最佳結(jié)果進(jìn)行對(duì)比。AttnSleepNet 的最優(yōu)通道是C3-M2,AMCSleepNet 的最優(yōu)通道是F4-M1,具體結(jié)果如表2 所示。AMCSleepNet對(duì)各期的分類準(zhǔn)確率如表3所示。由表2可知,AMCSleepNet 相比于單通道方法和EEGNetSleep 方法在整體性能上有所提升。對(duì)比AttnSleepNet 的最優(yōu)單通道模型提升了5.69%,對(duì)比EEGNetSleep 模型提升了11.06%。結(jié)果表明,利用多通道EEG 數(shù)據(jù),能夠提升睡眠分期的平均準(zhǔn)確率。由表3 可知,AMCSleepNet 對(duì)于W 期的分類效果最優(yōu),而對(duì)N1 期的分類效果最差,結(jié)合原始數(shù)據(jù)表1 分析,N1 期的樣本數(shù)過(guò)少,使模型對(duì)其分析存在明顯的不足。

表2 模型在不同受試者上的睡眠分期準(zhǔn)確率(%)

表3 多通道AMCSleepNet針對(duì)不同睡眠期的準(zhǔn)確率(%)

綜合以上實(shí)驗(yàn)結(jié)果可知,受試者SC1 的睡眠分期效果最好,幾種模型均能達(dá)到較高的分期準(zhǔn)確率,因此以受試者SC1 為例,對(duì)比了真實(shí)標(biāo)簽、AttnSleepNet 最優(yōu)通道和AMCSleepNet 多通道的結(jié)果,結(jié)果如圖4 所示,圖中局部區(qū)域比對(duì)可知,AMCSleepNet 在N3 期的分類效果較好,與表3 中結(jié)果一致,而AttnSleepNet 在該狀態(tài)的分類效果不佳。整體來(lái)看,AMCSleepNet 多通道的分類結(jié)果與專家標(biāo)注的結(jié)果一致性更高。

圖4 受試者SC1睡眠分期結(jié)果對(duì)比

3 討論

本研究提出的AMCSleepNet 與單通道方法AttnSleepNet[9]相比,利用并行的多個(gè)分支對(duì)EEG 數(shù)據(jù)的每個(gè)通道進(jìn)行特征提取,提升了臨床數(shù)據(jù)的利用率。在注意力機(jī)制的幫助下,模型關(guān)注多通道的特征結(jié)構(gòu),通過(guò)SE 方法自適應(yīng)的學(xué)習(xí)不同通道的注意力權(quán)重,從而有效地融合不同通道的時(shí)頻特征。在多通道特征融合之后AMCSleepNet 采用Transformer 來(lái)替換前人研究中采用的LSTM方案[7],其中多頭注意力挖掘特征的時(shí)間前后相關(guān)性,關(guān)注特征序列中更有區(qū)分性的特征,同時(shí)減少了模型訓(xùn)練時(shí)間。在實(shí)驗(yàn)過(guò)程中,參考以往研究[8],采用了LOSO 的訓(xùn)練策略,訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)來(lái)自不同受試者,由此體現(xiàn)模型跨受試者的分類能力。從實(shí)驗(yàn)結(jié)果來(lái)看,相較于單通道模型和多通道深度卷積模型,AMCSleepNet 提升了睡眠分期的準(zhǔn)確率。由于受試者之間的個(gè)體差異對(duì)模型的泛化能力要求較高,且不同睡眠時(shí)期的樣本量差異也會(huì)對(duì)準(zhǔn)確率產(chǎn)生影響,未來(lái)的研究應(yīng)進(jìn)一步關(guān)注個(gè)體差異與類別均衡,探究跨個(gè)體的遷移學(xué)習(xí)方法和不同數(shù)據(jù)量對(duì)模型的影響。

4 結(jié)論

本研究針對(duì)多通道睡眠分期問(wèn)題,提出了基于深度學(xué)習(xí)的多通道腦電信號(hào)睡眠分期方法AMCSleepNet,該方法利用多分支卷積網(wǎng)絡(luò)提取不同通道的腦電信號(hào)的時(shí)頻域特征,使用壓縮聚合網(wǎng)絡(luò)和殘差網(wǎng)絡(luò)進(jìn)行特征融合,通過(guò)Transformer 編碼挖掘融合特征的時(shí)間相關(guān)性。在2021 全國(guó)智能睡眠科學(xué)大賽提供的6 名受試者睡眠樣本上,采用留一法進(jìn)行交叉訓(xùn)練和測(cè)試,與基于注意力的單通道深度神經(jīng)網(wǎng)絡(luò)模型AttnSleep 相比,本研究提出的方法在各個(gè)通道的分類準(zhǔn)確率平均提升了5.69%。利用多通道數(shù)據(jù),與基于深度卷積的多ssss 通道模型EEGNet-Sleep 相比,分類準(zhǔn)確率提升了11.06%。表明本研究的模型對(duì)單通道或多通道數(shù)據(jù)均有更好的分類能力。臨床睡眠期間采集的多通道EEG 數(shù)據(jù)相比于單通道數(shù)據(jù)具有更多睡眠狀態(tài)信息,從而提升了睡眠分期的準(zhǔn)確率,具有潛在的應(yīng)用價(jià)值。

猜你喜歡
特征融合模型
一半模型
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
重要模型『一線三等角』
《融合》
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 亚洲欧美另类色图| 操操操综合网| 亚洲嫩模喷白浆| 在线观看欧美精品二区| 成人亚洲视频| 91成人精品视频| 伊人色天堂| 欧美第一页在线| 91精品在线视频观看| 欧美a在线| 欧美精品一区在线看| 国产精品99久久久久久董美香| 久久99热66这里只有精品一| 亚洲av日韩av制服丝袜| 青青热久麻豆精品视频在线观看| 香蕉eeww99国产在线观看| 欧美在线黄| 欧美精品一区二区三区中文字幕| 亚洲无码一区在线观看| 啪啪免费视频一区二区| 精品精品国产高清A毛片| 欧美成人免费一区在线播放| 久草热视频在线| 欧美成在线视频| 日本五区在线不卡精品| 欧美一区二区福利视频| 亚洲国模精品一区| 国产高清色视频免费看的网址| 在线观看欧美国产| 久久久波多野结衣av一区二区| 五月婷婷精品| 999国产精品| 亚洲成a人在线播放www| 伊人色在线视频| 91麻豆精品国产高清在线| 国产女人综合久久精品视| 91精品国产麻豆国产自产在线| 久久夜夜视频| 色视频久久| 亚洲v日韩v欧美在线观看| 在线观看亚洲成人| 国产女人18毛片水真多1| 亚洲成人免费看| 亚洲天堂网站在线| 亚洲一级毛片| 久久久精品无码一二三区| 综合久久久久久久综合网| 国产黄色片在线看| 伦伦影院精品一区| 丁香六月激情综合| 玖玖精品在线| 日韩福利在线视频| 69免费在线视频| 亚洲精品无码日韩国产不卡| 不卡无码网| 亚洲狼网站狼狼鲁亚洲下载| 国产成人喷潮在线观看| 秋霞午夜国产精品成人片| 亚洲av无码专区久久蜜芽| 国产91全国探花系列在线播放 | 欧美国产视频| 五月天综合网亚洲综合天堂网| 伊人色婷婷| 色老二精品视频在线观看| 自拍亚洲欧美精品| 亚洲欧美日韩中文字幕在线一区| 国内毛片视频| 久久公开视频| 亚洲中字无码AV电影在线观看| 亚洲精品国偷自产在线91正片 | 国产一在线观看| 国产精品内射视频| 亚洲男人的天堂视频| 欧洲成人免费视频| 91麻豆久久久| 国产欧美精品午夜在线播放| 国产黄视频网站| 欧美乱妇高清无乱码免费| 中文字幕免费在线视频| 毛片一级在线| 亚洲AⅤ综合在线欧美一区| 五月婷婷中文字幕|