999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MCSANet網絡的運動想象腦電分類

2025-08-28 00:00:00杜江畢峰
現代電子技術 2025年16期

中圖分類號:TN929.5-34;TP391 文獻標識碼:A 文章編號:1004-373X(2025)16-0067-08

MotorimageryEEGclassificationbasedonMCSANet

DU Jiang1,2, BI Feng3 (1.SchoolofComputerScienceand Technology,Shenyang UniversityofChemicalTechnology,Shenyang11o142,China;

2.LiaonngProvincialKeyLaboratoryofIntellgentTechnologyforChemicalProcessIndustryhenyang1O142China;

3.SchoolofInformationEngineering,LiaodongUniversity,Dandong118Oo3,China)

Abstract:Inordertosolve theproblemof insuficient feature miningand insufficient utilization indecoding electroencephalography(EG)signalsbymeansofthetraditionaldeeplearningmethod,aeeplearningmodel,MANet,is proposed,whichcombinestheparalelmulti-scaletemporalconvolutionwithsliding windowtechnologyandatentionmchanism. Theparalelmulti-scaletemporalconvolutionissedtofectivelycapturethetmporalcharacteristicsandspatialchracteistics ofEEGsignalsatdiferenttimescales.Theslidingwindowslicingtechnologyisusedtodividethefeaturesequencesand increase the numberof sequence samples.The weights ofeach partofthe sequence samples areasignedandfused by means of themulti-headself-atentionmechanism,whichcanfurther highlightmorekeyfeatures.Thefullyconnectedlayerandthe SoftMaxlayerareusedtowork together,soastoperformin-depthlearningandaccurateclasificationforthecapturedfeatures. Inorder tovalidatetheperformaneofthemodel,anexhaustiveexperimentalanalysiswasperformedontheBCICIV-2adataset. Theexperimentalresultsshowthattheaverageclassificationaccuracyofallsubjectsisashighas81.69%,whichverfisthe effectivenessoftheproposedmethodinminingthedeeppotential featuresofEEGand improvingtheclasificationperformance of motor imagery EEG.

Keywords:braincomputer interface;EEGsignal;parallelmulti -scale temporal convolution;sliding window slicing technology;multi-head self-attentionmechanism;ablation experiment

0 引言

解碼人或動物大腦產生的腦電信號,實現腦與外部設備之間的信息交換[。而基于運動想象(MI)的BCI系統(MI-BCI)能夠利用大腦在想象運動時產生的腦電信號腦機接口(BrainComputerInterface,BCI)技術通過(MI-EEG)準確識別MI類型,進而洞悉個體的運動意愿。MI-BCI技術在智能醫療(如中風后康復、神經康復、假肢控制等)、人機交互、游戲娛樂等多個領域具有廣泛的應用前景[24],然而由于腦電信號具有各種復雜的特性,通過解碼腦電信號分析MI意圖仍是一項具有挑戰性的任務。

在MI-BCI系統中,特征學習和分類是MI任務識別的兩個重要組成部分。在特征學習階段,很多研究都集中在特征提取方法上;關于特征分類,在早期主要采用如小波變換、短時傅里葉變換等方法提取腦電信號的時頻域特征,從而進行腦電信號分類。還有一種基于空間濾波的方法,如文獻7提出的濾波器組共空間模式(FilterBank CommonSpatialPattern,FBCSP),用于優化腦機接口數據集上CSP特定頻帶段。但這些傳統的腦電信號識別方法存在識別率低、自適應性差、算法復雜度高、數據采集和處理繁瑣以及實際應用受限等缺點。

近年來,由于深度學習在網絡訓練過程中具有強大的自動特征學習能力,許多研究人員將深度學習技術應用于腦電信號識別。文獻[8]從原始EEG數據中提取CSP的最佳受試者特定特征,再將其作為輸入應用于DNN,從而減少數據維度并增加類別區分度。文獻[9]提出了一種多尺度卷積與注意力機制的腦電信號識別方法。EEGNet引入深度卷積和可分離卷積來構建一個腦電特定模型,利用端到端方法提取時間和空間特征。文獻[11]提出了一種名為EEG-TCN的TCN模型,該模型將TCN與著名的EEGNet架構相結合,分類精度有一定提升。

在網絡模型中,注意力機制通過關注輸入數據中重要的部分,可以增強模型對關鍵信息的捕捉能力。將注意力機制與深度學習模型結合運用于MI分類任務的研究也有很多。如文獻[12]基于腦電通道對MI分類的貢獻,使用擠壓激勵注意力模塊自動學習通道權重,并使用CNN模型進一步學習時頻特征。多尺度卷積能學習并提取到更全面的數據特征,會使得網絡模型具有更好的性能。文獻[13]提出一種多分支三維卷積模型,這種多分支結果能更全面地捕捉腦電信號的復雜特征。

上述研究方法取得了顯著成果,但仍有不足之處,如文獻[10]中的單一尺度時間卷積只能捕捉到某一特定尺度上的特征,導致深層次特征可能并未充分挖掘。文獻[12]中SE注意力模塊的擠壓部分,全局平均池化過于簡單,可能無法捕獲復雜的全局特征。

針對以上問題,本文提出了一種多尺度卷積結合滑動窗口技術與多頭自注意力解碼策略,即MCSANet模型。

本文方法主要創新之處如下:

1)將單尺度時間卷積網絡(EEGNet)更改為并行多尺度時間卷積網絡,可以利用不同尺度時間卷積提取腦電信號不同時間尺度下的特征信息;

2)采用時間滑動窗口技術劃分特征序列,擴充特征序列樣本數量;

3)在每段特征序列中引入多頭自注意力機制(Multi-HeadSelfAttention,MAT),有效突出了更多有價值的重要特征,并通過并行處理多個子序列特征,大幅提高了整體處理效率。

1 MCSANet模型

1.1 整體網絡模型

本文提出的MCSANet模型由多尺度卷積特征提取(MCV模塊、滑動窗口(SW)模塊、并行多頭自注意力機制(MAT)模塊和分類模塊共4個主要模塊組成,結構如圖1所示。

通過多尺度卷積提取腦電信號更全面的時空域特征,滑動窗口對特征序列進行切片,擴充特征數據量,并行多頭自注意力機制對劃分的每塊子序列特征分配注意力權重,突出顯示更多重要的特征。最后,對特征數據進行拼接并使用全連接層和SoftMax層進行分類。其中 c 為腦電信號數據通道數,T為采樣點總數。

1.2特征提取模塊

1.2.1 單尺度時間卷積網絡(EEGNet)

EEGNet的提出對運動想象腦電解碼有著推動性作用,許多新的深度學習分類方法都依據于EEGNet。EEGNet結構如圖2所示,整體過程如下。

1)將原始信號圖傳到8個卷積核尺度為 (1,K1) 的一維時間卷積(TemporalConv),提取腦電信號時間維度的特征;接著通過批量歸一化層(BatchNormalization,BN)加速網絡訓練。

2)通過卷積深度為 D 、卷積核尺度為 (C,1) 的深度卷積(DWConv)來提取不同通道間的特征,可以極大地減少數據量;接著經過BN加速網絡收斂,并采用指數線性單元(ELU)激活函數增強網絡非線性表示能力。

3)通過大小為 (1,P1) 的平均池化層(AveragePoolingLayer,Avg.Pool降低時間方向數據維度。

4)利用 F2 個尺度為 (1,K2) 的二維空間卷積(SpatialConv)進行時空特征融合,再經過BN層和ELU激活函數。

5)采用大小為 (1,P2) 的 Avg.Pool 進一步減小特征維度。

圖1MCSANet網絡結構

圖2EEGNet網絡結構

1.2.2 并行多尺度時間卷積網絡

為了提取腦電不同時間尺度的特征,從而更好地捕捉腦電信號在時間維度上的動態特性,該模塊在EEGNet基礎上做了改動,網絡結構如圖1a)所示,模塊整體由3層卷積構成,每層都針對不同的特征提取任務進行優化。首先,第1層卷積由4組并行的時間卷積組成,通過并行處理能夠同時捕獲多種時間分辨率下的信息;然后將這些特征圖進行拼接,生成一個包含多個通道的特征圖集合;接著,第2層卷積采用通道卷積對拼接后的所有特征圖進行空間特征提取,這一步驟的目的是從每個通道中提取出空間分布上的關鍵信息,進一步減少數據量;最后,第3層卷積通過深度卷積對每個通道的特征進行進一步處理,旨在捕獲不同通道在空間位置上的特征信息,從而能夠挖掘出更加細致和復雜的特征模式。

在第2和第3個卷積層之后都進行以下操作:批量歸一化[4操作有助于穩定訓練過程中的梯度流動,提高收斂速度;指數線性單元(ELU)[5作為激活函數,以引入非線性因素來增強模型的表示能力;平均池化層用于降低特征圖的維度;Dropout層通過隨機丟棄一部分神經元來防止模型對訓練數據的過度依賴。

并行多尺度時間卷積輸出一個維度為 的特征序列,該序列由 Tc 個時間向量組成,每個時間向量的維度為64。時間序列 Zi 的長度由 決定。其中 C 為腦電數據通道數, T 為采樣點總數, P1,P2 為平均池化層卷積核大小,用于控制多尺度卷積產生的特征序列的長度。多尺度卷積具體網絡結構參數如表1所示。

1.3滑動窗口模塊

滑動窗口技術通過在輸入數據上移動一個固定大小的窗口,截取原始數據不同位置上同樣長度的特征序列,以便對數據進行分析和處理。每個窗口代表一個固定大小的數據片段,隨著窗口在數據上的移動,可以逐步覆蓋整個輸人數據。對于具有時間順序特性的數據集,確保數據按照時間順序排列是至關重要的,這樣滑動窗口才能按順序有效地遍歷整個數據集。本文利用滑動窗口將 Zi 在時間維度 Tc 上劃分為多個窗口,而不是將整個樣本輸人到后面的多頭自注意力機制中。

這有助于擴充特征數量,增加特征序列樣本集,為后續多頭自注意力機制能突出更多重要特征奠定基礎。

表1多尺度卷積具體網絡結構參數

具體操作是:使用一個長度為 Tw 的滑動窗口,設置步長為1,在時間維度上劃分為多個窗口 ,其中 w=1,2,…,n ,為窗口總數。窗長 Tw 滿足:

T?w=T?C-n+1

這樣序列數據 Zi 被劃分成 n 個序列 Ziw

本文 Tc 長度為20,在 Tc 時間維度上劃分4個窗口,每個窗長 Tw 為17,所以每個子序列維度 Ziw∈R17×64 然后將每個窗口 Ziw 數據分別輸人到MAT模塊。

1.4多頭自注意力機制模塊

多頭自注意力機制是自注意力機制的一種擴展形式,結構如圖3所示。其將注意力層分割成多個獨立的頭,每個頭都能夠并行地學習輸入序列中不同部分的重要性,并生成相應的輸出。這種并行處理的方式極大地提高了模型的學習效率和效果。將本文滑動窗口塊劃分的每個子序列輸入多頭自注意力,可以有效地突出更多的重要特征,以便后續分類模塊能更好地進行分類。

注意力塊由幾個注意力層組成,即所謂的頭(縮放點積),每個縮放點積為輸入向量計算一個單獨的注意力值(如圖3b)所示)。注意力層是由查詢向量Q、鍵向量 K 和值向量V三部分組成。由各注意力查詢向量Q和鍵向量 K 之間相互作用產生的注意力分數將選擇偏向于值V。

圖3多頭自注意力機制結構

注意力分數計算公式如下:

式中: dk 為鍵向量的映射維度;SoftMax為相似度歸一化。

對于有 n 個注意力匯聚輸出,每一個注意力匯聚都被稱作一個注意力頭(head)。每一個注意力頭 hi(i= 1,2,…,n) 的計算方法為:

Qn=QWnQ

Kn=KWnK

Vn=VWnV

hi=Attention(Qn,Kn,Vn

式中: 是可學習的映射矩陣權重參數。

多頭自注意力的輸出需要先分別計算出每個注意力頭單獨的注意力值(縮放點積),再連接 n 個注意力頭的結果,最后經過另一個線性轉化獲得輸出,計算公式為:

式中 是輸出的權重矩陣。

1.5 分類模塊

經過4組多頭自注意力機制分配的特征序列拼接(Concatenate)后,傳人全連接層和SoftMax層進行分類。分類模塊的結構如圖1d)所示。全連接層將輸入的特征序列與權重矩陣相乘,并加入偏置項,以產生輸出。全連接層的輸出一般為原始分數,這些分數可能僅代表模型對每個類別初步的預測結果。SoftMax層接收全連接層的輸入作為輸出,并將其轉換為概率分布,使得模型可以輸出每個類別0~1之間的概率值,所有類別的概率值之和為1。全連接層和SoftMax層的協作使得模型能有效地進行多分類任務。SoftMax函數計算公式如下:

式中: x-i 表示輸入序列中第 i 個元素; 表示 x-i 的指數; 表示所有指數的和。

2 實驗與結果分析

2.1數據集與預處理

本文實驗使用腦機接口競賽BCICIV-2a數據集,該數據集由9位受試者的EEG數據構成。在實驗過程中,受試者需要根據提示完成左手、右手、雙腳和舌頭4個不同的動作想象任務。每名受試者在不同的時間段完成2組數據的采集,每組根據提示進行 72×4 次實驗,將采集的2組數據分別用于訓練集和測試集。處理數據方面的主要操作有:去除肌電、眼電,對主要的22個通道進行采樣,使用 250Hz 采樣率采集數據,獲得 0.5~100Hz 的帶通濾波和 50Hz 的陷波濾波,再截取實驗結束前 4.5s 共1125個數據點。

2.2實驗環境與評價指標

本文整合了每位受試者所有的實驗數據,形成一個全面而綜合的數據集,再采用10折交叉驗證的方法劃分訓練集和測試集。網絡模型是在TensorFlow和Keras框架下構建的,模型的訓練使用2個NVIDIAT4TensorCoreGPU進行加速。訓練過程中每輪(epoch)的批處理大小(batchsize)為64,進行600輪迭代,學習率為0.001,使用交叉熵損失函數和Adam優化器。

模型評價指標方面,采用傳統的分類準確率(Accuracy)測量,其計算公式如下:

式中: Nr 為分類正確的樣本個數; Nt 為測試總體樣本個數。

本文實驗還使用Kappa系數作為客觀評價指標。Kappa系數是一種用于衡量分類結果一致性的統計量,其計算公式為:

式中: po 是總體分類精度,即每類分類正確的樣本數相加再除以總體樣本數; pe 是期望一致性概率。 pe 計算公式如下:

式中: a1,a2,…,ac 為每一類的真實樣本個數; b1,b2,…,bc 為預測出來的每一類的樣本個數; n 為總樣本個數。

2.3實驗結果與分析

2.3.1 對比實驗

為了驗證本文深度學習模型MCSANet在MI-EEG數據分類方面的良好性能,與近幾年表現優秀的算法進行了對比實驗,得到表2中的分類測試結果。實驗結果使用準確率和Kappa系數作為評價指標,以客觀地給出不同方法性能的直接比較。

從表中的數據可以看出,近些年的一些深度學習方法對MI分類任務都取得了不錯的分類結果,平均準確率范圍為 73.50%~80.85% 。其中,FBCSP-DNN結合了濾波器組共空間模式(FBCSP)與DNN,提取特征后再進行分類,使平均分類準確率提升到 78.33% ;EEGNet利用3層不同種類的卷積提取腦電特征,在腦電信號不同范式上都取得不錯的分類性能;EEG-TCNet在EEGNet基礎上首次將時間卷積網絡(TCN)應用到運動想象腦電信號分類任務中,通過減少可訓練參數數量達到減少計算資源和時間消耗的目的,平均分類準確率達到75.75% ;EEG-Inception模型[18]核心在于集成的Inception模塊,使用并行的不同尺度卷積對數據進行多尺度提取,可以有效提升分類準確率;EEG-ITNet模型[使用端到端的深度學習架構,以及一種更易理解的方法來可視化網絡學習模式;TMCNN模型2平均分類準確率高達80.85% ,它通過遷移學習和多層級融合策略提高了EEG信號的分類準確率和模型魯棒性。

FBCSP-DNN模型在受試者7和受試者9上有較好的分類效果,這可能是由于運動想象腦電信號不同個體差異較大,導致分類效果不同。而TMCNN模型雖然在前幾位受試者上取得了不錯的分類效果,但從受試者4開始分類準確率有所下降。相較之下,本文模型MCSANet在每個受試者上的分類效果都比較穩定,模型的魯棒性更好,平均分類準確率比其他平均分類準確率最高的模型都高出 0.84% 。此外,本文模型不需要對數據進行復雜的預處理。

2.3.2 消融實驗

1)多尺度卷積模塊性能分析

為了探究多尺度時間卷積與單尺度時間卷積對本模型MI分類性能的影響,在不改變模型其他模塊和參數的前提下,本文在EEGNet模型(單尺度時間卷積)基礎上增設滑動窗口和多頭自注意力機制,與并行三尺度時間卷積模型(多尺度卷積-3)和并行四尺度時間卷積模型(多尺度卷積-4)做對比,實驗結果如圖4所示。

表2不同方法在數據集BCICIV ??2a 中的分類性能比較

圖4多尺度時間卷積與單尺度時間卷積性能對比

從圖4可以看出,在其他參數不變前提下,增設滑動窗口模塊與多頭自注意力模塊后,時間卷積核尺度大小為(1,64)的EEGNet模型對9個受試者的平均分類準確率為 78.35% 。而時間卷積核尺度為(1,16)、(1,32)和(1,64)的三層卷積模型平均分類準確率為 80.68% ,時間卷積核尺度為(1,16)(1,32)、(1,64)和(1,128)的四層并行卷積模型平均分類準確率為 81.69% 。這說明與單尺度時間卷積相比,融合四種不同尺度時間卷積提取的特征,能夠更全面地提取腦電信號的特征,從而有效提升模型的分類準確率。

2)滑動窗口數量對模型性能的影響

本文引入了滑動窗口機制對特征數據進行擴充處理,窗口的數量直接決定序列樣本的生成倍數,進而影響模型對特征的學習效果。為了確定最佳的滑動窗口數量,進行了一系列不同窗口數量模型的分類實驗。實驗分類準確率如表3所示,可以看出窗口數為1時(不設滑動窗口)平均分類準確率為 80.05% ,效果不佳;當窗口數量為4時平均分類準確率為 81.69% ,解碼性能達到最佳。這說明了引入滑動窗口和增加特征數據量,有利于突出后續更多重要特征,從而有效增強對MI-EEG的分類效果。

表3滑動窗口數量對分類準確率的影響 0%

3)多頭自注意力機制對模型性能的影響

為了探究多頭自注意力機制對模型整體分類性能的具體影響,進行了深入的實驗和分析。在增設其他模塊基礎上做了無注意力模塊(No_MAT)和含有2個頭部的4組并行多頭自注意力模塊(Two_MAT)分類實驗。有無注意力機制性能對比如圖5所示。

圖5有無注意力機制性能對比

在去除模型的多頭自注意力模塊后,不同受試者的分類準確率出現了不同程度的下降,此時模型平均分類準確率為 79.62% ,而本文含有2個頭部的4組并行多頭自注意力模型平均分類準確率為 81.69% 。因此可以得出結論:在本文提出的深度學習模型(MCSANet)中,多頭自注意力模塊通過有效地捕捉MI-EEG數據中的關鍵信息,顯著提高了分類性能。

4)各模塊對實驗結果的影響

為了確認本文提出的網絡模型中4個模塊:單尺度時間卷積(EEGNet)、多尺度時間卷積(MCV)滑動窗口(SW)多頭自注意力機制(MAT)的實際效果,進行了一系列消融實驗,旨在探究增加一個或多個模塊對最終分類性能的影響。本文通過這些實驗量化了每個模塊在提升模型分類性能方面的具體貢獻,詳細結果如表4所示。

表4每個模塊對模型分類性能的貢獻

在訓練和驗證操作之前添加模塊,結果表明:多尺度時間卷積(MCV比較單尺度時間卷積(EEGNet對9個受試者平均分類準確率有 1.84% 提升。在MCV基礎上,添加滑動窗口(SW)模塊平均分類準確率提升了2.99% ,添加多頭自注意力模塊(MAT)平均分類精度提升了 3.11% , SW+MAT 提升了 5.04% 。即使在單尺度時間卷積(EEGNet)基礎上增設SW模塊和MAT模塊,平均分類準確率也可達到 78.35% ,也會對分類性能有所提升,但分類效果不如多尺度時間卷積。表4結果表明,本文網絡模型中每個模塊都有自己的貢獻。

3結論

本文設計了一種創新的深度學習模型,命名為MCSANet。該模型通過多尺度時間卷積技術結合滑動窗口技術與注意力機制,對MI-EEG數據進行高效處理。利用多尺度時間卷積策略,模型能夠捕獲MI-EEG數據中的豐富時間特征和空間特征,以獲取腦電信號中的多層面特征信息;滑動窗口分割數據序列增加了特征序列樣本數;每個子序列被送入多頭自注意力機制模塊,這一機制能夠智能地分配注意力權重,從而確保更多更為關鍵的信息能夠得到強調和突出。這種可分離式的不同模塊結構使得網絡模型魯棒性更好,分類準確率也得以提升。然而,本文研究仍然面臨數據復雜性和個體差異等挑戰,未來在降低模型復雜度和開展跨受試者研究方面,需更進一步探索。

注:本文通訊作者為畢峰。

參考文獻

[1]KHUNTIA P K,MANIVANNAN P V.Review of neural interfaces:means for establishing brain-machine communication [J]. SN computer science,2023,4(5): 672.

[2]ROSTAMI M,MOKARI N,SHARIATY F,et al.Potential of brain-computer interfaces in dementia [Cl// 2O23 International ConferenceonElectricalEngineeringandPhotonics (EExPolytech). [S.l.]: IEEE,2023:132-135.

[3]WANG H,LI T,BEZERIANOS A,et al.The control ofa virtual automatic car based on multiple patterns of motor imageryBCI[J].Medicalamp;biologicalengineeringamp; computing,2019,57(1):299-309.

[4] CHEN Y.Design of a game control system based on Brain - computer interface: link to a game [C]// 2O21 2nd International Conference on Computing and Data Science (CDS). Stanford, CA,USA:IEEE,2021:255-258.

[5]張俊偉,劉建平.小波變換在運動想象腦電分類中的應用[J]. 現代電子技術,2013,36(19):70-72.

[6]ZABIDIA,MANSORW,LEEYK,etal.Short-time fourier transform analysis of EEG signal generated during imagined writing[C]//2O12 International Conferenceon System Engineering and Technology (ICSET). [S.l.]: IEEE, 2012: 1-4.

[7]ANGKK,CHINZY,WANGC,etal.Filterbank common spatial pattern algorithm on BCI competition IV datasets 2a and 2B[J].Frontiers in neuroscience,2012,6:39.

[8] SHUAIBU Z,QI L.Optimized DNN classification framework based on filter bank common spatial pattern (FBCSP) for motorimagery-based BCI [J]. International journal of computer applications,2020,975:8887.

[9]馮澤林,宋耀蓮.多尺度卷積與注意力機制的腦電信號識別研 究[J].現代電子技術,2023,46(23):85-92.

[10]LAWHERNVJ,SOLON A J,WAYTOWICH N R,et al. EEGNet: a compact convolutional neural network for EEG - basedbrain - computer interfaces[J]. Journal of neural engineering,2018,15(5): 056013.1-056013.17.

[l1] INGOLFSSON T M, HERSCHE M, WANG X,et al. EEG - TCNet:anaccurate temporal convolutional networkfor embedded motor-imagerybrain-machine interfaces [C]//2020 IEEEInternational Conferenceon Systems,Man,and Cybernetics (SMC). Toronto,ON,Canada: IEEE,202O:2958- 2965.

[12] ZHANG H, ZHAO X, WU Z, et al. Motor imagery recognition with automatic EEG channel selection and deep learning [J]. Journal of neural engineering,202o,18(1): 18.

[13] JIA Z,LINY,WANG J,etal. MMCNN: a multi-branch multiscaleconvolutional neural networkformotorimagery classification [C]// European Conference on Machine Learning and Principlesand Practice of Knowledge Discoveryin Databases.Riva del Garda (IT): ACM,2021: 736-751.

[14]GIRI PE,FANANY IM,ARYMURTHY MA.Ischemic stroke identification based on EEG and EOG using 1D convolutional neural network and batch normalization [EB/OL]. [2O24-01- 05]. https://rxiv.org/pdf/1610.01757v1.

[15]KIM D,KIM J. Elastic exponential linear units for convolutional neural networks [J]. Neurocomputing,2020,406:253- 266.

[16] SCHIRRMEISTER R T, SPRINGENBERG JT,FIEDERER L D J,et al. Deep learning with convolutional neural networks forEEGdecoding and visualization [J].Humanbrain mapping,2017,38(11): 5391-5420.

[17] AYOOBI N,SADEGHIAN E B. Unsupervised motor imagery saliency detection based on self -attention mechanism [C]// 2022 44th Annual International Conference of the IEEE Engineering in Medicine amp; Biology Society (EMBC). [S.l.]: IEEE,2022:4817-4820.

[18]SANTAMARIA -VAZQUEZ E,MARTINEZ - CAGIGAL V, VAQUERIZO V F,et al. EEG - inception:a novel deep convolutional neural network for assistive ERP-based brain - computer interfaces [J]. IEEE transactions on neural systems and rehabilitation engineering,2020,28(12):2773-2782.

[19] SALAMI A,ANDREU -PEREZ J,GILLMEISTER H. EEG - ITNet:an explainableinception temporalconvolutional network for motor imagery classification [J]. IEEEaccess, 2022,10:36672-36685.

[20]周強,田鵬飛.基于遷移學習多層級融合的運動想象EEG辨 識算法[J].電子測量與儀器學報,2021,35(12):174-181.

作者簡介:杜江(1998—),男,河南信陽人,碩士研究生,主要研究方向為生物醫學信號處理、深度學習。畢峰(1973—),男,遼寧丹東人,博士研究生,副教授,主要研究方向為信號與信息處理、模式識別與人工智能

主站蜘蛛池模板: 手机看片1024久久精品你懂的| 亚洲天堂视频在线观看免费| 国产视频一区二区在线观看 | 欧美另类图片视频无弹跳第一页| 亚洲国产日韩在线成人蜜芽| 日韩精品久久无码中文字幕色欲| AV不卡无码免费一区二区三区| 免费观看亚洲人成网站| 欧美日韩精品一区二区视频| 青草视频久久| a天堂视频| 麻豆精品在线视频| 亚洲啪啪网| 久久9966精品国产免费| 一区二区三区四区精品视频| 欧美成人精品一级在线观看| 欧美翘臀一区二区三区| 国产在线视频欧美亚综合| 国产在线观看91精品| 亚洲成av人无码综合在线观看| 992tv国产人成在线观看| 国产在线自乱拍播放| 日韩无码真实干出血视频| 女人一级毛片| 伊人无码视屏| 亚洲国产综合精品一区| 欧美日在线观看| 日韩AV手机在线观看蜜芽| 成人无码一区二区三区视频在线观看| 日本成人在线不卡视频| 亚洲综合网在线观看| 国产精品自拍露脸视频| 强奷白丝美女在线观看| 久久久久亚洲Av片无码观看| 日韩精品成人网页视频在线| 国产黄网永久免费| 欧美专区日韩专区| www.国产福利| 99久久精品国产精品亚洲| 久久精品亚洲专区| 全色黄大色大片免费久久老太| 91成人在线观看视频| 久996视频精品免费观看| 国产一区二区网站| 91国语视频| 2020精品极品国产色在线观看| 激情六月丁香婷婷四房播| 一本视频精品中文字幕| 美女啪啪无遮挡| 亚洲无码精彩视频在线观看| 波多野结衣在线一区二区| 亚洲精品国产成人7777| 亚洲精品国产综合99久久夜夜嗨| 色老二精品视频在线观看| 福利国产在线| 日韩av电影一区二区三区四区| 九色综合视频网| 亚洲人成日本在线观看| 国产最新无码专区在线| 新SSS无码手机在线观看| 国产91久久久久久| 自拍偷拍欧美| 欧美成人午夜影院| 国产精品亚洲а∨天堂免下载| 中文字幕在线看| 亚洲中文字幕国产av| 手机精品视频在线观看免费| 99九九成人免费视频精品| 狠狠亚洲五月天| a级毛片免费播放| 91免费在线看| 日本道综合一本久久久88| 国产精品一线天| 亚洲精品视频免费观看| 国产成人综合网| 国产va视频| 亚洲视频欧美不卡| 国产综合精品日本亚洲777| 88av在线| 欧美福利在线| 在线精品视频成人网| 亚洲婷婷丁香|