999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的腦電波去噪處理研究

2023-05-29 10:19:38王亞群
軟件導刊 2023年5期
關鍵詞:信號模型

文 斗,楊 青,王亞群,李 晨,李 銘

(1.華中師范大學 計算機學院;2.華中師范大學人工智能與智慧學習湖北省重點實驗室;3.國家語言資源監測與研究網絡媒體中心,湖北 武漢 430079)

0 引言

腦電波(Electroencephalogram,EEG)是一種使用電生理指標記錄大腦活動的方法[1]。其記錄大腦活動時的電波變化,是腦神經細胞的電生理活動在大腦皮層或頭皮表面的總體反映。腦電波信號對于神經科學研究和臨床應用非常重要,例如腦—機接口(BCI)[2]、神經系統疾病診斷[3]等。但是采集到的信號通常包含生理噪聲和外部噪聲[4],其中生理噪聲包括眼部噪聲[5]、肌源性噪聲[6]以及少見的心源性噪聲[7]等。

眼電(EOG)和肌電(EMG)信號是EEG 中最常見的噪聲源。EOG 源于眼球運動,如眨眼和滾動,而EMG 源于大腦周圍肌肉的運動。因為幾乎不可能防止眼睛眨眼和腦周圍肌肉群運動,所以這些噪聲在腦電信號中時常出現。因此,需要準確地將這些噪聲信號去除,以獲得相對干凈的腦電波信號,從而快速、準確地進行診斷。

目前,大多數去除腦電信號偽影的方法可以分為兩種,第一種方法是對于具有不同頻譜分布的腦電信號和偽影,使用傅里葉變換或小波變換將信號從時域變換到頻譜域,然后過濾與偽影相關的頻譜分量。去噪后的信號可以通過傅里葉逆變換或小波逆變換進行重構,有多種濾波器可用于腦電信號去噪,如維納濾波器[8]和卡爾曼濾波器[9]等。然而,由于偽影與腦電信號頻譜[10]之間的重疊,偽影無法完全消除,進行濾波后神經信息可能丟失。

另一種方法是將信號從原始空間轉換到新空間,從而使信號和噪聲在新空間中可分離,例如自適應濾波器(Adaptive filter)[11]、希爾伯特—黃變換(HHT)[12]、經驗模式分解(EMD)[13]等。以上方法主要使用線性變換,所以需要額外的信息或者嚴重依賴于先前的假設。例如Adaptive filter 需要記錄噪聲信號作為參考,如果未正確提供參考信號,則降噪性能可能很差。基于HHT 的偽影去除方法的假設是偽影分量具有與其他分量不同的時頻特征,腦電信號被自適應地分解為固有模式函數(IMF)。HHT 輸出IMF 的瞬時頻率(IF),增強了時頻信息[12]。如果IMF 之間存在較大距離,則將其選作噪聲分量并移除。但由于距離閾值是手動選擇的,導致算法的穩定性不強。基于EMD和基于ICA 的方法都將多通道EEG 信號分解為多個分量,然后根據特定標準去除噪聲相關分量,但仍然不能解決先前假設的局限性,例如EEMD-ICA 中兩個自相關閾值的選擇是在不同場景下根據經驗確定的。

然而,用深度學習進行腦電波去噪的方法目前還是一個新興的方法。在EEG 去噪方面,目前只發現少量基于深度學習的研究,例如文獻[14-17]設計的模型提供了與傳統去噪技術相當的腦電去噪性能,但存在一個問題,文獻[15-17]研究針對的數據集不同,無法將模型作統一的比較。而文獻[14]提供了一個用于腦電去噪的基準數據集(EEGdenoiseNet),該基準數據集由大量用于訓練與測試深度學習模型的干凈單通道EEG、EOG 和EMG 信號時段組成,同時文獻[14]也設計了一些基準網絡,例如全連接網絡(FCNN)、簡單卷積網絡、復雜卷積網絡和遞歸神經網絡(RNN)對該數據集進行評估比較。在文獻[14]的數據集基礎上,文獻[18]設計了一種消除腦電肌肉偽影的卷積神經網絡模型Novel CNN,通過與4 個經典網絡進行比較,肌源性去噪性能得到了提升;文獻[19]設計了一種2-D Transformer 模型對基準數據集(EEGdenoiseNet)去除腦電噪聲;文獻[20]設計了GAN-LSTM 模型對基準數據集(EEGdenoiseNet)去除腦電噪聲;文獻[21]設計了類似于encode 和decode 網絡的DeepSeparator 模型對基準數據集(EEGdenoiseNet)去除腦電噪聲。文獻[14-19]和文獻[21]所設計的深度學習去噪模型雖然取得了一定的去噪效果,但其仍具有局限性。其模型訓練方法偏向于數據特征提取,特征提取往往對輸出維度小于輸入維度的模型可起到比較好的收斂效果。但對于去噪來說,模型的輸入與輸出有著相同的維度,所以上述模型的去噪性能并不能得到很大改善。

本文在前人的研究基礎上,設計了基于生成對抗網絡(Generative Adversarial Networks,GAN)的EEG 去噪模型(GAN-1D-CNN)。模型與文獻[20]設計的GAN-LSTM 網絡都是基于GAN 網絡的,但GAN-LSTM[20]的生成器采用的是可以學習長期依賴信息的長短期記憶網絡(LSTM),其屬于RNN 回歸型網絡,經常用于時序數據訓練,并且有了一定的記憶效應。但對于去噪而言,完全采用1D-CNN結構的Novel CNN 已表現出比GAN-LSTM[20]更好的肌源性去噪性能。因此,在GAN 網絡中,本文選用1D-CNN 為生成器的基礎結構進行實驗,同時設計了新的網絡生成器和判別器,并引用了新的損失函數計算方式[22]。改進的GAN 模型在EEGdenoiseNet 數據集上使用不同信噪比(SNR)和模型評價指標(時域相對均方根誤差、頻域相對均方根誤差和相關系數)進行分析,同時對應用該數據集的最新模型進行了比較。實驗結果顯示,改進的GAN 模型在EEG 去噪性能上得到了增強。

1 相關理論

GAN 是深度學習領域一個無監督狀態的生成模型,被用來生成一些不需要專業領域知識的數據,其由Ian 等[23]于2014 年10 月 在Generative Adversarial Networks中提出。GAN 由判別器D 和生成器G 組成,兩者通常是兩個神經網絡模型,被鎖定在由式(1)中目標函數定義的博弈中。

其中,x 是真實樣本集合pdata 中的一份樣本,z 是多組隨機噪聲下的一組分布,D(x)的輸出維度為1,值的范圍在0~1 之間。G(z))為生成器生成的樣本,D(G(z))是判別器對生成器生成數據的辨識度。如果生成器的生成能力越來越強,超越了判別器,判別器已經辨認不出真假,則V(G,D)將是一個極大的負值。相反,如果生成器能力太弱,對判別器而言D(G(z))值總是接近1,則V(G,D)將無限逼近0。也即是說,V(G,D)的值不斷上下浮動,上述過程展現了生成器與判別器的對抗過程。

生成器嘗試最大化欺騙判別器,其目標是希望能夠學習到真實樣本的分布,從而可以隨機生成以假亂真的樣本,判別器旨在從生成器生成的樣本中識別真實樣本。整個系統可以用反向傳播進行訓練,反向傳播過程如下:生成器生成的數據和真實樣本被同時輸入到判別器進行訓練,計算損失函數后,進行梯度計算和判別器梯度更新;此時生成器只計算了梯度,并未更新,生成器生成的數據再次被輸入到判別器中,此時生成器只計算并更新梯度,但判別器只進行計算,沒有更新梯度;如此反復,直到得到滿意的結果,取最終需要的生成器作為生成模型。在訓練或生成樣本期間,不需要任何馬爾可夫鏈或展開的近似推理網絡,所以GAN 常被用于超分辨率任務以及圖像生成、語義分割等領域。

2 GAN-1D-CNN設計

2.1 設計思想

GAN 最初被運用于圖像生成和圖像合成,近年來在序列數據生成、插補和數據擴充領域得到了快速發展。在文獻[24]中,GAN 被用于EEG 生成和增強。然而,很少有研究探索用于時間序列去噪的GAN,尤其在涉及EEG 數據的情況下。文獻[25]設計了非對稱GAN,用于去除EEG時間序列數據的噪聲,該時間序列去噪模型使用未配對的訓練語料庫進行訓練,不需要關于噪聲源的信息。文獻[26]使用GAN 對小鼠腦電圖進行去噪,該訓練過程需要一組嘈雜的信號和一組清晰的信號。雖然這些方法降低了EEG 信號中的噪聲,但其既不能去除特定的偽影,又不能提供動態信噪比的可靠定量證據。

本文設計的GAN-1D-CNN 模型由生成器和判別器組成,相比文獻[20]設計的GAN-LSTM 網絡中的生成器,模型使用擅長提取一維空間特征的卷積神經網絡(Convolutional Neural Network,CNN)替換掉可以學習長期依賴信息的長短期記憶網絡(LSTM),使網絡的一維空間特征提取能力得到增強。模型處理流程如圖1 所示。肌源性噪聲(EMG)和眼源性噪聲(EOG)與原始腦電波片段(Raw EEG)混合,生成含有噪聲的腦電波片段(Noise EEG);將含有噪聲的腦電波片段輸入到GAN-1D-CNN 模型的生成器(Generator),生成器輸出去噪后的腦電波(Denoised EEG),再將原始腦電波片段和去噪后的腦電波片段分別輸入到判別器(Discriminator)通過得分辨認真偽;通過判別器的不斷糾正,使生成器的去噪輸出與原始腦電波片段更接近。訓練好的模型使用模型的生成器即可對樣本進行去噪。

Fig.1 Flow of model processing圖1 模型處理流程

2.2 生成器與判別器結構

GAN 的生成器網絡由一個核心的神經網絡層堆疊而成,模型的神經網絡層參考文獻[18]中Novel CNN 的相關參數。在網絡每一層的參數更新過程中,會改變下一層輸入的分布。神經網絡層數越多,表現得越明顯,從而會導致內部協變量偏移問題。為了使每一個神經層的輸入分布在訓練過程中保持一致,本文在Novel CNN[18]基礎上引入批量規范化層(Batch Normalization,BN)。同時考慮到每一層神經網絡存在輸入負值的問題,引入Leaky Relu 激活函數替代Relu 激活函數。每個神經網絡塊(Block)包含兩輪一維卷積、歸一化、LeakyRelu 線性激活層和池化處理過程。生成器網絡模型架構如圖2 所示,卷積核參數如表1 所示。生成器的卷積核參數一共有7 個,卷積核個數分別是(32、64、128、256、512、1 024 和2 048)。卷積核大小為1*3,步長為1,填充程度設為1。同時通過一維平均池化層逐漸降低腦電信號的采樣率,使輸入為1 024 維度的單通道EEG 經過卷積神經網絡特征提取后依然保持輸出維度為1 024。

判別器網絡采用一個核心的神經網絡層堆疊而成,判別器網絡參考了生成器網絡的設計,但每個神經網絡塊(Block)包含一輪一維卷積、歸一化、LeakyRelu 線性激活層和池化處理過程。判別器網絡模型架構如圖3 所示。本文在設計判別器時考慮到生成器和判別器之間的對抗過程,因此兩者訓練時的學習速度應該相當。如果判別器能力太強,會導致生成器無法繼續學習;如果判別器能力太弱,會導致生成器最終的生成效果差。由于判別器的判別任務與生成器的生成任務相比更加簡單,所以在設計判別器模型時減少了模型卷積核的相關網絡參數。卷積核參數如表2 所示。卷積核大小為1*3,步長為1,填充為1,卷積核個數分別是(16、32、64、128 和64),再通過一維平均池化層,最后平展維度為2 048,連接一維的輸出層。輸出層使用Sigmoid 函數,使分布符合0~1(3.3節將作解釋)。

Fig.2 Generator model圖2 生成器模型

Table 1 Kernel parameters of generator convolution表1 生成器卷積核參數

Fig.3 Discriminator model圖3 判別器模型

Table 2 Parameters of discriminator convolution kernel表2 判別器卷積核參數

2.3 模型損失函數

模型損失函數計算流程如圖4所示。

模型有兩個損失函數。第一個損失函數是判別器的損失函數,具體計算過程如下:含有噪聲的EEG 數據(S)被輸入到生成器,生成器的輸出G(S)可以是經過去噪后的數據,也可以是仍含有噪聲的數據。G(S)和與之對應的干凈的EEG(Y)會被輸入到判別器中,其目的是使判別器具有對噪聲EEG 和干凈EEG 進行分類的能力。Y 和G(S)被輸入到判別器后,D(Y)和D(G(S))分別為判別器對應的輸出,其可以反映生成器輸出的EEG 數據是否干凈。判別器可以看作是一個二元分類器,判別器的損失函數如式(2)所示。該式取決于D(Y)和D(G(S)),損失值越小,判別器辨別噪聲數據的能力越強。如果判別器的輸出值接近1,則數據是相對干凈的,否則判別器會認為數據相對含有噪聲。

另一個損失函數是生成器的損失函數,具體計算過程如下:G(S)被輸入到判別器后,判別器輸出D(G(S)),在傳統的GAN 網絡中,生成器的損失函數由式(3)所決定,其大小取決于D(G(S))的輸出值。但為了使樣本S 在除噪聲后與干凈的Y 更擬合,同時盡可能保留原始信息,這里引入一個新的損失函數,計算方式如式(4)所示。生成器的損失函數不僅由D(G(S))決定,而且由G(S)和Y 的均方誤差(MSE)決定。

在與判別器博弈的過程中,生成器的損失函數將逐漸趨近平衡。判別器損失函數的數值逐漸下降,則說明生成器的輸出與真實樣本更逼近。模型訓練時,在式(4)中,設α為0.5,β為0.5。

3 實驗與分析

3.1 數據集

實驗中使用的數據集是用于深度學習去噪研究的開源基準數據集EEGdenoiseNet,該數據集包含4 514 個干凈的單通道EEG 片段(EEG 片段長度為1 024)、3 400 個眼部偽影片段和5 598個肌肉偽影片段[14]。樣本片段的電位和功率譜密度情況如圖5所示。

對于EEG 片段,數據集包括52 名參與者執行真實與假想的左手和右手運動任務,在512 Hz 采樣頻率下同時記錄的64 通道EEG。為了獲得干凈的EEG,64 通道的EEG信號通過ICLabel 工具去除EEG 偽影,然后將純腦電信號分割成2 s 的一維段。為了確保該數據集的通用性,EEGdenoiseNet構造了具有單通道腦電信號的數據集。

Fig.5 Fragments of experimental samples圖5 樣本片段

對于眼偽影段(EOG),EEGdenoiseNet 使用了具有額外EOG 通道的多個開放存取的EEG 數據集,EOG 信號被分割成2 s 的一維段。對于肌源性偽影段(EMG),使用的是面部肌電數據集。選擇面部肌電圖是因為其是肌源性偽影的主要來源,原始肌電信號經過帶通濾波,將肌電信號以512 Hz的頻率重新采樣,得到了一段2s的肌電片段。

3.2 數據預處理

本文使用EEGdenoiseNet 的數據生成干凈的腦電信號和噪聲腦電信號,用于訓練和測試本文所設計的神經網絡模型。對EEGdenoiseNet 的具體處理方式如下:4 514 個EEG 和5 598 個EMG 記錄被用來模擬帶有肌源性偽影的噪聲EEG,由于EMG 片段多于EEG 片段,本文參考文獻[14]的基準網絡實驗隨機重復使用一些EEG 片段和剩余未使用的EMG 片段混合,產生新的含EMG 噪聲的EEG,從而擴充數據樣本,但又保持輸入到模型的樣本的差異性。將EEG 數量增加到5 598 個,獲得了5 598 對EEG 和肌源性偽影,同時將5 598對數據隨機打亂。

采用從-7~2dB 的10 個不同的信噪比(SNR),計算方式如式(5)所示。其中,x 為真實EEG 信號,n 為肌源性噪聲或眼緣性噪聲。在式(6)中,y表示EEG 和肌源性的混合信號,x 表示原始干凈的EEG 信號。通過式(6)的線性混合,將4 478 對EEG 和肌源性偽影(EMG)數據隨機組合10次,至此數據被擴充10 倍。均方根(RMS)值定義如式(7)所示,其中gi代表腦電信號每一時刻的電位。

在模型訓練和驗證過程中,80%的數據用于訓練,20%的數據用于驗證。包含肌源性噪聲的腦電信號和原始腦電信號對比數據樣本如圖6(a)所示。同理,將3 400個EEG 片段和3 400 個EOG 片段利用-7~2dB 信噪比使用式(6)的線性混合,將包含眼部偽影的EEG 數據擴充了10倍。其中,80%的數據用于訓練,20%的數據用于驗證。包含眼源性噪聲的腦電信號和原始腦電信號對比數據樣本如圖6(b)所示。

Fig.6 Comparison between EEG and noise EEG圖6 原始EEG與包含噪聲的EEG對比

在輸入到模型之前,為了使神經網絡在EEG 大范圍的電位振幅下仍具有很好的泛化性,通過式(8)將EEG 信號除以其標準偏差作歸一化操作。其中,x為真實EEG 信號,y 為噪聲EEG 信號,對x 和y 分別進行歸一化處理。將歸一化的污染腦電片段輸入到模型的生成器,然后輸出去噪后的腦電片段。將去噪后的腦電片段乘以干凈EEG 的標準偏差即可進行數據復原。

3.3 實驗結果

本實驗借助深度學習軟件PyTorch 框架實現GAN-1D-CNN 模型,使用NVIDIA Tesla V100 GPU 進行模型訓練,并在Python3.7 軟件環境下進行實驗。數據輸入批次大小為64,迭代次數為25 次,模型優化器采用 Adam 優化器,優化器梯度以及梯度平方的運行平均值系數分別設為0.5 和0.999。本文經過多次測試,當生成器的初始學習率為 2×10-4、判別器的初始學習率為3×10-5時,模型經過多次博弈訓練,會實現一個相對平衡且比較好的去噪效果。為了供讀者復現參考,模型基礎代碼已經開源:https://github.com/wendou-wd/Denoise-EEG/tree/master。

為了將GAN-1D-CNN 與在EEGdenoiseNet 上研究的其他模型性能進行比較,本文對去噪后的數據采用3 個相同的性能評估指標[27],分別是時域相對均方根誤差RRMSEtemporal(簡寫為RRMSET)、光譜域相對均方根誤差RRMSEspectral(簡寫為RRMSES)和平均相關系數CC。在式(9)-式(11)中,變量y 代表含有噪聲的EEG 信號,變量x 表示y未加入噪聲源之前的初始EEG 信號,f(y)表示經過GAN 網絡去噪后的EEG 信號,PSD 是指對腦電信號進行功率譜密度計算,Cov 函數用于計算兩個變量f(y)與x 之間的協方差,Var函數用于計算樣本方差。

在以上3 項評估指標中,RRMSET 和RRMSES 值越小,代表去噪后的樣本與原始樣本更接近;CC 值越大,則代表去噪后的樣本與原始樣本相關系數高。

在去除肌源性噪聲的模型訓練中,模型迭代訓練25次。在訓練集上,判別器的損失函數值如圖7(a)所示(彩圖掃OSID 碼可見,下同),生成器的損失函數值如圖7(b)所示,去噪后的EEG 和與之對應的干凈EEG 均方誤差(MSE)如圖7(c)所示。在圖7(a)中,隨著模型訓練輪次的增加,判別器的損失值不斷降低,顯示判別器的判別能力不斷增強;在圖7(b)中,生成器的損失函數值不斷趨近穩定,這里損失值變大是因為生成器對判別器的欺騙能力越來越強;在圖7(c)中,EEG 和與之對應的干凈EEG 的均方誤差代表去噪后的EEG 信號與原始信號的誤差不斷降低。在測試集上,每次模型迭代后的時域相對均方根誤差、光譜域均方根誤差、相關系數變化過程如圖7(d)所示。隨著模型迭代次數的增加,在測試集上的RRMSET 和RRMSES值逐漸降低,相關系數(CC)增大,模型的去噪效果逐漸變好。

Fig.7 Changes in loss values of the model on the training set and its denoising effect on the myogenic noise test set圖7 模型在訓練集上的損失值變化和在肌源性噪聲測試集上的去噪效果

同理,在眼源性噪聲去噪過程中的模型損失函數值和性能結果如圖8 所示。由于眼源性噪聲頻率與EEG 信號頻率接近,眼源性去噪相比肌源性去噪更加困難。在圖8(c)和8(d)中可以看到,曲線變化并沒有圖7(c)和7(d)平穩。

Fig.8 Changes in the loss values of the model on the training set and its denoising effect on the eye source noise test set圖8 模型在訓練集上的損失值變化和在眼源性噪聲測試集上的去噪效果

訓練好的模型對不同信噪比(SNR)的EEG 測試集數據有不同的去噪效果,實驗過程中設置EEG 信噪比(SNR)的范圍為-7~2。模型的去噪表現評估指標RRMSET、RRMSES、CC 分別如圖9-圖11所示,每個圖都有6條折線,分別展示了模型在不同信噪比和不同噪聲源下的平均去噪性能、最好情況下的去噪性能及最壞情況下的去噪性能。

Fig.9 RRMSET performance of the model under EEG with different signal-to-noise ratios圖9 模型在不同信噪比EEG下的時域相對均方根誤差表現

在圖9 中,左側的3 條折線分別代表模型肌源性去噪的RRMSET 值,右側的3 條折線則代表模型眼源性去噪的RRMSET 值。在SNR 增大的過程中,去噪效果呈現越來越好的趨勢。在圖10 中,左側的3 條折線分別代表模型肌源性去噪的RRMSES 值,右側的3 條折線則代表模型眼源性去噪的RRMSES 值。在SNR 增大的過程中,去噪效果呈現趨勢與圖9 類似。圖11 展現了模型去噪后的EEG 和原始未加入噪聲的EEG 在不同SNR 下的相關系數值,隨著SNR的增大,在SNR=1 附近時,所有曲線趨于平穩,模型的去噪效果達到最佳。而且左側肌源性去噪曲線相比眼源性去噪曲線在SNR=1 附近的收斂效果更好,說明模型在肌源性去噪上的表現優于在眼源性去噪上的表現。

Fig.10 RRMSES performance of the model under EEG with different signal-to-noise ratios圖10 模型在不同信噪比EEG下光譜域相對均方根誤差表現

Fig.11 CC performance of the model under EEG with different signal-to-noise ratios圖11 模型在不同信噪比EEG下相關系數表現

已有的研究方法包含自適應濾波(Adaptive Filter)[11]和希爾伯特—黃變換(HHT)[12]、經驗模態分解(EMD)[13]、Deep Separator[21]、EEGD Net[19]、GAN-LSTM[20]、Novel CNN[18]等,并且以上提到的模型都是基于EEGdenoiseNet數據集的性能不錯且最新的EEG 去噪方法。本文將GAN-1D-CNN 模型與以上幾種方法的去噪性能進行了比較,評估指標包括時域相對均方根誤差(RRMSET)、光譜域相對均方根誤差(RRMSES)和相關系數(CC)。由于GAN-LSTM[20]未明確給出RRMSET 和RRMSES 的值,參考相關文獻模型數據,最終肌源性去噪性能實驗結果比較如圖12、圖13所示。

圖12 以直方圖形式描述不同方法的RRMSES、RRMSET 差異,表明 GAN-1D-CNN 不管是在相對均方根誤差(RRMSET)還是在光譜域均方根誤差(RRMSET)上,模型在腦電信號上的去噪性能均有一定程度的提升,整體實驗在肌源性去噪上的平均相對均方根誤差達到0.292,平均光譜域均方根誤差則達到0.268。

如圖13 所示,GAN-1D-CNN 模型的平均相關系數達到0.945。本文選取GAN-LSTM[20]在SNR 為-2 時最好的平均相關系數為0.65,GAN-1D-CNN 模型的效果遠遠優于GAN-LSTM[20],說明改進模型能有效提高去噪性能。

Fig.12 Comparison of RRMSES and RRMSET in myogenic artifact removal圖12 肌源性去噪RRMSES、RRMSET比較

Fig.13 Comparison of CC in myogenic artifact removal圖13 肌源性去噪相關系數(CC)比較

眼源性去噪效果比較如表3 所示,在眼源性去噪上,GAN-1D-CNN 模型去噪效果的時域平均相對均方根誤差達到0.416,平均光譜域均方根誤差則達到0.397,平均相關系數達到了0.894。與肌源性去噪相比,其眼源性去噪性能稍差,這與噪聲的頻率混合程度有很大關系。綜上,改進的GAN 模型與其他模型和方法相比,不僅在肌源性去噪性能上得到了提升,在眼源性去噪上的表現也相對優異。

Table 3 Average performances comparison in ocular artifact removal表3 眼源性去噪平均性能比較

4 結語

在腦電波去噪領域已經有了許多相關研究,但在去除腦電波生理噪聲方面,自適應濾波器、空間濾波和主成分分析等方法還不能解決先前假設的局限性和去噪后腦電信號可能存在丟失的問題。如今,深度學習技術在去噪領域已經嶄露頭角,但目前在腦電波去噪領域還是一個新興的方法。準確去除腦電波中的眼部噪聲和肌肉噪聲是一項困難的任務。本文利用改進的GAN 網絡對腦電波進行去噪研究,模型以卷積神經網絡為基礎,優化了GAN 網絡中的生成器和判別器,同時在生成器中引入新的損失函數。實驗結果表明,改進的GAN 模型對腦電波的去噪能力得到了增強,模型的相關性能指標都優于目前現有的基準數據集[14]上的去噪方法。然而,模型也有一定的局限性,例如基準訓練數據集的體量對于復雜多變的腦電波信號來說還相對較少。但值得注意的是,GAN-1D-CNN 的模型架構是一種通用模型架構,該模型架構也可應用于其他一維信號的去噪處理,給其他領域的電信號去噪問題提供了解決方案。

猜你喜歡
信號模型
一半模型
信號
鴨綠江(2021年35期)2021-04-19 12:24:18
重要模型『一線三等角』
完形填空二則
重尾非線性自回歸模型自加權M-估計的漸近分布
孩子停止長個的信號
3D打印中的模型分割與打包
基于LabVIEW的力加載信號采集與PID控制
一種基于極大似然估計的信號盲抽取算法
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 人妻少妇久久久久久97人妻| 在线观看亚洲精品福利片| 亚洲成A人V欧美综合| 一区二区无码在线视频| 国产精品久线在线观看| 麻豆国产精品| 国产一级一级毛片永久| 色窝窝免费一区二区三区| 在线精品自拍| 狠狠v日韩v欧美v| 人妻21p大胆| 亚洲女同一区二区| 欧美人在线一区二区三区| 亚洲AV成人一区国产精品| 国产午夜精品一区二区三区软件| 久久美女精品国产精品亚洲| 免费高清自慰一区二区三区| 精品无码专区亚洲| 少妇精品网站| 色综合狠狠操| 日韩成人午夜| 欧美在线综合视频| 亚洲欧美另类日本| jizz国产视频| 国产欧美视频在线| 亚洲人成电影在线播放| 小说 亚洲 无码 精品| 色综合婷婷| 综合色在线| 欧美国产日产一区二区| 国产精品香蕉| 亚洲精品无码成人片在线观看| 中文字幕亚洲专区第19页| 欧美影院久久| 亚洲国产成人精品青青草原| 九九热这里只有国产精品| 91久久夜色精品国产网站 | 在线国产资源| 亚洲最新地址| 高清不卡一区二区三区香蕉| 亚洲香蕉在线| 露脸一二三区国语对白| 在线国产毛片手机小视频| 国产国产人成免费视频77777 | 中文字幕有乳无码| 国产男人天堂| 亚洲综合狠狠| 国产资源免费观看| 国产精品私拍在线爆乳| 久一在线视频| 精品视频第一页| 国产一区二区人大臿蕉香蕉| 天天色天天综合| 国产精品女人呻吟在线观看| 国产丝袜无码精品| 99在线观看视频免费| 国产麻豆精品手机在线观看| 狠狠色香婷婷久久亚洲精品| 亚洲国产精品美女| 国产在线观看精品| 老司国产精品视频91| 久久久久久久久18禁秘| 亚洲精品综合一二三区在线| 久久精品中文字幕免费| 国产青青草视频| 国产视频只有无码精品| 欧洲日本亚洲中文字幕| 99久久精品无码专区免费| 91毛片网| 天天色综网| 97青草最新免费精品视频| 国产精品黄色片| 自拍欧美亚洲| 毛片卡一卡二| 91亚洲精选| 欧美亚洲网| 97青草最新免费精品视频| 久久国产乱子伦视频无卡顿| 婷婷六月综合| 国产成人一区| 日韩精品成人在线| 欧美有码在线|