999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于張量R-Tucker分解的BCI數據分類研究

2023-06-22 14:09:04張帥
現代信息科技 2023年2期

摘? 要:張量分解作為一種高維數據分析工具能夠結合多個模態的信息從而獲取具有判別信息的特征,但是在高維空間上進行張量分解存在計算復雜度高的問題。為了解決該問題,研究借助隨機奇異值分解速度快的特點,提出基于隨機奇異值分解的張量Tucker分解(張量R-Tucker分解),并將其用于BCICIV2b數據集的特征提取和分類中。實驗結果顯示:相比張量Tucker分解,張量R-Tucker分解特征提取速度提升22%,并且平均分類準確率達到80.93%,與現有基于矩陣的方法相比提高10.12%。

關鍵詞:張量分解;隨機奇異值分解;運動想象;腦機接口

中圖分類號:TP301.6? ? 文獻標識碼:A? 文章編號:2096-4706(2023)02-0001-07

Research on BCI Data Classification Based on Tensor R-Tucker Decomposition

ZHANG Shuai

(Taiyuan Normal University, Jinzhong? 030600, China)

Abstract: As a high-dimensional data analysis tool, Tensor Decomposition can combine the information of multiple modalities to obtain features with discriminative information, but there is a problem of high computational complexity problem for Tensor decomposition on high dimensional space. In order to solve the problem, this research takes advantage of the b fast speed of Randomized Singular Value Decomposition, and proposes the Tensor Tucker Decomposition (Tensor R-Tucker Decomposition) based on Randomized Singular Value Decomposition, and uses it for feature extraction and classification of the BCICIV2b dataset. The experimental results show that compared with the Tensor-Tucker Decomposition, the feature extraction speed of the Tensor R-Tucker Decomposition is increased by 22%, and the average classification accuracy rate reaches 80.93%, which is 10.12% higher than the existing matrix-based methods.

Keywords: Tensor Decomposition;Randomized Singular Value Decomposition;motor imagery; Brain Computer Interface

0? 引? 言

腦機接口(Brain-Computer Interface, BCI)系統是一種新型的高效人機交互方式[1],該系統通過信號分析將大腦神經活動信息直接轉換成控制外部設備的命令,從而在大腦與外部設備之間建立了直接的交流通道,實現人與外界的交流或對外部環境的控制。常見的用于BCI的腦電(Electroencephalogram, EEG)信號類型有視覺誘發電位(Visual Evoked Potential, VEP)[2]、事件相關電位(Eevent-related potential, ERP)[3]和運動想象(Motor Imagery, MI)[4]等。其中,基于運動想象的腦電信號作為一種經典范例已被研究和開發數十年。其生理學基礎是事件相關同步/去同步(Event-Related Synchronization/Event- Related Desynchronization, ERS/ERD)現象[5],即當人體在想象單側肢體運動時,同側大腦皮層的電位活動活躍,特定頻率腦電信號對應的振幅明顯增強,而對側大腦皮層的電位活動被抑制,特定頻率對應的腦電信號振幅減弱。MI-EEG信號在時間上是非平穩連續的,具有信噪比(Signal-to-Noiseratio, SNR)低的特點,容易受到多種生物學因素(如眨眼,心跳和肌肉活動產生的眼電,心電和肌電)或環境偽影(如市電和工頻噪聲)的影響;同時,MI-EEG個體樣本數據量較小,不同受試者間個體差異較大,以上因素均導致MI-EEG分類模型性能較差。

EEG信號是非平穩的時域信號且主要特征反映在頻域上,因此EEG信號的時頻分析成為一種常見的特征提取方式[6,7]。它把時域信號在時間-頻率平面中展開,將以時間為自變量的信號表示成以時間和頻率兩個參數為自變量的函數,以便表現出信號不同時間點的頻率成分。由此,多通道EEG信號成為一種張量形式的數據。然而在傳統EEG分類中,一般會將該張量展開為矩陣的形式進行處理,這種展開不可避免地丟掉了一些維度內與維度間可能存在的信息和交互作用。使用張量分解對EEG進行分析可以從時間、空間、頻率等多個模態上提取和分類有關的投影模式,并通過投影計算得到特征,由于同時考慮多階信息,該特征具有更好的判別能力。因此很多研究人員將張量分解用于EEG數據的分析[8,9],Zhang等使用動態腦功能網絡在時間模態建立張量模型,使用帶正交約束和部分對稱約束的張量分解方法對構造的張量進行了分析,并使用分解得到的核心張量作為特征進行分類,分類結果表明該方法優于基于矩陣的方法[10]。Roáková使用張量分解檢測和分析了腦卒中偏癱患者在運動想象的神經反饋訓練中運動感覺區域的腦電節律激活情況,結果驗證該方法對于檢測偏癱患者特定運動想象相關的腦電節律具有較好的性能[11]。Krishnan等使用短時傅里葉變換對基于運動想象的EEG信號建立張量結構,并在此基礎使用張量分解進行分析,結果表明此方法可以得到EEG信號可區分的分量且具有更好的分類性能[12]。李潔提出判別張量分解算法并將其用于基于運動想象的EEG信號的特征提取中,結果表明該方法由于同時考慮多階信息,對于獲取分類特征,識別與任務相關的判別信息非常有效[13]。上述文章均對時域EEG信號建立了張量結構,然后使用張量分解進行分析且取得不錯的效果,然而在高維空間進行張量分解,存在計算復雜度高的問題。

隨機奇異值分解(Randomized Singular Value Decomposition, RSVD)是一種高效精確的奇異值分解方法。該方法利用隨機投影的思想,通過使用隨機向量生成變換矩陣,將高維的數據映射到低維空間中實現降維,同時在低維空間中的數據能夠保持高維矩陣的結構特性,通過對低維空間矩陣的分解,從而實現原始大規模矩陣的高效分解[14]。因此,本文提出一種基于RSVD的張量Tucker分解方法,在張量每個階矩陣化后使用RSVD構造因子矩陣,以提高了張量Tucker分解的速度,最后將其應用于MI-EEG信號的特征提取,并與張量Tucker分解進行比較,驗證了張量R-Tucker分解的有效性。

1? 基本原理

1.1? 隨機奇異值分解

為了解決大規模矩陣進行高效精確的奇異值分解(Singular Value Decomposition, SVD)的問題,Halko等人提出了RSVD算法[15],其基本思想是通過生成一個高斯隨機矩陣,將原始的大規模矩陣變換為一個小矩陣,通過對該小矩陣的QR分解得到原始矩陣的一組標準正交基,再通過該正交基的變換實現原始矩陣的奇異值分解。Arvind等對該算法進行了詳細的誤差分析,結果證明該方法具有很高的精度[16]。RSVD的計算過程如下:

(1)構造一個服從高斯分布的隨機投影矩陣P∈Rn×r(r<n)對原始矩陣X∈Rm×n的列空間進行采樣:

Z=XP

然后對矩陣Z進行低秩QR分解:

Z=QR

其中Q是一個正交矩陣,R是一個上三角矩陣。

(2)利用低秩正交基Q,將X投影到更小的空間:

Y=QTX

然后計算矩陣Y的奇異值分解:

Y=UY∑VT

因為Q是標準正交的并且近似于X的列空間,矩陣∑和V對于Y和X是一樣的。

(3)利用UY和Q可以重構出原始矩陣X的左奇異向量U:

U=QUY

得到最終的結果:

X=U∑V

1.2? 張量Tucker分解

張量Tucker分解是主成分分析方法在高階張量的推廣,它可以將一個N階高維張量? 分解為一個核心張量g和每階乘以一個因子矩陣(A,B,C)的形式[17],如:一個三階張量X∈RI×J×K的Tucker分解可表示為:

其中 (R1, R2, R3為張量的Tucker秩[17])是核心張量,表示每一階成分之間的聯系,通常小于原始張量,A,B,C被稱為因子矩陣,表示每一階成分之間的聯系,它們通常是正交的,其分解形式如圖1所示。

上述分解形式可通過基于高階奇異值分解(High Order Singular Value Decomposition, HOSVD)和高階正交迭代(High Order Orthogonal Iteration, HOOI)聯立實現[17,18]。其中,HOSVD的思想是利用矩陣分析中的奇異值分解算法對張量的每一階展開進行分解,并采用低階近似處理,過濾掉一些較小的奇異值;HOOI的基本思想是使用交替投影的方法多次迭代得到最優結果。由于HOSVD算法只對張量的每階進行了一次奇異值分解,因此不能很好地擬合原始數據,因此一般用HOSVD算法求出的投影矩陣作為HOOI算法的初值條件,然后使用HOOI算法完成張量Tucker分解。

1.3? 張量R-Tucker分解

張量Tucker分解需要計算高階張量每個階矩陣化的SVD來構造因子矩陣,然后使用因子矩陣來構造核心張量。但是對于大型的、高階張量的SVD是非常耗時的。為了解決該問題,本文提出了張量R-Tucker分解,通過在張量每個階矩陣化[18]后使用RSVD構造因子矩陣,并保持核心張量的計算方法保持不變。即在HOOI階段通過RSVD構造左奇異向量對HOSVD階段得到的因子矩陣進行不斷迭代,提高張量Tucker分解的計算速度。具體方法如下:

在HOSVD階段,設? 為一個張量,其在第n(n=1,2…N)階進行張量矩陣化記作X(n),對X(n)進行RSVD得到因子矩陣 ,由因子矩陣即可得張量得核心張量g,計算公式為:

算法1是該算法的具體實現過程。一般將HOSVD算法得到的因子矩陣作為HOOI算法的初始化,在HOOI算法階段,張量R-Tucker分解可通過求解下式得到最優解:

在最優解時,核心張量滿足:

上述最小值問題可等價為以下最大值問題,文獻[19,20]對該過程進行了詳細的說明:

上述目標函數寫作矩陣形式,即:

上式中使用RSVD將A(n)設為W的n個左奇異向量, 表示Kronecker積,通過求解以上優化問題,即可得到R-Tucker分解的最終結果。

算法2 R-HOSVD

preocedure HOSVD(X, R1, R2,…RN)

for n=1, …N‘do

generate a gaussian random matrix

Z=X(n)P

QR decompositionZ=QR

Y=QTX

SVD decomposition

end for

return g, A(1), A(2), …A(N)

end procedure

算法2描述了該算法的具體實現過程。

算法2 R-HOOI

preocedure HOOI(X, R1, R2,…RN)

initialize? for n=1,…Nusing HOSVD

repeat

for n=1, …N‘do

generate a gaussian random matrix

Z=Y(N)P

QR decompositionZ=QR

Y=QTY(N)

SVD decomposition

end for

until fit ceases to improve or maximum iterations exhausted

return g, A(1), A(2), …A(N)

end procedure

2? R-Tucker分解在BCI信號分類中的應用

MI-EEG數據分類研究的整體步驟如圖2所示。主要分為三個模塊:數據預處理模塊、特征提取模塊和特征分類模塊。內容有:

(1)預處理模塊。主要包括讀取數據、濾波、重參考和分段;

(2)特征提取模塊。對預處理后的二維EEG信號(channel×time)進行時頻分析并建立起張量結構(channel×frequency×time),在此基礎上使用基于隨機奇異值分解的Tucker分解進行特征提取;

(3)特征分類模塊。使用支持向量機對提取的特征進行分類。

Ⅰ是預處理模塊。Ⅱ是特征提取模塊。Ⅲ是特征分類模塊。輸入的運動想象原始信號有3個采樣通道,750個時間采樣點。

2.1? 數據集

本文的實驗數據來自2008年國際BCI競賽的數據集BCI Competition 2008-Grazdata set B(BCICIV2b)[21],分為訓練數據和測試數據,整個實驗共有9個受試者參與,所有受試者都擁有正常視力且為右利手。每個受試者做5組實驗,其中前2組實驗是無反饋的,后3組實驗是帶反饋的;前3組是訓練數據,后2組是測試數據。每個實驗包括120個試次(60次左手運動想象,60次右手運動想象)。實驗采用AgCl電極,數據從國際標準10-20導聯系統的C3、Cz和C4三個通道獲得,采樣頻率為250 Hz,得到的腦電數據已經進行帶工頻陷波處理和帶通濾波(0.5~100 Hz)。

2.2? 數據預處理

原始的EEG時域圖如圖3所示。預處理可以從包含大量噪聲的原始EEG信號中獲取較為純凈的MI-EEG成分,本文使用MNE-Python[22]對原始EEG數據進行預處理,首先利用0.5~45 Hz的前置帶通濾波去除包括線性漂移,心電,肌電在內的大部分偽跡,濾波后的EEG時域圖如圖4所示。然后對連續的數據進行分段(Epoch),提取出執行運動想象任務時(任務開始0~3 s)的MI-EEG信號,由于MI-EEG信號產生的腦電節律變化主要集中在mu節律(8~13 Hz)和beta節律(13~30 Hz),所以接下來對分段后的數據進行8~30 Hz的后置帶通濾波。

2.3? 構建張量

EEG時域信號是以矩陣的形式存儲的時間、空間上的二維數據(channel×time=3×750),為了包含空間、時間和頻率的多階信息,須將EEG信號通過時頻變換建立起張量結構。本文中使用連續小波變換(Continuous Wavelet Transform, CWT)[23]進行時頻變換。

對于二階EEG信號樣本X(c,t)(代表通道c和時間點t上的EEG信號值),通過計算和小波函數ω( f,t)的卷積的幅值,可得三階(channel×frequency×time=3×23×750)的張量數據X c×f×t,X(c, f, t)的含義是在通道c、頻率f時間點t上的能量。計算公式為:

X(c, f, t)=‖ω( f, t)×X(c,t)‖

使用小波函數為復Morlet小波,該函數為:

選擇中心頻率Ω=1,帶寬參數σ=2作為其母小波函數,因為它被廣泛應用在EEG數據的處理上并且取得了很好的效果[24]。

2.4? 提取特征

對于每個MI-EEG數據X c×f×t進行基于RSVD的Tucker分解,分解形式如下所示:

其中X為原始運動想象EEG構造的張量數據,A,B,C每個數據樣本在每一階的投影矩陣,矩陣之間相互正交,也可以被認為是數據在每階的主分量。g為核心張量作為提取的特征,由原始EEG數據通過投影矩陣得到。

2.5? 特征分類

支持向量機(Support Vector Machines, SVM)是一種基于統計學習理論的模式識別方法,SVM建立在VC(Vapnik-Chervonenkis)維理論和結構風險最小化原理的基礎上,根據有限樣本信息在模型復雜度和學習能力之間尋求最佳折中,能較好地解決小樣本、非線性、高維度分類問題[25]。因此,本文采用支持SVM進行特征分類。

同一被試者數據的80%作為訓練集,剩余20%作為測試集,在訓練樣本上使用10折交叉驗證進行SVM分類器的參數選擇。針對MI-EEG信號非線性的特點,選擇高斯徑向基函數(Gaussian Radial Basis Function, RBF)核函數,并使用網格搜索法對懲罰因子C和核參數gamma進行參數尋優。

2.6? 評估指標

本文以基于RSVD的張量Tucker分解的時間和提取特征的分類準確率為評價指標。計算公式為:

Time=end time-start time

其中,Time是完成Tucker分解的用時,end time是Tucker分解結束時間,start time是Tucker分解開始時間。TP是真陽性數,TN是真陰性數,FP是假陽性數,FN是假陰性數。

3? 結果分析與討論

EEG信號是非平穩的時域信號且主要特征反映在頻域上,因此對于多通道EEG信號,為了包含空間、時間和頻率的多維信息,本文首先通過時頻分析對EEG信號建立三階(channel×frequency×time)張量結構,然后使用R-Tucker分解得到其核心張量將其作為特征,最后使用SVM進行特征分類。在對BCICIV2b數據集的實驗驗證了本文方法的有效性,取得了較為可信和穩定的結果。

為了驗證張量R-Tucker分解對于分解速度的有效性,本文對張量Tucker分解和張量R-Tucker分解在不同Tucker秩情況下對分解時間進行比較。如表1所示,列出了BCICIV2b數據集在一組實驗中每個被試者張量Tucker分解和張量R-Tucker分解特征提取時間。由表1可知當Tucker秩為[3,23,100]時,R-Tucker分解速度提升了63%;當Tucker秩為[3,23,250]時,R-Tucker分解的平均時間提升了41%;當Tucker秩為[3,23,500]時,R-Tucker分解的平均時間提升了22%。而且由表可知,對于每一個被試者,在相同Tucker秩的情況下,R-Tucker分解的效率均高于Tucker分解。

造成上述結果的原因是當Tucker秩為[3,23,100]進行Tucker分解時,Tucker分解會對張量矩陣化后69×750大小的矩陣進行奇異值分解,然后選取分解結果的前100個左奇異向量構成因子矩陣;而R-Tucker分解通過生成一個750×100大小服從高斯分布的隨機投影矩陣,由RSVD算法可知,通過投影矩陣與張量數據進行矩陣乘法會生成一個69×100大小的矩陣,然后按照RSVD算法的步驟得到的左奇異向量構成的矩陣即為因子矩陣。由于Tucker分解需要對一個69×750大小的矩陣進行分解,而R-Tucker分解僅需對一個69×100大小的矩陣分解,因此R-Tucker分解的效率高于Tucker分解的效率,且分解時間提升了63%。同理,當Tucker秩為[3,23,250]和[3,23,500]時,通過RSVD生成69×250和69×500大小的矩陣相比于69×750大小的矩陣,R-Tucker分解的的效率更高,同時這也導致Tucker秩越大,R-Tucker分解的提升效率越低。

通過上述分析可得如下結論,Tucker分解和R-Tucker分解相比,R-Tucker分解速度更快;對于同一個張量數據,它的Tucker秩越小,R-Tucker分解提升的效率越高。

為了驗證張量R-Tucker分解提取特征的分類性能,本文對張量R-Tucker分解提取的特征使用SVM進行了單被試分類實驗,由于Tucker秩為[3,23,100]和[3,23,250]的張量Tucker分解生成的核心張量過于小,丟失的與分類相關的信息較多,因此選取Tucker秩為[3,23,500]進行張量R-Tucker分解并進行分類。將其與連續小波變換得到的張量作為特征(表中為CWT)和文獻[26]基于傳統矩陣方法的分類結果進行比較,結果如表2所示。

表2列出不同方法每個被試者的準確率以及BCICIV2b數據集的平均準確率,使用CWT特征的單被試平均準確率為62.07%,而張量R-Tucker分解后特征的單被試平均分類準確率為80.93%,平均分類準確率提高了18.86%;文獻[26]方法的單被試平均準確率為70.81%,由表2可知,除了被試者S4和S5的分類準確率略有下降,其余被試者的分類準確率均顯著高于文獻[26]提出的方法,且平均準確率提高了10.12%。

造成上述結果的原因如下:由R-Tucker分解得到的特征的分類準確率高于分解前特征的準確率可知,R-Tucker分解前張量數據的大小為3×23×750,R-Tucker分解后得到的核心張量的大小為3×23×500,說明經過R-Tucker分解后得到的核心張量可以獲取原始數據潛藏的更緊湊的模式表示,有效對EEG信號進行降噪,從而提高了數據的信噪比。由R-Tucker分解得到的特征的分類準確率高于文獻[26]可知,傳統方法通常將張量結構的數據展開為矩陣的形式進行處理,這種展開不可避免地丟掉了一些維度內與維度間可能存在的信息和交互作用,而張量R-Tucker分解能夠獲取EEG信號時間、空間和頻率多階的信息以及它們之間的關系,可以更有效的提取隱含在數據中的多階特征信息,從而獲取具有判別能力的特征。

通過上述分析可得如下結論,張量R-Tucker分解可以融合多個模態的信息使其提取的特征更具有判別能力,而且對于信噪比低的EEG數據可以提升其信噪比。

為了進一步對上述結果進行分析,本文對R-Tucker和CWT獲取的特征進行了t分布隨機領域嵌入(T-SNE)分析。T-SNE可以將高維數據投影到二維散點圖上,被廣泛用于評價特征向量的判別能力。評價標準如下:一個類的實例可以從其他類的實例中分離出的越多,相關特征的表現就越好。

如圖5和圖6所示,分別為受試者S1到S9在CWT和R-Tucker分解后的類別標簽映射T-SNE圖中,其中藍色和綠色分別代表MI-EEG信號的2類別標簽(左手和右手)。由圖可知,受試者S2、S3、S6和S9在T-SNE映射后兩類標簽重疊部分較多,這導致CWT特征在這幾位受試者分類準確率較低,而這幾位受試者在R-Tucker分解后經過T-SNE映射后,兩類標簽重疊部分有一定程度的降低,在經過SVM核函數的映射之后,在高維空間的分類準確率更高。而且通過觀察圖5和圖6,9位受試者在R-Tucker分解后兩類標簽的重疊部分均明顯少于CWT,這也導致R-Tucker分解特征的平均分類準確率高于CWT特征的分類準確率。

如圖7所示,對BCICIV2b數據集受試者使用不同方法的分類結果使用T檢驗進行顯著性差異分析。基于Tucker分解提取特征的分類準確率與文獻[26]存在顯著性差異(t=3.364 0,p<0.01)。而基于Tucker分解提取特征相比于Tucker分解前的特征的分類準確率也存在顯著性差異(t=13.986 2,p<0.001)。而且由圖可知,基于R-Tucker分解方法的單被試分類準確率方差小于其他兩種方法,說明其分類結果更為平穩。

綜上所述,基于RSVD的張量R-Tucker分解不僅可以提高分解效率,而且能夠獲取EEG信號時間、空間和頻率多個模態的信息以及它們之間的關系,從而獲取更緊湊、具有判別能力的特征,而且通過比較本文方法和文獻[26]方法的平均準確率以及方差,說明R-Tucker分解提取的特征具有更好的判別能力以及魯棒性。

4? 結? 論

本文對于兩類(左手和右手)MI-EEG數據的分類主要有三個模塊組成,分別是預處理模塊、特征提取模塊和特征分類模塊。預處理模塊主要完成了數據的濾波和分段;特征提取模塊對預處理后的數據建立張量結構并使用張量Tucker分解提取特征;分類模塊使用SVM對特征提取模塊提取的特征進行分類。本文的主要創新是使用RSVD改進了基于HOSVD-HOOI的張量Tucker分解,并將其用于兩類(左手和右手)MI-EEG數據的特征提取。實驗結果表明,張量R-Tucker分解與張量Tucker分解相比,張量R-Tucker分解速度得到顯著的提升,并且使用張量R-Tucker分解提取的特征擁有更好的分類性能。

參考文獻:

[1] LOTTE F,BOUGRAIN L,CICHOCKI A,et al. A Review of Classification Algorithms for EEG-Based Brain–Computer Interfaces:A 10 Year Update [J].Journal of Neural Engineering,2018,15(3):031005.

[2] NORCIA A M,APPELBAUM L G,ALES J M,et al. The Steady-State Visual Evoked Potential in Vision Research:A Review [J].Journal of Vision,2015,15(6):4.

[3] LUCK S J.An Introduction to the Event-Related Potential Technique [M].Bradford:A Bradford Book,2014.

[4] PFURTSCHELLER G,NEUPER C. Motor Imagery and Direct Brain-Computer Communication [J].Proceedings of the IEEE,2001,89(7):1123-1134.

[5] PFURTSCHELLER G.Event-Related EEG/MEG Synchronization and Desynchronization:Basic Principles [J].Neurophysiol Clin,1999,110(11):1842-1857.

[6] MA Y,ZHENG L S,YI Z K,et al. Short-Time Fourier Transform Covariance and Selection,A Feature Extraction Method for Binary Motor Imagery Classification [C]//2021 IEEE International Conference on Real-Time Computing and Robotics (RCAR).Xining:IEEE,2021:1316-1322.

[7] YOU Y,CHEN W Z,ZHANG T. Motor Imagery EEG Classification Based on Flexible Analytic Wavelet Transform [J].Biomedical Signal Processing and Control,2020,62(615):102069.

[8] PHAN A H,CICHOCKI A. Tensor Decompositions for Feature Extraction and Classification of High Dimensional Datasets [J].Nonlinear Theory and Its Applications,IEICE,2010,1(1):37-68.

[9] CONG F Y,LIN Q H,KUANG L D,et al. Tensor Decomposition of EEG Signals:A Brief Review [J].Journal of Neuroscience Methods,2015,248:59-69.

[10] ZHANG Q Z,GUO B,KONG W Z,et al. Tensor-Based Dynamic Brain Functional Network for Motor Imagery Classification [J].Biomed Signal Process Control,2021,69.

[11] RO?KOV? Z,ROSIPAL R,SEIFPOUR S. Tucker Tensor Decomposition of Multi-session EEG Data [C]//29th International Conference on Artificial Neural Networks.Bratislava:Springer,2020:115-126.

[12] KRISHNAN K K,SOMAN K P. Canonical Polyadic Decomposition of EEG Image Tensor for BCI Applications [M]//ICT Systems and Sustainability.Singapore:Springer,2022:819-826.

[13] 李潔.多模態腦電信號分析及腦機接口應用 [D].上海:上海交通大學,2009.

[14] BRUNTON S L,KUTZ J N. Data-Driven Science and Engineering:Machine Learning,Dynamical Systems,and Control [M].Cambridge:Cambridge University Press,2019.

[15] HALKO N,MARTINSSON P-G,SHKOLNISKY Y,et al.An Algorithm for the Principal Component Analysis of Large Data Sets [J].SIAM Journal on Scientific Computing,2011,33(5):2580-2594.

[16] ZHANG J N,SAIBABA A K,KILMER M E,et al. A Randomized Tensor Singular Value Decomposition Based on the T-Product [J/OL].arXiv:1609.07086 [math.NA].[2022-08-09].https://arxiv.org/abs/1609.07086.

[17] KOLDA T G,BADER B W. Tensor Decompositions and Applications [J].SIAM Review,2009,51(3):455-500.

[18] DE L L,VANDEWALLE J,DE M B. A Multilinear Singular Value Decomposition [J].SIAM Journal on Matrix Analysis and Applications,2000,21(4):1253-1278.

[19] ANDERSSON C A,BRO R. Improving the Speed of Multi-Way Algorithms:Part I.Tucker3 [J].Chemometrics and Intelligent Laboratory Systems,1998,42(1-2):93-103.

[20] LATHAUWER L D,MOOR B D,VANDEWALLE J. On the Best Rank-1 and Rank-(R1,R2,...,Rn) Approximation of Higher-Order Tensors [J].SIAM Journal on Matrix Analysis and Applications,2006,21(4):1324-1342.

[21] LEEB R,BRUNNER C,MULLER-PUTZ G R,et al.BCI Competition 2008 Graz data set B[EBOL].[2022-08-12].https://www.bbci.de/competition/iv/.

[22] ALEXANDRE G. MEG and EEG Data Analysis with MNE-Python [J].Front Neurosci,2013,7(7):267.

[23] COHEN M X. A Better Way to Define and Describe Morlet Wavelets for Time-Frequency Analysis [J].Neuroimage,2019,199:81-86.

[24] LE S,GORDON E,GYSELS E. Phase Synchrony Rate for the Recognition of Motor Imagery in Brain-Computer Interface [C]//Advances in Neural Information Processing Systems.Vancouver:DBLP,2005:1265-1272.

[25] BURGES C J C. A Tutorial on Support Vector Machines for Pattern Recognition [J].Data Mining and Knowledge Discovery,1998(2):121-167.

[26] RAZA H,CECOTTI H,PRASAD G. A Combination of Transductive and Inductive Learning for Handling Non-Stationarities in Motor Imagery Classification [C]//2006 International Joint Conference on Neural Networks(IJCNN).IEEE:Vancouver,2016:763-770.

作者簡介:張帥(1995—),男,漢族,山西忻州人,碩士研究生在讀,研究方向:智能數據分析與應用。

收稿日期:2022-09-01

主站蜘蛛池模板: 青青草原偷拍视频| 日本a级免费| 综合色亚洲| 久久中文电影| 一级高清毛片免费a级高清毛片| 精品国产Av电影无码久久久| 亚洲欧洲国产成人综合不卡| 国产成人做受免费视频| 亚州AV秘 一区二区三区| 日本免费福利视频| 亚洲国产第一区二区香蕉| 人人爱天天做夜夜爽| 欧美狠狠干| 色播五月婷婷| 欧美成人精品一区二区| 婷婷五月在线| 免费国产一级 片内射老| 国产美女叼嘿视频免费看| 久久国产精品国产自线拍| 国产午夜一级毛片| 欧美一区二区三区欧美日韩亚洲| 99久久成人国产精品免费| 久久香蕉国产线看观看式| 久久无码高潮喷水| 无码日韩精品91超碰| 天天躁夜夜躁狠狠躁图片| 丁香婷婷久久| 三上悠亚精品二区在线观看| 中文字幕在线看视频一区二区三区| 国产97公开成人免费视频| 亚洲日韩第九十九页| 国产欧美高清| 国产精品主播| 91福利国产成人精品导航| 色妞www精品视频一级下载| 久久免费视频播放| 亚洲欧美色中文字幕| 久久青草热| 19国产精品麻豆免费观看| 亚洲妓女综合网995久久| 国产亚洲第一页| 日韩精品一区二区三区swag| 亚洲成网777777国产精品| 久久亚洲天堂| 中国一级特黄大片在线观看| 强奷白丝美女在线观看| 韩国v欧美v亚洲v日本v| 先锋资源久久| 亚洲第一在线播放| 亚洲天堂色色人体| 色综合狠狠操| 久久国产高清视频| 97在线免费| 国产av无码日韩av无码网站| 国产超碰在线观看| 乱人伦99久久| 亚洲AV电影不卡在线观看| 国产黄视频网站| 国产sm重味一区二区三区| 免费观看成人久久网免费观看| 99色亚洲国产精品11p| 亚洲日韩精品综合在线一区二区| 一本色道久久88| 一级毛片免费观看久| 欧美日韩中文字幕二区三区| 日韩在线第三页| 再看日本中文字幕在线观看| 无码av免费不卡在线观看| 国产亚洲高清在线精品99| 色成人综合| 大乳丰满人妻中文字幕日本| 国产一级妓女av网站| 国产成人久视频免费| 在线不卡免费视频| 欧美日韩中文国产va另类| 99热这里只有精品5| 国产亚洲精品va在线| 中文字幕乱码二三区免费| 香蕉综合在线视频91| 福利在线不卡| 亚洲欧洲日韩国产综合在线二区| 真人免费一级毛片一区二区|