陳志華,石詩余
(大連交通大學 軟件學院,遼寧 大連 116028)*
腦電波是一種非常復雜的非線性生理信號,有多個不同的復雜變量組成.為了減少變量數目并提取出重要的特征變量,通常采用主成分分析方法對數據進行簡化和特征提取[1].通過主成分分析的方法,可以把高維空間的問題轉化到低維空間進行處理,將多個變量轉化為少數幾個綜合變量(即主成分),并加以應用.作為最重要的多元統計方法之一,主成分分析在多個領域都有著重要的應用.
對腦電數據的分析研究中,主成分分析方法是一種重要的數據分析方法.在以往的研究中,主成分分析常被用于簡化腦電數據,或者用來去除腦電信號中的偽跡,使得其他研究得以簡化并得到較好的結果,而主成分的貢獻率變化這一特征常常被忽略[1-5].應用主成分分析基于腦電圖研究應用在腦電圖研究各個方面,但是就使用主成分分析分析情感方面的變化而言,大多數使用音樂刺激的方法進行分析[6-7].而短的無聲視頻進行視覺刺激的研究則較少出現.
本文針對觀看兩種不同的視頻過程中采集的腦電情感變化腦電節律進行了主成分分析,然后對兩種不同狀態的分析結果進行比較,通過不同情緒時的第一及第二主成分的貢獻率的差異,來研究人腦的感情變化的特征.這將為為腦電圖數據分析以及腦電研究提供基礎性的分析,并為進一步的研究做參考.
采用主成分分析方法進行分析,首先對數據進行了標準化處理,之后計算出相關系數來得出相關系數矩陣,最后對數據進一步分析,計算出相關的特征值和特征向量,接下來通過貢獻率的大小,取出前90%的貢獻率,并計算出其相應的載荷就完成了主成分分析.完成的主成分分析的結果貢獻率分布如圖1所示.

圖1 XXX的各個成分的貢獻率分布
完成主成分分析后,比較2次不同情緒下貢獻率的差異就可以完成對情感的判別.在本次研究中,采用的是第一主成分和第二主成分的貢獻率的變化來進行分析.因為第一主成分能最大限度的反應樣本之間的差異.而且只能用第一主成分來進行排序.而第二主成分可以用來驗證第一主成分,所以本次研究采用的的第一主成分進行分析,用第二主成分加以驗證的做法.
采用日本光電工業株式會社制造的腦電圖機(EEG-9200K)來完成腦電數據的采集.作為一種常用的32導的腦電圖機,該腦電圖機有著很優良的性能,采集的數據準確、誤差較小,同時能在一定程度上排除外界干擾對腦電數據的影響.
選用國際常用的10-20腦電極系統中比較常用的19個腦電極完成數據的采集,其中每一個腦電極可以被視為一個原始成分進行分析,f分析所采用的19個腦電極的名稱和具體位置如圖2所示.

圖2 分析數據時所采用的電極
在本次實驗中,電極的阻抗保持在10以下.采樣頻率為500 Hz,信號過濾范圍為0.1~60 Hz.這樣基本保證了數據的有效性.
本次實驗受試者全部為大連交通大學在校學生,年齡在22~25歲之間,身體健康無相關疾病.這次試驗共有52名受試者參加,其中男生34人,女生18人,每人需要分別做2次實驗.除去3例因環境因素造成的無效數據后,有習慣使用左手的男生2人次,有習慣使用右手的男生67人次,有習慣使用右手的女性34人次,共計103組數據.實驗地點在大連交通大學一實驗室進行,室內光線適中,溫度適宜,周圍無線信號和噪音對腦電信號的采集無明顯干擾.
首先,受試者安靜閉眼1 min,然后令受試者睜眼調整坐姿,以免實驗中因不能長久保持坐姿而有所晃動,對腦電圖數據產生干擾;然后,給參與實驗人員播放黑白噪音視頻.播放完畢實驗人員睜眼調整放松.調整之后,播放一段可愛貓的視頻(在第2遍時為與第一段不同的可愛貓視頻).每段視頻的長度為30 s.
播放兩段視頻后分別詢問受試者,發現所有受試者對于后一段視頻的愉悅程度均高于前者.
本次試驗采用的視頻應盡可能簡單,同時使得刺激盡可能有效并具有一定的普遍性,而視頻的時間應該在30 s左右,這些可以使誘發情緒的時間可以控制在合理的范圍內.在本研究中,采用的是可愛貓和黑白噪音的無聲視頻.
為保證視頻有效性,在觀看視頻前,兩段視頻均對所有受試者保密.同時第2次實驗采取了與第一段近似但略有不同的可愛貓視頻來保證對受試者有足夠的愉悅度.3段視頻的截圖如圖3所示.

圖3 誘發人產生不同情緒的視頻截圖
本實驗提取數據中4~30 Hz頻段用來數據分析,因為α和β波作為成年男性腦電波中存在的主要波段,提取這一頻段的信息可以較大程度排除噪聲和其他波的干擾,同時保留數據中的最有效特征,θ波段雖然在成年腦電圖占的比重較小,但是通過θ波一般能較明顯的表現出情感變化的特征,而且α,β和θ3個波段互相之間并不能完全的獨立.因此決定采用4~30 Hz這一頻率作為這次實驗分析的分析波段.
對于日常生活中習慣用右手的女生,相對于不愉悅時,大部分人(85%)在愉悅時的第一主成分貢獻率增大,這說明第一主成分的情感變化荷載變大.而與之相反,絕大多數(96%)第二主成分在愉悅時的貢獻率減小,即第二主成分情感變化荷載減小.
但對于習慣用右手的男生來說,隨著愉悅度的提高,根據情感變化的第一主成分的相關數據計算得出的情感變化載荷的差值為正的,接近50%,因此沒有參考意義.同一樣本群中的第二主成分隨著愉悅度,67%的第二主成分有所增大的降低,說明情感變化能導致一半的人結果下降但是結果并不顯著,不能進行有效的判別.
由于男生習慣用左手的受試者只有1人2例而女生無習慣用左手的受試者.所以未進行分析.具體的結果如表1、2所示,表中第一主成分為同一受試者在高興和不高興的兩種情況下第一主成分的貢獻率的差值,第二主成分為同一受試者在高興和不高興的兩種情況下第二主成分的貢獻率的差值.

表1 男生分析結果

表2 習慣使用右手的女生分析結果
為了進一步探究各個區域對腦電情緒變化的影響,對數據原有的電極對第一主成分的貢獻率進行分析.數據表明,無論在高興和不高興的時候,大部分人對第一貢獻率最大的電極為FP1、FP2或者是F3、F4,證明人類在情感變化時,大腦前部皮層區的活動比較強.男生和女生在貢獻率前幾名的分布都集中在大腦的中前部FP1、FP2,F3、F4,C3、C4,以及 O1 、O2兩個電極代表的視覺識別區.但是從總體來說,男生的腦電極的貢獻范圍比女生更加集中,更加趨向于F3,F4附近的腦前中部區域.
通過愉悅和不愉悅時的電極分布情況對比發現,就同一個人而言,不愉悅時電極分布更偏向于左邊,愉悅時電極的分布更偏向于右邊.但是對于不同人來說區域并不相同,而且有很多人出現了愉悅時比不愉悅時更靠左的區域,并不好直接用來判別.
通過視頻刺激的實驗和使用主成分分析方法進行分析.初步得出以下結論:主成分分析的貢獻率變化對習慣使用右手的正確率達到了83.8%,擁有一定的區分度.但是男生識別的正確率只有55%,并不能很好的區分情感變化.這可以歸結為以下幾方面因素:
(1)相對于非線性信號,主成分分析對于線性信號的分析更加有效,而對非線性信號則可能造成一定的精度損失.腦電波信號是一種比較典型的非線性的信號,如果換用非線性主成分分析[8]和獨立成分分析結合的辦法可能能避免一定的精度損失,能提高其正確率;
(2)通過分析不同情感變化下原電極對第一主成分的貢獻率,我們發現相比于女生,男生的視覺識別區的變化不明顯,而在前頭部的區域的活動相對來說則比較明顯.僅對于前頭部區域而言,在不愉悅向愉悅變化的過程中,雖然男生的變化比女生明顯一些,但是僅僅就貢獻率而言,這一點區別尚不足于用來判別情緒變化.而女生因為有O1,O2視覺識別區的變化較明顯,使得在不同情緒下的貢獻率變化比較大,能夠較好的排除腦隨機信號的影響.為了進一步區分男生情緒變化的正確率,可以采用只分析前頭部來完成實驗,但是這樣的結果也不能很好的來完成情緒的判別.由于每人前頭部的各個電極的貢獻率是不同的,尚未找到能夠一個合適的區域來描述大部分人在視頻刺激時的腦電主要變化區域,而不引入其他區域的隨機信號的方法;
(3)可能跟選取的視頻類型有關.通過查閱資料和以前做的聽音樂時的實驗發現,采用不同類型的愉悅或者難過的音樂素材的時候,所獲得的情感識別正確率有一定的差異,而且對于男生和女生產生的差異是不同的[7,9-11].因此推測,在選取不同類型的視頻進行分析時,所產生的情感變化時也是不同的.不同的聲學特征可能導致不同的情感變化,而且對于不同聲學特征導致的男女生的情感變化也略有差異[7,9,12].對于圖片的分析,雖然沒有明確的特征.但是通過一些模型,還是可以找到不同圖片刺激情感變化的差異[13].但是對于不同圖片特征導致的男女情感變化的差異,尚沒有有效數據來說明.就無聲視頻而言,尚沒有一個明確的模型來完成以上的分析.所以,就目前而言,我們只能根據國際來選取一個較好的無聲視頻來完成實驗;
通過以上的討論表明,采用主成分分析方法能初步完成對女生情感變化的區分,但是就對男生的情感變化而言,尚不能完成很好的情感變化.下一步,我們將對主成分分析的算法做進一步改進,同時,結合其他算法來提高男生的識別正確率.
[1]ONG KM.Selection of a Subset of EEG Channels using PCA to classify Alcoholics and Non-alcoholics[C].Annual International Conference of the IEEE Engineering in Medicine and Biology Society,2005.
[2]MEGHDADI AH.Detecting determinism in EEG signals using principal component analysis and surrogate data testing[C].Annual International Conference of the IEEE Engineering in Medicine and Biology Society,2006.
[3] JüRGEN KAYSER.Principalcomponentsanalysis(PCA)as a tool for identifying EEG frequency bands:I.Methodological considerations and preliminary findings[J].New York Psycho-physiology,2000(3):65-68.
[4]杜曉燕,李穎潔,朱貽盛,等.腦電信號偽跡去除的研究進展[J].生物醫學工程學雜志,2008(2):464-467.
[5]孫宇舸,葉寧、許心和,等.基于PCA和小波變換的腦電信號的特征提取[C].2007中國控制與決策學術年會論文集,2007.
[6]謝康.情緒音樂的腦電識別算法[D].四川:電子科技大學,2013.
[7]馬翔宇,陳志華、鄒颯楓,等.基于主成分分析的音樂事件相關腦電變化研究[J].現代生物醫學進展,2009(3):490-492.
[8]SAIKUMAR DEVULAPALLI.Non-Linear Principal Component Analysis And Classification Of EEG During Mental Tasks[J].International Journal of Neural Systems,2012(5):42-45.
[9]盧英俊,戴麗麗,吳海珍,等.不同類型音樂對悲傷情緒舒緩作用的EEG研究[J].心理學探新,2012(4):369-375.
[10]王亞卿,曹艷珺,樊浩宇,等.基于腦電(EEG)信號的“愉快-不愉快”情緒分析[J].計算機與現代化,2012(7):88-91.
[11]LOLITA MERCADIé1 .Effect of synchronized or desynchronized music listening during osteopathic treatment:An EEG study[J].Psycho-physiology,2014(6):52-59.
[12]YUAN-PIN LIN.Fusion of electroencephalographic dynamics and musical contents for estimating emotional responses in music listening[J].Frontiers in NeuroScenice,2014(5):78-81.
[13]黃崑,賴茂生.圖像情感特征的分類與提取[J].計算機應用,2008(3):659-661.