999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合人臉圖像和腦電的情緒識別技術①

2018-03-02 06:15:45黃泳銳楊健豪廖鵬凱潘家輝
計算機系統應用 2018年2期
關鍵詞:情緒特征檢測

黃泳銳,楊健豪,廖鵬凱,潘家輝

(華南師范大學 軟件學院,佛山 528225)

1 引言

1.1 研究背景

情緒是一種綜合了人的感覺,思想和行為的狀態,它包括人對外界或自身刺激的心理反應,也包括伴隨這種心理反應的生理反應,在人們的日常工作和生活中,情緒的作用無處不在.因此,基于人類的視覺特征和腦電特征,采用計算機技術,對情緒特征進行歸類的情緒識別成為人機交互、情感計算、智能控制、機器視覺、圖像處理與模式識別等領域的重要研究課題.

1.2 研究現狀

(1)關于人臉表情識別的研究

20世紀70年代美國心理學家Ekman和Friesen對現代人臉表情識別做出了開創性的工作[1].Ekman定義了人類的6種基本表情:高興、生氣、吃驚、恐懼、厭惡和悲傷,確定了識別對象的類別;其次是建立了面部動作編碼系統 (Facial Action Coding System,FACS ).Shao等人在2015年提出一種基于子集選擇的面部識別的方法,用來提取人臉的特征[2].Hu等人在2016年提出一種從單一人臉圖像中進行3D人臉重建的方法,用于進行人臉信息的擴充[3].2003年,北京科技大學的王志良教授領導的團隊,將人臉表情識別算法應用于機器人的情感控制研究中[4].人臉表情識別的研究具有很大的開發潛力.但檢測出準確的表情并不總可以代表人的真正情緒,因為人可以偽裝表情.

(2)關于基于腦電的情緒識別研究

對于提取出的腦電特征,如何從腦電特征中學習出情緒狀態的模型,是腦電能否在情緒識別中得到應用是關鍵性的一步.Murugappan等人利用模糊C均值和模糊K均值的方法對高興、厭惡、恐懼三種情緒進行聚類,并通過對聚類效果的觀察,選擇能對情緒進行區分的最少特征集合[5].Bos利用費雪判別分析,針對正向、負向、興奮、平靜情緒中每一類分別訓練一個分類器,使得正向情緒的分類準確率為37/39,興奮、平靜情緒分類準確率為38/39[6].Yazdani等人利用貝葉斯線性判別分析,將腦電特征針對喜悅、憤怒、厭惡、悲傷、驚訝、恐懼等六種情緒進行了分類,達到80%以上的準確率[7].Pertrantonakis和Hadjileontiadis利用二次判別分析(Quadratic Discriminant Analysis,QDA)以及SVM對情緒在愉快、驚訝、生氣、恐懼、厭惡、悲傷六種類別下進行分類,分別達到了62.3%和83.33%的準確率[8].但是基于腦電的情緒識別方法,存在信號難以提取的問題.在采集腦電信號時,會存在較大的其他電位干擾(如肌電,眼電等).

(3)關于利用信息融合技術的研究

盡管基于單一模態的情緒識別方法上攜帶著準確的情緒信息,但是信號強度十分微弱,所以在提取過程中要求較高.近年來,隨著多源異類信息融合處理領域的發展,可以將來自多類別參考情緒狀態的特征進行融合.利用不同類別的信號相互支持,通過對互補信息進行融合處理,可以得到很大改善.因此,人們開始利用人臉表情、語音、眼動、姿態和生理信號等多個通道的情緒信息之間的互補性來研究識別問題,即基于多模態的情緒識別.多模態信息融合識別相對于單一信號識別無疑是可以提高識別準確率的.

本文的工作就是融合人臉圖像和腦電識別的結果,以提高情緒識別的準確率.

2 人臉表情識別的基本原理和實現

2.1 人臉表情識別過程

程序通過攝像頭采集到圖像,通過基于Haar特征值的Adaboost算法,實時檢測人臉位置.利用主成分分析(Principal Component Analysis,PCA)對提取人臉特征值進行降維處理.將降維后的特征值利用卷積神經網絡進行分類.詳細過程見圖1.下面重點講述Adaboost算法,PCA降維和卷積神經網絡算法.

圖1 人臉表情識別流程圖

2.2 使用基于Haar特征值的Adaboost算法進行人臉檢測基本原理

基于人臉圖像的人臉檢測方法,采用基于Haar特征值的Adaboost算法[9],它實際上是Boosting算法的一個應用,Haar分類器用到了Boosting算法中的Adaboost算法,把Adaboost算法訓練出的強分類器進行了級聯.

Adaboost是一種迭代算法,其核心思想是針對一個訓練數據集D={(x1,y1),(x2,y2),(x3,y3),···,(xN,yN)},從訓練數據中學習一系列弱分類器或基本分類器,然后將這些弱分類器組合成一個強分類器.

其算法本身是通過改變數據分布來實現的.通過每次訓練集之中每個樣本分類結果是否準確來訓練弱分類器.并通過上一次的總體分類準確率來確定每個弱分類器在強分類器中的權重,最終將多個弱分類器結合成強分類器.

將提取到的Haar特征值作為輸入,利用Adaboost算法進行分類器訓練,最終得出可用于人臉檢測的分類器.

2.3 表情特征提取

表情特征提取是人臉表情識別中最重要的部分,有效的表情特征提取工作將使識別的性能大大提高.通過對大量文獻的總結,可知好的表情特征提取結果應該具備以下幾個條件:(1)可完整表示出人臉表情的本質特征;(2)可通過灰度處理,高斯濾波等方法去除噪聲、光照及其他與表情無關的干擾信息;(3)數據表示形式緊湊,可避免過高的維數(常見的方法有PCA和LDA,本文利用PCA進行數據降維操作);(4)不同類別表情特征之間有較好的區分性.要得到滿足這些條件的表情特征,特征提取的過程可能需要數個步驟來完成.首先,利用某種形式的信息來獲得表情的原始特征,如特征形狀與幾何關系,局部紋理,光流場等,這一步驟稱為原始特征獲取.然而,這些原始特征一般都存在信息冗余,維數過高,區分性不夠等問題.為了能夠更有效地表征輸入人臉表情的本質,需要對原始特征數據需要較好的預處理方法,因此使用PCA進行降維.主要提取的方式如圖2所示.

圖2 人臉特征點提取過程

PCA是一種分析、簡化數據集的技術.主成分分析經常用于減少數據集維數,同時保持數據集中對方差貢獻最大的特征.

利用PCA進行特征值降維的基本原理如下:

對于一個M×N的矩陣,其中M為樣本數,每個樣本包含N個特征(n維).

1)進行樣本矩陣中心化,每一維的數據都減去該維的均值,將每一維的均值變為0.

即對于第m個樣本,第n個特征值,將該值代入式(1)進行運算.

2)計算樣本特征的協方差矩陣

協方差矩陣的第(i,j)項如式(2)所示.

則協方差矩陣如式(3)所示[10].

矩陣中第(i,j)項元素是Xi與Xj的協方差,對角線就是各個維度上的方差.

2)計算協方差矩陣的特征值和特征向量

得到N個特征值與N個特征向量.將N個特征向量根據其對應的特征值從大到小進行排列,取其中前k列,組成一個N×k的降維矩陣[11].

3)降維計算

將原M×N矩陣與上述步驟得到的降維矩陣N×k相乘,便得到結果,一個M×k的矩陣.其中M為樣本數量,k為其維度.

4)應用

應用到人臉圖像的特征值處理,將原始特征作為初始的輸入維度,進行人臉特征值降維處理,減少接下來表情識別的計算量.

2.4 人臉表情識別方法

在表情識別方面,采用基于卷積神經網絡的方法.

卷積神經網絡的訓練方法總體上與傳統神經網絡類似,但是由于其特殊結構,不同的層在誤差回傳、前向激活時有所不同,其具體步驟如下[12]:

1)前向傳導階段

從樣本集中選取一個樣本(Xi,Yi),將向量Xi輸入網絡,計算出相應的實際輸出f(xi).在這個階段,信息從輸入層經過逐層計算,傳遞到輸出層,在此過程中,神經網絡執行的計算實際上就是輸入值向量與每層的權值矩陣進行點乘運算,得到最后的輸出結果,如式(4)所示.

其中,wi表示第i層各個神經元的權重,ai表示第i層各個神經元輸入,ai+1表示第i層各個神經元輸出.這個輸出將作為第i+1層神經元的輸入,迭代直到輸出層.

2)反向傳播階段

定義代價函數Loss如式(5)所示.

其中m為樣本集中樣本的個數,l為卷積神經網絡的層數.

網絡參數更新需要計算網絡參數殘差,其中包括輸出層殘差,下一層為池采樣層(pooling層)的卷積層的殘差以及下一層為卷積層的pooling層的殘差.

在反向傳播階段里,需要將損失函數產生的殘差依層次往前傳遞,在傳遞的過程中,全連接層、pooling層、卷積層的殘差計算方法和更新權值矩陣的計算方法不同,如下為具體幾種情況的計算方式和步驟.

1)計算輸出層的殘差

針對單個樣本(x,y)時,對應的樣本代價函數Loss的值如式(6).

其中下標c的含義如式(7)所示.

由此可得如式(8)所示此時Loss值相對于輸出層的殘差.

式(9)為第L層的權值Wl的偏導數.

式(10)為輸出層偏置的偏導數.

假設第一層為卷積層,第l+1層為pooling層,且pooling層的殘差如式(11)所示.

3)再下一層是卷積層的pooling層殘差計算

假設pooling層(第l層)有N個通道,即有N張特征圖,卷積層(l+1層)有M個特征,l+1層中每個通道圖都對應有自己的殘差項,則式(12)為第l+1層第j個通道的殘差計算方法.

4)卷積層相連接層的權值、偏置值的導數計算

第l層第i個通道與第l+1層第j個通道之間的權值和偏置的導數計算方法如式(13)所示.

對于訓練完的分類器,將上文利用PCA提取到的特征值,將其作為輸入輸進神經網絡的輸入層,如上述前向傳導的過程,迭代直到輸出層,輸出表情結果.

3 腦電信息處理的基本原理和實現

3.1 腦電信息處理流程

通過Neurosky公司的腦電設備,即時提取腦電波的特征值,當接收到識別的命令,將當前的值先做特征處理,再作為輸入傳入SVM分類器,得出結果.詳細過程見圖3.

圖3 腦電處理流程

3.2 腦電特征值的預處理和特征分類

使用Neurosky公司的腦電提取設備,提取出來每種的腦電波的值是一個無符號整數.特征預處理采用的方法是特征標準化和歸一化,再使用訓練好的SVM分類器進行特征的分類,將特征分為虛弱、普通、強烈三類,分別對應情緒的不同狀態.

3.3 利用SVM算法進行腦電特征值訓練的基本原理

對于給定訓練樣本:

分類學習最基本思想就是基于訓練集D在樣本空間找到一個劃分超平面,使得不同類別的樣本分開[13].

設線性可分時存在超平面可表示為式(14):其中,w為待確定的行向量.則每個樣本點到超平面的距離r如式(15)所示.

距離超平面最近的訓練樣本點使得上式等號成立,他們被稱為“支持向量”.支持向量的點到超平面的距離之和如式(17)所示.

因此要求出超平面,就是求出滿足式(18)的w值.

為了簡化計算,等價于計算式(19).

式(19)是一個二次規劃問題,可用拉格朗日乘子法求得最優解.

線性不可分時存在超平面可將樣本從原始空間映射到一個更高維的特征空間,使得樣本在整個樣本空間線性可分.

令g(x)表示將X映射后的特征向量,于是,在特征空間中劃分超平面的模型可表示為式(20).

求解w過程類似于上述線性可分情況.

對于多分類問題,將多分類任務拆解為若干個二分類任務求解.

應用到腦電波訓練問題,對于每個樣本點(xi,yi)

求解一個w,使得存在

使得樣本分為兩類(先把-1和0看成一類,1看成另一類).若找不到存在的w滿足條件,則通過核函數向高維映射.然后再通過分成多類的方法(區分-1和0類),將其分為三類.

4 信息融合的基本原理和實現

4.1 信息融合主要流程

圖4 信息融合主要流程圖

如圖4所示,首先利用設備攝像頭檢測當前畫面圖像,利用所訓練的Haar分類器,找出人臉位置,框出來.與此同時,腦電設備每隔1 s檢測人腦電波,不斷更新.

當系統接收到要進行情緒識別的信號(即鼠標點擊人臉框).人臉圖像模塊進行人臉特征提取和表情計算返回當前人臉表情.腦電處理模塊進行特征預處理和特征分類返回當前人內心情緒的波動程度.信息融合模塊匯總上述2個模塊的信息,給出最終結果,判斷出人的真正情緒.

5 實驗和結果

下面三種實驗分別分為在線和離線實驗,在線實驗用來產生訓練數據,離線實驗的數據用來測試本文方法的準確率.

每次實驗開始,首先在大屏幕的中心呈現固定十字,以吸引實驗對象的注意力,2秒后,對應不同情緒的片段出現在屏幕中心.每個片段2~3分鐘,片段之間間隔10秒讓實驗對象恢復情緒.情緒的得分使用Manikin自我評定表獲取[14].

實驗中采用攝像頭(25FPS,800×600圖像大小)獲取人臉圖像.采用腦電設備(Neurosky,Inc.,Abbotsford,Australia)獲取腦電,從“Fz”電極獲取用于分析的腦電信號.所有電極的電阻保持在5 kΩ以下.

實驗數據在Windows下采用python3.5進行處理.圖像方面算法用谷歌的開源深度學習框架tensorflow.腦電方面算法用python開源庫scikit-learn.信息融合算法自己用python實現.

5.1 表情識別效果

表情識別實驗對象為20個18~22歲的青年,男女比例1:1.每個對象檢測八種基本表情,每種表情檢測3次.檢測環境有在光照強度大的環境,也有在光照較差的環境.被測人的內心狀態各有不同,但都被要求做出所需要的表情.

表情識別實驗效果準確率如圖5表示,其中,x軸表示實驗者編號,y軸表示準確率.

圖5 人臉表情檢測準確率

表情識別實驗效果顯示,雖然對人臉表情檢測準確率能夠高達81.35%,但是對內心情緒波動程度的辨別程度幾乎為0.單純基于人臉圖像對真實情緒檢測的準確率并不高,其曲線如圖9 (三種情緒識別效果對比可以體現出來).

5.2 腦電信息進行情緒強弱程度分析效果

以上進行表情檢測的20個人,只利用腦電設備,在其內心情緒的不同狀態,檢測10次,每人每次作為一個樣本.進行內心情緒波動程度的檢測.檢測的效果如表1.

表1 腦電情緒強弱程度分析效果

可以看到,利用腦電信息對內心情緒波動檢測的方法對內心情緒波動微弱檢測的召回率較差,但在其他方面均可達到0.8左右的效果.

5.3 表情識別與腦電信息進行信息融合的效果

用相同的20個人,在表情識別實驗基礎上,加入利用腦電信息進行情緒波動分析的方法進行檢測.很大程度上彌補了表情識別無法識別出內心情緒波動的缺陷.

圖6 情緒強烈的效果圖

圖7 正常情緒效果圖

圖8 微弱情緒效果圖

開心情緒的識別效果如圖6,7,8所示,被實驗人都被要求做出微笑表情.圖6是在被實驗人聽歡快音樂1分鐘后所試驗,圖8是在被實驗人聽悲傷音樂1分鐘后所試驗,圖7是在被實驗人情緒波動正常時試驗.

三種情緒識別的效果圖如圖9所示,其中,x軸表示實驗者編號,y軸表示準確率.

圖9 三種情緒識別的效果圖

可以看到,只基于面部表情進行真實情緒識別有較高的波動性,這是因為只要被實驗人懂得假裝自己的面部表情就可以成功地“騙”過機器.利用人臉表情和腦電信息進行情緒識別很好地彌補了只基于單一信息源識別信息單一的缺陷.在檢測出面部表情的基礎上,還檢測出了內心情緒的波動程度,這部分的準確率在71.53%.很大程度上拓寬了情緒信息的廣度.

6 總結

本文利用信息融合技術結合人臉表情識別技術與腦電情緒識別技術.不僅檢測出了情緒的分類,還檢測出了情緒的強弱程度.對比其他文獻的實驗結果,他們大多只檢測了情緒的分類,對于情緒的強弱程度這方面,目前并沒有太多的研究者去做.比如說,Murugappan等人從腦電信號中提取多解析度的小波變換作為特征,對高興、厭惡、恐懼三種情緒進行了聚類[5].Li等人指出Gamma頻帶的腦電信號對于愉悅和悲傷兩種情緒的分類有很高的解析度[15].

這些實驗大多只檢測出了情緒的種類,而且檢測出情緒的種類并不夠多.而利用信息融合的方法,不僅可以檢測出情緒的種類,而且還可以檢測出情緒的強弱程度.說明利用信息融合的方法更適合用于情緒識別.下一步的工作:由于內心情緒的不可控性,導致進行內心情緒的檢測過程困難,難以得到高質量的腦電數據.這進一步導致了腦電部分的估測準確率不高.但是一旦有高質量的腦電數據,進行分類器的重新訓練,就可以大大提高基于腦電信息的內心情緒識別的準確率.

1Ekman P,Friesen WV.Facial action coding system:A technique for the measurement of facial movement.Palo Alto:Consulting Psychologists Press,1978.

2Shao H,Chen S,Zhao JY,et al.Face recognition based on subset selection via metric learning on manifold.Frontiers of Information Technology &Electronic Engineering,2015,16(12):1046-1058.

3Hu XP,Wang Y,Zhu FY,et al.Learning-based fully 3D face reconstruction from a single image.Proceedings of 2016 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Shanghai,China.2016.1651-1655.

4王志良,陳鋒軍,薛為民.人臉表情識別方法綜述.計算機應用與軟件,2003,20(12):63-66.[doi:10.3969/j.issn.1000-386X.2003.12.027]

5Murugappan M,Rizon M,Nagarajan R,et al.EEG feature extraction for classifying emotions using FCM and FKM.International Journal of Computers and Communications,2007,2(1):21-25.

6Bos DO.EEG-based emotion recognition.The Influence of Visual and Auditory Stimuli,2006.

7Yazdani A,Lee JS,Ebrahimi T.Implicit emotional tagging of multimedia using EEG signals and brain computer interface.Proceedings of the First SIGMM Workshop on Social Media.Beijing,China.2009.81-88.

8Petrantonakis PC,Hadjileontiadis LJ.Emotion recognition from EEG using higher order crossings.IEEE Transactions on Information Technology in Biomedicine,2010,14(2):186-197.[doi:10.1109/TITB.2009.2034649]

9江偉堅,郭躬德,賴智銘.基于新Haar-like特征的Adaboost人臉檢測算法.山東大學學報(工學版),2014,44(2):43-48.[doi:10.6040/j.issn.1672-3961.1.2013.003]

10曾陽艷,葉柏龍.基于PCA方法的人臉特征提取和檢測.電腦知識與技術,2008,1(4):742-744.

11高緒偉.核PCA特征提取方法及其應用研究[碩士學位論文].南京:南京航空航天大學,2009.

12王劍云.基于深度神經網絡的表情識別算法[碩士學位論文].綿陽:西南科技大學,2015.

13張國云.支持向量機算法及其應用研究[博士學位論文].長沙:湖南大學,2006.

14Bradley MM,Lang PJ.Measuring emotion:The selfassessment Manikin and the semantic differential.Journal of Behavior Therapy and Experimental Psychiatry,1994,25(1):49-59.[doi:10.1016/0005-7916(94)90063-9]

15Li M,Lu BL.Emotion classification based on gamma-band EEG.Proceedings of 2009 Annual International Conference of the IEEE Engineering in Medicine and Biology Society.Minneapolis,MN,USA.2009.1223-1226.

猜你喜歡
情緒特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
小情緒
小情緒
小情緒
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 重口调教一区二区视频| 91精品国产自产91精品资源| 91精品国产情侣高潮露脸| 伊人丁香五月天久久综合| 欧美激情视频二区| WWW丫丫国产成人精品| 中文字幕有乳无码| 欧美性爱精品一区二区三区| 伊人精品视频免费在线| 国产自在线播放| 91色老久久精品偷偷蜜臀| 在线国产综合一区二区三区| 亚洲日韩国产精品综合在线观看| 午夜在线不卡| 又爽又大又黄a级毛片在线视频| 五月天天天色| 国产精品久久精品| 欧美特黄一级大黄录像| 91毛片网| 午夜激情福利视频| 美女内射视频WWW网站午夜| 99久久无色码中文字幕| 午夜性刺激在线观看免费| 日韩欧美中文字幕一本| 日日噜噜夜夜狠狠视频| 国产屁屁影院| 久久精品欧美一区二区| 国产精品成人AⅤ在线一二三四| 日韩精品亚洲人旧成在线| 国产成人无码综合亚洲日韩不卡| 97国产在线播放| 国产午夜看片| 国产H片无码不卡在线视频| 国产综合网站| 免费无码又爽又刺激高| 在线免费无码视频| 亚洲国产精品日韩av专区| 亚洲成人黄色在线观看| 久久综合色视频| 视频一区亚洲| 99久久国产精品无码| 欧美日韩中文字幕在线| 免费在线视频a| 国产成人午夜福利免费无码r| 色久综合在线| 美女无遮挡免费视频网站| 扒开粉嫩的小缝隙喷白浆视频| 免费看a级毛片| 九九久久99精品| 欧美国产精品不卡在线观看| 成人在线第一页| 中文字幕 欧美日韩| 试看120秒男女啪啪免费| 天堂成人在线| 在线观看国产精美视频| 久久久成年黄色视频| 青草精品视频| 日韩成人免费网站| 国内黄色精品| 国产拍揄自揄精品视频网站| 欧美一区精品| 毛片最新网址| 欧美精品高清| 日韩乱码免费一区二区三区| 午夜啪啪福利| 色哟哟国产精品一区二区| 亚洲午夜天堂| 国产偷倩视频| 在线观看国产精品第一区免费| 欧美一级99在线观看国产| 国产成人精品午夜视频'| 亚洲国产成人精品无码区性色| 国产不卡网| Aⅴ无码专区在线观看| 亚洲午夜福利在线| 国产精品视频白浆免费视频| 99视频在线观看免费| 亚洲aⅴ天堂| 久久窝窝国产精品午夜看片| 午夜视频日本| 99re精彩视频| 亚洲av片在线免费观看|