999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的人臉表情特征分析

2018-06-13 07:52:40余銳
現代計算機 2018年13期
關鍵詞:實驗模型

余銳

(重慶大學計算機學院,重慶 400044)

0 引言

人臉表情(Facial Expression)承載著人與人之間信息交流據。心里學家A.Mehrabian[1]的研究發現,在人類日常生活中,人臉表情所傳遞的信息量約戰整個信息總量的55%,因此,近些年來對于人臉表情圖像識別的研究也是比較熱門,尤其是對人臉表情特征分析進行歸類的人臉表情識別成為人機交互、計算情感、智能控制、機器視覺、圖像處理及設計模式等領域的重要研究課題。

我們已熟知的傳統人臉表情識別算法很大一部分集中在基于傳統的圖像處理相關技術,主要基于三步進行實現,特征提取、特征選擇、分類器構建來完成識別,可參考朱健翔的基于Gabor特征與AdaBoost人臉表情識別[2],其中特征提取階段主要目的是能夠提取出能夠更好地進行面部表情分析的特征,目前比較成熟的技術包括Gabor小波特征[3-4]和AAM[5],而特征選擇主要集中在高緯度特征向量下降低維度數,可以很大降低存儲量與計算量,其中包括PCA降維和AdaBoost算法。最后分類器構建則有著相對多的方法,其中主要運用到了模式識別中相關技術,包括了基于概率模型的方法,基于支持向量機SVM、基于神經網絡的方法模型傳統人臉表情識別流程如圖1所示。

圖1 傳統表情識別流程圖

本文所采用的是深度學習技術來進行分臉表情特征分析,有別于之前的神經網絡作為分類器算法,神經網絡可劃歸淺層的網絡分類器模型中,而深度學習在圖像識別分類這一塊主要是讓機器自動從大量數據的樣本中通過深層次的網絡多通道維度學習,使得其能夠在訓練好的模型中體現出泛化表征性。

1 深度學習和圖像識別

深度學習是一門綜合性的研究領域,其基礎融合線性代數、微積分、概率論統計等學科,同樣也是機器學習非監督學習領域下的一個分支,由于其在包括圖像識別語音識別及機器翻譯等多方面表現出卓越的效果而流行起來,2006年,神經網絡之父Hinton和他學生在頂尖學術刊物Science發表了一篇使用深層結構的神經網絡模型實現數據降維的論文[6],主要通過無監督預訓練對權值初始化和有監督訓練微調來解決了深層網絡訓練中梯度消失問題,由此開啟了深度學習在學術界和工業界的浪潮。在圖像識別領域一項大賽ImageNet中,廣泛的圖像識別技術通常采用了圖像處理與模式識別相關方法,必須借助SIFT、HoG等算法提取出良好區分性的特征,再結合SVM等機器學習算法進行圖像識別。

深度學習有別于普通神經網絡模型,其實質就是對具有深層次結構進行建模的方法統稱。深層結構主要針對淺層網絡而言(隱藏層數大于2),目前常見的模型與架構包括CNN、DBN、RNN、自動編碼器、GAN等,而其中CNN在圖像識別問題上表現出其強勁的性能。

2 數據集選擇和模型設計

2.1 數據集選擇

人臉表情特征分析技術已經發展了近30年,而數據集也隨著研究的進行不斷推進著,起初日本人臉表情數據集JAFFE是一個樣本量不大而又經典的數據集,在前期的人臉表情識別的研究大多數采用了該數據集,整個數據庫共213張圖像、共10人,全部是女性,每個人對應表情分為 7種:sad、angry、disgust、fear、neutral;而后面的CK+人臉表情數據集合是在Cohn-Kanade Dataset[7]的基礎上擴充來的,發布于2010年,該數據集比JAFFE數據集要大很多,其中包含了表情的label和Action units的label,在后期很多人臉表情分析相關的研究都是在該數據下進行,而在作為機器學習競賽Kaggle用到的數據集FER2013(Facial Expression Recognition 2013)在后期的科研中也多次被運用。

主要是其滿足了兩大實驗基本要求,首先,圖片數據集中已經最好保留下了人臉正中的位置,而無需在進行人臉部門的賽選,其次擁有者足夠的樣本量夠模型的訓練,而本文中所用的數據集是基于JAFFE人臉表情數據集的擴充集Jaffe+來更加豐富網路訓練模型。JAFFE+數據庫如圖2所示。

圖2 JAFFE+人臉表情數據庫

2.2 模型設計

本文之前也描述CNN網絡模型的基本結構,這里針對本文的實驗來作出更詳細的分析。CNN是一種采用反向傳播算法的前饋式的神經網絡,其基本由下面幾個層組成:卷積層、池化層、全連接層、Softmax層。

卷積層即做卷積操作,這一層也是整個CNN模型中至關重要的一步操作,卷積層主要是將網絡里的劃分的更小塊來進行深入分析而得到抽象程度更高的圖像特性[8]。卷積層的操作的三個關鍵特點就是局部感知、參數共享以及多核卷積,局部感知就是避免傳統神經網絡中每個神經元都與圖像中每個像素點連接,而采用卷積核中大小,避免造成權重數量巨大;參數共享保證圖像中不同位置相同目標他們的特征是一致的;多核卷積能是每個卷積核學習不同特征從而提取出原始圖中的特征。卷積層的計算公式可表示為:

其中x[m ,n]表示輸入信號,h[m ,n]表示卷積核函數,在通過卷積運算后會進行激活函數運算q(?),相比于之前通常采用的sigmoid或tanh,后更多采用能展示稀疏性的 ReLU(Rectified Linear Units)函數[9]。ReLU函數表示為:

θ(x)=max(0,x)

相關實驗表明ReLU函數不僅展現出性能上的稀疏特性,而且能夠消除神經網絡反向傳播優化參數方面可能出現的梯度消失問題。

下采樣pooling層(池化層)的主要作用就是降低經過卷積處理后圖像的高維度問題,如果直接將多層卷積后的特征去進行分類器訓練,必然會造成維度災難的問題[11],同時也能夠有效避免過擬合情況的發生。池化層主要由兩種方式:MaxPooling與Mean Pooling,通常一般沒特殊注明情況下就采用MaxPooling即獲取窗口內的最大值保留下來,同時也能夠去除一些哨聲信息的目的。以Tensorflow為例,其中該操作如下:

max_pooling2d(inputs,pool_size,strides,padding='valid',data_format='channels_last',name=None)

其中參數inputs表示tensor張量,pooli_size滑動窗口尺寸,stride代表補償,padding表示以何種方式處理圖像邊緣區域,通常選擇填充0的方式,name代表這一層的名稱。

全連接層是將對后池化層每個特征圖從二維數組轉化成一維,作為全連接層的輸入。每個神經元的輸出為:

tw,b(x)=θ(wTx+b)

tw,b(x)表示神經元的輸出值;wT表示權值特征向量的轉置;x表示輸入特征向量;b表示偏置;同樣θ代表激活函數這里同樣采用了ReLU函數。最后的Softmax即分類層,這里采用的概率投票競爭的方式,最后的每個輸出神經元輸出會在0~1范圍間表示各自輸出的概率,最后會選取輸出概率最大的作為最后的分類。

網絡模型訓練階段,這里參考Lenet-5模型,后期大部分網絡模型都集中在網絡層深度的增加,具體訓練的網絡模型結構如下,輸入為由原始的255×255的圖像經過圖像壓縮成32×32維度更小也同樣匯聚了原始特征的圖像,這些人臉表情圖像包含了0~6種人臉表情特征,集對應于7種表情類別;輸出即為0~6種的一種表情類別;C1層選取了32個filter即具有不同卷積核的過濾器,其中窗口大小為二維的5×5,步長采用了1,padding方式采用了same使得圖像卷積后輸出的大小保持不變,盡可能維持原始尺寸,針對這步操作需要在外圍補2圈零操,在沒特殊說明的情況下都是采用ReLU作為激活函數;polling下采樣層采用filter為2×2,strides為2的操作MaxPooling操作;針對第二層卷積增加了一倍數量的filter64個,而后的pooling操作同上一步一樣,最后做扁平化flatten操作,后面全連接,全連接層激活了1024個神經元,最后采用Softmax作為分類器函數。在數據樣本不足的情況下通常會出現overfitting(過擬合)情況出現,之前的data augmentation操作就防止了過擬合,同樣CNN實驗中采用了dropout策略[10]來解決過擬合問題。

3 實驗

本次實驗中所采用的數據集來自Jaffe表情數據庫中,總共213張圖像,其中一共包含了10個人,每個人對應著由7種表情,每個人特種表情下有4張圖像,針對樣本數據量少的情況下符合傳統的圖像分類模式,顯然基于深度學習模式下的樣本數據量不足,這里在實驗前期對原始的樣本數據量基礎上進行了data augmentation(數據增強),數據增強有著較多的方式,在深度學習中AG Howard曾在論文[11]對數據增強對深度學習整個模型訓練的好處做出詳細論述。這里結合到之前的一些方法采用了以下方式來實現:旋轉、裁剪平移、仿射變換以及加入一些高斯噪點,將之前的總共213張圖片擴充到了5323張,具體做法是針對仿射變換擴增了5倍樣本量,對圖像旋轉平移也分別擴增了5倍,針對于噪點共擴充了10倍(分別采用了隨機白噪聲點、加性零均值高斯噪聲),擴充后的數據集稱為Jaffe+。

同樣由于Jaffe數據集中是在特定的實驗環境中進行的數據采集,不同光照條件下可能會對特定的人臉特征產生干擾,Jaffe+也同樣受影響,于是光照歸一化處理對于人臉表情特征分析中也是不可缺少的一步,這里主要就集中在采用何種光照歸一化的處理算法上。相關研究中也提供了各式的方法,例如基于二次多項式模型的人臉歸一化[12],基于形態學商圖像的光照歸一化,基于小波變換的人臉歸一化等,各式的算法運用的場景也有著特定的環境,而針對于Jaffe數據集,經過實驗發現采用均值方差歸一化的處理就能達到目的。以下就是采用了均值方差歸一化消除光照處理后的對比,如圖3所示。

圖3 消除光照影響前后對比

經過了前期的對Jaffe+數據集的圖像進行預處理后,數據集測試集、訓練集比例1:6,參考上一章節訓練好的網絡模型進行實驗,在對比實驗中我們采用了基于Gabor特征提取,隨后進行PCA降維處理,再進行SVM分類器來實現人臉表情識別別,其中Gabor濾波器組采用包含4個尺度,6個方向的濾波器組,SVM采用了“one-vs-one”的策略[13],內核函數采用 RBF核,同樣實驗也對基于KNN分類器、MLP(多層神經網絡)進行了實驗比較,實驗結果如表1所示。

表1 不同算法在Jaffe+上的識別準確率對比

由實驗結果知CNN相比于之前的傳統用于識別的策略相比,在整體數據集上識別率提高了8%,傳統模型中所采用的方式相對復雜,而CNN將之前的特征提取以及降維處理都集中在一起。結合CNN在人臉表情7分類識別過程中的混淆矩陣,可以看出多種類表情易被誤識別成驚訝,對整個厭惡和中性表情的識別率較低,結果所表2所示。

4 結語

本文提出了基于深度學習下的人臉表情特征分析,該方式相比于傳統的人臉表情識別有所改進。主要是減少了前期對圖像的預處理以及人工的進行降維處理,相比于人臉表情識別不是如手寫體數字識別那么準確率高,主要是其圖像包含著更復雜紋理信息,其中主要體現在各個面部器官之間的復雜關系以及人臉表情在特定環境下采集的與實驗環境相關的誤差,實驗結果也顯示出該方法有著較高的識別率和泛化的特性,后期工作中還會對整個CNN網絡層與層之間的關系進行深入研究分析,包括可能從分類器入手或者采取更優的策略才優化整個CNN網絡結構,從而進一步來提高整個數據集下人臉表情的識別率。

表2 CNN識別混淆矩陣

[1]Mehrabian A,Russell J A.An Approach to Environmental Psychology[M].Cambridge:MITPress,1974.

[2]朱健翔,蘇光大,李迎春.結合Gabor特征與Adaboost的人臉表情識別[J].光電子·激光,2006,17(8):993-998.

[3]Lyons M,Akamatsu S,Kamachi M,et al.Coding Facial Expressions with Gabor Wavelets[C].Automatic Face and Gesture Recognition,1998.Proceedings.Third IEEE International Conference on.IEEE,1998:200-205.

[4]Lyons M J,Budynek J,Akamatsu S.Automatic Classifica2tion of Single Facial Images[J].IEEE Transactions on Pat2 tern Analysis and Machine Intelligence,1999,21(12):135721362.

[5]王李冬,王玉槐.基于AAM模型和RS-SVM的人臉識別研究[J].計算機工程與應用.

[6]Hinton G E,Salakhutdinov R R.Reducing the Dimensionality of Data with Neural Networks[J].Science,2006,313(5786):504-507.

[7]Lucey P,Cohn J F,Kanade T,et al.The Extended Cohn-Kanade Dataset(CK+):A Complete Dataset for Action Unit and Emotion-Specified Expression[C].Computer Vision and Pattern Recognition Workshops(CVPRW),2010 IEEE Computer Society Conference on.IEEE,2010:94-101.

[8]Simonyan K,Zisserman A.Very Deep Convolutional Networks for Large-Scale Image Recognition[J].arXiv Preprint arXiv:1409.1556,2014.

[9]Nair V,Hinton G E.Rectified Linear Units Improve Restricted Boltzmann Machines[C].Proceedings of the 27th International Conference on Machine Learning(ICML-10),2010:807-814.

[10]Srivastava N,Hinton G,Krizhevsky A,et al.Dropout:A Simple Way to Prevent Neural Networks from Overfitting[J].The Journal of Machine Learning Research,2014,15(1):1929-1958.

[11]Howard A G.Some Improvements on Deep Convolutional Neural Network Based Image Classification[J].Computer Science,2013.

[12]謝曉華,賴劍煌,鄭偉詩.基于二次多項式模型的人臉光照歸一化[J].電子學報,2010,38(8):1791-1797.

[13]Duan K B,Keerthi S S.Which is the Best Multiclass SVM Method?An Empirical Study[C].International Workshop on Multiple Classifier Systems.Springer,Berlin,Heidelberg,2005:278-285.

猜你喜歡
實驗模型
一半模型
記一次有趣的實驗
微型實驗里看“燃燒”
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 欧美h在线观看| 国产精品久久久精品三级| 奇米精品一区二区三区在线观看| 国产精品女熟高潮视频| 福利视频一区| 97人人做人人爽香蕉精品| 国产精品污视频| 国产99视频精品免费视频7 | 国产精品成人久久| 欧美日韩国产一级| 波多野结衣久久高清免费| 性做久久久久久久免费看| 国产成人综合日韩精品无码首页| 国产18在线| 91无码视频在线观看| 99视频在线免费观看| 国产精品无码AV片在线观看播放| 国产区在线观看视频| 国产人成网线在线播放va| 欧美视频在线播放观看免费福利资源| 97成人在线视频| 欧美在线视频a| 美女扒开下面流白浆在线试听 | 在线国产毛片手机小视频| 久久黄色毛片| 亚洲动漫h| 国产精品美女网站| 啊嗯不日本网站| 为你提供最新久久精品久久综合| 91在线日韩在线播放| 国产一级二级三级毛片| 青青草一区| 久久综合色天堂av| 日韩高清欧美| 91在线国内在线播放老师| av在线无码浏览| 亚洲无码精品在线播放 | 91精品在线视频观看| 国产美女免费| 国产精品视屏| 亚洲视频四区| 久热中文字幕在线观看| 五月天天天色| 欧美成人a∨视频免费观看| 国产免费久久精品99re不卡| 欧美.成人.综合在线| 韩国福利一区| 狠狠色综合网| 无码精品福利一区二区三区| 中文天堂在线视频| 国内精品手机在线观看视频| 久久这里只有精品免费| 最新日本中文字幕| 久久亚洲美女精品国产精品| 亚洲色精品国产一区二区三区| 国产人妖视频一区在线观看| 高h视频在线| 国产偷倩视频| 国产精品林美惠子在线播放| 欧美成人日韩| 91人妻在线视频| 四虎国产精品永久在线网址| 制服丝袜国产精品| 欧美成人怡春院在线激情| 无码'专区第一页| 色综合久久久久8天国| 久久久久国产一区二区| 在线观看视频一区二区| 亚洲av无码久久无遮挡| 欧美午夜一区| 毛片大全免费观看| 国产综合色在线视频播放线视| 国产国产人免费视频成18| 永久免费精品视频| 成人在线第一页| 国产在线八区| 久久毛片网| 亚洲精品欧美日本中文字幕| 色悠久久久| 久久免费成人| 国产屁屁影院| 91在线无码精品秘九色APP|