孫歌 王劍雄 歐琪等



摘要:面部表情是傳遞人類情感狀態最直觀的方式,通過分析面部表情,可以獲得某人在某時剖的精神和身體狀況。表情識別在人機通信、自動駕駛、醫學等應用領域有著重要的應用價值,并且受到越來越多的關注。隨著深度學習技術的發展,表情識別技術研究也從常規的圖像處理方法轉變為采用深度學習的方法,但是由于樣本數量有限,以及硬件設備的限制,使得提高表情識別準確率的方法受到了一定的限制。文章主要對改進ALEXNET模型的表情識別算法進行研究,由于ALEXNET在人臉面部表情識別中準確率較低,因此在對ALEXNET網絡進行深入研究的基礎上,通過修改卷積核的大小以及卷積層的數量,增加注意力機制和殘差塊.以提高網絡對人臉特征的提取能力,并將改進后的AlcxNct模型應用于CK+及jAFFE數據集,進而在該數據集上取得了較好的識別準確率。
關鍵詞:表情識別;AlcxNct;深度學習;卷積層
中圖法分類號:TP391 文獻標識碼:A
1 引言
隨著科學技術的進步,深度神經網絡現已被應用于自動面部表情識別,從實驗室控制到野外環境,其應用越來越廣闊。面部表情是人類最直接、最容易感知的信號之一,可以幫助人們更好地理解、表達情感和意圖。隨著社會自動化機器人、醫學、駕駛員疲勞檢測等人機交互信息系統的發展,面部表情自動分析已成為一種重要的技術手段,并受到廣泛的關注。機器可視化和機器學習方法也在發展,它們可以從面部表征中提取出有用的信息,從而實現對人臉的準確識別。20 世紀初,EKMAN 等[1] 進行跨文化分析,提出了6 種主要情感,這些情感可以被界定為憤慨、憎恨、驚恐、愉快、悲痛和震驚,表明不論文化背景如何,人們對這些情況的感知方式都是一致的。
在當今深度學習技術發展迅速的背景下,傳統分析方法和深度學習分析方法已經是表情分析技術的2個重要方向。深度學習技術憑借自身強大的特征提取能力和自學習能力已在表情識別領域彰顯出巨大潛力。因此,在表情識別中應用深度學習技術進行特征提取取代手工特征提取已逐漸成為主流,也是當今技術發展的必然要求。特別是在人臉表情識別方向,深度學習技術通過多層神經網絡的組合,已能夠從人臉圖片中識別出當前人類情緒,并對情緒種類加以分類。當前較為流行的深度學習網絡有卷積神經網絡[2](ConVolutional Neural Network,CNN)、深度置信網絡[3](Deep BeliefNetworks,DBN)、殘差神經網絡[4]( Residual Networks, ResNet) 和生成對抗網絡[5](Generative Adversarial Networks,GAN)等。
2 改進的AlexNet 網絡結構
在ISVRC2012 上最為矚目的當屬AlexNet 神經網絡模型。AlexNet 的整體結構總共分為8 層,卷積層共5 層和全連接層共3 層,卷積核尺寸分別設定為11×11,5×5,3×3,3×3 和3×3。AlexNet 網絡雖然在圖像識別領域中取得了一定成績,但隨著神經網絡的迭代和發展,AlexNet 在應用于圖像分析時也逐漸出現問題。尤其在表情分析領域中進行表情提取時,它仍存在提取表情不準確、表情種類分析準確率不高的情況,本文在AlexNet 網絡的基礎上提出了一種改進的AlexNet 網絡模型。該模型應用CNN 網絡的深層特征提取能力彌補了AlexNet 網絡在某些情況下識別能力差、表情區分不清晰的短板,最終實現了更準確、更迅速的表情識別[6~12] 。改進前后的AlexNet 網絡結構圖如圖1、圖2 所示。
圖2 改進后的網絡模型中包含6 個卷積層、2 個全連接層和1 個softmax 輸出層,并且引入了自注意力機制和避免了梯度消失問題的殘差塊,從圖中可以看出,改進前后的AlexNet 網絡的組織結構組成是相似的[13~14] 。
首先,由于純人臉圖像是經過裁剪之后才輸入網絡模型中,圖像尺寸較小且原有網絡卷積核尺寸過大、步長過長,特征提取效果較差,因此將原始AlexNet 網絡第一層的1l×11 卷積核改變為2 個3×3 卷積核的堆疊,步長從4 減小到2。因為較小的卷積核提取的局部特征更細致,能夠提高網絡模型的分類結果,而采用2個堆疊的較小卷積核還可以有效利用非線性激活函數,并有效提升網絡的非線性表達能力,同時減少了網絡中的參數量。其次,因輸入圖像尺寸小、數據集樣本少且模型網絡層數較多,為更好地提升該模型的識別準確率,故借鑒何凱明,張翔宇等在2015 年提出的ResNet殘差網絡,在本模型中構建殘差網絡塊,以盡量避免梯度消失的問題,在減少模型參數訓練時間的同時,也提升了表情識別的準確率。SE 注意力機制(Squeeze?and?Excitation Networks)在通道維度增加注意力機制,關鍵操作是squeeze 和excitation。原始表情圖像的數據被分割成多個像素塊,每個像素塊的權重相同,即在模型訓練時的重要性是相同的,不僅影響訓練時間,還影響模型參數的準確性。故在模型開始部分引入自注意力機制,通過自動學習的方式,使用另外一個新的神經網絡,獲取當前表情圖像中每個像素塊的重要程度,然后用這個重要程度去給每個像素特征賦予一個權重值,從而讓后續的神經網絡重點關注某些像素特征,提升對當前表情識別有用的特征圖的像素塊,并抑制對當前識別任務用處不大的像素塊。表情類別差異微小的(如害怕、傷心、生氣)表情特征通常聚集于局部區域,不僅需要關注有益于表情分類的特征形態,還需要關注具體的局部特征。引入通道注意力機制實現通道權重判斷,進而實現不同區域的權重分配。權重分配機制有效挖掘對表情分類有意義的局部區域,學習強化實現局部特征的提取,引導網絡利用聚合特征進行表情識別。通道注意力機制在通道上實現權重分配,特征圖上每一個通道表示一個檢測器,通道注意力機制關注最有意義的特征是什么形態。最后,為了將改進的AlexNet 模型應用于7 類表情分類任務中,將全連接層和softmax 層神經元的個數分別設置為512 和7。
將預處理的臉部表情輸入至改進后的模型中,進行模型訓練和超參數調整,進而獲得識別效果最好的模型結果。如圖3 所示,通過實現自注意力機制的人臉關鍵點定位技術,將其輸入到訓練好的模型中,輸出該圖像表情類別。
3 混淆矩陣
優秀的數據集是進行實驗的必要基礎,算法識別效果直接受數據標注準確度的影響。為更準確地評估本文改進模型識別能力,選取了JAFFE 和CK+數據集進行實驗對照,可以更全面地了解改進模型的識別能力和短板。通過在JAFFE 和CK+上構建混淆矩陣,觀察二者對角線部分數值的高低,并將其作為模型準確率的評判標準,而矩陣中的其余部分則是模型的錯誤率,即表情被誤分類為其他類別的可能性。JAFFE上識別的混淆矩陣如表1 所列。
JAFFE 數據集中的圖像為日本女性面部表情,共含有213 張表情圖片,每張圖片共有70 個不同表情,均由10 位女性各自7 種不同表情構成。CK+數據集包含123 個不同主題的593 個序列,這些主題的年齡從18 歲到50 歲不等,具有各種性別和傳統。CK+數據庫被認為是最廣泛使用于實驗室控制的面部表情分類數據庫,并用于大多數面部表情分類的方法。
CK+上識別的混淆矩陣如表2 所列。
在表1、表2 的混淆矩陣對角線上可以明顯看到,高興表情的識別正確率均是最高的,因為此種表情的表現方式大多是嘴角上揚,在人類進行日常交流時嘴角變化通常是他人的注意點,所以更容易被察覺到。
同時,在CK+數據集中,識別率最高的是驚訝表情,同理,在人類日常交流中,他人睜大眼睛或者嘴巴張大容易被人察覺。
4 結束語
本文主要使用深度學習中的卷積神經網絡對面部關鍵點進行定位, 同時將面部關鍵點信息和AlexNet 網絡模型相結合,以達到獲取表情信息目的。
由表1、表2 可知,在2 個數據集上高興表情的準確率最高,因為高興表情的表現是嘴角上揚,可以看出對于其他幾類動作不明顯的表情還有待研究。本實驗雖然成功獲取關鍵點并同時估計出面部表情,但在具體不可控場景中(如超30%圖像遮擋、圖像前后幀發生巨大變動或背景干擾因素過多),會發生一定程度的誤判。由于采用CNN 層次較多,同時涉及2 次信息的輸入輸出,因此本實驗實時性表現一般,但估計的精確性較高,如何綜合性平衡系統實時性和精確性是下一個研究的重中之重。
參考文獻:
[1] EKMAN P,Friesen W V.Constants across cultures in the faceand emotion[J].Journal of personality and social psychology,1971,17(2):124.
[2] 張珂,馮曉晗,郭玉榮,等.圖像分類的深度卷積神經網絡模型綜述[J].中國圖像圖形學報,2021,26(10):2305?2325.
[3] 章新志.基于深度置信網絡的人臉識別算法研究[D].南昌:華東交通大學,2019.
[4] 韓玉.基于殘差模塊神經網絡的人體行為檢測與識別研究[D].包頭:內蒙古科技大學,2022.
[5] 范黎.基于生成對抗網絡的圖像數據增強技術研究及應用[D].杭州:浙江大學,2022.
[6] YU J X,LIM K M,LEE C P.MoVE?CNNs: Model aVeragingEnsemble of Convolutional Neural Networks for FacialExpression Recognition[J]. IAENG International Journal ofComputer Science,2021,48(3):22?33.
[7] WOO S,PARK J,LEE J Y,et al.CBAM:Convolutional BlockAttention Module [ J ]. IAENG International Journal ofComputer Science,2018:6?16.
[8] 于方軍,焦玉杰,孫麗君.人體關鍵點檢測及教學應用之人臉表情識別[J].中國信息技術教育,2023(1):96?98.
[9] 葉繼華,祝錦泰,江愛文,等.人臉表情識別綜述[J].數據采集與處理,2020,35(1):21?34.
[10] 何俊,劉躍,李倡洪,等.基于改進的深度殘差網絡的表情識別研究[J].計算機應用研究,2020,37(5):1578?1581.
[11] 呂方惠. 基于雙流卷積神經網絡的動態表情識別研究[D].南京:南京郵電大學,2021.
[12] 楊旭,尚振宏.基于改進AlexNet 的人臉表情識別[J].激光與光電子學進展,2020, 57(14):243+250.
[13] 李珊. 基于深度學習的真實世界人臉表情識別研究[D].北京:北京郵電大學,2021.
[14] 呂鵬,單劍鋒.基于多特征融合的人臉表情識別算法[J].計算機技術與發展,2022,32(10):151?155+181.
作者簡介:
孫歌(1999—),碩士,研究方向:人工智能。
王劍雄(1975—),碩士,教授,研究方向:人工智能( 通信作者)。