



摘要: 針對卷積神經網絡參數量大、 訓練時間長的問題, 提出一種基于輕量級注意力殘差網絡的面部表情識別方法. 首先, 以殘差網絡為骨架重新搭建模型, 通過減少層數并改進殘差模塊提高模型性能; 其次, 引入深度可分離卷積減少模型的參數量和計算工作量; 最后, 采用Mish函數替代ReLU函數的擠壓激勵模塊自適應地調整通道權重. 該模型在兩個公共數據集CK+和JAFFE上采用經典的十折交叉驗證方式進行驗證, 分別獲得了9816%和9667%的準確率. 實驗結果表明, 該方法在模型識別精度和復雜度之間進行了較好權衡.
關鍵詞: 面部表情識別; 輕量級; 殘差網絡; 深度可分離卷積; 注意力機制
中圖分類號: TP391.41文獻標志碼: A文章編號: 1671-5489(2025)02-0437-08
Facial Expression Recognition Method Based on Lightweight Attention Residual Network
GAO Gaofei, SHAO Dangguo, MA Lei, YI Sanli
(Yunnan Key Laboratory of Computer Technologies Application, Faculty of Information Engineer
ing and Automation, Kunming University of Science and Technology, Kunming 650504, China)
Abstract: Aiming at the problems of a large number of parameters and the long training time of convolutional neural networks, we proposed a facial expression recognition method based on a lightweight attention residual network. Firstly, we rebuilt the model by usingthe residual network as a skeleton, andimproved the model performance by reducing the number of layers and improving the residual module. Secondly, the depthwise separable convolution was introduced to reduce the number of model parameters and computational effort. Finally, the squeeze and excitation module of ReLU function was replaced by Mish function to adaptively
adjust the channel weight. The model was validated by using the classical ten-fold cross-validation mode on two public datasets CK+ and JAFFE,and obtained "accuracies of 98.16% and 96.67%, respectively. The experimental results show that the proposed method provides a better trade-off between model identification accuracy and complexity.
Keywords: facial expression recognition; lightweight; residual network; depthwise separable convolution; attention mechanism
收稿日期: 2023-11-03.
第一作者簡介: 郜高飛(1997—), 男, 漢族, 碩士研究生, 從事機器視覺的研究, E-mail: 152087
1443@qq.com. 通信作者簡介: 邵黨國(1979—), 男, 漢族, 博士, 副教授, 從事人工智能的研究, E-mail: orangebear152@gmail.com.
基金項目: 國家自然科學基金(批準號: 62266025)和云南省計算機技術應用重點實驗室開放基金(批準號: CB22144S078A).
人類的面部表情包含了豐富的情感信息和心理過程, 是人類除語言外最有效的情感交流方式. 面部表情識別(facial expression recognition, FER)在智能安全[1]、 醫療監測[2]、 駕駛疲勞監測[3]、 機器人[4]等多領域應用廣泛. 近年來, 隨著深度學習(deep learning, DL)的快速發展, FER方法研究也得到快速發展, 逐漸形成了完善的FER系統[5].FER的本質是情緒特征的提取并將特征劃分為離散的類別[6].卷積神經網絡(convolutional neural network, CNN)作為深度學習最重要的模型之一, 可自動提取不同級別的特征. 利用CNN中對人臉圖像空間的局部感受野、 參數共享、 稀疏連接和降采樣, 從輸入數據中提取局部性和其他特征, 可完成自主學習, 從而隱式地獲得更抽象的圖像全局特征表情. 隨著網絡層數的加深, CNN可以提取更細微的特征, 在提取魯棒性和具有代表性的特征方面起重要作用. 但隨著網絡的加深, 模型所需的參數量也會增加, 從而延長了訓練所需的時間并加重了計算機負擔. 計算和存儲資源的需求使CNN部署在資源有限的設備上具有挑戰性.目前關于FER的研究已取得了許多成果. Yao等[7]提出了一種基于空間和通道-高度性能模塊實現(high performance module implementation, HPMI)的混合注意力機制, 以實現面部表情的自動識別. HPMI的加入可以增強關鍵特征的權重, 使模型集中在訓練過程中對表情分類有用的特征上, 有效緩解了網絡的溢出現象, 抑制無用信息, 同時也解決了輸入維度與輸出維度不一致的問題. Liu等[8]通過端到端的方式結合了4種典型的特征提取方法, 進一步鑒別特征, 提升了模型的特征提取能力. Podder等[9]采用最小參數CNN和遷移學習相結合的方式, 設計了一個實時的應用程序, 可同時檢測多個人類的普遍情緒水平. Sadeghi等[10]利用一個直方圖計算層, 在卷積層的輸出處提供特征映射的統計描述, 在卡方距離方程中引入了一個可學習的矩陣, 以此在直方圖空間中訓練所提出的CNN, 提高了模型識別的準確度. Zhang等[11]采用生成對抗網絡生成數據的方式生成了面部表情圖像, 擴充了數據集, 簡化了過擬合的問題.
近年來, 深度卷積神經網絡(deep convolutional neural network, DCNN)在FER方面取得了許多成果. Zhang等[12]提出了視頻FER的混合DCNN模型, 其兩個獨立的DCNN分別學習時間和空間特征的分割頻帶, 然后對在視頻均衡器中學習到的深度信念網絡的分割特征進行平均并合并, 生成一個全局的視頻特征表示. Singh等[13]將CNN應用于靜態人臉圖像, 并對預處理前后的結果進行比較, 驗證了預處理可進一步提高精度. Verma等[14]通過修改CNN網絡架構提高FER精度. Ma等[15]通過定義運動單元劃分規則對專家先驗知識進行編碼, 提出了多標簽監督信息自適應學習區域特征的運動單元區域卷積神經網絡, 為檢測提供了準確的監督信息和細粒度的指導. Li等[16]提出了一種新的多特征聯合學習集成框架, 將全局特征與幾種不同的局部關鍵特征相結合進行聯合迭代優化, 以解決多標簽表情識別不準確的問題.為減少DCNN的計算和存儲資源需求, 目前已提出了幾種使體系結構更輕\, 性能損失較小的方法: 修剪連接[17]刪除了神經元之間不重要的連接; 量化[18]本質上是一種共享權值的策略, 而量化的權值張量是一個具有多個共享權值的高系數矩陣; 張量分解[19]利用權值的冗余性, 通過張量分解卷積網絡參數矩陣, 并利用其低秩特征進行逼近, 從而減少參數和計算; 通過使用較大模型指導較小模型, 知識蒸餾[20]增強了較小模型的功能,從而提高了較小模型的性能.對設備的高需求刺激了網絡結構的發展, 目前已出現了一系列緊湊的高效模型: MobileNet[21]是一種采用深度可分離卷積設計的輕量級深度神經網絡; Zhang等[22]利用逐點群卷積和通道洗牌機制改進信道間的信息流交換, 以較低的計算成本獲得了較高的準確率提升; Ma等[23]進一步考慮了在目標硬件上的實際速度; GhostNet[24]通過簡單的操作生成更多的特性映射, 以較小的代價從細微特征中提取了所需的信息.
雖然上述各種方法提高了FER任務的準確率, 但大多數是通過建立復雜網絡提高模型的性能, 延長了訓練的周期. 因此, 本文提出一種輕量級結構的FER模型, 以減少參數的數量和計算資源需求. 首先, 以殘差網絡ResNet18[25]為骨架, 調整其架構, 重新搭建一個輕量級別的殘差網絡, 并對殘差模塊進行改進; 其次, 在模型中引入深度可分離卷積(depthwise separable convolution, DSC)模塊, 通過逐通道卷積和逐點卷積, 最大限度地減小模型參數, 保留模型的性能; 最后引入擠壓-激勵模塊(squeeze-and-excitation, SE)[26], 并使用Mish函數[27]替代ReLU函數, 提升了通道權重調整的穩定性, 從通道角度自適應地調整特征權重.
1 本文方法
本文設計一種基于輕量級注意力殘差網絡的面部表情識別模型. 該模型主要由三部分組成: 首先, 利用殘差網絡的優越性和架構的可調整性, 以殘差網絡為骨架重新搭建模型, 并對核心的殘差模塊進行改進; 其次, 引入DSC模塊減少模型的參數量; 最后, 嵌入通道注意力模塊SE自適應地調整通道權重信息, 并采用Mish函數替代ReLU函數, 提升通道權重調整的平穩性.
1.1 優化的網絡架構
殘差網絡克服了梯度消失問題, 減少了過擬合的程度, 性能較好. 本文模型以殘差網絡為骨架進行搭建. 殘差模塊作為殘差網絡的核心, 以跳層連接的形式實現, 即將單元的輸入直接與單元輸出加在一起進行激活, 其原理如圖1所示. 將期望的底層映射表示為
H(x), 使堆疊的非線性層擬合另一個映射F(x)=H(x)-x, 于是原始映射被重鑄為F(x)+x, F(x)+x
可通過具有捷徑連接的前饋神經網絡實現.
網絡的整體流程如圖2所示. 由圖2可見, 該模型有13層深度, 包括7個卷積層(C1,C2,C*3, 殘差層1,殘差層2)、 3個池化層(P1,P2,P3)、 1個深度可分離卷積層(SC)、 1個全連接層和1個分類器. 輸入層是一個面部表情圖像, 大小為48×48像素. 卷積層C1和C2均使用64個通道進行卷積; C*3和SC則使用128個通道進行維度增強; 殘差層1和殘差層2使用256個卷積內核, 增加通道數量并接收更多特性, 卷積層連接使用一個批處理歸一化層進行處理. 最后, 將全連接層的輸出分為7個情緒類別. 其中, 殘差層1和殘差層2是在多次實驗中改進的殘差結構, 都具有兩層卷積層, 跨層連接通過卷積核大小為3×3的平均池化. 改進的殘差模塊架構如圖3所示.
1.2 深度可分離卷積
正則卷積同時考慮映射跨通道相關性和空間相關性. DSC在單獨映射空間相關性后, 再單獨映射跨通道相關性. DSC首先執行逐通道卷積, 當使用逐通道卷積時, 卷積內核通過僅卷積一個通道映射空間相關性, 從而產生具有完全相同數量通道的特征圖. 然后執行逐點卷積過程, 逐點卷積和正則卷積具有相同數量的通道或內核大小, 只是將卷積核尺寸變為1×1×M, 其中M為通道數. 逐點卷積在深度方向上對逐通道卷積產生的特征圖進行加權組合, 生成新的特征圖, 同時計算的復雜度也因逐點卷積而改變. 通過應用1×1大小的卷積核對不同通道中的每個像素進行線性組合, DSC不僅實現了跨通道信息交換, 還保持了網絡非線性映射能力的準確性, 同時增強了網絡結構的降維.
DSC的應用極大減少了模型的參數量, 隨著通道數的增加, 參數減少的比例會正向提升.
1.3 注意力機制
為提高模型的特征提取性能, 實現精確的人臉表情識別, 本文利用信道注意機制對CNN提取的深度特征圖進行重新校準. 通過SE操作, 網絡可以從全局信息的角度分配不同的權重比, 有選擇性地放大有價值的特征信道, 抑制無用的特征信道, 以減少冗余信息. 改進后的SE模塊結構如圖4所示.
對特征圖X經過任意給定的變換Ftr: X→U, X
∈瘙綆H′×W′×C′, U∈瘙綆H×W×C得到的特征圖U
, 先將其每個通道的空間信息壓縮到一個單值, 即從H×W×C大小的U壓縮到1×1×C大小的向量, 該操作用公式表示為
zc=Fsq(uc)=1H×W
∑Hi=1∑Wj=1uc(i,j),(1)
其中H和W分別為特征圖的高和寬, uc(i,j)為特征圖的坐標位置. 對得到的1×1×C大小的向量, 應用一組具有門控機制的全連接(fully connected, FC)層對其進行權重調整, 得到一個1×1×C′的通道注意力向量. 最后將該向量加權到特征圖U, 形成一個加權后的新特征圖U′, 即H′×W′×C′. 該操作用公式表示為c=Fscale(uc,sc)=sc·uc,(2)
其中sc為具有門控機制的Sigmoid函數對其調整后的通道特征標量, Fscale(uc,sc)為通道級乘法. 對SE, 本文將其中的ReLU函數更改為Mish函數,ReLU函數和Mish函數分別為
h(x)=x,xgt;0,0,x≤0,(3)
f(x)=x·tanh(ln(1+ex)),(4)
其中x為特征向量. 由于ReLU函數在xlt;0時梯度為0, 在x=0點處不可微, 導致負的梯度通過ReLU被置零, 該神經元可能再也不會被任何數據激活, 相應參數也就不會被更新. Mish函數在零點處是平滑且可微的, 彌補了ReLU函數的不足. 因此, 本文使用Mish函數取代ReLU函數的通道注意力機制, 從通道的維度抑制不重要的通道特征, 提高了通道權重分布的穩定性.
2 實驗及結果分析
2.1 數據集
數據集CK+[28]是Cohn-Kande的擴展版本, 包含了123名受試者在實驗室環境中采集的593個序列, 共有981張帶有標記的圖像, 包括7種基本表情: 憤怒、 中立、 厭惡、 恐懼、 快樂、 悲傷和驚訝. 數據集JAFFE[29]包含10名日本女性拍攝的213張256×256大小的灰度圖像, 包括7種基本表情: 憤怒、 厭惡、 恐懼、 快樂、 自然、 悲傷和驚訝.
圖5為兩個數據集的不同表情示例.
2.2 數據預處理及訓練
本文研究的目的是提升網絡的基礎性能, 并最大程度保留數據的原始性. 對數據集CK+僅做了隨機水平翻轉處理, 然后轉化為張量. 將數據集JAFFE的圖像縮放為48×48大小并隨機水平翻轉處理, 然后轉化為張量輸入網絡進行訓練.
由于數據集CK+和JAFFE的數據量較少, 因此采用十折交叉驗證的方式進行訓練和測試, 固定學習率為0.000 1的Adam優化器進行300 輪訓練, 兩個數據集的批處理大小均為16.
采用更穩定的Ten-crop方式進行數據集測試, 以提升測試結果的可靠性. 模型基于Pytorch框架建立, 所有實驗結果均在具有24 GB顯存的NVIDIA GeForce RTX 3090 GPU上實現.
2.3 消融實驗
本文模型在數據集CK+和JAFFE上分別取得了98.16%和96.67%的準確率. 下面在兩個公共數據集上對所提出的輕量級注意殘差網絡中的子模塊的不同組合進行消融實驗, 以驗證各網絡模塊的有效性. 表1和表2分別列出了子模塊的不同組合在數據集CK+和JAFFE上的實驗結果, 其中: 以殘差網絡為骨架搭建的13層深度的輕量級模型架構記為ResNet13; 改進的殘差模塊(improved residual module, IRM)記為IRM; 傳統的SE模塊記為SE(ReLU); 使用Mish函數替代ReLU函數的SE模塊記為SE(Mish).
比較實驗組1和實驗組4的結果可見, 所添加的子模塊與僅搭建的ResNet13對系統性能有提升, 對數據集CK+和JAFFE識別準確率分別提升了2.24,3.37個百分點. 比較實驗組3和實驗組4可見, 改進的殘差模塊IRM對ResNet13在兩個數據集的識別準確率上分別提升了0.71,1.47個百分點, 以較小的工作量提高了模型的識別準確率. 比較實驗組1和實驗組2可見, 使用Mish函數替代ReLU函數對兩個數據集在其他模塊的基礎上識別準確率分別提升了0.81,0.95個百分點. Mish函數在零點處的光滑性使通道注意力模塊獲得了更好的泛化能力和優化能力, 在很大程度上提高了通道權重分布的穩定性和準確性. 實驗結果表明, 不同子模塊均對系統性能有提升, 驗證了本文模塊的有效性.圖6為本文方法在數據集CK+和JAFFE上的混淆矩陣. 有圖6可見, 憤怒、 厭惡、 悲傷和恐懼幾種情緒承擔了主要混淆, 這主要是因為通用表情的相似性. 這幾種表情都屬于負面表情, 具有相似的特征. 例如: 這4種表情都包含皺眉的特征, 憤怒、 厭惡和悲傷都會出現皺眉頭和撇嘴的特征, 憤怒和恐懼都有睜大眼睛和張大嘴巴的動作. 這些表情的相似性導致面部特征難以提取, 因此, 這幾種表情的識別更具挑戰性.
2.4 與主流算法的比較實驗
將本文算法與5種主流算法AlexNet[30],VGG16,VGG19[31],ResNet18,ResNet50[12]進行對比實驗, 在兩個數據集上比較參數的大小和識別精度, 結果列于表3.
由表3可見, 本文輕量級模型在數據集CK+上的面部表情識別精度最高, 比5種主流算法中最高的VGG16模型高2.70個百分點, 而參數量僅為VGG16模型的約1/10. 本文模型在數據集JAFFE上的識別準確率與5種主流算法中最高的ResNet50模型相比提高3.59個百分點, 而參數量僅為ResNet50模型的1/17. 與5種主流算法相比, 本文輕量級模型在面部表情識別方面具有最高的精度和最好的算法性能. 在模型參數量上, 本文輕量級模型參數數量為1.52 M, 遠低于其他5種主流算法, 并能保持較高的識別精度.
綜上所述, 針對卷積神經網絡參數量大、 訓練時間長的問題, 本文提出了一種基于輕量級注意力殘差網絡的FER方法. 首先, 基于殘差網絡骨架并改進殘差模塊重新設計了輕量級網絡; 其次, 引入了DSC代替正則卷積運算, 極大減少了模型參數量和計算工作量; 最后, 采用SE模塊調整通道權重分布, 并使用Mish函數替代ReLU函數提升調整權重的穩定性, 在數據集CK+和JAFFE上分別取得了98.16%和96.67%的準確率.
消融實驗結果以及與其他方法進行對比的結果驗證了本文方法的可靠性. 由于數據集提供的面部圖像和野外情況下的面部表情具有差異性, 因此未來需要進一步采集更多數據提升模型的性能.
參考文獻
[1]SAJJAD M, NASIR M, ULLAH F U M, et al. Raspberry Pi Assisted Facial Exp
ression Recognition Framework for Smart Security in Law-Enforcement Services[J].Information Sciences, 2019, 479: 416-431.
[2]KALANTARIAN H, JEDOUI K, WASHINGTON P, et al. Labeli
ng Images with Facial Emotion and the Potential for Pediatric Healthcare[J].Artificial Intelligence in Medicine, 2019, 98: 77-86.
[3]LIU Z M, PENG Y X, HU W J. Driver Fatigue Detection Based
on Deeply-Learned Facial Expression Representation[J].Journal of Visual Communication and Image Representation, 2020, 71: 102723-1-102723-7.
[4]PARK U, KIM M, JANG Y, et al. Robot Facial Expression Framework for Enhancing Empathy in Human-Robot Interaction[C]//2021 30th I
EEE International Conference on Robot amp; Human Interactive Communication (RO-MAN). Piscataway, NJ: IEEE, 2021: 832-838.
[5]TZIRAKIS P, TRIGEORGIS G, NICOLAOU M A, et al. End-
to-End Multimodal Emotion Recognition Using Deep Neural Networks[J].IEEE Journal of Selected Topics in Signal Processing, 2017, 11(8): 1301-1309.
[6]CHEN Q Q, JING X J, ZHANG F P, et al. Facial Expression Recognition Based on a Ligh
tweight CNN Model[C]//2022 IEEE International Symposium on Broadband Multimedia Systems and Broadcasting (BMSB). Piscataway, NJ: IEEE, 2022: 1-5.
[7]YAO L S, HE S X, SU K, et al. Facial Expression Recognition Based on Spatial and C
hannel Attention Mechanisms[J].Wireless Personal Communications, 2022, 125(2): 1483-1500.
[8]LIU J, WANG H X, FENG Y J. An End-to-End Deep Model with Discriminative Facial F
eatures for Facial Expression Recognition[J].IEEE Access, 2021, 9: 12158-12166.
[9]PODDER T, BHATTACHARYA D, MAJUMDAR A. Time Efficient Real Time Facial Express
ion Recognition with CNN and Transfer Learning[J].Sdhan, 2022, 47(3): 177-1-177-20.
[10]SADEGHI H, RAIE A A. HistNet: Histogram-Based Conv
olutional Neural Network with Chi-Squared Deep Metric Learning for Facial Expression Recognition[J].Information Sciences, 2022, 608: 472-488.
[11]ZHANG X, ZHANG F F, XU C S. Joint Expression Synthesis and Representation Learni
ng for Facial Expression Recognition[J].IEEE Transactions on Circuits and Systems for Video Technology, 2021, 32(3): 1681-1695.
[12]ZHANG S Q, PAN X Z, CUI Y L, et al. Learning Affective Video Features for Facial Ex
pression Recognition via Hybrid Deep Learning[J].IEEE Access, 2019, 7: 32297-32304.
[13]SINGH S, NASOZ F. Facial Expression Recognition with Convolutional Neural Ne
tworks[C]//2020 10th Annual Computing and Communication Workshop and Conference (CCWC). Piscataway, NJ: IEEE, 2020: 324-328.
[14]VERMA A, SINGH P, ALEX J S R. Modified Convolutional Neural Network Architec
ture Analysis for Facial Emotion Recognition[C]//2019 International Conference on Systems, Signals and Image Processing (IWSSIP). Piscataway, NJ: IEEE, 2019: 169-173.
[15]MA C, CHEN L, YONG J H. Au R-CNN: Encoding Expert Prior Knowledge into R-CNN
for Action Unit Detection[J].Neurocomputing, 2019, 355: 35-47.
[16]LI W Z, LUO M Y, ZHANG P, et al. A Novel Multi-feature Joint Learning Ensemble Fr
amework for Multi-label Facial Expression Recognition[J].IEEE Access, 2021, 9: 119766-119777.
[17]RATHI N, PANDA P, ROY K. STDP-Based Pruning of Connections and Weight Quanti
zation in Spiking Neural Networks for Energy-Efficient Recognition[J].IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2018, 38(4): 668-677.
[18]THONGLEK K, TAKAHASHI K, ICHIKAWA K, et al. Retraining Quantized Neural Netw
ork Models with Unlabeled Data[C]//2020 International Joint Conference on Neural Networks (IJCNN). Piscataway, NJ: IEEE, 2020: 1-8.
[19]WANG J L, ZHAO G S, WANG D H, et al. Tensor Completion Using Low-Rank Tensor Train
Decomposition by Riemannian Optimization[C]//2019 Chinese Automation Congress (CAC). Piscataway, NJ: IEEE, 2019: 3380-3384.
[20]YUAN M K, PENG Y X. CKD: Cross-Task Knowledge Distillation for Text-to-Image S
ynthesis[J].IEEE Transactions on Multimedia, 2019, 22(8): 1955-1968.
[21]HOWARD A G, ZHU M, CHEN B, et al. Mobilenets: Efficient Convolutional Neural
Networks for Mobile Vision Applications[EB/OL].(2017-04-17)[2023-02-10]. https://arxiv.org/abs/1704.04861.
[22]ZHANG X Y, ZHOU X Y, LIN M X, et al. Shufflenet: An Extremely Efficient Convolutio
nal Neural Network for Mobile Devices[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 6848-6856.
[23]MA N, ZHANG X, ZHENG H T, et al. Shufflenet V2: Practical Guidelines for Eff
icient CNN Architecture Design[C]//Proceedings of the European Conference on Computer Vision (ECCV). Piscataway, NJ: IEEE, 2018: 116-131.
[24]HAN K, WANG Y, TIAN Q, et al. Ghostnet: More Features from Cheap Operations[
C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2020: 1580-1589.
[25]HE K M, ZHANG X Y, REN S Q, et al. Deep Residual Learning for Image Recognition[C
]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.
[26]HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks[C]//Proceedings of t
he IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 7132-7141.
[27]MISRA D. Mish: A Self Regularized Non-monotonic Activ
ation Function[EB/OL].(2019-08-23)[2023-03-15]. https://arxiv.org/abs/1908.08681.
[28]LUCEY P, COHN J F, KANADE T, et al. The Extended Cohn-Kanade Dataset (CK+):
A Complete Dataset for Action Unit and Emotion-Specified Expression[C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition-Work
shops. Piscataway, NJ: IEEE, 2010: 94-101.
[29]LYONS M J, AKAMATSU S, KAMACHI M, et al. The Japanese Female Facial Expressio
n (JAFFE) Database[C]//Proceedings of Third International Conference on Automatic Face and Gesture Recognition. Piscataway, NJ: IEEE, 1998: 14-16.
[30]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet Classification with Deep Con
volutional Neural Networks[J].Communications of the ACM, 2017, 60(6): 84-90.
[31]SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Im
age Recognition[EB/OL].(2014-09-04)[2023-04-10]. https://arxiv.org/abs/1409.1556.
(責任編輯: 韓 嘯)