999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

輕量級網絡在人臉表情識別上的新進展

2024-05-24 17:34:27蔣斌崔曉梅江宏彬丁漢清袁俊嶺
計算機應用研究 2024年3期
關鍵詞:深度學習

蔣斌 崔曉梅 江宏彬 丁漢清 袁俊嶺

摘 要:作為人工智能領域的熱門研究方向,人臉表情識別(facial expression recognition,FER)是讓計算機獲取人類感情最直接最有效的方式,在人機交互、智慧醫療、疲勞駕駛等研發課題中占據關鍵的技術地位。為了滿足高識別率的應用需求,FER深度學習網絡結構愈發復雜,占用了大量的計算資源和存儲空間,嚴重影響了算法實時性的要求。圍繞如何在有效提升模型運算速度的同時,保障模型的精度這一問題展開綜述。首先,介紹了利用輕量級網絡實現表情識別的重要數據集;其次,對用于人臉表情識別的經典輕量級網絡模型進行了分析;再次,闡述了主要的網絡輕量化方法的原理、特點及適用場景;最后,總結了輕量級網絡在人臉表情識別研究中存在的問題和挑戰,對未來的研究方向進行展望。

關鍵詞:人臉表情識別;輕量化網絡;網絡輕量化;深度學習

中圖分類號:TP391?? 文獻標志碼:A

文章編號:1001-3695(2024)03-003-0663-08

doi:10.19734/j.issn.1001-3695.2023.07.0287

New advances in lightweight networks for facial expression recognition

Jiang Bin,Cui Xiaomei,Jiang Hongbin,Ding Hanqing,Yuan Junling

(School of Computer Science & Technology,Zhengzhou University of Light Industry,Zhengzhou 450001,China)

Abstract:As a popular research direction in the field of artificial intelligence,FER is the most direct and effective way for computers to access human emotions.It occupies a key technical position in human-computer interaction,intelligent medical care,fatigue driving,and other R&D topics.In order to meet the application requirements of high recognition rate,the structure of FER deep learning network becomes more and more complex,occupying a large amount of computing resources and storage space,which seriously affects the real-time requirements of the algorithm.This paper focused on the problem of how to guarantee the accuracy of the model while effectively improving its computational speed.Firstly,it introduced the important datasets for expression recognition using lightweight networks.Secondly,it analyzed the classical lightweight network models used for facial expression recognition.Thirdly,it described the principles,characteristics,and applicable scenarios of the main network lightweighting methods.Finally,it summarized the problems and challenges of lightweight networks in facial expression recognition research and looked forward to the future research direction.

Key words:facial expression recognition;lightweight network;network lightweighting;deep learning

0 引言

面部表情是人類表達情感狀態最真實、最有效的信號之一。人臉表情識別(FER)通過人臉檢測、人臉對齊、特征提取、分類等幾個部分[1]識別人的表情,并在智能控制、心理學、虛擬現實、人機交互、安防等領域得到廣泛應用。

完成FER的關鍵在于如何有效獲取人臉的表情特征。在深度學習熱潮之前,表情識別研究多采用基于機器學習的方法,從整體、局部、幾何、模型等多個角度,獲取面部表情特征。經典方法,如局部二值模式(LBP)[2]、方向梯度直方圖(HOG)[3]等,依靠手工提取人臉表情樣本的淺層特征,也能夠準確地分析和判斷部分測試者的面部表情。然而當被識別者處于復雜多變的環境時,上述方法難以維持較高的識別率。

深度學習技術的異軍突起給基于機器學習的表情識別方法注入了新的活力。基于深度學習的表情識別方法主要包含三個步驟:首先,針對輸入樣本(圖像或視頻)進行預處理,如去噪、分析定位等,若樣本圖像模糊,還需要先對樣本圖像進行修復,現有技術已經能夠滿足實驗要求[4,5];其次,將處理好的圖像輸送到深度學習模型中進行特征提取;最后,將提取到的表情特征對分類器進行訓練,進行依靠訓練后的分類器正確地預測樣本的表情分類。與傳統方法不同的是,在深度學習方法中,特征提取和分類的過程均可由深度學習模型自行完成[6]。文獻[7,8]均采用多任務級聯卷積神經網絡(CNN)的方法,提高了FER模型的性能。文獻[9]將LBP與卷積神經網絡相結合,在一定程度上解決了旋轉問題。文獻[10]提出一種加權混合深度神經網絡(weighted mixture Feep neural network,WMDNN)自動提取對FER任務有效的特征,可以通過更簡單的程序實現強大的性能。文獻[11]提出一種模擬粗到細視覺注意的新型多注意網絡,以學習表達相關區域的判別特征。由此可見,深度學習的出現使人臉表情識別取得了很大的進展,各種高精度卷積神經網絡陸續被用于表情識別研究,但體積大,計算復雜阻礙了卷積神經網絡技術的落地。因此輕量級卷積神經網絡和網絡模型輕量化方法成為了基于深度學習的人臉表情識別的重要研究方向。

輕量級人臉表情識別研究的識別任務是人臉表情樣本,具體實現過程包括兩個方面:a)依托現有輕量級網絡進行人臉表情識別;b)對原有的卷積神經網絡進行輕量級處理,再用于人臉表情識別。因此本文從以上兩方面出發,對新型輕量級表情識別網絡及模型壓縮方法進行綜述。

1 典型的人臉表情數據集

由于輕量級表情識別研究更側重于人臉表情識別技術的實用化,所以其采用的人臉表情數據集更青睞于賦予網絡在真實環境下開展表情識別所面臨的挑戰。例如:光照不均衡、頭部姿態的不一致、人臉的部分遮擋,以及識別對象的復雜性都增加了表情識別的難度。

典型的人臉表情數據集如下所示。

a)CK+數據庫是Lucey等人[12]在Cohn-Kanade數據庫的基礎上創建的。該庫包含了來自123位不同民族參與者的593段人臉表情圖像序列,完整展示了人臉表情從開始到完全展現的過程,如圖1所示。

b)FER2013數據集[13]是由Google Research創建的公開數據庫,其中包含測試圖28708張,公共驗證圖和私有驗證圖各3 589張,如圖2所示。該庫包含了遮擋、姿態、光照等真實環境變化下的表情圖像。

c)AffectNet數據集[14]是由Affectiva公司推出大規模野外面部表情數據集,包含超過一百萬張面部圖片,每個圖像都標記了相應的情感類別。它們涵蓋了不同性別、不同年齡和不同種族的面孔,以反映真實世界中的多樣性。

d)RaFD數據庫[15]是由不同年齡、性別及膚色的67位表演者拍攝而成,共有8 400張圖像,包含高興、悲傷、厭惡、驚奇、恐懼、生氣、輕蔑以及中立表情8種基本表情。每種表情有5種不同的姿態和3種不同的眼神方向。

e)CelebA-Spoof數據庫[16]是由北京交通大學、商湯科技及香港中文大學共同創建,包含10 177個名人超過62萬張的人臉數據集,每個圖像還伴隨著43個屬性標簽,40個屬于活體圖像面部信息,如皮膚、鼻子、發型、眼鏡等,3個屬于欺騙類型標注,即使用照片、視頻或面具等非真實人臉進行欺騙的情況。

上述人臉表情數據集的對比如表1所示。

2 用于表情識別的輕量化網絡

隨著嵌入式設備的普及,在嵌入式設備上部署深度模型已成為一種趨勢。大多數高精度模型都需要大量的計算成本。因此,開發一種運行在嵌入式設備上進行表情識別的輕量級網絡模型是當前研究的熱點。本文將介紹幾個比較熱門的用于人臉與表情識別的輕量級卷積神經網絡。卷積神經網絡表情識別基本原理如圖3所示。

2.1 MobileNet系列模型

從AlexNet [17]通過贏得ImageNet Challenge:ILSVRC 2012[18]推廣了深度卷積神經網絡以來,卷積神經網絡在計算機視覺中已經變得無處不在。為了獲得更高的精度,一般的趨勢是制作更深入、更復雜的網絡[19,20],然而,這會導致網絡變得更加龐大和計算資源消耗更高。自此從2017年開始,谷歌先后提出了MobileNetV1[21]、MobileNetV2[22]、MobileNetV3[23],這些都可以應用于移動和嵌入式設備中,并且這些模型在ImageNet數據集上取得了很高的精度。

2.1.1 MobileNetV1

MobileNetV1[21]是一種高效的神經網絡架構,它使用深度可分離卷積(depthwise separable convolution,DSC)代替標準卷積來降低模型參數,從而提高網絡的計算效率和精度。在MobileNetV1中,深度可分離卷積被用作卷積層的基本構建塊,它由深度卷積(depthwise convolution,DW)和逐點卷積(pointwise convolution,PW)組成。

在人臉與表情識別方面,MobileNetV1可以用于特征提取。首先,通過人臉檢測和對齊等技術,將人臉部分提取出來。然后,將人臉圖像輸入MobileNetV1模型進行特征提取,得到人臉的表情特征。最后,將特征輸入分類器進行訓練,實現人臉與表情的識別。

文獻[24]在MobileNetV1的網絡模型中,引入了注意力模塊,增強了模型對面部表情局部特征的提取能力,然后結合中心損耗和softmax損耗對模型參數進行優化,減小類內距離,增大類間距離,并加入了dropout技術,防止過擬合。在不增加模型參數數量的情況下,顯著提高了識別精度,但是還需進一步提高模型的分類能力。

2.1.2 MobileNetV2

MobileNetV2[22]是一種輕量級的卷積神經網絡模型,可以用于人臉和表情識別等相關領域。該模型在MobileNetV1的基礎上增加了殘差結構,并引入了線性瓶頸和倒殘差結構,以解決通道數較少的feature map上的信息丟失問題。在人臉識別和表情識別中,低維流形映射到高維空間的特征表達通常包含重要信息。MobileNetV2通過在卷積塊中插入線性瓶頸層來捕獲這些信息,同時在最后一層卷積中使用線性激活函數來避免過多的信息損失。倒殘差結構可以提高內存效率,使得MobileNetV2能夠在保持模型輕量級的同時,更好地捕獲人臉和表情相關的特征,提高識別精度和效率。

文獻[25]利用MobileNetV2優化SSD網絡結構,解決模型參數過多的問題。并且受注意力機制提高特征提取能力的啟發,使用卷積塊注意力模塊(convolutional block attention mo-dule,CBAM)[26]從通道和空間兩方面優化MobileNetV2網絡,將三個網絡的特征結合起來。該方法減少了識別參數的數量,但對于負面情緒的識別精度較低。文獻[27]在MobileNetV2的基礎上使用了多層輕量級卷積和特征融合方法,提高了網絡的運行效率和表情識別的檢測精度。

2.1.3 MobileNetV3

MobileNetV3[23]適用于資源受限場景的輕量級卷積神經網絡。該網絡提供了MobileNetV3 large和MobileNetV3 small兩個版本,可根據具體資源需求進行選擇。它結合了MobileNetV1的深度可分離卷積、MobileNetV2的linear bottleneck和inverted residuals結構以及SE模塊[28],并利用平臺感知的神經網絡結構搜索(neural architecture search,NAS)[29]進行自動網絡搜索,從而大大提高了MobileNetV3在人臉與表情識別中的識別精度。

MobileNetV3的反向瓶頸結構和變體基于MobileNetV2,并使用1×1卷積作為最后一層,以擴展到高維特征空間,提高預測性能,但這也會帶來額外的延遲。為了進一步減少延遲、減少計算量,MobileNetV3對原始結構進行了優化。經過優化后,MobileNetV3幾乎不損失精度的情況下有效地減少了7 ms的延遲,相當于運行時間的11%,并減少了3 000萬個乘加累積操作數MAdds的操作數量[23]。這種優化使MobileNetV3更適合于人臉與表情識別等資源受限的應用場景,從而在實際應用中更高效、準確。文獻[30]在MobileNet網絡的基礎上增加卷積層的數量和通道數,增加殘差連接及注意力機制,實現了對人臉圖像的有效分類。

2.2 ShuffleNet

ShuffleNet[31]是計算效率極高的輕量級CNN架構,通過逐點群卷積和通道混洗來提高計算效率兩種新的操作。其中,逐點群卷積是對點卷積的一種改進,它可以在保持計算效率的同時提高精度。通道混洗則是通過重新分組輸入通道,將不同的通道組合在一起,從而降低計算成本。

ShuffleNet的基礎塊采用了瓶頸結構和群卷積,通過反復堆疊這些基礎塊來構建整個網絡。在群卷積中,將輸入通道分為若干組,每組只進行局部卷積操作,從而降低計算復雜度。

ShuffleNetV2[32]在ShuffleNet的基礎上引入了通道拆分算子,可以在不太多群的情況下保持大量和等寬的信道,從而最小化內存訪問量。這種算子可以避免通道混洗算子破壞數據存儲連續性的問題。

在人臉表情識別等領域,ShuffleNet可以與MTCNN[33]等其他算法結合使用,從而實現快速和準確的識別。通過一系列優化操作,包括瓶頸結構、深度可分離卷積、群卷積和通道拆分,ShuffleNet實現了高效和準確的特征提取和分類。同時,ShuffleNet還可以適用于計算資源受限的場景,例如移動端和嵌入式設備。

文獻[34]從特征提取的角度,對傳統的ShuffleNetV2網絡模型作出改進,進一步壓縮了模型的計算復雜度,增強模型的性能,通過標簽平滑學習,利用軟標簽監督網絡的學習來解決單標簽信息量不足所導致的歧義表情問題,相較于目前其他人臉表情識別方法,其識別率有一定的提高,同時模型參數量和計算量保持在較低水平,利于其在實際中的應用。文獻[35]改進的ShuffleNet設計,引入了分組卷積和通道隨機重排等技術,使得網絡具有較高的識別精度和較快的推理速度。表2列舉出上述網絡模型識別精度與計算量數據,可以看出同時間發表的MobileNetV3的性能是最好的,ShuffleNetV2次之,而ShuffleNetV1與MobileNetV2顯然要差一些。

2.3 LA-Net

LA-Net[36]是一種新穎的輕量級注意力網絡模型,用于人臉表情識別。該模型結合了SE模塊和CNN網絡,通過給每個特征通道分配一定的權重,重點學習人臉的顯著特征,減少冗余信息,從而提取出判別特征。LA-Net包含五個塊,分別是block 1~5,每個塊由多個3×3卷積層組成。對于所有的五個塊,步幅都是1。每個塊后面都有一個SE-block,用于學習有選擇地放大有價值的特征通道,抑制無用的特征通道以減少冗余信息。

由于計算成本高、模型規模大的限制,LA-Net采用了網絡瘦身法,通過進一步減小模型的尺寸,得到一個精簡緊湊的網絡,使用更少的運行時內存和計算操作,從而在資源有限的設備上實現高性能FER。雖然該方法可以節省高達5.6倍的參數,觸發器的減少量通常在15倍左右,微調后的網絡可能比原始模型的識別精度有所下降。然而,在數據集樣本相對平衡,面部表情特征區別相對較大的情況下,LA-Net在人臉表情識別方面具有較高的準確率。

2.4 MFF-CNN

MFF-CNN(multi-feature fusion based convolutional neural network)[37]是一種用于人臉表情識別的卷積神經網絡。它采用了多特征融合的策略,包括一個image分支和一個patch分支。image branch從全局的角度對輸入圖像進行中層和高層特征的提取,patch branch將輸入圖像分割成16個重疊的圖像小塊,并從每個小塊中提取局部特征。通過特征向量選擇機制,MFF-CNN選擇最具有辨別性的局部特征,減少后續全連接層的計算節點。最后,image branch和patch branch進行聯合調優,將兩個分支產生的特征進行正確融合,提高了人臉與表情識別的準確性。

然而,對于更復雜的FER任務,MFF-CNN可能需要使用更深層次的卷積神經網絡以更好地捕獲表情的細節和復雜性。由于MFF-CNN使用的卷積層數較少,可能在處理不受約束的FER任務時存在性能下降的問題。因此,在這些情況下,需要使用更先進的卷積神經網絡模型來提高FER任務的性能。

2.5 SDNet

SDNet[38]是在XceptionNet[39]和DenseNet[40]的啟發下提出的一種基于深度可分離卷積和密集塊的人臉與表情識別網絡模型,旨在降低模型參數并提高效率。該模型采用殘差結構以解決網絡退化問題,并增強深度特征在不同層間的傳遞性。此外,SDNet還提出了自適應類權重作用以緩解樣品不平衡,并采用RO損失函數以避免過擬合。通過實驗室控制的數據集和野外數據集的測試,SDNet在人臉與表情識別相關方面表現出色,具有輕量級和高精度的特點。

2.6 EfficientFace

EfficientFace[41]是一種用于面部遮擋表情識別的輕量級網絡。由于實際場景中存在著遮擋和姿態變化等問題,對比各種人臉去遮擋技術[42,43],EfficientFace提出了局部特征提取器和信道空間調制器來解決這些問題。此外,提出了一種新的標簽分布學習方法,這與心理學家Plutchik[44]的理論是一致的。通過這些技術手段,EfficientFace可以更準確地提取人臉局部特征,從而提高模型在野外FER任務中的效果。

相較于傳統基于人臉標志的局部特征獲取方法,EfficientFace的局部特征提取器可以更高效地提取局部區域特征,并將其以殘差形式融合到全局特征中,提高了特征提取的效率和準確性。此外,EfficientFace提出了一種新的標簽分布學習方法,即標簽分發生成器(label distribution generator,LDG) 用于解決人臉圖像的情感分布標注困難的問題。LDG可以生成用于訓練的標簽分發,使模型更好地利用數據,提高模型的性能。

總的來說,EfficientFace在人臉與表情識別任務中,通過使用輕量級網絡、局部特征提取器、信道空間調制器和標簽分布學習方法等技術手段,可以更有效地提取局部特征,同時解決數據標注的問題,從而取得更好的效果。表3對相關網絡模型進行了分析。

3 用于表情識別的網絡輕量化

在人臉表情識別領域,小型設備上無法部署現有深度神經網絡模型的問題一直存在。為了解決這一問題,研究者們開始探索對模型進行有效壓縮的方法,以在保持模型性能不變的前提下減少計算量和存儲空間。當前的研究熱點包括量化、低秩分解、網絡修剪、輕量化網絡設計和知識蒸餾。這些方法有助于在小型設備上實現高性能的人臉表情識別。

3.1 網絡量化

網絡量化[45]是一種在保證模型精度的前提下,減少模型參數量、計算量和存儲空間的壓縮方法,被廣泛應用于人臉識別和表情識別等領域。其中,二值化權重是一種常用的量化方法,通過將權重限制在兩個可能值之間來達到參數壓縮的效果。文獻[46]提出了一種稱為binary connect的方法,通過約束在這些前向和后向傳播中使用的權重為二進制來消除對這些乘法的需要,從而將這些乘法運算變為加減運算。然而,僅使用二值化權重可能會存在信息丟失的問題,從而影響模型性能。為了解決這個問題,Qin等人[47]提出了一個信息保留網絡(IR-Net)來保留包含向前激活和向后梯度的信息。文獻[48]采用二值權重和低比特位激活值的量化方式在保持高準確性的同時,大大減少了網絡的計算和存儲開銷,使得人臉識別模型可以更好地適應資源受限的小型設備。文獻[49]通過將網絡參數進行量化和壓縮來減少模型的大小和計算量,并且不會顯著降低識別性能,對于實現高效率的人臉識別具有重要意義。

LA-Net將SE模塊與CNN模塊相結合,有效減少了冗余信息,并采用網絡瘦身法降低網絡模型規模與計算成本非常適合在資源受限的設備上實現高性能FER雖然運行內存使用較少但是其在真實場景下識別精度有待提高運行內存有限,精度要求不高

MFF-CNN采用image分支和patch分支,進行多特征融合,并使用L2范數選擇最優的局部特征,減少后續全連接層的計算節點相較于其他網絡模型,規模更小,參數更少僅適用于約束環境下人臉表情識別對靜態圖片識別較多

SDNET使用自適應的分類權值和RO損失函數在保持識別精度的同時大幅降低網絡參數在樣本數量不平衡的情況下仍保持較高的識別精度在野外數據集的識別精度較低表情代表性不足且要求識別精度較高

EfficientFace在ShuffleNetV2的基礎上提出了局部特征提取器和信道空間調制器,在遮擋和姿勢變化的條件下,特征提取結果仍較準確在實際遮擋和姿態變化明顯的前提下仍能有較高的識別精度在人臉微表情發生變化時,識別精度較大差距面部有遮擋且姿態易變化

3.2 低秩分解

在人臉與表情識別的相關領域,低秩壓縮方法也被廣泛應用于模型壓縮與加速。

一種常見的方法是使用低秩濾波器來近似預訓練模型中的原始濾波器,從而減少模型參數數量和計算復雜度[50]。文獻[51]提出了一種直接通過最小化濾波器重構誤差來重構原始濾波器的方法,并且可以通過最小化卷積層輸出的重構誤差來間接逼近卷積層。Tai等人[52]提出了一種新的計算低秩張量分解的算法,并在BN層將內部隱藏單元的激活歸一化。雖然該方法在壓縮模型參數方面效果顯著,但是分解操作成本過高,且逐層分解不利于全局參數壓縮,目前使用較少。文獻[53]提出的低秩矩陣分解算法GoDec+,具有魯棒性強,分類速度快的優點。

3.3 模型剪枝

模型剪枝是一種有效的網絡壓縮方法,可以通過刪除冗余的通道或網絡結構,減小模型的大小并提高推理速度[45],同時保持準確度。針對人臉表情識別任務,可以采用非結構化剪枝、結構化剪枝和自動化剪枝等方法。

3.3.1 非結構化模型剪枝

非結構化剪枝是隨機刪除一些通道或權重,簡單易行,但可能會破壞網絡結構平衡性,影響準確度。Han等人[54]提出在不改變網絡結構的情況下通過刪減不重要的連接,來減少存儲和計算所需的神經網絡數量級。Zhang等人[55]提出一種新的DNN權重修剪和模型壓縮的系統框架,通過將權重修剪問題描述為一個具有組合約束的約束非凸優化問題,利用基數函數誘導權重的稀疏性,采用乘數交替方向法(alternating direction method of multipliers,ADMM)將原非凸優化問題分解為兩個子問題,迭代求解。

3.3.2 結構化模型剪枝

與非結構化剪枝相比,結構化剪枝則是刪除整個通道或層,可以保持平衡性和準確度。Liu等人[56]提出一種名為網絡瘦身的訓練方案,對批處理歸一化層(batch normalization,BN)中的尺度因子進行稀疏誘導正則化,從而在訓練過程中自動識別不重要的通道并進行修剪,從而導致更緊湊的網絡。文獻[57]通過剪枝算法對GoogLeNet網絡進行訓練、修剪低權重連接和再訓練網絡等操作,添加全局最大池化層并保留檢測目標的位置信息,以sigmoid交叉熵作為訓練目標,獲得全面的人臉表情特征信息。改進后網絡得到較高的識別率,具有較好的適用性。

3.3.3 自動化模型剪枝

非結構化剪枝和結構化剪枝依賴于人為設計的方案,這樣的設計往往會耗費很長時間,因此Liu等人[58]提出了一種新的元學習(meta learning)方法,用于自動通道修剪。首先訓練一個修剪網絡,可生成任一修剪網絡的權重,然后通過進化搜索方法搜索出最佳修剪網絡從而進行剪枝。文獻[59]提出了一個用于細粒度和結構化修剪的統一自動修剪框架NAP(network automatic pruning),幾乎不需要超參數調優,與之前的方法相比顯示出更好的性能。

除了模型剪枝,還可以結合其他壓縮方法來進一步壓縮模型。例如,可以使用量化方法將浮點數參數轉換為整數參數,減小模型的大小和內存占用,同時提高推理速度,根據具體任務和需求,可以選擇不同的剪枝方法并結合其他壓縮方法。相關方法優劣分析見表4。

3.4 輕量級設計

為了實現在資源有限的設備上的實時性能要求,人臉表情識別領域也需要采用輕量化網絡設計。其中,調整卷積核大小和分組卷積運算是兩種有效的方法來減少網絡的計算量和參數數量。

3.4.1 調整卷積核大小

首次提出調整卷積核大小思想是在inception V3[20],使用較小的卷積核代替較大的卷積核。其中使用兩個3×3的卷積替換一個5×5的卷積,明顯減少了參數。除了使用3×3的卷積降低參數以外,SqueezeNet[60]則是用1×1的卷積核來替換3×3的,這使得參數減少到原來的1/9,同時減少了輸入通道的個數。文獻[61]保留了原SqueezeNet模型中的小卷積核去提取圖片特征,采用首尾池化層分別引入對應的后續卷積層進行特征融合并采用L2范數約束的方法,將最后一層的特征約束在一個球面內。改進后網絡在不降低識別率的前提下,輸入參數少、模型易于收斂和能夠運行在內存小的硬件設備。

3.4.2 分組卷積運算

除了調整卷積核大小的方法外,分組卷積運算也是一種有效的輕量化網絡設計方法。通過將輸入特征圖分成多個組,并在每個組內進行卷積運算,可以降低計算量和參數數量。例如,將標準卷積運算分解為多個組卷積運算,有助于提高網絡的效率。這些方法可以幫助人臉表情識別網絡實現輕量化,以滿足在資源有限的設備上的實時性能要求。ResNeXt[62]重復聚合一組具有相同拓撲結構的轉換的構建塊進行構建,比ResNet[63]有更高的準確率。IGCNets[64]將標準卷積分解成多個組卷積,在保持網絡規模和計算復雜度的同時,比常規群卷積更寬,效率更高。

因此,在人臉表情識別領域的輕量化網絡設計中,調整卷積核大小和分組卷積運算是兩種常用的方法。它們可以有效地減少網絡的計算量和參數數量,從而提高網絡的效率和實時性能。

3.5 知識蒸餾

知識蒸餾的概念最早由文獻[65]提出,用于訓練具有偽標簽的強分類器的壓縮模型。2015年Hinton等人[66]真正實現了知識蒸餾(knowledge distilling,KD)技術,其主要思想是使用教師網絡通過已學習的知識來指導學生網絡,將教師網絡的知識壓縮到深度相似的學生網絡中[67]。在人臉表情識別領域,知識蒸餾技術被廣泛應用。通過知識蒸餾技術,小型的學生模型可以獲得與大型教師模型相似的表現,同時減小模型的體積和計算復雜度,適應資源有限的設備,如移動設備和嵌入式系統。在表情識別任務中,教師網絡通常是一個表現良好的大型網絡,如ResNet或VGG[68]等。學生網絡通常是一個較小的網絡,如MobileNet或ShuffleNet等。KD的基本原理如圖4所示。

一些研究者將知識蒸餾技術與其他方法結合起來,以提高表情識別性能,Romero等人[69]提出的FitNets可以結合知識蒸餾和中間層對齊技術,提高學生網絡的泛化性能和分類準確率。文獻[70]提出一種新的軟標簽生成方式和知識蒸餾過程,把標簽置信度估計網絡中豐富和獨特知識以基于響應的方式蒸餾到表情分類網絡中,有效提高了表情分類網絡的表征能力和泛化能力。文獻[71]提出基于偽孿生網絡的知識蒸餾方法提升網絡模型的人臉表情識別準確率。相關方法優劣分析見表5。

4 結束語

現有的輕量級網絡雖然能夠在嵌入式設備中進行人臉表情識別,但是遇到光照變化、面部遮擋、頭部偏轉等非理想狀態時,表情識別的準確率仍然較低[72]。本文認為該領域還有很多亟待解決的問題與挑戰:

a)數據樣本不平衡。在實際應用中,表情數據集往往呈現不平衡性,即不同表情類別的樣本數量存在較大差異。這種不平衡現象會導致輕量級表情識別網絡在訓練過程中偏向于學習樣本較多的表情類別,從而對樣本較少的表情識別效果較差。解決數據不平衡問題并提高對各種表情的識別能力是一個重要且具有挑戰性的任務。

b)模型可解釋性差。在輕量級網絡的設計過程中,確實會面臨模型的可解釋性問題。由于這些網絡通常較為復雜,缺乏直觀的可解釋性,很難理解網絡對表情判別的依據。提高輕量級網絡的可解釋性,使得人們能夠理解網絡的決策過程,是一個值得探索的方向。

c)實時性要求高。在某些實時應用場景中,如智能手機和智能駕駛等,表情識別需要在非常短的時間內完成。如何確保輕量級網絡在這些實時性要求下保持高準確率,是一個重要的挑戰。

有鑒于此,本文認為輕量級表情識別網絡未來可行的研究方向如下所示。

a)研究基于遷移學習的識別算法。樣本不平衡會導致網絡模型在訓練過程中傾向于偏向樣本較多的表情類別,從而對樣本較少的表情識別效果較差,而遷移學習可以有效利用大規模數據集中的信息,提高對少數類別的識別能力。將遷移學習運用到識別算法是一個有價值的研究方向。

b)研究基于可解釋性圖模型的輕量級網絡。通過使用可解釋性圖模型網絡結構可以使網絡的決策過程更加透明,并且有助于更好地理解網絡在表情識別中的工作原理。通過這些探索和改進,輕量級網絡可以在保持高性能的同時,具備更好的可解釋性,使其在實際應用中更加可信和可用。

c)研究更快計算響應的網絡。目前輕量級網絡在小型設備上進行目標檢測、物體定位等任務上已經取得了顯著進展[73,74],然而人臉表情識別任務相對復雜,如何在保持高準確率的同時,實現輕量級網絡的實時計算及響應是未來的奮斗目標。

d)研究更有效的模型壓縮方法。模型壓縮的過程往往涉及到模型的損失,如何能在保持模型性能,損失可控的前提下尋找有效的模型壓縮方法,來降低模型的存儲需求和計算開銷是當前一個努力的方向。

e)研究自主搜索網絡結構的算法。隨著網絡的發展,神經網絡結構搜索(neural architecture search,NAS)[75,76]初有成效,但依舊受人工設計的影響。因此亟需一種不再需要人工干涉搜索空間的解決方法,自動組合現有空間,從而得到最優的網絡結構,邁向真正智能的重要一步。

f)研究特殊場景下針對小樣本的輕量級網絡。由于特殊場景下的識別樣本采集不易,如痛感識別、自閉癥兒童心理狀態等涉及患者隱私的研究,樣本數量有限,網絡不易訓練。為避免網絡欠學習情況的發生,亟待研究泛化性更好的輕量級識別算法,以應對小樣本學習問題。

參考文獻:

[1]Liu Wenting,Zhou Li,Chen Jie.Face recognition based on lightweight convolutional neural networks[J].Information,2021,12(5):article No.191.

[2]Shan Caifeng,Gong Shaogang,Mcowan P W.Facial expression recognition based on local binary patterns:a comprehensive study[J].Image and Vision Computing,2009,27(6):803-816.

[3]Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.2005:886-893.

[4]姜藝,胥加潔,柳絮,等.邊緣指導圖像修復算法研究[J].計算機科學與探索,2022,16(3):669-682.(Jiang Yi,Xu Jiajie,Liu Xu,et al.Research on edge guided image restoration algorithm[J].Computer Science and Exploration,2022,16(3):669-682.)

[5]劉微容,米彥春,楊帆,等.基于多級解碼網絡的圖像修復[J].電子學報,2022,50(3):12-18.(Liu Weirong,Mi Yanchun,Yang Fan,et al.Image restoration based on multilevel decoding network[J].

Acta Electronic Sinica,2022,50(3):12-18.)

[6]蔣斌,鐘瑞,張秋聞,等.采用深度學習方法的非正面表情識別綜述[J].計算機工程與應用,2021,57(8):48-61.(Jiang Bin,Zhong Rui,Zhang Qiuwen,et al.An overview of nonpositive expression recognition using depth learning methods[J].Computer Engineering and Applications,2021,57(8):48-61.)

[7]Chou K Y,Cheng Y W,Chen W R,et al.Multi-task cascaded and densely connected convolutional networks applied to human face detection and facial expression recognition system[C]//Proc of International Automatic Control Conference.Piscataway,NJ:IEEE Press,2019:1-6.

[8]Yu Wenming,Xu Hua.Co-attentive multi-task convolutional neural network for facial expression recognition[J].Pattern Recognition,2022,123:108401.

[9]Xu Qintao,Zhao Najing.A facial expression recognition algorithm based on CNN and LBP feature [C]//Proc of the 4th Information Technology,Networking,Electronic and Automation Control Confe-rence.Piscataway,NJ:IEEE Press,2020:2304-2308.

[10]Yang Biao,Cao Jinmeng,Ni Rongrong,et al.Facial expression recognition using weighted mixture deep neural network based on double-channel facial images[J].IEEE Access,2018,6:4630-4640.

[11]Gan Yanling,Chen Jingying,Yang Zongkai,et al.Multiple attention network for facial expression recognition[J].IEEE Access,2020,8:7383-7393.

[12]Lucey P,Cohn J F,Kanade T,et al.The extended Cohn-Kanade dataset (CK+):a complete dataset for action unit and emotion-specified expression[C]//Proc of IEEE Computer Society Conference on Compu-ter Vision and Pattern Recognition-Workshops.Piscataway,NJ:IEEE Press,2010:94-101.

[13]Goodfellow I J,Erhan D,Carrier P L,et al.Challenges in representation learning:a report on three machine learning contests[C]//Proc of International Conference on Neural Information Processing.Berlin:Springer,2013:117-124.

[14]Mollahosseini A,Hasani B,Mahoor M H.AffectNet:a database for facial expression,valence,and arousal computing in the wild[J].IEEE Trans on Affective Computing,2019,10(1):18-31.

[15]Langner O,Dotsch R,Bijlstra G,et al.Presentation and validation of the Radboud faces database[J].Cognition and Emotion,2010,24(8):1377-1388.

[16]Zhang Yuanhan,Yin Zhenfei,Li Yidong,et al.CelebA-Spoof:large-scale face anti-spoofing dataset with rich annotations[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2020:70-85.

[17]Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[J].Advances in Neural Information Processing Systems,2012,1(6):1097-1105.

[18]Russakovsky O,Deng J,Su Hao,et al.ImageNet large scale visual re-cognition challenge[J].International Journal of Computer Vision,2015,115(3):211-252.

[19]Szegedy C,Ioffe S,Vanhoucke V.Inception-V4,Inception-ResNet and the impact of residual connections on learning[C]//Proc of the 31st AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2017:4278-4284.

[20]Szegedy C,Vanhoucke V,Ioffe S,et al.Rethinking the inception architecture for computer vision[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:2818-2826.

[21]Howard A G,Zhu Menglong,Chen Bo,et al.MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL].(2017-04-17).https://arxiv.org/abs/1704.04861.

[22]Sandler M,Howard A,Zhu Menglong,et al.MobileNetV2:inverted residuals and linear bottlenecks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:4510-4520.

[23]Howard A,Sandler M,Cheng Bo,et al.Searching for MobileNetV3[C]//Proc of IEEE/CVF International Conference on Computer Vision.2019:1314-1324.

[24]Nan Yahui,Ju Jianguo,Hua Qingyi,et al.A-MobileNet:an approach of facial expression recognition[J].Alexandria Engineering Journal,2022,61(6):4435-4444.

[25]Wang Qiuchen,Xu Xiaowei,Tao Ye,et al.A novel facial expression recognition method based on AMSSD model[C]//Proc of the 6th International Conference on Image,Vision and Computing.Piscataway,NJ:IEEE Press,2021:95-99.

[26]Woo S,Park J,Lee J Y,et al.CBAM:convolutional block attention module[C]//Proc of European Conference on Computer Vision.Cham:Springer,2018:3-19.

[27]Chen Sheng,Liu Yang,Gao Xiang,et al.MobileFaceNets:efficient CNNs for accurate real-time face verification on mobile devices[C]//Proc of Chinese Conference on Biometric Recognition.Berlin:Sprin-ger,2018:428-438.

[28]Hu Jie,Shen Li,Sun Gang.Squeeze-and-excitation networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition.Piscataway,NJ:IEEE Press,2018:7132-7141.

[29]Zoph B,Le Q V.Neural architecture search with reinforcement lear-ning[EB/OL].(2017-02-15).https://arxiv.org/abs/1611.01578.

[30]Zhou You,Liu Yiyue,Han Guijin,et al.Face recognition based on the improved MobileNet[C]//Proc of IEEE Symposium Series on Computational Intelligence.Piscataway,NJ:IEEE Press,2019:2776-2781.

[31]Zhang Xiangyu,Zhou Xinyu,Lin Mengxiao,et al.ShuffleNet:an extremely efficient convolutional neural network for mobile devices[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:6848-6856.

[32]Ma Ningning,Zhang Xiangyu,Zheng Haitao,et al.ShuffleNet V2:practical guidelines for efficient CNN architecture design[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:116-131.

[33]Ghofrani A,Toroghi R M,Ghanbari S.Realtime face-detection and emotion recognition using MTCNN and miniShuffleNet V2[C]//Proc of the 5th Conference on Knowledge Based Engineering and Innovation.Piscataway,NJ:IEEE Press,2019:817-821.

[34]劉勁,羅曉曙,徐照興.權重推斷與標簽平滑的輕量級人臉表情識別[J].計算機工程與應用,2024,60(2):254-263.(Liu Jing,Luo Xiaoshu,Xu Zhaoxing.Computer Engineering and Applications.Lightweight facial expression recognition based on weight inference and label smoothing[J].Computer Engineering and Applications,2024,60(2):254-263.)

[35]Martindez-Díaz Y,Luevano L S,Mendez-Vazquez H,et al.ShuffleFaceNet:a lightweight face architecture for efficient and highly-accurate face recognition[C]//Proc of IEEE/CVF International Confe-rence on Computer Vision Workshop.Piscataway,NJ:IEEE Press,2019:2721-2728.

[36]Ma Hui,Celik T,Li H C.Lightweight attention convolutional neural network through network slimming for robust facial expression recognition[J].Signal,Image and Video Processing,2021,15(7):1507-1515.

[37]Zou Wei,Zhang Dong,Lee D J.A new multi-feature fusion based convolutional neural network for facial expression recognition[J].Applied Intelligence,2022,52(3):2918-2929.

[38]Zhou Lifang,Li Siqin,Wang Yi,et al.SDNET:lightweight facial expression recognition for sample disequilibrium[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2022:2415-2419.

[39]Chollet F.Xception:deep learning with depthwise separable convolutions[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:1800-1807.

[40]Huang Gao,Liu Zhuang,Maaten V L D,et al.Densely connected convolutional networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2261-2269.

[41]Zhao Zengqun,Liu Qingshan,Zhou Feng.Robust lightweight facial expression recognition network with label distribution training[J].Proc of AAAI Conference on Artificial Intelligence,2021,35(4):3510-3519.

[42]奚琰.基于對比學習的細粒度遮擋人臉表情識別[J].計算機系統應用,2022,31(11):175-183.(Xi Yan.Fine grained occlusion facial expression recognition based on contrast learning[J].Compu-ter Systems & Applications,2022,31(11):175-183.)

[43]劉穎,張藝軒,佘建初,等.人臉去遮擋新技術研究綜述[J].計算機科學與探索,2021,15(10):1773-1794.(Liu Ying,Zhang Yixuan,She Jianchu,et al.A review of new face occlusion removal technologies[J].Computer Science and Exploration,2021,15(10):1773-1794.)

[44]Plutchik R.A general psychoevolutionary theory of emotion[M]//Plutchik R,Kellerman H.Theories of Emotion.[S.l.]:Academic Press,1980:3-33.

[45]Han Song,Mao Huizi,Dally W J.Deep compression:compressing deep neural networks with pruning,trained quantization and Huffman co-ding[EB/OL].(2016-02-15).https://arxiv.org/abs/1510.00149.

[46]Courbariaux M,Bengio Y,David P J.BinaryConnect:training deep neural networks with binary weights during propagations[C]//Proc of the 28th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2015:3123-3131.

[47]Qin Haotong,Gong Ruihao,Liu Xianglong,et al.Forward and backward information retention for accurate binary neural networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition.Piscataway,NJ:IEEE Press,2020:2247-2256.

[48]Jacob B,Kligys S,Chen Bo,et al.Quantization and training of neural networks for efficient integer-arithmetic-only inference[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:2704-2713.

[49]Yamamoto K.Learnable companding quantization for accurate low-bit neural networks [C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:5027-5036.

[50]Liu Jing,Zhuang Bohan,Zhuang Wei,et al.Discrimination-aware network pruning for deep model compression[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2022,44(8):4035-4051.

[51]Jaderberg M,Vedaldi A,Zisserman A.Speeding up convolutional neural networks with low rank expansions[EB/OL].(2014-05-15).https://arxiv.org/abs/1405.3866.

[52]Tai Cheng,Xiao Tong,Zhang Yi,et al.Convolutional neural networks with low-rank regularization[EB/OL].(2016-02-14).https://arxiv.org/abs/1511.06067.

[53]郭鍇凌.低秩分解及其在計算機視覺中的應用[D].廣州:華南理工大學,2017.(Guo Kailing.Low rank decomposition and its application in computer vision[D].Guangzhou:South China University of Technology,2017.)

[54]Han Song,Pool J,Tran J,et al.Learning both weights and connections for efficient neural networks[C]//Proc of the 28th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2015:1135-1143.

[55]Zhang Tianyun,Ye Shaokai,Zhang Kaiqi,et al.A systematic DNN weight pruning framework using alternating direction method of multipliers[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:191-207.

[56]Liu Zhuang,Li J,Shen Zhiqiang,et al.Learning efficient convolutional networks through network slimming[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:2755-2763.

[57]張宏麗,白翔宇.利用優化剪枝GoogLeNet的人臉表情識別方法[J].計算機工程與應用,2021,57(19):179-188.(Zhang Hongli,Bai Xiangyu.Facial expression recognition method using optimized pruning GoogLeNet[J].Computer Engineering and Applications,2021,57(19):179-188.)

[58]Liu Zechun,Mu Haoyuan,Zhang Xiangyu,et al.Metapruning:meta learning for automatic neural network channel pruning[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:3295-3304.

[59]Zeng Wenyuan,Xiong Yuwen,Urtasun R.Network automatic pruning:start nap and take a nap [EB/OL].(2021-01-17).https://arxiv.org/abs/2101.06608.

[60]Iandola F N,Moskewicz M W,Ashraf K,et al.SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5 MB model size[EB/OL].(2016-02-24).https://arxiv.org/abs/1602.07360.

[61]吳軍,邱陽,盧忠亮.基于改進的SqueezeNet的人臉識別[J].科學技術與工程,2019,19(11):218-223.(Wu Jun,Qiu Yang,Lu Zhongliang.Face recognition based on improved SqueezeNet[J].Science,Technology and Engineering,2019,19(11):218-223.)

[62]Xie Saining,Girshick R,Dollár P,et al.Aggregated residual transformations for deep neural networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:5987-5995.

[63]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deep residual lear-ning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-778.

[64]Zhang Ting,Qi G J,Xiao Bin,et al.Interleaved group convolutions[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:4383-4392.

[65]Bucil? C,Caruana R,Niculescu-Mizil A.Model compression[C]//Proc of the 12th ACM SIGKDD International Conference on Know-ledge Discovery and Data Mining.New York:ACM Press,2001:535-541.

[66]Hinton G,Vinyals O,Dean J.Distilling the knowledge in a neural network[EB/OL].(2015-03-09).https://arxiv.org/abs/1503.02531.

[67]高晗,田育龍,許封元,等.深度學習模型壓縮與加速綜述[J].軟件學報,2021,32(1):68-92.(Gao Han,Tian Yulong,Xu Fengyuan,et al.Summary of compression and acceleration of deep learning model[J].Journal of Software,2021,32(1):68-92.)

[68]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition [EB/OL].(2015-04-10).https://arxiv.org/abs/1409.1556.

[69]Romero A,Ballas N,Kahou S E,et al.FitNets:hints for thin deep nets[EB/OL].(2015-03-27).https://arxiv.org/abs/1412.6550.

[70]許大良.基于標簽置信估計與知識蒸餾的表情識別算法研究[D].武漢:華中師范大學,2022.(Xu Daliang.Research on expression recognition algorithm based on label confidence estimation and knowledge distillation[D].Wuhan:Huazhong Normal University,2022.)

[71]姜慧明.基于生成對抗網絡與知識蒸餾的人臉修復與表情識別[D].吉林:吉林大學,2020.(Jiang Huiming.Face restoration and expression recognition based on generative adversarial networks and knowledge distillation[D].Jilin:Jilin University,2020.)

[72]蔣斌,李南星,鐘瑞,等.人臉部分遮擋條件下表情識別研究的新進展[J].計算機工程與應用,2022,58(12):12-24.(Jiang Bin,Li Nanxing,Zhong Rui,et al.New progress in facial expression recognition under partial occlusion[J].Computer Engineering and App-lications,2022,58(12):12-24.)

[73]Zhang Menghan,Li Zitian,Song Yuncheng.Optimization and comparative analysis of YOLOV3 target detection method based on lightweight network structure[C]//Proc of IEEE International Conference on Artificial Intelligence and Computer Applications.Piscataway,NJ:IEEE Press,2020:20-24.

[74]Yang Yumin,Liao Yurong,Ni Shuyan,et al.Study of algorithm for aerial target detection based on lightweight neural network[C]//Proc of IEEE International Conference on Consumer Electronics and Computer Engineering.Piscataway,NJ:IEEE Press,2021:422-426.

[75]Zoph B,Vasudevan V,Shlens J,et al.Learning transferable architectures for scalable image recognition[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:8697-8710.

[76]Pham H,Guan M,Zoph B,et al.Efficient neural architecture search via parameters sharing[C]//Proc of the 35th International Conference on Machine Learning.:PMLR,2018:4095-4104.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产精品性| 精品国产免费第一区二区三区日韩| 视频一本大道香蕉久在线播放| 极品国产在线| 热re99久久精品国99热| 911亚洲精品| 亚洲无码高清一区| 免费av一区二区三区在线| 91区国产福利在线观看午夜| 91无码国产视频| 精品91自产拍在线| 少妇精品在线| 日本久久久久久免费网络| 99爱在线| 亚洲人成影院在线观看| 九九香蕉视频| 久久99精品久久久久纯品| 一级成人a做片免费| 91在线视频福利| 国产精品自在拍首页视频8| 高清欧美性猛交XXXX黑人猛交 | 夜精品a一区二区三区| 麻豆国产精品一二三在线观看| 欧美中文字幕在线播放| 久无码久无码av无码| 亚洲bt欧美bt精品| a天堂视频| 久久无码免费束人妻| 日韩大乳视频中文字幕 | 蜜桃臀无码内射一区二区三区| 日本午夜三级| 色综合五月婷婷| 丁香六月激情综合| 午夜毛片免费观看视频 | 亚洲国产欧美国产综合久久 | 亚洲国产成人超福利久久精品| 国产成人免费| 亚洲动漫h| 91福利在线观看视频| 国产成人毛片| 91亚洲精品国产自在现线| 亚洲男人的天堂久久香蕉网| 99中文字幕亚洲一区二区| 91蜜芽尤物福利在线观看| 在线精品视频成人网| 日本黄色a视频| 亚洲精品无码抽插日韩| 熟妇丰满人妻| 91成人在线免费视频| 欧美成人午夜视频| 亚洲一区二区三区麻豆| 国产成人艳妇AA视频在线| AV在线天堂进入| 免费国产小视频在线观看| 欧美成人精品一区二区| 国产女主播一区| 国产伦精品一区二区三区视频优播| 欧美日韩动态图| 国产美女叼嘿视频免费看| www.91中文字幕| 亚洲性视频网站| 亚洲精品日产AⅤ| 久久香蕉国产线看观看式| 丝袜久久剧情精品国产| 久久久黄色片| 亚洲高清中文字幕| 在线欧美a| 免费A级毛片无码免费视频| 日本成人精品视频| 久久国语对白| 欧美日韩免费观看| 又粗又硬又大又爽免费视频播放| 日韩小视频在线观看| 美女高潮全身流白浆福利区| 亚洲精品桃花岛av在线| www.99在线观看| 五月天丁香婷婷综合久久| 日本免费一区视频| 国产69精品久久久久孕妇大杂乱 | 丁香五月婷婷激情基地| 爆操波多野结衣| 久久情精品国产品免费|