999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于隔離損失函數(shù)的人臉表情識(shí)別方法

2018-06-28 02:40:44曾逸琪關(guān)勝曉
關(guān)鍵詞:分類特征

曾逸琪,關(guān)勝曉

(中國科學(xué)技術(shù)大學(xué) 信息科學(xué)技術(shù)學(xué)院,安徽 合肥 230026)

0 引言

人臉表情在人類交流中扮演著重要角色,也是人機(jī)交互系統(tǒng)識(shí)別人類情感的重要途徑。EKMAN P等定義了6種人臉表情,即生氣、厭惡、害怕、高興、傷心、驚訝,作為常見的情感表情[1]。

由于人臉表情識(shí)別在人機(jī)交互系統(tǒng)設(shè)計(jì)[2]中的重要性,大量的計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)算法應(yīng)用到人臉表情識(shí)別。當(dāng)然,目前已經(jīng)存在許多標(biāo)注好的人臉表情數(shù)據(jù)集[3-6],用于人臉表情的研究。

人臉表情識(shí)別本質(zhì)上來說是以單幀圖像或視頻序列作為研究對(duì)象,對(duì)其進(jìn)行分類,將其分為六種基本表情中的一類。

雖然傳統(tǒng)機(jī)器學(xué)習(xí)方法,例如支持向量機(jī)、貝葉斯分類器,已經(jīng)在簡(jiǎn)單場(chǎng)景下取得良好效果,但最近研究顯示,傳統(tǒng)方法并不能在復(fù)雜場(chǎng)景下取得良好的識(shí)別結(jié)果。

近年來,基于神經(jīng)網(wǎng)絡(luò)的方法取得重大突破,例如物體識(shí)別[7-8]、人體位姿估計(jì)[9]、人臉驗(yàn)證[10]等。在人臉表情識(shí)別領(lǐng)域,取得最好效果的方法也是基于神經(jīng)網(wǎng)絡(luò)[11]。與傳統(tǒng)機(jī)器學(xué)習(xí)、人工提取特征方法不同,神經(jīng)網(wǎng)絡(luò)可以通過訓(xùn)練數(shù)據(jù)自動(dòng)學(xué)習(xí)特征。基于大量數(shù)據(jù)學(xué)習(xí)到的特征,往往具有更好的泛化性。

然而,人臉表情識(shí)別仍存在許多關(guān)鍵的問題,主要是光照、遮擋、頭部位姿、個(gè)體屬性多樣化等因素,導(dǎo)致提取的同類特征差異性較大,而不同類特征判別性過小。

針對(duì)這一問題,本文提出了一種損失函數(shù)——隔離損失作為改進(jìn)方法。

一般來說,卷積神經(jīng)網(wǎng)絡(luò)是利用多分類損失進(jìn)行優(yōu)化,對(duì)誤分樣本進(jìn)行懲罰,讓屬于不同類別的特征分離。如圖1(a)所示,不同表情特征形成的聚類簇分別對(duì)應(yīng)了在特征空間的不同表情特征。由于類內(nèi)的差異化,導(dǎo)致特征簇分布分散。而又由于類間相似性,導(dǎo)致特征簇有部分重疊。最近有項(xiàng)研究,將中心損失[12]引進(jìn)卷積神經(jīng)網(wǎng)絡(luò),以此來降低類內(nèi)特征差異性。如圖1(b)所示,樣本更靠近對(duì)應(yīng)的聚類中心。可是,類間相似性的問題仍沒有考慮進(jìn)去。所以,針對(duì)此問題,本文提出了隔離損失,通過懲罰不同類特征之間的距離,讓學(xué)習(xí)到的特征更具判別性。如圖1(c)所示,隔離損失不僅壓縮了聚類簇,并且讓聚類中心之間距離增大。

圖1 特征空間分布圖

1 人臉表情識(shí)別方法

為了驗(yàn)證隔離損失的有效性,本文提出了以隔離損失作為損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)模型,結(jié)構(gòu)如圖2所示。該網(wǎng)絡(luò)結(jié)構(gòu)中每一個(gè)卷積層后面都連接了批量正則化層(Batch Normalization, BN)和ReLU(Rectified Linear Units)激活函數(shù)。池化層采用的均是最大池化。在最后一個(gè)池化層后連接了全連接層,生成特征向量。之后再接多分類層。隔離損失在全連接層計(jì)算。多分類損失在分類層計(jì)算。用隔離損失和多分類損失的聯(lián)合損失對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化。

圖2 網(wǎng)絡(luò)結(jié)構(gòu)示意圖

1.1 中心損失

如圖1(b)中描述,中心損失可以減小類內(nèi)特征差異。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,聚類中心在每次迭代過程會(huì)被更新。

(1)前向傳播:中心損失表示為L(zhǎng)C,如式(1)所示。其含義是樣本和聚類中心在特征空間的歐式距離的平方和。

(1)

其中,yi表示第i個(gè)樣本的類別標(biāo)簽;xi表示第i個(gè)樣本的特征向量,該特征向量是從全連接層提取的;cyi表示與yi同一類所有樣本的聚類中心;m表示一個(gè)小批量的樣本數(shù)量。通過最小化中心損失,同一類的樣本在特征空間會(huì)向聚類中心靠近,因此整體的類內(nèi)差異會(huì)減小。

在前向傳播過程中,聯(lián)合損失,也即多分類損失和中心損失之和,用來訓(xùn)練整個(gè)網(wǎng)絡(luò):

L=LS+λLC

(2)

其中LS表示多分類損失;λ用于調(diào)節(jié)多分類損失和中心損失的比例。

(2)反向傳播:在反向傳播過程中,中心損失LC關(guān)于輸入樣本的特征向量xi的偏微分可表示為:

(3)

而聚類中心在使用隨機(jī)梯度下降時(shí)會(huì)按如下公式更新:

(4)

其中δ(yi,j)的定義如下:

(5)

1.2 隔離損失

如圖1(b)所示,最小化中心損失,會(huì)在特征空間減小類內(nèi)差異,但不同的聚類簇有部分重疊的問題仍舊存在。為了克服這個(gè)問題,本文設(shè)計(jì)了隔離損失,在減小類內(nèi)差異的同時(shí),增大類間特征之間彼此距離。

(1)前向傳播:隔離損失可表示為L(zhǎng)IL,其定義是中心損失與聚類中心之間的歐式距離之和。

LIL=

(6)

總體的網(wǎng)絡(luò)模型的損失函數(shù)可以表示為:

L=LS+λLIL

(7)

其中,超參數(shù)λ用于平衡兩項(xiàng)損失的比例。

(2)反向傳播:隔離損失LIL關(guān)于樣本特征向量xi的偏微分可以表示為:

(8)

更新聚類中心:基于隨機(jī)梯度下降方法(SGD),第j個(gè)聚類中心可表示為:

(9)

其中|N|是表情類別數(shù)。

在上式的表述下,聚類中心可以在每個(gè)小批量數(shù)據(jù)進(jìn)行更新,以α的學(xué)習(xí)率進(jìn)行迭代:

(10)

至此,可以將隔離損失在網(wǎng)絡(luò)模型中的前向和反向傳播過程總結(jié)為如下流程:

算法 網(wǎng)絡(luò)的前向反向傳播過程輸入:訓(xùn)練數(shù)據(jù){xi} 1: 輸入:小批量數(shù)據(jù)的大小m,迭代總數(shù)T,學(xué)習(xí)率μ和α,以及超參數(shù)λ和λ12: 初始化:t=1,網(wǎng)絡(luò)權(quán)重參數(shù)為,多分類層參數(shù)為θ,隔離損失的訓(xùn)練參數(shù)為cj3: for t=1 to T do 計(jì)算公式(7)的聯(lián)合損失:=S+λIL更新多分類損失層的參數(shù):θt+1=θt-μ?tS?θt更新隔離損失的訓(xùn)練參數(shù)(即聚類中心),如式(10):ct+1j=ctj-αΔctj計(jì)算需反向傳播的損失:?t?xti=?tS?xti+λ?tIL?xti更新網(wǎng)絡(luò)權(quán)重:t+1=t-μ?Lt?t=t-μ?Lt?xti?xti?tend for輸出:訓(xùn)練完成的網(wǎng)絡(luò)權(quán)重,隔離損失的參數(shù)cj,多分類層參數(shù)θ

2 對(duì)比實(shí)驗(yàn)

為了驗(yàn)證本文所提方法的有效性,在CK+數(shù)據(jù)集[13]上做了一系列對(duì)比試驗(yàn)。此外,還在相同的網(wǎng)絡(luò)模型下,將隔離損失與多分類損失和中心損失分別進(jìn)行了對(duì)比。

2.1 預(yù)處理

為了減小圖像中人臉尺度變化及人臉旋轉(zhuǎn)對(duì)表情識(shí)別的影響,需要對(duì)圖像做基于人臉關(guān)鍵點(diǎn)的人臉擺正。人臉關(guān)鍵點(diǎn)的檢測(cè)是基于OpenCV中Dlib庫的人臉關(guān)鍵點(diǎn)的檢測(cè)算法[14]。然后以3個(gè)關(guān)鍵點(diǎn)(兩個(gè)眼睛中心點(diǎn)、一個(gè)嘴巴中心點(diǎn))為基準(zhǔn)點(diǎn)進(jìn)行校正。

此外,直方圖均衡化也用于提高人臉圖像的對(duì)比度,降低光照等因素的影響。

由于人臉表情數(shù)據(jù)集較小的限制,采用了數(shù)據(jù)增強(qiáng)的方式來擴(kuò)展訓(xùn)練數(shù)據(jù)。從60×60大小的圖像中隨機(jī)裁剪出大小為48×48圖像塊作為訓(xùn)練數(shù)據(jù),并且將圖像塊隨機(jī)旋轉(zhuǎn)一個(gè)角度,該角度范圍在-10°~10°之間。此外,還要將圖像以0.5的概率進(jìn)行水平隨機(jī)翻轉(zhuǎn)。

2.2 人臉表情數(shù)據(jù)集

CK+人臉表情數(shù)據(jù)集包括327個(gè)有效圖像序列,從118個(gè)不同個(gè)體中提取,每個(gè)個(gè)體包括7種表情:憤怒、輕蔑、厭惡、害怕、高興、悲傷、驚訝。每個(gè)圖像序列以中性表情作為首幀開始,到峰值表情作為最后一幀結(jié)束。為了獲得更多數(shù)據(jù),每個(gè)視頻最后三幀標(biāo)記為該表情的訓(xùn)練數(shù)據(jù),第一幀作為中性表情的訓(xùn)練數(shù)據(jù)。

FER-2013數(shù)據(jù)集[15]有7種帶標(biāo)簽的表情(包括中性表情),有28 709張訓(xùn)練樣本以及3 589張測(cè)試樣本。

訓(xùn)練策略:本文采用十折交叉驗(yàn)證的策略。將數(shù)據(jù)集分成10份,其中8份用于訓(xùn)練,剩余兩份分別作為驗(yàn)證集和測(cè)試集。

2.3 卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)

首先采用多分類損失的網(wǎng)絡(luò)模型在FER-2013數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練。然后采用隔離損失的網(wǎng)絡(luò)模型在CK+數(shù)據(jù)集上進(jìn)行微調(diào)(fine-tune)。采用隨機(jī)梯度下降的訓(xùn)練策略,其中,動(dòng)量設(shè)為0.9,批處理大小為32,權(quán)重衰減為0.05。學(xué)習(xí)率初始設(shè)為0.001,每5 000次迭代乘以衰減因子0.1。訓(xùn)練迭代為100次遍歷訓(xùn)練集。在全連接層之后的Dropout層的概率值設(shè)為0.5。

2.4 實(shí)驗(yàn)結(jié)果

用隔離損失作為損失函數(shù)的網(wǎng)絡(luò)模型相比多分類損失和中心損失效果取得了明顯的提升。其混淆矩陣如表1所示,矩陣對(duì)角線表示每種表情的準(zhǔn)確率。其中,Ne表示中性,An表示高興,Co表示輕蔑,Di表示厭惡,F(xiàn)e表示害怕,Ha表示高興,Su表示驚訝。

表1 實(shí)驗(yàn)結(jié)果的混淆矩陣 (%)

此外,將本文方法與HOG 3D[16]、Cov3D[17]、Inception[18]、IACNN[19]、DTAGN[20]等傳統(tǒng)經(jīng)典人臉表情識(shí)別方法進(jìn)行了準(zhǔn)確率的對(duì)比,對(duì)比結(jié)果如表2所示。

表2 人臉表情識(shí)別方法對(duì)比

實(shí)驗(yàn)結(jié)果表明,加強(qiáng)了對(duì)特征空間的約束,使用隔離損失的方法準(zhǔn)確率獲得了提升。將隔離損失與多分類損失和中心損失進(jìn)行實(shí)驗(yàn)對(duì)比,基于隔離損失的方法效果最好。可見,加大不同類特征之間的距離約束,可以提取更具判別性的特征,提升識(shí)別的準(zhǔn)確率。

2.5 特征可視化

對(duì)特征進(jìn)行可視化,從特征空間分布的角度驗(yàn)證了隔離損失有效地減小了類內(nèi)特征差異,且增大了類間特征之間的距離。

對(duì)網(wǎng)絡(luò)結(jié)構(gòu)全連接層的特征利用t-SNE[21]對(duì)高維向量進(jìn)行降維可視化,結(jié)果如圖3所示。

圖3 表情特征分布

圖3中(a)、(b)、(c)所示分別為以多分類損失、中心損失、隔離損失作為損失函數(shù),學(xué)習(xí)之后的特征空間分布。圖3(b)相比于圖3(a)而言,同一類的特征分布更為聚集,說明中心損失可以有效減小類內(nèi)特征差異。而圖3(c)不僅相較于圖3(a)特征更為聚集,而且相對(duì)于圖3(b)聚類簇也更為分散,重疊部分小,說明隔離損失可以在減小類內(nèi)特征差異的同時(shí),增大類間特征距離,使特征更具判別性。

3 結(jié)束語

本文針對(duì)人臉表情識(shí)別領(lǐng)域存在的特征判別性不足這一問題進(jìn)行改進(jìn),提出了一種新的損失函數(shù)——隔離損失,用于改進(jìn)特征分布,使同一類的特征更為聚集,不同類的特征更為遠(yuǎn)離。為了驗(yàn)證理論,提出了卷積神經(jīng)網(wǎng)絡(luò)的模型,結(jié)合隔離損失,進(jìn)行了多組對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,該方法能夠提升特征的判別性,并且取得很好的識(shí)別準(zhǔn)確率。此項(xiàng)研究能夠讓人臉表情識(shí)別在現(xiàn)實(shí)場(chǎng)景下取得更為魯棒的效果,對(duì)于人臉表情識(shí)別的應(yīng)用具有重要意義。

[1] EKMAN P, FRIESEN W V. Constants across cultures in the face and emotion[J]. Journal of Personality and Social Psychology, 1971, 17(2): 124-129.

[2] MOLLAHOSSEINI A, GRAITZER G, BORTS E, et al. Expressionbot: an emotive lifelike robotic face for face-to-face communication[C]//2014 14th IEEE-RAS International Conference on Humanoid Robots (Humanoids). IEEE, 2014: 1098-1103.

[3] GROSS R, MATTHEWS I, COHN J, et al. Multi-pie[J]. Image and Vision Computing, 2010, 28(5): 807-813.

[4] PANTIC M, VALSTAR M, RADEMAKER R, et al. Web-based database for facial expression analysis[C]//2005 IEEE International Conference on Multimedia and Expo. IEEE, 2005.

[5] LYONS M, AKAMATUS S, KAMACHI M, et al. Coding facial expressions with gabor wavelets[C]// Proceedings of the Third IEEE International Conference on Automatic Face and Gesture Recognition. IEEE, 1998: 200-205.

[6] MAVADATI S M, MAHOOR M H, BARTLETT K, et al. Disfa: a spontaneous facial action intensity database[J]. IEEE Transactions on Affective Computing, 2013, 4(2): 151-160.

[7] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems, 2012: 1097-1105.

[8] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.

[9] TOSHEV A, SZEGEDY C. Deeppose: human pose estimation via deep neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1653-1660.

[10] TAIGMAN Y, YANG M, RANZATO M A, et al. Deepface: closing the gap to human-level performance in face verification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1701-1708.

[11] KAHOU S E, PAL C, BOUTHILLIER X, et al. Combining modality specific deep neural networks for emotion recognition in video[C]//Proceedings of the 15th ACM on International Conference on Multimodal Interaction, 2013: 543-550.

[12] WEN Y, ZHANG K, LI Z, et al. A discriminative feature learning approach for deep face recognition[C]//European Conference on Computer Vision. Springer International Publishing, 2016: 499-515.

[13] LUCEY P, COHN J F, KANADE T, et al. The extended cohn-kanade dataset (ck+): a complete dataset for action unit and emotion-specified expression[C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2010: 94-101.

[14] SARAGIH J M, LUCEY S, COHN J F. Face alignment through subspace constrained mean-shifts[C]//2009 IEEE 12th International Conference on Computer Vision. IEEE, 2009: 1034-1041.

[15] GOODFELLOW I J, ERHAN D, CARRIER P L, et al. Challenges in representation learning: a report on three machine learning contests[C]//International Conference on Neural Information Processing. Springer, Berlin, Heidelberg, 2013: 117-124.

[16] KLASER A, MARSZAEK M, SCHMID C. A spatio-temporal descriptor based on 3d-gradients[C]// 19th British Machine Vision Conference. British Machine Vision Association, 2008: 275: 1-10.

[17] SANIN A, SANDERSON C, HARANDI M T, et al. Spatio-temporal covariance descriptors for action and gesture recognition[C]//2013 IEEE Workshop on Applications of Computer Vision (WACV). IEEE, 2013: 103-110.

[18] MOLLAHOSSEINI A, CHAN D, MAHOOR M H. Going deeper in facial expression recognition using deep neural networks[C]//2016 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2016: 1-10.

[19] MENG Z, LIU P, CAI J, et al. Identity-aware convolutional neural network for facial expression recognition[C]//2017 12th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2017). IEEE, 2017: 558-565.

[20] JUNG H, LEE S, YIM J, et al. Joint fine-tuning in deep neural networks for facial expression recognition[C]// 2015 IEEE International Conference on Computer Vision (ICCV). IEEE, 2015: 2983-2991.

[21] MAATEN L, HINTON G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9: 2579-2605.

猜你喜歡
分類特征
抓住特征巧觀察
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠的四個(gè)特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
主站蜘蛛池模板: 九九热在线视频| 一级毛片不卡片免费观看| 五月激情综合网| 久久精品女人天堂aaa| 一级爱做片免费观看久久| 国产一区成人| 精品综合久久久久久97超人| 亚洲无线国产观看| 最新日韩AV网址在线观看| 四虎永久在线| 综合社区亚洲熟妇p| 综合成人国产| 美女无遮挡免费视频网站| 国产在线视频欧美亚综合| 国产精品夜夜嗨视频免费视频| 久久国产亚洲欧美日韩精品| 色综合五月婷婷| 日韩无码视频专区| 欧美国产在线一区| 无码免费的亚洲视频| 国产h视频免费观看| 欧美成在线视频| 欧美成人精品欧美一级乱黄| 国产久操视频| 久久精品娱乐亚洲领先| 国产成人免费视频精品一区二区| 亚洲av无码牛牛影视在线二区| 国产特级毛片| 欧美一级黄色影院| 久久婷婷五月综合色一区二区| 国产综合无码一区二区色蜜蜜| 波多野结衣无码AV在线| 国产小视频免费观看| 婷婷六月综合网| 一级香蕉人体视频| 免费Aⅴ片在线观看蜜芽Tⅴ| 成人年鲁鲁在线观看视频| 欧美福利在线播放| 狠狠五月天中文字幕| 午夜啪啪网| 亚洲色图在线观看| 亚洲av片在线免费观看| 人妻熟妇日韩AV在线播放| 热久久这里是精品6免费观看| 人人看人人鲁狠狠高清| 国产一级在线播放| 欧美日韩国产精品综合 | 九九线精品视频在线观看| 五月激情婷婷综合| 日本黄网在线观看| 国产熟女一级毛片| 午夜国产小视频| 亚洲日本中文字幕乱码中文 | 久久综合伊人77777| av一区二区无码在线| 国产精品开放后亚洲| 成人91在线| 国产免费自拍视频| 中文字幕欧美日韩| 日韩中文欧美| 无码'专区第一页| 91精品国产麻豆国产自产在线| 伊人丁香五月天久久综合 | 欧美色亚洲| 福利在线一区| 国精品91人妻无码一区二区三区| 亚洲无码视频喷水| 国产免费怡红院视频| 日韩美毛片| 波多野结衣一二三| 亚洲中文字幕久久无码精品A| 国产精品毛片一区| 中文字幕永久在线观看| 国产精品毛片一区| 亚洲欧美自拍中文| 亚洲欧美一级一级a| 日韩欧美中文字幕一本| 青青草91视频| 99久久99这里只有免费的精品| 在线精品视频成人网| 亚洲永久视频| 91精品伊人久久大香线蕉|