999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于VGGNet的人臉表情識別研究

2023-11-13 07:45:58廖清江張星月李樂樂劉嘉豪
軟件工程 2023年11期
關(guān)鍵詞:模型

廖清江, 劉 婷, 張星月, 董 祺, 李樂樂, 劉嘉豪

(天津商業(yè)大學(xué)信息工程學(xué)院, 天津 300134)

0 引言(Introduction)

面部表情是除語言性交流以外的另一種傳遞信息的身體語言符號,是人們情感狀態(tài)的重要體現(xiàn)之一,可以表達(dá)出個(gè)體的心態(tài)和情感。隨著人工智能技術(shù)與計(jì)算機(jī)視覺領(lǐng)域的迅速發(fā)展,人臉表情識別技術(shù)成為當(dāng)下圖像識別研究領(lǐng)域的熱點(diǎn)之一。人臉表情識別作為人臉識別技術(shù)的進(jìn)一步發(fā)展,現(xiàn)已被廣泛應(yīng)用于心理學(xué)[1]、疼痛表情識別[2]、課堂狀態(tài)檢測[3]、安全監(jiān)控[4]等領(lǐng)域。

早期的人臉表情識別方法基于面部的幾何特征,主要依賴手工的特征提取和分類算法,容易漏掉分類識別時(shí)的關(guān)鍵特征,存在較大的局限性。研究者嘗試將人臉表情識別建模為模板,實(shí)現(xiàn)對表情的識別與分類,但其泛化能力和對非剛性變形的適應(yīng)性相對有限。隨著機(jī)器學(xué)習(xí)技術(shù)的不斷發(fā)展,研究者發(fā)現(xiàn)深度學(xué)習(xí)具有引入數(shù)據(jù)集規(guī)模大、能夠表示復(fù)雜特征的特點(diǎn),因此在人臉表情識別中應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[5]、視覺幾何組16(Visual Geometry Group 16,VGG16)[6]、殘差神經(jīng)網(wǎng)絡(luò)50 (Residual Neural Network 50,ResNet50)[7]、三維卷積神經(jīng)網(wǎng)絡(luò)(Convolutional 3D,C3D)[8]成為目前的主要研究方向。

為了更好地完成人臉表情識別任務(wù),本研究選擇VGGNet進(jìn)行人臉表情識別的設(shè)計(jì),為了對比識別效果,對傳統(tǒng)CNN網(wǎng)絡(luò)和VGGNet網(wǎng)絡(luò)進(jìn)行框架搭建,針對同一數(shù)據(jù)集FER2013分別進(jìn)行測試分析,對比其損失率及識別率。為了驗(yàn)證VGGNet在真實(shí)環(huán)境中的識別效果,本研究還進(jìn)行了真人實(shí)時(shí)表情測試,測試表明本文設(shè)計(jì)的方案能很好地完成人臉表情識別任務(wù)。

1 CNN 基本原理(CNN basic principles)

卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)模型,最早被應(yīng)用于圖像數(shù)據(jù)處理,現(xiàn)不僅廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域的圖像和視頻處理,還應(yīng)用于自然語言處理和語音識別。不同于傳統(tǒng)的機(jī)器學(xué)習(xí),CNN包含多個(gè)層次的處理單元,由輸入層、卷積層、池化層(下采樣層)、全連接層和輸出層組成。其中,CNN的核心是卷積操作,即在輸入數(shù)據(jù)上進(jìn)行卷積操作,使用濾波器提取圖像特征,使CNN具有局部感知性和參數(shù)共享的特點(diǎn),從而減少了需要訓(xùn)練的參數(shù)數(shù)量,提高了模型的效率和泛化能力。CNN的工作原理是通過模仿人類大腦的視覺系統(tǒng)達(dá)到自動(dòng)從圖像中提取特征,并進(jìn)行分類、分割、檢測操作。圖1為卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖。

圖1 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖Fig.1 Structure diagram of convolutional neural networks

2 VGGNet原理及結(jié)構(gòu)(Principle and structure of VGGNet)

VGGNet是由牛津大學(xué)的研究團(tuán)隊(duì)Karen Simonyan和Andrew Zisserman等在2014年提出的一種深度卷積神經(jīng)網(wǎng)絡(luò)模型,該模型在2014年的ImageNet圖像識別競賽中取得了分類任務(wù)第2名和定位任務(wù)第1名的好成績,證明增加卷積神經(jīng)網(wǎng)絡(luò)的層數(shù)可以在一定條件下影響網(wǎng)絡(luò)最終的性能,使圖片分類識別錯(cuò)誤率大大降低,同時(shí)提升了卷積神經(jīng)網(wǎng)絡(luò)的拓展性。

VGGNet的網(wǎng)絡(luò)結(jié)構(gòu)包含多個(gè)連續(xù)的3×3卷積層代替5×5卷積層,每個(gè)卷積層后面緊跟著一個(gè)2×2的最大池化層進(jìn)行下采樣,便于提取多尺度的圖像特征。VGGNet由多個(gè)卷積層和池化層組成,最后連接全連接層進(jìn)行分類。通過深層堆疊的卷積層和池化層的設(shè)計(jì),使得網(wǎng)絡(luò)在不增加太多參數(shù)的情況下增加網(wǎng)絡(luò)的深度,提高網(wǎng)絡(luò)的深層表達(dá)能力。常用的版本是VGG16和VGG19,本研究選用VGG16結(jié)構(gòu)。

3 基于VGGNet的人臉表情識別的設(shè)計(jì)(Design of facial expression recognition based on VGGNet)

3.1 系統(tǒng)設(shè)計(jì)流程

本研究主要對人臉表情進(jìn)行識別,通過人臉表情判斷當(dāng)前測試者所處的精神狀態(tài)和情緒訴求,在輸入端進(jìn)行人臉檢測,在輸出端顯示檢測者包括中性(Neutral)、高興(Happy)、生氣(Angry)、驚訝(Surprise)、厭惡(Disgust)、難過(Sad)和恐懼(Fear)的情緒類別。

系統(tǒng)流程圖如圖2所示。

圖2 系統(tǒng)流程圖Fig.2 System flowchart

3.2 數(shù)據(jù)集選擇

采用FER2013公開數(shù)據(jù)集,該數(shù)據(jù)集最初是在2013年的Kaggle競賽中進(jìn)行面部表情分類而創(chuàng)建的,它包含35 887幅灰度圖像,每幅圖像的大小為48×48像素。FER2013公開數(shù)據(jù)集中的每幅圖像都被標(biāo)記為7個(gè)不同的情緒類別之一,包括中性(Neutral)、高興(Happy)、生氣(Angry)、驚訝(Surprise)、厭惡(Disgust)、難過(Sad)和恐懼(Fear)。每個(gè)樣本都有1個(gè)對應(yīng)的情緒標(biāo)簽。FER2013公開數(shù)據(jù)集分為28 709幅圖像的訓(xùn)練集、3 589幅圖像的驗(yàn)證集及3 589幅圖像的測試集;它的特點(diǎn)在于質(zhì)量較高、圖像樣本更具有多樣性。一些圖像可能存在模糊、光照不均勻、遮擋等問題,這使得面部表情分類任務(wù)具有一定的挑戰(zhàn)性。

數(shù)據(jù)集包含逗號分隔值(Comma-Separated Values,CSV)文件,該文件將圖片轉(zhuǎn)化為像素?cái)?shù)據(jù)以方便存儲。首先使用Pyhton對CSV文件提取標(biāo)簽實(shí)現(xiàn)可視化,其次創(chuàng)建映射表并重新加載數(shù)據(jù)集,最后進(jìn)行圖像預(yù)處理。

3.3 圖像預(yù)處理

雖然FER2013公開數(shù)據(jù)集中的各個(gè)圖形都已經(jīng)很清晰,但是拍攝角度、光線以及攝像機(jī)所自帶的噪音等都會對圖像的清晰度、圖像的識別率產(chǎn)生影響,為了避免出現(xiàn)因圖像有噪音或角度等問題而引發(fā)的識別錯(cuò)誤問題,需要對圖片進(jìn)行預(yù)處理。

3.3.1 高斯模糊

高斯模糊去噪處理的目的是降低細(xì)節(jié)層次以及圖像的毛細(xì)瑕疵;工作原理是將圖像從中間劃分為兩半,利用高斯分布的特性進(jìn)行圖像模糊操作,然后將圖像中細(xì)分的像素周圍的適當(dāng)范圍內(nèi)乘以一個(gè)高斯系數(shù)。

Opencv庫函數(shù)框架下的cv2.GaussianBlur(img,(ksizex,ksizey),0)可以對圖像實(shí)現(xiàn)高斯模糊,其中img表示輸入的人臉表情原圖像,(ksizex,ksizey)表示高斯模糊核的大小,而0表示通過ksize寫出的sigma決定以何種方式表示高斯核。

在圖像預(yù)處理時(shí),通常會將紅綠藍(lán)(Red Green Blue,RGB)的彩色圖像轉(zhuǎn)換為灰度圖,其原因是RGB彩色是一個(gè)三通道空間,在預(yù)處理時(shí)容易產(chǎn)生交互影響,并且彩色圖像所占空間遠(yuǎn)遠(yuǎn)大于灰度圖所占空間,在人臉表情識別中,灰度圖不僅容易展示人臉表情輪廓,而且節(jié)省空間資源。基于以上考慮,在人臉表情預(yù)處理時(shí)將圖像轉(zhuǎn)換為灰度圖。在Opencv中,轉(zhuǎn)換關(guān)系為如下:

gray_img=cv2.cvtColor(img,COLOR_BGR2GRAY)

(1)

其中:cv2.cvtColor()函數(shù)表示轉(zhuǎn)換為灰度圖,img表示輸入的原圖像,COLOR_BGR2GRAY表示將彩色圖像轉(zhuǎn)換為灰度圖。

3.3.2 直方圖均衡化

為了增強(qiáng)圖像對比度以及減少光線對圖像分析的影響,可以對圖像進(jìn)行直方圖均衡化,同時(shí)直方圖均衡化在提高對比度的同時(shí),還能提高特征提取率。在Opencv庫中,使用直方圖代碼如下:

equ=equalizeHist(img)

(2)

其中:equalizeHist()表示直方圖均衡化;img表示原圖像。

3.3.3 數(shù)據(jù)類型轉(zhuǎn)換

在PyTorch框架下,torch數(shù)據(jù)類型是最基本的數(shù)據(jù)類型,輸入變量的數(shù)據(jù)類型由tensor類型轉(zhuǎn)化為torch類型,其代碼實(shí)現(xiàn)過程如下所示。

face_tensor=torch.from_numpy(face_normalized)

# 將python中的numpy數(shù)據(jù)類型轉(zhuǎn)化為tensor數(shù)據(jù)類型

face_tensor=face_tensor.type(′torch.FloatTensor′)

# 指定為torch.FloatTensor型,避免數(shù)據(jù)類型不匹配

4 實(shí)驗(yàn)及結(jié)果分析(Experiment and result analysis)

4.1 實(shí)驗(yàn)環(huán)境

本研究采用的深度學(xué)習(xí)框架為Tensorflow 2.12.0,語言為Python3.10.9,集成開發(fā)環(huán)境為PyCharm2023.1版本,選擇CPU版本的 PyTorch框架,導(dǎo)入Numpy庫、Matplotlib庫、tqdm庫、Opencv庫等,所有實(shí)驗(yàn)均在Windows 10操作平臺下進(jìn)行。

4.2 網(wǎng)絡(luò)搭建和模型訓(xùn)練

4.2.1 傳統(tǒng)CNN

定義時(shí)繼承torch.nn.Module類,從中調(diào)取卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

首先進(jìn)行前向傳播,訓(xùn)練數(shù)據(jù)樣本作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,經(jīng)過3次卷積和3次池化,圖像特征信息進(jìn)入3層全連接層進(jìn)行整合,使用Droupout防止過擬合現(xiàn)象,每層設(shè)置激活函數(shù)進(jìn)行激活,并傳遞到全連接層,得到對應(yīng)的預(yù)測值。

其次運(yùn)用損失函數(shù)計(jì)算損失值衡量模型預(yù)測與真實(shí)標(biāo)簽之間的具體差異。這里將計(jì)算的誤差記為p,具體計(jì)算過程如下:

p=|z-y|

(3)

其中:z為真實(shí)值,y為預(yù)測值。

最后反向傳播沿著網(wǎng)絡(luò)的層級關(guān)系逆向傳播梯度,將梯度信息傳遞回網(wǎng)絡(luò)中的每一層。這樣根據(jù)梯度更新網(wǎng)絡(luò)中的權(quán)重和偏置,減小損失函數(shù)的值,從而訓(xùn)練出用于人臉表情識別的網(wǎng)絡(luò)模型。CNN網(wǎng)絡(luò)訓(xùn)練過程如圖3所示。

圖3 CNN訓(xùn)練過程圖Fig.3 Diagram of CNN training process

4.2.2 VGGNet

執(zhí)行遷移學(xué)習(xí),使用PyTorch引入經(jīng)過訓(xùn)練的VGG模型,繼承nn.Module的VGGNet,并修改網(wǎng)絡(luò)中標(biāo)準(zhǔn)交叉熵?fù)p失、學(xué)習(xí)率等參數(shù)。訓(xùn)練得到人臉表情識別系統(tǒng)模型,并引入transform進(jìn)行圖形的裁剪、旋轉(zhuǎn)、縮放和亮度調(diào)節(jié),提高模型的泛化性和抗拒性。

引入預(yù)訓(xùn)練模型過程如圖4所示。

圖4 預(yù)訓(xùn)練模型引入圖Fig.4 Introduction diagram of the pre-trained model

4.3 結(jié)果對比分析

訓(xùn)練過程中將學(xué)習(xí)率設(shè)置為0.01。根據(jù)數(shù)據(jù)集樣本數(shù)量特點(diǎn),先選取60次作為迭代參數(shù)在FER2013公開數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。經(jīng)過實(shí)驗(yàn)驗(yàn)證,在迭代60次以后,傳統(tǒng)CNN的識別率為88%,VGGNet的識別率為98%,二者的訓(xùn)練集與驗(yàn)證集的識別率對比如圖5所示。

(a)傳統(tǒng)CNN識別率

迭代60次以后,傳統(tǒng)CNN的損失率為18.81%,而VGGNet的損失率則減小至7.84%,兩個(gè)網(wǎng)絡(luò)的訓(xùn)練集與驗(yàn)證集損失率對比如表1所示。

表1 傳統(tǒng)CNN與VGGNet損失率對比表

4.4 現(xiàn)實(shí)應(yīng)用能力評估

為測試模型在現(xiàn)實(shí)場景中的應(yīng)用能力,保存在FER2013公開數(shù)據(jù)集上訓(xùn)練的網(wǎng)絡(luò)模型,并運(yùn)用該模型對研究團(tuán)隊(duì)中的成員進(jìn)行面部表情識別,識別結(jié)果如圖6所示。從識別結(jié)果來看,本文所提模型能準(zhǔn)確識別現(xiàn)實(shí)生活中的人物表情。從整體效果來看,模型泛化能力較好。

(a)開心

(b)中性

(c)驚訝

(d)難過

5 結(jié)論(Conclusion)

在Tensorflow 2.12.0深度學(xué)習(xí)框架下,利用Python 3.10.9語言,PyCharm 2023.1集成開發(fā)環(huán)境,以準(zhǔn)確識別人臉表情為目的,在FER2013公開數(shù)據(jù)集上搭建基于VGGNet的人臉表情識別系統(tǒng),并對比了基于傳統(tǒng)CNN和VGGNet兩種不同網(wǎng)絡(luò)模型在人臉表情識別中的性能。同時(shí),在現(xiàn)實(shí)場景中驗(yàn)證了所提模型的有效性。

文中提出的人臉表情識別方案優(yōu)勢明顯,但在某些方面仍有不足:

(1)訓(xùn)練時(shí)間長:本文所提系統(tǒng)進(jìn)行人臉表情訓(xùn)練時(shí)需要耗費(fèi)大量時(shí)間,在訓(xùn)練期間,對特征信息提取能力和計(jì)算能力要求較高,要求使用有強(qiáng)算力的GPU、TPU等圖像處理器。

(2)數(shù)據(jù)集依然有待提高:雖然FER2013公開數(shù)據(jù)集擁有30 000余幅人臉表情圖像,但是運(yùn)用于實(shí)際時(shí),依然會出現(xiàn)不能精確識別等問題,應(yīng)采取更多其他人臉表情識別數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò),以達(dá)到提高識別精確度及不同人群的適用性的目的。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美一区二区三区不卡免费| 亚洲AV永久无码精品古装片| 亚洲三级色| 天天综合网色| www成人国产在线观看网站| 国产一级视频在线观看网站| 一区二区三区国产精品视频| 亚洲天堂福利视频| 久久久久久尹人网香蕉| 国产精品美女网站| 一级一级一片免费| 国内毛片视频| 国产人免费人成免费视频| 超碰精品无码一区二区| 六月婷婷激情综合| 一级毛片在线播放免费观看| 国产视频欧美| 久久综合五月婷婷| 青草视频免费在线观看| www.91中文字幕| 丰满少妇αⅴ无码区| 最新痴汉在线无码AV| 亚洲全网成人资源在线观看| 91精品日韩人妻无码久久| 亚洲欧美一区二区三区蜜芽| 五月天天天色| 一本色道久久88综合日韩精品| 日本黄色不卡视频| 22sihu国产精品视频影视资讯| 亚洲第一黄色网址| 99热这里只有精品免费| 日韩黄色大片免费看| 久久黄色一级视频| 国产av一码二码三码无码| 精品撒尿视频一区二区三区| 国产一区二区三区精品久久呦| 欧美激情视频一区二区三区免费| 毛片一区二区在线看| 欧美a级在线| 欧美日韩一区二区在线免费观看| 亚洲人成人伊人成综合网无码| 亚洲国产在一区二区三区| 熟妇丰满人妻| 91www在线观看| 亚洲一区二区三区中文字幕5566| 2024av在线无码中文最新| 精品国产亚洲人成在线| 伊人AV天堂| 国产黄网永久免费| 日韩国产亚洲一区二区在线观看| 91久久性奴调教国产免费| 欧美亚洲国产精品第一页| 性色一区| 日韩精品成人在线| 国产日韩欧美中文| 国产理论一区| 91免费国产在线观看尤物| 国产精品微拍| 青青操视频免费观看| 久久久久无码精品| 国产色爱av资源综合区| 中文无码毛片又爽又刺激| 在线视频一区二区三区不卡| 亚洲无码精品在线播放| AV在线天堂进入| 福利在线一区| 久久精品亚洲专区| 国产一区二区丝袜高跟鞋| 欧美不卡二区| 91一级片| 亚洲最猛黑人xxxx黑人猛交 | 国产免费怡红院视频| 成人在线欧美| 99re精彩视频| 久久久久久久久亚洲精品| 国产中文一区a级毛片视频| 亚洲一区二区日韩欧美gif| 黄色一及毛片| P尤物久久99国产综合精品| 在线观看热码亚洲av每日更新| 亚洲精品无码专区在线观看| 婷婷综合亚洲|