999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于神經(jīng)網(wǎng)絡(luò)的人臉表情識別

2018-11-08 02:32:30梁瑞奇
電子制作 2018年20期
關(guān)鍵詞:特征提取特征

梁瑞奇

(重慶市第八中學(xué)校,重慶,400000)

0 引言

近幾年,隨著人工智能技術(shù)的再次迅猛崛起,以及計算技術(shù)的大幅度提升,人們對人機(jī)交互任務(wù)提出了越來越高的要求。同時,在人與人的溝通中,不只是語言符號,人臉表情以及其他身體語言也是傳達(dá)信息的組成成分[1]。心理學(xué)專家A. Mehrabian[2]的研究表明人臉表情對聽者有很大的影響,由于在人與人的溝通交流中,人臉表情所傳達(dá)的信息占高達(dá)35%,可見,在人與人之間信息交流的過程中,人臉表情起到了不可缺少的作用。人臉表情識別這項技術(shù)是指從靜態(tài)圖像或動態(tài)視頻中提取出出人的表情狀態(tài),從而可以進(jìn)一步識別出對象的心理情緒。這項技術(shù)能使計算機(jī)更好地理解人類的情緒,并能根據(jù)人類面對不同環(huán)境時的面部反應(yīng)做出回應(yīng)。表情識別已經(jīng)在心理學(xué),情感交流機(jī)器人等領(lǐng)域具有重大的研究和使用價值。

一般的表情識別系統(tǒng)的分為三個部分,首先在捕捉到的圖像中進(jìn)行人臉識別,之后對圖像進(jìn)行預(yù)處理、表情特征提取,最后通過BP神經(jīng)網(wǎng)絡(luò)建模,完成表情分類。然而,由于人的表情有不同程度,如對于笑這類表情可分為大笑、微笑,而哭這類表情可以分為抽噎,嚎啕大哭等。在本文中根據(jù)表情的不同程度,將某些表情進(jìn)行二次分類,從而達(dá)到更為細(xì)粒度的人臉表情識別效果。

針對上述問題,本研究提出一種基于神經(jīng)網(wǎng)絡(luò)的人臉表情識別系統(tǒng)的設(shè)計方法,在識別出人臉表情的同時可以對不同程度的表情深層分類,相比先前的類似研究具有更好的人機(jī)交互效果和更深的智能化程度。

1 人臉識別圖像預(yù)處理與特征提取

因?yàn)楸砬樽R別系統(tǒng)分為三個部分:①圖像預(yù)處理;②特征提取;③表情識別分類器。因此,首先需要對訓(xùn)練樣本集中的所有人臉表情圖像進(jìn)行預(yù)處理,然后基于預(yù)處理后的圖像進(jìn)行特征提取,最后將提取到的表情特征引入分類器中進(jìn)行學(xué)習(xí)訓(xùn)練,完成訓(xùn)練過程后,將測試樣本放入已經(jīng)訓(xùn)練好的分類器中進(jìn)行測試評估。

■1.1 圖像預(yù)處理

本文采用的圖像預(yù)處理的方法是將RGB空間中的彩色圖像轉(zhuǎn)化成為灰度圖。由于彩色圖像中的每個像素的顏色有R、G、B三個分量決定,而每個分量有256種取值情況,因此這樣一個像素點(diǎn)可以有1600多萬(256×256×256的顏色的變化范圍,數(shù)據(jù)量太大對存儲和計算造成一定的負(fù)擔(dān),而灰度圖的一個像素點(diǎn)的變化范圍只有256種情況,所以通過將原始人臉圖像轉(zhuǎn)變成灰度圖像,以此大幅度減少后續(xù)的圖像處理的計算量。同時,灰度圖像仍然能夠反映出與彩色圖像一致的整幅圖像的整體和局部的色度和亮度等級的分布和特征。

對于人臉表情識別系統(tǒng),為了便于提取特征,因此需要將RGB空間的圖像通過做平均化處理轉(zhuǎn)化為灰度圖像,公式為

其中,RGB分別為每個彩色圖像像素點(diǎn)的顏色分量,g為轉(zhuǎn)化后的灰度值。

■1.2 特征提取

為了能夠識別人臉表情的類別及變化情況,利用人臉表情的幾何特征是一個顯著而有效的策略,人臉幾何特征是指人臉上各器官,例如眼睛,眉毛,鼻子,嘴等的形狀變化,此外還包括一些顯著點(diǎn)例如眼角,眉梢,嘴角等的位置變化。

(1)紋理分析技術(shù)

表情的外觀特征最主要的一個表現(xiàn)就是臉部的紋理變化,其包括臉上不同器官的紋理形狀變化。紋理分析通過研究一幅圖像中的像素灰度級變化趨勢,得到紋理變化情況。

本研究中采用空間灰度共生矩陣的方法做紋理分析,通過計算兩個灰度級別在圖像中以一定方向相鄰的次數(shù)而得到一個矩陣 ,這里的方向一般包括水平、45度、90度和135度。以采用水平方向計算的灰度共生矩陣為例,灰度共生矩陣中的每一個元素(i,j)代表灰度i與灰度j在圖像中水平相鄰的次數(shù)。如圖1所示,以(1,1)點(diǎn)為例,灰度共生矩陣(1,1)處的值為1說明只有一對灰度為1的像素水平相鄰。灰度共生矩陣(1,2)處的值為2,是因?yàn)橛袃蓪叶葹?和2的像素水平相鄰。

圖1 灰度共生矩陣計算示意圖

(2)表情時空提取

對于人臉表情視頻的數(shù)據(jù)集,可以對獲取的視頻中每一幀的人臉圖像進(jìn)行上述特征提取得到特征向量,用于表情識別的幾何特征,指臉上幾個主要器官的變化,比較典型的基于視頻人臉表情幾何臉部外觀特征提取方法是基于差分圖像的時空特征[3]。由于人臉表情視頻的背景一般不變,在這一條件下,可以將視頻序列中的每一幀圖像與中性表情幀直接做差分運(yùn)算,或者也可以將視頻圖像中前后兩幀圖像進(jìn)行差分運(yùn)算,利用上述通過灰度共生矩陣方法提取出的人臉表情紋理特征,差分運(yùn)算是指將兩幀圖像的灰度共生矩陣做矩陣減法,接著將新的灰度共生矩陣按列展開為一個向量表示,得到人臉表情的特征向量。

■1.3 BP神經(jīng)網(wǎng)絡(luò)分類器

BP神經(jīng)網(wǎng)絡(luò)是一種基于人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的學(xué)習(xí)模型,可以通過設(shè)置多層隱含層,并以反向逆?zhèn)鞑サ姆绞讲粩嘈薷木W(wǎng)絡(luò)權(quán)值,從而達(dá)到學(xué)習(xí)訓(xùn)練的目的,其已經(jīng)成為應(yīng)用最為廣泛的模型之一。

BP神經(jīng)網(wǎng)絡(luò)工作過程共分為兩個階段:

(1)正向傳播:首先將數(shù)據(jù)中的特征向量輸入輸入層,經(jīng)過隱含層,對其進(jìn)行加權(quán)計算,最后由輸出層輸出,在每一層的處理中前一層可等效于后一層的輸入層。

(2)反向傳播:當(dāng)傳播到輸出層時,將預(yù)測的結(jié)果與給定的標(biāo)簽進(jìn)行比較,判斷其是否達(dá)到收斂條件,若達(dá)到,則結(jié)束訓(xùn)練過程,反之,則逐層反向傳播,對權(quán)值進(jìn)行依次調(diào)整,直到滿足收斂條件。

BP神經(jīng)網(wǎng)絡(luò)是將提取出的人臉表情特征向量作為輸入,通過在網(wǎng)絡(luò)中進(jìn)行線性組合,并在每個神經(jīng)元處經(jīng)過非線性的激活函數(shù)輸出,針對每個神經(jīng)元可以得到一個計算結(jié)果,將其與閾值進(jìn)行比較并得到輸出結(jié)果。本文中選用sigmoid函數(shù)作為激活函數(shù),其公式如下

為了進(jìn)行反向傳播過程調(diào)整權(quán)值,在學(xué)習(xí)訓(xùn)練之前要確定一個誤差函數(shù),本文選用實(shí)際輸出x與期望輸出y之差的平方和來表示,其公式如下;

BP神經(jīng)網(wǎng)絡(luò)經(jīng)過大量學(xué)習(xí)訓(xùn)練后,根據(jù)不斷調(diào)整網(wǎng)絡(luò)權(quán)值,減小誤差,從而達(dá)到預(yù)期效果,為了保證準(zhǔn)確性,本文采用標(biāo)準(zhǔn)的3層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其中設(shè)置輸入層包括10個節(jié)點(diǎn)對應(yīng)一組人臉表情特征輸入向量,隱含層具有10個節(jié)點(diǎn),輸出層共9個節(jié)點(diǎn)表示9種表情的輸出結(jié)果。

■1.4 訓(xùn)練過程

本文選用5000幅人臉圖片作為訓(xùn)練樣本集,再選用5000幅人臉圖片作為測試樣本集,為了保證訓(xùn)練效果,每次訓(xùn)練結(jié)束以后將與上一次訓(xùn)練結(jié)果進(jìn)行比較,若誤差增大,則向負(fù)方向調(diào)整權(quán)值,若減小,則向正方向調(diào)整權(quán)值,從而不斷提升識別準(zhǔn)確性。當(dāng)達(dá)到預(yù)定的訓(xùn)練次數(shù)或達(dá)到預(yù)先設(shè)定的收斂條件時完成訓(xùn)練過程。最后利用測試樣本集觀察學(xué)習(xí)訓(xùn)練效果。

2 結(jié)合CNN的算法改進(jìn)

以上方法是使用一組人工設(shè)計的特征,雖然可以對人臉表情進(jìn)行特征提取,但這種手工設(shè)計提取的特征在一定程度上損失了人臉表情原有的特征信息,或者假設(shè)屬性之間互相獨(dú)立,往往與實(shí)際應(yīng)用環(huán)境不相符合[4]。于是,近年來在機(jī)器學(xué)習(xí)領(lǐng)域出現(xiàn)了以卷積神經(jīng)網(wǎng)絡(luò)(CNN) 為突破點(diǎn)的純數(shù)據(jù)驅(qū)動的特征學(xué)習(xí)算法[5]。卷積神經(jīng)網(wǎng)絡(luò)組合了特征提取、特征選擇和分類三個過程,形成了一種端到端的全自動識別的過程。本文采用卷積神經(jīng)網(wǎng)絡(luò)對人臉表情識別系統(tǒng)進(jìn)行改進(jìn),首先在卷積層中添加多個卷積核實(shí)現(xiàn)一次學(xué)習(xí)多個特征,再將每個卷積層得到的結(jié)果引入池化層中做最大池化處理。再通過全連接層并選擇適當(dāng)?shù)娜B接層的神經(jīng)元數(shù)量,最后利用Softmax層作為分類器得到整個CNN的訓(xùn)練結(jié)果,完成人臉表情的特征提取及分類學(xué)習(xí)。當(dāng)輸入給定樣本后,每一個神經(jīng)元輸出的數(shù)值都在0 到1 之間,該數(shù)值代表了輸入人臉表情圖片樣本屬于該類別的概率,且所有輸出數(shù)值相加等于1,滿足歸一化規(guī)則,符合輸出結(jié)果的概率意義。因此,可以選取輸出值最大的神經(jīng)元所對應(yīng)的類別作為人臉表情的分類結(jié)果。

圖2 人臉表情識別的CNN網(wǎng)絡(luò)結(jié)構(gòu)

參考LENET(一種典型的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu))網(wǎng)絡(luò)結(jié)構(gòu),具體的用于人臉表情識別的CNN網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計如圖2所示。除了輸入層,該網(wǎng)絡(luò)由7 層組成,其中包括3 層卷積層、2層池化層、1 層全連接層和1 層Softmax 層。輸入層是96× 96 的人臉像素矩陣。卷積層和池化層有若干個特征圖,每個特征圖都與其前一層特征圖以局部連接的方式相連接。卷積層分別使用32、64、128 個卷積核進(jìn)行卷積操作,每個卷積層使用的卷積核的大小都為5 × 5。池化層使用的采樣窗口的大小為2 × 2。全連接層含有200個神經(jīng)元,與最后一層卷積層進(jìn)行全連接。Softmax 層含有9 個神經(jīng)元,對全連接層輸出的特征進(jìn)行分類,將人臉表情分成大笑、微笑、抽噎、嚎啕大哭、驚訝、憤怒、厭惡、恐懼、中性共9類。

特別的,在每層池化層之后添加激活層,本文采用修正線性單元(ReLU)作為激活函數(shù)[6],其更能逼近人腦對于視覺處理的神經(jīng)元激活函數(shù),其表達(dá)式為

3 實(shí)驗(yàn)數(shù)據(jù)集的選取

為了保證人臉表情的識別的有效性,需要足夠的已經(jīng)正確分類的人類表情圖片樣本作為訓(xùn)練集。自然的人臉表情樣本難以收集,因?yàn)樵谝欢我曨l中有關(guān)表情的信息較為稀少并且只能持續(xù)非常短暫的時間,而且人工標(biāo)注這些人臉表情耗時耗力且準(zhǔn)確率難以保證。因此,目前對于人臉表情識別的研究都是基于人工生成的樣本。目前許多研究致力于構(gòu)建用于訓(xùn)練和測試情感識別方法的數(shù)據(jù)庫。常用的含有人臉表情視頻的數(shù)據(jù)庫有很多,其中大部分?jǐn)?shù)據(jù)庫的樣本都是被試者表演出來的。

針對本文采用的細(xì)粒度的表情識別策略,可以選取Belfast 自然情感數(shù)據(jù)庫作為訓(xùn)練集和測試集。Belfast 自然情感數(shù)據(jù)庫[7]包含了125個成人的 565 段視頻片段。記錄的表情包括幾種基本和其他表情,最主要的是,該數(shù)據(jù)庫還記錄了每種表情的強(qiáng)度,這剛好符合本研究對于人臉表情進(jìn)行細(xì)粒度分類的任務(wù)要求。因此,相較于其它一些用于表情識別的公開數(shù)據(jù)集,選用Belfast 自然情感數(shù)據(jù)庫更有利于對本文中關(guān)于不同程度精細(xì)分類的表情的識別算法提供充足的訓(xùn)練集,并能夠進(jìn)一步對算法進(jìn)行有效驗(yàn)證。

4 結(jié)論

本文針對人臉表情識別的問題,并為了更精確地區(qū)分出同種表情的不同程度,采用以下3個步驟實(shí)現(xiàn)人臉表情識別系統(tǒng)的設(shè)計。圖像預(yù)處理采用將RGB空間轉(zhuǎn)化為灰度圖像的方法,特征提取采用灰度共生矩陣的紋理分析技術(shù),并基于差分圖像的表情時空提取。采用BP神經(jīng)網(wǎng)絡(luò)的方法作為分類器,其中本文采用的BP神經(jīng)網(wǎng)絡(luò)共三層,將特征向量作為輸入,將被精細(xì)分類后的表情作為編碼輸出,通過不斷地學(xué)習(xí)訓(xùn)練,建立學(xué)習(xí)模型,可用于不同表情精細(xì)化識別系統(tǒng)。同時,結(jié)合深度學(xué)習(xí)技術(shù)構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),進(jìn)一步提高了表情識別的精確度,具有較高的科研價值和實(shí)用前景。

猜你喜歡
特征提取特征
抓住特征巧觀察
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識別
新型冠狀病毒及其流行病學(xué)特征認(rèn)識
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
抓住特征巧觀察
Bagging RCSP腦電特征提取算法
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 色妞www精品视频一级下载| 日韩第八页| 成人午夜天| 亚洲成人动漫在线| 免费毛片视频| 国产精品微拍| 国产人免费人成免费视频| 国产女人综合久久精品视| 精品视频福利| 国产麻豆精品在线观看| 538国产视频| 国产一级做美女做受视频| 老司机午夜精品视频你懂的| 91网在线| 精品无码一区二区在线观看| 激情五月婷婷综合网| 波多野结衣久久精品| 永久免费无码日韩视频| 日韩欧美视频第一区在线观看| 丰满人妻被猛烈进入无码| 欧美精品高清| 精品国产女同疯狂摩擦2| 欧美一级视频免费| 熟妇人妻无乱码中文字幕真矢织江 | 国产成人91精品| 综合社区亚洲熟妇p| 中文字幕在线观| 欧美日韩一区二区在线播放 | av免费在线观看美女叉开腿| 超级碰免费视频91| 亚洲综合色区在线播放2019| 九九久久精品国产av片囯产区| 成人在线天堂| 欧美日韩国产在线播放| 欧美国产在线一区| 毛片在线播放网址| 996免费视频国产在线播放| 99久久精品国产自免费| 亚洲欧美日韩另类在线一| 国产久操视频| 日韩欧美国产中文| 久久久久88色偷偷| 激情视频综合网| yy6080理论大片一级久久| 全裸无码专区| 欧美亚洲中文精品三区| 强奷白丝美女在线观看| 日本亚洲成高清一区二区三区| 九九热在线视频| 国产午夜福利片在线观看| 在线观看av永久| 一级毛片在线免费视频| 久久综合婷婷| 最新国产在线| 国产不卡网| 成·人免费午夜无码视频在线观看 | 67194在线午夜亚洲| 亚洲视屏在线观看| 女人18一级毛片免费观看| 制服丝袜在线视频香蕉| 成人韩免费网站| 色欲色欲久久综合网| 国产精品va| 色国产视频| 台湾AV国片精品女同性| 精品夜恋影院亚洲欧洲| 亚洲美女AV免费一区| 国产日韩欧美中文| 亚洲精品国产综合99| 国产精品欧美日本韩免费一区二区三区不卡| 亚洲精品成人7777在线观看| 强奷白丝美女在线观看| 久久公开视频| 99视频精品在线观看| 亚洲天堂色色人体| 国产在线自揄拍揄视频网站| 国产97视频在线观看| 国产在线观看99| 久久久亚洲色| 亚洲视频一区| 91久久偷偷做嫩草影院精品| 色综合久久无码网|