999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別

2015-04-12 00:00:00汪濟民陸建峰
現(xiàn)代電子技術(shù) 2015年7期

摘 要: 人臉性別識別是人臉識別的重要組成部分,但是人臉識別容易受到光照、旋轉(zhuǎn)、平移、遮擋等因素的影響。將卷積神經(jīng)網(wǎng)絡(luò)引入到人臉性別識別中,該網(wǎng)絡(luò)的結(jié)構(gòu)具有稀疏連接和權(quán)值共享的優(yōu)點,卷積層和采樣層交替進行,簡化了模型的復(fù)雜度。實驗表明,該方法的網(wǎng)絡(luò)結(jié)構(gòu)有效地克服了旋轉(zhuǎn)、遮擋等因素的影響,具有較好的魯棒性。

關(guān)鍵詞: 人臉性別識別; 卷積神經(jīng)網(wǎng)絡(luò); 稀疏連接; 權(quán)值共享

中圖分類號: TN911.73?34 文獻標識碼: A 文章編號: 1004?373X(2015)07?0081?04

0 引 言

隨著計算機等高新技術(shù)的快速發(fā)展,計算機已越來越走向數(shù)字化、網(wǎng)絡(luò)化和智能化。生物特征識別技術(shù)也以此為基礎(chǔ)迅速發(fā)展,人臉包含性別、身份、種族、年齡等大量信息,具有自然性、方便性和非接觸性等優(yōu)點,是人類最明顯,最重要的生物特征。如何利用計算機自動識別人臉,近年來已發(fā)展成為模式識別和計算機視覺領(lǐng)域非常重要的研究課題之一。

人臉性別識別是基于人臉身份識別開展起來的,在安防領(lǐng)域和視頻監(jiān)控中有著重要的應(yīng)用。目前高級的人臉識別系統(tǒng)可以首先判斷出性別,縮小搜索范圍,然后識別出被識別者是誰,這使得人臉識別的檢索效率和準確率都會有所提高,從而使人臉身份識別和性別識別互相促進,整個人臉識別更加全面,更加豐富。人臉性別識別也作為人機交互的特殊一部分,通過計算機識別用戶性別,可以極大地改善呆板、不方便的人機交互環(huán)境,為用戶提供更為人性化的服務(wù)。在一些大型商場安裝人臉性別識別系統(tǒng),用于商品的視頻檢索、商場的客流監(jiān)控,可以給用戶提供相應(yīng)的服務(wù),可以更好地促進商品銷售。

正因為人臉性別識別在身份認證、視頻監(jiān)控、人機交互以及機器人視覺中存在潛在的應(yīng)用而備受關(guān)注。

1 相關(guān)工作

人臉性別識別的研究始于20世紀90年代,由國外一些大學(xué)或者研究機構(gòu)最先開始研究。人臉性別識別的工作流程如圖1所示,研究的關(guān)鍵問題在于特征提取和分類器的選擇。B.A.Golomb等人首先利用全連接的兩層神經(jīng)元網(wǎng)絡(luò)作為分類器,通過對分類器訓(xùn)練,識別出人臉圖像。之后,有人提出了將BP神經(jīng)網(wǎng)絡(luò)、RBF神經(jīng)網(wǎng)絡(luò)、人工神經(jīng)網(wǎng)絡(luò)、特征臉和分類器相結(jié)合[1]等方法應(yīng)用于人臉性別識別中。但是這些神經(jīng)網(wǎng)絡(luò)方法都存在著網(wǎng)絡(luò)結(jié)構(gòu)模型復(fù)雜、訓(xùn)練時間長、魯棒性差等缺點。

卷積神經(jīng)網(wǎng)絡(luò)是將人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)相結(jié)合而產(chǎn)生的新型人工神經(jīng)網(wǎng)絡(luò)方法,是為了識別二維形狀而設(shè)計的多層感知器,具有局部感知區(qū)域、層次結(jié)構(gòu)化、特征抽取和分類過程結(jié)合的全局訓(xùn)練的特點。Fukushima提出的基于神經(jīng)元之間的局部連接型和層次結(jié)構(gòu)組織的Neocogition模型是卷積神經(jīng)網(wǎng)絡(luò)的第一個實現(xiàn)網(wǎng)絡(luò)。LeCun等人設(shè)計并采用基于誤差梯度的算法訓(xùn)練了卷積神經(jīng)網(wǎng)絡(luò)[2],在一些模式識別領(lǐng)域取得非常好的性能,并且給出了卷積神經(jīng)網(wǎng)絡(luò)公式的推導(dǎo)和證明[3]。卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成功地應(yīng)用到了文檔分析[4]、人臉檢測[5]、語音檢測[6]、車牌識別[7]、手寫數(shù)字識別[8]、視頻中的人體動作識別[9]、人臉特征點的檢測[10]等各個方面。

圖1 人臉性別識別流程圖

卷積神經(jīng)網(wǎng)絡(luò)具有如下優(yōu)點:

(1)輸入圖像和網(wǎng)絡(luò)的拓撲結(jié)構(gòu)能很好地吻合,可以避免對圖像復(fù)雜的前期預(yù)處理,直接輸入原始圖像。

(2)特征提取和模式分類同時進行,并且一個計算層由多個特征映射組成,可以通過學(xué)習(xí)訓(xùn)練優(yōu)化得到。

(3)神經(jīng)元之間的連接是非全連接,且同一層中某些神經(jīng)元之間的連接權(quán)值是共享的,這種非全連接和權(quán)值共享的網(wǎng)絡(luò)結(jié)構(gòu)降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量。

2 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)包括前向傳播和反向傳播,卷積層和采樣層交替進行。卷積層后有一個下采樣層來減少計算時間和建立空間與結(jié)構(gòu)上的不變性。

前向傳播就是從輸入?yún)?shù)到輸出結(jié)果計算一次。上一層的輸出就是當前層的輸入,然后通過激活函數(shù),計算出當前層的輸出,逐層傳遞下去,所以當前層的輸出可以表示為:

[xl=f(Wlxl-1+bl)] (1)

式中:[l]代表層數(shù);[W]表示權(quán)值;[b]是一個偏置;[f]是激活函數(shù),常見的激活函數(shù)為sigmoid或者雙曲正切函數(shù)(tanh)。

反向傳播就是從前向傳播計算出的結(jié)果和給定樣本的標簽做誤差運算,考慮平方差損失函數(shù),對于包含[c]個類別,[N]個訓(xùn)練樣本的多分類問題,誤差函數(shù)表示為:

[EN=12n=1Nk=1c(tnk-ynk)2] (2)

式中:[tnk]表示第[n]個樣本對應(yīng)的標簽的第[k]維;[ynk]表示第[n]個樣本對應(yīng)的網(wǎng)絡(luò)輸出的第[k]個輸出。

反向傳播會更新卷積層,上一層的特征映射和一個可以訓(xùn)練的核進行卷積運算,卷積運算的結(jié)果經(jīng)過激活函數(shù)后的輸出形成了這一層的特征映射。每一個輸出映射可能與上一層的幾個特征映射的卷積有關(guān)系。卷積層的一般形式為:

[xlj=fi∈Mjxl-1i*klij+blj] (3)

式中:[l]代表層數(shù);[k]是卷積核;[Mj]表示輸入特征的一個選擇;[b]是一個偏置。

下采樣操作并沒有改變特征映射的數(shù)目,只是將特征映射的大小變小。如果采樣算子大小為[n×n,]那么經(jīng)過一次下采樣,特征映射的大小變?yōu)樵瓉硖卣鞯腫1n。]下采樣的一般形式為:

[xlj=f(βljdown(xl-1j)+blj)] (4)

式中down(·)表示一個下采樣函數(shù)。

3 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)模型如圖2所示,不包括輸入層,由七層組成,每一層都包括可以訓(xùn)練的參數(shù)(權(quán)值)。輸入層是32×32的人臉像素矩陣,計算流程在卷積層和下采樣層之間交替進行。卷積層和下采樣層的連接方式為隨機條件下的非全連接,目的在于打破其相關(guān)性。每個卷積層所采用卷積核的大小都是5×5,采樣層的采樣窗口的大小為2×2。采樣函數(shù)為max?pool最大池化進行采樣,因為最大池化更合適人臉特征的下采樣。激活函數(shù)采用糾正線性單元(Rectified Linear Units,ReLU)[10],而不是常用的sigmoid或者tanh,因為ReLU更能產(chǎn)生稀疏性。ReLU是線性修正,公式為[f(x)=max(0,x),]是purelin的折線版,它的作用是如果計算出的值小于0,就讓它等于0,否則保持原來的值不變,這是一種簡單的強制某些數(shù)據(jù)為0的方法,然而實踐證明[11]:訓(xùn)練后的網(wǎng)絡(luò)完全具備適度的稀疏性,和傳統(tǒng)的預(yù)訓(xùn)練出的結(jié)果相似,說明了ReLU具備引導(dǎo)適度稀疏的能力。

圖2 LeNet?5網(wǎng)絡(luò)結(jié)構(gòu)示意圖

第一層是卷積層([C1]),卷積核的大小為5×5,即每個神經(jīng)元指定一個5×5局部接受域,所以卷積操作以后得到的映射大小就變成了28×28。包括8個特征映射,即有8個不同的[C1]層,每個[C1]層內(nèi)的權(quán)值是相同的。

第二層是采樣層([S2]),[S2]是對[C1]用2×2的窗口進行最大池下采樣操作得到的,所以得到的特征映射大小為14×14,下采樣并沒有改變特征映射的數(shù)目,所以特征映射的個數(shù)還是8個。每個神經(jīng)元還包括一個可訓(xùn)練的系數(shù)、一個可訓(xùn)練的偏置和一個激活函數(shù)ReLU。

第三層還是卷積層([C3]),卷積核大小是5×5,同理可得[C3]特征映射的大小為10×10,只是特征的個數(shù)變成了32個。

第四層是采樣層([S4]),還是用2×2的窗口進行最大池下采樣,所以得到32個5×5的特征映射。

第五層是卷積層([C5]),還是5×5的卷積核進行卷積,得到128個1×1的特征映射。

第六層包括84個神經(jīng)元,和[C5]進行全連接。

第七層是輸出層,因為性別識別是個二元判斷問題,所以只包括2個神經(jīng)元,是由徑向基函數(shù)單元組成。RBF的輸出[yi]的計算公式如下:

[yi=j(xj-wij)2] (5)

4 實驗結(jié)果

4.1 實驗數(shù)據(jù)

本文實驗數(shù)據(jù)來自于AR人臉數(shù)據(jù)庫,包括50個男性和50個女性,每個人選取5張不同的照片,包括不同的光照、表情、膚色、種族等,總共500張人臉圖片。利用交叉驗證的方法,400張圖片做訓(xùn)練,100張圖片做測試,實驗5次。灰度值在輸入之前線性歸一化到[0,1]。卷積層和采樣層交替運算,訓(xùn)練和測試同時進行,迭代20次,迭代結(jié)果如圖3所示。實驗分為三種情況:正常圖片、遮擋圖片(遮擋部分用黑色填充,從最下端開始遮擋的高度依次為5 px,10 px,15 px,20 px)、旋轉(zhuǎn)圖片(順時針旋轉(zhuǎn)5°,10°,15°,20°,25°,30°)。表1為正常圖片的實驗結(jié)果,表2為遮擋圖片的實驗結(jié)果,表3為旋轉(zhuǎn)圖片的實驗結(jié)果。

圖3 訓(xùn)練迭代結(jié)果圖

表1 正常圖片的實驗結(jié)果 %

[\第一組\第二組\第三組\第四組\第五組\平均值\兩層BP神經(jīng)網(wǎng)絡(luò)\89\92\93\90\91\91.8\卷積神經(jīng)網(wǎng)絡(luò)\93\96\95\94\95\94.6\]

表2 遮擋圖片的實驗結(jié)果(平均值) %

[\5 px\10 px\15 px\20 px\兩層BP神經(jīng)網(wǎng)絡(luò)\87.8\83.6\74.4\64.8\卷積神經(jīng)網(wǎng)絡(luò)\93.8\90.2\86.8\80.2\]

表3 旋轉(zhuǎn)圖片的實驗結(jié)果(平均值) %

[\5°\10°\15° \20° \25°\30°\兩層BP神經(jīng)網(wǎng)絡(luò)\86.2\83.4\75.8\70.8\66.2\60.8\卷積神經(jīng)網(wǎng)絡(luò)\92.8\88.6\86.2\82.6\80.4\78.6\]

4.2 實驗結(jié)果分析

通過實驗結(jié)果可以看出,在正常圖片下,兩層BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)都達到了較高的準確率,BP神經(jīng)網(wǎng)絡(luò)的準確率也接近于92%,兩種算法的準確率相差很小。

當遮擋面積很小時(遮擋最下面5 px),BP神經(jīng)網(wǎng)絡(luò)的準確率也依然很高(87.8%),但是當遮擋面積較大時(遮擋超過15 px),兩層BP神經(jīng)網(wǎng)絡(luò)的準確率出現(xiàn)較大幅度的下降,因為當遮擋15 px時,此時嘴巴已經(jīng)被遮擋了,當遮擋20 px,鼻子也已經(jīng)被遮擋了,BP神經(jīng)網(wǎng)絡(luò)能夠提取到的有效特征變得很少了,準確率沒有超過65%。而卷積神經(jīng)網(wǎng)絡(luò)當遮擋出現(xiàn)時,雖然準確率也會下降,但是下降的幅度比較小,即使當遮擋20 px,依然可以達到80%以上的準確率,這是因為卷積神經(jīng)網(wǎng)絡(luò)更能夠有效地提取不明顯的特征,相比于兩層BP神經(jīng)網(wǎng)絡(luò)具有更好的抗干擾性和魯棒性。

旋轉(zhuǎn)的情況和遮擋類似,在旋轉(zhuǎn)角度很小(小于5°)的情況下,BP神經(jīng)網(wǎng)絡(luò)還有比較高的準確率。當旋轉(zhuǎn)角度超過15°時,準確率會有比較明顯的下降,當旋轉(zhuǎn)達到30°時,準確率下降到60%,而卷積神經(jīng)網(wǎng)絡(luò)具有較高的準確率,接近80%的準確率。這是因為在提取特征時,每一個神經(jīng)元只從上一層的局部接受域得到突觸輸入,一旦一個特征被提取出來,只要它相對于其他特征的位置被近似地保留下來,它的精確位置就變得沒有那么重要了。

實驗結(jié)果表明,無論是在遮擋還是旋轉(zhuǎn)的情況下,卷積神經(jīng)網(wǎng)絡(luò)相比于兩層BP神經(jīng)網(wǎng)絡(luò)具有更好的魯棒性。

5 結(jié) 語

卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的一種方法,憑借其在二維圖像上的卓越性能,被越來越廣泛地應(yīng)用于各個領(lǐng)域中。本文將其引入到人臉性別識別領(lǐng)域并取得了一定的分類準確率。

今后的研究工作將綜合考慮每一層特征映射的關(guān)系,進一步優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),同時思考將卷積神經(jīng)網(wǎng)絡(luò)引入其他相關(guān)領(lǐng)域,如視頻人臉檢測當中。

參考文獻

[1] 劉遵雄,馬汝成.基于特征臉和LS?SVM分類器的人臉性別分類[J].華東交通大學(xué)學(xué)報,2007,24(5):85?88.

[2] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient?based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278?2324.

[3] BOUVRIE J. Notes on convolutional neural networks [J/OL]. [ 2012?04?03]. http://www.docin.com.

[4] SIMARD P Y, STEINKRAUS D, PLATT J C. Best practices for convolutional neural networks applied to visual document analysis [C]// 2013 12th International Conference on Document Analysis and Recognition. [S.l.]: IEEE Computer Society, 2003, 2: 958?961.

[5] TIVIVE F H C, BOUZERDOUM A. A new class of convolutional neural networks (SICoNNets) and their application of face detection [C]// 2003 Proceedings of the International Joint Conference on Neural Networks. [S.l.]: IEEE, 2003, 3: 2157?2162.

[6] SUKITTANON S, SURENDRAN A C, PLATT J C, et al. Convolutional networks for speech detection [C]// 8th International Conference on Spoken Language Processing. Jeju Island, Korea: INTERSPEECH, 2004:11?14.

[7] CHEN Y N, HAN C C, WANG C T, et al. The application of a convolution neural network on face and license plate detection [C]// 2006. ICPR 2006. 18th International Conference on Pattern Recognition. [S.l.]: IEEE, 2006, 3: 552?555.

[8] LAUER F, SUEN C Y, BLOCH G. A trainable feature extractor for handwritten digit recognition [J]. Pattern Recognition, 2007, 40(6): 1816?1824.

[9] JI S, XU W, YANG M, et al. 3D convolutional neural networks for human action recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 221?231.

[10] SUN Y, WANG X, TANG X. Deep convolutional network cascade for facial point detection [C]// 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]: IEEE, 2013: 3476?3483.

[11] MAAS A L, HANNUN A Y, NG A Y. Rectifier nonlinearities improve neural network acoustic models [C]// ICML Workshop on Deep Learning for Audio, Speech, and Language Processing. [S.l.]: [s.n.], 2013: 111?120.

[12] 顧佳玲,彭宏京.增長式卷積神經(jīng)網(wǎng)絡(luò)及其在人臉檢測中的應(yīng)用[J].系統(tǒng)仿真學(xué)報,2009(9):2441?2445.

主站蜘蛛池模板: 在线看免费无码av天堂的| 欧美亚洲国产精品久久蜜芽| 国产情侣一区| 欧美一区二区三区国产精品| 四虎永久在线视频| 99在线视频免费观看| 亚洲免费毛片| 日韩中文字幕亚洲无线码| 国产乱人乱偷精品视频a人人澡| 91成人免费观看| 国产99视频精品免费视频7| 亚洲欧洲日韩久久狠狠爱| 久久精品波多野结衣| 青青青伊人色综合久久| 欧洲一区二区三区无码| 日本午夜三级| 国产无码制服丝袜| 国产黄色片在线看| 成年片色大黄全免费网站久久| 国产欧美在线观看一区| 国产精品女主播| 国产成人一二三| 亚洲精品视频网| 97精品国产高清久久久久蜜芽| 黄色网在线| 在线不卡免费视频| 中文字幕永久在线观看| 日日噜噜夜夜狠狠视频| 亚洲综合中文字幕国产精品欧美| 精品少妇人妻无码久久| 成人欧美在线观看| 欧美一道本| 国产精品天干天干在线观看| 国产精品2| 国产精品亚洲片在线va| 国产对白刺激真实精品91| 国产精品微拍| 国产91透明丝袜美腿在线| 人妻21p大胆| 青青操国产视频| 亚洲日韩精品伊甸| 国产精品熟女亚洲AV麻豆| 91热爆在线| 污污网站在线观看| 成人在线亚洲| 99久久国产综合精品女同| 在线人成精品免费视频| 国产福利一区在线| 色哟哟国产精品| 国产成人精品综合| a毛片在线| 国产午夜无码片在线观看网站 | 99久久精品国产麻豆婷婷| 成人免费视频一区| 熟妇丰满人妻av无码区| 亚洲午夜国产片在线观看| 成人韩免费网站| 一本色道久久88| 亚洲色图欧美激情| 日韩一区二区三免费高清| 久视频免费精品6| 中文字幕av一区二区三区欲色| 精品人妻系列无码专区久久| 国产高颜值露脸在线观看| 自偷自拍三级全三级视频 | 国产性爱网站| 亚国产欧美在线人成| 欧美日韩国产在线人成app| 国产中文一区二区苍井空| 奇米影视狠狠精品7777| 国产精品开放后亚洲| 伊人久久青草青青综合| 国产资源免费观看| 国产毛片不卡| 日韩成人在线网站| 国产不卡在线看| 精品人妻AV区| 欧美区国产区| 久久精品国产精品青草app| 久久亚洲中文字幕精品一区| 国产网站一区二区三区| 丁香五月婷婷激情基地|