999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法*

2017-08-02 08:59:31于達(dá)嶺黃洪瓊
關(guān)鍵詞:人臉識(shí)別特征提取特征

于達(dá)嶺,黃洪瓊

(上海海事大學(xué) 信息工程學(xué)院,上海 201306)

?

一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法*

于達(dá)嶺,黃洪瓊

(上海海事大學(xué) 信息工程學(xué)院,上海 201306)

近年來,隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)廣泛運(yùn)用到圖像識(shí)別領(lǐng)域,它不僅提高了識(shí)別的準(zhǔn)確率,同時(shí)自特征提取方面的效果也優(yōu)于許多傳統(tǒng)的算法。提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法。該方法主要涉及兩方面,一是使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練集進(jìn)行特征提??;二是將提取的特征圖片輸入改進(jìn)的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練及識(shí)別。通過MATLAB進(jìn)行了仿真實(shí)驗(yàn),對(duì)比結(jié)果表明卷積神經(jīng)網(wǎng)絡(luò)有很好的特征提取性能及良好識(shí)別效果,比現(xiàn)有的算法有很大的優(yōu)勢(shì)。

人臉識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);特征提取

0 引言

人臉識(shí)別是近年來機(jī)器學(xué)習(xí)與模式識(shí)別等人工智能領(lǐng)域的研究熱點(diǎn)之一,也是生物特征識(shí)別技術(shù)中發(fā)展較快的技術(shù)之一。目前,人臉識(shí)別已經(jīng)廣泛應(yīng)用于視頻監(jiān)控、人機(jī)交互、門禁安全等領(lǐng)域。傳統(tǒng)的人臉識(shí)別方法有下列幾種:(1)基于幾何特征[1]的人臉識(shí)別。通常使用邊緣檢測(cè)與投影函數(shù)等方法提取人臉主要器官的特征,并且匹配各種距離公式。幾何特征方法普適性及穩(wěn)定性較好,但是學(xué)習(xí)效率不高,學(xué)習(xí)能力也相對(duì)較弱。(2)基于隱馬爾可夫模型[2]的人臉識(shí)別。該方法能夠運(yùn)用面部各器官的聯(lián)系以及其不同的特征,且具有一定的魯棒性。然而其公式較為復(fù)雜、計(jì)算量大,訓(xùn)練過程易出錯(cuò)且時(shí)間長(zhǎng)。且馬爾科夫模型依賴于對(duì)圖像前期的預(yù)處理,識(shí)別率不高且在在一定程度上受光照的影響。(3)基于主成分分析法[3](Principal Component Analysis,PCA)的人臉識(shí)別。將圖像二維矩陣轉(zhuǎn)化為一維矩陣后維度大大增加,增加了計(jì)算的復(fù)雜度。K-L(Karhumen-Loeve)變換雖然可以有效地將維度降低之后再進(jìn)行特征提取,然而該過程也大大地延長(zhǎng)了算法的特征提取時(shí)間。且PCA算法容易受到光照明暗等外界因素的影響。(4)基于人工神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別。其中具有代表性的是BP(Back-Propogation)算法[4],該算法具備了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)能力較強(qiáng)且抗干擾能力較強(qiáng)的特點(diǎn),有良好的非線性映射能力,容錯(cuò)能力和泛化能力較好,有很好的魯棒性。然而標(biāo)準(zhǔn)的BP算法容易陷入局部極小值而不能得到全局最優(yōu),且識(shí)別結(jié)果的優(yōu)劣依賴人工選取特征合理性。

通過以上分析能夠看出,現(xiàn)有方法都多多少少存在不足,本文提出的基于卷積神經(jīng)網(wǎng)絡(luò)[5-7](Convolutional Neutral Network,CNN)的識(shí)別算法能夠自動(dòng)地學(xué)習(xí)輸入人臉圖片的特征以及分類,避免了圖像前期的預(yù)處理。實(shí)驗(yàn)證明,基于卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別算法具有良好的特征提取[8]性能以及較高的識(shí)別精度。

1 卷積神經(jīng)網(wǎng)絡(luò)

1.1 網(wǎng)絡(luò)結(jié)構(gòu)

與其他神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)[9]不同之處在于其在輸入層前加入了卷積層。卷積神經(jīng)網(wǎng)絡(luò)主要分為:輸入層、卷積層、降采樣(池化)層、全連層、輸出層,其結(jié)構(gòu)主要由卷積層(C)同下采樣層(S)相互交替并在尾部與一個(gè)全連接層(F)相接,如圖1所示。

圖1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

圖1中,C1層即為卷積層。卷積層的工作是通過一個(gè)可學(xué)習(xí)的卷積核(特征矩陣)與前一層的圖像矩陣,按一定的順序依次與對(duì)應(yīng)位置的像素相乘,將相乘所得結(jié)果加權(quán)求和得到一個(gè)值。當(dāng)卷積完成時(shí),會(huì)產(chǎn)生新的圖像矩陣。卷積層的對(duì)前一層特征提取的工作完成。實(shí)現(xiàn)算法為:卷積層輸出=sigmoid(sum(卷積)+偏置)。數(shù)學(xué)公式為:

(1)

其中,f(·)為激活函數(shù),通常是sigmoid,其公式為:

(2)

Mj表示選擇的輸入maps的集合,b為偏置。

S2為降采樣層,也叫作池化層。CNN的降采樣方法有很多,本文采取的是最經(jīng)典的最大池化。該層在CNN的主要作用為對(duì)前一層卷積層特征進(jìn)行降維。所有降采樣層最大池化工作原理如下:將前一層輸入的像素矩陣平均分為若干個(gè)n×n的像素矩陣塊,取每個(gè)矩陣塊里的最大值作為該矩陣的新值,這樣便形成一個(gè)大小為原來1/n的新特征矩陣。過程如圖2所示。

圖2 跨步為2的最大池化過程

降采樣層大大減少了計(jì)算量,并且有效地避免因特征過多而產(chǎn)生的過擬合現(xiàn)象。

1.2 CNN訓(xùn)練過程

本次研究所采用的CNN網(wǎng)絡(luò)結(jié)構(gòu)[9]分為6層,包含了2層卷積層、2層降采樣層以、1層全連接層,如圖1 所示。CNN網(wǎng)絡(luò)模型特征的學(xué)習(xí)步驟如下:

(1)FERET人臉庫(kù)所采用的圖片像素統(tǒng)一為80×80的人臉圖,故不必在對(duì)圖片進(jìn)行歸一化。在輸入層二值化處理后便可輸入網(wǎng)絡(luò)。

(2)C1層的卷積操作中,采用5×5的卷積核對(duì)輸入像素為80×80的人臉圖像進(jìn)行卷積操作。本文設(shè)置的特征圖像為9幅,卷積后得到的特征圖大小為76×76。本文所提取的特征圖即為C1層卷積后的9幅特征圖。

(3)S2降采樣層對(duì)C1層的新特征矩陣進(jìn)行采樣,采樣的大小為(2,2),跨步為2,后面采取最大池化,得到38×38的新矩陣。特征圖仍為9幅。

(4)C3層對(duì)S2層再次進(jìn)行卷積操作。卷積核為5×5,特征圖片由原先9幅設(shè)置為5幅,大小為34×34。

(5)S4為第二個(gè)下采樣層,同S2,采樣大小仍為(2,2),跨步為2,大小為17×17。

(6)F5層為全連接層。全連接層就是把輸出層的神經(jīng)元同輸入層每個(gè)神經(jīng)元都連接,神經(jīng)元數(shù)目通常與分類個(gè)數(shù)有關(guān),本文在輸出層設(shè)置2個(gè)神經(jīng)元。

之后,使用FP(前向傳播)、BP(反向傳播)等算法,網(wǎng)絡(luò)會(huì)自動(dòng)調(diào)整偏置、權(quán)重等未知參數(shù),整個(gè)網(wǎng)絡(luò)的訓(xùn)練模型構(gòu)造完成。

2 實(shí)驗(yàn)

2.1 數(shù)據(jù)集

本文所采用的人臉數(shù)據(jù)庫(kù)包括兩個(gè)部分:FERET人臉庫(kù)以及Cohn-Kanade表情庫(kù)的各個(gè)部分峰值表情圖。FERET人臉庫(kù)由美國(guó)軍方項(xiàng)目組Feret(Face Recognition Technology)所建,包括200個(gè)人,每人7幅,共1 400張圖,包含了不同的表情、姿態(tài)以及光照條件,是人臉識(shí)別領(lǐng)域常用的數(shù)據(jù)庫(kù)之一。Cohn-Kanada庫(kù)中選取了6類不同峰值表情圖各40張,這些圖包含了表情、光照、色彩等變化。FERET部分人臉樣本如圖3所示。

圖3 FERET部分人臉樣本

Cohn-Kanada部分人臉樣本如圖4所示。

圖4 Cohn-Kanada部分人臉樣本

2.2 實(shí)驗(yàn)結(jié)果及分析

本文將C1層的輸出結(jié)果作為特征圖片。通過提取大量的特征圖片,再將提取的特征圖片作為訓(xùn)練集1,用原人臉樣本作為訓(xùn)練集2,分別輸入卷積神經(jīng)網(wǎng)絡(luò),通過同樣的測(cè)試樣本,對(duì)比其識(shí)別率。在MATLAB程序中,本文的學(xué)習(xí)效率(alpha)設(shè)置為1,批次(batchsize)設(shè)置為50,迭代次數(shù)(numpochs)設(shè)置為10。

因?yàn)楸疚牡挠?xùn)練樣本較少,為了更好地防止模型的過擬合,在網(wǎng)絡(luò)的輸出層之前加上dropout層。文獻(xiàn)[10]中提到,在每個(gè)批次中,通過忽略一定比例的特征檢測(cè)器(將該比例隱層節(jié)點(diǎn)值設(shè)為0),可以明顯地減少過擬合現(xiàn)象。而dropout層會(huì)以一定概率讓一些隱藏的神經(jīng)元節(jié)點(diǎn)失效,以減少實(shí)際訓(xùn)練參數(shù),從而達(dá)到充分防止過擬合的效果。本文dropout設(shè)置為0.5。

為了驗(yàn)證本文所提出方法的有效性,實(shí)驗(yàn)分三組進(jìn)行。

(1)用原樣本輸入卷積神經(jīng)網(wǎng)絡(luò)。FERET人臉庫(kù)中有400個(gè)人的人臉圖,每人包含7張不同角度的人臉灰度圖。取每個(gè)人7張人臉圖的前6張作為訓(xùn)練樣本,后1張作為測(cè)試樣本。Cohn-kanade人臉庫(kù)中,取6種不同表情共1 656張人臉圖作為訓(xùn)練樣本。取其中6種不同表情剩余共 256張人臉作為測(cè)試樣本。測(cè)試結(jié)果如表1所示。

表1 ORL、Cohn-Kanade人臉庫(kù)樣本識(shí)別率

(2)使用卷積神經(jīng)網(wǎng)絡(luò)C1層提取的特征人臉圖片輸入卷積神經(jīng)網(wǎng)絡(luò)。用卷積神經(jīng)網(wǎng)絡(luò)對(duì)本文所用的FERET及Cohn-Kanade選取人臉庫(kù)進(jìn)行特征提取,選取與實(shí)驗(yàn)(1)中相同的樣本作為測(cè)試樣本,輸入到卷積神經(jīng)網(wǎng)絡(luò)。提取的特征人臉識(shí)別率如表2所示。部分特征提取圖如圖5所示。

圖5 部分特征提取圖

人臉庫(kù)(特征圖)訓(xùn)練樣本測(cè)試樣本識(shí)別率/%誤識(shí)率/%FERET120020099.80.2Cohn-Kanade140025699.50.5

(3)將實(shí)驗(yàn)(1)和實(shí)驗(yàn)(2)中的原樣本以及特征樣本各一半樣本輸入神經(jīng)網(wǎng)絡(luò)。使用實(shí)驗(yàn)(1)中所用的600張F(tuán)ERET人臉圖以及實(shí)驗(yàn)(2)中所用的另外600張F(tuán)ERET特征提取圖作為訓(xùn)練集,測(cè)試集仍為實(shí)驗(yàn)(1)中選取的200張人臉圖。Cohn-Kanade庫(kù)中,同樣選取實(shí)驗(yàn)(1)中所用的700張灰度圖加上實(shí)驗(yàn)(2)中使用的另外700張?zhí)卣鲌D作為訓(xùn)練樣本,測(cè)試樣本仍為實(shí)驗(yàn)(1)中所選取的256張?jiān)四槇D。測(cè)試結(jié)果如表3所示。

表3 原樣本+特征樣本的識(shí)別率

從實(shí)驗(yàn)(1)得出,經(jīng)過改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)在樣本較少的情況下仍能克服光照、表情等條件變化,保持很高的識(shí)別率,展示出了較強(qiáng)的抗畸變和泛化能力以及廣闊的應(yīng)用前景。

對(duì)比實(shí)驗(yàn)(1)、(2)、(3)的結(jié)果可以發(fā)現(xiàn),經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)第一個(gè)卷積層提取的特征圖片訓(xùn)練后的識(shí)別效果要優(yōu)于原人臉圖庫(kù)。由此也可以得出卷積神經(jīng)網(wǎng)絡(luò)具有良好的特征提取性能。

3 結(jié)論

本文將卷積神經(jīng)網(wǎng)絡(luò)運(yùn)用到人臉識(shí)別當(dāng)中,并在實(shí)驗(yàn)中取得了良好的識(shí)別率。通過大量樣本進(jìn)行實(shí)驗(yàn)得出,在處理二維圖像時(shí),避免了前期復(fù)雜的預(yù)處理及繁瑣的人工特征提取過程,表現(xiàn)出了良好的特征提取性能,同時(shí)能夠較好地解決過擬合問題。雖然卷積神經(jīng)網(wǎng)絡(luò)在圖像處理方面有良好的識(shí)別效果,然而仍然存在一些不足,其網(wǎng)絡(luò)結(jié)構(gòu)往往是根據(jù)特定的圖像數(shù)據(jù)庫(kù)進(jìn)行設(shè)計(jì),最佳參數(shù)及算法的優(yōu)化仍需依賴于研究者的經(jīng)驗(yàn),有很大的主觀性。而在對(duì)自然圖像進(jìn)行分類和識(shí)別時(shí),初始參數(shù)的選擇以及網(wǎng)絡(luò)結(jié)構(gòu)的選擇會(huì)對(duì)訓(xùn)練產(chǎn)生很大的影響,下一步將基于上述問題進(jìn)行進(jìn)一步探索。

[1] 李建中,雷立禮,黎灝,等.基于幾何特征的動(dòng)態(tài)人臉識(shí)別[J]. 科學(xué)技術(shù)與工程, 2010, 10(28):6894-6898.

[2] 余龍華, 王宏, 鐘洪聲. 基于隱馬爾科夫模型的人臉識(shí)別[C].2011嵌入式技術(shù)開發(fā)論壇, 2011.

[3] 黃華盛, 楊阿慶. 基于PCA算法的人臉識(shí)別[J]. 電子科技, 2015, 28(8):98-101.

[4] 韓力群. 人工神經(jīng)網(wǎng)絡(luò)理論、設(shè)計(jì)及應(yīng)用[M]. 北京:化學(xué)工業(yè)出版社, 2007.

[5] 鄧柳, 汪子杰. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別研究[J]. 計(jì)算機(jī)應(yīng)用研究, 2016, 33(3):930-932.

[6] 張昭旭. CNN深度學(xué)習(xí)模型用于表情特征提取方法探究[J]. 現(xiàn)代計(jì)算機(jī), 2016(3):41-44.

[7] 張弛. 基于卷積神經(jīng)網(wǎng)絡(luò)的鞋印圖像分類算法研究[D]. 大連:大連海事大學(xué), 2016.

[8] 趙亮, 王曉峰, 袁逸濤,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的船舶識(shí)別方法研究[J]. 艦船科學(xué)技術(shù), 2016, 38(15):119-123.

[9] 操小文, 薄華. 基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別研究[J]. 微型機(jī)與應(yīng)用, 2016, 35(9):55-57.

[10] HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. Computer Science, 2012, 3(4):212-223.

A face recognition method based on CNN

Yu Daling, Huang Hongqiong

(College of Information Engineering, Shanghai Maritime University, Shanghai 201306, China)

In recent years, with the development of deep learning, convolution neural network has been widely used in the field of image recognition. It improves the recognition accuracy, at the same time the feature extraction effect is superior to many traditional algorithms.This paper proposes a face recognition algorithm based on convolution neural network.The method mainly involves two aspects: one is using convolution neural network for feature extraction;the other is to extract the characteristics of the image to input the improved neural network for training and recognition.Through the MATLAB simulation experiments, the results show that the convolutional neural network has good feature extraction performance and good recognition effect.

face recognition; convolution neural network; feature extraction

國(guó)家自然科學(xué)基金(61673260)

TP391.9

A

10.19358/j.issn.1674- 7720.2017.14.016

于達(dá)嶺,黃洪瓊.一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法[J].微型機(jī)與應(yīng)用,2017,36(14):49-51,56.

2017-01-29)

于達(dá)嶺(1991-),男,碩士,主要研究方向:智能信息處理及應(yīng)用。

黃洪瓊(1973-),女,博士,副教授,主要研究方向:智能信息處理、智能交通系統(tǒng)及航運(yùn)智能運(yùn)輸系統(tǒng)。

猜你喜歡
人臉識(shí)別特征提取特征
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
基于MED和循環(huán)域解調(diào)的多故障特征提取
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 精品综合久久久久久97| 午夜国产不卡在线观看视频| 高清久久精品亚洲日韩Av| 久操线在视频在线观看| 精品无码一区二区三区电影| 青青操国产| 欧美另类图片视频无弹跳第一页| 91成人在线观看| 91精品小视频| 亚洲人成影院午夜网站| 色综合国产| 日韩在线视频网| 亚洲国产日韩欧美在线| 日本国产一区在线观看| 亚洲性色永久网址| 亚洲精品图区| 精品国产自在现线看久久| 国产剧情伊人| 亚洲天堂网在线播放| 国产免费久久精品99re丫丫一| 国产欧美在线观看一区| 永久在线播放| 国产成人a在线观看视频| 日本人妻丰满熟妇区| 国产白浆在线| 日韩欧美一区在线观看| 青青操视频在线| 中文字幕人妻无码系列第三区| 青青草原国产免费av观看| 国产乱子伦无码精品小说| 国产亚洲精| 国产特级毛片| 日韩二区三区| 久久婷婷国产综合尤物精品| 在线观看国产黄色| 尤物精品视频一区二区三区| 国产精品无码制服丝袜| 黄色网站不卡无码| 亚洲国产清纯| 91成人在线免费视频| 少妇极品熟妇人妻专区视频| 国产成人综合欧美精品久久| 在线观看精品自拍视频| 亚洲无码高清一区二区| 亚洲欧洲日本在线| 久久无码免费束人妻| 国产一级视频久久| 国模极品一区二区三区| 青青青视频91在线 | 久久特级毛片| 亚洲久悠悠色悠在线播放| 国产欧美视频在线| 玩两个丰满老熟女久久网| 国产成人区在线观看视频| 欧美黄色a| 免费观看精品视频999| 成年片色大黄全免费网站久久| 青青久久91| 5555国产在线观看| 狼友视频一区二区三区| 亚洲专区一区二区在线观看| 亚洲乱码视频| 狼友视频一区二区三区| 国产福利在线观看精品| 国产电话自拍伊人| 在线观看国产精美视频| 国产精品人成在线播放| 精品精品国产高清A毛片| 欧美日本视频在线观看| 国产v精品成人免费视频71pao | AV天堂资源福利在线观看| 99精品国产自在现线观看| 99ri国产在线| 天堂va亚洲va欧美va国产| 最新国语自产精品视频在| 精品视频福利| 久久精品人人做人人综合试看| 91国内外精品自在线播放| 久久伊人操| 97久久超碰极品视觉盛宴| a亚洲天堂| jizz国产在线|