999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度遷移學(xué)習(xí)的人臉識(shí)別方法研究

2017-07-06 10:29:02余化鵬
關(guān)鍵詞:人臉識(shí)別可視化深度

余化鵬, 張 朋, 朱 進(jìn)

(成都大學(xué) 信息科學(xué)與工程學(xué)院, 四川 成都 610106)

?

基于深度遷移學(xué)習(xí)的人臉識(shí)別方法研究

余化鵬, 張 朋, 朱 進(jìn)

(成都大學(xué) 信息科學(xué)與工程學(xué)院, 四川 成都 610106)

針對(duì)大數(shù)據(jù)集上學(xué)習(xí)的深度人臉模型在實(shí)踐中的相關(guān)問(wèn)題,提出一種通過(guò)遷移一個(gè)預(yù)訓(xùn)練的深度人臉模型到特定的任務(wù)來(lái)解決該問(wèn)題的方案:將深度人臉模型學(xué)習(xí)的分層表示作為源模型,然后在一個(gè)小訓(xùn)練集上學(xué)習(xí)高層表示以得到一個(gè)特定于任務(wù)的目標(biāo)模型;在公共的小數(shù)據(jù)集及采集的真實(shí)人臉數(shù)據(jù)集上的實(shí)驗(yàn)表明,所采用的遷移學(xué)習(xí)方法有效且高效;經(jīng)驗(yàn)性地探索了一個(gè)重要的開放問(wèn)題——深度模型不同層特征的特點(diǎn)及其可遷移能力,認(rèn)為越底層的特征越局部、越通用,而越高層的特征則越全局、越特定,具有更好的類內(nèi)不變性和類間區(qū)分性;無(wú)監(jiān)督的特征可視化與有監(jiān)督的人臉識(shí)別實(shí)驗(yàn)結(jié)果都能較好地支持上述觀點(diǎn).

深度學(xué)習(xí);人臉識(shí)別;遷移學(xué)習(xí);不變性;區(qū)分性

0 引 言

目前,深度人臉模型[1-3],特別是在大的非限制場(chǎng)景人臉數(shù)據(jù)集(Labeled Faces in the Wild,LFW)上學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在性能上已經(jīng)達(dá)到前所未有的水平.但實(shí)踐中,一方面,訓(xùn)練一個(gè)深度人臉模型需要大的數(shù)據(jù)集和強(qiáng)大的計(jì)算資源,這阻礙了深度人臉模型的廣泛應(yīng)用;另一方面,對(duì)于一個(gè)特定的人臉識(shí)別任務(wù),往往只有非常有限的訓(xùn)練樣本,從而無(wú)法訓(xùn)練一個(gè)有效的深度人臉模型.所以,將一個(gè)預(yù)訓(xùn)練的深度人臉模型遷移到一個(gè)特定的任務(wù)是非常有價(jià)值的.對(duì)此,本研究通過(guò)2個(gè)步驟來(lái)解決該問(wèn)題:首先,將深度人臉模型學(xué)習(xí)的分層表示作為源模型;其次,在一個(gè)小的訓(xùn)練集上學(xué)習(xí)高層表示以得到一個(gè)特定于任務(wù)的目標(biāo)模型.同時(shí),本研究在公共的小數(shù)據(jù)集和從實(shí)際應(yīng)用中采集的真實(shí)人臉數(shù)據(jù)上評(píng)估了所提出的人臉識(shí)別方法,并與一個(gè)輕量級(jí)的深度學(xué)習(xí)基線模型進(jìn)行了對(duì)比.結(jié)果表明,本研究的深度遷移學(xué)習(xí)方法優(yōu)勢(shì)十分明顯.同時(shí),本研究也經(jīng)驗(yàn)性地探索了一個(gè)重要的開放問(wèn)題——深度模型不同層特征的特點(diǎn)及其可遷移能力.

1 相關(guān)工作

通常,深度人臉模型采用一個(gè)在大的人臉數(shù)據(jù)集上訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型來(lái)解決傳統(tǒng)的人臉識(shí)別問(wèn)題.由于能夠從人臉數(shù)據(jù)中自動(dòng)發(fā)現(xiàn)復(fù)雜的結(jié)構(gòu)且自動(dòng)學(xué)習(xí)一個(gè)分層的表示[4],深度人臉模型已經(jīng)在困難的非限制場(chǎng)景人臉數(shù)據(jù)集上取得了極大的進(jìn)展.例如,Parkhi等[5]在一個(gè)大的數(shù)據(jù)集(260萬(wàn)幅人臉圖像,超過(guò)2 600人)上訓(xùn)練了一個(gè)CNN模型,其在LFW和YTF[6]數(shù)據(jù)集上的性能與最好的性能接近,也公開了這個(gè)好的訓(xùn)練模型——VGG-FACE(支持Caffe,Torch,與MatConvNet).本研究擬采用此模型作為預(yù)訓(xùn)練的源模型.另外,一個(gè)有趣的深度人臉模型是PCANET[7],這個(gè)模型采用2個(gè)主成分分析(Principal Component Analysis,PCA)層形成一個(gè)深度模型,已在許多典型的人臉數(shù)據(jù)集上取得了非常好的性能.盡管其性能仍不能與CNN在LFW等困難數(shù)據(jù)集上的性能相比,但是作為一個(gè)輕量級(jí)的深度人臉模型基線,PCANET容易在小數(shù)據(jù)集上訓(xùn)練.

遷移學(xué)習(xí)(或歸納遷移)的目的是將以前學(xué)習(xí)的知識(shí)遷移到新的任務(wù),近年來(lái)受到越來(lái)越多研究者的關(guān)注,并取得了一系列研究成果[8-10].本研究的工作屬于特征表示遷移,與文獻(xiàn)[9]屬于同一類方法.由于本研究在更為相似的任務(wù)(人臉識(shí)別)之間遷移,所以可以預(yù)期能夠取得更好的性能,從而更能滿足實(shí)際應(yīng)用的需求.本研究與文獻(xiàn)[10]的不同之處在于,本研究認(rèn)為越底層的特征不僅越通用而且越局部,而越高層的特征不僅越特定而且越全局,具有更好的類內(nèi)不變性與類間區(qū)分性.

2 深度遷移學(xué)習(xí)方法

形式上,遷移學(xué)習(xí)可以定義為:給定一個(gè)源域DS與源任務(wù)TS,一個(gè)目標(biāo)域DT與目標(biāo)任務(wù)TT,遷移學(xué)習(xí)的目標(biāo)是DS與TS的知識(shí)能夠幫助求解或提升TT.注意:DS≠DT或TS≠TT.域D定義為一個(gè)二元對(duì){x,P(X)},其中x為特征空間,P(X)是X的邊緣分布,X={x1,x2,…,xn}∈x.任務(wù)T也是一個(gè)二元對(duì){y,f(x)},其中y是標(biāo)簽空間,y=f(x)是從訓(xùn)練樣本{xi,yi}(xi∈X,yi∈y)學(xué)習(xí)到的目標(biāo)函數(shù).將源域中的訓(xùn)練樣本數(shù)記為nS,目標(biāo)域中的記為nT.

對(duì)于人臉識(shí)別任務(wù),假定DS=DT,而TS≠TT(盡管緊密相關(guān)).具體來(lái)講,TS已經(jīng)從一個(gè)大的人臉數(shù)據(jù)集中學(xué)習(xí)到,現(xiàn)在需要在一個(gè)特定于任務(wù)的小數(shù)據(jù)集上(nS?nT)學(xué)習(xí)TT.學(xué)習(xí)的目標(biāo)是:通過(guò)TS的幫助學(xué)習(xí)一個(gè)有效的TT.

2.1 源模型

使用MatConvNet平臺(tái)下預(yù)訓(xùn)練的VGG-FACE作為TS.如前所述,VGG-FACE是一個(gè)在2 622人的260萬(wàn)幅人臉圖像上訓(xùn)練的深度CNN模型.這個(gè)模型總共40層:1個(gè)輸入層(0層),1個(gè)Softmax輸出層(39層),3個(gè)全連接層(32,35,38層),剩下的層是交替的conv/relu/mpool/drop層.表1給出了VGG-FACE的網(wǎng)絡(luò)配置,這與文獻(xiàn)[5]給出的大同小異.

遷移學(xué)習(xí)一個(gè)深度CNN模型首先是拷貝TS的頭n層作為TT的頭n層,然后隨機(jī)初始化TT的剩下層并用目標(biāo)數(shù)據(jù)訓(xùn)練TT.為了清楚,稱TS的頭n層為源模型.典型地,對(duì)于源模型有2種選擇,即微調(diào)(fine-tune)或凍結(jié)(freeze).前者意味著訓(xùn)練TT的過(guò)程會(huì)影響到源模型,而后者則不會(huì).正如文獻(xiàn)[10]所指出的,選擇微調(diào)或凍結(jié)源模型依賴于目標(biāo)數(shù)據(jù)集的大小和源模型的參數(shù)個(gè)數(shù).對(duì)于本研究的人臉識(shí)別任務(wù),TT只有一個(gè)小的特定于任務(wù)的人臉數(shù)據(jù)集.而截取VGG-FACE的全連接層(比如38層)以下的層所得到的源模型仍然是深的,其中包含大量參數(shù).所以,為了避免過(guò)擬合,可以選擇凍結(jié)源模型.

深度CNN模型不同層特征的特點(diǎn)及其可遷移能力是重要的開放問(wèn)題.Yosinski等[10]認(rèn)為高層特征更特定而底層特征更通用.本研究贊同此觀點(diǎn),但進(jìn)一步認(rèn)為高層特征也更全局而底層特征也更局部.這種局部到全局的轉(zhuǎn)換根植于CNN模型的局部感受野特點(diǎn),即CNN模型最基本的操作——卷積.

表1 VGG-FACE的網(wǎng)絡(luò)配置(部分摘自文獻(xiàn)[5])

此高層特征的全局特點(diǎn)能夠解釋為什么其同時(shí)具有更好的類內(nèi)不變性與更好的類間區(qū)分性.從本質(zhì)上講,這也說(shuō)明了為什么本研究更傾向于遷移高層的特征.本研究將通過(guò)特征的可視化來(lái)經(jīng)驗(yàn)性地證實(shí)此觀點(diǎn).本研究的觀點(diǎn)也不同于文獻(xiàn)[8],文獻(xiàn)[8]僅僅強(qiáng)調(diào)遷移不變性,但實(shí)際上,僅僅遷移不變性既不可能辦得到也不足以解決實(shí)際問(wèn)題.

2.2 學(xué)習(xí)一個(gè)目標(biāo)模型

正如前面提到的,首先拷貝TS的頭n層作為源模型,然后用目標(biāo)數(shù)據(jù)訓(xùn)練TT得到一個(gè)最終的特定于任務(wù)的目標(biāo)模型.注意在訓(xùn)練TT的過(guò)程中凍結(jié)源模型.圖1給出了學(xué)習(xí)一個(gè)目標(biāo)的整個(gè)過(guò)程.

圖1 學(xué)習(xí)目標(biāo)模型的示意圖

由圖1可見,首先拷貝VGG-FACE的頭n層作為源模型,然后用這個(gè)源模型提取目標(biāo)數(shù)據(jù)的特征.所提取的特征用于訓(xùn)練目標(biāo)模型的高層表示,最后凍結(jié)的源模型加上從目標(biāo)數(shù)據(jù)中訓(xùn)練的高層表示就構(gòu)成了特定于任務(wù)的目標(biāo)模型.

目標(biāo)模型高層表示的設(shè)計(jì)具有足夠的彈性,所以可以簡(jiǎn)單地重新學(xué)習(xí)一個(gè)分類器層,比如softmax或支持向量機(jī)(Support Vector Machine,SVM),也可以重新學(xué)習(xí)最終的分類器層下面的更多層.如何選擇主要取決于源任務(wù)與目標(biāo)任務(wù)之間的相似程度以及目標(biāo)數(shù)據(jù)集的大小.本研究假定源任務(wù)與目標(biāo)任務(wù)足夠相似(都是人臉識(shí)別),還假定目標(biāo)數(shù)據(jù)集很小(每個(gè)類只有1到10個(gè)左右的樣本).因此,選擇僅僅重新學(xué)習(xí)分類器層.而對(duì)于源任務(wù)與目標(biāo)任務(wù)之間不太相似的情況或者有較多的目標(biāo)數(shù)據(jù),也有必要重新學(xué)習(xí)更多的特征層以提升目標(biāo)模型的性能.

3 結(jié)果與討論

3.1 評(píng)估源模型

為了評(píng)估特征性能,本研究比較了7個(gè)不同的源模型,采用tSNE[11]進(jìn)行3D特征可視化,通過(guò)這些可視化的結(jié)果可以直觀地看到特征的無(wú)監(jiān)督自然聚類,聚類情況的好壞可幫助洞察特征的類內(nèi)不變性與類間區(qū)分性.

本研究在3個(gè)小的目標(biāo)數(shù)據(jù)集上進(jìn)行了評(píng)估,分別是ATT[12]、IOE5與CDUStud.ATT是一個(gè)公共的小數(shù)據(jù)集,包含40人的400幅灰度人臉圖像,分辨率均為92×112.IOE5與CDUStud是從實(shí)際應(yīng)用中采集的真實(shí)人臉數(shù)據(jù).其中,IOE5包含總共33人的330幅灰度人臉圖像,分辨率均為100×100;CDUStud包含總共22人的220幅彩色人臉圖像,平均分辨率約為300×300.3個(gè)數(shù)據(jù)集里的每個(gè)人都有10個(gè)樣本.對(duì)于無(wú)監(jiān)督的可視化,可輸入每個(gè)人所有10個(gè)樣本;對(duì)于有監(jiān)督的人臉識(shí)別,可將10個(gè)樣本均分為2個(gè)集,分別用于訓(xùn)練與測(cè)試.圖2給出了3個(gè)數(shù)據(jù)集的4個(gè)典型樣本,第1行到第3行依次代表的數(shù)據(jù)集是ATT、IOE5與CDUStud.ATT主要包括姿態(tài)及表情變化,IOE5增加了光照及是否戴眼鏡,而CDUStud進(jìn)一步引入了更多的變化,比如顏色,CDUStud更接近于非限制的真實(shí)場(chǎng)景下的人臉.

為了得到不同層的特征,VGG-FACE需要3通道的224×224輸入圖像,所以對(duì)于灰度人臉圖像,本研究將3個(gè)通道設(shè)成一樣,將不同分辨率的圖像縮放為相同的224×224分辨率,并將不同源模型的輸出特征(對(duì)應(yīng)于VGG-FACE的不同層)進(jìn)行L2規(guī)范化以備使用.

圖2 3個(gè)數(shù)據(jù)集的部分樣本圖像

圖3、圖4與圖5給出了此3個(gè)目標(biāo)數(shù)據(jù)集的3D可視化結(jié)果.對(duì)于每個(gè)數(shù)據(jù)集,本研究給出了以下層的結(jié)果:18,25,32(FC6),35(FC7),38(FC8).算法軟件tSNE的參數(shù)設(shè)置為:可視化維數(shù)為3,初始PCA維數(shù)為50,復(fù)雜度為30.由這些可視化結(jié)果可見,相對(duì)于更底層的特征(比如18層),更高層的特征(比如38層)具有更好的類內(nèi)不變性(由相同顏色的球形成的自然聚類)與更好的類間區(qū)分性(自然聚類之間的距離).從流形學(xué)習(xí)觀點(diǎn)來(lái)看,更高層的特征具有更好的解糾纏能力,而更底層的特征彼此之間更加糾纏不清.分層特征對(duì)這一現(xiàn)象有合理的解釋:更底層的特征是局部的、通用的,因此類內(nèi)不變性和類間區(qū)分性均較差;更高層的特征是全局的、特定的,因此具有較好的類內(nèi)不變性和類間區(qū)分性.

圖3 ATT數(shù)據(jù)集的3D可視化結(jié)果

圖4 IOE5數(shù)據(jù)集的3D可視化結(jié)果

圖5 CDUStud數(shù)據(jù)集的3D可視化結(jié)果

特別地,圖3表明3個(gè)數(shù)據(jù)集里不同人的原始圖像數(shù)據(jù)高度糾纏在一起,這解釋了分層解糾纏過(guò)程的必要性.實(shí)際上,文獻(xiàn)[11]表明,對(duì)于MNIST原始圖像數(shù)據(jù)(固有維數(shù)大概為10),tSNE能夠粗略展示出10個(gè)不同數(shù)字的自然聚類.Nielsen[13]展示了只有單個(gè)隱層的簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)更易在MNIST數(shù)據(jù)集上達(dá)到95%的分類精度.這個(gè)結(jié)果進(jìn)一步驗(yàn)證了MNIST有較低的固有維數(shù),但是對(duì)于人臉數(shù)據(jù),該實(shí)驗(yàn)結(jié)果驗(yàn)證了其具有高得多的固有維數(shù),無(wú)法通過(guò)純粹無(wú)監(jiān)督的線性或非線性映射來(lái)進(jìn)行有效解糾纏,所以需要有監(jiān)督的深度神經(jīng)網(wǎng)絡(luò).

對(duì)于有監(jiān)督的人臉識(shí)別,目標(biāo)數(shù)據(jù)集的人臉樣本首先輸入到源模型以得到特征,然后用這些特征訓(xùn)練目標(biāo)模型的SVM層.每個(gè)人的5個(gè)樣本訓(xùn)練一個(gè)SVM層,然后用剩下的5個(gè)樣本測(cè)試目標(biāo)模型(源模型加SVM層).注意,此過(guò)程并未進(jìn)行人臉對(duì)齊操作以及應(yīng)用任何樣本增擴(kuò).本研究選用了一個(gè)流行的SVM實(shí)現(xiàn)——LIBLINEAR[14],采用L2-正則化L2-代價(jià)線性SVM,懲罰項(xiàng)設(shè)置為10.表2給出了3個(gè)目標(biāo)數(shù)據(jù)集上的有監(jiān)督人臉識(shí)別測(cè)試結(jié)果.

表2 有監(jiān)督人臉識(shí)別測(cè)試結(jié)果

如表2所示,對(duì)于每個(gè)目標(biāo)數(shù)據(jù)集,本研究給出了不同源模型的錯(cuò)誤率,同時(shí)給出了每個(gè)源模型輸出層的維數(shù),并沒(méi)有對(duì)每個(gè)目標(biāo)數(shù)據(jù)集測(cè)試所有7個(gè)源模型.實(shí)際上,本研究依次增加了源模型的層數(shù)直到0%的錯(cuò)誤率,比如,在表2里,ATT與IOE5用32層的源模型即達(dá)到了0%的錯(cuò)誤率,而CDUStud需要34層才達(dá)到0%的錯(cuò)誤率.對(duì)于更復(fù)雜的數(shù)據(jù)集,可以確信需要更多層次的源模型.從表2還可知,錯(cuò)誤率隨著源模型層數(shù)的增加而持續(xù)下降,這一結(jié)果再次確認(rèn)了前面特征可視化的分析結(jié)論,即底層特征是局部的、通用的,因此類內(nèi)不變性與類間區(qū)分性較差;而高層特征是全局的、特定的,因此類內(nèi)不變性與類間區(qū)分性更好.

從表2還可以看出,更底層的特征具有更高的維數(shù)而更高層的特征具有更低的維數(shù),這反映了深度學(xué)習(xí)的分層特征提取的另一個(gè)重要方面——降維,降維是局部到全局與通用到特定這個(gè)特征提取過(guò)程的自然結(jié)果.

3.2 與模型PCANET的比較

本研究從特征質(zhì)量與人臉識(shí)別性能2方面對(duì)這2種模型進(jìn)行比較.

模型PCANET采用2個(gè)相連的PCA層,容易用小的數(shù)據(jù)集進(jìn)行訓(xùn)練.本研究使用PCANET的原始MATLAB實(shí)現(xiàn),將PCANET作為一個(gè)特征學(xué)習(xí)器和一個(gè)特征提取器,提取出的PCANET特征用于訓(xùn)練一個(gè)SVM層,所以本研究的目標(biāo)模型具有和PCANET一樣的分類器層,差別僅在于特征學(xué)習(xí)和特征提取過(guò)程.目標(biāo)模型里,從40層的CNN模型遷移過(guò)來(lái)的源模型扮演著特征學(xué)習(xí)與特征提取的角色,而PCANET里2個(gè)相連的PCA層扮演這個(gè)角色.

采用類似前面同樣的3個(gè)數(shù)據(jù)集及同樣的SVM參數(shù)設(shè)置,PCANET的MATLAB實(shí)現(xiàn)同樣支持灰度與彩色圖像,并支持不同的圖像分辨率,所以只需將3個(gè)數(shù)據(jù)集的原始圖像簡(jiǎn)單輸入到PCANET.PCANET的參數(shù)設(shè)置如下:分片大小5×5;第一層濾波器數(shù)量為25,第二層為8;直方圖分塊大小8×8,直方圖分塊覆蓋比為0.5.最終的輸出特征維數(shù)為13 440,這個(gè)值介于本研究源模型的18層與25層之間.圖6給出了3個(gè)數(shù)據(jù)集的PCANET特征的3D可視化結(jié)果.

圖6 PCANET特征的3D可視化結(jié)果

與圖3~圖5比較可知,PCANET特征總是比源模型的高層特征(如38層)更加糾纏不清.實(shí)際上,對(duì)于ATT,PCANET特征僅僅比25層及以下的特征稍好,但是比32層及以上差.對(duì)于IOE5,PCANET特征僅僅比18層好,而比25層及以上差.類似地,對(duì)于CDUStud,PCANET特征僅僅比25層及以下的特征稍好,但是比32層及以上差.這些結(jié)果解釋了“深度”的重要性.

表3給出了PCANET在3個(gè)有監(jiān)督的人臉識(shí)別任務(wù)上的錯(cuò)誤率.

表3 PCANET測(cè)試結(jié)果

與表2比較可知,性能上PCANET總是比具有更多層次(>32)的目標(biāo)模型要差.對(duì)于ATT與IOE5,PCANET的性能處于目標(biāo)模型的18層與25層之間.注意PCANET特征的維數(shù)(134 400)也處于18層(200 704)與25層(100 352)之間.對(duì)于CDUStud,PCANET表現(xiàn)稍微好一些,處于25層與32層之間.奇怪的是PCANET在IOE5上具有最高錯(cuò)誤率(7.27%)而不是CDUStud.圖6的特征可視化結(jié)果也驗(yàn)證了這一點(diǎn):IOE5的PCANET特征相比ATT與CDUStud更加糾纏不清.如前所述,IOE5的PCANET特征僅僅比18層好但是比25層及以上差,而ATT與CDUStud的PCANET特征比25層還好些.PCANET在IOE5上具有最高錯(cuò)誤率而不是在更困難的CDUStud數(shù)據(jù)集上,這個(gè)現(xiàn)象也許表明PCANET模型自身的不一致性.而本研究的目標(biāo)模型具有一致的性能表現(xiàn),即更困難的數(shù)據(jù)集需要更多的特征層.

4 結(jié) 論

本研究探討了深度CNN模型的遷移學(xué)習(xí)問(wèn)題,特別關(guān)注了經(jīng)典的分類應(yīng)用——人臉識(shí)別,并經(jīng)驗(yàn)性地探索了遷移學(xué)習(xí)的不同源模型.在3個(gè)小數(shù)據(jù)集上的評(píng)估結(jié)果表明了本研究所采用方法的有效與高效:對(duì)于非常有限的訓(xùn)練樣本,目標(biāo)模型在所有3個(gè)數(shù)據(jù)集上取得了0%的錯(cuò)誤率.由于已經(jīng)在大的數(shù)據(jù)集上預(yù)訓(xùn)練了源模型,小的目標(biāo)數(shù)據(jù)集上的遷移學(xué)習(xí)就變得非常高效——只需在源模型上學(xué)習(xí)一層或少量更多的層.

同時(shí),本研究還探索了源模型不同層特征的3D可視化.通過(guò)這些可視化結(jié)果得出,深度CNN模型的底層特征是局部、通用的,而高層特征是全局、特定的,因此高層特征具有更好的類內(nèi)不變性與更好的類間區(qū)分性,更適合有監(jiān)督的分類任務(wù).實(shí)驗(yàn)結(jié)果驗(yàn)證了該觀點(diǎn).進(jìn)一步通過(guò)與深度基線模型——PCANET比較表明,本研究的目標(biāo)模型的優(yōu)勢(shì)表現(xiàn)在更低的分類錯(cuò)誤率及更好的模型一致性上.

[1]Sun Y,Liang D,Wang X,et al.Deepid3:facerecognitionwithverydeepneuralnetworks[EB/OL].[2015-02-03].https://arxiv.org/abs/1502.00873.

[2]Schroff F,Kalenichenko D,Philbin J.FaceNet:aunifiedembeddingforfacerecognitionandclustering[C]//2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,MA,USA:IEEE Press,2015:815-823.

[3]Huang G B,Mattar M,Berg T,et al.LabeledfacesintheWild:adatabaseforstudyingfacerecognitioninunconstrainedenvironments[R].Amherst,MA,USA:University of Massachusetts,Amherst,2007:7-49.

[4]LeCun Y,Bengio Y,Hinton G.Deeplearning[J].Nature,2015,521:436-444.

[5]Parkhi O M,Vedaldi A,Zisserman A.Deepfacerecognition[C]//ProceedingsoftheBritishMachineVisionConference,2015.Swansea,UK:BMVC Press,2015.

[6]Wolf L,Hassner T,Maoz I.Facerecognitioninunconstrainedvideoswithmatchedbackgroundsimilarity[C]//2011IEEEconferenceonComputerVisionandPatternRecognition(CVPR).Colorado Springs,CO,USA:IEEE Press,2011.

[7]Chan Tsung-Han,Jia Kui,Gao Shenghua,et al.PCANet:AsimpledeepLearningbaselineforimageclassification?[J].IEEE Trans Image Proc,2015,24(12):5017-5032.

[8]Thrun S.Islearningthen-ththinganyeasierthanlearningthefirst?[C]//AdvancesinNeuralInformationProcessingSystems8,NIPS1995.Denver,CO,USA:MIT Press,1995:640-646.

[9]Shie C K,Chuang C H,Chou C N,et al.Transferrepresentationlearningformedicalimageanalysis[C]//EngineeringinMedicineandBiologySociety(EMBC),2015 37thAnnualInternationalConferenceoftheIEEE.Milan,Italy:IEEE Press,2015:711-714.

[10]Yosinski J,Clune J,Bengio Y,et al.Howtransferablearefeaturesindeepneuralnetworks?[C]//NIPS'14Proceedingsofthe27thInternationalConferenceonNeuralInformationPrecessingSystems.Montreal,Canada:MIT Press,2014:3320-3328.

[11]Van der Maaten L J P,Hinton G E.Visualizinghigh-dimensionaldatausingt-SNE[J].J Mach Learn Res,2008,9:2579-2605.

[12]Samaria F S,Harter A C.Parameterisationofastochasticmodelforhumanfacecdentification[C]//PrceedingsoftheSecondIEEEWorkshoponApplicationsofComputerVision,1994.Sarasota,FL,USA:IEEE Press,1994.

[13]Nielsen M.Neuralnetworksanddeeplearning[EB/Ol].[2017-01-01].http://neuralnetworksanddeeplearning.com/index.html.

[14]Fan R E,Chang K W,Hsieh C J,et al.LIBLINEAR:alibraryforlargelinearclassification[J].J Mach Learn Res,2008,9(9):1871-1874.

Study on Face Recognition Method Based on Deep Transfer Learning

YUHuapeng,ZHANGPeng,ZHUJin

(School of Information Science and Engineering, Chengdu University, Chengdu 610106, China)

Aiming at relevant problems of deep face model for learning based on big dataset in practice,we put forward a scheme to deal with these problems through transferring a pre-training deep face model to specific tasks on hand.We empirically transfer hierarchical representations of deep face model as a source model and then learn higher layer representations on a specific small training set to obtain a final task-specific target model.Experiments on face identification tasks with public small data set and practical real face data set verify the effectiveness and efficiency of our approach for transfer learning.We also empirically explore an important open problem—attributes and transferability of different layer features of deep model.We argue that lower layer features are both local and general,while higher layer ones are both global and specific which embraces both intra-class invariance and inter-class discrimination.The results of unsupervised feature visualization and supervised face identification strongly support our view.

deep learning;face recognition;transfer learning;invariance;discrimination

1004-5422(2017)02-0151-06

2017-03-16.

余化鵬(1973 — ), 男, 博士, 講師, 從事計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)研究.

TP391.41

A

猜你喜歡
人臉識(shí)別可視化深度
基于CiteSpace的足三里穴研究可視化分析
人臉識(shí)別 等
基于Power BI的油田注水運(yùn)行動(dòng)態(tài)分析與可視化展示
云南化工(2021年8期)2021-12-21 06:37:54
深度理解一元一次方程
基于CGAL和OpenGL的海底地形三維可視化
揭開人臉識(shí)別的神秘面紗
“融評(píng)”:黨媒評(píng)論的可視化創(chuàng)新
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 亚洲欧美日韩另类在线一| 亚洲精品国产自在现线最新| 久久99热这里只有精品免费看 | 国产免费观看av大片的网站| 国产丝袜无码一区二区视频| 精品剧情v国产在线观看| 亚洲美女视频一区| 伊人久久久大香线蕉综合直播| 一级毛片在线播放| 在线无码av一区二区三区| 狠狠色香婷婷久久亚洲精品| 亚洲六月丁香六月婷婷蜜芽| 亚洲国产一区在线观看| 在线色综合| 国产理论最新国产精品视频| 成AV人片一区二区三区久久| 国产在线视频导航| 国产在线98福利播放视频免费| 国产va在线观看免费| 亚洲三级网站| 一级全黄毛片| 特级精品毛片免费观看| 亚洲精品福利网站| 国产日韩欧美成人| 欧美成人手机在线视频| 99久久人妻精品免费二区| 91麻豆精品国产91久久久久| av在线手机播放| 亚洲国产亚综合在线区| 国产情侣一区二区三区| 亚洲天堂在线免费| 亚洲成在人线av品善网好看| 国产日韩欧美精品区性色| 日韩二区三区无| 亚洲精品第1页| 国产精品私拍在线爆乳| 亚洲成人精品在线| 国产在线日本| 无码人中文字幕| 高清国产在线| 无码中文字幕乱码免费2| 欧美日韩在线国产| 99在线视频网站| 久久大香香蕉国产免费网站| hezyo加勒比一区二区三区| 精品无码人妻一区二区| 嫩草国产在线| 国产精品久久国产精麻豆99网站| 亚洲无码视频喷水| 一本色道久久88| 国产一级毛片在线| 美女无遮挡被啪啪到高潮免费| 欧美日韩激情| 97精品国产高清久久久久蜜芽| 中文字幕自拍偷拍| 综合天天色| 国产亚洲精品自在久久不卡| 18黑白丝水手服自慰喷水网站| 99爱在线| 亚洲综合精品第一页| 色欲色欲久久综合网| 国产95在线 | 亚洲国产成人精品一二区| 久久99国产综合精品女同| 在线观看亚洲国产| 99re热精品视频中文字幕不卡| 一级毛片高清| 国产精品毛片一区视频播| а∨天堂一区中文字幕| 国产精品对白刺激| 91香蕉国产亚洲一二三区| 2020国产精品视频| 成年A级毛片| 国产日产欧美精品| 韩日免费小视频| 亚洲精品无码久久毛片波多野吉| 亚洲AV电影不卡在线观看| 国产不卡国语在线| 日韩视频免费| 91国内在线视频| 99视频精品全国免费品| 国产中文一区a级毛片视频|