999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于因子分析與稀疏表示的多姿態(tài)人臉識(shí)別

2013-07-11 09:36:14張疆勤廖海斌
關(guān)鍵詞:人臉識(shí)別方法

張疆勤,廖海斌,李 原

1.安徽科技學(xué)院 網(wǎng)絡(luò)中心,安徽 滁州 233100 2.武漢大學(xué) 電子信息學(xué)院,武漢 430072

基于因子分析與稀疏表示的多姿態(tài)人臉識(shí)別

張疆勤1,廖海斌2,李 原1

1.安徽科技學(xué)院 網(wǎng)絡(luò)中心,安徽 滁州 233100 2.武漢大學(xué) 電子信息學(xué)院,武漢 430072

1 引言

人臉識(shí)別技術(shù)在安全、金融、法律、人機(jī)交互等領(lǐng)域具有廣闊的應(yīng)用前景,因此得到了研究人員的廣泛關(guān)注。目前,盡管已經(jīng)產(chǎn)生了許多自動(dòng)人臉識(shí)別產(chǎn)品和算法,但它們無法可靠地處理真實(shí)世界中人臉的識(shí)別問題。根據(jù)美國國家標(biāo)準(zhǔn)技術(shù)局(NIST)舉辦的人臉識(shí)別開發(fā)商測試大會(huì)(FRVT2006)表明[1-2]:當(dāng)對(duì)由同一個(gè)相機(jī)拍攝得到的相同姿勢(shì)、不同表情的圖像進(jìn)行識(shí)別時(shí),一些算法取得了理想的結(jié)果。在一定條件,有些技術(shù)甚至超過了人類的人臉識(shí)別能力。而在對(duì)真實(shí)世界人臉圖像進(jìn)行識(shí)別時(shí),即使圖像質(zhì)量一致且在已知姿態(tài)、光照與表情(Pose Illumination and Expression,PIE)條件下獲得,可以得到的最佳識(shí)別率也只有73%。由此可見,現(xiàn)有的人臉識(shí)別系統(tǒng)性能與人類的識(shí)別能力差距還相當(dāng)大。

由上分析可知,自動(dòng)人臉識(shí)別在實(shí)際應(yīng)用中面臨著巨大挑戰(zhàn),真實(shí)世界中人臉的姿態(tài)和遮擋變化是人臉識(shí)別面臨最大難題之一。

多姿態(tài)人臉識(shí)別近幾年研究比較多,它被稱作是計(jì)算機(jī)視覺與模式識(shí)別領(lǐng)域尚未較好解決的重要問題之一,針對(duì)多姿態(tài)人臉識(shí)別的問題提出的方法大致可以分為三類[3]:常規(guī)方法[4-6]、二維研究方法[7-8]、三維研究方法[9-10]。常規(guī)算法主要解決由光照、表情、年齡等變化引起的問題,而對(duì)于觀察視角的不同引起的人臉圖像的變化研究較少。三維研究方法一般是需要從盡可能多的角度采集人臉組成人臉三維模型,并使用三維模型來構(gòu)建人臉庫,待識(shí)別人臉與這些三維模型逐個(gè)匹配來進(jìn)行識(shí)別。三維研究方法的問題是計(jì)算量大,需要巨大存儲(chǔ)空間,而且當(dāng)前人臉庫不能滿足其需要,因此其走向?qū)嵱没枰^長時(shí)間。二維研究方法多是尋找各個(gè)較多姿態(tài)人臉到正臉的變換關(guān)系,并將待識(shí)別人臉轉(zhuǎn)成正臉來進(jìn)行識(shí)別,其理論依據(jù)是同一個(gè)人不同姿態(tài)的人臉圖像差異比不同人相同姿態(tài)人臉之間的差異還要大。二維研究方法與三維研究方法相比,它的優(yōu)點(diǎn)是計(jì)算復(fù)雜度低,計(jì)算速度快,存儲(chǔ)容量小。

由于人臉遮擋與偽裝的隨意性,因此它是人臉識(shí)別面臨的最大問題之一。目前,針對(duì)人臉遮擋與偽裝問題主要分為三類解決方法:(1)采用局部特征的方法;(2)采用人臉分塊識(shí)別的方法;(3)采用稀疏表示與冗余理論的方法。局部特征主要描述人臉的細(xì)節(jié)變化[11-12],比如面部器官的特點(diǎn)以及面部的一些奇異特征,用來進(jìn)行精細(xì)的確認(rèn)。所以這種方法即使人臉有一小部分遮擋,其影響相對(duì)全局特征來說會(huì)相應(yīng)小些。但是這種方法忽略了全局輪廓信息,不利于整個(gè)識(shí)別率的提高。后來,學(xué)者們又提出分部人臉識(shí)別方法[13-14]。這種方法主要通過對(duì)人臉進(jìn)行分塊后,分別進(jìn)行識(shí)別,最后融合各分塊得出最終結(jié)果。當(dāng)人臉某部分存在遮擋時(shí),通過降低其權(quán)值的方法來達(dá)到對(duì)遮擋的魯棒性。通過實(shí)驗(yàn)證明,基于分部的方法在一定程度上改善識(shí)別算法對(duì)于遮擋的適應(yīng)能力。但是在他們提出的方法中,人臉分塊的產(chǎn)生均由作者自身的經(jīng)驗(yàn)和主觀的臆斷進(jìn)行,而并沒有提出一種較為科學(xué)的人臉劃分方法;且在權(quán)值選擇時(shí),大多也是采用先驗(yàn)經(jīng)驗(yàn)的方法確定,缺乏自適應(yīng)性?;谙∈璞硎镜姆椒╗15](Sparse Representationbased Classification,SRC)是最近興起的一種方法,它主要利用壓縮感知理論和線性組合的思想進(jìn)行有效的人臉分類。與現(xiàn)有多數(shù)方法相比,SRC方法直接利用了高維數(shù)據(jù)分布的稀疏性進(jìn)行統(tǒng)計(jì)推斷,可以有效地應(yīng)對(duì)維數(shù)災(zāi)難問題。同時(shí),SRC方法直接利用原始像素進(jìn)行人臉識(shí)別,避免了各種預(yù)處理過程造成的信息丟失。由于SRC方法利用了數(shù)據(jù)的冗余性,因此當(dāng)人臉存在部分遮擋時(shí),利用其冗余數(shù)據(jù)仍然可以進(jìn)行識(shí)別。但這種方法要求訓(xùn)練樣本足夠多,且樣本間存在稠密對(duì)應(yīng)關(guān)系。也就是說這種方法雖然對(duì)人臉遮擋具有很好的魯棒性,但對(duì)人臉姿態(tài)變化很敏感。這是因?yàn)楫?dāng)人臉具有姿態(tài)變化時(shí),同一個(gè)人不同姿態(tài)情況下很難對(duì)應(yīng)起來,這違背線性組合的前提條件。

為了克服稀疏表示方法對(duì)人臉姿態(tài)變化表現(xiàn)敏感的問題,本文提出基于因子分析與稀疏表示的多姿態(tài)、遮擋人臉識(shí)別方法。通過對(duì)人臉進(jìn)行因子分析,分離出人臉姿態(tài)因子,得到合成的正面虛擬人臉;然后,再利用稀疏表示方法在虛擬人臉上進(jìn)行人臉分類識(shí)別。本文提出的這種方法不但能解決人臉的姿態(tài)變化問題,同時(shí)對(duì)人臉的遮擋問題也具有很好的魯棒性。

2 因子分析模型

2.1 兩因子分析

把內(nèi)容和風(fēng)格看作影響一個(gè)事物的兩個(gè)互相獨(dú)立的因素。在本文中,將正規(guī)人臉(正面,中性,光照歸一化)看成是內(nèi)容,而人臉的姿態(tài)、光照、表情等變化看成是風(fēng)格[16]。人臉識(shí)別的任務(wù)就是根據(jù)人臉內(nèi)容信息識(shí)別出不同的人,如果能將影響人臉特征的風(fēng)格因素(不利因素)分離出來,并加以去除,那將有利于人臉識(shí)別。

如果人臉內(nèi)容ωi具有風(fēng)格δj,這個(gè)人臉樣本的觀測x可以表示成:其中,a表示由人臉圖像所決定的內(nèi)容信息,b表示由人臉圖像所決定的風(fēng)格信息,而 f(a,b)表示這個(gè)信息相互影響的作用函數(shù)。這里的觀測可以看作原始圖像。由于本文只考慮人臉姿態(tài)與遮擋變化,因此這里的b表示人臉的姿態(tài)因子,用兩個(gè)簡單的符號(hào)P和C來標(biāo)記姿態(tài)和內(nèi)容,這樣有:

其中,aC是表示內(nèi)容的向量,bP是表示姿態(tài)的向量。

2.2 因子訓(xùn)練與分離

根據(jù)前期的工作表明,在實(shí)用人臉識(shí)別中,人臉的姿態(tài)因子顯著性往往比人臉的內(nèi)容因子的顯著性大[16]。當(dāng)出現(xiàn)這種情況時(shí),就必須降低xCP中姿態(tài)因子的影響,讓同一內(nèi)容下的風(fēng)格姿態(tài)差異對(duì)xCP差異影響盡可能得小。最近Jenkins R.等人[17]在《Science》雜志上發(fā)表文章指出100%人臉自動(dòng)識(shí)別方法,其中主要用到平均人臉處理方法。并且Jenkins R.等人通過PCA證明由平均臉生成的特征臉在識(shí)別中的準(zhǔn)確率優(yōu)于由訓(xùn)練集圖像生成的特征臉。因此譚曉衡等人[18]在其專利中提出一種基于平均臉的正臉補(bǔ)償算子的多姿態(tài)人臉識(shí)別方法。他們的方法主是通過統(tǒng)計(jì)平均的方法訓(xùn)練出側(cè)臉的正臉補(bǔ)償算子,對(duì)輸入的側(cè)臉加上其相應(yīng)的正臉補(bǔ)償算子后,使用PCA進(jìn)行降維,最后使用距離度量法進(jìn)行識(shí)別。這種方法簡單有效,但專利中對(duì)人臉姿態(tài)具體的劃分并未做詳細(xì)說明,訓(xùn)練樣本也是簡單地使用了20個(gè)人,不具代表性和統(tǒng)計(jì)意義。且分類方法只是簡單地使用基于PCA的距離法,文中也沒有給出具體的識(shí)別率與參考比較。本文也將采用平均臉的統(tǒng)計(jì)方法進(jìn)行姿態(tài)因子訓(xùn)練,且采用加性模型進(jìn)行因子分離。姿態(tài)因子訓(xùn)練與分離具體實(shí)施包括如下三個(gè)過程。

(1)人臉歸一化

由于本文是采用統(tǒng)計(jì)平均的方法,因此對(duì)歸一化要求低。具體做法是:將各姿態(tài)人臉與正臉圖像的人眼固定在指定的位置,并將圖像縮放到相同的大小,然后對(duì)人臉圖像進(jìn)行直方圖均衡化,去除不同光照帶來的噪聲影響。

(2)人臉姿態(tài)訓(xùn)練

從XJTU人臉庫[19]中取500個(gè)人,每個(gè)人從視點(diǎn)數(shù)據(jù)庫中取有姿態(tài)變化的19張人臉圖像作為姿態(tài)訓(xùn)練庫。部分姿態(tài)人臉訓(xùn)練庫如圖1所示。

圖1 人臉姿態(tài)訓(xùn)練庫

那么在水平偏轉(zhuǎn)角度為k下的姿態(tài)因子可以表示為:

(3)姿態(tài)因子分離

由第二步得到人臉樣本的姿態(tài)因子后,就可以根據(jù)其姿態(tài)減去其相對(duì)應(yīng)的姿態(tài)因子,得到與人臉姿態(tài)無關(guān)的特征,即降低了人臉風(fēng)格信息。稱之為平均臉加性模型:

其中,y為進(jìn)行姿態(tài)因子分離后的人臉特征,yPk為輸入的側(cè)臉圖像,F(xiàn)k為姿態(tài)因子。

3 基于稀疏表示的人臉分類

基于稀疏表示的人臉識(shí)別方法實(shí)質(zhì)為線性方程組的求解問題[15]:

其中,A由全體人臉訓(xùn)練樣本向量組成,y為待測試的人臉圖像向量,x為待求的線性組合系數(shù),‖x‖1為x的1-范數(shù)。有關(guān)稀疏表示的人臉識(shí)別方法詳細(xì)介紹可以參見文獻(xiàn)[15,20]。

稀疏表示人臉識(shí)別轉(zhuǎn)化為式(7)的最小化求解問題。理論上-x1應(yīng)該只與訓(xùn)練樣本中的某一類的測試樣本相關(guān),其對(duì)應(yīng)的表征系數(shù)非0,而其他類樣本均為0。根據(jù)非0系數(shù)就可以對(duì)待測樣本進(jìn)行分類。然而,由于噪聲以及建模誤差會(huì)引起待測樣本的部分非相關(guān)的類別表征系數(shù)出現(xiàn)數(shù)值很小的非0元素,給正確分類帶來影響??紤]到待測樣本在訓(xùn)練樣本集合上稀疏表示是基于整體訓(xùn)練集合的,據(jù)此考慮將待測樣本在訓(xùn)練樣本集合上的表示系數(shù)有效性累計(jì),以累計(jì)值最大作為判定分類的依據(jù)。因此基于稀疏表示的人臉識(shí)別為:

其中,f(·)是個(gè)特殊函數(shù),表示將稀疏表示系數(shù)的負(fù)因子置0;δi:RN→RN是個(gè)選取函數(shù),僅選擇稀疏表示系數(shù)中第i類子空間矩陣所對(duì)應(yīng)的表示系數(shù),并且將其他置0;pi(y)是訓(xùn)練樣本集合中第i類子空間與其對(duì)應(yīng)的稀疏表示系數(shù)的有效性累計(jì)因子。

4 實(shí)驗(yàn)結(jié)果與分析

4.1 人臉姿態(tài)分離

實(shí)驗(yàn)從XJTU人臉庫中取500個(gè)具有代表性的人,每個(gè)人從視點(diǎn)數(shù)據(jù)庫中取有姿態(tài)變化的19張人臉圖像作為姿態(tài)訓(xùn)練庫。其平均臉如圖2所示,其中(a)為-30°的平均側(cè)臉,(b)為平均正臉,(c)為對(duì)應(yīng)的姿態(tài)因子。人臉姿態(tài)因子分離如圖3所示,從圖3可以看出通過因子分離后的人臉雖然從圖像表面來看不像人臉(對(duì)于電腦識(shí)別來說并不會(huì)影響其識(shí)別),但是,通過因子分離后恢復(fù)了其正臉的輪廓信息(這對(duì)識(shí)別率的提高很重要)。

圖2 平均臉與姿態(tài)因子示意圖

圖3 人臉姿態(tài)因子分離對(duì)照?qǐng)D

這里需要說明的是,通過對(duì)稱處理可以從感觀上使輸入的側(cè)臉趨于正臉,但是對(duì)于識(shí)別率的提高并沒有什么作用。因?yàn)閷?duì)大多數(shù)人臉來說,從正面角度來看大致是一個(gè)左右對(duì)稱的圖形,而對(duì)于有偏轉(zhuǎn)的側(cè)臉,左右兩邊的信息是不同的。由于遮擋的作用,面向外側(cè)的臉部信息量要多于背向外側(cè)的信息量。如果簡單地進(jìn)行對(duì)稱處理會(huì)去掉內(nèi)側(cè)包含的外側(cè)沒有的信息,且中間部分會(huì)出現(xiàn)圖像像素的突變,因而會(huì)導(dǎo)致識(shí)別率的下降。

為了進(jìn)一步顯示進(jìn)行因子分離后效果,分別對(duì)分離前和分離后的人臉進(jìn)行1層小波變換,結(jié)果如圖4所示。其中低頻子帶分量為圖像的平滑像;高頻子帶分量保持了人臉的輪廓邊緣信息。從圖中可以看出,有偏轉(zhuǎn)的圖像,不管是原圖像還是因子分離后的圖像,其高頻子帶都與正面人臉的高頻子帶完全不同。但是,通過觀察右上角和右下角的高頻子帶圖像(因子分離后)發(fā)現(xiàn)其基本趨于一致;而此時(shí)左上角和左下角的高頻子帶圖像(因子分離前)卻完全相反。說明經(jīng)過因子分離后,使不同偏轉(zhuǎn)角度圖像的輪廓邊緣趨于一致,即恢復(fù)了偏轉(zhuǎn)圖像的正臉輪廓信息。4.2.1 基于因子分析的人臉識(shí)別實(shí)驗(yàn)比較

圖4 小波變換

圖5 實(shí)驗(yàn)所用的人臉庫

為了驗(yàn)證基于因子分析的人臉識(shí)別方法對(duì)多姿態(tài)人臉的魯棒性,設(shè)計(jì)實(shí)驗(yàn)比較基于因子分析+Fisherface臉法(本文方法)與Fisherface臉法、非線性方法(KFDA)進(jìn)行人臉識(shí)別。其識(shí)別結(jié)果如圖6所示,從圖中可以看出本文方法的識(shí)別最高,當(dāng)樣本數(shù)小于4時(shí),F(xiàn)isher臉法與KFDA方法的識(shí)別率都低于50%。說明針對(duì)此人臉庫這些方法基本失效。這是因?yàn)榇巳四槑炀哂芯薮蟮淖藨B(tài)變化,選用的測試人臉故意沒有選用正臉,導(dǎo)致測試人臉與其匹配的人臉最少相差20°,最大相差180°。由于存在大量的姿態(tài)因子的干擾,因此線性判別方法無法將不同類別的人臉分開。此時(shí)傳統(tǒng)的方法是采用非線性的方法,把低維數(shù)據(jù)空間轉(zhuǎn)換到高維空間,在高維空間進(jìn)行線性判別分析。傳統(tǒng)的非線性方法(KFDA)的識(shí)別率比Fisher臉法有所提高,但提高的識(shí)別率不是十分理想。本文采用因子分離后再進(jìn)行線性判別的方法,不但簡單,而且得到了不錯(cuò)的識(shí)別率,此時(shí)識(shí)別率為超過50%。

與此同時(shí),從表1可以看出本文算法的識(shí)別時(shí)間與Fisher臉法相比相差無幾,而非線性方法的識(shí)別時(shí)間是最多的。從以上分析可以看出基于因子分析的人臉識(shí)別方

圖6 不同方法識(shí)別結(jié)果

以下實(shí)驗(yàn)采用分頻融合的方法,即先對(duì)原圖像進(jìn)行姿態(tài)因子分離;然后對(duì)因子分離后的圖像進(jìn)行1層小波分解,在4個(gè)不同子帶圖像中進(jìn)行基于稀疏表示的人臉分類識(shí)別,最后融合4部分的結(jié)果進(jìn)行最后判別。

1.11 統(tǒng)計(jì)學(xué)分析 應(yīng)用SPSS22.0軟件對(duì)數(shù)據(jù)進(jìn)行統(tǒng)計(jì)學(xué)分析,計(jì)量資料以(±s)表示,多組間對(duì)比采用單因素方差分析,兩兩對(duì)比采用q檢驗(yàn),P<0.05為差異有統(tǒng)計(jì)學(xué)意義。

4.2 人臉分類識(shí)別

本文所用實(shí)驗(yàn)人臉數(shù)據(jù)為XJTU人臉庫。XJTU人臉庫由西安交通大學(xué)人工智能與機(jī)器人研究所創(chuàng)建,包括人臉視點(diǎn)和光照兩個(gè)子庫,共采集并整理了1 247位志愿者的33 669幅人臉圖像。其中,每位志愿者拍攝19張視點(diǎn)圖像和8張光照?qǐng)D像。從XJTU人臉庫中抽取100個(gè)不同于姿態(tài)訓(xùn)練庫的人作為人臉識(shí)別的數(shù)據(jù)庫。每個(gè)人包括19張不同視點(diǎn)圖像和3張不同光照的圖像,其部分圖像見圖5。法在人臉具有較大外因素干擾的復(fù)雜條件下具有比傳統(tǒng)方法更好的識(shí)別效果。

表1 不同方法識(shí)別時(shí)間 s

圖7 不同方法對(duì)遮擋的實(shí)驗(yàn)結(jié)果

4.2.2 基于稀疏表示方法的人臉識(shí)別比較

為了驗(yàn)證稀疏表示(SRC)方法對(duì)分類的有效性,本節(jié)首先將基于SRC的人臉識(shí)別方法與幾種經(jīng)典的分類方法進(jìn)行比較即,最近鄰法(NN),最近子集法(NS),支持向量機(jī)(SVM)。實(shí)驗(yàn)時(shí),用本文提出的因子分析方法對(duì)人臉進(jìn)行姿態(tài)因子分離后再分別采用不同的分類方法進(jìn)行識(shí)別,訓(xùn)練樣本為10。識(shí)別結(jié)果如表2所示。從表中可以看出,對(duì)于本人臉庫SRC的分類方法識(shí)別率最高。分析其原因,對(duì)于NN方法,測試樣本的類別為距離其最近的訓(xùn)練樣本的類別,當(dāng)訓(xùn)練樣本足夠稠密,以至于測試樣本可以用一個(gè)訓(xùn)練樣本表示時(shí),基于稀疏表示的分類方法等同于NN方法。對(duì)NS方法,測試樣本的類別為距離其最近的子空間的類別,當(dāng)測試樣本可以用訓(xùn)練集中某類樣本的線性組合表示時(shí),基于稀疏表示的方法等同于NS。

表2 不同分類器的識(shí)別結(jié)果

為了進(jìn)一步說明SRC方法對(duì)遮擋的魯棒性,下面對(duì)測試圖像作一些改變,對(duì)測試圖像用不同大小的白色方塊擋住人臉面部(如圖7(a))。模擬0%到50%不同水平的連續(xù)遮擋,每個(gè)測試圖像的遮擋位置是隨機(jī)選擇,且對(duì)計(jì)算機(jī)來說也是未知的。圖7(a)是遮擋30%的圖像,圖7(b)為估計(jì)稀疏誤差7(c)顯示了4種不同分類方法對(duì)不同程度遮擋的識(shí)別率。同樣地,SRC方法優(yōu)于其他3種方法。當(dāng)30%遮擋時(shí),算法表現(xiàn)得相當(dāng)好,識(shí)別率達(dá)基本不受什么影響;即便是遮擋達(dá)到40%時(shí),其識(shí)別率也只下降10%左右,而此時(shí)其他三種方法下降50%左右的識(shí)別率。SRC方法對(duì)遮擋有如此好的錯(cuò)誤糾正和魯棒性的關(guān)鍵是合理地利用了冗余和稀疏性。

目前對(duì)于多姿態(tài)人臉識(shí)別,研究者們提出了許多解決方法。與本文相關(guān)且具代表性的有J.D.Simon等人提出的因子分析方法[21],和最近譚曉衡提出的基于正臉補(bǔ)償算子的多姿態(tài)人臉識(shí)別方法[18]。J.D.Simon等人將具有多姿態(tài)人臉的觀察空間看成是由姿態(tài)無關(guān)的身份空間乘以一個(gè)姿態(tài)因子再加一個(gè)噪聲項(xiàng)組成。通過(期望最大法)EM算法求解性線變化和噪聲參數(shù),得出每個(gè)人的身份空間。他們具體做法是采用分部的方法,對(duì)每個(gè)分部分別建立因子分析模型和求解結(jié)果,最后融合每個(gè)分部得出最終結(jié)果。為了更公平地與J.D.Simon等人提出的因子分析方法進(jìn)行比較,本實(shí)驗(yàn)也采用分部的方法,對(duì)人臉進(jìn)行分塊,然后對(duì)每塊進(jìn)行姿態(tài)因子分離,最后融合各部分進(jìn)行最終判別。

三種方法的最佳識(shí)別率見表3,可以看出在人臉無遮擋時(shí),文獻(xiàn)[21]的方法識(shí)別率最高,在人臉具有姿態(tài)變化20°到180°時(shí),最佳識(shí)別率達(dá)到91.5%,本文方法次之,達(dá)到88%,文獻(xiàn)[18]的方法最低只有75%。雖然文獻(xiàn)[18]通過平均臉的方法訓(xùn)練出正臉補(bǔ)償因子,但是其在分類識(shí)別時(shí)只采用了最簡單的PCA+距離的分類器。所以識(shí)別率沒有本文高。文獻(xiàn)[21]的方法雖然比本文方法識(shí)別率高了3.5%,但是以復(fù)雜算法為代價(jià)。而本文通過更簡單的方法達(dá)到與其相當(dāng)?shù)淖R(shí)別率。當(dāng)人臉有20%遮擋時(shí),其他兩種方法識(shí)別率都有10%左右的下降,而本文方法卻保持不變。

表3 不同方法的最佳結(jié)果比較

5 結(jié)束語

針對(duì)人臉姿態(tài)與遮擋變化問題,本文提出基于因子分析和稀疏表示的人臉識(shí)別方法。這種結(jié)合方法不但能充分發(fā)揮稀疏表示方法對(duì)人臉的噪聲和遮擋的魯棒性,還能克服其對(duì)人臉姿態(tài)變化的敏感性。與其他技術(shù)相比,本算法使用平均統(tǒng)計(jì)方法訓(xùn)練姿態(tài)因子,沒有采用將人臉庫中人臉組成一個(gè)大矩陣來進(jìn)行訓(xùn)練的方法,減少了計(jì)算量。同時(shí)對(duì)人臉歸一化要求低,人臉庫容易選擇。此外,本文使用的算法簡單,通過簡單的加減運(yùn)算就能達(dá)到很好的識(shí)別效果,而且對(duì)各種姿態(tài)人臉進(jìn)行識(shí)別都能通用。

[1]Zhao W,Chellappa R,Phillips P J,et al.Face recognition:a literature survey[J].ACM Computing Surveys,2003,35(4):399-458.

[2]Phillips P J,Scruggs W T,O'Toole A J.FRVT 2006 and ICE 2006 large-scale experimental results[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32 (5):831-845.

[3]Zhang Xiaozheng,Gao Yongsheng.Facerecognition across pose:a review[J].Pattern Recognition,2009,42:2876-2896.

[4]Turk M A,Pentland A P.Face recognition using eigenfaces[C]// Proceedings of the IEEE Conference on CVPR.Maui,HI:[s.n.],1991:586-591.

[5]Belhumeur P N,Hespanha J P,Kriegman D J.Eigenfaces vs. Fisherfaces:recognition using class specific linear projection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

[6]盧春梅,牛海軍,郝琳波.消除光照和姿態(tài)變化影響的人臉識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(10):166-168.

[7]Kahraman F,Kurt B,Gokmen M.Robust face alignment for illumination and pose invariant face recognition[C]//Proceedings of the IEEE Conference on CVPR.Minneapolis,MN:[s.n.],2007:1-7.

[8]龔衛(wèi)國,黃瀟瑩,李偉紅.基于正弦變換的人臉姿態(tài)校正及識(shí)別研究[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(22):213-216.

[9]Blanz V,Vetter T.Face recognition based on fitting a 3D morphable model[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(9):1063-1074.

[10]Jiang D,Hu Y,Yan S,et al.Efficient 3D reconstruction for face recognition[J].Pattern Recognition,2005,38(6):787-798.

[11]Ahonen T,Hadid A,Pietikainen M.Face recognition with localbinary pattern[C]//Proc ofthe European Confon Computer Vision.Berlin:Springer,2004:469-481.

[12]Li S Z,Hou X W,Zhang H J,et al.Learning spatially localized parts based representation[C]//Proc of the Int'l Conf on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society Press,2001:207-212.

[13]Ivanov Y,Heisele B,Serre T.Using component features for face recognition[C]//Proceedings ofthe 6th International Conference on Automatic Face and Gesture Recognition. Washington,DC,USA:IEEE Computer Society,2004.

[14]Ahonen T,Hadid A,Pietikainen M.Face description with local binary patterns:application to face recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(16):2037-2041.

[15]Wright J,Yang A Y,Ganesh A.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.

[16]廖海斌,陳慶虎,鄢煜塵.基于因子分析的實(shí)用人臉識(shí)別研究[J].電子與信息學(xué)報(bào),2011,33(7):1611-1616.

[17]Jenkins R,Burton A M.100%accuracy in automatic face recognition[J].Science,2008,319(25):435-439.

[18]譚曉衡,張建慧,陳林,等.基于正臉補(bǔ)償算子的多姿態(tài)人臉識(shí)別方法:中國:201010591396.3[P].2011-04-14.

[19]AI& R Institute of Artificial Intelligence and Robotics. Oriental face database[EB/OL].[2011-08-11].http://www.aiar. xjtu.edu.cn/groups/face/Chinese/Homepage.htm.

[20]廖海斌,郝寧波,陳慶虎.基于奇異值與稀疏表示的穩(wěn)健性人臉識(shí)別[J].電視技術(shù),2010(7):99-103.

[21]Prince S J D,Warrell J,Elder J H,et al.Tied factor analysis for face recognition across large pose differences[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2008,30(6):970-984.

ZHANG Jiangqin1,LIAO Haibin2,LI Yuan1

1.Network Information Center,Anhui Science and Technology University,Chuzhou,Anhui 233100,China 2.School of Electronic Information,Wuhan University,Wuhan 430072,China

Under uncontrolled environment,one of the greatest remaining research challenges in face recognition is to recognize faces across different poses and occlusion.The face recognition method via Sparse Representation(SRC)considers that the test image can be represented as a sparse linear combination of the training images,and further use the combination coefficients for face recognition.This method is robust to face occlusion and noise,butor performance to face pose varying.The reason is that SRC requires exact alignment between each testing and training image,the variation of pose results in alignment error which is contrary to the prerequisite of the linear combination.In order to overcome of face occlusion and pose variations problem,this paper applies factor analysis to human faces to separate the face pose factors and obtain virtual frontal faces for SRC face recognition.Experimental results demonstrate that the presented algorithm possesses good robustness for the face variation of poses and occlusion.

face recognition;factor analysis;factor separation;sparse representation

在非可控環(huán)境下,人臉識(shí)別面臨的最大難題之一是姿態(tài)變化與遮擋問題?;谙∈璞硎镜娜四樧R(shí)別方法將測試人臉表示成訓(xùn)練人臉的稀疏線性組合,根據(jù)其組合系數(shù)的稀疏性進(jìn)行人臉識(shí)別。該方法對(duì)人臉的噪聲和遮擋變化具有很好的魯棒性,但對(duì)人臉的姿態(tài)變化表現(xiàn)力極差,這是因?yàn)楫?dāng)人臉具有姿態(tài)變化時(shí),同一個(gè)人不同姿態(tài)情況下很難對(duì)應(yīng)起來,這違背線性組合的前提條件。為了克服稀疏表示方法對(duì)人臉姿態(tài)變化表現(xiàn)力極差問題,對(duì)人臉進(jìn)行因子分析,分離出人臉姿態(tài)因子,得到合成的正面人臉;利用稀疏表示進(jìn)行人臉分類識(shí)別。實(shí)驗(yàn)結(jié)果表明,該方法對(duì)人臉的遮擋和姿態(tài)變化具有很好的魯棒性。

人臉識(shí)別;因子分析;因子分離;稀疏表示

A

TP391.4

10.3778/j.issn.1002-8331.1210-0298

ZHANG Jiangqin,LIAO Haibin,LI Yuan.Multi-view face recognition based on factor analysis and sparse representation.Computer Engineering and Applications,2013,49(5):154-159.

中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助(No.20102120103000004);河南省重大科技攻關(guān)項(xiàng)目(No.072SGZS38042)。

張疆勤(1979—),女,實(shí)驗(yàn)師,主要研究方向?yàn)閳D像處理與模式識(shí)別;廖海斌(1982—),男,博士,主要研究方向?yàn)閳D像處理與模式識(shí)別。E-mail:liao_haibing@163.com

2012-10-29

2012-12-04

1002-8331(2013)05-0154-06

猜你喜歡
人臉識(shí)別方法
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
學(xué)習(xí)方法
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
人臉識(shí)別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
捕魚
主站蜘蛛池模板: 一级毛片在线直接观看| 不卡无码h在线观看| 亚洲福利一区二区三区| 91小视频在线| 日本国产精品一区久久久| 爱色欧美亚洲综合图区| 欧美亚洲欧美| 成·人免费午夜无码视频在线观看 | 91青青视频| 国产成年女人特黄特色大片免费| 亚洲国产无码有码| 午夜视频在线观看免费网站| 91国语视频| 国产精品美女自慰喷水| 高清无码手机在线观看| 在线观看热码亚洲av每日更新| 国产亚洲精品自在线| 成人毛片在线播放| 广东一级毛片| 色妺妺在线视频喷水| 99热这里只有精品在线播放| 中文字幕亚洲乱码熟女1区2区| 麻豆精品在线播放| 亚洲a级在线观看| 久久国产精品夜色| 成人综合网址| 久青草国产高清在线视频| a毛片免费观看| 成人a免费α片在线视频网站| 麻豆国产精品一二三在线观看| 中国黄色一级视频| 不卡的在线视频免费观看| 亚洲视频在线青青| 亚洲伊人久久精品影院| 黄色网页在线观看| 亚洲成人免费看| 91精品aⅴ无码中文字字幕蜜桃| 久久五月天综合| 久久久精品无码一二三区| 精品欧美一区二区三区久久久| 国产亚洲欧美日本一二三本道| 国产人在线成免费视频| 综合色区亚洲熟妇在线| 88国产经典欧美一区二区三区| 国产精品区网红主播在线观看| 国产成人亚洲日韩欧美电影| 国产真实二区一区在线亚洲| 日本黄网在线观看| 精品撒尿视频一区二区三区| 国产成人高清精品免费软件| 欧美在线黄| 日本欧美精品| 亚洲综合婷婷激情| 黄色福利在线| 福利视频久久| 久久久久亚洲AV成人网站软件| 日韩a在线观看免费观看| 中文国产成人精品久久| 99re这里只有国产中文精品国产精品 | 九色在线观看视频| 伊人色婷婷| 日韩成人在线网站| 欧洲av毛片| 国产永久无码观看在线| 国产日韩欧美精品区性色| 国产精品成人免费综合| 亚洲女同欧美在线| 欧美日韩一区二区在线播放| 67194亚洲无码| 在线人成精品免费视频| 国产免费看久久久| 日韩国产欧美精品在线| 国产美女免费网站| 国产va在线| 亚洲成人精品久久| 日韩中文字幕免费在线观看| 欧美亚洲一区二区三区在线| 免费AV在线播放观看18禁强制| 欧美激情综合一区二区| 精品视频一区二区观看| 亚洲视频四区| 精品国产免费观看一区|