王 瑤,王正勇,何小海,雷 翔
(四川大學(xué) 電子信息學(xué)院 圖像信息研究所,四川 成都 610064)
基于多尺度訓(xùn)練庫與多特征融合的人臉識別
王 瑤,王正勇,何小海,雷 翔
(四川大學(xué) 電子信息學(xué)院 圖像信息研究所,四川 成都 610064)
針對光照差異、表情變化、遮擋等因素造成人臉識別率低的問題,提出一種基于多尺度訓(xùn)練庫和加權(quán)特征的魯棒性人臉識別算法。首先根據(jù)不同大小的圖片具有不同信息量的特點定義并建立多尺度訓(xùn)練庫,然后采用RPCA方法對人臉圖像進行分解,之后進行HMLBP特征和Eigenface特征提取,最后引入一個權(quán)重因子將兩種特征進行加權(quán)融合,并采用基于稀疏表達的方法對人臉圖像進行識別。實驗結(jié)果表明,相比其他人臉識別算法,本文提出的算法對標(biāo)準(zhǔn)人臉庫保持較高識別率,最高可達99%,同時對遮擋人臉庫也具有較好的識別效果,魯棒性較高。
多尺度訓(xùn)練庫;加權(quán)特征融合;RPCA;人臉識別
人臉識別作為計算機技術(shù)領(lǐng)域的熱點研究問題,以其自身的優(yōu)越性廣泛應(yīng)用在圖像處理、機器智能與模式識別、智能監(jiān)控、身份鑒定等領(lǐng)域。在人臉識別過程中,由于光照條件、拍攝距離以及圖像采集設(shè)備等差異影響了人臉識別的效果,導(dǎo)致識別率降低,給人臉識別技術(shù)帶來了一定的挑戰(zhàn)。
在人臉識別的發(fā)展中,學(xué)者們提出了許多算法。Matthew Turk和Alex Pentland[1]將主成分分析方法(Principal Component Analysis,PCA)引入人臉識別領(lǐng)域,提出了一種基于Eigenface的人臉識別方法[2]。Belhumeur[3]等人將PCA和線性判別分析(Linear Discrimination Analysis,LDA)相結(jié)合提出了一種基于Fisherface的人臉識別方法[4]。這些方法取得了一定的成果,但均建立在樣本服從多元正態(tài)分布的假設(shè)前提下。而研究表明,人臉空間更可能存在于低維非線性流形子空間中,為了解決這個問題,研究者提出了對圖像進行分類的支持向量機(SVM)方法[5],隨著分類算法的不斷發(fā)展,還涌現(xiàn)了其他許多改進算法,如增量主成分分析(IPCA)、增量線性鑒別分析(ILDA)、增量支持向量機(ISVM)、獨立主成分分析(ICA)等[6-9]。這些方法有效地解決了樣本非線性的問題,但是在人臉圖片光照、姿態(tài)、表情變化較大時識別性能并不十分理想。針對這一點,研究人員提出了基于壓縮感知的分類方法,如Wright等人提出的基于稀疏表示分類器人臉識別(SRC)[10]。SRC方法將所有訓(xùn)練圖像進行稀疏表示,依據(jù)壓縮感知理論求出最稀疏表示,對人臉圖像進行分類。SRC方法雖然很好地改善了人臉分類效果,但只是簡單地將經(jīng)過PCA降維獲得的數(shù)據(jù)作為單一特征用作識別,且對遮擋人臉識別效果不理想。Meng Yang等人在文獻[11]中提出了一種魯棒的稀疏編碼算法,該算法對遮擋人臉識別率有很大的提高,但由于權(quán)重需要經(jīng)過不斷的迭代計算,導(dǎo)致程序運行時間較長。J B Huang等人在稀疏編碼時間上進行改進,在文獻[12]中提出了基于原型表示的快速稀疏表示算法(FSR),F(xiàn)SR方法采用K-SVD算法選取出具有代表性的樣本來構(gòu)造人臉超完備字典,精簡了訓(xùn)練字典,大大提高了算法運行速度,然而識別率較原始的稀疏方法有所降低。
針對上述問題,本文提出了一種基于多尺度訓(xùn)練庫與多特征融合的魯棒性人臉識別算法。算法定義和建立了多尺度訓(xùn)練庫,對不同大小的測試人臉圖片進行多尺度歸一化;并引入一個權(quán)重因子將分層多尺度LBP(HMLBP)[13]特征和Eigenface特征進行加權(quán)融合,有效地結(jié)合了兩種特征的優(yōu)勢。本文對多尺度人臉圖片組成的測試庫以及人臉有遮擋和無遮擋情況分別進行了實驗,實驗結(jié)果表明,無論人臉尺度大小、有無遮擋,本文算法相比于其他人臉識別算法都具有較好的識別率,能應(yīng)用于各種情況的人臉識別,具有較高的魯棒性。
本文算法首先針對不同大小圖片具有不同信息量的問題定義了多尺度訓(xùn)練庫的概念,并基于多尺度訓(xùn)練庫對不同大小的測試人臉圖片進行多尺度歸一化,然后采用魯棒性主成分(RPCA)對人臉圖像進行分解[14],將得到的低秩部分進行HMLBP特征和Eigenface特征提取,再引入一個權(quán)重因子將特征進行加權(quán)融合,最后用基于稀疏表示的方法進行人臉識別。算法具體的實現(xiàn)流程如圖1所示。

圖1 本文算法流程
1.1 基于多尺度訓(xùn)練庫的人臉歸一化
在實際的應(yīng)用中,有時會涉及到對不同大小的人臉圖片進行識別,如基于視頻的人臉識別。由于拍攝過程中個體與攝像頭距離遠(yuǎn)近的差異,導(dǎo)致采集到的視頻中人臉圖像大小存在差異。對于不同大小的圖片,圖片的信息量不同,經(jīng)特征提取、數(shù)據(jù)降維后保留的圖片主要信息也不同。若輸入的測試圖片與訓(xùn)練庫的大小不匹配,簡單地將各種尺度的測試圖片歸一化成單一尺度,將會影響識別的準(zhǔn)確性,這也是人臉識別研究過程中容易被忽視的一點。因此本文提出了一種多尺度訓(xùn)練庫的概念,在多尺度訓(xùn)練庫下對不同大小的測試圖片進行多尺度歸一化,對于不同大小的輸入人臉圖片都能獲得較好的識別率。人臉訓(xùn)練庫的匹配與多尺度歸一化過程主要分為如下幾個步驟:
1)預(yù)先對大小為X1×Y1,X2×Y2,…,Xn×Yn的訓(xùn)練人臉圖片建立n種大小的圖片訓(xùn)練庫T1,T2,…,Tn。
2)將多尺度人臉訓(xùn)練庫按從大到小的順序排列,假設(shè)為T1>T2>…>Tn。
3)讀取測試人臉圖片y,設(shè)其大小為N×M。
4)設(shè)計如下規(guī)則將測試人臉圖片與訓(xùn)練人臉庫進行匹配
(1)
式中:k=N×M表示測試人臉圖片大小;k1=X1×Y1,k2=X2×Y2,…,kn=Xn×Yn表示n種不同的訓(xùn)練人臉圖片大小;G為最終匹配的人臉訓(xùn)練庫。
5)將測試人臉y按匹配的人臉訓(xùn)練庫G中的人臉圖片大小用雙線性插值算法進行歸一化。
實驗表明,本文提出的基于多尺度訓(xùn)練庫的人臉歸一化方法有效提高了人臉識別率,具體實現(xiàn)和效果將在本文的實驗結(jié)果部分給出。
1.2 基于低秩分解的人臉圖像預(yù)處理
在實際應(yīng)用中,人臉圖像往往包含光照變化、陰影、遮擋等影響,這些影響給人臉識別帶來了挑戰(zhàn),在這些環(huán)境的影響下獲得的人臉圖像得到的像素矩陣往往呈現(xiàn)出高秩的特點。本文采用RPCA方法對人臉圖像進行分解,得到反映人臉本質(zhì)特征(如頭發(fā)、五官等)的低秩部分和反映人臉差異(遮擋物體,如墨鏡、圍巾或污染等)的稀疏誤差部分。
假設(shè)有K張人臉圖,每一張人臉圖像的大小為N×M,本文算法將每一張人臉圖像的像素值按列取出,即每一張圖像為一列,構(gòu)成了一個(N×M)×K的矩陣D,將其表示為低秩矩陣A以及稀疏誤差矩陣E兩部分
D=A+E
(2)
式(2)可轉(zhuǎn)化為式(3)來描述

(3)
式中:λ為權(quán)重參數(shù),是一個正數(shù);‖·‖*為求矩陣的核范數(shù);‖·‖1為求矩陣的1范數(shù)。本文將式(3)描述的問題轉(zhuǎn)化為求解增廣的拉格朗日乘法問題[15],如式(4)所示
l(A,E,Y)= ‖A‖*+λ‖E‖1+
(4)
式中:Y為拉格朗日乘子;μ是一個正參數(shù);為求取矩陣a、b內(nèi)積;‖·‖F(xiàn)為求取矩陣的F范數(shù)。圖2給出了有遮擋和無遮擋人臉預(yù)處理前后的效果圖,圖中D為原始的人臉圖片,A為經(jīng)過低秩分解預(yù)處理得到的人臉圖片,E為稀疏誤差部分,從圖中可看出經(jīng)過預(yù)處理,有效去除了陰影、遮擋等影響。

圖2 基于低秩分解的人臉預(yù)處理效果圖
1.3 加權(quán)特征融合決策
在人臉識別領(lǐng)域很多研究學(xué)者提出多個分類器的組合可以更有效進行人臉分類,如Salimi-Khorshidi G等人提出多分類器識別框架[16]。通過這些領(lǐng)域的研究,人們發(fā)現(xiàn)多特征組合有望降低對分類器的復(fù)雜性要求,并提高識別率。在人臉識別領(lǐng)域通常采取基于全局特征和基于局部特征兩種方法來進行識別,兩種方法各有優(yōu)劣。全局特征主要表示人臉的主要信息,對細(xì)微的變化不敏感。局部特征主要表示人臉的細(xì)節(jié)信息,對光照具有較強的魯棒性。源于此思想,本文提出一種將HMLBP特征和Eigenface特征加權(quán)融合的方法,結(jié)合了局部特征和全局特征的優(yōu)點。
1.3.1 HMLBP特征提取
傳統(tǒng)的單尺度局部二值模式(Local Binary Patterns,LBP)[17]難以捕捉圖像的細(xì)節(jié)信息特征,結(jié)合雙線性插值運算圓形領(lǐng)域的LBP算子可以選擇任意半徑任意數(shù)目的鄰域像素點進行編碼,比單尺度的LBP特征更能表示一幅圖像的信息。其編碼計算公式如下

(5)
式中:gc是中心像素點的灰度值;gP是其周圍相鄰像素點的灰度值;P為相鄰點的總個數(shù);R為圓形鄰域的半徑。
為了進一步提取具有代表性的圖像特征,研究者提出了“統(tǒng)一化模式”的概念,LBP二進制編碼中包含從0到1,或從1到0轉(zhuǎn)變不多于兩個的模式稱為統(tǒng)一化模式,否則為非統(tǒng)一化模式。本文首先對每張輸入的人臉圖片建立每個像素的最大半徑的LBP映射,然后將像素點根據(jù)統(tǒng)一化和非統(tǒng)一化兩種模式劃分為兩組,對統(tǒng)一化模式的像素點建立第一層LBP直方圖,剩下的非統(tǒng)一化模式的像素點將鄰域半徑逐次減小,獲取下一層統(tǒng)一化模式的LBP直方圖。直到半徑減小為1時,將所有生成的直方圖混合得到HMLBP特征,其原理如圖3所示。對低秩分解得到的矩陣A進行HMLBP特征提取后得到一個D1×K的特征矩陣CMHLBP,其中D1為HMLBP特征維數(shù)。

圖3 HMLBP特征提取原理圖
1.3.2Eigenface特征提取
本文將低秩分解得到的矩陣A用式(6)進行K-L變換
(6)

BBT×νi=λi×νi
(7)
對式(7)作如下變換
BBT×(B×νi)=λi×(B×νi)
(8)
S的特征向量B×vi即為一個Eigenface特征,對矩陣A進行Eigenface特征提取后得到一個D2×K維的特征矩陣CEigenface,D2為Eigenface特征維數(shù)。
1.3.3 加權(quán)特征融合方法
由于不同特征提取算法的優(yōu)勢不同,使用單一的特征進行識別無法適用于多種情況下采集得到的人臉圖片,多特征間的線性加權(quán)組合通常比單特征帶來更好的人臉識別效果,并且相比于其他運算規(guī)則(例如積、平均、最大、最小)能取得更好的融合效果。因此,本文設(shè)定一個權(quán)重因子ω,采用線性加權(quán)的方式來融合HMLBP特征和Eigenface特征。組合方式如式(9)所示
C=ωCHMLBP+(1-ω)CEigenface, 0≤ω≤1
(9)
式中:ω用來控制HMLBP和的Eigenface相對比重。當(dāng)ω=0時,它等同于使用單一的Eigenface特征,同理當(dāng)ω=1時,等同于使用HMLBP特征。加權(quán)特征融合的方法結(jié)合不同特征的優(yōu)勢,有效選擇并保留了更具代表性的特征,取得了更好的識別效果。圖4為本文多特征融合示意圖,加權(quán)特征的優(yōu)勢將在本文實驗結(jié)果部分給出證明。

圖4 多特征融合示意圖
測試人臉圖片進行加權(quán)特征融合后采用基于稀疏表示的方法進行人臉識別,為了對本文算法的有效性進行評估,在本節(jié)給出了單一尺度與多尺度訓(xùn)練庫、不同特征以及遮擋人臉方面的實驗測試,最后將本文算法與其他幾種常見人臉識別算法進行了比較,驗證了本文算法的有效性。
2.1 多尺度訓(xùn)練庫的識別率測試
本文在多尺度訓(xùn)練庫識別率測試實驗中選取了ORL人臉圖像庫。ORL人臉圖像庫包括了40個不同的人的400幅圖像,每人10幅不同表情、不同角度和不同臉部細(xì)節(jié)的人臉圖像。在實驗部分,由于不同的特征維數(shù)會導(dǎo)致不同的識別率,在經(jīng)過大量實驗測試并出于兼顧識別率和時間效率方面的考慮,將加權(quán)特征維數(shù)定為132維。ORL人臉庫實驗過程中隨機選取每人5張圖片生成訓(xùn)練庫,預(yù)先搭建訓(xùn)練圖片大小為89×73、67×55、44×36、22×18的4種訓(xùn)練庫。表1給出了含有不同大小人臉圖片的ORL測試人臉庫在同時歸一化到幾種單一尺度的訓(xùn)練庫以及按本文設(shè)計的規(guī)則歸一化到多尺度訓(xùn)練庫時的識別率。測試庫1隨機選取ORL人臉圖片大小為89×73、67×55、44×36、22×18這4種尺度,每種5張,共800張人臉圖片。測試庫2隨機選取ORL人臉圖片大小為100×82、78×64、56×46、33×27這4種尺度,每種5張,共800張人臉圖片。實驗結(jié)果表明,不同大小的測試人臉圖片,在多尺度訓(xùn)練庫的匹配下,識別率最高,算法的實用性更強。

表1 不同訓(xùn)練庫對人臉識別率的影響 %
2.2 特征權(quán)重的選取實驗
不同特征權(quán)重的選取將會帶來不同的人臉識別效果,圖5以O(shè)RL人臉HMLBP特征維數(shù)D1=100,Eigenface特征維數(shù)D2=32為例,對特征融合的權(quán)重ω進行了討論,對權(quán)重進行了分析,發(fā)現(xiàn)當(dāng)HMLBP特征權(quán)重取ω=0.1且Eigenface取1-ω=0.9時識別效果最好,ORL人臉庫識別率最高可達97.50%。

圖5 權(quán)重ω對識別率的影響
2.3 不同特征的識別率測試
本文測試了不同的特征對人臉識別率 的影響,為了證明加權(quán)特征提取方法識別率的優(yōu)勢,本文對不同特征,包括下采樣(采用雙線性方法將圖片縮放為12×11像素,即特征維數(shù)d=132)、特征臉特征、HMLBP特征以及本文提出的加權(quán)特征,對不同人臉庫識別率的影響做了實驗。人臉庫選擇ORL、AR、ExtendedYaleB、自制庫(見圖6)等人臉庫。AR人臉庫包含100個人的1 400張正面人臉圖像,人均14張不同人臉表情和光照環(huán)境變化人臉圖片。Extended YaleB人臉庫包含了38個人在64種光照條件下的人臉圖片,其中正臉圖片2 414張。自制庫是由四川大學(xué)圖像信息研究所拍攝并用作人臉識別測試的人臉圖像庫,其中包含了44個人,人均10張不同表情、不同角度和不同臉部細(xì)節(jié)的人臉圖片。

圖6 自制圖像庫中部分人臉圖像
表2給出了本文算法在不同的特征下對人臉識別率影響的實驗測試,圖7給出了ExtendedYaleB庫中部分圖片使用單獨HMLBP、Eigenface特征以及本文提出的加權(quán)特征的識別結(jié)果,每一行為每種特征的識別結(jié)果,其中虛線框出的圖片表示能正確識別。結(jié)果表明本文提出的加權(quán)特征融合方法對比于單一特征方法對人臉識別率有一定的提高。

表2 本文算法在不同特征下的識別率 %

圖7 不同特征的人臉識別結(jié)果
2.4 人臉遮擋時的識別率測試
在識別遮擋人臉的實驗部分,選取AR遮擋人臉庫(見圖8)進行測試。AR遮擋人臉庫包含了100個人的1 200張正面遮擋人臉圖像,人均12張人臉圖片,其中包含了每人6張?zhí)栫R遮擋和6張圍巾遮擋。

圖8 AR遮擋人臉圖像庫中部分人臉圖像
在測試遮擋人臉的識別率實驗中,隨機選取AR無遮擋庫中每人各8張人臉圖片作為訓(xùn)練,選取AR無遮擋庫中每人剩下的6張人臉圖片和AR遮擋庫中每人各4張遮擋人臉圖片(太陽鏡、圍巾遮擋各2張),即每人10張圖片作為測試。從表3可以看出,與原始的稀疏人臉識別方法(SRC)和快速稀疏人臉識別方法(FSR)相比,本文提出的算法對遮擋人臉同樣具有較高的識別率,算法魯棒性更強。

表3 不同算法對AR遮擋人臉庫識別結(jié)果
2.5 采用不同識別算法的識別率測試
圖9中展示了本文提出的算法與PCA,LDA,IPCA,ILDA,SVM,ISVM,ICA,SRC,F(xiàn)SR這9種常見的人臉識別算法在不同人臉庫上識別率的對比,實驗結(jié)果表明,相比于其他算法,本文算法在不同人臉庫上均能保持較好的識別率,體現(xiàn)了本文算法的優(yōu)越性。

圖9 不種算法對人臉識別率的影響
人臉識別作為當(dāng)今熱門的身份識別技術(shù)之一,利用生物特性進行身份識別,以其較為快速、方便、準(zhǔn)確的優(yōu)點被用于許多領(lǐng)域,特征提取對于提高人臉識別的準(zhǔn)確率和速率具有很大的貢獻。本文根據(jù)不同大小的測試圖片建立多尺度人臉圖片訓(xùn)練庫,用RPCA方法對人臉圖片分解得到的低秩部分進行加權(quán)特征提取,最后采用基于稀疏表達的方法進行識別。實驗結(jié)果表明,本文提出的算法相比于其他人臉?biāo)惴ň哂休^高的識別率,魯棒性更強。本文研究雖然取得了一定成果,但是也存在一些問題需要進一步探討研究。對于多尺度庫的搭建、尺度的選取以及對于多特征融合問題,采用的具體特征以及特征的具體個數(shù)仍然需要進一步討論。目前光照變化、夸張表情和人臉對齊等仍然是人臉識別面臨的幾大難題,通過預(yù)處理或是尋找更加魯棒的分類算法是下一步研究的方向。
[1]ABDI H,WILLIAMS L J. Principal component analysis[J]. Wiley Interdisciplinary Reviews:Computational Statistics,2010,2(4):433-459.
[2]AGARWAL M,AGRAWAL H,JAIN N,et al. Face recognition using principle component analysis, eigenface and neural network[C]//Proc. 2010 International Conference on Signal Acquisition and Processing. Bangalore,India:[s.n.],2010:310-314.
[3]FAN Z,XU Y,ZHANG D. Local linear discriminant analysis framework using sample neighbors[J].IEEE Trans. Neu. Net.,2011,22(7):1119-1132.
[4]MARTINEZ A.Fisherfaces[J].Scholarpedia,2011,6(2):4282.
[5]CHANG C C,LIN C J. LIBSVM:a library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology(TIST),2011,2(3):27.
[6]WENG J,ZHANG Y,HWANG W S. Candid covariance-free incremental principal component analysis[J].IEEE Trans. Patt. Anal. Mach. Intell.,2003,25(8):1034-1040.
[7]KIM T K,WONG S F,STENGER B,et al. Incremental linear discriminant analysis using sufficient spanning set approximations[J].International Journal of Computer Vision,2007,91(2):216-232.
[8]CAUWENBERGHS G,POGGIO T. Incremental and decremental support vector machine learning[J].Advances in Neural Information Processing Systems,2001(11):409-415.
[9]BARTLETT M S,MOVELLAN J R,SEJNOWSKI T J. Face recognition by independent component analysis[J].IEEE Trans. Neu. Net.,2002,13(6):1450-1464.
[10]WRIGHT J,YANG A Y,GANESH A,et al. Robust face recognition via sparse representation[J].IEEE Trans. Patt. Anal. Mach. Intell.,2009,31(2):210-227.
[11]YANG M,ZHANG L,YANG J,et al. Robust sparse coding for face recognition[EB/OL].[2014-04-10].http://wenku.baidu.com/view/1eff46bdf121dd36a32d82db.html.
[12]HUANG J B,YANG M H. Fast sparse representation with prototypes[EB/OL].[2014-04-10].http://faculty.ucmerced.edu/mhyang/cvpr10_fsr.html.
[13]GUO Z,ZHANG L,ZHANG D,et al. Hierarchical multiscale LBP for face and palmprint recognition[C]//Proc. 2010 17th IEEE International Conference on Image Processing (ICIP). [S.l.]:IEEE Press,2010:4521-4524.
[14]WRIGHT J,GANESH A,RAO S,et al. Robust principal component analysis:exact recovery of corrupted low-rank matrices via convex optimization[EB/OL].[2014-04-10].http://www.researchgate.net/publication/45849410_Robust_Principal_Component_Analysis_Exact_Recovery_of_Corrupted_Low-Rank_Matrices.
[15]LIN Z,CHEN M,MA Y. The augmented lagrange multiplier method for exact recovery of corrupted low-rank matrices[EB/OL].[2014-04-10].http://www.researchgate.net/publication/46587364_The_Augmented_Lagrange_Multiplier_Method_for_Exact_Recovery_of_Corrupted_Low-Rank_Matrices.
[16]SALIMI K G,DOUAUD G,BECKMANN C F,et al. Automatic denoising of functional MRI data: combining independent component analysis and hierarchical fusion of classifiers[EB/OL].[2014-04-10].http://www.researchgate.net/publication/259587259_Automatic_Denoising_of_Functional_MRI_Data_Combining_Independent_Component_Analysis_and_Hierarchical_Fusion_of_Classifiers?ev=prf_cit.
[17]ZHANG G,HUANG X,LI S Z,et al. Boosting local binary pattern(LBP)-based face recognition[EB/OL].[2014-04-10].http://www.researchgate.net/publication/220849851_Boosting_Local_Binary_Pattern_(LBP)-Based_Face_Recognition.
王 瑤(1990— ),女,碩士生,主研圖像處理與圖像識別;
王正勇(1969— ),女,副教授,主研圖像處理與模式識別、信息與信號處理;
何小海(1964— ),教授,博士生導(dǎo)師,主研圖像處理與信息系統(tǒng)、機器視覺與智能系統(tǒng);
雷 翔(1987— ),博士生,主研模式識別、圖像處理。
責(zé)任編輯:任健男
Face Recognition by Features Fusion Based on Multiscale Training Set
WANG Yao, WANG Zhengyong, HE Xiaohai, LEI Xiang
(ImageInformationInstitute,CollegeofElectronicsandInformationEngineering,SichuanUniversity,Chengdu610064,China)
For the low face recognition rate caused by frontal views with varying expression, illumination and occlusion, an face recognition algorithm with good robustness based on multiscale training set and weighted features is proposed. Firstly, the algorithm establishes a multiscale training set according to different size of images which contains different information. Next, images are decomposed by using RPCA. Finally, the HMLBP features and the Eigenface features are weighted combined for face recognition based on sparse representation. Experiments show that, compared with other algorithms, the proposed algorithm has a high recognition rate which can be 99% and has high robustness whatever it is based on common face database or occluded faces.
multiscale training set; weighted features combination; RPCA; face recognition
國家自然科學(xué)基金委員會和中國工程物理研究院聯(lián)合基金資助項目(11176018);國家自然科學(xué)基金項目(61071161)
TP391
A
10.16280/j.videoe.2015.01.031
2014-06-20
【本文獻信息】王瑤,王正勇,何小海,等.基于多尺度訓(xùn)練庫與多特征融合的人臉識別[J].電視技術(shù),2015,39(1).