王永茂,趙 珊
(1.河南理工大學計算機科學與技術學院,河南焦作454003;2.北京科技大學自動化學院,北京100083)
人臉識別由于其在身份識別、檢索、安全監控等方面的應用前景,已成為模式識別和人工智能領域的一個研究熱點.近年來,基于表觀的人臉識別方法,尤其是子空間方法,得到了迅速的發展,眾多學者提出了許多識別方法,如主元成分分析(Principle Component Analysis,簡稱PCA)[1]和線性判別分析(Linear Discriminant Analysis,簡稱LDA)[2].應用PCA方法和LDA方法的一個前提是樣本服從多元正態分布,有研究表明,人臉圖像很可能位于一個低維的非線性流形上[3],不一定服從正態分布,在這種情況下,PCA和LDA方法可能失效.近年來,局部保形投影(Locality Preserving Projection,簡稱LPP)[4]被應用到人臉識別中,與PCA及LDA相比,LPP在投影時能夠保持樣本的局部結構,將人臉圖像投影到一個反映其本質的流形結構上,其性能與LDA相當,遠優于PCA[5].然而,由于訓練樣本個數有限,樣本維數往往遠大于樣本的個數,標準的LPP算法通常陷入小樣本問題,因此在應用LPP之前往往利用PCA對樣本進行降維,這樣就會丟失一些有用的鑒別信息,同時,執行PCA計算復雜度較高.
離散余弦變換(DCT)是信號處理過程中常見的一種時域頻域變換,廣泛應用于語音及圖像數據壓縮領域[6].DCT的數據壓縮能力與PCA相當,并具有快速算法,可以大大降低計算復雜度.為此文獻[7]提出了一種DCT與LPP相結合的人臉識別方法,利用DCT代替PCA進行降維,然后在低維空間中利用LPP進行特征抽取.在基于DCT的人臉識別方法中,DCT系數的數量與所取得的識別率并不成正比,因此如何選擇最有效的DCT系數作為識別特征是這類算法的關鍵問題,現有的基于DCT的人臉識別[7-9]方法都是按正方形或“Z”字形順序選擇低頻DCT系數作為特征進行人臉識別.為了更好反映數據的流形結構,本文以局部保持能力判據作為DCT系數選擇的依據,對DCT與LPP相結合的人臉識別方法進行改進.
LPP是特征提取的最有效的方法之一,是非線性子空間學習算法拉普拉斯映射(Laplacian Eigenmap,簡稱LE)的線性近似算法.在識別問題中,兩個樣本的歐式距離越小,其相似度越高,那么同屬一個類別的可能性就越大,因此LPP的目標是尋找一個轉換矩陣V將高維空間RD中的數據集X={x1,x2,…,xn}映射為低維空間Rd(d?D)中的數據集Y={y1,y2,…,yn},即yi=VTxi,i=1,2,…,n,使得在RD空間內互為近鄰的兩點經V映射后在Rd空間中仍互為近鄰,LPP的目標公式為

其中,W=[Wij]為權值矩陣,Wij的取值為

其中,σ為經驗值,Nk(xj)表示樣本xj的k近鄰集合,W的定義體現了樣本的局部信息,即與xi和xj是否為近鄰點有關.
根據文獻[3]的推導,最小化式(1)可以通過求解式(3)對應的廣義特征值問題得到,

其中,D為對角矩陣,其對角元素為W的行(或列)元素之和,即矩陣,L=D-W.v為V的列向量.假定v1,v2,…,vd為式(3)最小的d個特征值對應的特征向量,則最優的轉換矩陣Vopt為

LPP得到的線性映射為

對于一幅M×N的圖像I (x,y)矩陣,其離散余弦變換定義為:

其中,C(u,v)為矩陣I(x,y)的DCT系數.u=0,1,…,M-1,v=0,1,…,N-1,a(u),a(v)分別定義為

經過DCT變換后,圖像的二維DCT系數構成一個與原圖像大小相同的矩陣.人臉圖像及其DCT系數分布情況如圖1所示.
從圖1(b)的DCT系數分布情況可以看出,矩陣左上角的數值較大,代表了圖像信息的低頻分量,是人臉圖像信息的主體部分;而右下角數值較小,代表了圖像信息的高頻分量,主要反映人臉圖像的細節部分.因為人眼對圖像信息的低頻分量具有較高的視覺靈敏度,可以按照圖2(a)所示的選取矩陣左上角n×n正方形子塊內的低頻DCT系數或按圖2(b)所示的“Z”字形順序選擇低頻的DCT系數,從而達到壓縮圖像的目的.

圖1 人臉圖像及DCT系數Fig.1 Face image and DCT coefficient

圖2 DCT系數選擇方法Fig.2 DCT coefficient selection method
正方形與“Z”字形特征選擇方法基本上是選擇低頻DCT系數作為識別特征,這些特征并不能很好反映樣本流形結構,本文采用拉普拉斯值(Laplacian Score,簡稱LS)作為局部保持能力判據選擇能更好刻畫樣本流形結構的DCT系數.
LS用于評價特征的局部保持能力,在本質上與LPP相似[10,11].令fri為第i個樣本xi的第r個特征,i=1,2,…,n,LS計算過程如下:
1)構造一個有n個頂點的近鄰圖G,第i個頂點對應樣本xi.如果樣本xi與樣本xj互為近鄰點,那么xi與xj之間有一條邊相連;
2)如果xi與xj相連,則邊的權值由兩個樣本點的相似度確定,即Wij=exp(-‖xi-xj‖2/2σ2),其中σ為經驗值,否則Wij=0,權值矩陣W體現了樣本的局部信息;
3)對于第r個特征fr=[fr1,fr2,…,frn]T,其LS值定義為

其中,Var(fr)為第r個特征的方差,經過簡單變形,式(9)變為

最近鄰是分類器是最簡單的一種分類器,對于測試樣本,計算其到各訓練樣本的距離,測試樣本所屬類別為與測試樣本距離最近的訓練樣本所屬的類別.

圖3 基于DCT和局部保持投影的人臉識別流程Fig.3 Procedure of facerecognition base on the DCT and LPP
為了挑選出更有效的特征,引入特征選擇算法,根據局部保持能力判據確定哪些DCT系數作為識別特征.本文提出的基于DCT和局部保持投影的人臉識別方法如圖3所示,包括兩個階段:訓練階段和識別階段.
在訓練階段,首先對訓練集中每一幅人臉圖像進行離散余弦變換,得到DCT系數;然后分別在不同頻率的DCT系數上計算其LS值作為局部保持能力判據,按LS值從小到大進行排序;將LS值較小的DCT系數作為人臉的特征執行LPP算法,得到最佳變換矩陣和訓練樣本的識別特征.
在識別階段,對于一幅待識別的人臉圖像,首先對圖像進行離散余弦變換,求出其DCT系數;然后按訓練過程中選定的順序選取DCT系數,并將所選定的DCT系數向訓練過程中確定的最佳變換矩陣投影,獲得識別特征.最后利用最近鄰分類器對人臉圖像進行分類,即待識別人臉圖像所屬類別為與待識別人臉圖像的識別特征距離最近的訓練人臉圖像所屬的類別.
為了驗證所提出算法的性能,本節設計兩類實驗,實驗1比較不同特征選擇方法的識別效果.實驗2比較本文提出的方法與其它人臉識別方法的識別性能.實驗在ORL人臉庫上進行,該人臉庫是由英國劍橋大學建立,共有40個人,每人10張圖像,共有400張人臉圖像,圖像的面部表情和面部細節有著不同程度的變化,人臉姿勢也有相當的程度變化,比較充分的反映了同一人不同人臉圖像的變化和差異.實驗使用的人臉圖像經剪切后大小均為64×64,然后將兩個人臉庫中的每個圖像進行標準化.圖4是ORL人臉庫的部分人臉圖像.

圖4 ORL人臉庫Fig.4 ORL face database
從每類人臉圖像中隨機選取5幅圖像作為訓練人臉集,其余的圖像作為測試人臉集.先對樣本進行離散余弦變換,然后分別按照正方形、“Z”字形、局部保持能力判據等3種方式對DCT系數進行選擇,接著在對選定的DCT系數執行局部保持投影,提取人臉特征,采用最近鄰分類器完成最后的分類任務,每組實驗都重復10次,取平均值作為最終的識別結果,實驗結果如圖5所示.
從圖5可以看出,基于正方形的DCT選擇方法,在使用81個DCT系數時,達到了該方法最高識別率95.85%;基于“Z”字形的DCT選擇方法,同樣也是在使用81個DCT系數時,達到了該方法的最高識別率95.95%;而本文采用的基于局部保持能力判據的DCT系數選擇方法,在使用49個DCT系數時,就達到了最高識別率97.05%.所以從最高識別率看,按局部保持能力判據選取DCT系數的方法取得了最高識別率,而且使用的DCT系數最少.從整體來看,基于正方形與“Z”字形的DCT選擇方法的識別效果相當,而效果最好的是本文提出的基于局部保持能力判據的DCT系數選擇方法,在大多數情況下,識別率均高于其他兩種方法.

圖5 不同DCT系數選擇方法的識別率比較Fig.5 Recognition accuracy comparison of different DCT coefficient selection method
由于本文提出的方法在全部DCT范圍內利用局部保持能力判據選擇能夠更好反映訓練人臉集流形結構的DCT系數,因此識別性能得到了提高.
本節在ORL人臉庫上對比本文提出的算法與PCA、PCA+LPP、DCT、DCT+LPP等算法的識別性能及執行時間,其中在PCA方法中,利用PCA得到的子空間直接進行分類;在PCA+LPP方法中,首先利用PCA對圖像進行降維,然后在得到的PCA子空間內執行LPP方法提取識別特征;在DCT方法中,將DCT系數矩陣中左上角正方形內的低頻系數直接應用分類;在DCT+LPP方法中,按照“Z”字形順序選擇低頻的DCT系數,然后對于選定的DCT系數執行LPP方法提取識別特征.
在實驗中,從每類人臉圖像中隨機選取5張圖像作為訓練集,剩下的作為測試集,重復進行10次,共獲得10對不同的訓練集和測試集,取10次實驗的平均值作為最終的識別率,識別結果如表1所示.

表1 ORL人臉數據庫上的識別率比較Tab.1 Recognition accuracy comparison on ORL face database
在表1中,從最高識別率看,利用DCT對圖像進行降維略好于利用PCA對圖像進行降維,DCT方法的最高識別率比PCA高1.25%,DCT+LPP的最高識別率高PCA+LPP方法1.3%,本文提出的方法取得了最高的識別率,比DCT+LPP高1.4%.
本文研究了基于離散余弦變換和局部保持投影的人臉識別方法.為了更好地反映樣本的流形結構,將拉普拉斯值作為局部保持能力判據對DCT系數進行選擇,進而在選定的DCT系數上執行局部保持投影,實驗驗證了提出方法的有效性.
[1] Turk M,Pentland A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):72-86.
[2] Martinez A M,Kak A C.PCA versus LDA[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2001,23(2):228-233.
[3] Belkin M,Niyogi P.Laplacian eigenmaps for dimensionality reduction and data representation[J].Neural Computation,2003,15(6):1373-1396.
[4] He X F,Yan S C,Hu Y X.Face recognition using Laplacianfaces[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2005,27(3):328-340.
[5] Bajwa U I,Taj I A,Bhatti Z E.A comprehensive comparative performance analysis of Laplacianfaces and Eigenfaces for facerecognition[J].Imaging Science Journal,2011,59(1):32-40.
[6] Hafeld Z M,Levine M D.Face recognition using the discrete cosine transforms[J].International Journal of Computer Vision,2001,43(3):167-188.
[7] Zheng Z L,Zhao J M.Locality preserving projection in orthogonal domain[C]//Proceedings of Congress on Images and Signal.Sanya:IEEE press,2008:613-617.
[8] Samir A,Chahir Y.Face recognition using PCA and DCT[C]//Proceedings of International Conference on MEMS NANO and Smart System.Dubai:IEEE press,2009:15-19.
[9] Chen W L,Er M J,Wu S Q.PCA and LDA in DCT[J].Pattern Recognition Letters,2005,26(15):2474-2482.
[10] He X F,Deng C,Niyogi P.Laplacian score for feature selection[C]//Proceedings of Advances in Neural Information Processing System.Vancouver:Neural information processing system foundation,2005:507-514.
[11] Huang H,Feng H L,Peng C Y.Complete local fisher discriminant analysis with laplacian score ranking for face recognition[J].Neurocomputing,2012,89(7):64-77.