嚴林
摘 要:如何有效的描述每個人臉的個體特征,使之容易區別于其他人,是人臉識別特征抽取中最關鍵的一部分。近年來,子空間分析方法因其具有描述性強、計算代價小等優點在人臉識別領域中得到了廣泛的使用。本文重點對線性子空間方法中的2DPCA,2DLDA,2DICA做了理論上的比較,并利用matlab編程獲得了實驗數據的支持。同等的實驗條件下,在ORL姿態庫和CMU表情庫的實驗結果表明2DLDA識別效果最優,2DPCA識別效率最高,而無論是從識別率還是識別速度上來說,2DICA均介于二者之間。
關鍵詞:人臉識別;2DPCA;2DLDA;2DICA
本文受到三峽大學碩士論文培優基金的支持(2013PY040)
1 引言
人臉識別因其具有自然性且易被人接受已成為計算機視覺與模式識別領域的一大研究熱點[1-2]。但識別率的高低主要受到表情,姿態,光照等因素的制約,近些年已有大量的科研工作者提出了很多方法來解決這類問題[3],其中子空間分析因其描述性強、易實現等優點,在人臉識別領域受到了廣泛的關注。子空間分析的思想就是根據一定的性能目標來尋找一線性或非線性的空間變換,把原始信號數據壓縮到一個低維子空間,使數據在子空間中的分布更加緊湊,為數據的更好描述提供了手段,另外計算的復雜度也得到了大大的降低。目前在人臉識別中得到成功運用的線性子空間分析方法有:主成分分析(PCA)[4]、線性判別分析(LDA)[5]、獨立成分分析(ICA)[6]和非負矩陣因子分解(NMF)[7]及其改進算法[8-10]。
2 實驗與分析
本文中統一將訓練樣本圖像集設為, 表示第類的第個大小為的訓練樣本,C為樣本總類別數,為每一類樣本數,總樣本數為。
2.1 2DPCA
2DPCA[11]是在PCA基礎上的改進,基本思想來源于K-L變換[12],目的是從訓練樣本圖像中,通過線性變換得到一組特征臉圖像,那么任意給定的人臉圖像都可以近似為這組特征臉圖像的線性組合,而組合的系數即作為人臉的特征向量。其本質特點在于采用最大化類間離散度作為準則。但是PCA是將圖像轉換成的向量,破壞了圖像的二維結構特征,并且轉換成向量之后計算量太大,2DPCA方法就很好地解決了以上的問題,不僅保持了人臉圖像的結構特性,更容易準確地評估協方差矩陣,即在圖像的特征提取上更加簡單直觀,而且確定相應的特征向量時需要的時間更少,因而可以顯著提高圖像的特征提取速度,計算量小。
基于二維主成分分析的人臉識別的具體步驟如下:
讀入訓練樣本圖象A并算出所有訓練樣本的平均圖象
計算訓練樣本集總體散度矩陣即圖像的協方差矩陣
(1)
構造矩陣并進行奇異值分解,求其特征值構成的對角陣V及其對應的特征向量組成的矩陣U
取出V中按降序排列的前d個最大特征值對應的特征向量組成特征空間
2.2 2DLDA
性性判別分析(LDA)技術是模式識別中的又一經典的特征提取和數據降維的方法。采用了Fisher判別準則函數,因此也稱為FLD,是R.A.Fisher于1936 年提出的。但是它僅適用于兩類分類問題。在Fisher思想的基礎之上,Wilks和Duda分別提出了判別矢量集的概念,即尋找由一組判別矢量構成的投影子空間,將樣本投影到該子空間上得到投影向量,并作為最終提取的特征向量從而解決了多分類問題,該方法被稱為經典的Fisher線性判別分析方法。2DLDA[13]是LDA在矩陣模式下的平行推廣,但都是以樣本的可分性為目標,尋找線性變換從高維輸入空間里提取出最具有判別能力的低維特征,這些特征能幫助將同一個類別的所有樣本聚集在一起,而不同類別的樣本盡量分開,即尋找線性變換使得變換后的樣本類間離散度和類內離散度的比值最大。
基于線性判別分析的人臉識別的具體步驟如下:
讀入訓練樣本圖像并計算第i類訓練樣本均值和所有訓練樣本均值
(2)
求內類散度矩陣和內間散度矩陣
(3)
基于Fisher準則尋找最優的投影矩陣
(4)
計算的特征值V和對應的特征向量U
取出V中按降序排列的前d個最大特征值對應的特征向量組成特征空間
2.3 2DICA
獨立元分析(ICA)是近幾年才發展起來的一種新的統計方法,最早提出ICA概念的是Jutten和Herault,當時他們對ICA給出了一種相當簡單的描述,認為ICA是從線性混合信號里恢復出一些基本的源信號的方法。由于ICA是基于信號高階統計特性的分析方法,并且經ICA分解出的各信號分量之間是相互獨立的,因此,ICA在信號處理領域受到了廣泛的關注。基本思想就是通過線性變換,從訓練樣本中找到一組相互獨立的基,并以此來描述樣本數據。2DICA[14]是直接運用圖像矩陣參與計算,在時間上更具優勢。
基于獨立成分分析的人臉識別的具體步驟如下:
讀入訓練樣本圖象A并中心化訓練樣本,中心化后的訓練樣本集為
(5)
計算訓練樣本的協方差矩陣S
(6)
其中, E是由S的特征向量組成的正交矩陣, D是由相應的特征值組成的對角矩陣
求出白化矩陣V,
則白化后的數據為:
(7)
用 FastICA 方法計算得到分離矩陣Xk
所有的識別過程:
對于一幅給定的人臉圖像A,向特征空間Xk投影之后即可得到m*d維的特征矩陣,其中 。在這里任意的兩個特征矩陣和之間的歐式距離定義為
(8)
假設N個訓練樣本,每一個樣本都屬于某個特定的類別。給定一個樣本B,若滿足式(9),則認為。
(9)
3 仿真實驗
實驗選擇ORL姿態庫和CMU表情庫,將人臉庫中的人臉圖像分成兩組,前幾張作為訓練樣本,剩下的作為測試樣本,記錄實驗中的正確識別率以及識別時間。
圖1為ORL姿態庫和CMU 表情庫上三種方法識別率對比的實驗結果,橫軸均代表訓練樣本的個數。從識別率上來看,這三種方法的識別率都隨著訓練樣本數的增加而變大,尤其在CMU表情庫上識別率均達到了100%。在訓練樣本數相同的條件下,2DLDA的方法表現的要優于2DICA,而2DICA要優于2DPCA。但2DLDA方法有一個最大的缺點是當只有一個訓練樣本時,是無法識別的,這也就是所謂的奇異問題,在小樣本的情況下,識別率要低于其他兩種方法。圖2為ORL姿態庫和CMU 表情庫上三種方法識別時間對比的實驗結果圖,從識別時間上來看,2DLDA方法需要的時間最長,當有兩個以上的樣本參與訓練時,時間為20S以上。而2DPCA和2DICA識別時間低于10S。2DPCA方法的識別時間隨著訓練樣本數的增加變化的不明顯。
圖1 不同訓練樣本數的識別率
圖2 不同訓練樣本數的識別時間
出現這種結果的原因在于PCA是將高維圖像投影到由所有樣本協方差矩陣的特征向量組成的子空間上,達到了很好的去相關和降維的效果,能對原圖像進行很好的表示卻不具有很好的分類能力,僅僅抓住了人臉的描述特征,經過K--L變換分解后只考慮了圖像的二階統計信息而忽略了高階統計信息。獨立成分分析不僅涉及到變量間的二階相關性還涉及到變量間的高階相關性,因此獨立成分分析可視為主成分分析方法的一種推廣,而圖像的高階統計信息在分類識別的過程中也是尤為重要的,因此其識別率要高于主成分分析方法的識別率。線性判別分析方法抓住的是人臉的判別特征,是以分類為目的的有監督算法,比起主成分分析和獨立判別分析這兩種無監督方法,自然會有很好地分類效果。但同時線性判別分析在求解特征空間的時候利用了類間散度矩陣的逆矩陣,故而在提取特征的時候時間復雜度要大于其他二種方法。
4 結論
論文研究了人臉識別中線性子空間分析方法的經典算法2DPCA、2DLDA、2DICA,分析了他們的原理以及各自的優缺點,通過在ORL和CMU人臉庫上的實驗結果表明:
1)2DLDA的識別效果要優于2DPCA和2DICA,但識別時間也是最長的,另外2DLDA存在小樣本問題。2) ICA 基向量比PCA基向量在空間上更局部化,而局部特征對人臉表示很重要,因而2DICA 識別精度比2DPCA要高。
參考文獻
[1]A. F. Abate, M. Nappi. 2D and 3D face recognition: A survey. Pattern Recognition Letters. 2007, 28(14):1885-1906.
[2]F. Dai, N. Kushida, L. Shang. A survey of genetic algorithm-based face recognition. Artificial Life and Robotics, 2011, 16(2):271-274.
[3]P.Jonathon Phillips et.al.FRVT2006 and ICE 2006 large-scale results.Technical Report NISTIR7408,National Institute of Standards and Technology,2007.
[4]M.A.Turkand A.P.Pentland.Eigenfaces for Recognition. Cogn. Neurosci, 1991, 3(1), :71-86.
[5]Bellhumeur P N, Hespanha J P, Kriegman D J. Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection. IEEE Trans on Pattern Analysis and Machine Intelligence, 1997, 19(7), pp: 711-720.
[6]Bartlett M S. Independent component representations for face recognition[M]//Face Image Analysis by Unsupervised Learning. Springer US, 2001: 39-67.
[7]李樂, 章毓晉. 非負矩陣分解算法綜述[J]. 電子學報, 2008, 36(4).
[8]Liu N,Wang H.Feature extraction using evolutionary weighted principal component analysis,IEEE International Conference on Systems,Man and Cybernetics,2005:346-350.
[9]Q. Gao, L. Zhang, D. Zhang. Face recognition using FLDA with single raining image per person. Applied Mathematics and Computation, 2008, 205(2):726-734.
[10]Z. Sun, C. Sun. Feature extraction using 2DIFDA with fuzzy membership. Soft Computing, 2012, 16(10):1783-1793.
[11]Yang J, Zhang D, Frangi A F, et al. 2004. Two-dimensional PCA: a new approach to appearance-based face representation and recognition[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 26(1): 131-137.
[12]Kirby M, Sirovich L. 1990. Application of the Karhunen-Loeve procedure for the characterization of human faces[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 12(1): 103-108.
[13]Li M, Yuan B. 2005. 2D-LDA: A statistical linear discriminant analysis for image matrix[J]. Pattern Recognition Letters, 26(5): 527-532.
[14]GAN J, LI C. 2DICA based on wavelet transformation and applications in face recognition[J]. Journal of System Simulation, 2007, 3: 036.