董林鷺,林國軍,趙良軍,石小仕,薛智爽,黃 慧
(1.四川輕化工大學自動化與信息工程學院,四川自貢643000;2.四川輕化工大學計算機學院,四川自貢643000)
人臉識別技術快速發展,在生活和工作中得到了大量應用,樣本采集過程中受到人臉光照、遮擋、和訓練樣本過少等因素影響,提高人臉在非理想條件下的識別率,仍然是目前研究熱點. 實際工程中,樣本數量足夠多時,可彌補遮擋、光照等不利因素影響[1-2]. 訓練樣本較少時,只能通過改進人臉識別算法增加人臉識別率. 因此,眾多學者提出了不同的識別分類算法,將同類樣本表示為線性相關的線性表示分類器[3](Linear Regression Classification,LRC). 利用訓練樣本圖像的稀疏線性組合表示測試樣本圖像的稀疏表示分類器(Sparse Representaion based Classification, SRC)[4]、Zhang 等人[5]提出的協同表示分類(Collaborative Representation based Classification, CRC)使用正則最小二乘法,識別速度極大地滿足實際工程的要求.
Wu 等人[6]提出(PC)2A 調節不同參數獲得虛擬人臉,徐勇等人[7]提出利用原始樣本生成鏡像和對稱樣本,分別與原始樣本權值融合提高識別率. 徐艷[8]提出原始樣融合虛擬平均臉和虛擬對稱臉構成新的訓練樣本,利用模糊決策方法進行分類. 基于協同表示分類器的優點,許多學者提出了改進的協同表示分類器算法,主要思想是利用原始樣本構造虛擬樣本增加人臉特征. 項曉麗[9]利用原始樣本與鏡像樣本權值融合,采用協同表示分類器識別取得較好的識別率. 楊明中[10]利用原始樣本與對稱樣本權值融合再利用協同表示分類器識別來提高識別率. 由于生成的虛擬樣本相互關聯的紋理受到光照的影響改變了原有的信息,本文提出一種類似平均臉的方法對虛擬樣本進行處理,增強虛擬樣本相互關聯的紋理信息以提高識別率.
在小樣本問題上,用原始人臉圖像生成虛擬樣本來提高識別率是一種快捷且有效的方法. 以原始人臉圖像生成水平鏡像圖像和左軸對稱圖像的原理為例,水平鏡像虛擬樣本生成原理是以人臉圖像的中軸線為中心,像素點的行位置保持不變,列位置從左到右相互交換,將原始人臉圖像中像素點位置定義為f(x1,y1),用M、N分別表示該矩陣的行與列,f(x2,y2)表示鏡像處理后得到的像素點位置. 表達式如下:

左軸對稱虛擬樣本的原理與水平鏡像的生成原理相似,區別在于將中軸線右半部分的像素值歸零得 到f′(x1,y1),再 對f′(x1,y1) 鏡 像 處 理 得 到f′(x2,y2),最后將f′(x1,y1)與f′(x2,y2)相加得到左軸對稱圖f(x3,y3).
設鏡像虛擬樣本圖像f(x2,y2)是個整體變量F(x),x表示虛擬樣本圖像內的灰度值. 同樣,設紋理增強后的圖像f*(x2,y2)是個整體變量F(y),y表示紋理增強后圖像內的灰度值. 增強過程滿足y=T(x).
T(x)的求解過程如下:

式(2)中,T-1(y)是T(x)的反函數. 對上式兩邊y同時求導,得:

將f(x)、f(y)的結果代入(3)式中得:

整理得:

同時對兩邊x積分,得到增強紋理的關系式:

設有c類訓練樣本,每類訓練樣本由不同表情、姿態和光照共n幅人臉組成,可得訓練樣本的集Xi=[xi1,…,xin](i=1,2,…,c),s表 示 某 測 試 樣本,可得s=Xα.
α的求解過程如下:

式(7)中,λ表示正則項系數,I表示單位矩陣.
利用系數α求出第i類訓練樣本與測試樣本s的重構誤差:

同理,根據協同表示分類,求得軸對稱樣本、鏡像樣本和本文增強紋理樣本的第i類訓練樣本與測試樣本的重構誤差:

上述協同表示分類器的重構誤差有4組,對該4組重構誤差加權融合,得到最終的分類的識別結果,根據文獻[9][10]可得,原始樣本與軸對稱樣本和原樣本與鏡像樣本兩兩融合效果優于三者融合. 本文算法同樣對兩種增強紋理信息后的虛擬樣本圖像兩兩與原始樣本融合,其重構誤差分別是rxi、ryi、rzi、rμi,對后三種重構誤差分別與原始樣本的重構誤差rxi加權融合得到最終的重構誤差ryi2、rzi2、rμi2:

其中,w1、w2分別表示原始樣本與虛擬樣本融合時的權值,滿足w1+w2=1. 實驗結果由最終重構誤差進行分類識別.
在Yale、ORL 和FERET 人臉數據庫上進行實驗,Yale 人臉數據庫包含15 個人,每人有11 張不同表情和光照的人臉圖像,共165張;ORL人臉數據庫包含40個人,每人有10張不同姿態和表情的人臉圖像,共400 張,本文選用的FERET 人臉數據庫包含200 個人,每人有7 張不同光照、表情和姿態的人臉圖像,共1 400 幅圖像. 實驗前對人臉數據庫進行灰度處理. 隨機選擇人臉庫中每個人的其中一幅人臉圖作為訓練樣本,剩余人臉圖像作為測試樣本,并對協同表示算法、文獻[9]算法、文獻[10]算法和本文算法進行對比實驗.部分人臉樣本如圖1所示.
表1 是分別選取Yale、ORL、FERET 人臉庫第1、2、3 幅人臉圖像為單訓練樣本,其余人臉圖像作為測試樣本得到的識別結果.
由表1 可知,不同權值融合對識別的影響非常大,本文算法在Yale 人臉庫中不同權值融合后其識別率處于高位,在ORL、FERET 人臉庫中原始樣本重構誤差比例較高時,識別率處于高位,文獻[9]算法、文獻[10]算法在ORL、FERET 人臉數據庫中,對比本文算法,部分小組識別率處于高位. 結果表示本文算法能有效地提高識別率.

圖1 三種人臉庫中的部分人臉樣本Fig.1 Partial face samples from three face databases
在Yale 人臉數據庫中,本文算法除第3 幅人臉作為訓練樣本且權值為0.5時的識別率沒處于高位,其余權值融合識別率都處于小組高位,較原始樣本高7.33% ~17.33%,比文獻[9]算法高2.67% ~3.33%,比文獻[10]算法高2.00% ~8.66%. 對于姿態變化豐富的ORL 人臉數據庫,本文算法在第1 幅人臉圖像作為訓練樣本時的識別率處于高位,提高2.5%;在第2 幅人臉圖像作為樣本時識別率最高是文獻[10]算法其次是本文算法,最次是文獻[9]算法;在第3幅人臉圖像作為訓練樣本時識別率最高時文獻[9]算法其次是本文算法,文獻[10]算法提升效果最次. 因此,對于ORL人臉數據庫,表中算法各有所長.在人數眾多的FERET 人臉數據庫中,本文算法在部分小組識別率沒達到高位,但提升效果最高的識別率都是由本文算法得到. 較原始樣本提高4.5% ~13.0%,文獻[9]算法較原始樣本提高3.17% ~12.08%,文獻[10]算法較原始樣本提高1.67% ~2.92%. 實驗結果表明,本文算法在總體上對識別率的提高最優.

表1 在Yale、ORL、FERET人臉庫中的單樣本識別結果Table 1 The results of single sample recognition in Yale,ORL,FERET face database
影響人臉識別率的因素包含了表情、姿態、光照、遮擋、樣本數量過少,當訓練樣本過少甚至是單樣本時,對識別率影響最大. 只有通過單樣本人臉來構造虛擬樣本,增加訓練樣本數量. 對一些人臉數據庫僅靠虛擬樣本無法有效提高識別率. 許多學者將虛擬訓練樣本與原始樣本融合,以提高識別率. 研究發現,生成虛擬樣本的相互關聯紋理信息,常因光照等因素影響而無法有效地提高識別率. 于是提出增強虛擬樣本相互關聯紋理信息的協同表示算法,改善因訓練樣本過少,甚至單樣本情況下識別率過低的問題. 但本文算法從實驗結果可以看出,對于姿態變化較大的人臉圖像的識別率,提升效果不夠理想,這將成為本算法接下來的研究方向.