劉瑞欽

摘要:隨著對深度學習的繼續深入研究應用,在受控環境下的人臉識別取得了比較理想的結果。但在真實環境下如有遮擋條件下的人臉識別仍存在識別效率低、識別時間長等問題,準確度也有待提高。本文提出一種在有遮擋條件下工作的新型人臉識別方法。該方法使用基于多尺度的梯度直方圖進行特征提取,并使用PCA白化空間進行分類。為了顯示算法的效率,除了收集的數據庫外,還在FERET數據庫上進行了測試。
關鍵詞:人臉識別;遮擋;主成分分析;梯度直方圖
中圖分類號:TP311 文獻標識碼:A 文章編號:1009-3044(2019)04-0171-03
Abstract:With the deep research and application of deep learning, face recognition in controlled environment has achieved ideal results. However, in the real environment, if there is a problem of low recognition efficiency and long recognition time for face recognition throwing under occlusion conditions, the accuracy needs to be improved. This paper proposes a new face recognition algorithm that works under occlusion conditions. The algorithm uses feature gradients based on multi-scale landmarks for feature extraction and classification using PCA whitening space. In order to show the efficiency of algorithm, in addition to the database collected, it was also tested on the FERET database.
Key words:Face Recognition;Occlusion;PCA;HOG
1 引言
人臉識別是計算機視覺領域一個重要的研究方向,并且有很多應用,如身份確認、執法、視頻監控、安全系統等。雖然圍繞這一領域有許多研究,其準確性、效率、穩定性等都在不斷提高,但仍面臨很多困難。在受控環境下,多為正面姿態,并且背景比較單一。即使目前一些方法在一些標準數據庫中取得了較為理想的結果,但在實際應用中,其結果仍未達到我們的期望要求。在真實和不受控制的環境下,人臉識別必須涵蓋所有場景,如姿勢變化,低分辨率,面部表情,光照變化,模糊和遮擋等[1-2]。此外,面部識別系統必須具有可接受的運行時間才能實現,但受控環境下運行良好的人臉識別算法,由于訓練圖像和要識別圖像間的數據偏移,在真實環境下往往效果不佳。我們無法解決所有場景下的挑戰,本文將重點解決有限遮擋人臉識別。
本文提出一種具有高精度和最小運行時間的實用人臉識別方法。該方法使用基于多尺度梯度直方圖和PCA白化空間,為了顯示方法的最終性能,我們收集了一些相關數據庫進行測試。
2 方法步驟
為了描述我們的方法,該方法分為5個步驟:面部檢測,面部對齊,面部預處理,特征提取和分類。
2.1 面部檢測
人臉識別系統的第一步是面部檢測。與檢測相關的兩個最重要的因素是人臉區域提取和人臉區域外冗余和干擾信息的去除。我們使用DLIB庫檢測器作為人臉區域識別的檢測器。
2.2 面部對齊
由于人臉識別中的高類內差異,人臉對齊可以有效地提高人臉識別系統的準確性。在這一部分中,首先,使用文獻[3][4]對面部標志進行了特征點定位。然后,每個面部基于眼睛角落對齊,眼睛的位置是固定的。最后為了使每個面都對稱,我們使用[5]中的描述算法對圖片進行拉伸。該算法在姿勢變換有限時,效果比較明顯。
2.3 臉部預處理
在實際系統中,噪聲和陰影都會讓成像效果變差或者姿勢或遮擋區域等的變化,從而使圖像失真。為了克服這些失真,我們使用高斯差分(DoG)作為帶通濾波器。通常,噪聲會在圖像中添加一些高頻因子,而陰影會增加一些低頻因子。尤其是當圖像被這兩個因素扭曲時,作為帶通濾波器的DoG濾波器效果明顯。
2.4 特征提取:基于多尺度的梯度直方圖
在每個面部圖像中,主要信息都在強度變化的地方。因此,面部梯度可以在移除偏移的同時保留必要的信息。梯度直方圖在不保留局部信息的情況下很有效,然而為了使在面部變化下更具魯棒性,可將面部圖像劃分為一些塊,每個塊的直方圖都被計算為特征。定向梯度直方圖(HOG)可以完成類似的任務[7]。雖然這種特征提取方式在圖像特征點定位和變化方面是具有魯棒性的,但是每個塊的大小選擇仍然是一個問題。較大的塊會使面部變化更有魯棒性以及可以減少特征點的丟失。因此,在本文中,我們使用多尺度梯度直方圖來保持兩個細節,如圖1所示。
另一方面,在面部識別中,描述諸如眼睛或眉毛角的特征點是非常重要的,通常,這些點被稱為面部標志,其中它們的位置由于諸如姿勢變化和表情及遮擋位置變化而改變。因此,為了對這些變化具有魯棒性,我們可以在地標位置上找到所有梯度直方圖塊。圖塊位置位于基于新的表達條件而改變的界標上。以這種方式,可以將所有界標描述為在表達的每個條件中具有關鍵識別信息的點,如圖1所示。
換句話說,在本文中,我們在面部標志上使用多尺度塊中的梯度直方圖來提取面部特征。 這種特征提取有三個主要優點:1)能多尺度的描述關鍵特征點;2)能夠應對多種變化;3)計算簡單并且速度快。
2.5 面部分類:PCA白化空間
3 實驗結果
為了顯示我們提出的方法的性能,我們應用了兩個數據庫:FERET數據庫和本文收集的數據庫。我們的系統與四個眾所周知的Eigen faces[8],Fisher faces[9],基于稀疏的方法(SRC)[10]和疊加線性表示分類器(SLRC)[11]進行了比較。
為了學習矩陣[U]和[D],使用其他數據庫,其中圖像總數為3304,梯度直方圖提供8個區間和3個尺度,計算每個面內51個標記。因此特征尺寸為51×3×8 = 1224。
來自FERET數據庫的所提供的數據庫包括497個圖庫圖像(每個主題的單個圖像)和1329個探測圖像,其中所有探測圖像姿勢在-20到+20度之間并且它們處于諸如表達變化的一些變化之下。
本文收集的另一個數據庫包含15個圖庫圖像(每個主題單個圖像)和2300個探測圖像,其中所有探測圖像姿勢在-20到+20度之間,并且它們處于有限遮擋條件下,這提供了真實和有挑戰的數據庫。
如表1和表2所示,當有限遮擋的情況下,本文所述的方法具有更好的準確性。另外如圖所示,SRC的準確性不是很高,因為字典的大小不大(每個主題的單個圖像)。換句話說,在實際條件下,圖庫中每個主體大多有單個圖像,在這種情況下,SRC無法提供正確的結果。
此外,在表3中,比較了所有五個系統的運行時間。值得注意的是,因為前三個步驟(檢測,對齊和預處理)彼此相同,所以在運行時不考慮這三個步驟。此外,運行時是在同一運行系統上實現的。平均運行時間是指在FERET數據庫中查找圖庫圖像并進行探測圖像的時間。
4 結論
本文提出了一種人臉識別算法,該算法主要針對有限遮擋人臉識別。為此,使用基于多尺度的梯度直方圖和PCA白化空間。最后,為了顯示結果,系統在FERET數據庫和本文收集的其他數據庫上進行了測試,結果表明,我們的方法在有限遮擋條件下具有適當的結果。
參考文獻:
[1] Y. Su, Robust Video Face Recognition Under Pose Variation[J]. Neural Processing Letters, 2017:1-15.
[2] H. T. Ho and R. Chellappa.Pose-invariant face recognition using markov random fields[J]. IEEE transactions on image processing, 2013,22(4):1573-1584,.
[3] D. E. King, Dlib-ml: A machine learning toolkit[J]. Journal of Machine Learning Research, 2009(10):1755-1758.
[4] V. Kazemi and J. Sullivan.One millisecond face alignment with an ensemble of regression trees[J]. in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014.
[5] C. Sagonas, Y. Panagakis, S. Zafeiriou and M. Pantic, Face frontalization for Alignment and Recognition[J]. arXiv preprint, 2015.
[6] 周孝佳,朱允斌,張躍.基于分塊的有遮擋人臉識別算法[J].計算機應用與軟件,2018,35(2):183-187.
[7] N. Dalal and B. Triggs.Histograms of oriented gradients for human detection[J]. in Computer Vision and Pattern Recognition, IEEE Computer Society Conference on, 2005.
[8] M. A. Turk and A. P. Pentland.Face recognition using eigenfaces[J]. in Proceedings IEEE Computer Society
Conference on Computer Vision and Pattern Recognition,Maui, HI, 1991:586-591.
[9] P. N. Belhumeur, J. P. Hespanha and D. J. Kriegman.Eigenfaces vs. Fisherfaces: recognition using class specific linear projection[J]. in IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997,19(7):711-720.
[10] J. Wright, A. Y. Yang, A. Ganesh, S. S. et al.Robust Face Recognition via Sparse Representation[J]. in IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009,31(2):210-227.
[11] W. Deng, J. Hu and J. Guo.Face Recognition via Collaborative Representation: Its Discriminant Nature and Superposed Representation[J]. in IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017(99).
【通聯編輯:唐一東】