999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

加權信息熵與增強局部二值模式結合的人臉識別

2019-10-23 12:23:56丁蓮靜劉光帥李旭瑞陳曉文
計算機應用 2019年8期
關鍵詞:人臉識別深度學習

丁蓮靜 劉光帥 李旭瑞 陳曉文

摘 要:針對人臉識別因光照、姿態、表情、遮擋及噪聲等多種因素的影響而導致的識別率不高的問題,提出一種加權信息熵(IEw)與自適應閾值環形局部二值模式(ATRLBP)算子相結合的人臉識別方法(IE(w)ATR-LBP)。首先,從原始人臉圖像分塊提取信息熵,得到每個子塊的IEw;然后,利用ATRLBP算子分別對每個人臉子塊提取特征從而得到概率直方圖;最后,將各個塊的IEw與概率直方圖相乘,再串聯成為原始人臉圖像最后的特征直方圖,并利用支持向量機(SVM)對人臉進行識別。在AR人臉庫的表情、光照、遮擋A和遮擋B四個數據集上,IE(w)ATR-LBP方法分別取得了98.37%、94.17%、98.20%和99.34%的識別率。在ORL人臉庫上,IE(w)ATR-LBP方法的最大識別率為99.85%;而且在ORL人臉庫5次不同訓練樣本的實驗中,與無噪聲時相比,加入高斯和椒鹽噪聲后的平均識別率分別下降了14.04和2.95個百分點。實驗結果表明,IE(w)ATR-LBP方法能夠有效提高人臉在受光照、姿態、遮擋等影響時的識別率,尤其是存在表情變化及脈沖類噪聲干擾時的識別率。

關鍵詞:人臉識別;局部二值模式;加權信息熵;自適應閾值;深度學習

中圖分類號:?TP391.4

文獻標志碼:A

Face recognition combining weighted information entropy with enhanced local binary pattern

DING Lianjing, LIU Guangshuai*, LI Xurui, CHEN Xiaowen

School of Mechanical Engineering, Southwest Jiaotong University, Chengdu Sichuan 610031, China

Abstract:?Under the influence of illumination, pose, expression, occlusion and noise, the recognition rate of faces is excessively low, therefore a method combining weighted Information Entropy (IEw) with Adaptive-Threshold Ring Local Binary Pattern (ATRLBP) (IEwATR-LBP) was proposed. Firstly, the information entropy was extracted from the sub-blocks of the original face image, and then the IEw of each sub-block was obtained. Secondly, the probability histogram was obtained by using ATRLBP operator to extract the features of face sub-blocks. Finally, the final feature histogram of original face image was obtained by concatenating the multiplications of each IEw with the probability histogram, and the recognition result was calculated through Support Vector Machine (SVM). In the comparison experiments on the illumination, pose, expression and occlusion datasets from AR face database, the proposed method achieved recognition rates of 98.37%, 94.17%, 98.20%, and 99.34% respectively; meanwile, it also achieved the maximum recognition rate of 99.85% on ORL face database. And the average recognition rates in 5 experiments with different training samples were compared to conclude that the recognition rate of samples with Gauss noise was 14.04 percentage points lower than that of samples without noise, while the recognition rate of samples with salt & pepper noise was only 2.95 percentage points lower than that of samples without noise. Experimental results show that the proposed method can effectively improve the recognition rate of faces under the influence of illumination, pose, occlusion, expression and impulse noise.

本文提出了一種結合加權信息熵與自適應閾值環形局部二值模式的人臉識別方法,利用信息熵對被分塊的人臉圖像信息加權,以確定提取特征在識別中的比重,提出的環形局部模式算子在原始LBP基礎上,進一步優化了局部特征的提取方式,再加上自適應閾值的融合,在增加抗干擾能力的同時,最后的人臉識別率有了顯著提高。實驗結果表明,該方法能夠有效提高人臉在光照、姿態、遮擋、噪聲等影響下,尤其表情變化下的識別率。

1 局部二值模式及相關變體

1.1 LBP特征

LBP最初由Ojala等[13]提出來,被看作是一種灰度范圍內的紋理度量。最起初的LBP算子定義為:在某中心像素及其周圍大小為3×3的矩形鄰域,將中心像素的每個鄰域像素值以該中心像素的灰度值為閾值進行二值量化,大于或等于中心像素的像素值則編碼為1,小于則編碼為0,以此形成一個局部二進制模式,將閾值化后的值(即0或者1)分別與對應位置像素的權重相乘,8個乘積的和即為該鄰域的LBP值(即十進制值)。具體計算方法舉例如圖 1所示。

編碼公式如下:

LBP(xc,yc)=∑ P-1 p=0 2ps(ip-ic);

s(x)= 1,?? x≥00, 其他

(1)

式中:(xc,yc)是中心像素,ic為其灰度值;P為鄰域內除中心像素外像素總數;第p個像素灰度值為ip;s(x)為符號函數。

LBP最終得到的直方圖維數為2P,即維數將會隨鄰域樣本點個數P的增加呈現指數形式的增加,所以Ojala等[14]又提出了ULBP算子對原始LBP提取到的結果進行映射降維,很大程度地降低了計算量。

1.2 CS-LBP特征

CS-LBP[15]是取關于中心點對稱的一對像素進行差值計算,在LBP基礎上,CS-LBP減少了計算量,其計算量只有基本LBP的一半。它的編碼方式如下:

CS-LBPR,N,T(x,y)= ∑ (N/2)-1 i=0 s(ni-ni+(N+2))2i;

s(x)= 1,?? x≥T0, 其他

(2)

式中:ni和ni+(N+2)分別是關于中心點對稱兩個點的像素灰度值,N是計算區域內除中心像素外的像素總數,T為閾值。

1.3 MB-CSLBP特征

MB-CSLBP[16]是在CS-LBP基礎上,把圖像分成大小相等的正方形塊,然后求取各個塊的平均值,把CS-LBP算子中的單個像素點的灰度值替換成用塊所求得的平均灰度值,從而得到最后的二進制編碼,該方法編碼過程舉例如圖2所示。與CS-LBP一樣,該算子與LBP算子相比,最后得到的維數較低,對噪聲具有魯棒性,同時也在某種程度上表達了圖像的宏觀結構,降低了圖像空間信息的損失,增強了分類效果。它的編碼方式如下:

MB-CSLBP=∑ 3 i=0 s(Bi-Bi+4)2i;

B=∑ L2-1 k=0 gk, s(x)= 1,?? x≥T0, 其他

(3)

式中:Bi為第i個正方形塊平均灰度值,gk為原圖像第k個像素點灰度值,L為正方形塊邊長,T為閾值。

2 加權信息熵

Shannon[23]在1948年提出了信息熵(Information Entropy,IE)的概念,將熱力學概率擴展到系統各種信息源的發生概率,一個離散隨機信號X(x1,x2,…,xt)發生的概率為p(x1),p(x2),p(x3),…,p(xt),則它們的信息熵H(x)可以描述為:

H(x)=∑ t i=1 p(xi)lg ?1 p(xi)? =-∑ t i=1 p(xi)lgp(xi)

(4)

計算機采用高低電頻(開關數0或者1)進行計算,取對數底為2,一幅數字圖像的f(x,y)信息熵E可以表示如下:

E=-∑ k k=1 pklb(pk);? 0≤pk≤1, ∑ 255 k=1 (pk)=1

(5)

式中:k表示像素級數,由于選取的圖像為灰度人臉圖像,所以0≤k≤255,pk表示第k級像素點出現的概率。E表示信息的無序程度,其值越大,該類信息對最后的識別貢獻越低。假設人臉被分為m塊,第i塊信息熵Ei決定它在最后直方圖中的占比,Ei越大,則賦予它越小的權重。由此,定義信息偏差度:

di=1-Ei

(6)

得第i塊的權重為:

wi= di ∑ m i=1 di = 1-Ei m-∑ m i=1 Ei ;

wi∈(0,1),∑(wi)=1, i=1,2,…,m

(7)

3 本文方法

3.1 自適應閾值環形局部二值模式

受MB-CSLBP算子啟發,本文提出自適應閾值環形局部二值模式(Adaptive Threshold Ring Local Binary Pattern, ATRLBP)提取人臉特征,如圖3,即以一個像素點nc為中心,結合其周圍的8個相鄰像素點,形成一個3×3局部鄰域。首先,分別按環形作差值計算周圍8個像素,得到8對差值,其中差值形式有絕對值和非絕對值兩種,分別定義為yesABS、noABS;其次,將每個差值與閾值T比較,如果大于或等于T,該值為1,否則為0,生成8位二進制編碼字符串,其中的閾值T為該鄰域塊均值大小的n(%)倍,n為自適應值,范圍為[0.01,0.09],根據實驗最終確定最佳值;最后,利用ULBP算子進行降維映射(mapping)。對于一張256階灰度人臉圖,最終得到與原始圖像大小相同的結果矩陣,直方圖維數為59。編碼方式如下:

ATRLBP= s(n1-n2)20+s(n2-n3)21+, …,+s(n8-n1)27;

s(u)= 1,? u≥T0, 其他 ;

T=n× 1 P+1 ∑ P-1 i=0 (ni+nc)

(8)

式中:n1到n8為鄰域內依次排列的8個像素點,nc為中心像素點。

采用ATRLBP算子在ORL人臉庫分別隨機提取兩個人各5張圖片生成的人臉圖像紋理特征如圖4所示。

3.2 結合IE(w)的ATRLBP特征

文獻[24]首次在人臉識別中提出了分塊,由于增強了空間性,在一定程度上提高了識別率;但該方法只是單純地把人臉圖像劃分為橫豎N×N大小的子塊,并未討論劃分后的各個子塊所包含的信息對最終識別的貢獻。實際上,每個人臉子塊表達了不同的紋理細節,對于具有豐富紋理細節的子塊,應該賦予該子塊更大的權重,使最后得到的紋理特征最大限度反映人臉圖像。

由第2章知,對人臉圖像進行分塊以保留人臉空間信息,采用ATRLBP算子提取出各個人臉子塊的紋理特征,將其與各個人臉子塊信息熵(IE)對應的權值wi融合起來得到最后的特征直方圖V,并定義為IE(w)ATR-LBP,整個流程如圖5

所示。此處需要注意,為了準確表示各個級別所得直方圖橫縱軸數值級別,圖5中所有直方圖來自實驗中的隨機時刻,具 體數值并不對應所顯示人臉圖片,只是作流程說明,但是所有直方圖橫縱軸所對應的數值級別一致。

V =(w1v1,w2v2,…,wmvm)

(9)

式中:(v1,v2,…,vm)表示各個人臉子塊用本文ATRLBP算子

提取到的概率直方圖向量;(w1,w2,…,wm)分別為1到m塊的信息熵權重; V 為一張人臉圖像最終直方圖向量。

采用所提出的IE(w)ATR-LBP方法遍歷256階灰度人臉圖像一次,結果為28維,即最終得到256維直方圖;如果分塊4×4并統一映射降維,則一張人臉圖像的最終直方圖維數為59×16=944。

從ORL人臉庫隨機挑選一張人臉圖像,采用ATR-LBP算子,在有/無加權信息熵兩種情況下生成直方圖,如圖6所示,分塊大小為4×4。

4 差值形式與自適應閾值的確定

確定差值形式與自適應閾值

4.1 實驗用人臉庫

本文所有實驗均選用AR和ORL兩大標準人臉圖像數據庫作訓練及測試用,其中的部分人臉圖像示例如圖7、8所示。

AR人臉庫由100人、每人26張彩色圖像組成,大小為 165×120。這些圖像均來自同一個體在兩個不同時期當表情、遮擋、光照等一系列條件變化時的情況。前期拍攝出前13張照片,后13張來自于第二個時期,時間上前后相差僅僅14天。實驗中所有圖像均為灰度化之后的圖像。圖7是其中一個個體的26張灰度圖,從左到右:第1張為原始參考;第2~4張為表情變化;第5~7張為光照變化,光源方向依次為右、左、正面;后6張為物品遮擋,包含遮擋集A(眼鏡)和遮擋集B(圍脖),同時附帶光照變化。

ORL人臉數據庫包含2年內采集的40個人(不同年齡、性別、種族對象),每個人10張112×92大小的人臉灰度圖像,包括微小光照變化、表情變化(睜/閉眼,笑/不笑)、人臉細節(帶/不帶眼鏡)、人臉姿態變化、20%以內的尺度變化等。該庫是目前使用最廣泛的標準人臉數據庫之一,它含有大量的比較結果。圖8是裁剪為80×80的兩個對象的例子。

4.2 差值形式

在AR、ORL人臉庫分別設置對比實驗,本文的所有分類任務均采用臺灣大學林智仁(Lin Chih-Jen)副教授等開發設計的libSVM分類器進行分類識別,且識別率是10次識別的均值。mapping/noABS中mapping表示采用了統一描述算子降維,noABS表示環形相鄰點之間差值形式不采用絕對值,其余以此類推。

1)AR人臉數據庫。每個人有26張人臉圖像,從中隨機選取訓練樣本數從1到13張,形成13次結果數據,結果如圖9所示。

可以看出,在識別率方面,隨著訓練樣本數量的增加,四種特征提取方法的識別率都呈現對數式增加。nomapping/noABS方法同樣本條件下識別率最高,當訓練樣本數達到13時,識別率高達98.30%;緊隨其后為mapping/noABS,其整體識別率與前者相差并不大,最高也能達到9786%;采用絕對值(yesABS)的方法的識別率較低。這說明降維或者不降維對本文提出的IE(w)ATR-LBP方法的識別率沒有決定性影響,如若采用絕對值的形式,得到的識別率較低。在歷時方面,noMapping/noABC與noMapping/yesABC兩種方法基本重合,計算量都很大;另外兩種方法計算量卻小很多。

2)ORL人臉數據庫。

每個人有10張樣本,從中隨機選取訓練樣本數1到5,得到5次實驗數據,結果如圖10所示。

ORL人臉庫的實驗結果表明,除去與AR人臉庫本身的差異外,兩組數據趨勢嚴格保持一致。

結合AR及ORL人臉庫實驗結果,綜合考慮識別率和計算量,mapping/noABS是個很好的選擇,既達到了本文需要的識別精度,計算量也相對較少。

4.3 自適應閾值

為了得到最佳自適應閾值T,采用IE(w)ATR-LBP方法,在mapping/noABS模式下,取n值分別為0到0.09,步長為0.01的十組數,分別針對AR和ORL人臉庫,得到十組實驗結果,從而確定最終的n值。

AR人臉庫每個個體采用10個訓練樣本,ORL人臉庫則采用4個訓練樣本,實驗結果如圖 11所示。從AR的實驗結果來看,當n=0.01時,有最大識別率,當n=0時,識別率僅次于n=0.01時,且隨著n值增大,識別率呈滑坡式下降;ORL庫在n=0.03處達到最大識別率。

實驗結果說明:閾值T可以增強ATRLBP算子在平滑圖像灰度差異方面的魯棒性,且最大識別率出現在n值的初期階段;造成識別率呈滑坡式下降的主要原因是T值過大(n值過大),導致被提取出的二值編碼全部為0。此外,從人臉圖像本身來看,局部鄰域內像素值之間的差值非常小,對相鄰像素更是如此,所以,T應該是一個在一定范圍內的較小的正數。在人臉圖像特征提取過程中,本文采取對比實驗最終確定n=0.02,即最終確定本文的ATRLBP算子形式為Mapping/noABS,且閾值T等于均值的0.02倍。

5 實驗結果與分析

5.1 抗噪魯棒性驗證

ORL人臉庫包含微小光照變化,用直方圖均衡方法去除光照影響,人為加入高斯和椒鹽兩種類型噪聲,驗證在噪聲影響下本文方法的識別率,

結果如表 1所示。可以看出,在不加噪聲情況下識別率最高為98.85%,最低為80.56%,說明IE(w)ATR-LBP方法對人臉表情及姿態變化具有良好魯棒性;加入高斯、椒鹽噪聲后識別率均有所下滑,但椒鹽識別率下滑不明顯,樣本數為1時下降了5.75個百分點,樣本數為5時僅下降了0.27個百分點;再次對比無噪聲、加入高斯噪聲和加入椒鹽噪聲在5次不同訓練樣本實驗下的平均識別率,加入高斯噪聲后的平均識別率下降了14.04個百分點,而加入椒鹽噪聲后僅下降了2.95個百分點,說明IE(w)ATR-LBP方法對脈沖類噪聲有良好的抗噪性。

5.2 不同方法對比驗證

為了驗證IE(w)ATR-LBP人臉識別方法在光照、人臉表情和姿態、遮擋等因素影響下的魯棒性,與部分方法分別在ORL與AR人臉庫進行對比實驗,結果見表2~4。

在ORL人臉庫分別選取S=2及S=5張人臉圖像作訓練樣本,剩余作測試樣本;將AR人臉庫分為四個集進行實驗,分別是表情集、光照集、遮擋集A、遮擋集B,每個人臉集分別取3張人臉圖像作為訓練樣本,剩余作測試樣本。SVM分類識別階段均采自10次結果的平均值,增加結果穩定性。

表2是各對比方法在2張訓練樣本與5張訓練樣本兩種情況下的10次平均識別率,IE(w)ATR-LBP人臉識別方法基本能達到最高識別率,在S=5時有最大識別率98.85%。識別率大小與IE(w)ATR-LBP人臉識別方法最接近的是文獻[22]中提出的基于稀疏表示并且融合三種特征的人臉識別方法,但由于該方法融合了三種特征,如果不對數據作降維處理,計算量將非常大,若采取降維處理又將損失一定的特征信息,不能得到如此高的識別率。文獻[21]中提出的對人臉分塊加上信息熵的方式識別人臉,在本次實驗中同樣得到了不錯的識別率,側面證明了IE(w)ATR-LBP人臉識別方法的可靠性,但由于本文改進的LBP算子與該文提出的算子相比,不管是在特征有效性還是計算量上都更占優勢,所以IE(w)ATR-LBP人臉識別方法也得到了更高的識別率。

由表3可知,AR人臉庫的實驗結果趨勢基本與ORL人臉庫保持一致,本文方法在四個集中得到的識別率分別為98.37%、94.17%、98.20%、99.34%,其中在光照集的識別率不太理想,原因在于:1)光照變化導致人臉圖像的像素出現大范圍的改變;2)對于光照變化后的人臉圖像,IE(w)ATR-LBP方法的分塊處理導致不同光照下的人臉圖像所得特征結果差異很大。對比AR人臉庫其他3個數據集的識別率,IE(w)ATR-LBP方法區分局部特征改變的人臉圖像更加有效。

由于小樣本時對深度學習無太大意義,所以在ORL及AR兩個人臉庫的對比實驗設置如下:采用五步交叉驗證法進行訓練與測試,樣本分配比例設置為4∶ 1。即將各個人臉庫的總樣本均分為5份,實驗時,選取其中4/5用來作訓練,剩下的用作測試。對于ORL人臉庫,因為每人有10張人臉圖像,故對于每類人臉圖像,訓練樣本數與測試樣本數的比例為8∶ 2,訓練樣本總數為320個,每次隨機地選取2個樣本輸入訓練,測試樣本總數為80。對于AR人臉庫,選擇其前一個時期的12張人臉圖像作為數據庫,故訓練樣本數與測試樣本數的比例為9∶ 3。

由表4對比不同方法在兩個人臉庫上的識別率不難發現,IE(w)ATR-LBP方法在10次均值下所得識別率均要高于對比方法。當訓練樣本數足夠大時,三種基于深度學習的方法確實能達到較高的識別率,但當訓練樣本數不足甚至是單樣本時,其識別率會嚴重下降,計算量也較大,而本文基于特征提取融合人臉輪廓空間信息的IE(w)ATR-LBP方法在低訓練樣本數下更具優勢。

6 結語

本文提出了加權信息熵與ATRLBP算子結合進行人臉特征提取的方法IE(w)ATR-LBP。加權信息熵既很好地保留了原始人臉圖像的空間信息,也對人臉重要部分作了權值判斷;ATRLBP算子對人臉圖像局部區域進行鄰域環形差值編碼,并用實驗數據最終確定“差值形式”與“自適應閾值T”。IE(w)ATR-LBP方法能夠有效提高人臉在光照、姿態、遮擋等因素,尤其表情變化及脈沖類噪聲干擾情況下的識別率。

由于采用的數據庫為現階段標準的人臉數據庫ORL及AR,IE(w)ATR-LBP方法在更復雜的自建庫中的通用性可能還不是很強。因此,下一步的研究方向是,提高算法在復雜度更高的人臉圖像中的識別率,以及進一步提高人臉識別效率。

參考文獻

[1]?TURK M, PENTLAND A. Eigenfaces for recognition [J]. Journal of Cognitive Neuroscience,1991,3(1): 71-86.

[2]?CHELLAPPA R, WILSON C L, SIROHEY S. Human and machine recognition of faces: a survey [J]. Proceedings of the IEEE, 1995, 83(5): 705-741.

[3]?BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces vs. Fisherfaces: recognition using class specific linear projection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.

[4]?彭中亞,程國建.基于獨立成分分析和核向量機的人臉識別[J].計算機工程,2010,36(7):193-194. (PENG Z Y, CHENG G J. Face recognition based on independent component analysis and core vector machines [J]. Computer Engineering, 2010, 36(7):193-194.)

[5]?胡敏,余子璽,王曉華,等.G-LBP和方差投影交叉熵的人臉識別[J].圖學學報,2017,38(1):82-89. (HU M, YU Z X, WANG X H, et al. G-LBP and variance cross projection function for face recognition [J]. Journal of Graphics, 2017, 38(1): 82-89.)

[6]?梁淑芬,劉銀華,李立琛.基于LBP和深度學習的非限制條件下人臉識別算法[J].通信學報,2014,35(6):154-160. (LIANG S F, LIU Y H, LI L C. Face recognition under unconstrained based on LBP and deep learning [J]. Journal on Communications, 2014, 35(6): 154-160.)

[7]?LECUN Y, BOSER B, DENKER J S, et al. Backpropagation applied to handwritten zip code recognition [J]. Neural Computation, 1989, 1(4): 541-551.

[8]?SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 1-9.

[9]?HE K, HANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.

[10]?楊瑞, 張云偉, 茍爽, 等. Gabor特征與深度信念網絡結合的人臉識別方法[J]. 傳感器與微系統, 2017, 36(5): 68-70. (YANG R, ZHANG Y W, GOU S, et al. Face recognition algorithm based on Gabor feature and DBN [J]. Transducer and Microsystem Technologies, 2017, 36(5): 68-70.)

[11]?江大鵬, 楊彪, 鄒凌. 基于LBP卷積神經網絡的面部表情識別[J]. 計算機工程與設計, 2018, 39(7): 1971-1977. (JIANG D P, YANG B, ZOU L. Facial expression recognition based on local binary mode convolution neural network [J]. Computer Engineering and Design, 2018, 39(7): 1971-1977.)

[12]?SUN K, YIN X, YANG M, et al. The face recognition method based on CS-LBP and DBN [J]. Mathematical Problems in Engineering, 2018, 2018: No. 3620491.

[13]?OJALA T, PIETIKINEN M, HARWOOD D. A comparative study of texture measures with classification based on featured distributions [J]. Pattern Recognition, 1996, 29(1): 51-59.

[14]?OJALA T, PIETIKINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.

[15]?HEIKKL M, PIETIKINEN M. A texture-based method for modeling the background and detection moving objects [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(4): 657-662.

[16]?HEIKKIL M, PIETIKINEN M, SCHMID C. Description of interest regions with local binary patterns [J]. Pattern Recognition, 2009, 42(3): 425-436.

[17]?TAN X, TRIGGS B. Enhanced local texture feature sets for face recognition under difficult lighting conditions [J]. IEEE Transactions on Image Processing, 2010, 19(6): 1635-1650.

[18]?GUO Z, ZHANG L, ZHANG D. Rotation invariant texture classification using LBP Variance (LBPV) with global matching [J]. Pattern Recognition, 2010, 43(3): 706-719.

[19]?王燕, 王蕓蕓. 一種DCT和ELBP融合的人臉特征提取方法[J]. 計算機工程與應用, 2017, 53(4): 170-175. (WANG Y, WANG Y Y. Face feature extraction method based on fusing DCT and ELBP features [J]. Computer Engineering and Applications, 2017, 53(4): 170-175.

[20]?WEI X, WANG H, GUO G, et al. Multiplex image representation for enhanced recognition [J]. International Journal of Machine Learning & Cybernetics, 2018, 9(3): 383-392.

[21]?張潔玉, 武小川. 加權局部二值模式的人臉特征提取[J]. 中國圖象圖形學報, 2018, 19(12): 1794-1801. (ZHANG J Y, WU X C. Feature extraction of faces based on a weighted local binary pattern [J]. Journal of Image and Graphics, 2018, 19(12): 1794-1801.)

[22]?木立生, 呂迎春. 基于稀疏表示與特征融合的人臉識別方法[J]. 現代電子技術, 2018, 41(9): 83-86,90. (MU L S, LYU Y C. Face recognition method based on sparse representation and feature fusion [J]. Modern Electronics Technique, 2018, 41(9):83-86,90.)

[23]??SHANNON C E. A mathematical theory of communication [J]. ?Bell Labs Technical Journal, 1948, 27(3): 379-423.

[24]?AHONEN T, HADID A, PIETIKINEN M. Face recognition with local binary patterns [C]// Proceedings of the 2004 European Conference on Computer Vision, LNCS 3021. Berlin: Springer, 2004: 469-481.

猜你喜歡
人臉識別深度學習
人臉識別 等
作文中學版(2022年1期)2022-04-14 08:00:34
揭開人臉識別的神秘面紗
學生天地(2020年31期)2020-06-01 02:32:06
基于(2D)2PCA-LBP 的人臉識別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
人臉識別在高校安全防范中的應用
電子制作(2017年1期)2017-05-17 03:54:46
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于深度卷積網絡的人臉年齡分析算法與實現
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 亚洲AV无码不卡无码| 欧美一级色视频| 国产精品福利导航| 国产精品乱偷免费视频| 亚洲人免费视频| 又大又硬又爽免费视频| 国产精品女人呻吟在线观看| 性做久久久久久久免费看| 久久99精品久久久久久不卡| 午夜成人在线视频| a毛片免费看| 内射人妻无码色AV天堂| 精品一区二区三区四区五区| 在线观看91精品国产剧情免费| 久久无码av三级| 欧美亚洲一区二区三区导航| 996免费视频国产在线播放| 欧美精品v| 亚洲国产精品无码AV| 亚洲国产成人超福利久久精品| 婷婷激情亚洲| 亚洲一区二区成人| 亚洲系列中文字幕一区二区| 91精品专区| 亚洲色精品国产一区二区三区| 自拍亚洲欧美精品| 亚洲天堂网在线观看视频| 中日韩一区二区三区中文免费视频| 五月婷婷综合网| 一级毛片在线直接观看| 亚洲第一成年免费网站| 欧美精品伊人久久| 午夜a级毛片| 亚洲欧美极品| 在线精品亚洲一区二区古装| 天堂成人在线视频| 久久久久人妻一区精品| 中文字幕亚洲无线码一区女同| 老司机午夜精品视频你懂的| 97成人在线观看| 国产精品视频系列专区| 极品尤物av美乳在线观看| 日韩在线观看网站| 国产在线自乱拍播放| 日日碰狠狠添天天爽| 自偷自拍三级全三级视频| 国内嫩模私拍精品视频| 性欧美精品xxxx| 日本黄色不卡视频| 一区二区三区在线不卡免费| 高潮毛片免费观看| 国产乱人伦偷精品视频AAA| AV天堂资源福利在线观看| 国产免费福利网站| 综合亚洲色图| 免费福利视频网站| 国产成人高清亚洲一区久久| 欧美日韩精品一区二区在线线 | 亚洲精品图区| 精品伊人久久久香线蕉| 在线人成精品免费视频| 国产亚洲精久久久久久无码AV| 亚洲成人在线免费观看| 国产高清在线精品一区二区三区| 丁香五月激情图片| 国产精品嫩草影院av| 日韩av高清无码一区二区三区| 亚洲69视频| 亚洲第一页在线观看| 欧美成人午夜视频免看| 无码av免费不卡在线观看| 黄色一级视频欧美| 成人亚洲天堂| 麻豆精品视频在线原创| 99国产精品国产| 日本91视频| 久久人妻xunleige无码| 国产乱视频网站| 国产美女视频黄a视频全免费网站| 国产女人在线观看| 91视频区| av大片在线无码免费|