999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于常數(shù)矩陣改進(jìn)的SRC算法

2018-03-15 08:25:54鄭俊偉
現(xiàn)代計(jì)算機(jī) 2018年3期
關(guān)鍵詞:數(shù)據(jù)庫(kù)實(shí)驗(yàn)

鄭俊偉

(四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065)

0 引言

人臉識(shí)別技術(shù)是近年來(lái)被廣泛研究的熱點(diǎn)之一,人臉識(shí)別技術(shù)利用從人臉圖像提取有效的特征,然后將這些特征信息與數(shù)據(jù)庫(kù)中的人臉信息進(jìn)行搜索比對(duì),從而判斷這個(gè)人的身份信息。近幾年稀疏表示受到越來(lái)越多的關(guān)注,并且被應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域中。尤其是在Wright等人提出的稀疏表示分類方法[1]在人臉識(shí)別的應(yīng)用中取得了很好的識(shí)別效果后。稀疏表示分類算法(SRC算法)是近年來(lái)新出現(xiàn)的一種人臉識(shí)別算法。它的基本思想是給定一個(gè)測(cè)試樣本,然后得到該樣本在所有訓(xùn)練樣本構(gòu)成的字典上的稀疏系數(shù),之后利用稀疏系數(shù)與訓(xùn)練樣本重構(gòu)測(cè)試樣本,最后將測(cè)試樣本分配給重構(gòu)誤差最小的類別。SRC算法可以直接利用原始像素進(jìn)行人臉識(shí)別,從而避免了預(yù)處理的過程。除此之外,SRC算法對(duì)表情變化、圖像遮擋具有一定程度的魯棒性。但是,在將稀疏表示人臉識(shí)別算法應(yīng)用于實(shí)際中,常常需要在兩個(gè)方面進(jìn)行改進(jìn)。首先,是要突破人臉圖像對(duì)齊的假設(shè),因?yàn)樵趯?shí)際環(huán)境中人臉的圖像是不對(duì)齊。但是更重要的是,在實(shí)際環(huán)境中,常常會(huì)發(fā)現(xiàn)可用的訓(xùn)練樣本非常稀少。為此,大量的學(xué)者進(jìn)行了各種各樣的嘗試,并提出了許多產(chǎn)生虛擬樣本的方案[2-15]。其中一種方案是利用原始訓(xùn)練樣本和鏡像樣本來(lái)進(jìn)行人臉識(shí)別。首先利用原始訓(xùn)練樣本生成相應(yīng)的鏡像樣本。然后將原始訓(xùn)練樣本和相應(yīng)的鏡像樣本結(jié)合產(chǎn)生一個(gè)新的訓(xùn)練樣本,用于人臉識(shí)別。該方法讓可用的訓(xùn)練樣本數(shù)變?yōu)樵瓉?lái)的兩倍。實(shí)驗(yàn)結(jié)果表明,該方法不僅克服樣本稀少的問題,而且克服了人臉圖像的不對(duì)齊問題,并且在一定程度上消除了人臉圖像的姿態(tài)變化和光照變化的不利影響。另一種方案是先將人臉分成兩個(gè)大小相同的兩半。然后利用每一半分別產(chǎn)生一張“對(duì)稱”的虛擬臉。從而讓訓(xùn)練樣本的數(shù)目變成原來(lái)的三倍。本文主要針對(duì)SRC算法在實(shí)際應(yīng)用中,可用的訓(xùn)練樣本少導(dǎo)致識(shí)別率低而提出的解決方案。文獻(xiàn)[16]提出一種基于多重表示的圖像分類新方法,該方法能夠?yàn)樵加?xùn)練樣本產(chǎn)生新的表示。并且能用圖片新的表示提高圖像分類的精度。

1 稀疏表示分類算法

SRC算法的基本思想如下[1]:

假設(shè)第i類有足夠的訓(xùn)練樣本,樣本圖像大小為w×h,第i類有ni個(gè)訓(xùn)練樣本,把這ni個(gè)訓(xùn)練樣本數(shù)據(jù)變 成 列 向 量 ,組 成 矩 陣 Ai, 即 Ai=[υi,1,υi,2,…,υi,n]∈Rm×ni,m=w×h。給定一幅新的第 i類的圖像y∈Rm,則y可以由第i類的所有訓(xùn)練樣本近似線性表示:

其中,ai,j為標(biāo)量,j=1,2,…,ni。

由于在識(shí)別之前y的類別未知,所以定義一個(gè)由所有類別的訓(xùn)練樣本組成的矩陣A,假設(shè)訓(xùn)練樣本有C個(gè)類,一共 n個(gè),即則:

如果用A來(lái)表示y,那么式(1)可以重寫為:

x0=[0,…,0,ai,1,ai,2,…,ai,n,…,0,…,0]T∈ Rm×ni為系數(shù)向量,即與第i類對(duì)應(yīng)的系數(shù)非零,而其他系數(shù)均為零。

在稀疏表示中,通常求解最小化ι1范數(shù)問題:

在圖像受到小的噪聲影響時(shí),上式可以修改為:

其中,ε>0是誤差容忍度。

式(5)可以轉(zhuǎn)化為帶ι1數(shù)約束的最小二乘問題:

其中,λ>0是正則化參數(shù),用來(lái)平衡重構(gòu)誤差和稀疏性。當(dāng)通過求解式(5)或式(6)得到稀疏系數(shù)時(shí),基于重構(gòu)樣本和測(cè)試樣本之間的殘差來(lái)對(duì)測(cè)試樣本進(jìn)行分類。對(duì)于第i類樣本,假設(shè) βi:Rm→Rm為特征函數(shù),它選擇與第i類相關(guān)的系數(shù),即對(duì)于x∈Rm,δi(x)∈Rm是一個(gè)新的向量,這個(gè)向量中的非零元素對(duì)應(yīng)x中與第i類相關(guān)的元素,而對(duì)應(yīng)其它類的系數(shù)為0。使用δi()和訓(xùn)練樣本組成的矩陣A,可以得到重構(gòu)樣本。然后就可以把測(cè)試樣本分在最小重構(gòu)誤差對(duì)應(yīng)的類別中:

稀疏表示分類(SRC)算法的流程如下:

(1)輸入:由C類訓(xùn)練樣本組成的矩陣A=[A1,A2,…,AC] ∈Rm×n,測(cè)試樣本 y∈Rm(可選參數(shù):容忍誤差ε>0);

(2)將y和A的列向量單位化;

(3)求解(5)或(6);

輸出:測(cè)試樣本的類別identity(y)=argmiinri(y)。

2 改進(jìn)的SRC算法

在文獻(xiàn)[16]中提出了一種基于多重表示的圖像分類新方法。該方法能夠?yàn)樵加?xùn)練樣本產(chǎn)生新的圖像表示。當(dāng)將圖片的新表示與原始訓(xùn)練樣本相結(jié)合用于圖像分類時(shí),能夠有效提高圖像分類的精度。其定義如下

其中m=255,Iij表示圖像I在第i行、第j列的像素的灰度值,而Jij表示圖像J在第i行、第j列的像素的灰度值。受到以上模型的啟發(fā),本文提出了一種通過使用常數(shù)矩陣來(lái)獲得圖像新表示的方法。算法的模型如下:

假設(shè)存在C個(gè)類,每個(gè)類有n個(gè)樣本,樣本圖像的大小為w×h。則算法的具體流程如下:

(1)輸入:由C個(gè)類別的訓(xùn)練樣本組成的矩陣A=[A1,A2,…,AC] ∈Rm×n,常量系數(shù) a;

(2)通過常量a與式子(9)計(jì)算得到常數(shù)矩陣B,其中常數(shù)矩陣為w行h列的矩陣;

(3)將常數(shù)矩陣B與每個(gè)訓(xùn)練樣本A(ii=1,2,…,C)相加,獲得新的樣本,將新樣本組成矩陣,其中用表示增強(qiáng)后的樣本;

(4)將A與A'整合成一個(gè)新的訓(xùn)練樣本,然后將其應(yīng)用于SRC算法中;

(5)輸出:測(cè)試樣本的類別:identity(y)=argmiin ri(y)。

3 實(shí)驗(yàn)驗(yàn)證與分析

3.1 改進(jìn)方法有效性驗(yàn)證

由前面關(guān)于SRC算法的介紹可知,SRC算法會(huì)將測(cè)試樣本分到最小重構(gòu)誤差對(duì)應(yīng)的類別。因此,重構(gòu)誤差反映了測(cè)試樣本與類別的相關(guān)程度。即誤差越小,相關(guān)程度越高。

在這一小節(jié)將使用ORL人臉數(shù)據(jù)庫(kù)和COIL人臉數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn),用于驗(yàn)證本文所提出的改進(jìn)方法能提高算法的識(shí)別率。在實(shí)驗(yàn)中,取數(shù)據(jù)庫(kù)第一個(gè)人的某張圖片做為測(cè)試樣本,然后分別使用SRC算法與改進(jìn)后的SRC算法,計(jì)算該圖片與數(shù)據(jù)庫(kù)中各個(gè)人的誤差值。圖1展現(xiàn)了基于ORL人臉數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)的結(jié)果。圖2展現(xiàn)了基于COIL人臉數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)的結(jié)果。

圖1 使用ORL人臉數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)的結(jié)果

圖2 使用COIL人臉數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)的結(jié)果

3.2 改進(jìn)方案通用性驗(yàn)證

本小節(jié)通過實(shí)驗(yàn)來(lái)驗(yàn)證本文所提出方法的通用性。在實(shí)驗(yàn)中,除了通過SRC算法進(jìn)行對(duì)比實(shí)驗(yàn)之外,還使用 CRC 算法[17-20]、LRC 算法[21-24]、CFKNNC 算法[25]和INNC算法[26]進(jìn)行對(duì)比實(shí)驗(yàn)。使用的人臉數(shù)據(jù)庫(kù)有ORL人臉庫(kù)、FERET人臉庫(kù)、AR人臉庫(kù)和COIL人臉庫(kù)。

(1)ORL人臉庫(kù)

ORL是一個(gè)基于表情和姿態(tài)變化的人臉數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)擁有400張人臉圖片,它們由40個(gè)人,每個(gè)人10張不同姿態(tài)和表情的人臉圖像組成。在實(shí)驗(yàn)中,選擇每個(gè)人的前4張圖片作為訓(xùn)練樣本,而其余的作為測(cè)試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖3展現(xiàn)了ORL人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本與測(cè)試樣本。表1展現(xiàn)了本文所提方法在不同算法上進(jìn)行對(duì)比實(shí)驗(yàn)所得到的識(shí)別率。

(2)FERET人臉庫(kù)

FERET人臉數(shù)據(jù)庫(kù)總共擁有1400張人臉圖像,包括200個(gè)人的數(shù)據(jù),由每個(gè)人的7張不同光照和姿態(tài)的圖像構(gòu)成。在實(shí)驗(yàn)中,選擇每個(gè)人的前4張圖片作為訓(xùn)練樣本,而將其余的作為測(cè)試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖4展現(xiàn)了FERET人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本與測(cè)試樣本。表2展現(xiàn)了本文所提方法在不同算法上進(jìn)行對(duì)比實(shí)驗(yàn)所得到的識(shí)別率。

圖3 ORL人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本

表1 基于ORL人臉數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果

圖4 基于FERET人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本

表2 基于FERET人臉數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果

(3)AR人臉庫(kù)

AR人臉數(shù)據(jù)庫(kù)擁有超過4000張的人臉圖像,包括126個(gè)人的數(shù)據(jù),由每個(gè)人的不同光照、尺度和姿態(tài)的圖像構(gòu)成。在實(shí)驗(yàn)中,選擇每個(gè)人的前4張圖片作為訓(xùn)練樣本,而將其余的作為測(cè)試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖5展現(xiàn)了AR人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本與測(cè)試樣本。表格3展現(xiàn)了本文所提方法在不同算法上進(jìn)行對(duì)比實(shí)驗(yàn)所得到的識(shí)別率。

圖5 基于AR人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本

表3 基于AR人臉數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果

(4)COIL人臉庫(kù)

本實(shí)驗(yàn)所使用的COIL數(shù)據(jù)庫(kù)總共包括1440張圖像,它由來(lái)自20個(gè)類別的72張圖像組成。在實(shí)驗(yàn)中,選擇每個(gè)人的前4張圖片作為訓(xùn)練樣本,而將其余的作為測(cè)試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖6展現(xiàn)了COIL人臉數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本與測(cè)試樣本。表4展現(xiàn)了本文所提方法在不同算法上進(jìn)行對(duì)比實(shí)驗(yàn)所得到的識(shí)別率。

3.3 實(shí)驗(yàn)結(jié)果分析

1)從圖1可以看到SRC算法對(duì)測(cè)試樣本的分類有誤,因?yàn)樽钚≈貥?gòu)誤差出現(xiàn)在第16個(gè)類別的位置。但改進(jìn)后的SRC算法能將測(cè)試樣本分配到正確的類別。同樣的,通過圖2可以看到SRC算法對(duì)測(cè)試樣本的分類有誤,但改進(jìn)后的SRC算法則將測(cè)試樣本分配到正確的類別中。通過以上實(shí)驗(yàn)可以發(fā)現(xiàn)改進(jìn)后的SRC算法能減少原本的SRC算法的錯(cuò)誤匹配率,從而提高正確識(shí)別率。

2)將本文所提出的改進(jìn)方法應(yīng)用在除SRC算法以外的算法進(jìn)行對(duì)比實(shí)驗(yàn),可以發(fā)現(xiàn)基于本文所提出的方法對(duì)其他算法進(jìn)行改進(jìn),也能使其他算法的識(shí)別率有所提高,從而證明本文所提出的改進(jìn)方法具有一定的通用性。

圖6 基于COIL數(shù)據(jù)庫(kù)的部分訓(xùn)練樣本

表4 基于COIL人臉數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果

4 結(jié)語(yǔ)

本文主要針對(duì)SRC算法在實(shí)際應(yīng)用中,可用的訓(xùn)練樣本少導(dǎo)致識(shí)別率低而提出一種新的方法。該方法通過使用一個(gè)特定的常數(shù)矩陣與訓(xùn)練樣本相加獲得新的訓(xùn)練樣本,然后將新的訓(xùn)練樣本與原始訓(xùn)練樣本相結(jié)合產(chǎn)生一個(gè)新的數(shù)據(jù)集,從而解決在實(shí)際應(yīng)用中,可用訓(xùn)練樣本少而導(dǎo)致識(shí)別率低的問題。通過實(shí)驗(yàn)表明,該方法不僅能增加可用的訓(xùn)練樣本,而且可以提高識(shí)別率,除此之外,還證明了該方法具有一定的通用性。

[1]J Wright,AY Yang,A Ganesh,et a1.Robust Face Recognition Via Sparse Representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.

[2]Y Xu,X Zhu,Z Li,G Liu,Y Lu and H Liu.Using the Original and‘Symmetricalface’Training Samples to Perform Representation Based two-step Face Recognition.Pattern Recognition,2013,46:1151-1158.

[3]Yong Xu,Zheng Zhang,Guang ming Lu and Jian Yang.Approximately Symmetrical Face Images For Image Preprocessing In Face Recognition and Sparse Representation Based Classification.Pattern Recognition,2016,54:68–82.

[4]Y Xu,X Fang,X Li,J Yang,J You,H Liu,S Teng.Data Uncertainty in Face Recognition.Transactions on Cybernetics,2014,44(10).

[5]P Ekman,J.C.Hager,W.V.Friesen.The Symmetry of Emotional and Deliberate Facial Actions.Psychophysiology,1981,18(2):101-106.

[6]B Tang,S Luo and H Huang.High Performance Face Recognition System by Creating Virtual Sample.In Proc.Int.Conf.Neur.Netw.Signal Process.2003:972-975.

[7]P.Niyogi,F(xiàn).Girosi,T.Poggio.Incorporating Prior Information in Machine Learning by Creating Virtual Examples.Proc.IEEE.1998,86(11):2196-2209.

[8]D.Jiang,Y.Hu,S.Yan,L.Zhang,H.Zhang,W.Gao.Efficient 3D Reconstruction for Face Recognition.Pattern Recognition,2005,38(6):787-798.

[9]S.N.Kautkar,G.A.Atkinson,M.L.Smith.Face Recognition in 2D and 2.5D Using Ridgelets and Photometric Stereo,Pattern Recognition,2012,45(9):3317-3327.

[10]N.P.H.Thian,S.Marcel,S.Bengio.Improving Face Authentication Using Virtual Samples.IEEE International Conference on Acoustics,Speech,and Signal Processing,2003:6-10.

[11]R Y.-S,O S.-Y.Simple Hybrid Classifier for Face Recognition with Adaptively Generated Virtual Data.Pattern Recognition Letters,2002,23(7):833-841.

[12]T.Vetter.Synthesis of Novel Views from a Single Face Image.International Journal of Computer Vision,1998,28(2):102-116.

[13]X.-T.Yuan,S.Yan.Visual Classification with Multi-Task Joint Sparse Repre-Sentation.IEEE Conference on Computer Vision and Pattern Recognition,2010:3493-3500.

[14]A.Sharma,A.Dubey,P.Tripathi,V.Kumar.Pose Invariant Virtual Classifiers from Single Training Image Using Novel Hybrid-Eigenfaces.Neurocomputing.2010,73(10–12):1868-1880.

[15]Y.Hu,D.Jiang,S.Yan,L.Zhang,H.Zhang.Automatic 3D Reconstruction for Face Recognition,2004:843-850.

[16]Y Xu,B Zhang,Z Zhong.Multiple Representations and Sparse Representation for Image Classification.Pattern Recognition Letters,2015:9-14.

[17]BA Olshausen,DJ Field.Sparse Coding with an Overcomplete Basis Set:a Strategy Employed by V1?Vision Research.1997,37(23):3311.

[18]W.E.Vinje,J.L.Gallant.Sparse Coding and Decorrelation in Primary Visual Cortex During Natural Vision.SCIENCE.2000,287(5456):1273-1276.

[19]M.Elad,M.Aharon.Image Denoising Via Sparse and Redundant Representations Over Learned Dictionaries.IEEE Trans.Image Processing.2006,15(12):3736-3745.

[20]S.H.Gao,I.W-H.Tsang,L-T.Chia.Kernel Sparse Representation for Image Classification and Face Recognition.Proc.European Conf.Computer Vision,2010.

[21]I.Naseem,R.Togneri,M.Bennamoun.Linear Regression for Face Recognition.Transactions on Pattern Analysis and Machine Intelligence.2010,32(11).

[22]P.N.Belhumeur,J.P.Hespanha,D.J.Kriegman.Eigenfaces vs.Fisherfaces:Recognition Using Class Specific Linear Projection.IEEE Trans.Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

[23]R.Barsi,D.Jacobs.Lambertian Reflection and Linear Subspaces.IEEE Trans.Pattern Analysis and Machine Intelligence,2003,25(2):218-233.

[24]X.Chai,S.Shan,X.Chen,W.Gao.Locally Linear Regression for Pose Invariant Face Recognition.IEEE Trans.Image Processing.2007,16(7):1716-1725.

[25]Y.Xu,Q.Zhu,Z.Fan,D.Zhang,J.Mi,Z.Lai.Using the Idea of the Sparse Representation to Perform Coarse-to-Fine Face Recognition.Information Sciences,2013,238:138-148.

[26]Y.Xu,Q.Zhu,Y.Chen J.Pan.An Improvement to the Nearset Neighbor Classifier and Face Recogniton Experiments,2013:543-545.

猜你喜歡
數(shù)據(jù)庫(kù)實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
微型實(shí)驗(yàn)里看“燃燒”
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
數(shù)據(jù)庫(kù)
數(shù)據(jù)庫(kù)
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
數(shù)據(jù)庫(kù)
數(shù)據(jù)庫(kù)
數(shù)據(jù)庫(kù)
主站蜘蛛池模板: av一区二区人妻无码| 亚洲成年人网| 91视频日本| www.91在线播放| 久久96热在精品国产高清| 99精品福利视频| 蜜臀AVWWW国产天堂| 国产99视频精品免费视频7| 国产无码精品在线| 久久精品人人做人人综合试看| 亚洲欧美极品| 亚洲视频影院| AV老司机AV天堂| 54pao国产成人免费视频| 欧洲熟妇精品视频| 粗大猛烈进出高潮视频无码| 看你懂的巨臀中文字幕一区二区| 在线毛片免费| 国产黄色片在线看| 91精品国产91久无码网站| 91视频青青草| 乱系列中文字幕在线视频| 波多野结衣一区二区三区88| 精品视频91| 免费毛片网站在线观看| 欧美69视频在线| 国产精品太粉嫩高中在线观看 | 秋霞国产在线| 日本五区在线不卡精品| 国产精品亚洲天堂| 男女性午夜福利网站| 高潮毛片无遮挡高清视频播放| 国产波多野结衣中文在线播放| 国产成人做受免费视频| 亚洲最大福利视频网| 国内精品九九久久久精品| 国产微拍一区二区三区四区| h视频在线观看网站| www.亚洲一区| 久久精品国产91久久综合麻豆自制| AV无码国产在线看岛国岛| 一区二区理伦视频| 日韩亚洲综合在线| 成人a免费α片在线视频网站| 亚洲中文在线视频| 99视频在线观看免费| 国产午夜无码片在线观看网站| 国产精品女同一区三区五区| 精品无码人妻一区二区| 偷拍久久网| 国内精品久久人妻无码大片高| 亚洲人成人无码www| 国产欧美日韩视频怡春院| 国产免费黄| 亚洲天堂高清| 九色综合伊人久久富二代| 欧美亚洲激情| 思思热精品在线8| 久久一本精品久久久ー99| 国产欧美高清| 久久黄色视频影| 亚洲欧美一级一级a| 国产精品所毛片视频| 97超碰精品成人国产| 野花国产精品入口| 日韩av在线直播| 欧美伦理一区| 重口调教一区二区视频| 中文字幕资源站| 老司机久久精品视频| 伊人网址在线| 国产又爽又黄无遮挡免费观看 | 欧美中出一区二区| 热思思久久免费视频| 精品国产中文一级毛片在线看 | 美女国内精品自产拍在线播放 | 欧洲欧美人成免费全部视频| 午夜国产精品视频黄| 久久婷婷综合色一区二区| 亚洲床戏一区| 亚洲综合天堂网| 亚洲精品无码在线播放网站|