999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于稀疏表示和彈性網(wǎng)絡(luò)的人臉識(shí)別

2017-05-24 14:45:21李光早王士同
計(jì)算機(jī)應(yīng)用 2017年3期
關(guān)鍵詞:人臉識(shí)別分類(lèi)數(shù)據(jù)庫(kù)

李光早,王士同

(江南大學(xué) 數(shù)字媒體學(xué)院,江蘇 無(wú)錫 214122) (*通信作者電子郵箱firstliguangzao@163.com)

基于稀疏表示和彈性網(wǎng)絡(luò)的人臉識(shí)別

李光早*,王士同

(江南大學(xué) 數(shù)字媒體學(xué)院,江蘇 無(wú)錫 214122) (*通信作者電子郵箱firstliguangzao@163.com)

由于稀疏表示方法在人臉?lè)诸?lèi)算法中的成功使用,在此基礎(chǔ)上提出了一種更為有效的基于稀疏表示(SRC)和彈性網(wǎng)絡(luò)相結(jié)合的分類(lèi)方法。為了加強(qiáng)樣本間的協(xié)作表示能力以及增強(qiáng)處理強(qiáng)相關(guān)性變量數(shù)據(jù)的能力,基于迭代動(dòng)態(tài)剔除機(jī)制,提出一種結(jié)合彈性網(wǎng)絡(luò)的稀疏分解方法。通過(guò)采用訓(xùn)練樣本的線性組合來(lái)表示測(cè)試樣本,并運(yùn)用迭代機(jī)制從所有樣本中剔除對(duì)分類(lèi)貢獻(xiàn)度較小的類(lèi)別和樣本,采用Elastic Net算法來(lái)進(jìn)行系數(shù)分解,從而選擇出對(duì)分類(lèi)貢獻(xiàn)度較大的樣本和類(lèi)別,最后根據(jù)計(jì)算相似度對(duì)測(cè)試樣本進(jìn)行分類(lèi)。在ORL、FERET和AR 三個(gè)數(shù)據(jù)集進(jìn)行了許多實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果顯示算法識(shí)別率分別達(dá)到了98.75%、86.62%、99.72%,表明了所提算法的有效性。所提算法相比LASSO和SRC-GS等方法,在系數(shù)分解過(guò)程中增強(qiáng)了處理高維小樣本和強(qiáng)相關(guān)性變量數(shù)據(jù)的能力,突出了稀疏約束在該算法中的重要性,具有更高的準(zhǔn)確性和穩(wěn)定性,能夠更加有效地適用于人臉?lè)诸?lèi)。

稀疏表示;彈性網(wǎng)絡(luò);人臉識(shí)別;嶺估計(jì);Lasso估計(jì)

0 引言

盡管目前人臉識(shí)別技術(shù)在現(xiàn)實(shí)生活當(dāng)中得到了許多應(yīng)用,但是人臉識(shí)別技術(shù)仍然是研究的熱點(diǎn)。在人臉識(shí)別的實(shí)際應(yīng)用過(guò)程中會(huì)受到外部許多因素的干擾而使面部識(shí)別效果降低,比如不同的光照條件、面部表情、姿勢(shì)和遮擋等因素,而且面部有效的可鑒別特征存在于高維圖像的子空間中。高維子空間中存在大量的冗余信息,這樣不但消耗大量的數(shù)據(jù)處理時(shí)間,而且對(duì)最后的分類(lèi)結(jié)果造成很大的影響。

傳統(tǒng)的人臉識(shí)別方法是通過(guò)變換軸來(lái)進(jìn)行分類(lèi)的,研究人員提出了許多局部線性變換方法,這類(lèi)算法的變換軸是通過(guò)訓(xùn)練樣本來(lái)進(jìn)行構(gòu)造的。Harandi等[1]嘗試獲得面部空間局部最優(yōu)的變換軸。Sugiyama等[2]提出了一種十分有效的處理樣本多樣化問(wèn)題的變換方法,這種變換方法結(jié)合了線性鑒別分析(Linear Discriminant Analysis, LDA)和局部保持投影(Locality Preserving Projection, LPP)。Liu等[3]提出在特征提取過(guò)程中使用了局部主成分分析(Local Principal Component Analysis, LPCA)方法。

在圖像重建[4]過(guò)程中使用稀疏表示(Sparse Representation-based Pattern Classification, SRC)是近期研究的熱點(diǎn),將稀疏表示理論運(yùn)用到人臉識(shí)別中,利用訓(xùn)練樣本來(lái)線性地表示測(cè)試樣本,通過(guò)計(jì)算測(cè)試樣本與訓(xùn)練樣本的線性表示的誤差來(lái)進(jìn)行樣本的分類(lèi)。文獻(xiàn)[5-10]都是使用訓(xùn)練樣本的線性組合來(lái)表示測(cè)試樣本。在處理高維小樣本數(shù)據(jù)時(shí),可以有效地避免維數(shù)災(zāi)難以及因降維而導(dǎo)致數(shù)據(jù)結(jié)構(gòu)信息的缺失,這樣可以提高人臉識(shí)別算法在實(shí)際應(yīng)用過(guò)程中的魯棒性。

基于SRC的方法中,訓(xùn)練樣本的優(yōu)化問(wèn)題是最基本問(wèn)題[10],強(qiáng)化了樣本之間的可辨別性。Zhang等[11]經(jīng)過(guò)分析SRC模型中的協(xié)作表示(Collaborative Representation ,CR)特性后,并證實(shí)了在SRC模型中,協(xié)作表示機(jī)制在分類(lèi)中起到了關(guān)鍵性作用。而訓(xùn)練樣本的優(yōu)化也是必不可少的,在樣本優(yōu)化過(guò)程中,首先應(yīng)該使得稀疏表示的測(cè)試樣本的誤差最小,其次還要使得真正的類(lèi)別的稀疏系數(shù)達(dá)到最大,因此研究人員引進(jìn)了貪婪搜索策略來(lái)弱化稀疏性約束條件。

Bo等[12]提出的匹配追蹤(Matching Pursuit, MP)和Wang等[13]提出的正交匹配追蹤(Orthogonal Matching Pursuit, OMP)是貪婪搜索算法的兩種方法。MP算法通過(guò)迭代的方式每次在訓(xùn)練樣本中得到一個(gè)與測(cè)試樣本最匹配的訓(xùn)練樣本,然后計(jì)算殘差,計(jì)算完成之后,再繼續(xù)尋找下一個(gè)最匹配的訓(xùn)練樣本,直到符合最初設(shè)置的允許最小誤差值,跳出迭代循環(huán)。OMP算法是對(duì)MP算法的改進(jìn),OMP在分解的每一步都會(huì)對(duì)所要選擇的全部訓(xùn)練樣本進(jìn)行正交化處理。貪婪搜索算法的特點(diǎn)是通過(guò)迭代無(wú)限逼近測(cè)試樣本,通過(guò)先求局部最優(yōu)解,逐步地搜索到全局最優(yōu)解,但是這種方法在人臉識(shí)別過(guò)程中取得的效果不是很理想。

因此,在實(shí)際的人臉識(shí)別過(guò)程中,系數(shù)分解時(shí)的稀疏約束條件是必要的。研究人員提出了一種新的變量選擇技術(shù)最小絕對(duì)壓縮方法,即 LASSO(Least Absolute Shrinkage and Selection Operator)[14]。LASSO估計(jì)是用于描述約束問(wèn)題的一種壓縮估計(jì),它通過(guò)構(gòu)造一個(gè)懲罰函數(shù)來(lái)得到一個(gè)簡(jiǎn)單精煉的模型,使得有些變量的系數(shù)等于或者趨近于零,因此具有變量選擇的作用。LASSO估計(jì)可以進(jìn)行連續(xù)的選擇變量和模型參數(shù)估計(jì)。研究人員對(duì)LASSO進(jìn)行了改進(jìn)并提出了最小角回歸(Least Angle RegreSsion, LARS)算法[15]。這種方法的提出使得 LASSO算法的計(jì)算更加簡(jiǎn)單,使得 LASSO算法在特征選擇和參數(shù)估計(jì)方面得到了更廣泛的應(yīng)用。然而LASSO估計(jì)有自己的不足之處,對(duì)于高維小樣本數(shù)據(jù),會(huì)使得出來(lái)的模型過(guò)于稀疏,使得系數(shù)分解時(shí)得到的誤差較大;而且LASSO估計(jì)對(duì)于向量間具有強(qiáng)相關(guān)性的數(shù)據(jù),得到的結(jié)果也不是很理想。

鑒于上述算法的不足之處,本文提出了基于彈性網(wǎng)絡(luò)(Elastic Network)的SRC模型,Zou等[16]提出了一種新的特征選擇的算法叫作 Elastic Net。這種方法在自變量數(shù)目遠(yuǎn)遠(yuǎn)大于樣本容量時(shí),能夠有效地進(jìn)行向量選擇,使得模型不至于過(guò)度稀疏,而且該算法能夠有效地處理強(qiáng)相關(guān)性變量的數(shù)據(jù),即有較好的自變量分組效應(yīng)。

相對(duì)其他算法,彈性網(wǎng)絡(luò)在模型變量選擇方面表現(xiàn)會(huì)更加地好,在ORL、FERET和AR三個(gè)數(shù)據(jù)集的仿真實(shí)驗(yàn)結(jié)果進(jìn)一步證明了,人臉識(shí)別率有了很大的提高。

1 稀疏表示

假設(shè)存在L類(lèi)共計(jì)n個(gè)訓(xùn)練樣本,訓(xùn)練樣本記作n個(gè)列向量x1,x2,…,xn,假定測(cè)試樣本y可以近似地表示為訓(xùn)練樣本的線性組合,即:

(1)

從式(1)中可以得出,每一類(lèi)的訓(xùn)練樣本都可以線性地表示測(cè)試樣本,而且第i個(gè)訓(xùn)練樣本對(duì)于表示測(cè)試樣本y的擬合度可記為αixi,因此所有來(lái)自第k類(lèi)的訓(xùn)練樣本的集合為xs,xs+1…,xt,則第k類(lèi)訓(xùn)練樣本的擬合總和為gk=αsxs+αs+1xs+1…+αtxt。若偏離度ek=‖y-gk‖2越小,則第k類(lèi)訓(xùn)練樣本與測(cè)試樣本的擬合度越大,進(jìn)而將測(cè)試樣本y歸為使ek最小的那一類(lèi)。

2 SRC模型與算法描述

2.1SRC模型

算法的基本思路[17]是將測(cè)試樣本表示為訓(xùn)練樣本的線性組合。其大體上分為兩步:第一步就是比較樣本之間的歐氏距離,剔除若干對(duì)分類(lèi)影響較小或起到負(fù)作用的類(lèi)別或樣本,然后在剩余的類(lèi)別或樣本中進(jìn)行最后的分類(lèi)決策。第二步根據(jù)彈性網(wǎng)絡(luò)估計(jì)得到稀疏系數(shù),并計(jì)算誤差將測(cè)試樣本歸為誤差最小的某一類(lèi)。算法描述如圖1。

圖1 算法框架示意圖

2.2 基于ElasticNet的SRC模型

LASSO估計(jì)是一種處理共線性數(shù)據(jù)的有偏估計(jì)。LASSO估計(jì)定義如下:

L(λ1,λ2,β)=‖y-Xβ‖2

(2)

此時(shí)t成為調(diào)整參數(shù)且滿(mǎn)足t>0,LASSO是對(duì)分解系數(shù)的絕對(duì)值進(jìn)行懲罰求值,因此LASSO估計(jì)的懲罰也叫L1懲罰,其約束條件就是一些變量的分解系數(shù)的絕對(duì)值之和小于一個(gè)常數(shù)t,這樣使得一些變量的系數(shù)壓縮為零,從而起到壓縮變量的作用。

對(duì)于高維小樣本數(shù)據(jù)(p?n),LASSO估計(jì)最多可能選擇n個(gè)變量,這樣會(huì)得到過(guò)于稀疏的模型,結(jié)果對(duì)人臉的分類(lèi)決策造成非常大的負(fù)面影響,進(jìn)而影響分類(lèi)效果。因?yàn)長(zhǎng)ASSO估計(jì)不具有組效應(yīng)性質(zhì),所以該算法在處理向量間具有強(qiáng)相關(guān)性的數(shù)據(jù)集時(shí),其準(zhǔn)確率和效果很差。LASSO估計(jì)對(duì)于每個(gè)分解系數(shù)不作區(qū)別進(jìn)行相同程度的壓縮,這樣的后果會(huì)使某些系數(shù)過(guò)度壓縮,更加影響分類(lèi)準(zhǔn)確率。

彈性網(wǎng)絡(luò)能夠有效地彌補(bǔ)上述算法的不足,很大程度上提高了算法識(shí)別率。研究人員提出了一種高維變量選擇的算法叫作彈性網(wǎng)絡(luò)(ElasticNetwork),相比貪婪搜索策略和LASSO的稀疏分解方法,本文提出的稀疏分解方法增加了ElasticNet懲罰項(xiàng),懲罰項(xiàng)的作用主要是保證最小二乘解的魯棒性和強(qiáng)化解向量的稀疏性,使得模型更加簡(jiǎn)單精煉,準(zhǔn)確率也有很大的提高。彈性網(wǎng)絡(luò)還可以有效地處理高維小樣本數(shù)據(jù),不會(huì)使模型過(guò)于稀疏影響分類(lèi)精度。ElasticNet有組效應(yīng)性質(zhì),它將強(qiáng)相關(guān)性變量組全部剔除或者保留,能夠保證每次得到的解是最優(yōu)的,因此將ElasticNet算法應(yīng)用在模型中的第二步對(duì)每類(lèi)圖像中的樣本進(jìn)行變量選擇。

對(duì)于固定的非負(fù)值λ1和λ2,彈性網(wǎng)絡(luò)準(zhǔn)則定義如下:

(3)

(4)

算法流程如下:

1)假定有L個(gè)人臉n張圖片,先將樣本的圖片轉(zhuǎn)換成一維列向量,每一個(gè)列向量代表一張人臉圖片,則n個(gè)列向量構(gòu)成一個(gè)矩陣。

2)將矩陣中的所有的列向量標(biāo)準(zhǔn)化,并隨機(jī)分成訓(xùn)練樣本和測(cè)試樣本矩陣。

3)首先根據(jù)訓(xùn)練樣本和測(cè)試樣本的歐氏距離,剔除距離最大的若干類(lèi)和樣本,完成訓(xùn)練樣本的第一次更新。

4)在剩余的訓(xùn)練樣本中使用彈性網(wǎng)絡(luò)完成稀疏系數(shù)的分解,完成訓(xùn)練樣本的第二次更新,此次更新需要滿(mǎn)足終止條件(誤差需要小于某一個(gè)值)。

5)停止更新,根據(jù)得到的稀疏解的計(jì)算結(jié)果和測(cè)試樣本進(jìn)行比較,那么測(cè)試樣本歸為誤差最小的那一類(lèi)。

2.3 算法時(shí)間復(fù)雜度

假設(shè)n個(gè)人臉圖像為訓(xùn)練樣本,經(jīng)過(guò)m次迭代以后剩余的樣本個(gè)數(shù)為n-m個(gè),每個(gè)樣本是p×1的向量。而總的樣本個(gè)數(shù)為D,則算法對(duì)數(shù)據(jù)進(jìn)行處理一次的時(shí)間復(fù)雜度為O(m3)+O(pm2),每次剔除貢獻(xiàn)度小的樣本的時(shí)間復(fù)雜度為O(n),所以整個(gè)動(dòng)態(tài)類(lèi)別剔除機(jī)制的總的時(shí)間復(fù)雜度為O(nm3)+O(npm2)+O(n2),而剩余的n-m個(gè)樣本的分解過(guò)程,其時(shí)間復(fù)雜度為O(mlbp)。總的時(shí)間復(fù)雜度為O(nm3)+O(npm2)+O(n2)。

3 實(shí)驗(yàn)

為了與上述方法進(jìn)行比較,本文采用了ORL、FERET和AR三個(gè)人臉數(shù)據(jù)庫(kù)進(jìn)行了大量實(shí)驗(yàn),這三個(gè)數(shù)據(jù)庫(kù)中的照片是在特定的外部條件下采集。

圖2 人臉數(shù)據(jù)庫(kù)中的部分標(biāo)準(zhǔn)圖像

ORL數(shù)據(jù)庫(kù)共計(jì)400幅圖像,分別來(lái)自40個(gè)類(lèi)別,每個(gè)類(lèi)別提供10幅樣本圖像。

FERET人臉數(shù)據(jù)庫(kù)是人臉識(shí)別的一個(gè)標(biāo)準(zhǔn)數(shù)據(jù)庫(kù),本文只使用了數(shù)據(jù)庫(kù)的一部分圖像。共計(jì)1 400幅圖像,分別來(lái)自200個(gè)類(lèi)別,每個(gè)類(lèi)別提供7幅樣本圖像。

AR人臉數(shù)據(jù)庫(kù)中共計(jì)使用了3 120幅圖像,分別來(lái)自120個(gè)類(lèi)別,每個(gè)類(lèi)別提供26幅樣本圖像。

首先將來(lái)自O(shè)RL數(shù)據(jù)庫(kù)中的人臉圖像降采樣為46×56的尺寸大小,同樣的FERET和AR人臉數(shù)據(jù)庫(kù)圖像分別降采樣為40×40和40×50的尺寸大小。

特別指出的是所提出的人臉識(shí)別方法能夠比較魯棒地解決遮擋問(wèn)題,因此本文分別對(duì)ORL、FERET和AR數(shù)據(jù)庫(kù)進(jìn)行了面部有遮擋的實(shí)驗(yàn)。三個(gè)數(shù)據(jù)集的實(shí)驗(yàn)參數(shù)如表1所示。本文算法是采用Matlab程序來(lái)實(shí)現(xiàn)的。

表1 3個(gè)人臉測(cè)試數(shù)據(jù)集的實(shí)驗(yàn)參數(shù)

圖3所示,表示對(duì)ORL數(shù)據(jù)庫(kù)不同的稀疏分解方法在不同的訓(xùn)練樣本的情況下的分類(lèi)識(shí)別率的變化。圖中顯示的是SRC、LASSO、OMP、ElasticNet算法作稀疏分解時(shí)分類(lèi)算法的最終識(shí)別率。從圖中可以看出本文提出算法的有效性。

表2列出了在ORL數(shù)據(jù)庫(kù)上,SRC、CRC(CollaborativeRepresentationbasedClassification)、SRC-LARS、SRC-GS和本文提出的SRC-EN方法的分類(lèi)準(zhǔn)確率和部分識(shí)別率較高的算法運(yùn)行時(shí)間。SRC-LARS為基于LARS的稀疏表示的人臉識(shí)別方法,SRC-GS(GreedySearch)為基于貪婪搜索的稀疏表示的人臉識(shí)別方法。SRC-EN是本文提出的基于ElasticNet的算法。

圖3 ORL庫(kù)下不同的稀疏分解方法在不同的訓(xùn)練樣本下的識(shí)別率

比較項(xiàng)目方法訓(xùn)練樣本數(shù)3456分類(lèi)識(shí)別率/%時(shí)間/sSRC90.65±0.0893.24±0.0595.22±0.0696.33±0.07CRC91.78±0.0495.08±0.0496.40±0.0297.73±0.05SRC?LARS90.85±0.0494.05±0.0495.34±0.0496.32±0.04SRC?GS91.81±0.0695.14±0.0596.42±0.0597.88±0.05SRC?EN95.70±0.0996.25±0.0697.50±0.0598.75±0.08SRC?LARS263.65465.23586.32618.75SRC?GS98.68120.86201.17280.59SRC?EN287.62479.31595.95634.57

表3列出了在FERET和AR數(shù)據(jù)庫(kù)上,SRC、CRC、SRC-LARS、SRC-GS和本文提出的SRC-EN方法的分類(lèi)準(zhǔn)確率和運(yùn)行時(shí)間。

表3 FERET和AR上不同方法的識(shí)別率和時(shí)間比較

傳統(tǒng)的SRC方法中,將測(cè)試樣本用訓(xùn)練樣本來(lái)線性表示,在理想狀態(tài)下,只有與測(cè)試樣本同類(lèi)別的訓(xùn)練樣本的系數(shù)較大,其余類(lèi)別的訓(xùn)練樣本的系數(shù)為零,但是在實(shí)際情況下,由于外部條件的影響下,如噪聲、光照變化、遮擋等影響,使得分解系數(shù)不是稀疏的。因此在SRC模型中,本文引進(jìn)了彈性網(wǎng)絡(luò)約束來(lái)求解稀疏表示系數(shù),使得測(cè)試樣本的重構(gòu)誤差減小,并且突出了真正的類(lèi)別;而且該算法能夠有效地處理高維小樣本和具有強(qiáng)相關(guān)性變量的人臉數(shù)據(jù)集,具有很高的適應(yīng)性,但是由于算法比較復(fù)雜,因此算法時(shí)間復(fù)雜度相比傳統(tǒng)的算法稍微大一些。

4 結(jié)語(yǔ)

人臉識(shí)別算法一般是建立在子空間的特征提取的基礎(chǔ)之上的,但是在人臉識(shí)別算法的應(yīng)用過(guò)程中,子空間的提取的穩(wěn)定性會(huì)受到表情、光照和姿勢(shì)等的影響,影響了人臉識(shí)別的效果。本文提出了一種基于稀疏表示和彈性網(wǎng)絡(luò)的人臉?lè)诸?lèi)方法。這種方法將測(cè)試樣本表示成訓(xùn)練樣本線性組合的方式,并且通過(guò)迭代方式來(lái)剔除對(duì)分類(lèi)產(chǎn)生負(fù)作用的若干個(gè)樣本,同時(shí)能夠使得對(duì)分類(lèi)起到?jīng)Q定作用的類(lèi)別的稀疏系數(shù)變大。在系數(shù)分解過(guò)程中稀疏性約束是必要的,因此不能簡(jiǎn)單地被弱化,本文采用彈性網(wǎng)絡(luò)增加了ElasticNet懲罰項(xiàng)。一方面保證了最小二乘解的魯棒性,另一方面強(qiáng)化了解向量的稀疏性。對(duì)于人臉數(shù)據(jù)集來(lái)說(shuō),樣本向量之間具有強(qiáng)相關(guān)性。相對(duì)于傳統(tǒng)的貪婪搜索策略,ElasticNet具有組效應(yīng)性質(zhì),保證每一步能夠得到最優(yōu)解,而且還能夠有效地處理高維小樣本數(shù)據(jù),使得模型不會(huì)過(guò)于稀疏。仿真實(shí)驗(yàn)表明人臉?lè)诸?lèi)識(shí)別率有明顯的提高,適應(yīng)性很高,具有較高的研究?jī)r(jià)值。相比于傳統(tǒng)的變量選擇方法該算法比較復(fù)雜,運(yùn)行比較耗時(shí),因此在保證準(zhǔn)確率的前提下,注重效率是以后要研究的內(nèi)容。

)

[1]HARANDIMT,AHMADABADIMN,ARAABIBN.Optimallocalbasis:areinforcementlearningapproachforfacerecognition[J].InternationalJournalofComputerVision, 2009, 81(2): 191-204.

[2]SUGIYAMAM.DimensionalityreductionofmultimodallabeleddatabylocalFisherdiscriminantanalysis[J].JournalofMachineLearningResearch, 2007, 8: 1027-1061.

[3]LIUZY,CHIUKC,XUL.Improvedsystemforobjectdetectionandstar/galaxyclassificationvialocalsubspaceanalysis[J].NeuralNetworks, 2003, 16(3/4): 437-451.

[4] 孫玉寶.圖像稀疏表示模型及其在圖像處理反問(wèn)題中的應(yīng)用[D].南京:南京理工大學(xué),2010:1-10.(SUNYB.Imagesparserepresentationtheoryanditsapplicationtoimageprocessinginverseproblems[D].Nanjing:NanjingUniversityofScienceandTechnology, 2010:1-10.)

[5]WRIGHTJ,MAY,MAIRALJ,etal.Sparserepresentationforcomputervisionandpatternrecognition[J].ProceedingsoftheIEEE, 2010, 98(6): 1031-1044.

[6]WRIGHTJ,YANGAY,GANESHA,etal.Robustfacerecognitionviasparserepresentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2009, 31(2): 210-227.

[7]YANGM,ZHANGL,YANGJ,etal.Robustsparsecodingforfacerecognition[C]//Proceedingsofthe2011IEEEConferenceonComputerVisionandPatternRecognition.Washington,DC:IEEEComputerSociety, 2011: 625-632.

[8]XUY,FANGX,LIX,etal.Datauncertaintyinfacerecognition[J].IEEETransactionsonCybernetics, 2014, 44(10): 1950-1961.

[9]XUY,ZHUX,LIZ,etal.Usingtheoriginaland‘symmetricalface’trainingsamplestoperformrepresentationbasedtwo-stepfacerecognition[J].PatternRecognition, 2013, 46(4): 1151-1158.

[10] 朱杰,楊萬(wàn)扣,唐振民.基于字典學(xué)習(xí)的核稀疏表示人臉識(shí)別方法 [J].模式識(shí)別與人工智能,2012,25(5):859-864.(ZHUJ,YANGWK,TANGZM.Adictionarylearningbasedkernelspamrepresentationmethodforfacerecognition[J].PatternRecognitionandArtificialIntelligence, 2012, 25(5): 859-864.)

[11]ZHANGL,YANGM,FENGX.Sparserepresentationorcollaborativerepresentation:Whichhelpsfacerecognition? [C]//Proceedingsofthe2011InternationalConferenceonComputerVision.Washington,DC:IEEEComputerSociety, 2011: 471-478.

[12]BOL,RENX,FOXD.Hierarchicalmatchingpursuitforimageclassification:architectureandfastalgorithms[EB/OL]. [2016- 02- 03].http://papers.nips.cc/paper/4473-hierarchical-matching-pursuit-for-image-classification-architecture-and-fast-algorithms.pdf.

[13]WANGJ,KWONS,SHIMB.Generalizedorthogonalmatchingpursuit[J].IEEETransactionsonSignalProcessing, 2012, 60(12): 6202-6216.

[14]DAGHIRWOJTKOWIAKE,WICZLINGP,BOCIANS,etal.Leastabsoluteshrinkageandselectionoperatoranddimensionalityreductiontechniquesinquantitativestructureretentionrelationshipmodelingofretentioninhydrophilicinteractionliquidchromatography[J].JournalofChromatographyA, 2015, 1403: 54-62.

[15]SHAHRIARIS,FARIAS,GONCALVESAM,etal.Outlierdetectionandrobustvariableselectionforleastangleregression[M]//ComputationalScienceandItsApplications—ICCSA2014,LNCS8581.Berlin:Springer, 2014: 512-522.

[16]ZOUH,HASTIET.Regularizationandvariableselectionviatheelasticnet[J].JournaloftheRoyalStatisticalSociety, 2005, 67(2): 301-320.

[17]MARONNARA.Robustridgeregressionforhigh-dimensionaldata[J].Technometrics, 2011, 53(1): 44-53.

[18] 劉梓,宋曉寧,唐振民.稀疏表示和貪婪搜索的人臉?lè)诸?lèi)[J].中國(guó)圖象圖形學(xué)報(bào),2015,20(1):39-49.(LIUZ,SONGXN,TANGZM.Sparserepresentationbasedfacerecognitionclassificationalgorithmusinggreedysearchstrategy[J].JournalofImageandGraphics, 2015, 20(1): 39-49.)

[19]VURALV,FUNGG,KRISHNAPURAMB,etal.Usinglocaldependencieswithinbatchestoimprovelargemarginclassifiers[J].JourhalofMachineLearningResearch, 2009,10: 183-206.

ThisworkispartiallysupportedbytheNationalNaturalScienceFoundationofChina(61272210).

LI Guangzao, born in 1988, M. S. candidate. His research interests include artificial intelligence, pattern recognition.

WANG Shitong, born in 1964. M. S., professor. His research interests include artificial intelligence, pattern recognition, neuro-fuzzy system, bioinformatics.

Face recognition based on sparse representation and elastic network

LI Guangzao*, WANG Shitong

(SchoolofDigitalMedia,JiangnanUniversity,WuxiJiangsu214122,China)

Because of the successful use of the sparse representation in face classification algorithm, a more efficient classification method based on Sparse Representation-based pattern Classification (SRC) and elastic network was proposed. To enhance the ability of collaborative representation and enhance the ability to deal with strongly correlated data, a sparse decomposition method based on elastic network was proposed based on the iterative dynamic culling mechanism. Test samples were represented by a linear combination of training samples, and the iterative mechanism was used to remove the categories and samples with less contribution to the classification from all the samples, the Elastic Net algorithm was used for coefficient decomposition to select the samples and classes with high contribution to the classification. Finally, the test samples were classified according to the similarity. The experiment results show that the recognition rate of the algorithm is 98.75%, 86.62% and 99.72% respectively for the ORL, FERET and AR data sets which shows the effectiveness of the proposed algorithm. Compared with the methods of LASSO and SRC-GS, the proposed algorithm can enhance the ability of dealing with high-dimension small sample and strongly correlated variable data in the process of coefficient decomposition. It highlights the importance of sparse constraint in the algorithm and has higher accuracy and stability, and can be more effectively applied to face classification.

sparse representation; elastic network; face recognition; ridge estimation; Lasso estimation

2016- 09- 18;

2016- 11- 17。 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61272210)。

李光早(1988—),男,山東汶上人,碩士研究生,主要研究方向:人工智能、模式識(shí)別; 王士同(1964—),男,江蘇揚(yáng)州人,教授,博士生導(dǎo)師,碩士,CCF會(huì)員,主要研究方向:人工智能、模式識(shí)別、神經(jīng)模糊系統(tǒng)、生物信息學(xué)。

1001- 9081(2017)03- 0901- 05

10.11772/j.issn.1001- 9081.2017.03.901

TP391.413

A

猜你喜歡
人臉識(shí)別分類(lèi)數(shù)據(jù)庫(kù)
人臉識(shí)別 等
分類(lèi)算一算
揭開(kāi)人臉識(shí)別的神秘面紗
分類(lèi)討論求坐標(biāo)
數(shù)據(jù)分析中的分類(lèi)討論
教你一招:數(shù)的分類(lèi)
數(shù)據(jù)庫(kù)
數(shù)據(jù)庫(kù)
數(shù)據(jù)庫(kù)
數(shù)據(jù)庫(kù)
主站蜘蛛池模板: 无遮挡国产高潮视频免费观看 | 国产高清又黄又嫩的免费视频网站| 在线亚洲天堂| 99这里只有精品在线| 国产在线观看一区精品| 成人免费一区二区三区| 亚洲Va中文字幕久久一区| 无码'专区第一页| 国产精品女同一区三区五区| 色哟哟国产精品| 毛片免费在线| 国产美女人喷水在线观看| 国产精品视屏| 欧美日韩国产精品综合| 777午夜精品电影免费看| 免费三A级毛片视频| 国产精品hd在线播放| 欧美午夜在线观看| 亚洲av无码成人专区| 成年免费在线观看| 美女扒开下面流白浆在线试听 | 好吊妞欧美视频免费| 久久91精品牛牛| 国产日韩精品一区在线不卡| 精品人妻一区无码视频| 五月天综合婷婷| 亚洲高清在线播放| 亚洲国产精品日韩av专区| 国产成人综合亚洲欧美在| 一区二区理伦视频| 欧洲成人免费视频| 日韩精品无码免费专网站| 午夜视频日本| 无码国内精品人妻少妇蜜桃视频| 成年人免费国产视频| 国产网站黄| 美女潮喷出白浆在线观看视频| 国产第四页| 再看日本中文字幕在线观看| 欧美亚洲激情| 亚洲成人网在线播放| 久久黄色影院| 亚洲91在线精品| 亚洲美女久久| 亚洲色图欧美视频| 日韩av资源在线| 国产美女自慰在线观看| 欧美一级视频免费| 成人午夜视频在线| 国产小视频在线高清播放| 激情无码视频在线看| 久久久久中文字幕精品视频| 先锋资源久久| 99在线免费播放| 久久久亚洲国产美女国产盗摄| 国产不卡网| 极品国产一区二区三区| 成人在线不卡视频| 99无码熟妇丰满人妻啪啪| 尤物亚洲最大AV无码网站| 久久不卡精品| 亚洲人成网站在线播放2019| 99热线精品大全在线观看| 欧美一级高清视频在线播放| 国产免费怡红院视频| 激情综合激情| 国产亚洲精品yxsp| 91福利在线看| 草草线在成年免费视频2| 国产在线自乱拍播放| 91色爱欧美精品www| 国产精品久线在线观看| 欧美无遮挡国产欧美另类| 亚洲最新地址| 色老二精品视频在线观看| 亚洲美女AV免费一区| 亚洲伊人天堂| 91精品国产情侣高潮露脸| 成人在线观看一区| 国产成人免费视频精品一区二区| 中文字幕永久视频| 日韩二区三区无|