999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

間距判別投影及其在表情識別中的應用

2017-07-31 17:47:29甘炎靈
計算機應用 2017年5期

甘炎靈,金 聰

(華中師范大學 計算機學院, 武漢 430079)

間距判別投影及其在表情識別中的應用

甘炎靈,金 聰*

(華中師范大學 計算機學院, 武漢 430079)

(*通信作者電子郵箱jinc26@aliyun.com)

針對全局降維方法判別信息不足,局部降維方法對鄰域關系的判定存在缺陷的問題,提出一種新的基于間距的降維方法——間距判別投影(MDP)。首先, 根據類的中心均值的異類近鄰關系定義描述類邊緣的邊界向量; 在這個基礎上,MDP重新定義類間離散度矩陣,同時,使用全局的方法構造類內離散度矩陣; 然后, MDP借鑒判別分析思想建立衡量類間距的準則,并通過類間距最大化增強樣本在投影空間中的可分性。對MDP在人臉表情數據庫JAFFE和Extended Cohn-Kanade上進行表情識別實驗,并且跟傳統的降維方法主成分分析(PCA)、最大間距準則(MMC)和邊界Fisher分析(MFA)進行對比,實驗結果表明,所提算法能夠有效提取更具區分性的低維特征,比其他幾種方法分類精度更高。

降維;間距;判別投影;類間離散度; 類內離散度;表情識別

0 引言

人類表情是一種非語言溝通方式,它通過細微的面部特征傳達人的心理活動和自身情感,它通常比人的語言表達更具真實性和可靠性。統計表明,人類大部分的溝通交流都是通過表情完成,由此可見,表情在人的行為方式中占有非常重要的地位。近幾十年來,表情識別一直是個熱門的研究領域,它在現實世界中的應用非常廣泛,比如犯罪偵查、安全駕駛和醫療機構病人監控等。然而,表情圖像提取特征后產生的高維數據給識別任務帶來了巨大的挑戰。規模龐大的數據存在無價值的噪聲和冗余,不僅會給存儲和計算帶來很大的開銷負擔,還會增加學習模型的復雜性,甚至會給分析問題帶來負面影響。在這種背景下,降維意義重大。降維可以從豐富的資源中過濾掉無用的信息,挖掘其隱含的、更有意義的低維子空間,從而幫助用戶更好地認識和處理數據。

降維通常從數據幾何特性的角度出發,尋找轉換準則實現數據屬性的約減。一般來說,降維可以歸結為目標準則優化問題,其關鍵是找到一個最優投影矩陣,從而在低維空間中獲得原始數據的重新表示。例如,主成分分析(Principal Component Analysis, PCA)[1]和線性判別分析(Linear Discriminant Analysis, LDA)[2]是兩種常用的降維工具。PCA優化的目標是投影空間內樣本集合的協方差,LDA目標是最大化投影空間的類間距離和類內距離的比值。研究表明,真實的數據通常是高維非線性的[3-4],PCA和LDA等傳統的線性降維技術已經不能滿足要求,這使得一些流形學習方法迅速發展起來。流形學習挖掘數據中蘊含的低維局部結構,求出相應的映射機制,實現維數約簡或者數據可視化,流形方法比傳統的線性方法更能反映數據的內在本質。典型的流形降維方法有等距映射(ISOmetric Feature MAPping, ISOMAP)[5]、局部線性嵌入(Locally Linear Embedding, LLE)[6-7]等。ISOMAP的主要思想是利用局部鄰域距離近似計算數據點間的流形測地線距離,并通過在原始高維空間和目標低維空間建立測地距離的對等關系完成數據降維。LLE通過最小化樣本和其近鄰的重構誤差來保持數據的流形結構。局部保持投影(Locality Preserving Projection, LPP)[8]同樣是一種有效的流形學習算法,它通過保持降維前后的相對關系不變完成高維數據的低維嵌入。此外還有拉普拉斯特征映射算法(Laplacian Eigenmaps, LE)[9],局部切空間重排列(Local Tangent Space Alignment, LTSA)[10]、Hessian特征映射(Hessian-based Locally Linear Embedding, HLLE)[11]等。

面向識別和分類工作的降維技術,很多文獻借助樣本間距的思想建立優化模型。間距沒有統一的定義,在不同的文獻中有不同的含義和計算方式,可以把間距理解為描述事物之間彼此相隔的遠近程度的物理量。Qiu等[12]提出了非參數最大間距準則(Nonparametric Maximum Margin Criterion, NMMC),該方法通過重構類內類間離散矩陣,最大化間距進行降維。Huang等[13]通過對局部間距進行判別分析,有效發現嵌入在高維數據中的低維判別模型。邊界Fisher分析(Marginal Fisher Analysis, MFA)[14-15]通過樣本點的同類近鄰和異類近鄰建立樣本間距準則實現低維映射。最大間距準則(Maximum Margin Criterion, MMC)[16]和前面的方法有相似的優化目標,通過最大化樣本間距提高新空間中數據的區分度。MMC是一個全局的降維方法,通過類中心間的距離和類內離散矩陣建立每一類樣本整體的間距。NMMC和MFA跟前者不同,這兩種方法更加強調數據的局部結構。

MMC和MFA屬于兩種不同類型的降維方法,雖然已經在很多場合下驗證了它們的有效性,但是仍然存在不足之處。本文吸收MMC和MFA的優點,同時注意避免它們的缺點,提出了基于間距的判別投影降維方法——間距判別投影(Margin Discriminant Projection, MDP)。MDP結合樣本的局部和全局信息,使用新的方式構建度量樣本類間距的準則。MDP通過最大化類間距使得類內樣本盡可能緊靠,類間樣本盡可能分離,提高了分類精度。

1 相關算法

給定樣本矩陣Xd×n=[x1,x2,…,xi,…,xn],xi表示第i個樣本,n是樣本個數,d是樣本維數。l(xi)∈{1,2,…,c}表示樣本xi所屬的類別,c是類別總數。一般降維方法的目標是尋找一個投影矩陣P,對任意一個樣本xi,進行yi=PTxi的映射變換,得到樣本xi在新的特征空間中的表示yi。

1.1 MFA

(1)

懲罰圖權重矩陣:

(2)

根據圖構造拉普拉斯矩陣L為L=Λ-W,Λ是對角矩陣:

(3)

MFA最終優化的目標函數如式(4)所示:

(4)

MFA通過最大化間距保持同類近鄰在嵌入空間中仍然是相應的近鄰關系,同時使異類近鄰在嵌入空間中相互分開。MFA充分考慮了樣本的局部信息,有利于高維數據的降維,但是MFA需要求出每個樣本鄰域,計算工作量比較大,而且在只有少量訓練樣本的條件下,MFA無法有效地發現類內樣本的鄰域結構。

1.2 MMC

MMC 的優化目標是最大化投影之后的低維空間中樣本的類間散度,同時最小化類內散度,函數模型如下:

max tr(PT(Sb-Sw)P)

(5)

s.t.PTP=I

其中,Sb和Sw計算方法如下:

(6)

(7)

其中:pi是第i類樣本的先驗概率,u是整體樣本均值,ui是第i類樣本的均值。

MMC是全局線性降維方法,速度快、實現容易,但MMC忽略了樣本的局部結構,丟棄了重要的判別信息,使復雜的數據降維受到很大限制。

2 間距判別投影

2.1 基本思想

樣本均值是反映數據分布信息的重要指標,它表明樣本集中的趨勢,本文中第i類樣本的均值矢量記為mi。MDP把均值矢量看作是一般的數據點,利用均值的局部近鄰結構建立類間離散度矩陣來評價異類樣本間的離散程度,同時充分利用每類樣本的全局信息建立類內離散度矩陣,最后運用判別分析的思想,MDP獲得了衡量樣本間距的準則。首先給出下面兩個定義:

定義1 把均值矢量mi看作類別為i的普通的樣本,求出其p個異類近鄰樣本的集合記為E(i),表示第i類的邊界樣本的集合。

定義2E(i)中樣本的均值稱為第i類的邊界向量,記為ei:

(8)

邊界向量代表了偏離類中心較近的異類樣本的位置,可以表示類的邊緣。類邊緣通常是樣本異類近鄰集中在位置,同時,邊緣區域也是樣本混雜、重疊的區域,處于邊緣位置的樣本有更高的概率被錯誤分類。因此,均值與邊界向量的關系和樣本與其異類近鄰的關系是一致的,也就是說,在投影的過程中,如果能使每一個類均值和邊界向量遠離,就可以達到分離不同類別樣本的效果。

利用均值和邊界向量的距離表示第i類樣本的類間距離sb(i):

sb(i)=‖mi-ei‖2

(9)

許多研究指出,相似的樣本更有可能有相同的類別標簽[17-18],因此,類間的局部鄰近結構往往包含了具有判別特性的信息。MMC直接使用均值間的歐氏距離計算類間離散程度,考慮的是樣本集合的全局信息,同時隱含考慮了異類間非近鄰點對之間的關系,并不能準確地表示類間的分離度。本文提出的類間方法是局部的,能更好地把高維數據區分開來。

MFA根據樣本的局部近鄰關系構造類內離散矩陣,在每類的訓練樣本比較少情況下,原本相距較遠,相似性非常低的樣本也會被劃分為同類近鄰對,這就消弱了MFA模型學習的能力,使它在實際應用中受到很大的局限。在本文中,采用全局的方法度量類內離散度sw(i),sw(i)的計算方式如式(10)所示:

(10)

其中:ni為類別標簽為i的樣本的總個數;sw(i)反映了類中的樣本到類中心的平均距離,即屬于同一類的各樣本之間的分散程度。sw(i)的值越小,類內樣本越緊湊,反之亦然。使用式(11)計算第i類樣本和異類樣本間的間距mar:

mar=sb(i)-sw(i)

(11)

在面向分類或識別的降維工作中,一般性目標是增強同類樣本的相似性,同時降低異類樣本間的相似性。由上述目標作為引導,選擇最大化投影后的類間距,則目標函數是:

(12)

其中:Sb是類間離散度矩陣,Sw是類內離散度矩陣:

(13)

(14)

MFA算法的目標函數是跡商的形式,在真實的求解過程中,通常會遭遇奇異矩陣問題[19],導致不能直接得到投影矩陣,因此,在實現MFA方法之前需要對樣本進行降維的預處理。本文算法和MMC類似,目標函數是跡差的形式,如式(12)所示,可以很好地避免矩陣的奇異性問題。極大化式(12)等價于優化兩個目標:使邊界向量遠離均值從而分離類間樣本,同時使類內樣本靠近均值從而使得類內樣本緊靠。MDP通過優化式(12)的目標模型最終達到提高分類精度的目的。

同時,為了保持數據的幾何結構,在目標公式中引入正交約束,于是最終目標函數如下:

max tr (PT(Sb-Sw)P)

(15)

s.t.PTP=I

式(15)求解投影矩陣P的過程可以轉化為下面特征值分解問題:

(Sb-Sw)p=λp

(16)

至此,只需要求出樣本得到類間和類內離散矩陣就可以求出最佳的投影方向。

MDP和MMC、MFA這兩種降維方式相比,有以下特點:

1)MDP考慮了類的邊緣樣本點在模式分類中的作用,充分地利用了樣本的局部結構信息,構建了比MMC判別性能更好的類間離散度矩陣。

2)MDP在設計類內離散度矩陣時不涉及近鄰關系,避免了MFA在樣本數量少的情況下存在缺陷。

3)在建立目標模型的過程中, MFA需要計算每個樣本和剩余樣本的距離,MDP只需要計算每一類的均值和全部訓練樣本的距離,MDP復雜度比MFA相對低。

4)MFA需要設定兩個參數,參數間的平衡難度大,MDP中只有一個自定義參數,相對簡單。

通過上面的對比可以看出,MDP在構建自身的優化模型的過程中吸收了MMC和MFA的優點,兼顧了效率和模型的判別性能,同時MDP很好地解決了MMC和MFA在建立目標函數的過程中存在的影響分類精度的問題,因此MDP降維方法將更有利于后續的表情識別任務。

2.2 算法和復雜度分析

2.2.1 算法的基本步驟

MDP的實現步驟如下:

輸入 訓練樣本矩陣X和對應的樣本類別標簽,測試樣本,均值近鄰數目p,約減后的維數D。

輸出 訓練樣本的低維表示Y和測試樣本的低維表示。

步驟1 根據X和X中樣本的標簽計算每個類別的均值矢量。

步驟2 求出均值矢量的p個異類近鄰。

步驟3 根據式(8)計算每個類的邊界向量。

步驟4 根據式(13)和(14)分別計算類間離散矩陣Sb,類內離散矩陣Sw。

步驟5 對矩陣Sb-Sw進行特征值分解,求得的前D個最大的特征值對應的特征向量構成所需的投影矩陣P。

步驟6 計算Y=PTX,獲得訓練樣本投影后的低維數據矩陣Y,同時測試樣本經過相同的投影變換得到對應的低維表示。

2.2.2 復雜度分析

算法主要的計算量包括均值和其近鄰計算、矩陣的運算和特征值分解三個部分:第一部分需要計算每個類中心和均值到異類樣本的距離,時間復雜度和樣本的個數、樣本的維度、樣本類別數有關,為O(cdn)。第一部分的工作獲得了樣本均值的異類近鄰關系,在這個基礎上,計算類間和類內離散度矩陣只涉及簡單的矢量運算,總的時間復雜度O(cd+dn)。矩陣分解特征值的工作比較復雜,目前,比較快速的方法是利用正交三角分解技術[20-21],但是時間復雜度仍然比較高,與樣本維數的立方成正比,為O(d3)。因此,算法總的時間復雜度為O(cdn+d3)。

3 實驗

3.1 數據集描述

本文在JAFFE、Extended Cohn-Kanade(簡稱為CK+)這兩個廣泛應用的數據集上進行表情識別實驗,并通過識別精度分析算法的性能,圖1是兩個數據集中的部分圖像實例。為了方便使用,實驗前依據各數據庫的實際情況對圖像進行不同的處理。

JAFFE是表情識別中常用的數據集,其中包含了10名日本女性的二百多張人臉表情圖像,原始圖像大小為256×256。每個人都包含了Neutral、Anger、Disgust、Fear、Happy、Sad、Surprise 7種表情,每種表情包括2~3張圖片。進行識別實驗時,剔除中性表情,只使用6種基本的表情,同時,把圖片裁剪為100×100大小的人臉圖像。

圖1 JAFFE和CK+數據集的圖片Fig. 1 Images from JAFFE data sets and CK+ data sets

CK+發布于2010年,是由早期的Cohn-Kanade(簡稱為CK)庫擴展而來。CK+數據庫解決了CK數據庫中存在的一些問題,更加適合研究人員使用。CK+集包括123名志愿者的593組表情序列,除了CK中有的Neutral、Anger、Disgust、Fear、Happy、Sad、Surprise 7種表情外,新增加了Contempt表情序列。CK+數據庫中的每一組表情序都完整地展示了從中性面到某一個表情峰值表示的過程。在進行表情識別實驗時,使用除了中性表情外的7種基本表情。CK+數據集中,并不是所有的志愿者都有全部的表情,他們可能只有其中的一種或者幾種表情,實驗使用隨機選擇的方式獲取7個表情子集,即在擁有某一表情序列的全部志愿者中,隨機選擇18個人的強度最大的6張表情圖像加入該表情子集,用這種方法,得到7種類別的表情子集作為實驗使用的數據,每一個子集都包含108張表情圖像。原始的圖像大小為490×460,本文把圖像裁剪為100×120的人臉圖像以方便使用。

實驗使用的數據集的具體信息見表1。圖2展示了兩個數據集中的經過處理的圖像示例。

表1 數據集描述Tab. 1 Database description

圖2 JAFFE和CK+數據集預處理效果Fig. 2 Preprocessed images from JAFFE and CK+ data sets

實驗中把圖像分為測試機和訓練集兩部分,隨機產生每個類別的L幅圖像加入訓練集,剩余的作為測試樣本。MDP建立優化模型的過程中包含有一個自定義參數p,在實驗前的預想中,p的值不能過大或過小,過小容易受噪聲和孤立點的影響,過大則不能準確反映類別的邊緣,并且會增加后續計算的工作量,比較耗時和浪費資源。目前無法從理論層面獲得最優的p值,p的值是通過實驗進行調整的,最終確定為3。

分別使用MDP、MMC、MFA和PCA對人臉圖像進行降維(維數D的取值是1~50的整數),最后使用K最近鄰(K-Nearest Neighbor,KNN)分類器進行識別實驗,統計10次分類精度的平均值作為最終的結果。在實現MFA前,需要先使用PCA將數據降維克服小樣本問題,降維數目根據數據集的不同有一定的差異,具體細節將會在下面每個數據集的實驗中介紹。

KNN是一種線性分類器,訓練過程不需要太多處理,不涉及復雜的運算,簡單高效。KNN測試的過程中只需要計算測試樣本和訓練樣本的距離,因此,使用時只需要對決策類別的近鄰數目進行設置。在本文實驗中,KNN的近鄰參數設置為3。

3.2 在JAFFE數據集上的實驗

在JAFFE人臉庫上的識別實驗中,每類訓練樣本的數目L取值分別為12、14、16、18。MFA實現前用PCA進行預處理,對應不同的L值把樣本依次降到70、80、90、100維。

在JAFFE庫上的實驗結果記錄在圖3,分類結果顯示識別率隨著維數的增加上升,但是這種趨勢不是恒定不變的,當維數大于一定的值時,分類結果在一個較小的范圍內波動,甚至有下降的可能,這時候,選擇更多的維數意義不大。表2記錄了幾種算法最好的識別結果。

表2 JAFFE上分類的最高識別率Tab. 2 The highest recognition rate on JAFFE

在訓練樣本規模比較小時,不同算法之間的效果表現出了很大差別。PCA降維能最大限度地保留數據的主要信息,在去除噪聲和冗余方面有著較好的效果,但是,PCA降維的過程中沒有使用樣本的類別信息,投影在低維空間中的樣本可能混雜在一起無法區分,因此,在分類工作中, PCA不占優勢。從實驗中可以觀察到,PCA在幾種情況下的識別精度都是最差的,遠遠低于其他方法。MDP通過間距最大化,提高了類內的相似性,降低了類間的相似性,使得低維空間中的樣本具有更高的區分度。MDP在4種情況下的識別率都超過了80%,且總是高于其他算法。在L的值為18,維數是41維時,MDP獲得了88.53%的識別精度,是在JAFFE這個數據集上最好的識別結果。MMC的識別效果比較好,但是,它作為一種全局線性方法,有一定的局限性,它的降維效果略差于MDP,在L取值為12、14、16、18時, MDP最高識別率分別比MMC高了3.65、3.99、5.06、3.93個百分點。MFA在每個數據點的鄰域結構內,判別分析其間距,從而使類內差異縮小,類間差異加大,但是,當訓練樣本數目比較小時,MFA不能有效地學習到樣本類內的近鄰結構,因此,MFA降維后的數據不一定能達到預期效果。從表2可以看出,MFA的識別效果和MDP比有很大差距,最大識別率分別比MDP低15.97(L=12)、9.85(L=14)、8.56(L=16)和7.06(L=18)個百分點。在每類訓練樣本相對少的情況下,MDP和MFA相比,有很明顯的優越性。從圖1中識別率曲線的變化可以看出,隨著L的增長,MFA和MDP的差距在不斷減小。

圖3 JAFFE數據集上的識別率曲線Fig. 3 Recognition rate curve of JAFFE data sets

3.3 在CK+數據集上識別結果分析

在CK+數據集上進行實驗時,每類表情分別選擇20、30、40、50張圖像作為訓練數據,同時,PCA作為MFA的預處理工具時,樣本維數對應降到180、200、220、240維。

表情識別的識別率隨維數變化的曲線如圖4所示,整體上看來,增加樣本可以提高分類精度,但是,當樣本數目超過一定的數目之后,正確率增提升的空間不大。幾種算法在維數超過10之后,識別效果趨于穩定。

表3是幾種方法的最好識別效果。PCA在幾種情況下的識別率仍然是最低的。當每類中取50個作為訓練樣本時,MDP只有很小一部分的表情沒有正確分類,這時,最好的準確率達到98.20%,是在CK+上最高的,且對應的維數也比較小。L的取值分別為20、30、40和50時,MDP最好的識別精度對應比MMC高1.29、1.53、1.72和1.24個百分點;同時,MDP比MFA分別高了4.40、2.16和2.14和0.48個百分點。值得注意的是,在CK+數據集中,訓練樣本比較充足,MFA有效發揮了它的降維功能,特別是L的值為50時,MFA表現出了和MDP同樣優異的識別性能,最高識別率達到了97.72%,和MDP比相差不大,甚至比MMC高0.76個百分點。

圖4 CK+數據集上的識別率曲線Fig. 4 Recognition rate curve of CK+ data sets表3 CK+上分類的最高識別率Tab. 3 The highest recognition rate on CK+

方法L=20識別率/%維數L=30識別率/%維數PCA66.823475.2036MFA84.242091.7043MDP88.642293.8623MMC87.353392.3345方法L=40識別率/%維數L=50識別率/%維數PCA82.044388.1910MFA94.923197.7245MDP97.064798.2016MMC95.342596.9612

4 結語

降維是克服維數災難和提高表情識別精度的重要技術,通過降維能減少數據的復雜程度,簡化后續的處理過程,有效提高機器學習的效率。本文提出一種基于間距最大化的降維方法,MDP利用樣本的全局和局部信息構造了判別性能更好的類間距度量準則,然后MDP極大化類間距以增大類間樣本差異、縮小類內樣本差異。MFA的分類精度很大程度上受樣本規模制約,并且在大樣本時候有內存開銷大、訓練速度慢等,MDP不存在的缺陷。和MMC相比,MDP能更有效地提取出數據的非線性局部結構。在JAFFE和CK+兩個數據庫上進行表情識別的對比實驗,結果表明相較于PCA、MMC和MFA,MDP降維效果更好,分類精度更高。

雖然MDP取得了良好的實驗效果,但算法中還存在需要改進的地方。例如,MDP需要自定義均值異類近鄰數目p,算法的性能在一定程度上依賴人工干預;另外,分類過程中最好識別結果對應的維數D難以估計。如何自適應地產生最優的p值和D值,是需要進一步深入研究的問題。

References)

[1] ABDI H, WILLIAMS L J. Principal component analysis[J]. Wiley Interdisciplinary Reviews Computational Statistics, 2010, 2(4): 433-459.

[2] AN L L, XING H J. Linear discriminant analysis based on Zp-norm maximization[C]// Proceedings of the 2014 2nd International Conference on Information Technology and Electronic Commerce. Piscataway, NJ: IEEE, 2014: 88-92.

[3] 甘炎靈,金聰. SRC最佳鑒別投影及其在人臉識別中的應用[J]. 計算機工程與科學, 2016, 38(11): 139-145. (GAN Y L, JIN C. SRC optimal discriminate projection and its application in face recognition[J]. Computer Engineering and Science, 2016, 38(11):139-145.)

[4] YAN H, LU J, ZHOU X, et al. Multi-feature multi-manifold learning for single-sample face recognition [J]. Neurocomputing, 2014, 143(16): 134-143.

[5] DE SILVA V, TENENBAUM J B. Global versus local methods in nonlinear dimensionality reduction[J]. Advances in Neural Information Processing Systems, 2003, 15: 1959-1966.

[6] CHANG H, YEUNG D Y. Robust locally linear embedding [J]. Pattern Recognition, 2006, 39(6): 1053-1065.

[7] FANG Y, LI H, MA Y, et al. Dimensionality reduction of hyperspectral images based on robust spatial information using locally linear embedding[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(10): 1712-1716.

[8] ZHANG L, QIAO L, CHEN S. Graph-optimized locality preserving projections[J]. Pattern Recognition, 2010, 43(6): 1993-2002.

[9] MARTINEZ-DEL-RINCON J, LEWANDOWSKI M, NEBEL J C, et al. Generalized Laplacian eigenmaps for modeling and tracking human motions[J]. IEEE Transactions on Cybernetics, 2014, 44(9): 1646-1660.

[10] KIM K, LEE D. Inductive manifold learning using structured support vector machine[J]. Pattern Recognition, 2014, 47(1): 470-479.

[11] WANG J. Hessian locally linear embedding[M]// Geometric Structure of High-Dimensional Data and Dimensionality Reduction. Berlin: Springer, 2012: 249-265.

[12] QIU X, WU L. Face recognition by stepwise nonparametric margin maximum criterion[C]// Proceedings of the 10th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2005: 1567-1572.

[13] HUANG P, TANG Z, CHEN C, et al. Local maximal margin discriminant embedding for face recognition[J]. Journal of Visual Communication and Image Representation, 2013, 25(2): 296-305.

[14] YAN S, XU D, ZHANG B, et al. Graph embedding: a general framework for dimensionality reduction[C]// Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2005: 830-837.

[15] YAN S, XU D, ZHANG B, et al. Graph embedding and extensions: a general framework for dimensionality reduction [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(1): 40-51.

[16] LI H, JIANG T, ZHANG K. Efficient and robust feature extraction by maximum margin criterion[J]. IEEE Transactions on Neural Networks, 2006, 17(1): 157-165.

[17] DE CARVALHO F A T, TENRIO C P. FuzzyK-means clustering algorithms for interval-valued data based on adaptive quadratic distances[J]. Fuzzy Sets and Systems, 2010, 161(23): 2978-2999.

[18] ZHU X, GHAHRAMANI Z, LAFFERTY J. Semi-supervised learning using Gaussian fields and harmonic functions [C]// Proceedings of the 20th International Conference on Machine Learning. Washington, DC: AAAI Press, 2003, 3: 912-919.

[19] WANG S J, YAN S, YANG J, et al. A general exponential framework for dimensionality reduction[J]. IEEE Transactions on Image Processing, 2014, 23(2): 920-930.

[20] 張賢達. 矩陣分析與應用[M]. 2版.北京: 清華大學出版社, 2004: 229-243.(ZHANG X D. Matrix Analysis and Applications[M]. 2nd ed. Beijing: Tsinghua University Press, 2004: 229-243.)

[21] GOLUB G H, VAN LOAN C F. Matrix Computations[M]. Baltimore: JHU Press, 2013: 458-466.

This work was supported by the National Social Science Foundation of China (13BTQ050).

GAN Yanling, born in 1988, M.S.candidate. Her research interests include dimensionality reduction, pattern recognition.

JIN Cong, born in 1960, Ph. D., professor. Her research interests include image processing, intelligent information processing.

Margin discriminant projection and its application in expression recognition

GAN Yanling, JIN Cong*

(SchoolofComputer,CentralChinaNormalUniversity,WuhanHubei430079,China)

Considering that global dimensionality reduction methods lack useful discriminant information, and local dimensionality reduction methods have defects in measuring neighborhood relationships, a novel dimensionality reduction method based on margin, named Margin Discriminant Projection (MDP), was proposed. Depending on the neighbor structure of mean vector of classes, the boundary vector of the class edge was defined by the heterogeneous neighbor relation of the center mean of the class. On this basis, the between-class scatter matrix was redefined, and the within-class scatter matrix was constructed by the global method. The class margin criterion was established based on discriminant analysis, and discriminant information of samples in projection space was enhanceed by maximizing class margin. The expression recognition on JAFFE and Extended Cohn-Kanade data sets presented the comparison of MDP with PCA (Principal Component Analysis), MMC (Maximum Margin Criterion) and MFA (Marginal Fisher Analysis), and the experiment results show that the proposed method can extract more distinguishable low-dimensional features with relatively higher efficiency, and MDP has better classification accuracy than the other methods.

dimensionality reduction; margin; discriminant projection; between-class scatter; within-class scatter; expression recognition

2016-11-01;

2016-12-19。 基金項目:國家社會科學基金資助項目(13BTQ050)。

甘炎靈(1988—),女,廣西岑溪人,碩士研究生,主要研究方向:數據降維、模式識別; 金聰(1960—),女,湖北武漢人,教授,博士,主要研究方向:圖像處理、智能信息處理。

1001-9081(2017)05-1413-06

10.11772/j.issn.1001-9081.2017.05.1413

TP391.4

A

主站蜘蛛池模板: 狠狠色香婷婷久久亚洲精品| 久久久久亚洲av成人网人人软件| 久久精品人妻中文视频| 亚洲无线视频| 视频一本大道香蕉久在线播放| 亚洲成人在线网| 热re99久久精品国99热| 99热这里只有精品久久免费| 精品五夜婷香蕉国产线看观看| 在线观看热码亚洲av每日更新| 国产精品永久在线| 女人av社区男人的天堂| 精品视频一区二区三区在线播| 视频在线观看一区二区| 久久精品无码一区二区日韩免费| 一本大道香蕉中文日本不卡高清二区| 亚洲欧美人成电影在线观看| 91福利国产成人精品导航| 国产欧美网站| 72种姿势欧美久久久大黄蕉| 91蜜芽尤物福利在线观看| 久久亚洲国产最新网站| 4虎影视国产在线观看精品| 国产一区亚洲一区| 日韩av电影一区二区三区四区 | 最新日韩AV网址在线观看| 114级毛片免费观看| 东京热一区二区三区无码视频| 日韩美毛片| 亚洲成人免费看| 另类欧美日韩| 国产91在线|日本| 国产在线观看91精品亚瑟| 性69交片免费看| 亚洲欧洲日韩综合色天使| 91九色国产在线| 就去色综合| 国产精品尤物铁牛tv| 日本草草视频在线观看| 亚洲中文在线看视频一区| 国产欧美高清| 欧美日韩免费观看| 欧美va亚洲va香蕉在线| 亚洲男女在线| 刘亦菲一区二区在线观看| 国产亚洲精| a毛片免费在线观看| 四虎永久免费地址在线网站| 欧美色伊人| 在线精品视频成人网| 欧美在线导航| 亚洲色图另类| 中文成人在线视频| 成人免费一区二区三区| 亚洲嫩模喷白浆| 蜜臀AVWWW国产天堂| 国产精品私拍99pans大尺度| 免费高清自慰一区二区三区| 一区二区午夜| 亚洲人成人无码www| 青青青亚洲精品国产| 第一区免费在线观看| 男人天堂伊人网| 国产Av无码精品色午夜| 国产精品视频系列专区| 亚洲一区二区三区国产精华液| 亚洲第一黄片大全| 免费无码AV片在线观看中文| 午夜在线不卡| 亚洲日韩高清无码| 亚洲人成色77777在线观看| 手机在线免费毛片| 亚洲福利视频一区二区| 成人亚洲视频| 国产青榴视频| 亚洲天堂日韩在线| 2021国产精品自拍| 久久精品中文字幕免费| 久久精品日日躁夜夜躁欧美| 天天色综网| 日韩精品无码免费一区二区三区| 国产精品999在线|