999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

支持向量機的多觀測樣本二分類算法

2014-09-13 13:05:46李歡王士同
智能系統學報 2014年4期
關鍵詞:分類數據庫實驗

李歡,王士同

(江南大學 數字媒體學院,江蘇 無錫 214000)

傳統模式識別主要針對測試模式為單觀測樣本的情況。然而,隨著人工智能技術的飛速發展,數據采集工作變得越來越容易,人們常常可以獲取某特定模式在不同時刻或不同條件下的多個觀測樣本。例如,日常生活中,可以用攝像頭獲取一個物體或一個人在不同時刻、不同光照條件下的圖像數據,也可以借用多個攝像頭從不同的角度獲取圖像數據。此外,即使是相同的觀測數據,若用不同的方法進行數據轉換,得到的特征值也不一樣,這些就構成了同一模式的多觀測樣本。多觀測樣本相對于單觀測樣本能提供更多關于測試模式的信息,從而提高分類精度[1]。由此可以預見,多觀測樣本分類問題將得到國內外研究學者的廣泛關注。

目前,多觀測樣本的分類方法主要有2類:一類是基于參數模型的方法。例如,文獻[2]提出了基于概率密度的KLD(KL-divergence),該方法把所有樣本集看作是獨立的,并且服從高斯分布,然后通過計算測試樣本集和各個訓練樣本集間的KL散度來確定多觀測樣本的類別。但是此方法僅僅對那些服從單高斯分布的樣本集比較適用,難以精確地描述數據呈非線性分布的情況。針對這一情況,O.Arandjelovic 等[3]提出了半參數混合高斯模型,并將其應用在KL散度的計算中,從而解決了非線性分布的多觀測樣本分類問題。然而,此方法的計算復雜度相對較大。F.Cardinaux 等[4]通過嵌入局部特征來擴展GMM(Gaussian mixture model),在保證低復雜度的同時進一步提高了分類性能。文獻[5]提出了一種基于核函數的分類方法,該方法利用信息論的相關知識,把RAD(resistor-average distance)看作是多觀測樣本間的相似度來完成多觀測樣本的分類。以上這些方法的不足在于它們不但要解決復雜的參數估計問題,而且當多觀測樣本和測試樣本集之間的統計相關性較弱時,它們的性能會有大的波動。另一類是基于非參數模型的方法,其中最具代表性的是基于子空間的方法,此類方法把子空間的相似度作為多觀測樣的分類依據,例如,文獻[6]提出的MSM (mutual subspace method),首先用PCA特征子空間來表示每一類的訓練樣本集和多觀測樣本,再利用子空間之間的主成分角作為相似性度量,最后用子空間的典型相關性(canonical correlation)來實現多觀測樣本的分類,但該算法對數據的變化較為敏感。為此,K.Fukui 等[7]又提出CMSM(constraint mutual subspace method)來消除MSM的數據敏感性,將原空間的所有樣本集都映射到同一約束子空間,在此約束空間中計算樣本集間的主成分角,再用子空間的典型相關性完成多觀測樣本的分類。但上述2種方法并沒有考慮到數據的非線性分布問題,針對這一問題,H.Sakano 等[8]提出KMSM(kernel mutual subspace method)算法,L.Wolf 等[9]提出KPA(kernel principal angles)算法,使用核函數來解決數據的非線性問題,進而完成多觀測樣本的分類。雖然KMSM和KPA考慮了數據的非線性分布,但是這2種方法用到的核函數對參數的依賴性較大。以上這些方法都沒有考慮到通過轉換數據可以提取到更多的判別信息,T.K.Kim 等[10]提出DCC(discriminant canonical correlation)算法,其首先通過訓練獲得一個能使類內典型相關性最大而類間典型相關性最小的判別轉換矩陣,然后把原空間數據映射到新的子空間上,在此基礎上把典型差分相關性作為相似度量進行分類,此方法存在未考慮數據非線性分布的缺點。一些研究者曾認為所有典型相關性對分類的貢獻是相同的,即權值相等。但后來 T.K.Kim 等[11]發現在分類中不同的典型相關性所起的作用是不同的,繼而提出了BoMPA(boosted manifold principal angles)算法,該算法首先通過PPCA(probabilistic PCA)搜索局部線性模塊,并將得到的所有模塊表示成PCA子空間的形式,進而計算子空間之間的典型相關性,然后把訓練集表示為正負樣本特征的形式,同時采用AdaBoost算法得到相應的權值,最后用加權后的主成分角來度量子空間的相似性,實現多觀測樣本的分類。在此基礎上,X.Li 等[12]提出Boosted全局和局部主成分角聯合的分類算法。文獻[13]提出MMD (manifold-manifold distance)方法,該方法將典型相關性和局部線性模塊結合起來,首先用聯合局部線性模型的集合來表示子空間所描述的流形,從而把MMD轉換為線性模塊的組合,最終通過MMD的計算來對觀測樣本進行分類,但該方法的計算量和復雜度相對較大。W.S.Chu[14]提出KDT(kernel discriminant transformation)來解決多觀測樣本的分類問題,該方法用核子空間來表示每個樣本集,同時定義一個能使類內核子空間相似性最大而類間核子空間相似性最小的KDT矩陣,從而把多觀測樣本的分類問題轉換為尋求KDT矩陣的最優解問題。近來,E.Kokiopoulou 等[15]在標記傳播算法的基礎上提出了MASC(mAniflod-based smoothing under constrain)算法,該算法將k-近鄰圖運用到多觀測樣本的分類問題中,但是k-近鄰圖的邊權值的計算采用了歐式距離下的高斯核函數,而基于歐式距離的測度無法全面反映數據的空間分布特性。

由上述可知,目前的多觀測樣本分類算法都有一定的不足和局限性。本文在經典SVM算法的基礎上,用SVM的相關理論來實現多觀測樣本的分類。與傳統的SVM算法相同,本文方法適用于小樣本情況,利用核函數解決了非線性問題和維數問題,其算法復雜度與樣本維數無關。然而,與傳統分類方法的不同在于,該方法無需對分類器進行訓練或提前對訓練集進行特征表示,而是將測試集和訓練集作為一個整體,充分利用特征空間中同類樣本連續分布這一特點,使得分類更加準確。

1 多觀測樣本二分類問題的描述

多觀測樣本形成示意圖如圖1所示。在多觀測樣本的二分類問題中,若假設測試模式為s,則該問題就是將測試模式的多觀測樣本確定為2種類別中的一類。

圖1 多觀測樣本形成示意圖Fig.1 Schematic diagram of producing multiple observations

假定測試模式s的多測樣本為

(1)

式中:上標(u)表示各個觀測樣本是未標記的,m表示觀測樣本的數目,oi(s)表示模式s的第i個單觀測樣本,它可能是模式s經過平移、旋轉、縮放或者是透視投影得到的,也可能是模式s在某一特定時刻的觀察記錄。

綜上所述,多觀測樣本二分類問題可正式定義為:給定已知標簽的樣本集X(l)和未知標簽的樣本集X(u),而X(u)對應于模式s的多觀測樣本, 即X(u)?{xj(u)=oj(s),j=1,2,…,m},問題就是確定未知標簽的多觀測樣本的正確類別。其實,多觀測樣本二分類問題就是一種特殊的半監督學習,限制測試集中的所有樣本屬于同一類別,進而把多觀測樣本作為一個整體進行測試。而在一般的半監督學習所解決的分類問題中,測試集中的樣本是屬于多個類別的。因此,經典的半監督學習分類算法并不適合解決多觀測樣本二分類問題。同時,目前已有的多觀測樣本算法都存在著一定的不足。針對上問題,本文提出了一種新的算法,即基于SVM的多觀測樣本二分類算法。

2 基于SVM的多觀測樣本二分類

2.1 支持向量機

支持向量機(support vector machine, SVM)是一種基于結構風險最小化(structural risk minimization,SRM)原理,在統計學習理論的基礎上發展起來的機器學習方法[16]。SVM的基本實現方法就是在原空間或者經過投影后的高維空間中構造最優分類面,并將此分類面作為分類決策面進行數據分類。

SVM最基本的理論是用來解決二分類問題的,SVM的目標就是構造線性最優分類超平面,使其將2類樣本完全正確地分開,同時使分類間隔最大。對于給定的樣本集,(xi,yi),i=1,2,…,l,xi∈Rd,yi=±1,當樣本集線性可分時,對應的線性判別函數的一般形式為:g(x)=(wTx)+b,其中w、b為n維向量,對判別函數作歸一化處理,使離分類面最近的樣本滿足|g(x)|=1,則分類間隔等于2/‖w‖,使分類間隔最大等價于使‖w‖2最?。灰蠓诸惷婺軐⑺袠颖菊_分類,也就是要求它滿足:

yi(wTxi+b)≥1,i=1,2,…,n

(2)

且使‖w‖2最小的分類面就是最優分類面。

綜上所述,最優分類面的求解問題等價于在式(2)的約束下最小化式(3):

(3)

而這一問題可以通過定義拉格朗日函數(式(4))來求解:

(4)

式中:αi≥0為Lagrange系數,則問題轉換成對w和b求Lagrange函數的最小值。式(4)分別對w、b求偏微分,并令結果為零,則有

(5)

將式(5)代入式(4),則原問題可以進一步轉化為凸二次規劃的對偶問題:

(6)

f(x)=sgn((w*)Tx+b*)=

最終的分類函數為

在線性不可分的問題中,SVM還引入了懲罰因子C和松弛變量ξ,此時最優分類面的求解問題可描述為

同樣地,通過定義拉格朗日函數的方法可以將原問題轉換為凸二次規劃的對偶問題:

對應的最優分類函數為

2.2 基于SVM的多觀測樣本二分類

由于支持向量機具有結構簡單、推廣性能好、優化求解時具有惟一最優解等優點,本文將用SVM的相關理論來解決多觀測樣本二分類問題,確定多觀測樣本的類別。根據SVM的原理可知,SVM要解決的數學問題為

(7)

而從多觀測樣本二分類問題的描述可知,二分類問題中的所有數據只屬于2個類別,數據的標簽集為{-1,+1},設多觀測樣本集X(u)的標簽為y,則y=-1或y=+1。因此可以通過假設多觀測樣本的標簽來增加式(7)的約束條件:

(8)

可以先假設y=-1,求解得到目標函數值g1。再假設y=+1,求解得到目標函數值g2。只有當假設的標簽與多觀測樣本的實際標簽相同時,相應得到的目標函數值才是最優解。因此,可以通過比較兩次得到的目標函數值來確定待測試的多觀測樣本的標簽。如式(9)所示:

(9)

為求解式(8)所述的優化問題,引入拉格朗日函數L:

(10)

式中:αi、βi、ri為Lagrange系數,αi≥0,βi≥0,ri≥0,ξi≥0。 要使函數L關于w、b、ξi最小化,由極值存在的必要條件可知,函數L的極值滿足下列條件:

(11)

解方程(11)可得

(12)

將式(12)代入式(10)得到優化問題式(8)的對偶形式,即關于αi、βj的最大化函數:

(13)

(14)

可以看到,通過求解式(14)可以能得到兩次標簽假設對應的目標函數值g1和g2,從而根據式(9)確定待測試的多觀測樣本的標簽。

2.3 基于SVM的多觀測樣本二分類的算法描述

基于SVM的多觀測樣本二分類的算法如下:

輸入:

X(l)、Y(l):已標記樣本集和它的標簽集;

X(u):多觀測樣本集;

l:已標記樣本的數目;

m:多觀測樣本數目。

輸出:

處理:

1)由X(l)和X(u)得到樣本矩陣X,X?Rn×d,由Y(l)得到標簽矩陣Y;

2)計算樣本矩陣X對應的核矩陣K;

3)設y=-1, 求解優化問題:maxOA-AT((YYT)·K)A/2,得到g1;設y=+1,求解優化問題:maxOA-AT((YYT)·K)A/2,得到g2;

3 多圖像樣本集的分類

3.1 手寫數字分類

為了驗證基于SVM的多觀測樣本二分類算法的有效性,首先在手寫數字數據庫上進行實驗。同類數字不同形式的手寫圖像組成多觀測樣本集,對此類樣本集進行分類。實驗中,使用2種不同的數據庫:Binary手寫數字數據庫和USPS手寫數字數據庫。Binary數據庫包含0~9共10類數字的手寫圖像,每類數字有39個樣本,每個樣本用大小為20×16的二值圖像表示。USPS數據庫由0~9共10類手寫數字組成,每類數字有1 100個樣本,每個樣本用大小為16×16的灰度圖像表示。

模式變換的魯棒性是多觀測樣本分類的一種重要特性??梢允褂锰摂M樣本來擴充已標記樣本集,從而加強分類算法的抗變換性。虛擬樣本一般通過原始樣本的變換產生,虛擬樣本的類別與原始樣本相同,因此是已知標簽的已標記樣本。通過在數據集中添加虛擬樣本,分類算法對測試樣本的魯棒性更強。因此,在本文所提的算法中使用這一方法,在原始數據集中添加大小為nvs的樣本集X(vs),數據集變為:X={X(l),X(vs),X(u)}。實驗中,核函數選用高斯核函數,即:k(x,y)=exp(-‖x-y‖2/2σ2)。為計算參數σ的大小,在數據集X中隨機選取1 000個樣本,并計算兩兩樣本之間的歐式距離,σ設置為所有距離的中值的1/2。

對于每類數字,首先從對應樣本中隨機抽取2個樣本組成訓練集,剩下的樣本組成測試集。再對訓練集中的每個樣本做連續的4次旋轉變換,得到的樣本放在訓練集中,其中旋轉角θ從[-40°,40°]的均勻采樣序列中得到。這樣的區間能避免“6”和“9” 2類數字的混淆。為了建立每類數字的多觀測樣本數據集X(u),從每類數字的測試集中隨機選取一個樣本并對這個樣本進行旋轉變換,旋轉角θ∈[-40°,40°]。每次測試時,選取2類不同的數字進行實驗,共有45種組合,即(0,1),(0,2),…,(7,8),(7,9),(8,9)。再由這2類數字的訓練樣本共同組成算法的訓練集X(t),而對應的測試集作為算法的測試集,即多觀測樣本。該實驗對不同大小的多觀測樣本進行了實驗,樣本數m=[5:5:40]。對于不同大小的數據集X(u),45種組合中的每個組合進行10次隨機實驗,每個組合要對2個測試集進行測試,所以實驗中的每個結果都是900次隨機實驗的均值,如圖2所示。

(a) 在Binary數據庫上的平均識別率

(b) 在USPS數據庫上的平均識別率圖2 在2種手寫數字數據庫上的識別率Fig.2 Classification results measured on two different handwritten digit data sets

從實驗結果可以看出本文SVM算法在Binary數據庫和USPS數據庫上的識別率很高,尤其在USPS數據庫上,當樣本不少于10時識別率為100%,這就說明基于SVM的多觀測樣本二分類算法的可行性。分析數據可得:算法的識別率隨著多觀測樣本數目的增大而提高,因為增加多觀測樣本的數目能提供更多的某特定類別的信息,從而更加準確地判斷類別。

3.2 物體圖像分類

下面在物體圖像數據庫上驗證基于SVM的多觀測樣本二分類算法的有效性,實驗中同一物體的不同觀測圖像作為此類物體的多觀測樣本。并將本文算法與經典的多觀測樣本分類算法進行對比:

1)KLD[2](KL-divergence):該方法是典型的基于密度估計的統計方法,把所有樣本集看作是獨立同分布的高斯隨機變量,然后通過計算樣本集間KL散度完成多觀測樣本的分類。實驗中,協方差矩陣特征向量的長度按能量的96%來選取。

2)MSM[6](mutual subspace method):MSM是典型的子空間方法,該方法中的每個圖像集用子空間來表示,而子空間通過主成分即協方差矩陣獲得,把訓練集與測試集之間的主成分角[17]作為相似性度量。實驗中,當樣本數目小于9時候,協方差矩陣的特征向量長度等于樣本數目,否則設為9。

3)KMSM[8](kernel mutual subspace method):KMSM是MSM在非線性空間的擴展,該方法考慮了圖像集的非線性。與MSM不同的是,在用線性子空間建模之前,KMSM需要先把圖像樣本非線性地映射到高維特征空間。也就是說,KMSM用KPCA來取代PCA,從而獲得了數據的非線性。KMSM方法中,使用高斯核函數k(x,y)=exp(-‖x-y‖2/2σ2),其中σ的選取與本文所提的算法相同。

實驗選用ETH-80物體識別數據庫,ETH-80含有8個種類的圖像:蘋果、車子、牛、杯子、狗、馬、梨和西紅柿(如圖3(a)所示)。每個種類又含有10個物體類(例如,狗有10個不同的品種),每個物體類中包含該物體不同角度的41張圖像,例如圖3(b)顯示了狗這一種類中一個物體類的所有圖像。數據庫中的所有圖像大小為128×128,為了簡化計算,對圖像重新采樣,使其大小為32×32。

(a)ETH-80

(b)ETH-80中一個物體類的41張圖片圖3 ETH-80數據庫的樣本圖像Fig.3 Sample images from the ETH-80 database

每個種類的訓練樣本集由其10個物體類均隨機抽取的10張圖像組成,即每個種類的訓練樣本集含有100個樣本,而剩余的31張圖像組成每個物體類的測試集。實驗中,從八大種類中選取2個不同的種類進行分類測試,共有28種組合,即(1,2),(1,3),…,(6,7),(6,8),(7,8)。由這2個種類的訓練樣本共同組成算法的訓練集X(l),再分別為這2個種類構建測試集:從每個種類對應的10個物體類中隨機選取一個物體類,再從此物體類中選取10個樣本組成多觀測樣本,即為該種類的測試集。對28種組合中的每個組合進行10次隨機實驗,每個組合要對2個測試集進行測試,所以實驗中的每個結果都是560次隨機實驗的均值,如表1所示。

表1 在ETH-80數據庫上的識別率

實驗結果表明,本文SVM算法在ETH-80數據庫上的識別率很高,并且該算法優于其他3種算法,這就說明了基于SVM的多觀測樣本二分類算法的有效性。

4 基于視頻的人臉識別

4.1 實驗數據集

為了驗證基于SVM的多觀測樣本二分類算法的有效性,在基于視頻序列的人臉識別問題中進行實驗,把視頻中不同的視頻幀作為同一個人的多觀測樣本。由于視頻中人的頭部姿勢,人臉表情和光照都是變化的,所以本節是在真實的環境中驗證所提算法的有效性。把所提算法與4.2節中描述的KLD,MSM和KMSM進行比較。由于實驗中所用視頻序列的視頻幀在時間上是連續的,因此,該算法同樣適用于基于圖像集的人臉識別問題。

實驗中,使用2個數據庫:VidTIMIT數據庫[18]和Honda/UCSD[19]數據庫的第1部分。VidTIMIT數據庫包含了43個人在3個時間段的人臉視頻序列,其中第1個和第2個時間段間隔7天,第2和第3個時間段間隔6天。每一個視頻序列中,被拍攝者頭部在不斷運動:向左,向右,回到中間,再向下,向上,再回到中間位置。Honda/UCSD數據庫包含了20個人的59個視頻序列,每個人有2~5個視頻序列。與VidTIMIT數據庫不同的是,Honda/UCSD數據庫的被拍攝者以不同的速度自由移動頭部,同時臉部表情也在不斷地變化。在兩個數據庫的預處理中,首先用Viola P的人臉檢測方法[20]從視頻序列的視頻幀中提取人臉區域。為了簡化計算,把得到的人臉圖像重新采樣,使其大小為32×32。

4.2 基于VidTIMIT數據庫的人臉識別

首先在VidTIMIT數據庫上對本文算法進行測試。圖4顯示了VidTIMIT數據庫中一些樣本圖像。

圖4 VidTIMIT數據庫中的樣本圖像Fig.4 Sample images in the VidTIMIT database

由于數據庫含有3個時間段的視頻序列,因此采用下面的標準度量算法的性能:

表2 在VidTIMIT數據庫上的識別率

圖5用柱形圖表示了實驗結果,本文SVM算法在VidTIMIT數據庫上的識別率很高。由圖5可知,對不同數目的觀測樣本,KLD、MSM和KMSM 3種算法的識別率變化較大,而本文SVM算法的識別率變化不大,這說明基于SVM的多觀測樣本二分類算法對不同數目的多觀測樣本具有更好的魯棒性。

圖5 在VidTIMIT數據庫上的識別率Fig.5 Recognition results on the VidTIMIT database

4.3 基于Honda/UCSD數據庫的人臉識別

在Honda/UCSD數據庫上進一步驗證本文SVM算法的有效性。圖6顯示了Honda/UCSD數據庫中一些樣本圖像。實驗中,選取19個人所對應的視頻序列進行實驗。實驗中,選取2種不同類別的數據進行實驗,共有171種組合,即(1,2),(1,3),…,(17,18),(17,19),(18,19)。由這2類數據的訓練樣本共同組成算法的訓練集X(l),而對應的測試集作為算法的測試集,即多觀測樣本。該實驗對不同大小的多觀測樣本進行了實驗,m=[4:4:16]。對于不同大小的數據集X(u),171種組合中的每個組合都有2個測試集,因此每個組合要進行2次測試。所以實驗中的每個結果都是342次實驗的均值,如表3所示,并用柱形圖表出來(如圖7)。

圖6 Honda/UCSD數據庫中的樣本圖像Fig.6 Sample images in the Honda/UCSD database

實驗結果表明,相比于以往的KLD、MSM和KMSM算法,本文SVM算法獲得最高的識別率。這進一步說明了基于SVM的多觀測樣本二分類算法的有效性。

表3 在Honda/UCSD數據庫上的識別率

圖7 在Honda/UCSD數據庫上的識別率Fig.7 Recognition results on the Honda/UCSD database

5 結束語

本文提出基于SVM的多觀測樣本分類算法,該算法首先進行類別假設,然后求解優化問題得到相應的目標函數值,把目標函數值作為分類依據來實現多觀測樣本的二分類。實驗結果表明本文算法在手寫數字識別、物體識別和人臉識別中都能取得較好的分類效果,為模式識別問題提供了一種新的方法。但是本文針對的是二分類問題,如何在該算法的基礎上實現多分類仍是需要進一步的研究。

參考文獻:

[1]KIM T K, KITTLER J, CIPOLLA R. On-line learning of mutually orthogonal subspaces for face recognition by image sets[J]. IEEE Transactions on Signal Processing, 2010, 19(4): 1067-1074.

[2]SHAKHNAROVICH G, FISHER J W, DARREL T. Face recognition from long-term observations[C]//European Conference on Computer Vision(ECCV). San Diego, USA, 2002, 3: 851-868.

[3]ARANDJELOVIC O, SHAKHNAROVICH G, FISHER J, et al. Face recognition with image sets using manifold density divergence[C]//IEEE International Conference on Computer Vision and Pattern Recognition(CVPR). San Diego, USA, 2005, 1: 581-588.

[4]CARDINAUX F, SANDERSON C, BENGIO S. User authentication via adapted statistical models of face images[J]. IEEE Transactions on Signal Processing, 2006, 54(1): 361-373.

[5]ARANDJELOVIC O, CIPOLLA R. Face recognition from face motion manifolds using robust kernel resistor-average distance[C]//IEEE Workshop on Face Processing in Video. Washington D C, USA, 2004, 5: 88-93.

[6]YAMAGUCHI O, FUKUI K, MAEDA K, et al. Face recognition using temporal image sequence[C]//IEEE International Conference on Automatic Face and Gesture Recognition. Nara, Japan, 1998: 318-323.

[7]FUKUI K, YAMAGUCHI O. Face recognition using multi-viewpoint patterns for robot vision[C]//International Symposium on Robotics Research. Siena, Italy, 2005, 15: 192-201.

[8]SAKANO H, MUKAWA N. Kernel mutual subspace method for robust facial image recognition[C]//Fourth International Conference on Knowledge-based Intelligent Engineering Systems and Allied Technologies. [S.l.], 2000, 1: 245-248.

[9]WOLF L, SHASHUA A. Learning over sets using kernel principal angles[J]. Machine Learning Research, 2003, 4(10): 913-931.

[10]KIM T K, KITTLER J, CIPOLLA R. Discriminative learning and recognition of image set classes using canonical correlations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1005-1018.

[11]KIM T K, ARANDJELOVIC O, CIPOLLA R. Boosted manifold principal angles for image set-based recognition[J]. Pattern Recognition, 2007, 40(9): 2475-2484.

[12]LI X, FUKUI K, ZHENG N N. Image-set based face recognition using boosted global and local principal angles[C]//9th Asian Conference on Computer Vision(ACCV).Xi’an, 2010: 323-332.

[13]WANG R P, SHAN S G, CHEN X L, et al. Manifold-manifold distance with application to face recognition based on image Set[C]//IEEE International Conference on Computer Vision and Pattern Recognition(CVPR). Anchorage, Alaska, USA, 2008: 1-8.

[14]CHU W S, CHEN J C, LIEN J. Kernel discriminant transformation for image set-based face recognition[J]. Pattern Recognition, 2011, 44(8): 1567-1580.

[15]KOKIOPOULOU E, PIRILLOS S, BROSSARD P. Graph-based classification of multiple observation sets[J]. Pattern Recognition, 2010, 43(12): 3988-3997.

[16]VAPNIK V. The nature of statistical learning theory[M]. New York: Springer-Verlag, 1995: 21-32.

[17] GOLUB G H, LOAN C V. Matrix computations[M].3rd ed. Baltimore: The John Hopkins University Press, 1996: 15-16.

[18]SANDERSON C. Biometric person recognition: face, speech and fusion, VDM-Verlag, 2008.

[19]LEE K C, HO J, YANG M H, et al. Video-based face recognition using probabilistic appearance manifolds[C]//IEEE International Conference on Computer Vision and Pattern Recognition (CVPR). Madison, USA, 2003: 313-320.

[20]VIOLA P, JONES M. Robust real-time face detection[J]. International Journal of Computer Vision, 2004, 57 (2) : 137-154.

猜你喜歡
分類數據庫實驗
記一次有趣的實驗
分類算一算
做個怪怪長實驗
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
數據庫
財經(2017年2期)2017-03-10 14:35:35
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
數據庫
財經(2016年15期)2016-06-03 07:38:02
主站蜘蛛池模板: 狠狠色综合网| 精品91视频| 热久久国产| 日韩久久精品无码aV| 国产福利小视频在线播放观看| 亚洲欧美日韩中文字幕一区二区三区| 天天综合天天综合| 亚洲人成在线精品| 国产美女91视频| 亚洲九九视频| 狠狠干欧美| 日韩第一页在线| 国产极品美女在线观看| 狠狠色噜噜狠狠狠狠色综合久| 午夜丁香婷婷| 久青草免费视频| a亚洲天堂| 亚洲欧美国产五月天综合| 亚洲V日韩V无码一区二区| 国产在线自揄拍揄视频网站| 国产手机在线观看| 国产免费黄| 国产在线观看精品| 东京热一区二区三区无码视频| 亚洲欧洲一区二区三区| 女人18毛片水真多国产| 无码高潮喷水专区久久| 日韩视频免费| 玖玖精品视频在线观看| 日本一本正道综合久久dvd | 亚洲第一天堂无码专区| 成人亚洲天堂| 久久久精品久久久久三级| 国产丝袜精品| 秘书高跟黑色丝袜国产91在线 | 免费国产好深啊好涨好硬视频| 美女视频黄频a免费高清不卡| 亚洲水蜜桃久久综合网站| 色一情一乱一伦一区二区三区小说 | 综合亚洲网| 国产真实乱子伦视频播放| 欧美怡红院视频一区二区三区| 精品无码人妻一区二区| 国产呦精品一区二区三区下载| 国产一在线观看| 青草视频网站在线观看| 国产精品一区二区无码免费看片| 一本一本大道香蕉久在线播放| 毛片在线看网站| 欧洲亚洲欧美国产日本高清| 91精品国产自产在线观看| 丰满人妻被猛烈进入无码| 自拍欧美亚洲| 爱做久久久久久| 免费看美女自慰的网站| 国产精品香蕉在线| a级毛片毛片免费观看久潮| 国产又爽又黄无遮挡免费观看 | 日韩在线1| 在线va视频| 国产成人夜色91| 亚洲黄色高清| 丰满的少妇人妻无码区| 欧美精品三级在线| 在线亚洲精品福利网址导航| 免费a级毛片视频| 色网站免费在线观看| 亚洲无码视频喷水| 国产色图在线观看| 欧美中日韩在线| 自拍中文字幕| 亚洲经典在线中文字幕| 最新痴汉在线无码AV| 在线观看91精品国产剧情免费| 成人在线第一页| 久久国产高潮流白浆免费观看| 亚洲一区二区三区香蕉| 久久综合久久鬼| 午夜免费视频网站| 又粗又硬又大又爽免费视频播放| 久久人搡人人玩人妻精品一| 国产成人亚洲无吗淙合青草|