999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

核函數的選擇研究綜述

2012-07-25 11:05:34汪廷華陳峻婷
計算機工程與設計 2012年3期
關鍵詞:特征標準方法

汪廷華,陳峻婷

(1.贛南師范學院 數學與計算機科學學院,江西 贛州341000;2.贛南師范學院 現代教育技術中心,江西 贛州341000)

0 引 言

支持向量機 (support vector machine,SVM)由Vapnik及其合作者[1]在1992年的計算學習理論會議上介紹進機器學習領域,之后的十幾年中受到了廣泛的關注并得到了全面深入的發展,現已成為機器學習和數據挖掘領域的標準工具。支持向量機是若干機器學習標準技術的集大成者,它集成了最大間隔超平面、Mercer核、凸二次優化、稀疏解和松弛變量等多項技術,主要用于模式分類和回歸估計。支持向量機是結構風險最小化 (structural risk minimization,SRM)原則的具體體現,它根據有限的樣本信息在機器的學習能力和復雜性之間尋求最佳折衷。與傳統的神經網絡學習算法相比,支持向量機克服了局部極小和維數災難等問題,泛化能力明顯提高[2]。

用于模式分類的支持向量機工作的原理是:在非線性可分的情況下,使用一個非線性變換Φ,把輸入空間X映射到一個高維特征空間F,然后在特征空間中使用線性分類算法進行分類。非線性變換Φ通過所謂的核函數k(x,z)隱式定義,它能在特征空間中高效地計算內積,即k(x,z)=<Φ (x)·Φ (z)>。通常 Φ (·)比k(·)更為復雜,因此核函數的引入可以大大降低非線性變換的計算量。通過核映射將原空間線性不可分的問題轉化成某高維特征空間線性可分問題,而且不增加計算的復雜度,這就是所謂的核技巧。可以這么說,在支持向量機所獲得的巨大成功中,核技巧扮演了非常重要的角色。進一步地,通過把核函數引入到一些傳統的學習算法,可以方便地把線性算法轉換為非線性算法[3],例如:核Fisher判別分析(Kernel FDA)、核主成分分析 (Kernel PCA)、核獨立成分分析 (Kernel ICA)、核聚類分析、核等距映射 (Kernel Isomap)等等,這些算法和支持向量機一起即是所謂的基于核的學習方法,簡稱核方法。核方法為我們提供了一種解決非線性問題的非常巧妙的方法;簡單地說,我們可以把核方法推廣至任何包含內積運算的算法中。

各種核方法的共同策略是:把數據嵌入到一個可以發現線性關系的空間。從模塊化的角度來看,核方法由兩個組件構成:初始映射和模式分析算法,前者由所謂的核函數隱式定義,它依賴于具體的數據類型和關于模式的領域知識,該組件由輸入數據構造一個核矩陣 (Gram矩陣);后者是從核矩陣中檢測具體的模式函數。這一觀測表明模式分析算法能夠收集到的關于訓練數據和選定的特征空間的所有信息,都包含在由核函數構造的核矩陣中。從這個意義上說,可以把核函數 (核矩陣)看作核方法的信息瓶頸;核函數的選擇是核方法取得成功的一個關鍵問題,同時也是一個難點問題。本文以支持向量機作為核函數的載體系統綜述了核函數的構造與學習方法,在總結該領域研究現狀與應用的基礎上,凝練了其進一步研究的方向。

1 支持向量機學習算法

支持向量機方法是從線性可分情況下的最優分類面發展而來的。對于一組訓練樣本集 (xi,yi),xi∈Rn,yi∈{+1,-1},i=1,…,l,如果分類面<w·x>+b=0能將訓練樣本正確地分為兩類,那么應使得兩類樣本到最優分類面最小距離之和最大。通過求解下面的優化問題可以到得最優分類面

式中:C——懲罰系數 (目的是在模型復雜性與學習能力之間進行折),ξi——誤差項。采用拉格朗日乘子法求解上述具有線性約束的二次規劃問題,可以得到Wolfe對偶問題

式中:αi——拉格朗日乘子。顯然,這是一個具有線性約束的凸二次優化問題,具有唯一解。解中αi≠0所對應的樣本稱為支持向量,也就是對最優分類面有貢獻的樣本。解上述優化問題可以得到決策函數

對非線性問題,設有一個非線性映射Φ:X→F將輸入空間的樣本映射到一個高維 (可能是無窮維)的特征空間F中,在F中實現線性分類。引入核函數k(x,z)=<Φ(x)·Φ (z)>,對偶問題 (2)變為

相應的決策函數也變為

在實際應用中,常用的核函數有線性核、多項式核、Gaussian核、Sigmoid核等[2-3]。

2 核函數的構造

核函數的理論最早可以追溯到20世紀初期。1909年,Mercer發現在積分方程的所有連續核中,核可以表征為正定積分算子的一個二元函數,并從數學上給出了有關正定核函數存在和判定的充分必要條件,這就是著名的Mercer定理。另一方面,Aronszajn在20世紀40年代發展了再生核Hilbert空間的理論。在該理論中,通過核函數的再生性質對核函數的定義進行了統一,從而使得很多復雜的證明被大大簡化。而運用Mercer定理把核解釋成一個Hilbert空間中的內積這一思想,則首先是在1964年由Aizerman,Braverman和Rozonoer在勢函數方法的研究工作中引入機器學習領域的;但是它的應用潛力直到Boser,Guyon和Vapnik[1]在介紹支持向量機時才首次得到充分理解。

根據Mercer定理,確認一個新的對稱函數是否是一個核的關鍵是要檢查該函數在任意有限點集上定義的矩陣是否是半正定的。確切地說,只要我們能保證一個或多個核上的運算結果總是一個半正定對稱矩陣,就認為該運算結果是一個核,并稱核函數在這些運算下是封閉的。由此,我們可以得到一種簡單的核函數構造方法,即利用簡單的核函數構造復雜的核函數[3]。在核方法研究的早期,人們只考慮這種封閉形式的核函數,它們的處理數據一般定義在向量空間。例如任雙橋等人[4]根據特征空間完全可分的條件,提出了一種自適應的多項式核函數和B-樣條核函數的構造方法,其本質上也是利用了核函數運算的封閉性質。

ANOVA核的引入給出了第一個根據遞歸關系定義的核,可以利用動態規劃高效地求出這個核[5]。同時人們也認識到,核并不一定必須定義在向量型的輸入上。1999年,根據遞歸關系定義的串核開始出現[6]。這些開創性的工作極大地擴展了核的應用,顯示了輸入空間可以是向量、字符串、生物序列、文本、圖像等結構化數據。定義在結構化數據上的核,如卷積核、字符串核、樹核、圖核等,被稱為結構化數據核函數[7]。這些核一般通過直接定義特征空間的內積構造,無需檢查半正定性,這就是所謂的從特征中構造核函數的方法[3]。在結構化數據核函數中,從輸入空間到特征空間的映射較為復雜,直接通過這種映射去計算核函數不太現實,因為計算量太大,無法在實際的應用中使用。因此,在提出這些核函數的同時,研究者們都會提出一些快速實現算法,以便將這些結構化數據核函數應用于實際問題中[3,8-10]。對于結構化數據,另一個有趣的構造核的方法是從數據的生成信息中求得核,Jaakkola和Haussler[11]最早研究了這個主題。這種方法要求首先按照數據生成的方式建立一個被稱為生成模型的模型,該模型可以是確定的或者是概率的,也可以是簡單函數或者復雜的圖結構,例如有限狀態自動機或者隱Markov模型;然后利用這些模型為嵌入函數提供特征并設計可以高效計算的核。

另外,在核方法中參與實際運算的是核矩陣,因而可以不需要知道核函數的具體形式,直接推斷出核矩陣就足夠了。基于這種考慮,一些研究人員研究了直接核矩陣學習與構造的方法,例如Lanckriet等人[12]利用半正定規劃(Semidefinite programming,SDP)技術進行最優核矩陣的學習;吳濤等人[13]提出利用散亂數據插值的辦法確定特征空間中感興趣點的內積值以代替傳統核函數的一般表達式所起的作用。這種方法的本質是直接從數據中構造核矩陣,為研究人員提供了一種新的有潛力的思路。

最后,Ong等人[14]通過定義在一種核空間上的再生核Hilbert空間,即超再生核Hilbert空間,引入了超核的概念。超核的構造與學習可以通過定義一個 “品質函數(quality functional)”的量來實現。超核是一種更廣義的核理論,在核函數的構造方面是一種新的嘗試。

3 核函數中參數的選擇

核函數的構造對于核方法固然重要,但當核函數構造完畢 (核函數的類型固定)后,如何確定核函數中待定參數 (簡稱核參數)的最優值同樣重要。研究表明,針對同一個核函數,選擇不同的核參數,核方法的性能可能會相差很大。這主要是因為不同的參數所對應的特征空間的結構具有差異性,而特征空間的性質直接決定著核方法的性能。從SVM模型選擇的角度來看,一般地,判斷算法中的參數值是否最優,本質上就是選取適當的參數值以使得算法相應的錯誤率最小。目前關于核函數中參數選擇問題的解決思路主要有3種:①交叉驗證技術;②最小化學習算法錯誤率的上界;③優化核函數 (核矩陣)度量標準。

交叉驗證技術的基本思想通過測試非訓練樣本在某固定參數值上的分類錯誤率,然后不斷地修正參數,以便使測試錯誤率最小[15]。該方法本質上是參數空間窮盡搜索法,即用參數空間中每一組可能的參數組合去訓練和測試SVM,找出效果最好的參數組合。經典方法有k-折交叉驗證 (k-fold cross-validation) 和 留 一 法 (leave-one-out,LOO)。以泛化誤差估計定理為理論基礎的留一法在理論上已被證明是關于真實錯誤率的無偏估計;k-折交叉驗證法是留一法的推廣,計算精度較高而且計算量相對留一法來說減少很多。交叉驗證技術的明顯缺陷是不僅需要極大的計算量,并且當參數超過兩個時,將難于實現。

為了解決交叉驗證技術在大樣本、多參數計算上的困難,許多學者提出了最小化留一法誤差上界的方法,這些誤差界包括 Xi-Alpha bound、GACV、Span bound、VC-bound、Radius-margin bound(RM)等。其中RM 界是較常用的一種誤差界[16],Duan等人[15]指出該界是連續且容易計算的一種風險上界,但只適用于硬間隔SVM和二范數軟間隔SVM。為了使RM界適用于一范數軟間隔SVM,Chung等人[17]對該界進行了推廣,得到了一個新的RM界,并利用這個新的界去選擇Gaussian核的寬度參數,取得了很好的效果。常群等人[18]則利用這個新的RM界把Gaussian核參數的選擇從單個推廣到多個。另外,考慮到上述這些界只適用于二分類SVM的缺陷,Wang等人[19]將RM界推廣到了多分類SVM的情形。基于界的方法通常采用基于梯度的優化算法去求得較優的參數值。和交叉驗證技術相比,這種最小化學習算法風險上界的方法大大減少了計算量,從而適合于多參數的選擇問題;但該方法有一個明顯的缺陷,即每一次迭代均需訓練SVM和求解一個額外的二次規劃問題去得到特征空間中包含所有訓練樣本的最小超球半徑,這無疑是一個可觀的計算開銷。

核參數選擇的第三種思路是優化相關的核度量標準,其主要出發點是如何衡量核函數和學習任務 (分類)的一致性。核度量是兩個核函數之間或核函數與目標函數間的一個相似性度量,其概念最早由Cristianini等人[20]提出。Cristianini等人提出的核度量標準稱為核排列 (kernel-target alignment,KTA),它已經廣泛地應用于核函數的選擇之中[21]。Baram[22]提出的核極化 (kernel Polarization)標準可以看作是未歸一化的核排列,實驗表明采用核極化標準和采用交叉驗證技術選擇Gaussian核的寬度參數,SVM獲得了相似的分類性能。Wang等人[23]則進一步研究了核極化的幾何意義,指出高的核極化值意味著同類的數據點相互靠近而異類的數據點則相互遠離,并提出了一種基于優化核極化的廣義Gaussian核的參數選擇算法。Nguyen和Ho兩人[24]則分析了核排列標準的一些嚴重缺陷,指出擁有較大的核排列值是一個好核函數的充分而非必要條件(即使KTA值很小的核函數完全有可能獲得很好的性能),并提出了一個替代標準,即基于特征空間的核矩陣度量標準 (feature space-based kernel matrix evaluation measure,FSM)。從特征空間中數據點的分布趨勢來看,核排列 (包括核極化)與基于特征空間的核矩陣度量標準的目標是基本一致的,即盡量使得同類數據點盡量靠近,而異類數據點盡量遠離。然而,不同的地方在于,對于同類數據,前者是在所有的方向上考慮數據的偏差,而后者只是在正負類中心所確定的方向上考慮數據的偏差;換句話說,數據沿著平行于分類超平面的方向移動并不影響分類的性能。Wang等人[25]對上述3種核度量標準進行了深入的分析,指出它們只考慮了異類樣本數據之間的分離性,而沒有考慮同類樣本數據的局部結構信息的保持性;這種 “全局性”的度量標準有可能會限制增強數據可分性的自由度。針對這個缺陷,提出了一個局部化的核度量標準,即局部核極化 (local kernel polarization,LKP)。局部核極化通過引入親和系數 (affinity coefficient)在一定程度上保持了同類樣本數據的局部結構信息,從而進一步增強了異類樣本數據之間的可分性。最近,考慮到數據點在特征空間中的位置不當 (例如數據點的凸包遠離坐標原點)會導致核排列標準的失效,Cortes等人[26]提出了一種基于中心化核的排列標準,并給出了該標準的理論結果及在核優化中的應用。和最小化學習算法錯誤率 (風險)上界的方法相比,優化核函數 (核矩陣)度量標準的方法的優點是不需要多遍訓練SVM和計算特征空間中包含所有訓練樣本的最小超球半徑;另外,優化核函數 (核矩陣)度量標準的方法可以獨立于具體的核學習算法。

核參數選擇的其它方法包括核路徑算法[27]、基于計算特征空間中簇間距的算法[28]、基于核相似性差異最大化的高斯核參數選擇算法[29]等。另外,從所采用的優化方法的角度看,除了常用的基于梯度的迭代算法之外,許多學者也采用了隨機算法來選擇核函數中的參數。

4 多核學習

現實世界中往往存在大量的來自多個數據源或異構的數據集,例如基因組數據庫就往往由多種類型的數據構成:變長度的氨基酸串、實值的基因表達數據以及蛋白質之間的交感作用圖等。基于采用單個核函數的形式處理類似數據的效果不是很理想的事實,2004年Lanckriet和Bach等人[12,30-31]提出了一種新的學習框架,即多核學習 (multiple kernel learning,MKL)。多核學習采用了多個基核 (basis kernel)的組合形式,其中每個基核可以使用描述樣例的所有特征,也可以只使用來自某個特定數據源 (或觀察樣例的某個特定視角)的特征。由于采用多核學習的SVM具有一系列單核SVM所不具備的優點,例如決策函數的可解釋性、核函數的自動選擇、預測性能的提升等,多核學習一經提出就得到了廣泛的關注,是近年來核方法研究的一個非常熱點的問題[12,30-40]。多核學習能夠自動評估各個基核對于目標問題的重要性,從而為我們提供了一條選擇最優核函數的較佳途徑。目前,多核學習的研究主要集中在如何提高學習的效率 (efficiency)和準確率 (accuracy)兩個方面。

從學習的效率方面來看,Lanckriet等人[12]首先指出以SVM的結構風險為優化目標函數的多核學習等價于求解一個半正定規劃 (semi-definite programming,SDP)問題,或更特殊地是一個二次約束的二次規劃 (quadratically constrained quadratic programming,QCQP)問題[30],為多核模型提供了一種功能強大的漸近直推式算法。SDP與QCQP屬于凸規劃問題,理論上可以保證得到全局最優解,但只適合于求解小規模 (基核數目與數據規模均較小)的問題。隨后Bach等人[31]又提出了QCQP的一種新的對偶形式,即 二 階 錐 規 劃 (second order cone programming,SOCP),并將其寫成SMO算法適用的形式,可以求解中等規模的問題。為了適用于大規模問題,近年來許多研究者提出了交替優化的方法,如基于半無限線性規劃 (semi-infinite linear programming,SILP)的方法[32]、簡單多核學習 (SimpleMKL)方法[33]、基于分組 Lasso的方法[34]等。這類方法在基核的權系數優化與SVM訓練之間交替進行直至算法收斂,即算法的每一次循均包含兩個步驟:①給定當前步的權系數值,求解一個經典的SVM問題;②采用某種特定的過程更新權系數。這類方法的優點是可以利用成熟的SVM工具包進行快速求解,不同的地方主要在于更新權系數方法的不同。

從分類的準確率方面來看,主要考慮的是什么樣的基核組合形式能夠獲得更高的分類準確率。多核模型最簡單也是最常見的一種構造形式就是多個基核的凸組合。凸組合形式中權系數的L1范數也稱為單純形約束,采用這種組合形式的多核學習稱為L1-MKL。L1-MKL的優點是它會得到稀疏的解,即只有一部分權系數不為零。稀疏性的提高在某些情況下可以減少冗余,提高運算效率;但當問題的特征編碼之間具有正交性的時候,稀疏性可能導致有用信息的丟失和泛化能力的減弱,基于這種情況,Kloft等人[35]提出了非稀疏多核學習方法,即L2-MKL。L2-MKL在特征集冗余和抗噪聲方面具有較強的魯棒性。隨后Kloft等人[36]又將L2范數推廣到任意的Lp(P>1)范數,即Lp-MKL,進一步增強了算法的魯棒性和通用性。此外,考慮到基核集中可能存在主成分結構,一些研究者也提出了基于權系數的混合范數 (mixed-norm)的組合形式[37],為多核學習提供了一種基于混合范數正則化的新思路。與上述多核模型基于基核的線性組合形式不同,一些研究人員討論了基核的非線性組合的可行性[38]。雖然非線性組合擴大了問題的解空間,但高昂的計算開銷和結果的難以解釋性等問題是不容忽視的。

最后,許多研究者也根據具體應用問題的實際,對多核學習的框架進行了相應的擴展 (或修正),例如提出了多分類多核學習、多標簽多核學習、局部多核學習、基于間隔和半徑的多核學習等模型及其求解算法。

5 結束語

核函數的選擇是核方法研究中的一個關鍵問題,同時也是一個難點問題。本文從以SVM作為核函數的載體,從核函數的構造、核函數中參數的選擇、多核學習3個方面對核函數的選擇作了比較全面的評述。從目前的情況看,作者認為該領域的以下一些問題值得進一步研究:

(1)根據特定的應用領域選擇核函數。SVM是一種在特征空間實施線性判決的學習算法,其中特征空間由核函數隱式定義。事實上,盡管在理論上核函數有很大的選擇余地,但在現實世界中如何根據特定的應用領域選擇使用特定的核函數是卻是一個公開的難題。一般而言,使用一些通用的核函數 (例如Gaussian核函數)可以解決一部分問題;然而,眾多的研究已經表明核函數的選擇與數據的性質 (領域)有著密切的關系。多核學習通過多個基核的組合,從另一個角度解決了特定核函數的選擇問題,通過多個權系數的調節與優化,使組合的核函數盡可能滿足實際的需求。由于多核學習需要對多個基核的權系數及其它參數進行優化,因而研究高效的學習算法是必需的。另外,根據具體問題的不同,對多核學習的框架進行相應的擴展(或修正)也是一個需要進行深入研究的課題。

(2)設計有效的核函數度量標準。為了選擇恰當的核函數,一個好的核度量標準是必要的。Nguyen和Ho兩人[24]在提出基于特征空間的核矩陣度量標準的時候曾經指出,當數據集中存在局部結構信息的時候,簡單地減小同類內的數據偏差是沒有什么意義的,但是他們并沒有給出在設計核度量標準的時候如何消除這種影響的方法。Wang等人[25]提出的局部核極化應該是一種有益的嘗試和可行的選擇。然而,這個工作還是略顯粗糙,還有諸如如何針對具體問題確定親和系數、如何將局部核極化推廣到一般的核函數等問題需要進一步的研究和探討。通過采用與Wang等人[25]相同的分析方法,我們很容易發現核排列和基于特征空間的核矩陣度量標準也沒有考慮數據集中的局部結構信息對算法性能的影響,因而也是一種 “全局性”的核度量標準。雖然如此,但要提出它們的 “局部化”版本卻比局部核極化復雜得多。這顯然是未來研究的一個令人感興趣的方向。此外,設計核度量標準的目的是為了通過優化該標準來增強異類樣本數據之間的可分性,這和機器學習中的其它標準非常類似,如最小最大概率機器 (Minmax probability machine,MPM)中的最差誤分概率、距離度量學習 (distance metric learning)中的有關優化準則、類別可分離性標準等。深入研究這些標準之間的關系,可以使我們從這些標準中得到啟發,進而設計出更有效的核度量標準。

(3)拓寬核函數選擇的研究范圍。目前,核函數的選擇研究主要集中在模式分類領域,在回歸、聚類、時間序列分析等領域的研究則較少,在這些方面的研究對于拓寬核函數選擇研究的范圍,開辟核方法應用的新領域具有十分重要的意義。

[1]Boser B,Guyon I,Vapnik V.A training algorithm for optimal margin classifiers[C].Pittsburgh,USA:Proc of the 5th Annual ACM Conference on Computational Learning Theory,1992:144-152.

[2]Vapnik V.The nature of statistical learning theory[M].New York:Springer,1995.

[3]Shawe-Taylor J,Cristianini N.Kernel methods for pattern analysis[M].Cambridge:Cambridge University Press,2004.

[4]REN Shuang-qiao,WEI Xi-zhang,LI Xiang,et al.Adaptive construction for kernel function based on the feature discriminability [J].Chinese Journal of Computers,2008,31(5):803-809 (in Chinese). [任雙橋,魏璽章,黎湘,等.基于特征可分性的核函數自適應構造 [J].計算機學報,2008,31 (5):803-809.]

[5]Burges C J C,Vapnik V.A new method for constructing artificial neural networks [R].Interim Technical Report,ONR Contract N00014-94-C-0186.Technical Report,AT&T Bell Laboratories,1995.

[6]Haussler D.Convolution kernels on discrete structures [R].Technical Report UCSC-CRL-99-10,Department of Computer Science,University of California in Santa Cruz,1999.

[7]G rtner T.A survey of kernels for structured data [J].ACM SIGKDD Explorations Newsletter,2003,5 (1):49-58.

[8]Viswanathan S V N,Borgwardt K M,Schraudolph N N.Fast computation of graph kernels [C].Advances in Neural Information Processing Systems 19,2006.

[9]YIN Chuan-huan,TIAN Sheng-feng,MU Shao-min.A fast algorithm for gapped kernels [J].Acta Electronica Sinica,2007,35 (5):875-881 (in Chinese). [尹傳環,田盛豐,牟少敏.一種面向間隙核函數的快速算法 [J].電子學報,2007,35 (5):875-881.]

[10]YIN C,TIAN S,MU S,et al.Efficient computations of gapped string kernels based on suffix kernel[J].Neurocomputing,2008,71 (4-6):944-962.

[11]Jaakkola T S,Haussler D.Exploiting generative models in discriminative classifiers [C].Advances in Neural Information Processing Systems 11,1998.

[12]Lanckriet G R G,Cristianini N,Bartlett P,et al.Learning the kernel matrix with semidefinite programming [J].Journal of Machine Learning Research,2004,5:27-72.

[13]WU Tao,HE Han-gen,HE Ming-ke.Interpolation based kernel function’s construction [J].Chinese Journal of Computers,2003,26 (8):990-996 (in Chinese). [吳濤,賀漢根,賀明科.基于插值的核函數構造 [J].計算機學報,2003,26 (8):990-996.]

[14]Ong C S,Smola A J,Williamson R C.Learning the kernel with hyperkernels [J].Journal of Machine Learning Research,2005,6:1043-1071.

[15]Duan K,Keerthi S S,Poo A N.Evaluation of simple performance measures for tuning SVM hyperparameters [J].Neurocomputing,2003,51:41-59.

[16]Chapelle O,Vapnik V,Mukherjee S.Choosing multiple parameters for support vector machines [J].Machine Learning,2002,46 (1):131-159.

[17]Chung K M,Kao W C,Sun C L,et al.Radius margin bounds for support vector machines with the RBF kernel[J].Neural Computation,2003,15 (11):2463-2681.

[18]CHANG Qun,WANG Xiao-long,LIN Yi-meng,et al.Support vector classification and Gaussian kernel with multiple widths [J].Acta Electronica Sinica,2007,35 (3):484-487(in Chinese).[常群,王曉龍,林沂蒙,等.支持向量分類和多寬度高斯核 [J].電子學報,2007,35 (3):484-487.]

[19]WANG L,XUE P,CHAN K L.Two criteria for model selection in multiclass support vector machines [J].IEEE Transactions on System,Man,and Cybernetics-Part B:Cybernetics,2008,38 (6):1432-1448.

[20]Cristianini N,Shawe-Taylor J,Elisseeff A,et al.On kernel-target alignment [C].Advances in Neural Information Processing Systems 14,2001:367-373.

[21]Igel C,Glasmachers T,Mersch B,et al.Gradient-based optimization of kernel-target alignment for sequence kernels applied to bacterial gene start detection [J].IEEE/ACM Transactions on Computational Biology and Bioinformatics,2007,4 (2):216-226.

[22]Baram Y.Learning by kernel polarization [J].Neural Computation,2005,17 (6):1264-1275.

[23]WANG T,HUANG H,TIAN S,et al.Learning general Gaussian kernels by optimizing kernel polarization [J].Chinese Journal of Electronics,2009,18 (2):265-269.

[24]Nguyen C H,Ho T B.Kernel matrix evaluation [C].Hyderabad,India:Proc of the 20th International Joint Conference on Artificial Intelligence,2007:987-992.

[25]WANG T,TIAN S,HUANG H,et al.Learning by local kernel polarization [J].Neurocomputing,2009,72 (13-15):3077-3084.

[26]Cortes C,Mohri M,Rostamizadeh A.Two-stage learning kernel algorithms[C].Haifa,Israel:Proc of the 27th International Conference on Machine Learning,2010:239-246.

[27]Wang G,Yeung D Y,Lochovsky F H.A kernel path algorithm for support vector machines [C].Corvalis,USA:Proc of the 24th International Conference on Machine Learning,2007:951-958.

[28]WU K P,WANG S D.Choosing the kernel parameters for support vector machines by inter-cluster distance in the feature space [J].Pattern Recognition,2009,42 (5):710-717.

[29]TANG Yao-hua,GUO Wei-min,GAO Jing-huai.SVM parameter selection algorithm based on maximum kernel similarity diversity[J].Pattern Recognition and Artificial Intelligence,2010,23(2):210-215 (in Chinese). [唐耀華,郭為民,高靜懷.基于核相似性差異最大化的支持向量機參數選擇算法 [J].模式識別與人工智能,2010,23 (2):210-215.]

[30]Lanckriet G R G,Bie T D,Cristianini N,et al.A statistical framework for genomic data fusion [J].Bioinformatics,2004,20 (16):2626-2635.

[31]Bach F R,Lanckriet G R G,Jordan M I.Multiple kernel learning,conic duality,and the SMO algorithm [C].Banff,Canada:Proc of the 21st International Conference on Machine Learning,2004:41-48.

[32]Sonnenburg S,R tsch G,Sch fer C,et al.Large scale multiple kernel learning [J].Journal of Machine Learning Research,2006,7 (1):1531-1565.

[33]Rakotomamonjy A,Bach F,Canu S,et al.SimpleMKL[J].Journal of Machine Learning Research,2008,9:2491-2521.

[34]XU Z,JIN R,YANG H,et al.Simple and efficient multiple kernel learning by group lasso [C].Haifa,Israel:Proc of the 27th International Conference on Machine Learning,2010:1175-1182.

[35]Kloft M,Brefeld U,Laskov P,et al.Non-sparse multiple kernel learning [C].Proc of the NIPS Workshop on Kernel Learning:Automatic Selection of Optimal Kernels,2008.

[36]Kloft M,Brefeld U,Sonnenburg S,et al.Efficient and accurateLp-norm multiple kernel learning [C].Advances in Neural Information Processing Systems 22,2009:997-1005.

[37]Nath J S,Dinesh G,Raman S,et al.On the algorithmics and applications of a mixed-norm based kernel learning formulation [C].Advances in Neural Information Processing Systems 22,2009:844-852.

[38]Cortes C,Mohri M,Rostamizadeh A.Learning non-linear combinations of kernels [C].Advances in Neural Information Processing Systems 22,2009:396-404.

[39]MU Shao-min,TIAN Sheng-feng,YIN Chuan-huan.Multiple kernel learning based on cooperative clustering [J].Journal of Beijing Jiaotong University,2008,32 (2):10-13 (in Chinese).[牟少敏,田盛豐,尹傳環.基于協同聚類的多核學習 [J].北京交通大學學報,2008,32 (2):10-13.]

[40]WANG Hong-qiao,SUN Fu-chun,CAI Yan-ning,et al.On multiple kernel learning methods [J].Acta Automatica Sinica,2010,36 (8):1037-1050 (in Chinese). [汪洪橋,孫富春,蔡艷寧,等.多核學習方法 [J].自動化學報,2010,36 (8):1037-1050.]

猜你喜歡
特征標準方法
2022 年3 月實施的工程建設標準
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
忠誠的標準
當代陜西(2019年8期)2019-05-09 02:22:48
美還是丑?
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
一家之言:新標準將解決快遞業“成長中的煩惱”
專用汽車(2016年4期)2016-03-01 04:13:43
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 天堂网亚洲系列亚洲系列| 国产精选自拍| 日本少妇又色又爽又高潮| 黄色网在线| 婷婷六月色| 国产精品丝袜视频| 五月婷婷丁香综合| 亚洲成人一区在线| 国产一级毛片在线| 55夜色66夜色国产精品视频| 国产精品页| 免费观看三级毛片| 精品国产一区二区三区在线观看| 亚洲日本中文字幕乱码中文 | 亚洲色图综合在线| 又污又黄又无遮挡网站| 国产亚洲精品资源在线26u| 国产成人免费| 99视频有精品视频免费观看| 在线中文字幕网| 国产精品综合色区在线观看| 天堂va亚洲va欧美va国产| 久久99国产综合精品女同| 青青草国产在线视频| 中文字幕有乳无码| 精品三级网站| 欧美日韩一区二区在线播放| 久久亚洲综合伊人| 2020国产在线视精品在| 亚洲成人网在线观看| 亚洲无码久久久久| 欧美区一区| 午夜啪啪网| 丁香五月婷婷激情基地| 99在线观看视频免费| 亚洲V日韩V无码一区二区| 亚洲色图欧美在线| 国产另类视频| 亚洲精品综合一二三区在线| 国产精品成人一区二区| 免费人成网站在线高清| 国产精品偷伦在线观看| 亚洲精品爱草草视频在线| 亚洲国产中文综合专区在| 免费人成视网站在线不卡 | 特级精品毛片免费观看| 国产亚洲精品在天天在线麻豆| 亚洲中文精品人人永久免费| 2020国产免费久久精品99| 一级做a爰片久久免费| 亚洲日本www| 青青国产成人免费精品视频| 国产成人精品18| 色婷婷色丁香| 无码一区二区波多野结衣播放搜索 | 97视频免费看| 精品欧美视频| 国产尤物jk自慰制服喷水| 亚洲精品自拍区在线观看| 国产9191精品免费观看| 国产精品一区在线观看你懂的| 国产精品欧美日本韩免费一区二区三区不卡 | 青青国产视频| 欧美 国产 人人视频| 狠狠久久综合伊人不卡| 亚洲成人免费在线| 99999久久久久久亚洲| 国模极品一区二区三区| 久久精品人人做人人| 色婷婷啪啪| 欧美色视频在线| 伊人久久大线影院首页| 亚洲av综合网| 综合网久久| 亚洲精品日产AⅤ| 国产美女一级毛片| 91无码视频在线观看| 韩日午夜在线资源一区二区| 日韩精品一区二区三区免费在线观看| 欧美69视频在线| 欧美黄网在线| 日韩欧美一区在线观看|