999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于驅動錯誤準則的SVM增量學習研究

2012-04-29 00:00:00文波單甘霖段修生
計算技術與自動化 2012年3期

摘要:增量學習廣泛運用于人工智能、模式識別等諸多領域,是解決系統在訓練初期樣本量少而隨時間推移性能降低的有效方法。本文針對經典支持向量機當訓練樣本數量多而運算速度較慢的缺點,在分析支持向量機的基礎上,提出基于驅動錯誤準則的增量學習方法,實驗結果表明,該算法不僅能保證學習機器的精度和良好的推廣能力,而且算法的學習速度比經典的SVM算法快,可以進行增量學習。

關鍵詞:機器學習;驅動錯誤準則;SVM;增量學習

中圖分類號:TP391 文獻標識碼:A



Research of Incremental Learning Algorithm Based on Drive Error Criterion



WEN Bo, SHAN Ganlin, DUAN Xiusheng

(Dept. of Optical and Electronic Engineering, Ordnance Engineering College Shijiazhuang Hebei050003, China)

Abstract:Incremental learning is widely used in artificial intelligence, pattern recognition and other fields. It is an effective method to solve the problem that the efficiency of the system declines in the process of studying training samples which is of a small number in the beginning. For the disadvantage of the classical support vector machine getting slower when the number of training samples gets larger, this thesis proposes an incremental learning algorithm based on Drive error criterion. The experimental results show that this algorithm not only guarantees the precision and good generalization ability of the learning machine, but also faster than the classic SVM algorithm. Therefore, it can be used in incremental learning.

Key words:machine learning; drive error criterion; SVM; incremental learning

1引言

支持向量機(SVM)[1]是Vapnik等人在統計學習理論的基礎上提出的一種普適學習機模型,具有強大的非線性處理能力和良好的推廣能力,廣泛應用于人工智能、模式識別等諸多領域,目前,SVM越來越受到廣泛的重視,形成了國際上的研究熱潮[2—3]。機器學習作為人工智能領域的基本問題,許多學習系統在學習初期所能獲得的樣本量較少,隨著時間的推移與樣本的不斷累積,系統的工作效率降低,這時系統需納入新增樣本進行增量學習提升系統的性能,標準的支持向量機沒有增量學習的能力,但其定義的支持向量具有良好的增量學習效果。因此研究有效的支持向量機增量學習方法具有重要的意義[1]。

Syed[4]對樣本集的支持向量進行了分析,提出了一種簡單支持向量機增量學習算法。在該算法中,增量訓練由SV樣本組成,再訓練只需要進行一次即可完成,所有的非SV樣本點都拋棄。這樣減少了計算復雜度,但是忽略了歷史樣本集的非SV最終可能成為支持向量的問題。趙耀紅[5]等人提出將違背Karush.Kuhn.Tucker(KKT)條件的樣本和SV集一起訓練的新算法,更能體現樣本的分布狀態對學習結果的影響。該算法分別對樣本和新增樣本訓練得到分類器T1、T2和支持向量集SV1、SV2,在歷史樣本中找到違背T2的KKT條件的樣本,加入到SV1、SV2一起訓練得到最終分類器。該算法雖然比Syed的分類精度提高了2個百分點左右,但訓練時間沒有明顯減少,需要占用大量內存空間,文獻[6—8]中也分別介紹了幾種SVM增量學習算法,文獻[9]對SVM增量學習的研究進行了總結和分析。通過總結與歸納,這些算法都存在一個共同的特征即需要對過多的歷史樣本進行學習,需要大量的存儲空間,直接影響到后繼增量學習的效率。如何從歷史樣本集和新增樣本集中提取少而有價值的樣本,而非全部樣本進行訓練,是個值得研究的問題。

本文在上述研究的基礎上,提出了基于錯誤驅動的增量學習算法。實驗結果表明本文的算法不僅保證了學習機器的精度,而且顯著地提高了學習的速度,具有良好的推廣能力。

2問題的描述

2.1支持向量機及KKT條件[10]

支持向量機最早由線性情況下的分類問題而來,利用支持向量機分類的目的就是要尋找最優超平面,最優超平面就是最大間隔超平面,即在將兩類樣本正確分類的同時,使得分類間隔最大,如圖1所示。

圖1最優分類超平面示意圖

通過求解凸半正定二次規劃

max W(α)=∑li=1αi—12∑li,j=1yiyjαiαjK(xi,xj)

s.t. C≥αi≥0,∑li=1yiαi=0(1)

計算技術與自動化2012年9月

第31卷第3期文波等:基于驅動錯誤準則的SVM增量學習研究

其中,K(xi,xj)為核函數。

可以得到SVM分類器的決策函數

f(x,α)=sign∑support vectoryiα0iK(xi,xj)+b(2)

在分類學習中只有那些是支持向量的樣本才對最優超平面和決策函數有貢獻,即支持向量集能夠充分描述整個訓練樣本集的特征,對它的劃分等價于對整個樣本集的劃分。大多數情況下,支持向量只占訓練樣本集的很少一部分,因此可以使用支持向量集取代訓練樣本集進行學習,在不影響分類精度的同時降低訓練時間及存儲空間。

對于上述問題,α是拉格朗日乘子,當且僅當對每一個x都滿足KKT條件時,α=[α1,…,αi]才是上述規劃的最優解

αi=0→ynf(xn)>10<αi

即

αi=0→f(xn)>1或f(xn)<—10<αi

f(x)=0為分類面,f(x)=±1為分類間隔的邊界。α=0對應的樣本分布在SVM分類間隔外,0<α

文獻[10]中的證明表明,新增訓練樣本違背KKT條件的充要條件為新增樣本位于ynf(xn)區域中。

2.2最小驅動錯誤準則

一個誤分類測度的最簡單的形式,是對兩類問題進行分類的Bayes判別形式,其誤分類測度[11]可定義為:

d(x)=P(C2|x)—P(C1|x) (5)

這里,P(C2|x)(i=1,2)是假設已知的后驗概率。上式給出了將屬于類1的觀測樣本誤分類為類2時的可能性,其最優決策邊界是方程d(x)=0的解。對于未知分布的多類情況(N>2),并不能象上面的這種兩類Bayes判別那樣定義一個誤分類測度。Amari定義了一種誤分類測度為:

dk(x)=∑x∈Sk1mk[gi(x;Λ)—gk(x;Λ)](6)

其中, Sk={i|gi(x;Λ)>gk(x;Λ)}是混淆類集,mk為Sk中的混淆個數。由于Sk是不固定的,它隨著參數集Λ以及樣本x的變化而變化,所以上式對Λ是不連續的,不能求導,故不適合梯度運算。有很多方法可以定義連續的誤分類測度,其中一種選擇為:

dk(x)=—gk(x;Λ)+

[1N—1∑j,η≠kgi(x;Λ)η]1η(7)

上式右邊第二項是所有其它競爭類似然度的幾何平均值。參數η可被看成為一個調整其它競爭類對整個判別函數貢獻的權系數。在搜索分類器參數Λ的過程中,通過變化η值可以找到許多潛在的分類,一個極端的情況是當η→

SymboleB@ 時,上式右邊第二項中一個最大競爭類的判別函數將起主導作用,即 

η→

SymboleB@ 時,

[1N—1∑j,η≠kgj(x;Λ)η]1η=max j,η≠kgj(x;Λ) (8)

誤分類測度變為:

dk(x)=—gk(x;Λ)+gj(x;Λ)(9)

其中Ci是除Ck外,所有其它類中具有最大判別值所代表的類,這是因為(N—1)1/

SymboleB@ 1。顯然,在上面這種情況下, dk(x)>0隱含著為誤分類, dk(x)≤0為正確分類,這樣,決策規則就變為一個標量值的判定問題了。

3算法的設計及實驗分析

3.1算法的設計

設初始訓練樣本集合A={x1,x2,…,xM},其中每個xm(m=1,2,…,M)是一個K維向量,并且屬于N個類Ci(i=1,2,…,N)中的某一類。對通常包含一個參數集和一個決策規則的分類器來說,最小驅動錯誤分類器設計的任務就是:基于給定的初始訓練樣本集A,找出分類器的參數集Λ以及相關的決策規則,使得誤分類任何樣本xm(m=1,2,…,M)的概率最小,一般地,誤分類的概率用誤識率來近似。如果假設存在與誤分類有關的懲罰或代價,則這種分類器設計的目標就變為:找出合適的分類器參數集Λ和相關的決策規則使得期望的代價最小。

算法如下:

1) 初始化參數Λ,置t=1選擇歷史樣本集A和新增樣本集It,確定最小錯誤分類準則集B。訓練B得到初始支持向量集SV0和決策函數f0;

2) 如果,It=,算法終止;否則轉(3);

3) 尋找It中違反決策函數ft—1的KKT條件的樣本,確定集合Ivt;

4) 如果Ivt=,置SVt=SVt—1,ft=ft—1,t=t+1,轉(2);否則轉(5);

5) 對T=SVt—1∪Ivt進行增量學習得到新的決策函數ft支持向量集SVt,置t=t+1,轉(2)。

3.2實驗結果與分析

3.2.1不同核函數類型對結果的影響

分別采用RBF、Linear、Ploy核函數訓練SVM,對UCI數據庫中的數據集進行分類實驗。實驗時,利用數據集中大約1/3的樣本進行訓練,其余樣本用來對SVM分類器進行分類性能測試,測試結果如表1所示。

表1不同核函數時的分類結果

數據

RBF

Linear

Poly

Breastcancer

0.9765

0.9756

0.9775

Echocardiogram

0.9345

0.8953

0.9052

Dermatology

0.9756

0.9543

0.9669

Wine

0.9392

0.8716

0.8716

Zoo

0.9348

0.9348

0.9348

試驗結果顯示,核函數的類型對SVM分類性能有一定影響;總體來看,選擇RBF核函數訓練得到SVM往往能取得較好的泛化能力和分類性能。

3.2.2本文增量學習算法(DRSVM)與SMO算法比較

在經典的優化算法中,SMO算法[12]的性能較好,分別使用UCI標準數據庫中的Breastcancer數據集與在某電路板上的采集的故障數據集進行實驗。

1)Breastcancer數據集,共有 699 個樣本,樣本維數為 11,所用訓練樣本數為 370,測試樣本數為 329。

2)某電路板上的故障數據當中的每一分量都服從Gauss分布,共有800個樣本,取訓練樣本為450,測試樣本數為350,其中正例樣樣本維數為 7 維,樣本類別數為 4。

為確保實驗結果的精確性,實驗采用平均法—同樣條件下運行10次,取平均值作為測試結果。實驗中時間均以秒(s)為單位,分類精度以%為單位。采用徑向基核函數,C=10,γ=0.4。

表2和表3給出了實驗結果,表中的符號含義如下:N初始代表初始樣本個數,N增量代表增量樣本個數,t訓練代表訓練時間,ACR代表平均分類正確率, DRSVM代表本文的增量算法,SMO代表文獻[12]中的增量算法。

表2Breastcancer 數據集實驗結果

N初始

N增量

DRSVM

SMO

t訓練

ACR

t訓練

ACR

100

50

1.79

97.7

2.40

97.5

50

100

1.83

97.9

4.03

98.2

110

80

2.23

98.0

4.26

97.5

110

100

2.30

97.1

4.50

97.0

120

40

2.40

98.1

3.66

98.2

130

90

2.85

97.9

4.95

97.7

表3電路板故障數據集實驗結果

N初始

N增量

DRSVM

SMO

t訓練

ACR

t訓練

ACR

50

100

13.25

96.9

26.7

96.8

150

100

29.7

98.0

57.6

97.4

200

50

12.1

97.3

23.0

96.0

200

200

14.5

96.3

34.3

97.0

400

100

25.4

95.7

42.9

96.1

300

200

22.75

97.5

44.5

97.1

從上面實驗可以看出,本文的DRSVM與SMO相比,本文算法不僅能保證學習機器的精度,而且算法的學習速度有顯著的提高適合于大規模訓練樣本的增量學習。

4結束語

本文基于支持向量機的特性,研究了支持向量機的增量學習方法,并在此基礎上提出了基于驅動錯誤準則的增量學習算法。實驗結果表明,該算法不僅能保證學習機器的精度和良好的推廣能力,而且算法的學習速度比經典的SVM算法快,可以進行增量學習。

參考文獻

[1]VAPNIK V.The nature of statistical learning theory[M ].New York:SpringerPress, 1995.

[2]ZHU H B,CAI Y. Text categorization based on active learning support vector machines [J]. Computer Engineering and Application,2009,45(2):134—136.

[3]Mu Xinguo, Hao Wenning, Zhao Enlai. An incremental LSSVM learning algorithm ILSSVM[C]. 2011 International Conference on EBusiness and EGovernment (ICEE).2011,314—317.

[4]SYED N A,LIU H,SUNG K K.Incremental learning with support vector machines[C].Proc Int Joint Conf on Artificial Intelligenee,1999.

[5]趙耀紅,王快妮,鐘萍,等.快速支持向量機增量學習算法[J]. 計算機工程與設計,2010,1(6):161—163,171.

[6]徐海龍,王曉丹,史朝輝,等.一種基于距離比值的支持向量機增量訓練算法[J].空軍工程大學學報,2008,9(4):29—33. 

[7]白冬嬰,王曉丹,馬飛. 支持向量機增量學習方法及應用[J].航空計算技術,2007,37(4):23—26.

[8]申曉勇,雷英杰等. 一種SVM增量學習淘汰算法[J].計算機工程與應用,2007,43(6):171—173.

[9]李祥納,艾青,秦玉平,等.支持向量機增量學習算法綜述[J].渤海大學學報,2007,9(4):187—189.

[10]周偉達,張莉,焦李成.支撐向量機推廣能力分析[J].電子學報,2001,29(5) :590—594.

[11]韓紀慶,基于最小分類錯誤準則的判別學習方法[J] .計算機應用,2001,27(2):1—3,12.

[12]PLATT J.Fast Training of Support Vector MachinesUsing Sequential Minimal Optimization[A].Advancesin Kernel MethodsSupport Vector Learning[C].Cambridge,MA:MIT Press,1999:185—208.

主站蜘蛛池模板: 日韩人妻无码制服丝袜视频| 免费一级无码在线网站 | 国产无码精品在线播放| 国产成人亚洲欧美激情| 91福利免费视频| 免费毛片在线| 伊人久久青草青青综合| 国产极品美女在线观看| 中文字幕永久视频| 亚洲黄色视频在线观看一区| 久久精品人人做人人爽97| 一级毛片在线播放| 自拍偷拍欧美日韩| 精品日韩亚洲欧美高清a| 女人18毛片久久| 18禁不卡免费网站| 五月激情综合网| 一级全免费视频播放| 亚洲色婷婷一区二区| 久久99国产综合精品1| 国产成人一区在线播放| 婷婷在线网站| 国产肉感大码AV无码| 2020精品极品国产色在线观看| 久精品色妇丰满人妻| 91无码人妻精品一区二区蜜桃| 国产在线一二三区| 日韩a级毛片| 国产精品密蕾丝视频| 日韩二区三区| 国产精品福利在线观看无码卡| 久久婷婷六月| 日韩a在线观看免费观看| 人妻丰满熟妇啪啪| 在线永久免费观看的毛片| 九九热在线视频| 久久这里只有精品国产99| 久久亚洲高清国产| 久久久亚洲国产美女国产盗摄| 国产成人精品午夜视频'| 在线看片免费人成视久网下载| 久久77777| 国产成人免费高清AⅤ| 午夜国产大片免费观看| 日韩美女福利视频| 日韩黄色在线| 亚洲码一区二区三区| 污网站免费在线观看| 喷潮白浆直流在线播放| 老汉色老汉首页a亚洲| 就去色综合| 亚洲精品片911| 国产精品女主播| 又黄又湿又爽的视频| 免费看一级毛片波多结衣| 九九热精品免费视频| 国产视频a| 91免费国产高清观看| 国产亚洲精品91| 奇米影视狠狠精品7777| 午夜精品久久久久久久99热下载| 免费xxxxx在线观看网站| 熟妇丰满人妻| 国产精品自在拍首页视频8| 亚洲无码高清一区二区| 国产成人欧美| 日本影院一区| 亚洲人免费视频| 色播五月婷婷| 热99re99首页精品亚洲五月天| 欧美日韩中文字幕在线| 日韩无码视频播放| 国产精品原创不卡在线| 99热这里都是国产精品| 久久精品视频一| 日韩精品一区二区三区大桥未久| 99久久精品久久久久久婷婷| 黄色一及毛片| 国产精品美人久久久久久AV| 国内精品一区二区在线观看 | 真人高潮娇喘嗯啊在线观看| 黄色国产在线|