999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

正則化多任務學習的快速算法*

2017-06-15 15:14:29史熒中汪菊琴王士同
計算機與生活 2017年6期
關鍵詞:分類實驗方法

史熒中,汪菊琴,許 敏,王士同

1.江南大學 數字媒體學院,江蘇 無錫 214122

2.無錫職業技術學院 物聯網學院,江蘇 無錫 214121

正則化多任務學習的快速算法*

史熒中1,2+,汪菊琴1,2,許 敏1,王士同1

1.江南大學 數字媒體學院,江蘇 無錫 214122

2.無錫職業技術學院 物聯網學院,江蘇 無錫 214121

SHI Yingzhong,WANG Juqin,XU Min,et al.Fast algorithm for regularized multi-task learning.Journal of Frontiers of Computer Science and Technology,2017,11(6):988-997.

正則化多任務學習(regularized multi-task learning,rMTL)方法及其擴展方法在理論研究及實際應用方面已經取得了較好的成果。然而以往方法僅關注于多個任務之間的關聯,而未充分考慮算法的復雜度,較高的計算代價限制了其在大數據集上的實用性。針對此不足,結合核心向量機(core vector machine,CVM)理論,提出了適用于多任務大數據集的快速正則化多任務學習(fast regularized multi-task learning,FrMTL)方法。FrMTL方法有著與rMTL方法相當的分類性能,而基于CVM理論的FrMTL-CVM算法的漸近線性時間復雜度又能使其在面對大數據集時仍然能夠獲得較快的決策速度。該方法的有效性在實驗中得到了驗證。

多任務學習;大數據集;核心向量機;快速分類

1 引言

近期的研究[1-6]表明,較之于單獨學習各個子任務,對多個相關子任務同時學習能有效地提升預測性能。事實上,當同時學習多個復雜的任務時,從其他任務中獲取的信號能作為非常有益的歸納信息[1-2]。學者們從多任務分類[2-7]、聚類[8-10]、回歸[11-13]、特征選擇[14-15]等方面展開了研究,并在網頁標注、人臉識別、年齡估計、語音與圖像處理、疾病預測、生物醫學等[16-18]多個應用領域都取得了豐富的成果。一致性原理[19-20]又對此現象給出了理論保障,即若最大化各相關子學習機的一致性,則能使各子學習機的性能得到改善[19-22]。

多任務學習研究的角度之一,是子任務之間的相關結構。Evgeniou等人提出了正則化多任務學習(regularized multi-task learning,rMTL)[6]方法,其核心思想是多個子任務呈團狀分布,共享同一個中心。隨后,學者們從實踐應用的角度出發,研究了在應用領域特別是生物醫學方面,當子任務之間呈現出較清晰的圖狀關聯和樹狀關聯時的多任務學習方法。Friedman等人依據實際應用中蛋白質組之間存在特定的圖狀結構,對蛋白質組的信號進行了分析[16]。Chen等人基于子任務之間的圖結構,進行了果蠅基因表示圖的自動標記[17]。Widmer等人利用了生物之間特定的樹狀及圖狀關聯進行了真核生物的生物序列分析[18]。也有學者將多任務學習方法推廣到其他方面,如多類多任務學習方法[7]等。其中,rMTL方法以其模型的簡潔性而成為多任務學習理論研究的基礎,并擴展出許多其他方法。

雖然各種多任務學習方法在理論及實踐中都已經取得了較好的成果,但當前社會信息化的發展對多任務學習提出了新的挑戰。隨著大數據時代的來臨,社交信息及生物基因信息越來越龐大,多任務學習算法的時間及空間復雜度也越來越彰顯其重要性。作為其他多任務學習方法的基石,rMTL方法的對偶問題等價于核空間中的另一支持向量機(support vector machine,SVM)問題,其算法時間復雜度一般情況下為O(n3),其中n為問題空間中的樣本容量。即使采用序貫最小化[23]方法來求解rMTL的對偶問題,使其復雜度降為O(n2.3),rMTL在面對大數據集時仍有很大的局限性。而最近面向數據流的研究[24]雖然能快速求解多個子任務,但其模型并不能直接應用于多任務學習領域。如何尋找出一種新的多任務學習方法,既能保持rMTL方法良好的特性,又能在面對大數據集時有較好的時間性能,正是本文的出發點。

結合前期在數據流領域的研究基礎[24],本文提出了快速正則化多任務學習(fast regularized multi-task learning,FrMTL)方法,并基于核心向量機[25](core vector machine,CVM)理論給出了FrMTL方法的快速算法(fast regularized multi-task learning core vector machine,FrMTL-CVM)。所提FrMTL方法及其快速算法FrMTL-CVM具有以下特點:

(1)FrMTL方法采用了與rMTL方法相同的理念,即在特征空間中共享同一個矢量。在分類性能上,FrMTL方法與rMTL方法相當。

(2)FrMTL方法可依據CVM理論[25]設計出快速算法FrMTL-CVM,以應對多任務大數據集問題,其漸近時間復雜度與樣本總容量n呈近線性關系。

本文組織結構如下:第2章介紹rMTL方法及其他相關工作;第3章研究FrMTL方法;第4章討論核心向量機及FrMTL方法的快速算法;第5章為實驗結果與分析;第6章總結全文。

2 相關工作

多任務學習:假設有T個學習任務,每個任務中的樣本點取自于空間X×Y,X??d,Y??。每個任務中包含m個樣本點{(x1t,y1t),(x2t,y2t),…,(xmt,ymt)},其概率分布Pt是不同的。多任務學習的核心思想是同時求解T個任務,利用其他相關任務中的有效信息來提高學習所得模型的泛化能力。

Evgeniou等人在2004年提出了正則化多任務學習方法[6],在保持各個子學習機局部優化的同時,使多個學習機之間的全局差異最小化。他們認為,多個子任務的決策模型應該是相似的,并共享核空間中的某個公共矢量,每個子任務的決策模型wt由公共矢量w0與偏差量vt構成,即wt=w0+vt。rMTL方法的目標函數如下:

參照文獻[6],rMTL方法原始問題的對偶問題為如下二次規劃問題:

其中,i∈{1,2,…,m},t∈{1,2,…,T},K(x,·)為擴展核空間中的某個核函數。其決策函數為:

由式(2)可知,rMTL方法的對偶問題為核空間中的SVM問題,求解的時間復雜度為O(n3),其中n為問題空間中的樣本容量。即便采用序貫最小化[23](sequential minimal optimization,SMO)方法來求解rMTL的對偶問題,使其復雜度降為O(n2.3),也很難適應大數據時代的算法性能需求。

為了將rMTL方法推廣到更多的實踐應用上,Widmer[18]和Chen[17]等人依據子任務之間呈現不同的結構,設計出了Tree-MTL方法及Graphical-MTL方法。其中Tree-MTL方法是為了更好地進行生物序列分析,利用了第t個模型wt與它的父模型wparent(t)之間的相關性,假設可以通過最小化它們的差異||wt-wparent(t)||使子模型與父模型相互增益[18]:

Friedman等人依據實際應用中蛋白質組之間存在特定的圖狀結構,對蛋白質組的信號進行了分析[16]。2013年,Chen等人提出了改進型交互結構優化(improved alternating structure optimization,iASO)方法[17],利用果蠅基因之間呈圖狀結構的特性,對基因進行自動標記。

樹狀多任務學習模型及圖狀多任務模型向實用方向變化,但子任務之間存在的復雜關聯給計算帶來了一定的麻煩,因而在面向較大規模數據集時,計算時間得不到保障。iASO雖然解決了局部最優化問題,但只適用于小樣本數據集[17]。

Shi等人在針對數據流的分類研究中,提出了ITA-SVM方法[24]。該方法能同時求解多個子任務,當應用于較大規模數據集時,算法的漸近時間復雜度接近于O(n)。但該方法只適用于多個子任務呈序列狀分布的情形,并不能直接應用于傳統的多任務學習情形。

3 快速正則化多任務學習方法FrMTL

鑒于以往MTL方法在針對較大規模數據集時的復雜度瓶頸,本文結合ITA-SVM[24]的思路,提出了與rMTL方法分類能力相當,且具有快速處理多任務大數據集能力的FrMTL方法。對子任務之間具有樹狀及圖狀結構的場景,由于子任務之間的耦合帶來了模型及計算上的較大差異,將另文表述其快速算法。

FrMTL方法有著與rMTL方法及ITA-SVM方法相同的策略,即基于共享矢量協同求解多個子任務。為使FrMTL方法能進一步用快速算法求解,本文按文獻[24-27]的方法對式(1)略作改變,引入分類間隙ρ,通過推導可得到適于對多任務大數據集進行快速求解的對偶形式。FrMTL方法的目標函數為:

通過推導,不難得到式(5)的對偶問題如下:

其中:

K=[Kis,jt]N×N,Kis,jt=φ(xis)Tφ(xjt),φ為核函數

I為單位矩陣,α=(α11,α21,…,αm1,…,α1T,α2T,…,αmT)T

由式(6)、(7)可知,FrMTL問題的對偶形式等價于核空間中的另一SVM問題,其時間復雜度為O(n3),采用SMO方法求解的時間復雜度為O(n2.3),與rMTL方法相比,其時間性能并無本質的變化。但當借助核心向量機技術快速求解時,式(6)的時間復雜度及空間復雜度可降為O(n)。

4 核心向量機及FrMTL方法的快速算法

4.1 核心向量機

最小包含球(minimum enclosing ball,MEB)問題[28]可以轉化為二次規劃問題的矩陣形式:

其中,α=[α1,α2,…,αn]T為Lagrange乘子;Kn×n=[k(xi,xj)]=[?(xi)T?(xj)]為核矩陣。diag(K)表示由核矩陣K的主對角線元素組成的向量。

考察核函數中的特殊情形,即核矩陣對角元素恒為常數:

Tsang等人在文獻[25]中指出,形如式(8)且滿足式(9)的二次規劃問題,均等價于求解MEB問題。他們在此基礎上開發了核心向量機(core vector machine,CVM),CVM算法對于處理大規模數據集發揮了驚人的效果。對不滿足式(9)的形如式(8)的二次規劃問題,也可以使用核心集方法進行快速求解,給核空間中任意樣本點?(xi)附加一維新特征δi∈R,形成新特征空間中的新樣本使其滿足MEB問題的式(9)條件,然后求解在新特征空間中的最小包含球。對該最小包含球增加一個約束條件,即最小包含球中增加的特征維對應的中心固定在原點,即中心為這里c為原特征空間中的最小包含球球心。該問題的標準形式如下:

4.2 FrMTL-CVM算法描述

FrMTL方法的求解是一個普通的二次規劃問題,其求解時間復雜度為O(n2)~O(n3),對于大數據集來說應是相當可觀的計算開銷。仔細觀察式(6),它可以轉化為形如式(11)的MEB問題。因此,FrMTL方法可以利用核心向量機技巧來求解。并且MEB問題的求解過程中,只需要計算核心集之外的點到核心集的距離,無需計算所有點之間的相互距離,因此不必預先計算核矩陣H,這就使FrMTL方法能用快速算法求解。

可以將式(6)等價地改寫如下:

這是一個MEB問題,其中Δ=-diag(H)+η1,通過調節常數η的值,使Δ≥0。

FrMTL-CVM算法的輸入為大數據集S,核心集逼近精度ε及η、Δ等參數;輸出為核心集St和權重系數α。下面給出實現步驟:

(1)初始化核心集S0,最小包含球中心c0,半徑R0,迭代次數t=1。

(3)在擴展的特征空間中找到離ct最遠的點x,加入核心集,使得St+1=St?x。

(4)對新的CCMEB進行求解,得到新的球心ct+1和半徑Rt+1,權重系數α;計算新的球心到其他各點的距離;t=t+1,轉(2)。

(5)終止訓練,返回核心集St,權重系數α。

在實踐中發現,如果η取值較大,則FrMTLCVM算法收斂速度就非??欤玫降暮诵募瘮盗枯^少,實驗精度也隨之而降低。對FrMTL-CVM算法而言,如果選用高斯核作為核函數,可以更容易預估η的合理取值。

從本質上來講,FrMTL-CVM算法是基于MEB近似算法的一個特例,因此在衡量系統開銷時,有關核心集的結論適用于FrMTL-CVM算法。本文根據參考文獻[24-27],直接給出相似的性質。

性質1對于給定的近似誤差ε,由FrMTL-CVM算法求得的核心集數量的上界為O(1/ε),算法迭代次數的上界為O(1/ε),求得的支持向量數量上界為O(1/ε)。

性質2對于給定的誤差ε,FrMTL-CVM算法的時間復雜度的上界為O(N/ε2+1/ε4)。

5 實驗結果與分析

鑒于rMTL方法[6]的良好性能,且它是眾多擴展方法的基礎,本文將其作為實驗參照,以評估FrMTL方法及FrMTL-CVM快速算法。實驗將從兩方面進行:首先需要驗證FrMTL方法的分類性能是否與rMTL方法相當,因FrMTL方法保持良好的分類性能是其快速算法有效的前提;其次需要驗證FrMTL-CVM在面對大數據集時是否具有較好的時間效率,且其時間性能是否與CVM理論相符。

人生就是一條路,在起跑線的起點,所有的人都整裝待發,但能跑到最后的那些人都是最能堅持的,他們才是最成功的。在奔跑的路上,我失掉了堅持,迷茫、無助都向我逼近,我幾乎接近崩潰的邊緣。找回堅持,是一個嶄新的開始。

5.1 實驗設置

5.1.1 實驗平臺信息

實驗環境:操作系統為WindowsXP;處理器為奔騰1.87 GHz;內存為4 GB;主要應用軟件為Matlab R2010a。

5.1.2 所用方法

表1列出了下文實驗的各個算法名,并列出了相關算法中的主要參數。表1中的參數ε僅指CVM算法中的近似程度,而求解二次規劃問題時的精度參數不再列出,都取默認值ε′=1E-6。

Table 1 Methods and parameters in experiments表1 實驗中各種算法及主要參數

5.1.3 實驗數據

為了驗證FrMTL方法的適應能力,本文將在模擬數據集及真實數據集上展開實驗。模擬數據集以數據集DS0為基礎來生成,DS0包含3個子任務,共300個樣本點,每個子任務正負類樣本均為50。其中子任務T1的正類中心(0,0),方差為1,負類中心(2.5, 0),方差為1;子任務T2的正類中心(0,0),方差為1,負類中心(2.5,0),方差為1;子任務T3的正類中心(0, 0),方差為1.1,負類中心(2.5,0),方差為1.1。模擬數據集基于DS0生成,由DS0中的子任務經過不同程度的旋轉、平移來模擬子任務之間不同的相關性。數據集DS1中的Task1直接采用DS0中的T1,Task2為T2進行一定的旋轉(Rotate=5°)而生成,Task3為T3進行一定的平移(Move=0.05)而生成。DS2~DS6中的子任務Task1都取為DS0中的T1,Task2、Task3則由DS0中的T2加大旋轉量,T3增加平移量而生成。模擬數據集DS1~DS6,以及用于評估算法時間性能的數據集DS7的具體描述如表2所示。

5.1.4 實驗參數的設置

為了客觀地評估各種方法的分類性能,在每個數據集上,本文除訓練樣本外,還獨立生成了相同分布的測試樣本。訓練樣本和測試樣本各有10組,共進行10次重復實驗,以盡量減少因模擬數據的隨機性而帶來的不客觀性。實驗分為兩個階段:第一階段是針對訓練樣本,優化各方法的系統參數;第二階段是根據前一階段得到的參數設置對訓練樣本建模,使用測試樣本來評估各方法的分類性能。優化系統參數時采用網格遍歷法,其中參數C的遍歷范圍是10[-2,…,2];參數λ的遍歷范圍是10[-2,…,2];本文選取使用最廣泛的高斯核,其核帶寬取值為2[-2,…,5]。

Table 2 Description of artificial datasets表2 實驗所用人工數據集

5.2 FrMTL方法的分類能力

本階段將對FrMTL方法進行分類準確率的評估。用于實驗對比的其他方法分別為:(1)對每個任務分別用SVM方法獨立求解,記為SVMs;(2)rMTL方法。其中FrMTL-CVM指的是用核心向量機求解FrMTL相應的二次規劃問題。

在數據集DS1~DS6上,按照實驗流程,對每個對比方法都進行10次重復實驗。在每個數據集上,求得對各個子任務的分類準確率及標準差,如表3所示。圖1顯示的是當子任務之間的偏移量逐漸變大時,也即在數據集DS1~DS6上,各個對比方法在每個數據集上3個子任務的平均準確率。

由表3和圖1可以得到如下結論:

(1)從表3中可以看出,當采用多任務方式同時求解3個相關子任務時,rMTL方法和FrMTL方法及其快速算法FrMTL-CVM的分類性能遠優于用普通SVM方法單獨求解各個子任務。

(2)對比表3中的rMTL方法和FrMTL方法及其快速算法FrMTL-CVM,在6個數據集的共18個子任務的求解中,rMTL方法在7個子任務的求解中取得了較好的效果,FrMTL方法在10次子任務的求解中取得了較好的效果,而快速算法FrMTL-CVM在求解3個子任務時有較好的效果。因而FrMTL方法的分類能力與rMTL方法是可比較的。而FrMTL-CVM方法與rMTL方法也是相當的。

Table 3 Classification accuracy and deviation on DS1~DS6表3 在數據集DS1~DS6上各方法的平均準確率及標準差

Fig.1 Accuracy with different rotations in sub-task圖1 隨子任務之間偏移程度的增加各方法的準確率

(3)由圖1可知,隨著子任務之間偏移量變大,rMTL方法和FrMTL方法的分類性能緩慢下降,但仍然優于采用SVM方法單獨求解各子任務。另外,當子任務之間關聯較強時,rMTL方法和FrMTL方法的分類性能完全相當,而當子任務之間關聯較弱時,這兩個方法的分類能力仍然是相當的??焖偎惴‵rMTLCVM的分類能力與rMTL方法及FrMTL方法總體上是相當的。

5.3 FrMTL方法的時間性能

鑒于在數據集DS2上,rMTL方法和FrMTL方法的分類性能非常接近,本文以數據集DS2為基礎,逐漸增加訓練樣本及測試樣本的容量,以此來評估各方法的時間效率。各數據的容量依次為300,600,1 500,3 000,6 000,15 000,30 000。同樣獨立生成10組訓練樣本及測試樣本,并將各方法在不同容量樣本上的平均準確率與標準差、平均訓練時間及標準差分別報告在表4及表5中(其中—表示在本文實驗環境中無法得到相應結果)。為了能更清晰地分析隨數據量增加各方法的時間性能,以lgn(n為樣本量)為橫坐標,lgS(S為運行時間,單位為s)為縱坐標繪制各方法的時間性能圖,將指數曲線轉化為近線性曲線,斜率代表指數量級,如圖2所示。

Table 4 Classification accuracy and deviation with different dataset sizes表4 各方法在不同數據量下的平均分類準確率及標準差

Table 5 Training time and deviation with different dataset sizes表5 各方法在不同數據量下的平均訓練時間及標準差

Fig.2 Training time with different dataset sizes圖2 隨訓練樣本量的增加各方法的訓練時間

從表4、表5及圖2可以得到如下結論:

(1)從表4中可以看出,隨著訓練數據量的增加,各方法的分類性能逐漸增高,其中FrMTL方法及其快速算法FrMTL-CVM的分類性能與rMTL相當,都優于用普通的SVM方法單獨求解各個子任務。同時,普通的SVM方法及rMTL方法、FrMTL方法都需要預先計算核矩陣,因此相應方法受硬件約束較大,當數據量較大時,相應方法無法繼續求解。而FrMTLCVM無需預先計算核矩陣,能對較大容量的數據集進行訓練,因而能得到泛化能力更強的模型。

(2)從表5中可以看出,在數據量較小時,FrMTLCVM方法在求解時間上并無優勢,但隨著數據量的增加,FrMTL-CVM的求解時間緩慢增加,明顯優于普通二次規劃的求解。

(3)由圖2可知,當采用普通SVM方法求解時,隨著數據量的變化,SVMs及FrMTL方法所用時間具有相同的趨勢,準直線的斜率接近于3,顯示出用普通方法求解二次規劃問題時的O(n3)時間復雜度。當用SMO方法求解rMTL問題時,斜率略大于2,與其O(n2.3)的理論時間復雜度一致。而采用CVM方法求解的FrMTL-CVM算法所用時間的準直線的斜率趨勢略大于1,與其理論上的近線性時間復雜度相符,時間性能遠優于SMO方法。當然,FrMTL-CVM方法訓練所用時間的穩定性并不算好,其原因是當用CVM方法求解時,不同數據集上求解所得的支持向量數目可能有較大差異,由此造成了求解時間的波動性較大。但總體而言,FrMTL-CVM算法的時間性能得到保障,其時間復雜度的上界為O(n/ε2+1/ε4),ε為設定的近似誤差。

由實驗可知,FrMTL方法的分類性能與rMTL方法相當,采用快速方法求解的FrMTL-CVM方法在分類性能上并無很大變化,仍然與rMTL方法相當。而當數據量較大時,FrMTL-CVM方法的處理能力及其時間性能遠優于其他方法。

6 結束語

本文提出了面向多任務學習的快速正則化多任務學習方法FrMTL。由于借鑒了rMTL方法及ITASVM方法中共享矢量的思想及兼顧局部優化和全局優化的優點,FrMTL方法的分類性能與rMTL方法是等價的。而FrMTL-CVM方法良好的時間性能使面對多任務大數據集時仍能獲得相對較快的決策速度。當然FrMTL方法仍需要進一步研究以適應更多的應用場景,特別是當多個子任務呈網狀分布或樹狀分布時,如何解決此類更復雜耦合關系帶來的矩陣求逆問題,將是更有意義的挑戰。

[1]Caruana R.Multitask learning[J].Machine Learning,1997, 28(1):41-75.

[2]Baxter J.A model of inductive bias learning[J].Journal of Artificial Intelligence Research,2000,12(1):149-198.

[3]Sun Shiliang.Multitask learning for EEG-based biometrics [C]//Proceedings of the 19th International Conference on Pattern Recognition,Tampa,USA,Dec 8-11,2008.Washington:IEEE Computer Society,2008:1-4.

[4]Yuan Xiaotong,Yan Shuicheng.Visual classification with multi-task joint sparse representation[J].IEEE Transactions on Image Processing,2012,21(10):4349-4360.

[5]Parameswaran S,Weinberger K.Large margin multi-task metric learning[C]//Advances in Neural Information Processing Systems 23:Proceedings of the 24th Annual Conference on Neural Information Processing Systems,Vancouver,Canada,Dec 6-9,2010.Red Hook,USA:Curran Associates,2011:1867-1875.

[6]Evgeniou T,Pontil M.Regularized multi-task learning[C]// Proceedings of the 10th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,Seattle, USA,Aug 22-25,2004.New York:ACM,2004:109-117.

[7]Ji You,Sun Shiliang.Multitask multiclass support vector machines:model and experiments[J].Pattern Recognition, 2013,46(3):914-924.

[8]Zhang Zhihao,Zhou Jie.Multi-task clustering via domain adaptation[J].Pattern Recognition,2012,45(1):465-473.

[9]Xie Saining,Lu Hongtao,He Yangcheng.Multi-task coclustering via nonnegative matrix factorization[C]//Proceedings of the 21st International Conference on Pattern Recognition,Tsukuba,Japan,Nov 11-15,2012.Washington:IEEE Computer Society,2012:2954-2958.

[10]Kong Shu,Wang Donghui.A multi-task learning strategy for unsupervised clustering via explicitly separating the commonality[C]//Proceedings of the 21st International Conference on Pattern Recognition,Tsukuba,Japan,Nov 11-15, 2012.Washington:IEEE Computer Society,2012:771-774.

[11]Wang Hua,Nie Feiping,Huang Heng,et al.A new sparse multi-task regression and feature selection method to identify brain imaging predictors for memory performance[C]//Proceedings of the 2011 IEEE International Conference on Computer Vision,Barcelona,Spain,Nov 6-13,2011.Washington:IEEE Computer Society,2011:557-562.

[12]Solnon M,Arlot S,Bach F.Multi-task regression using minimal penalties[J].Journal of Machine Learning Research, 2011,13(3):2773-2812.

[13]Zhou Jiayu,Yuan Lei,Liu Jun,et al.A multi-task learning formulation for predicting disease progression[C]//Proceedings of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,San Diego, USA,Aug 6-13,2011.New York:ACM,2011:814-822.

[14]Gong Pinghua,Ye Jieping,Zhang Changshui.Robust multi-task feature learning[C]//Proceedings of the 18th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, Beijing,Aug 12-16,2012.New York:ACM,2012:895-903.

[15]Liang Yixiong,Liu Lingbo,Xu Ying,et al.Multi-task GLOH feature selection for human age estimation[C]//Proceedings of the 18th IEEE International Conference on Image Processing,Brussels,Belgium,Sep 11-14,2011.Washington:IEEE Computer Society,2011:565-568.

[16]Friedman J,Hastie T,Tibshirani R.Sparse inverse covariance estimation with the graphical lasso[J].Biostatistics, 2008,9(3):432-441.

[17]Chen Jianhui,Tang Lei,Liu Jun,et al.A convex formulation for learning a shared predictive structure from multiple tasks[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2013,35(5):1025-1038.

[18]Widmer C,Leiva J,Altun Y,et al.Leveraging sequence classification by taxonomy-based multitask learning[C]// LNCS 6044:Proceedings of the 14th Annual International Conference,Lisbon,Portugal,Apr 25-28,2010.Berlin,Heidelberg:Springer,2010:522-534.

[19]Luo Ping,Zhuang Fuzhen,Xiong Hui,et al.Transfer learning from multiple source domains via consensus regularization [C]//Proceedings of the 17th ACM Conference on Information and Knowledge Management,Napa Valley,USA,Oct 26-30,2008.New York:ACM,2008:103-112.

[20]Zhuang Fuzhen,Luo Ping,Xiong Hui,et al.Cross-domain learning from multiple sources:a consensus regularization perspective[J].IEEE Transactions on Knowledge and Data Engineering,2010,22(12):1664-1678.

[21]Jiang Yizhang,Chung F L,Ishibuchi H.Multi-task TSK fuzzy system modeling by mining inter-task common hidden structure[J].IEEE Transactions on Cybernetics,2015, 45(3):548-561.

[22]Zhang Minling.Research on multi-task learning[EB/OL]. (2011-08-10)[2016-01-30].http://www.paper.edu.cn/releasepaper/content/201108-156.

[23]Platt J C.Fast training of support vector machines using sequential minimal optimization[M]//Advances in Kernel Methods-Support Vector Learning.Cambridge,USA:MIT Press,1999: 185-208.

[24]Shi Yingzhong,Chung F L,Wang Shitong.An improved TA-SVM method without matrix inversion and its fast implementation for non-stationary datasets[J].IEEE Transactions on Neural Networks&Learning Systems,2015,25 (9):2005-2018.

[25]Tsang I W H,Kwok J T Y,Zurada J A.Generalized core vector machines generalized core vector[J].IEEE Transactions on Neural Networks Machines,2006,17(5):1126-1139.

[26]Qian Pengjiang,Wang Shitong,Deng Zhaohong,et al.Fast spectral clustering for large data sets using minimal enclosing ball[J].Acta Electronica Sinica,2010,38(9):2036-2041.

[27]Qian Pengjiang,Chung F L,Wang Shitong,et al.Fast graphbased relaxed clustering for large data sets using minimal enclosing ball[J].IEEE Transactions on Systems Man& Cybernetics:Part B Cybernetics,2012,42(3):672-687.

[28]Kumar P,Mitchell J S B,Yildirim E A.Approximate minimum enclosing balls in high dimensions using core-sets[J]. Journal of ExperimentalAlgorithmics,2003,8:1-29.

附中文參考文獻:

[22]張敏靈.多任務學習的研究[EB/OL].(2011-08-10)[2016-01-30].http://www.paper.edu.cn/releasepaper/content/201108-156.

[26]錢鵬江,王士同,鄧趙紅,等.基于最小包含球的大數據集快速譜聚類算法[J].電子學報,2010,38(9):2036-2041.

SHI Yingzhong was born in 1970.He is a Ph.D.candidate at School of Digital Media,Jiangnan University,associate professor at Wuxi Institute of Technology,and the member of CCF.His research interests include artificial intelligence,pattern recognition,intelligent modeling methods and their applications.

史熒中(1970—),男,江南大學數字媒體學院博士研究生,無錫職業技術學院副教授,CCF會員,主要研究領域為人工智能,模式識別,智能建模及其應用。

WANG Juqin was born in 1982.She is an M.S.candidate at Department of Computer Science,Jiangnan University, and lecturer at Wuxi Institute of Technology.Her research interests include intelligent modeling methods and their applications.

汪菊琴(1982—),女,江蘇吳江人,江南大學計算機系碩士研究生,無錫職業技術學院講師,主要研究領域為智能建模及其應用。

XU Min was born in 1981.She is a post-doctor researcher at School of Digital Media,Jiangnan University.Her research interests include artificial intelligence,pattern recognition and their applications.

許敏(1981—),女,江蘇無錫人,江南大學數字媒體學院博士后,主要研究領域為人工智能,模式識別及其應用。

WANG Shitong was born in 1964.He is a professor at School of Digital Media,Jiangnan University.His research interests include artificial intelligence,pattern recognition and bioinformatics.

王士同(1964—),男,江蘇揚州人,江南大學數字媒體學院教授,主要研究領域為人工智能,模式識別,生物信息。

FastAlgorithm for Regularized Multi-Task Learning*

SHI Yingzhong1,2+,WANG Juqin1,2,XU Min1,WANG Shitong1
1.School of Digital Media,Jiangnan University,Wuxi,Jiangsu 214122,China
2.College of Internet of Things,Wuxi Institute of Technology,Wuxi,Jiangsu 214121,China
+Corresponding author:E-mail:shiyz@wxit.edu.cn

Regularized multi-task learning(rMTL)method and its extensions have achieved remarkable achievement in theoretical research and applications.However,previous research focuses on the relationship of tasks instead of the complexity of algorithms,the high computational cost of these methods are impractical for large scale datasets.In order to overcome this shortcoming,this paper proposes a fast regularized multi-task learning(FrMTL) based on core vector machine(CVM)theory.FrMTL is competitive with rMTL in classification accuracy while FrMTLCVM can make a decision rapidly for large scale datasets because of the merit of asymptotic linear time complexity. The effectiveness of the proposed classifier is also experimentally confirmed.

multi-task learning;large scale dataset;core vector machine;fast classification

2016-03,Accepted 2016-06.

A

TP391

*The National Natural Science Foundation of China under Grant No.61170122(國家自然科學基金面上項目);the New Century Excellent Talents Foundation from Ministry of Education of China under Grant No.NCET-120882(教育部新世紀優秀人才支持計劃); the Top-Notch Academic Program of Jiangsu Higher Education Institutions under Grant No.PPZY2015C240(江蘇省高校品牌專業建設工程資助項目).

CNKI網絡優先出版:2016-06-23,http://www.cnki.net/kcms/detail/11.5602.TP.20160623.1401.016.html

猜你喜歡
分類實驗方法
記一次有趣的實驗
分類算一算
做個怪怪長實驗
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 538国产视频| 日韩在线永久免费播放| 四虎国产在线观看| 亚洲天堂精品在线| 在线毛片免费| 国产精品久久久久久久久kt| 亚洲三级视频在线观看| 国产黄色视频综合| 91无码国产视频| 999精品在线视频| 国产青青操| 日韩人妻无码制服丝袜视频| 天天综合色网| 国产精品手机在线播放| 亚洲三级色| 久久久久久久久久国产精品| 亚洲三级色| 国产黄网站在线观看| 91九色视频网| 亚洲无限乱码| 99视频在线免费| 青青青视频蜜桃一区二区| 在线观看国产黄色| 人妻丝袜无码视频| 国产色爱av资源综合区| 亚洲日韩精品伊甸| 亚洲成年人片| 欧美激情网址| 国产精品欧美激情| a级毛片免费网站| 日韩成人高清无码| 麻豆精品在线| 久久伊人久久亚洲综合| 中文字幕不卡免费高清视频| 精品视频一区二区观看| 久久国产精品娇妻素人| 在线色国产| 国产精品污污在线观看网站| 伊人久久久久久久| 亚洲精品人成网线在线| 97精品久久久大香线焦| 亚洲一区黄色| 欧美日韩资源| 中文天堂在线视频| 亚洲精品天堂自在久久77| 国产真实乱人视频| 国产精品网址你懂的| 久久久久88色偷偷| 欧美在线观看不卡| yy6080理论大片一级久久| 欧美色综合网站| 国产对白刺激真实精品91| 国产日韩欧美视频| 91久久性奴调教国产免费| 国产青榴视频在线观看网站| 亚洲欧美在线综合一区二区三区 | 婷婷五月在线| 五月天久久综合| 亚洲第一成年人网站| 狠狠操夜夜爽| 极品性荡少妇一区二区色欲| 九九久久99精品| 伦伦影院精品一区| 99久久国产综合精品2020| 精品午夜国产福利观看| 91无码视频在线观看| 亚洲视频三级| 九九热精品视频在线| 国产一区三区二区中文在线| 大乳丰满人妻中文字幕日本| 久久免费精品琪琪| 欧美一级特黄aaaaaa在线看片| 欧美va亚洲va香蕉在线| 免费久久一级欧美特大黄| 欧美成人免费一区在线播放| 日本91视频| 欧美国产日韩在线播放| 国产成人免费| 尤物精品视频一区二区三区| 亚洲国产在一区二区三区| 午夜国产精品视频| 国产亚洲精|