999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于在線被動-主動學習的多特征融合圖像分類

2018-05-22 01:17:50
實驗室研究與探索 2018年3期
關(guān)鍵詞:分類特征優(yōu)化

李 敏

(河南經(jīng)貿(mào)職業(yè)學院, 鄭州 450018)

0 引 言

圖像分類的目標是將圖像根據(jù)其包含的視覺信息,將其劃分到對應(yīng)的語義類別。要實現(xiàn)圖像的準確分類,首要任務(wù)是確定圖像的相似性,主要是如何度量圖像與相應(yīng)語義類別之間的相互關(guān)系。由于同一類圖像之間的內(nèi)在變化(如光照變化、視角變化、遮擋等),確定圖像與類別之間的相似性關(guān)系,是一個挑戰(zhàn)問題,也是整個計算機視覺領(lǐng)域的重點關(guān)注和研究的問題。

針對上述圖像與語義類別的相似性度量問題,通常有兩種解決思路:① 設(shè)計能夠抓住同一類別圖像共同具有的不變性視覺特征,這些特征能夠魯棒地表述同一個類別下圖像所具有的特定屬性,這些屬性在不同的圖像類別中具有較強的可區(qū)分度。② 組合多個視覺特征,不同的視覺特征揭示著圖像中包括的不同視覺屬性,如顏色、紋理和形狀等信息。這些被組合的視覺特征往往起到相互補充的作用,因為不同的視覺特征在不同的圖像類別中或不同的應(yīng)用領(lǐng)域起著不同的作用,即不存在“放之四海皆準”的視覺特征。就近年的研究現(xiàn)狀來看,研究者們青睞于以多特征組合的方式進行圖像與語義類別之間的相似性度量,進而提高圖像分類的準確度[1-2]。

本文提出了一種改進的基于在線被動-主動學習(Online Passive-Aggressive,OPA)算法[3]來獲取不同圖像特征下的加權(quán)權(quán)值。鑒于OPA算法使用數(shù)據(jù)采樣以在線的方式更新特征之間的加權(quán)權(quán)值,本文推導出求解加權(quán)系數(shù)的閉式解,以加快算法的執(zhí)行效率。實驗結(jié)果表明,與多核學習算法相比,基于在線被動-主動學習的多特征融合圖像分類算法在保持圖像分類準確度的情況下,所需的計算時間只有多核學習算法的10%左右。提出的算法在滿足確保圖像分類準確度的同時,提高了多特征組合的執(zhí)行效率,降低了基于直方圖交核學習算法計算復雜度。

1 基于多核學習的多特征組合方法

組合多種視覺特征吸引了計算機視覺研究者的廣泛興趣,因為隨著特征的增多,視覺相似性度量的準確度也會相應(yīng)提高[4]。很多研究工作通過采用某種方式將所選特征進行組合,再應(yīng)用機器學習方法得到相應(yīng)的能夠很好地度量視覺相似性的特征。基于核函數(shù)的方法是求解這類問題的首選機器學習方法,因為核函數(shù)可以被看作是一種相似性的度量方式。基于核函數(shù)的方法對每個視覺特征定義一個核函數(shù)來度量該特征之間的相似性,并且不依賴圖像特征的維數(shù)。然后以某些恰當?shù)姆绞綄@些核函數(shù)或者對應(yīng)的核矩陣進行加權(quán)組合。

對于核函數(shù)的組合方式,最簡單的莫過于取平均值,即把所有的核函數(shù)加起來再除以總個數(shù)。這種組合方式下,如果某個特征并不適合當前任務(wù)或者是噪聲特征時,圖像分類性能反而會有所下降[5]。近幾年,多核學習(Multiple Kernel Learning,MKL)算法的發(fā)展對多特征組合的研究工作帶來了巨大的成功[6]。多核學習算法的目的在于從成百上千的核函數(shù)中自動發(fā)掘那些對當前任務(wù)合適的核函數(shù)或核矩陣,并為這些核函數(shù)分配相應(yīng)的權(quán)值[7]。多核學習算法本質(zhì)上是將多個核函數(shù)的組合轉(zhuǎn)化為求解一個復雜的凸優(yōu)化問題。如果將多個核函數(shù)以線性加權(quán)的方式組合,則在多核學習框架下配合L1范數(shù)的稀疏限制條件,可以得到分類器模型的稀疏解,即只有少數(shù)幾個核函數(shù)的權(quán)值非零,而大部分核函數(shù)的權(quán)值為零。解的稀疏性有兩個方面的優(yōu)勢:① 能夠很好地對結(jié)果進行解釋,權(quán)值非零的核函數(shù)能夠較好地度量數(shù)據(jù)之間的相似性;② 在對后續(xù)新的數(shù)據(jù)進行分析時,能夠減少計算量。通過凸優(yōu)化理論確保了最終解的唯一性。

多核學習算法自主地組合多個核函數(shù),其本身具有3個方面的優(yōu)勢[7-8]:① 核函數(shù)與特征的維數(shù)無關(guān),而視覺計算領(lǐng)域中的特征通常都是上千維的,多個核函數(shù)的組合自然也與特征的維數(shù)無關(guān);② 核函數(shù)僅考慮的是特征,因此,多核學習可以組合來自多個數(shù)據(jù)源的不同特征;③ 多核學習在轉(zhuǎn)化為凸優(yōu)化的表示時,通過引入正則化項來避免出現(xiàn)過擬合現(xiàn)象,或者給出相應(yīng)的先驗性限制條件。但是,多核學習的計算復雜性非常高,雖然已經(jīng)有了一些快速算法,但都是針對中等規(guī)模數(shù)據(jù)量的,難以達到視覺計算的實時性需要。另外,研究表明線性組合方式的多核學習模型本身存在一些不足,當核函數(shù)處在正交的情形時,一些重要的信息將不會被選擇;當兩個核函數(shù)高度相關(guān)時,最終解往往是不唯一的[9];而當核函數(shù)相互正交時,則算法會只選取其中一個,而忽略另一個,即使這兩個核函數(shù)均對當前圖像分類應(yīng)用起著重要的作用。

Kk(xi,xj)=κ(fk(xi),fk(xj))

(1)

式中:核函數(shù)κ(·,·)屬于可再生希爾伯特空間[10];K為第k個視覺特征形成的核矩陣。

對多個特征加權(quán)組合,最直接的方式有兩個:以平均的方式進行加權(quán)和將所有的核矩陣對應(yīng)相乘。以平均的方式進行加權(quán)其表達式為

(2)

再將組合后的核矩陣K*代入到相應(yīng)的基于核的分類器學習算法,如支持向量機等。

將多個視覺特征形成的核矩陣以乘積的形式進行組合,其表達式為

(3)

同樣將K*代入到相應(yīng)的基于核的分類器學習算法。

多核學習算法將多個視覺特征形成的核矩陣以加權(quán)的方式進行組合,并將問題轉(zhuǎn)化為凸優(yōu)化理論問題。一般而言,在圖像分類任務(wù)中,多個核矩陣以線性方式進行加權(quán)組合,即

(4)

對系數(shù)β采用不同的限制條件導致不同的多核學習算法,如l1-MKL其系數(shù)限制為

該限制條件使得最終求解結(jié)果更具有可解釋性,即不相關(guān)的視覺特征其系數(shù)為零,l1-MKL也因此而常被用于做特征選擇。因此,基于多核學習的多特征組合算法通常需要求解下述凸優(yōu)化問題[2]:

(4)

(5)

式中,l(z)=max(0,1-z)是hinge損失函數(shù)。多核學習的最終分類器函數(shù)表示為:

(6)

大多數(shù)多核學習算法主要關(guān)注兩個研究點[6]:①通過設(shè)計不同的目標函數(shù)和核函數(shù)的組合形式,以提高分類模型的準確度;②設(shè)計不同的優(yōu)化求解策略,提高多核學習算法的執(zhí)行效率,適應(yīng)當前大數(shù)據(jù)發(fā)展趨勢。由于多核學習算法通常將核函數(shù)的組合形式嵌入到半正定優(yōu)化框架或者錐優(yōu)化等復雜的凸優(yōu)化問題,而這類凸優(yōu)化問題的計算復雜度為O(n3),這對于處理圖像、視頻等多媒體數(shù)據(jù)而言是很不切實際的。

2 基于在線被動-主動學習的圖像分類

(7)

式中,mt是第t個圖像特征的維度,d是圖像特征的個數(shù),即圖像分類任務(wù)使用的特征數(shù)量。其他基于直方圖表示的核函數(shù)同樣可以應(yīng)用在式(7)中形成相應(yīng)的核矩陣。

由于不同的圖像特征只能揭示圖像的某一方面屬性,故不同的構(gòu)造核矩陣也只是揭示了圖像某些方面的視覺特性,若要盡可能地揭示圖像多方面的視覺特性,則需要將不同的構(gòu)造核矩陣以其貢獻大小進行加權(quán)融合。于是,構(gòu)造核矩陣的加權(quán)融合可在數(shù)學上表示為:

(8)

本文的終極目標是確保式(8)所示的加權(quán)相似性度量在度量相同標簽的圖像時其值比度量不同標簽的圖像時其值要大,即相同類別的圖像相似性大于不同類別的圖像相似性。理想情況下,加權(quán)相似性度量式(8)中的權(quán)值η∈Rd應(yīng)該滿足:

Kη(i,p)≥Kη(i,n),?(i,p,n)∈Γ

(9)

(10)

?(i,p,n)∈Γ

式中:Γ={(i,p,n)|yi=yp,yi≠yn}為數(shù)據(jù)采樣三元組;yi表示圖像Ii的標簽。

然而,不可能使得所有的限制條件式(9)均能夠同時滿足,因此,允許少部分圖像違背限制條件。通過引入松弛變量ξipn,將上述限制條件式(9)轉(zhuǎn)化為:

Kη(i,p)-Kη(i,n)≥1-ξipn

(11)

?(i,p,n)∈Γ

松弛變量ξipn可以看作是對違背限制條件式(9)的圖像進行一定的懲罰,即損失函數(shù)。在軟限制條件式(11)下,本文的目標是最小化所有采樣三元組的損失值,其數(shù)學表示為min∑i,p,nξipn。于是,類似于支持向量機的數(shù)學表達方式,將上述損失函數(shù)及其限制條件形式化表示為二次優(yōu)化問題:

(12)

(13)

二次優(yōu)化問題表示為式(12)和式(13),是一個凸優(yōu)化問題,其存在唯一解,可以直接通過數(shù)學優(yōu)化工具求解,如LIBSVM[12]和MOSEK[13]等。然而,直接求解二次優(yōu)化問題其計算復雜度為,不適合于圖像分類等大規(guī)模數(shù)據(jù)處理應(yīng)用,尤其是當數(shù)據(jù)量很大時,如網(wǎng)絡(luò)圖像分類等應(yīng)用場景。

采用數(shù)學優(yōu)化程序包直接優(yōu)化二次問題時需要仔細考慮算法的執(zhí)行效率和內(nèi)存消耗情況,尤其是當數(shù)據(jù)集中圖像本身數(shù)量以及其視覺特征數(shù)量很多時。通過改進的OPA算法[3]以在線學習的方式求解上述二次優(yōu)化問題。OPA算法是基于數(shù)據(jù)采樣的在線學習算法,該算法的目標函數(shù)需要取一個折衷,這個折衷是在當前訓練數(shù)據(jù)下?lián)p失函數(shù)最小和當前迭代參數(shù)與上一次迭代參數(shù)距離最小之間實現(xiàn)。首先定義三元組(i,p,n)的hinge損失函數(shù)為:

L(η)=max(0,1-Kη(i,p)+Kη(i,n))

(14)

由上述討論得知,算法的最終目標是使得對所有的三元組(i,p,n),hinge損失函數(shù)∑(i,p,n)∈ΓL(η)最小。鑒于當數(shù)據(jù)集中圖像數(shù)量很大時,直接求解二次優(yōu)化問題式(12)變得不可行,因此,通過求解其近似解來代替其準確解,以期能夠快速求解上述二次優(yōu)化問題。由于直接最小化損失函數(shù)∑(i,p,n)∈ΓL(η)很困難,于是,若對于每個三元組(i,p,n)使得其對于得損失函數(shù)L(η)最小,則可以得到上述優(yōu)化問題的近似解。本文通過改進的OPA算法,使得對每個三元組(i,p,n)最小化其損失函數(shù)L(η)來迭代地求解權(quán)值。類似于文獻[14],本文將二次優(yōu)化問題(4-7)轉(zhuǎn)化為求解下述問題:

(15)

(16)

因此,對于迭代次數(shù)i,新的權(quán)值ηi需要在上一次的更新結(jié)果ηi-1和最小化當前三元組下的損失函數(shù)L(η)之間取一個折中。

接下來,類似于文獻[3],本文給出上述優(yōu)化問題式(15)、(16)的求解過程。當L(η)=0時,可以清楚看到此時η=ηi-1滿足上述限制條件。當L(η)≠0時,定義式(15)和(16)優(yōu)化問題的拉格朗日表達式為

λξipn+τ(1-Kη(i,p)+Kη(i,n)-ξipn)

(17)

式中,拉格朗日乘數(shù)算子τ>0,λ>0。當式(17)相對于權(quán)值η取最優(yōu)解時,其對應(yīng)的偏導數(shù)等于零,即

根據(jù)式(17),展開上式得

η-ηi-1-τ(κ(i,p)-

κ(i,n))=0

其中,κ(i,p)=[K1(i,p),…,Kd(i,p)]T∈Rd為相應(yīng)的核矩陣對應(yīng)元素組成的向量。新一次迭代得到最優(yōu)權(quán)值為:

η=ηi-1-τ(κ(i,p)-κ(i,n))

(18)

到此為止,仍需要求解拉格朗日乘數(shù)算子τ。對拉格朗日表達式(17)相對于松弛變量ξipn求偏導數(shù)并令其偏導數(shù)等于零,則有

τ-λ=0

(19)

由于拉格朗日乘數(shù)算子τ>0,λ>0,故0<τ

將式(18)和式(19)代入到拉格朗日表達式(17),可得:

τ(1-Kηi-1(i,p)+Kηi-1(i,n))

(20)

對式(20)求取其相對于拉格朗日乘數(shù)算子τ的偏導數(shù),并令偏導數(shù)為零,有

對上式進行整理得

由上述推導得知,0<τ

(21)

通過上述推導過程,可以得到式(15)優(yōu)化問題的閉式解式(18)和式(21)。為得到優(yōu)化問題式(15)的最終解,只需要不斷迭代執(zhí)行式(18)和式(21)即可,即以在線采樣的方式從訓練數(shù)據(jù)中不斷采樣三元組(i,p,n)∈Γ,直到滿足條件為止。

綜上所述,算法1總結(jié)了本文改進的OPA算法進行在線加權(quán)的權(quán)值學習算法過程。值得注意的是,該算法給出了權(quán)值更新的閉式解,從后續(xù)實驗效果來看,閉式解使得算法在計算效率上有很大的優(yōu)勢。

算法1 基于被動-主動學習的圖像分類算法

初始化:η=[1,…,1]T

重復

采樣三元組(i,p,n)∈Γ;

更新權(quán)值η=ηi-1-τ(κ(i,p)-κ(i,n)),其中,

τi滿足式(21),κ(i,p)=[K1(i,p),…,Kd(i,p)]T∈Rd。

直到收斂條件滿足,即最大迭代次數(shù)滿足。

3 實驗設(shè)計

本文主要是在Caltech-101數(shù)據(jù)集[15]和Scene-15數(shù)據(jù)集[16]這兩組圖像分類數(shù)據(jù)集上通過實驗驗證上述提出的基于在線被動-主動學習的圖像分類算法(算法1)的有效性。

3.1 實驗中使用的圖像視覺特征

圖像分類中采用不同的視覺特征會取得不同的分類準確度,因為不同的視覺特征往往只能反映出圖像中不同的像素屬性及其統(tǒng)計結(jié)果。在本文實驗中盡量使用開源程序包Vlfeat[17]已經(jīng)實現(xiàn)的視覺特征,其他一些視覺特征也來源于相應(yīng)的程序包,并對程序包做相應(yīng)的說明。本文實驗中使用的特征如下:

(1) SIFT特征[18]。在本文實驗中,對每幅圖像使用密集采樣方式每隔3個像素采樣的子圖像。在提取SIFT特征之后,使用空間金字塔匹配模型[14]的視覺詞袋模型對每個圖像的視覺特征進行量化,金字塔劃分為2l×2l=0,1,2。3個不同尺度,視覺字典設(shè)置為(400、1 000和4 000)3個不同規(guī)模。同一個金字塔尺度構(gòu)建同一個視覺特征表示,在構(gòu)建核矩陣時,使用核、直方圖交核以及線性核這3個不同的核函數(shù),結(jié)核3個不同規(guī)模的視覺字典,共構(gòu)建9個核矩陣。

(2) 彩色圖像的SIFT特征[19]。本文實驗RGB彩色空間和HSV彩色空間在不同的顏色通道上分別提取SIFT特征,再組合成一個完整的圖像視覺特征表示,因此,相比于傳統(tǒng)的SIFT特征,其維度為384。對提取的彩色圖像的SIFT特征按照上述的SIFT特征一樣處理彩色圖像的SIFT特征,即相同的視覺字典、核函數(shù)等。RGB-SIFT和HSV-SIFT分別得到9個核矩陣,共18個核矩陣。

(3) Fisher特征向量[20-22]。Fisher特征向量可以獲取圖像像素間的0階、1階和2階統(tǒng)計屬性。由于Fisher特征向量的維度為(2d+1)K,其中d是基礎(chǔ)特征的維度,如使用SIFT特征,則d=128,K是混合高斯的個數(shù)。在本文的實驗中使用改進的Fisher特征向量[21],設(shè)置混合高斯的高斯函數(shù)為256個,基礎(chǔ)特征使用SIFT特征。由于該特征維度過高,本文使用主成分分析方法將圖像的特征降低到64K維,即將每個SIFT特征降到64K維。在特征歸一化方面使用冪歸一化(Power Normalization),設(shè)置歸一化因子為0.5。該特征使用χ2核和線性核獲取2個核矩陣。

(4) 局部二值模式LBP。局部二值模式描述的是圖像的紋理信息,最早用于做紋理識別。該視覺特征相比于傳統(tǒng)的紋理特性而言,其高準確性和低計算復雜度贏得了許多研究工作者的青睞。本文使用LBP8,1特征,因為該特征滿足旋轉(zhuǎn)不變性,所以該特征使用二進制編碼,故使用直方圖交核對其進行映射。該特征與SIFT特征一樣,使用3層空間金字塔模型進行簡單的空間劃分,每個金字塔層分別獲取一個核矩陣,共計3個核矩陣。

(5) 自相似特征(Self-similarity features)。自相似特征用于描述目標內(nèi)在的相似性關(guān)系,該特征通過在一個固定大小的矩形框中,每隔5個像素進行采樣并計算采樣點之間的相似關(guān)系得到的。在整個圖像中,每次采樣大小為的窗口圖像,每個窗口圖像之間相距40個像素,并計算每個窗口圖像之間的相關(guān)性映射。最后,將這些窗口圖像的相關(guān)性關(guān)系量化為幅度為3個量綱,角度為10個量綱的二維直方圖,即自相似特征的維度為30。對自相似特征采用與SIFT特征一樣的處理方式,得到9個核矩陣。本文使用牛津大學視覺幾何組的程序包來計算的自相似特征,該程序包的下載地址為:http://www.robots.ox.ac.uk/~vgg/software/SelfSimilarity/。

綜上所述,本文共使用5組視覺特征,共計41核矩陣進行實驗驗證。

3.2 對比實驗中使用的算法

近年來,多核學習算法取得了長足的發(fā)展,形成了各種各樣的算法,很難對所有的多核學習算法進行完整的評價與對比,因此,參與本文的實驗對比的多核學習算法的選取準則有兩個:① 在圖像分類領(lǐng)域使用過;② 在圖像分類領(lǐng)域應(yīng)用范圍比較廣泛。鑒于此,本文對比實驗中使用的多核學習算法有:

(1) 核矩陣的算術(shù)平均加權(quán)組合。平均加權(quán)組合是最簡單的多核學習的組合方法;

(2) 核矩陣的對應(yīng)乘積加權(quán)。乘積加權(quán)是對多個核函數(shù),按照其對應(yīng)的元素相乘,然后再求取其對應(yīng)的根;

(3) 多核學習算法。多核學習算法是將多個核矩陣及其對應(yīng)的加權(quán)權(quán)值組合在同一個凸優(yōu)化問題進行統(tǒng)一求解。由于該凸優(yōu)化問題的計算復雜度為o(n3),因而出現(xiàn)了許多快速求解算法。本文使用SimpleMKL算法[25]來求解下述多核學習算法的凸優(yōu)化問題:

因此,本文實驗對比的共4個算法,即上述3個組合算法和算法1。

4 實驗結(jié)果與分析

這一節(jié)主要給出本文的實驗結(jié)果與相應(yīng)的分析,所有實驗均在Caltech-101數(shù)據(jù)集和Scene-15數(shù)據(jù)集上進行。所有實驗均使用Matlab語言實現(xiàn),視覺特征除了自相似特征外,均使用Vlfeat軟件程序包[17]上的實現(xiàn)方式。凸優(yōu)化問題使用SimpleMKL算法的程序包求解,其余算法均使用LIBSVM程序包[12]求解。所有實驗除了多核學習算法的凸優(yōu)化問題外,均運行10次,求取均值和方差,凸優(yōu)化問題由于其高計算復雜度僅運行3次,取其均值和方差進行實驗對比。

4.1 Caltech-101數(shù)據(jù)集的實驗結(jié)果對比與分析

表1給出了相應(yīng)的對比算法在Caltech-101數(shù)據(jù)集上的圖像分類準確度對比結(jié)果。由表1可以看到,多核學習算法取得了最佳的分類準確度,即在15個訓練圖像時,可以取得67.04%的準確度,在30個訓練圖像時,可以取得78.16%的圖像分類準確度。而本文提出算法的分類準確度均高于核矩陣的平均組合和核矩陣的乘積組合?;谔岢龅幕谠诰€被動-主動學習的圖像分類算法(算法1)在15個訓練圖像時,可以取得66.59%的分類準確度,在30個訓練圖像時,可以取得77.29%的準確度,這與多核學習算法的分類準確度相差不到1個百分點。而單個特征的最佳結(jié)果在15個訓練圖像和30個訓練圖像時,分別可以獲得62.37%和73.02%的分類準確度,這樣的結(jié)果與核矩陣的平均組合和核矩陣的乘積組合的結(jié)果相差不大,由此可以說明,對核矩陣進行簡單的組合并不能對圖像分類結(jié)果有較大的提升。值得說明的是,取得最佳分類結(jié)果的單個特征是Fisher特征向量。

表1 Caltech-101數(shù)據(jù)集的圖像分類準確度對比 (%)

表2給出了參與對比的4個算法在Caltech-101數(shù)據(jù)集上的計算時間對比結(jié)果。需要說明的是,本文考慮的計算時間不包括圖像的特征提取時間和構(gòu)建核矩陣的時間,僅僅只包含從多個核矩陣到得到最終分類器所需要的時間。值得注意的是,除了多核學習算法外,其余的算法均可以在模型訓練之前即可得到多個核矩陣組合之后的核矩陣表示。所有時間計算結(jié)果均來自相同的個人計算機,該計算機的配置如下:Intel Core i5四核處理器,主頻為3.4 GHz,8 GB內(nèi)存,Windows 7 64位操作系統(tǒng)。所有實驗運行在Matlab 2012b平臺,編程語言為Matlab,執(zhí)行過程中不開啟并行模式,所有實驗均采樣單線程。

表2 Caltech-101數(shù)據(jù)集的計算時間對比 s-1

從計算時間上來看,核矩陣的算術(shù)平均加權(quán)組合和核矩陣的對應(yīng)乘積加權(quán)兩個方法的耗時最少,處理41個核矩陣的組合僅僅只需要幾十秒,其中LibSVM的訓練時間不足10 s時間。多核學習算法的運行時間最長,在15個訓練圖像時,需要超過20 min的運行時間,當訓練圖像為30時,需要超過30 min的運行時間。這樣的運行時間,很難適應(yīng)當前大數(shù)據(jù)的需求,如ImageNet圖像數(shù)據(jù)集等,而多個核函數(shù)的簡單組合又不能滿足準確度的需求。本文提出的基于在線被動-主動學習的圖像分類研究算法需要的運行時間遠遠低于多核學習算法,僅為多核學習算法相應(yīng)時間的10%左右。結(jié)合表1的結(jié)果來看,本文提出的算法在減少算法執(zhí)行時間的同時,基本上保持了圖像分類的準確度,當大數(shù)據(jù)環(huán)境下,往往是以犧牲性能換取高效的結(jié)果反饋。

綜上所述,結(jié)合表1和表2的實驗結(jié)果,可以得出結(jié)論:本文提出的基于在線被動-主動學習的圖像分類算法在保障圖像分類準確度的情況下,有效地降低了算法的計算復雜度,使得算法能夠在更短的時間內(nèi)處理相應(yīng)的圖像數(shù)量,可以為大數(shù)據(jù)環(huán)境下的圖像分類研究提供一定的指導作用。

4.2 Scene-15數(shù)據(jù)集的實驗結(jié)果對比與分析

Scene-15數(shù)據(jù)集的圖像分類結(jié)果如表3所示,相應(yīng)的計算時間對比如表4所示。從表3可以看到,多核學習算法同樣獲得最高的圖像分類準確度,其準確度達到87.69%,緊隨其后的是本文提出的基于在線被動-主動學習的圖像分類算法(算法1),它的分類準確度達到了87.35%,與多核學習算法的準確度相距只有0.3百分點。這表明在圖像分類準確度這個層面上,兩者相差很小,基本上可以認為它們的分類準確度是相同的,因為0.3個百分點的差距很可能是由于算法的不穩(wěn)定或者特征編碼階段的不確定性引起的。

表3 Scene-15數(shù)據(jù)集的圖像分類準確度對比 (%)

表4 Scene-15數(shù)據(jù)集的計算時間對比 s-1

從表4的計算時間來看,本文提出算法的計算時間為140 s,而多核學習的計算時間達到1 193 s,差不多有20 min。相比而言,本文提出的算法,其運算時間只占到多核學習算法計算時間的12%,計算時間被大大縮減。

與在Caltech-101數(shù)據(jù)集上的實驗結(jié)果對比一樣,本文提出的算法在保障圖像分類準確度的情況下,有效地降低了算法的計算復雜度。進一步可以推斷,使用恰當?shù)臋?quán)值學習算法,可以有效的減少多核學習算法的計算時間,同時,如果恰當?shù)剡M行實驗,圖像分類的準確度并不會有很大的降低。本文提出的算法將多視覺特征的組合研究向大數(shù)據(jù)處理方向推進起到了探索性的研究。

5 結(jié) 語

在圖像分類研究中,組合多個視覺特征有助于提高圖像分類的準確度,不同的視覺特征在一定程度上可以實現(xiàn)互為補充,從不同的視覺屬性上彌補圖像類別之間、類別內(nèi)部間的各種挑戰(zhàn)。本文首先回顧基于多核學習的多特征組合圖像分類算法,多核學習以其內(nèi)在的優(yōu)勢在多特征組合上取得了很大的成就,但是其高計算復雜度的本質(zhì)限制了這類算法在大數(shù)據(jù)環(huán)境下的應(yīng)用。鑒于此,本文提出了提出的基于在線被動-主動學習的圖像分類算法,該方法將多核學習問題轉(zhuǎn)化為基于隨機采樣的在線核分類器求解問題,在一定程度上降低了問題的求解復雜度。與多核學習算法相比,提出的基于在線被動-主動學習的圖像分類算法在保持圖像分類準確度非常接近的情況下,所需的計算時間只有多核學習算法的10%左右。實驗結(jié)果驗證了本文提出的算法在保持分類準確度的情況下,降低了基于直方圖交核學習算法的計算復雜度。

在當前大數(shù)據(jù)環(huán)境下,集群、Hadoop以及Spark等大數(shù)據(jù)計算平臺,均擁有多個CPU或者通過網(wǎng)絡(luò)連接形成分布式計算結(jié)點。本文提出的算法其本質(zhì)是基于數(shù)據(jù)采樣,通過在數(shù)據(jù)集中隨機采樣三元組來迭代更新分類器的權(quán)重。基于數(shù)據(jù)采樣的方法由于不需要對樣本進行批量處理,可以擴展到上述分布式計算結(jié)點上,因此,本文的下一步工作將考慮將算法擴展到分布式計算平臺,利用當前大數(shù)據(jù)計算平臺的優(yōu)勢,適應(yīng)當前大數(shù)據(jù)發(fā)展趨勢。

參考文獻(References):

[1] Zhang J, Marszalek M, Lazebnik S,etal. Local features and kernels for classification of texture and object categories: A comprehensive study[J]. International Journal of Computer Vision, 2007, 73(2): 213-238.

[2] Gehler P, Nowozin S. On feature combination for multiclass object classification[C]//Proceedings of IEEE International Conference on Computer Vision, Kyoto: IEEE, 2009: 221-228.

[3] Crammer K, Dekel O, Keshet J,etal. Online passive-aggressive algorithms[J]. Journal of Machine Learning Research. 2006, 7: 551-585.

[4] Vedaldi A, Gulshan V, Varma M,etal. Multiple kernels for object detection[C]//Proceedings of IEEE International Conference on Computer Vision, Kyoto: IEEE, 2009: 606-613.

[5] Varma M, Ray D. Learning the discriminative power-invariance trade-off[C]//Proceedings of IEEE 11th International Conference on Computer Vision, Brazil: IEEE, 2007: 1-8.

[6] Bucak S S, Jin R, Jain A. Multiple Kernel Learning for Visual Object Recognition: A Review[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7): 1354-1369.

[7] Lanckriet G R, Cristianini N, Bartlett P,etal. Learning the kernel matrix with semidefiniteprogramming[J]. Journal of Machine Learning Research, 2004, 5: 27-72.

[8] Gonen M, Alpaydin E. Multiple kernel learning algorithms[J]. Journal of Machine Learning Research, 2011, 12: 2211-2268.

[9] Sun T, Jiao L, Liu F,etal. Selective multiple kernel learning for classification with ensemble strategy[J]. Pattern Recognition, 2013, 46(11): 3081-3090.

[10] Lampert C H. Kernel methods in computer vision[J]. Foundations and Trends in Computer Graphics and Vision, 2009, 4(3): 193-285.

[11] Chen S, Ma B, Zhang K. On the similarity metric and the distance metric[J]. Theoretical Computer Science. 2009, 410(24): 2365-2376.

[12] Chang C, Lin C. LIBSVM: A library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2011, 2(3): 1-27.

[13] Aps M. The MOSEK optimization toolbox for MATLAB manual, version 7.0 (Revision 114)[R]. Denmark: MOSEK ApS, 2014.

[14] Chechik G, Sharma V, Shalit U,etal. Large scale online learning of image similarity through ranking[J]. Journal of Machine Learning Research, 2010, 11: 1109-1135

[15] Fei-Fei L, Fergus R, Perona P. Learning generative visual models from few training examples: An incremental bayesian approach tested on 101 object categories[J]. Computer Vision and Image Understanding, 2007, 106(1): 59-70.

[16] Lazebnik S, Schmid C, Ponce J. Beyond bags of features: Spatial pyramid matching forrecognizing natural scene categories[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, New York: IEEE, 2006: 2169-2178.

[17] Vedaldi A, Fulkerson B. VLFeat: An open and portable library of computer vision algorithms[C]//Proceedings of the International Conference on Multimedia, Italy: ACM, 2010: 1469-1472.

[18] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[19] Van De Sande K E, Gevers T, Snoek C G. Evaluating color descriptors for object and scene recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1582-1596.

[20] Perronnin F, Dance C. Fisher kernels on visual vocabularies for image categorization[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, USA: IEEE, 2007: 1-8.

[21] Perronnin F, S ANchez J, Mensink T. Improving the fisher kernel for large-scale image classification[C]//Proceedings of European Conference on Computer Vision, Springer, Greece: Springer, 2010: 143-156.

[22] Sanchez J, Perronnin F, Mensink T,etal. Image classification with the Fisher vector: Theory and practice[J]. International Journal of Computer Vision, 2013, 105(3): 222-245.

猜你喜歡
分類特征優(yōu)化
超限高層建筑結(jié)構(gòu)設(shè)計與優(yōu)化思考
民用建筑防煙排煙設(shè)計優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
分類算一算
一道優(yōu)化題的幾何解法
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
主站蜘蛛池模板: 国产理论一区| 亚洲国产午夜精华无码福利| 毛片手机在线看| 成人精品免费视频| 在线无码九区| 色哟哟国产精品| 成人精品亚洲| 日韩一级毛一欧美一国产| 日韩福利在线观看| 亚洲日韩高清在线亚洲专区| 91人人妻人人做人人爽男同| 日韩无码一二三区| 国产成人区在线观看视频| 亚洲精品色AV无码看| 国产成人综合亚洲网址| 91小视频版在线观看www| 国产95在线 | 99re热精品视频国产免费| 日本国产精品| 国产欧美专区在线观看| 国产9191精品免费观看| 久久亚洲国产最新网站| 国产剧情无码视频在线观看| 国产区人妖精品人妖精品视频| 全部免费毛片免费播放| 亚洲一级毛片在线观播放| 麻豆精品久久久久久久99蜜桃| 欧美劲爆第一页| 国产资源站| 一级一级一片免费| 亚洲午夜国产精品无卡| 欧美亚洲欧美| 国产精品亚洲一区二区三区z| 三上悠亚在线精品二区| 国产sm重味一区二区三区| 亚洲欧洲自拍拍偷午夜色| 亚洲精选高清无码| 亚洲日韩精品欧美中文字幕| 国产无码性爱一区二区三区| 欧洲精品视频在线观看| 丝袜亚洲综合| 亚洲第一视频网| 免费人成黄页在线观看国产| 国产永久免费视频m3u8| 国产精品专区第1页| 香蕉网久久| 亚洲福利视频网址| 亚洲成肉网| 欧美a在线视频| 久夜色精品国产噜噜| 精品久久久久久成人AV| 亚洲成人黄色网址| 高清不卡一区二区三区香蕉| 国产99热| 亚洲一区二区黄色| 国产成人无码综合亚洲日韩不卡| 四虎影视库国产精品一区| 国产丝袜一区二区三区视频免下载| 老熟妇喷水一区二区三区| 亚洲AV无码乱码在线观看裸奔| 久久精品无码专区免费| 99国产精品免费观看视频| 成人午夜网址| 欧美色伊人| 毛片免费观看视频| 国产精鲁鲁网在线视频| 国产99视频免费精品是看6| 天天躁日日躁狠狠躁中文字幕| 欧美翘臀一区二区三区| 国产欧美一区二区三区视频在线观看| 国产精品免费p区| 在线a视频免费观看| 亚洲国产成人久久77| 色精品视频| 狠狠色丁婷婷综合久久| 高清码无在线看| 亚洲综合亚洲国产尤物| 免费又黄又爽又猛大片午夜| 在线观看免费国产| 久久国产乱子| 国产精品久久久久鬼色| 丁香婷婷久久|