999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于測度學(xué)習(xí)支持向量機(jī)的鋼琴樂譜難度等級(jí)識(shí)別

2018-03-15 07:46:39郭龍偉關(guān)欣李鏘
智能系統(tǒng)學(xué)報(bào) 2018年2期
關(guān)鍵詞:鋼琴分類特征

郭龍偉,關(guān)欣,李鏘

雖然互聯(lián)網(wǎng)中存在海量的鋼琴樂譜資源,但其難易程度不一,對(duì)于業(yè)余和初級(jí)樂器學(xué)習(xí)者來說,由于缺乏專業(yè)知識(shí)和指導(dǎo),難以有效地找到與自身學(xué)習(xí)難度匹配的樂譜來學(xué)習(xí)。專業(yè)音樂學(xué)習(xí)者一般依據(jù)固定進(jìn)階教材,但缺乏個(gè)性化、靈活的學(xué)習(xí)方案。此外,一些經(jīng)典但難度高的樂譜,會(huì)有諸多簡化版本存在。因此,有必要對(duì)海量的鋼琴樂譜資源的難度等級(jí)進(jìn)行區(qū)分。

現(xiàn)在絕大部分樂譜難度等級(jí)仍然依賴于專業(yè)人士主觀判斷。對(duì)于海量的數(shù)字樂譜,人工判斷難度等級(jí)會(huì)是一個(gè)耗時(shí)耗力的巨大工程。人工主觀判斷也很難穩(wěn)定、可靠地把握每個(gè)難度等級(jí)之間的區(qū)別,尤其對(duì)于多類別問題。不同的人對(duì)于同一首樂譜可能會(huì)給出不同的難度等級(jí),甚至對(duì)于同一首樂譜,同一個(gè)人在不同的時(shí)間也會(huì)給出不同的難度等級(jí)。因此,自動(dòng)識(shí)別樂譜難度等級(jí)的系統(tǒng)具有重要的理論意義和應(yīng)用價(jià)值。

為網(wǎng)絡(luò)中存在的數(shù)字樂譜提供難度等級(jí)標(biāo)簽將會(huì)大大提高尋找合適難度等級(jí)樂譜的效率,并能提高音樂網(wǎng)站的用戶體驗(yàn)。通常研究中將樂譜難度識(shí)別歸為模式分類問題,從符號(hào)樂譜中定義并提取難度相關(guān)特征,利用分類思想實(shí)現(xiàn)樂譜難度等級(jí)的識(shí)別。下面將針對(duì)不同的技術(shù)來回顧鋼琴樂譜難度等級(jí)識(shí)別領(lǐng)域的研究現(xiàn)狀。

Shih-Chuan Chiu等[1]最先開始鋼琴樂譜難度等級(jí)識(shí)別研究。由于鋼琴樂譜難度識(shí)別是一個(gè)相對(duì)較新的研究問題,現(xiàn)有的符號(hào)音樂特征(symbolic music feature)較少直接用于難度等級(jí)識(shí)別。所以他們首先定義8個(gè)與樂譜難度密切相關(guān)的特征,將此8個(gè)難度相關(guān)特征與語義特征一起作為特征空間。后用特征選擇算法ReliefF[2]按照特征重要程度(即各個(gè)特征對(duì)難度等級(jí)的辨別能力大小)分配權(quán)值,選擇權(quán)值最大的10個(gè)特征作為后續(xù)實(shí)現(xiàn)難度等級(jí)識(shí)別的特征空間。最終用3個(gè)回歸算法:多元線性回歸、逐步回歸[3]、支持向量回歸[4]實(shí)現(xiàn)難度等級(jí)識(shí)別。實(shí)驗(yàn)中,支持向量回歸算法得到最好的效果,其R2統(tǒng)計(jì)量為39.9%[3]。

Véronique Sébastien 等[5]也將樂譜難度等級(jí)識(shí)別看作分類問題,他們利用無監(jiān)督的聚類算法實(shí)現(xiàn)樂譜難度等級(jí)識(shí)別。首先定義7個(gè)難度相關(guān)特征,這些特征從MusicXML格式[6]樂譜文件提取。之后用主成分分析 (principal component analysis,PCA)將特征投影到低維空間,以降低特征維數(shù)。然后,用分層聚類(hierarchical clustering)[7]將樂譜聚成3類,即3個(gè)難度類別。

總的來說,無論是多元線性回歸還是逐步回歸都假設(shè)特征與難度等級(jí)之間為線性關(guān)系,此假設(shè)過于簡化特征與難度等級(jí)之間的實(shí)際關(guān)系。而支持向量回歸雖然可實(shí)現(xiàn)非線性擬合,但擬合結(jié)果尚不令人滿意。與有監(jiān)督算法相比,非監(jiān)督算法,如分層聚類,雖能充分利用特征與難度等級(jí)之間的自然分布關(guān)系,但無法利用已有的難度等級(jí)標(biāo)簽作為先驗(yàn)知識(shí)提高識(shí)別效果。例如,實(shí)驗(yàn)中,原始樂譜數(shù)據(jù)是4個(gè)類別,Véronique Sébastien經(jīng)過PCA降維,應(yīng)用聚類算法,最終僅得到3個(gè)難度類別。

在現(xiàn)有有監(jiān)督的回歸擬合算法識(shí)別鋼琴樂譜難度等級(jí)的研究中,支持向量回歸有最好的擬合效果(其R2統(tǒng)計(jì)量值為39.9%)。但支持向量回歸,更適合逼近、擬合連續(xù)分布數(shù)據(jù),對(duì)于此離散類別的分類問題能力有限。所以本文利用一種與支持向量回歸算法原理相近,但更適用于解決分類問題的支持向量機(jī)分類算法實(shí)現(xiàn)數(shù)字鋼琴樂譜難度等級(jí)識(shí)別。

1 支持向量機(jī)理論

SVM是基于統(tǒng)計(jì)學(xué)習(xí)理論中經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化原則的一種機(jī)器學(xué)習(xí)算法[8]。SVM已廣泛應(yīng)用于紋理分類 (texture classification)[9]、文本分類[10]、人臉識(shí)別[11]、語音識(shí)別[12]等各個(gè)領(lǐng)域。理論和實(shí)踐證明,SVM對(duì)噪聲和離群點(diǎn)魯棒性好,泛化能力強(qiáng),經(jīng)過擴(kuò)展可解決多分類問題[8]。

SVM實(shí)現(xiàn)分類的關(guān)鍵是核函數(shù),利用核函數(shù)[13]可以將低維線性不可分的問題轉(zhuǎn)化到高維空間實(shí)現(xiàn)線性可分,同時(shí)避免因維數(shù)增加而導(dǎo)致過大的計(jì)算量。常用的核函數(shù)有線性核函數(shù)(linear kernel function)、多項(xiàng)式核函數(shù) (polynomial kernel function)、高斯徑向基核函數(shù)(Gauss radical basis kernel function,GRB)等[13]。由于本研究問題的特征數(shù)目遠(yuǎn)小于樣本數(shù)目,并且為降低分類模型的參數(shù)復(fù)雜度,本文考慮采用高斯徑向基核函數(shù)。

然而傳統(tǒng)的基于高斯徑向基核函數(shù)的SVM(GRB-SVM)算法假設(shè)特征不相關(guān)且權(quán)重相同,即不能根據(jù)特征對(duì)難度等級(jí)的貢獻(xiàn)度差別對(duì)待。而在本應(yīng)用問題中,特征對(duì)難度區(qū)分的貢獻(xiàn)度不同。為彌補(bǔ)GRB-SVM不能根據(jù)特征重要程度差別對(duì)待的不足,本文結(jié)合測度學(xué)習(xí)(metric learning)理論,充分利用訓(xùn)練樂譜中關(guān)于難度等級(jí)的先驗(yàn)知識(shí),從帶難度等級(jí)標(biāo)簽的樂譜特征空間中有監(jiān)督地學(xué)習(xí)到能更好區(qū)分鋼琴難度的投影矩陣,保留特征之間的相關(guān)關(guān)系,從而利用該矩陣改進(jìn)高斯徑向基核函數(shù),提出一種測度學(xué)習(xí)支持向量機(jī)分類算法——ML-SVM算法,實(shí)現(xiàn)數(shù)字鋼琴樂譜難度等級(jí)識(shí)別。

2 算法原理與算法描述

本文提出的ML-SVM樂譜難度識(shí)別算法主要包括以下3部分:基于測度學(xué)習(xí)從訓(xùn)練數(shù)據(jù)中有監(jiān)督的學(xué)習(xí)到能增加鋼琴樂譜難度區(qū)分度的投影矩陣;得到新的距離測度,并利用該測度改進(jìn)高斯徑向基核函數(shù),建立ML-SVM算法模型;最后利用網(wǎng)格搜索算法得到核函數(shù)參數(shù)的最優(yōu)組合,建立分類模型,實(shí)現(xiàn)數(shù)字鋼琴樂譜難度等級(jí)的識(shí)別。MLSVM樂譜難度識(shí)別算法框圖,如圖1所示。

圖1 ML-SVM算法的框圖Fig. 1 The frame chart of ML-SVM algorithm

2.1 特征空間的建立

為獲取更多的鋼琴樂譜難度相關(guān)特征,本文采用文獻(xiàn)[1]與文獻(xiàn)[5]中的難度相關(guān)特征作為本文的特征空間。所以本文中的特征空間包括:文獻(xiàn)[1]中除指法復(fù)雜度(屬于樂譜標(biāo)注層面信息,MIDI樂譜中不包含此信息),調(diào)號(hào)(key signature是元標(biāo)簽信息)之外的全部難度和語義特征;文獻(xiàn)[5]中除去指法特征(同樣屬于標(biāo)注層面特征)的全部特征,共22個(gè)特征,組成一個(gè)22維的特征向量來表示MIDI樂譜。

2.2 測度學(xué)習(xí)得到距離測度DM,改進(jìn)GRB核函數(shù)

由于傳統(tǒng)的SVM算法無法根據(jù)特征對(duì)類別的辨別能力差別對(duì)待,所以本文考慮利用測度學(xué)習(xí)從訓(xùn)練樂譜中有監(jiān)督地學(xué)習(xí)到一個(gè)投影矩陣,充分考慮特征對(duì)難度等級(jí)的貢獻(xiàn)度,為特征分配不同的權(quán)重,進(jìn)而得到新的距離測度DM,改進(jìn)原始高斯徑向基核函數(shù),改進(jìn)后的高斯徑向基核函數(shù)為

通過矩陣M,依據(jù)特征對(duì)難度等級(jí)的區(qū)別能力及特征之間的相關(guān)關(guān)系,將特征投影到一個(gè)類別區(qū)分度更高的空間[14]。DM的構(gòu)建及投影矩陣M)的學(xué)習(xí)過程如下。

本算法的關(guān)鍵在于找到最佳的特征投影矩陣L。考慮用變換矩陣(n表示特征的維數(shù))實(shí)現(xiàn)特征投影:

為避免求均方并保證距離為正值,取距離的平方并用矩陣形式表示,則新的距離測度DM為

2.3 ML-SVM算法

構(gòu)造決策函數(shù):

依據(jù)決策函數(shù)可以得到待分類樂譜x所屬類別[8]。其中α是拉格朗日系數(shù),C是錯(cuò)誤分類的懲罰參數(shù),kM是改進(jìn)后的高斯徑向基核函數(shù),核函數(shù)表達(dá)式中的是測度學(xué)習(xí)得到的距離測度。

另外,原始SVM是二分類的,本文采用一對(duì)余(one versus rest)方法[8,16]將 ML-SVM擴(kuò)展到多分類。主要思想是:對(duì)于一個(gè)m類分類問題,通過建立m個(gè)二分類ML-SVM模型,每一個(gè)ML-SVM模型需要訓(xùn)練所有的訓(xùn)練樣本,但訓(xùn)練樣本中只將某一個(gè)類別記為正,其余所有類別記為負(fù)。對(duì)于待識(shí)別的樣本,依次調(diào)用訓(xùn)練好的m個(gè)ML-SVM模型,計(jì)算它在各個(gè)ML-SVM模型中決策函數(shù)的值,選擇決策函數(shù)值最大的ML-SVM模型給出的類別,作為待識(shí)別樂譜難度類別。

3 實(shí)驗(yàn)

本文算法全部用MATLAB軟件實(shí)現(xiàn),所用的計(jì)算機(jī)環(huán)境為32位Windows 7操作系統(tǒng),內(nèi)置Intel I5-4200M處理器和4 GB的內(nèi)存。

在實(shí)驗(yàn)中,為更好地評(píng)估本文提出的ML-SVM算法的分類性能和泛化能力,在9類和4類難度兩個(gè)樂譜數(shù)據(jù)集中,將ML-SVM算法與邏輯回歸、基于線性核函數(shù)的SVM、基于多項(xiàng)式核函數(shù)的SVM、基于原始高斯徑向基核函數(shù)的SVM(均用one versus rest擴(kuò)展到多分類)算法以及結(jié)合主成分分析的各個(gè)SVM算法進(jìn)行對(duì)比試驗(yàn),以識(shí)別準(zhǔn)確率作為算法性能的評(píng)價(jià)指標(biāo)。每個(gè)實(shí)驗(yàn)獨(dú)立重復(fù)5次,并用五折交叉驗(yàn)證,取平均準(zhǔn)確率作為最終識(shí)別準(zhǔn)確率。同時(shí)為更全面評(píng)估識(shí)別算法性能,也給出各個(gè)算法結(jié)果的90%置信區(qū)間。

3.1 實(shí)驗(yàn)數(shù)據(jù)集

鋼琴樂譜數(shù)據(jù)集采用包含音高、節(jié)拍、時(shí)間、和弦、速度和信道等鋼琴樂譜信息的MIDI格式數(shù)字樂譜文件[17]。MIDI文件小,易于獲得。為和現(xiàn)有的研究作對(duì)比,我們采用了文獻(xiàn)[1]中包含9個(gè)難度等級(jí),共176個(gè)MIDI文件的數(shù)據(jù)集。

另外考慮到實(shí)際鋼琴學(xué)習(xí)與教學(xué)中很多情況會(huì)將樂譜分為4個(gè)難度等級(jí),大量音樂網(wǎng)站也普遍提供 4 個(gè)難度等級(jí) (easy,beginner,intermediate,advanced)的數(shù)字樂譜,所以為更好地評(píng)估本文算法的可拓展性,切合實(shí)際應(yīng)用情況,我們還從大型音樂網(wǎng)站8notes[18]收集到400首MIDI樂譜組成有4個(gè)難度等級(jí)的數(shù)據(jù)集,每一個(gè)難度等級(jí)有100個(gè)MIDI樂譜。為書寫及引用方便,9個(gè)難度等級(jí)的數(shù)據(jù)集簡稱為NineS數(shù)據(jù)集,4個(gè)難度等級(jí)的數(shù)據(jù)集簡稱為FourS數(shù)據(jù)集。

3.2 數(shù)據(jù)預(yù)處理

特征提取后,一些特征對(duì)應(yīng)的值較大,而另一些特征對(duì)應(yīng)的值較小,甚至相差超過兩個(gè)數(shù)量級(jí),為避免數(shù)值較大的特征對(duì)整體分類的影響,利用Min-Max歸一化方法:

將特征向量歸一化到[0, 1]。其中min和max分別表示特征的最小和最大值,表示特征經(jīng)過歸一化處理后的特征。

3.3 實(shí)驗(yàn)與結(jié)果分析

仿真試驗(yàn)中,將ML-SVM算法與邏輯回歸(logistic regression,LR)[19],基于線性核函數(shù)的 SVM(記為L-SVM),基于多項(xiàng)式核函數(shù)的SVM(記為PSVM)和基于高斯徑向基核函數(shù)的SVM算法(記為GRB-SVM)[16,20-21]進(jìn)行對(duì)比。每個(gè)實(shí)驗(yàn)獨(dú)立重復(fù)5次,每次用5折交叉驗(yàn)證,取平均準(zhǔn)確率作為分類性能指標(biāo),同時(shí)計(jì)算出結(jié)果的90%置信區(qū)間。

各個(gè)SVM算法中核函數(shù)參數(shù)利用網(wǎng)格搜索算法[22],在 2–10~210內(nèi),以步長 0.5,5 折交叉驗(yàn)證尋找最優(yōu)的參數(shù)設(shè)置。其中L-SVM,P-SVM(多項(xiàng)式階數(shù)d=3)只需優(yōu)化懲罰因子C,GRB-SVM與MLSVM需要優(yōu)化懲罰因子C與核函數(shù)參數(shù)g(g =)的最優(yōu)組合。最終的最優(yōu)參數(shù)組合如表1所示。

表1 各個(gè)算法的最優(yōu)參數(shù)組合Table 1 Optimal parameter combination of each algorithm

表2給出了本文提出的ML-SVM算法與LR、L-SVM、P-SVM、GRB-SVM算法在NineS數(shù)據(jù)集和FourS數(shù)據(jù)集中的識(shí)別準(zhǔn)確率及結(jié)果的90%置信區(qū)間。從表2中可以看出,在兩個(gè)數(shù)據(jù)集上,本文提出的ML-SVM算法,識(shí)別準(zhǔn)確率最高,分別達(dá)到68.74%和84.67%。兩個(gè)數(shù)據(jù)集中,本文提出的算法最終識(shí)別準(zhǔn)確率均高于GRB-SVM算法,尤其在FourS數(shù)據(jù)集中,本文所提算法得到84.67%的識(shí)別準(zhǔn)確率,相對(duì)75.63%的GRB-SVM,識(shí)別準(zhǔn)確率有較大提高。且更窄的置信區(qū)間表明結(jié)果更穩(wěn)定、顯著。基于線性核函數(shù)的SVM(L-SVM)一直表現(xiàn)欠佳,在兩個(gè)數(shù)據(jù)集中識(shí)別效果不如邏輯回歸(LR),基于多項(xiàng)式核函數(shù)的SVM(P-SVM)表現(xiàn)良好,在FourS數(shù)據(jù)集中識(shí)別效果僅次于本文算法。

表2 各算法的識(shí)別準(zhǔn)確率及90%置信區(qū)間Table 2 Recognition accuracy and 90% confidence interval of each algorithm %

為進(jìn)一步驗(yàn)證本文所提算法的有效性,我們將ML-SVM算法與另一種主要用來實(shí)現(xiàn)特征降維的投影算法——主成分分析結(jié)合SVM的分類準(zhǔn)確率進(jìn)行對(duì)比。在對(duì)原始特征數(shù)據(jù)進(jìn)行PCA處理時(shí),保留原始特征95%信息量的投影特征。PCA投影處理后,最終NineS數(shù)據(jù)集中的特征降到13維,而FourS數(shù)據(jù)集的特征降到8維。之后再用基于各個(gè)核函數(shù)的SVM算法對(duì)PCA降維后的數(shù)據(jù)進(jìn)行分類。實(shí)驗(yàn)結(jié)果如表3所示。從表中可以看出,原始特征數(shù)據(jù)經(jīng)過PCA處理后,最終各個(gè)SVM的分類準(zhǔn)確率都有所提高。這是因?yàn)樵继卣鲾?shù)據(jù)經(jīng)過PCA投影、降維之后,可以有效減少混疊以及冗余信息,進(jìn)而提高最終分類的準(zhǔn)確率。

表3 PCA處理后,各算法的識(shí)別準(zhǔn)確率Table 3 After features are processed by PCA, each SVM algorithm’s recognition accuracy in two data sets %

雖然原始特征數(shù)據(jù)經(jīng)過PCA投影、降維處理后,利用GRB-SVM分類的準(zhǔn)確率較之前有所提高,但分類準(zhǔn)確率與本文提出的ML-SVM算法仍有差距,尤其在FourS數(shù)據(jù)集中,ML-SVM仍有較大優(yōu)勢,這也再次驗(yàn)證了本文提出的ML-SVM算法是有效的。

4 結(jié)束語

針對(duì)現(xiàn)有鋼琴樂譜難度分類主要由人工方式完成,效率不高,區(qū)別于傳統(tǒng)將樂譜難度等級(jí)識(shí)別歸結(jié)為回歸問題,本文直接將其建模為基于支持向量機(jī)的分類問題。并結(jié)合鋼琴樂譜分類主觀性強(qiáng)、特征之間普遍存在相關(guān)性等特點(diǎn),利用測度學(xué)習(xí)改進(jìn)高斯徑向基核函數(shù),從而提出一種測度學(xué)習(xí)支持向量機(jī)分類算法——ML-SVM算法。經(jīng)過在9類和4類難度兩個(gè)樂譜數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn),結(jié)果表明本文所提算法的識(shí)別準(zhǔn)確率優(yōu)于現(xiàn)有算法,且有效提高了基于高斯徑向基核函數(shù)SVM的分類性能。實(shí)驗(yàn)結(jié)果說明,利用測度學(xué)習(xí)理論,保留特征之間的相關(guān)關(guān)系,更適合樂譜難度識(shí)別數(shù)據(jù)與分布特點(diǎn),并能夠有效識(shí)別算法的性能。未來的工作可以考慮應(yīng)用半監(jiān)督算法,以充分利用大量無難度標(biāo)簽數(shù)據(jù),預(yù)期將會(huì)大大提高分類器的訓(xùn)練效果,進(jìn)而提高算法的識(shí)別準(zhǔn)確率。

[1]CHIU S C, CHEN M S. A study on difficulty level recognition of piano sheet music[C]//IEEE International Symposium on Multimedia. Irvine, CA, USA: IEEE, 2012: 17–23.

[2]ROBNIK-?IKONJA M, KONONENKO I. Theoretical and empirical analysis of Relief[J]. Machine learning, 2003,53(1/2): 23–69.

[3]JAMES G, WITTEN D, HASTIE T, et al. An introduction to statistical learning with applications in R[M]. New York:Springer, 2013: 59–102.

[4]SMOLA A J, SCH?LKOPF B. A tutorial on support vector regression[J]. Statistics and computing, 2003, 14(3): 199–222.

[5]SéBASTIEN V, RALAMBONDRAINY H, SéBASTIEN O, et al. Score analyzer: automatically determining scores difficulty level for instrumental e-learning[C]//Proceedings of the 13th International Society for Music Information Retrieval Conference. Porto, Portugal: ISMIR, 2012: 571–576.

[6]CASTAN G, GOOD M, ROLAND P. Extensible markup language (XML) for music applications: an introduction, the virtual score: representation, retrieval, restoration[M]. Cambridge: MIT Press, 2001: 95–102.

[7]WARD JR J H. Hierarchical grouping to optimize an objective function[J]. Journal of the American statistical association, 1963, 58(301): 236–244.

[8]丁世飛, 齊丙娟, 譚紅艷. 支持向量機(jī)理論與算法研究綜述[J]. 電子科技大學(xué)學(xué)報(bào), 2011, 40(1): 2–10.DING Shifei, QI Bingjuan, TAN Hongyan. An overview on theory and algorithm of support vector machines[J]. Journal of university of electronic science and technology of China,2011, 40(1): 2–10.

[9]LI Shutao, KWOK J T, ZHU Hailong, et al. Texture clas-sification using the support vector machines[J]. Pattern recognition, 2003, 36(12): 2883–2893.

[10]SIMON T, KOLLER D. Support vector machine active learning with applications to text classification[J]. The journal of machine learning research, 2002, 2: 45–66.

[11]OSUNA E, FREUND R, GIROSIT F. Training support vector machines: an application to face detection[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Juan, Puerto Rico, USA: IEEE,1997: 130–136.

[12]WAN V, CAMPBELL W M. Support vector machines for speaker verification and identification[C]//Neural Networks for Signal Processing X. Proceedings of the 2000 IEEE Signal Processing Society Workshop. Sydney, NSW,Australia: IEEE, 2000, 2: 775–784.

[13]SCH?LKOPF B, SMOLA, A J. Learning with kernels[M].GMD-For Schungszentrum Information Stechnik, 1998:5–93.

[14]KULIS B. Metric learning: a survey[J]. Foundations and trends in machine learning, 2012, 5(4): 287–364.

[15]WEINBERGER K Q, SAUL L K. Distance metric learning for large margin nearest neighbor classification[J].Journal of machine learning research, 2009, 10: 207–244.

[16]HSU C W, LIN C J. A comparison of methods for multiclass support vector machines[J]. IEEE transactions on neural networks, 2002, 13(2): 415–425.

[17]MIDI Manufacturers Association. An introduction to MIDI[M]. California: MIDI Manufacturers Association,2009: 1–16.

[18]Fours set data sources[EB/OL]. [2015-07-24]. http://www.8notes.com.

[19]HOSMER D W, LEMESHOW S. Applied logistic regression[M]. New York: Wiley, 2000: 31–46.

[20]WESTON J, WATKINS C. Multi-class support vector machines, CSD-TR-98-04[R/OL]. Egham: Royal Holloway University of London, 1998: 1–10.

[21]CHANG C C, LIN C J. LIBSVM——a library for support vector machines[J/OL]. ACM transactions on intelligent systems and technology, 2011, 2(3): 27.

[22]徐曉明. SVM參數(shù)尋優(yōu)及其在分類中的應(yīng)用[D]. 大連:大連海事大學(xué), 2014: 6–58.XU Xiaoming. SVM parameter optimization and its application in the classification[D]. Dalian: Dalian Maritime University, 2014: 6–58.

猜你喜歡
鋼琴分類特征
分類算一算
如何表達(dá)“特征”
不忠誠的四個(gè)特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
紙鋼琴
鋼琴
半夜敲門
主站蜘蛛池模板: 欧美成人亚洲综合精品欧美激情| 国产9191精品免费观看| 国产精品lululu在线观看| 青青青视频蜜桃一区二区| 99精品福利视频| 亚洲最大在线观看| 国产91视频观看| 欧美日韩成人| 国产福利免费视频| 国产毛片基地| 国产自无码视频在线观看| 露脸国产精品自产在线播| 成人午夜视频网站| 欧美一区福利| 国产人人射| 国产丝袜第一页| 亚洲成人网在线观看| 国产jizzjizz视频| 国产欧美视频在线观看| 午夜精品一区二区蜜桃| 欧美一级在线| 精品国产自在现线看久久| 亚洲人成网站在线播放2019| 国产精品美女免费视频大全| 国产在线八区| 国产精彩视频在线观看| 在线欧美日韩| 天天色天天综合网| 久久久久人妻一区精品色奶水| 色国产视频| 亚洲人人视频| 午夜小视频在线| 国产又色又刺激高潮免费看| 日本伊人色综合网| 最新日本中文字幕| 国产一区二区三区夜色 | 青青草原国产精品啪啪视频| 色综合激情网| 在线国产毛片手机小视频| 亚洲欧洲天堂色AV| 色窝窝免费一区二区三区| 亚洲人成在线免费观看| 亚洲水蜜桃久久综合网站| 日韩人妻少妇一区二区| 久久久久国色AV免费观看性色| 亚洲精品国产首次亮相| 国产欧美日韩一区二区视频在线| 欧美狠狠干| 亚洲热线99精品视频| 久久a毛片| 国产精品99久久久| 嫩草在线视频| 亚洲有无码中文网| 福利视频99| 国产二级毛片| 视频二区中文无码| 亚洲性视频网站| 国产成人无码AV在线播放动漫| 亚洲日韩国产精品综合在线观看| 婷婷综合色| 3p叠罗汉国产精品久久| 久久中文字幕2021精品| 欧美视频在线观看第一页| 天天躁狠狠躁| 成人免费黄色小视频| 最新国产高清在线| 成人无码区免费视频网站蜜臀| 免费一级毛片| 亚洲一区二区三区香蕉| 国产区免费| 色九九视频| h网站在线播放| 高清不卡一区二区三区香蕉| 亚洲免费播放| 国产视频a| 国模粉嫩小泬视频在线观看| 亚洲av中文无码乱人伦在线r| 无码乱人伦一区二区亚洲一| 麻豆国产精品| 九色视频在线免费观看| 在线观看国产黄色| 在线国产毛片手机小视频|