999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

帶質(zhì)心的K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)的集成方法

2021-10-19 03:14:14趙建成余肖生

陳 鵬,趙建成,余肖生

(三峽大學(xué) 計算機與信息學(xué)院, 湖北 宜昌 443002)

解決穩(wěn)定性-可塑性難題是ANN學(xué)習(xí)中的關(guān)鍵問題,尤其是當(dāng)數(shù)據(jù)樣本的數(shù)量隨時間增加時,ANN模型必須以自主和增量的方式學(xué)習(xí)這些樣本。為了解決穩(wěn)定性-可塑性難題[1],Simpson[2]提出了2種混合的ANN模型(Fuzzy Min-Max(FMMN)網(wǎng)絡(luò)),即模式分類的監(jiān)督模型;模式聚類的無監(jiān)督模型[3]。FMMN使用超盒模糊集在其網(wǎng)絡(luò)結(jié)構(gòu)中創(chuàng)建和存儲知識,即作為隱藏節(jié)點,該網(wǎng)絡(luò)已經(jīng)得到了廣泛的研究與應(yīng)用,尤其是在分類任務(wù)上[2]。為了提升FMMN網(wǎng)絡(luò)的性能,Mohammed等[4]提出了增強的模糊最小-最大神經(jīng)網(wǎng)絡(luò)(EFMMN),該算法在解決超盒的重疊測試和收縮測試時都更加有效。為了避免在獲勝超盒附近產(chǎn)生過多的小超盒,從而降低FMMN的網(wǎng)絡(luò)復(fù)雜度,Mohammed等[5]提出了K最近鄰超盒展開規(guī)則的改進的模糊最小最大神經(jīng)網(wǎng)絡(luò),實驗表明通過該網(wǎng)絡(luò)可以有效地降低網(wǎng)絡(luò)的復(fù)雜度。Nandedkar等[6-7]提出了通用反射模糊最小-最大神經(jīng)網(wǎng)絡(luò)(GRFMN)。 GRFMM將FMM聚類和分類算法以及人體反射機制的概念組合到一個通用框架中,以解決重疊問題。劉金海等[8]提出了一種基于數(shù)據(jù)質(zhì)心的模糊最小最大神經(jīng)網(wǎng)絡(luò)分類方法,該方法能夠根據(jù)實際數(shù)據(jù)的質(zhì)心特征自適應(yīng)地調(diào)節(jié)超盒隸屬度,從而來提高分類的精準率。

為了使FMMN實現(xiàn)半監(jiān)督的能力,Ngan等[9]提出了模糊最小最大神經(jīng)網(wǎng)絡(luò)中的半監(jiān)督聚類。Liu等[10]提出了一種基于模糊最小最大神經(jīng)網(wǎng)絡(luò)的半監(jiān)督分類方法(SS-FMM)。在SS-FMM中,對模糊最小最大網(wǎng)絡(luò)進行了修改,以處理標記和未標記的數(shù)據(jù)。

現(xiàn)有的FMMN及其變體,在訓(xùn)練網(wǎng)絡(luò)以及進行最終預(yù)測時,都沒有考慮之前訓(xùn)練的樣本位于該超盒內(nèi)的大體分布情況,僅計算樣本點的隸屬度的高低來選擇擴展的超盒,這樣不利于超盒更加準確的收縮以及最終精準的預(yù)測。同時,現(xiàn)有方法都過于依賴擴展系數(shù)的選擇,如果選擇糟糕的擴展系數(shù),則會導(dǎo)致模型性能變差,另外對于每個數(shù)據(jù)集選擇最佳的擴展系數(shù)也是非常耗費時間的事情。因此,提出了帶質(zhì)心的K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)的集成方法(ensemble method ofk-nearest neighbor enhancement fuzzy minimax neural networks with centroid,簡稱為E-CFMM),該方法考慮了每個超盒數(shù)據(jù)集中的位置,即增加質(zhì)心的同時,又集成了5個不同的擴展系數(shù)的弱分類器,并將5個弱分類器的預(yù)測結(jié)果作為隨機森林的輸入數(shù)據(jù)進行再訓(xùn)練。這樣既可以不用考慮擴展系數(shù)的問題又能提高整體網(wǎng)絡(luò)的預(yù)測性能。

1 K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)

1.1 基本的模糊最小最大神經(jīng)網(wǎng)絡(luò)(FMMN)

FMMN的網(wǎng)絡(luò)結(jié)構(gòu)由3層組成,如圖1所示。首先,F(xiàn)a是輸入層,其輸入節(jié)點數(shù)等于輸入要素數(shù)。其次,F(xiàn)b是超盒層,每個Fb節(jié)點代表一個超級盒子模糊集。Fa和Fb節(jié)點之間的連接是最小和最大點,它們存儲在2個矩陣V和W中,而隸屬函數(shù)是Fb的傳遞函數(shù)[2]。第三,F(xiàn)c是輸出層,其節(jié)點數(shù)等于輸出類數(shù)。

圖1 FMMN網(wǎng)絡(luò)結(jié)構(gòu)

FMMN學(xué)習(xí)算法包括3個過程,即超盒擴展、超盒重疊測試和超盒壓縮[11]。在FMMN是通過使用一組數(shù)據(jù)樣本Ah來進行學(xué)習(xí)的,其中h=1…N,N是訓(xùn)練樣本的總個數(shù)。根據(jù)訓(xùn)練樣本,F(xiàn)MMN逐步創(chuàng)建許多超盒。每個超盒由單元超立方體(In)中n維空間中的一組最小和最大點表示。每個超盒模糊集定義為[5]:

Bj={Ah,Vj,Wj,f(Ah,Vj,Wj)},?Ah∈In

(1)

式中:Bj是超框模糊集;Ah=(ah1,ah2,…,ahn)是輸入數(shù)據(jù);Vj=(vj1,vj2, …,vjn)和Wj=(wj1,wj2,…,wjn)分別是Bj的最小值和最大值。

當(dāng)訓(xùn)練數(shù)據(jù)樣本包含在超盒中時,則該數(shù)據(jù)樣本具有該超盒的完全隸屬度。超盒的大小由擴展系數(shù)控制,擴展系數(shù)的大小為θ∈[0,1]。每個Fc節(jié)點代表一個類別,F(xiàn)c節(jié)點的輸出代表Ah在輸出類別k中的適合程度。Fb和Fc節(jié)點之間的連接是二進制值來表示。

1.1.1隸屬度函數(shù)

當(dāng)提供新的訓(xùn)練樣本時,F(xiàn)MMN使用隸屬度函數(shù),其取值范圍為0~1,用于表示樣本相對于超盒的擬合度,查找最匹配的超盒。隸屬度函數(shù)使用式(2) 計算[2]:

max(0,1-max(0,γmin(1,vji-ahi)))]

(2)

式中:Bj表示第j個超盒;Ah=(ah1,ah2,…,ahn)∈In是第h個輸入樣本,并且γ是一個靈敏度參數(shù),用于調(diào)節(jié)隸屬函數(shù)隨著Ah與Bj之間的距離增加而減小的速度。

1.1.2擴展規(guī)則

在訓(xùn)練階段,執(zhí)行超盒擴展過程以將輸入數(shù)據(jù)包括在各自的超盒中。當(dāng)超盒Bj擴展為包括輸入模式Ah時,必須滿足以下約束[2]:

(3)

如果輸入數(shù)據(jù)不屬于任何超盒,即不滿足式(3)中的約束,則創(chuàng)建了一個新的超盒以便輸入數(shù)據(jù)被網(wǎng)絡(luò)學(xué)習(xí)。如果輸入數(shù)據(jù)滿足式(3)中的擴展要求,則通過式(4)更新該超盒。公式如下:

(4)

1.1.3重疊測試

重疊測試是確定是否有不同類別的重疊的超盒。由于擴展過程中可能會導(dǎo)致現(xiàn)有超盒之間存在重疊的情況,所以需要通過測試來確定是否存在重疊。這個測試主要考慮以下4種情況[2]。如果滿足其中任意一個情況,就認為超盒之間存在重疊。

情況1:

Vji

(5)

情況2:

Vki

(6)

情況3:

Vji

min(min(Wki-Vji,Wji-Vki),δold)

(7)

情況4:

Vki

min(min(Wji-Vki,Wki-Vji),δold)

(8)

最初假定δold=1。如果δold-δnew>0,則Δ=i&δold=δnew。這表明重疊檢測到第一個維度,測試繼續(xù)進行下一個維度。如果不存在其他重疊區(qū)域,則測試停止,并通過設(shè)置Δ=-1,即將下一個收縮步驟表示為“不必要”[12]。注意,相同類別的超盒可以存在重疊。

1.1.4收縮規(guī)則

如果來自不同類別的超盒存在重疊,則會啟動超級框收縮過程以消除重疊的區(qū)域。在收縮過程中,通過僅調(diào)整每個重疊的超級盒中n個維度中的一個維度來保持超級盒尺寸盡可能大。即,通過最小化調(diào)整每個超級框來消除重疊區(qū)域。

1.2 增強的模糊最小最大神經(jīng)網(wǎng)絡(luò)(EFMMN)

增強的模糊最小最大神經(jīng)網(wǎng)絡(luò)主要在擴展規(guī)則、重疊測試以及收縮方面進行了改進。

在擴展規(guī)則方面,為了解決現(xiàn)有FMMN擴展過程中可能會導(dǎo)致后續(xù)過程中的不同類的超盒超范圍擴展這一難題[13]。Mohammed 等[4]提出如下的新擴展規(guī)則:

maxn(Wji,Ahi)-minn(Vji,Ahi)≤θ

(9)

根據(jù)式(9),第j個超級框的每個維度都經(jīng)過獨立測試,以調(diào)節(jié)其是否超過擴展系數(shù)(θ)。當(dāng)所有超盒尺寸不超過θ時使用擴展。

在重疊測試和收縮方面,在超盒重疊測試期間,使用FMMN模型中給出的當(dāng)前4種情況不足以識別整個覆蓋范圍。為了解決此難題,Mohammed 等[4]進一步完善了重疊測試的情況,將重疊測試和收縮由4種情況修改為如下的9種情況:

情況1:

Vji

δnew=min(Wji-Vki,δold)

(10)

情況2:

Vki

δnew=min(Wki-Vji,δold)

(11)

情況3:

Vji=Vki

δnew=min(min(Wji-Vki,Wki-Vji),δold)

(12)

情況4:

Vji

δnew=min(min(Wji-Vki,Wki-Vji),δold)

(13)

情況5:

Vki=Vji

δnew=min(min(Wji-Vki,Wki-Vji),δold)

(14)

情況6:

Vki

δnew=min(min(Wji-Vki,Wki-Vji),δold)

(15)

情況7:

Vji

δnew=min(min(Wji-Vki,Wki-Vji),δold)

(16)

情況8:

Vki

δnew=min(min(Wji-Vki,Wki-Vji),δold)

(17)

情況9:

Vki=Vji

δnew=min(Wki-Vji,δold)

(18)

1.3 K最近鄰模糊最小最大神經(jīng)網(wǎng)絡(luò)(KFMMN)

為了避免在獲勝超盒附近產(chǎn)生過多的小超盒,Mohammed等[5]提出了K最近鄰模糊最小最大神經(jīng)網(wǎng)絡(luò)。該模型與原始FMMN僅關(guān)注一個獲勝的超盒不同,該模型選擇了K個具有相同類別標簽的超盒來確定超盒擴展過程最終獲勝的超盒,這樣能夠避免在獲勝超盒附近產(chǎn)生過多的小超盒,從而降低FMMN網(wǎng)絡(luò)復(fù)雜度。同時,該模型可以應(yīng)用于FMMN的多種變體,包括增強模糊最小最大神經(jīng)網(wǎng)絡(luò),形成K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)(KEFMMN)。

首先,選擇獲勝的超盒(具有最高隸屬函數(shù)的超盒),然后,使用式(3)將其所有維度與擴展系數(shù)進行比較。獲勝的超盒對式(3)的任何違反都會導(dǎo)致選擇下一個最近的超盒,以通過相同的檢查步驟。如果所有K最近鄰超盒都不能滿足式(3),則將創(chuàng)建一個新的超盒來對輸入樣本學(xué)習(xí)。通過這種方式,能夠避免在獲勝超盒附近創(chuàng)建過多的小型超盒,從而降低了網(wǎng)絡(luò)的復(fù)雜度。

2 帶質(zhì)心的K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)的集成方法

FMMN及其變體在訓(xùn)練網(wǎng)絡(luò)的時候沒有考慮超盒內(nèi)部訓(xùn)練數(shù)據(jù)的分布情況,并且考慮擴展系數(shù)的問題也不是很充分,導(dǎo)致每次訓(xùn)練新數(shù)據(jù)集都要重新選擇最優(yōu)的擴展系數(shù)。E-CFMM通過增加數(shù)據(jù)質(zhì)心來表示超盒內(nèi)部訓(xùn)練數(shù)據(jù)的分布情況,通過集成的方法來解決選擇擴展系數(shù)的問題。第一,每個超盒增加了數(shù)據(jù)質(zhì)心,在擴展規(guī)則、收縮規(guī)則以及預(yù)測的時候都考慮了數(shù)據(jù)質(zhì)心的問題;第二,增加了刪除同類型超盒的步驟,以便減少網(wǎng)絡(luò)復(fù)雜度;第三,通過集成的方法解決了傳統(tǒng)的FMMN及其變體選擇最優(yōu)擴展系數(shù)的問題。具體如下。

2.1 增加超盒的數(shù)據(jù)質(zhì)心

當(dāng)輸入為第1個訓(xùn)練數(shù)據(jù)或者沒有滿足擴展要求而要單獨形成超盒的數(shù)據(jù)時,此時形成的超盒,如式(19)所示:

Vji=Wji=Cji=ahi,(i=1,2,…,n)

(19)

式中:ahi是第h個數(shù)據(jù)樣本的第i維度值;j為第j個超盒,i樣本的維度。

當(dāng)輸入的數(shù)據(jù)滿足擴展超盒,則通過遞推算術(shù)平均法進行更新質(zhì)心值,如式(20)所示[14]:

(20)

2.2 擴展規(guī)則

在訓(xùn)練模糊最小最大神經(jīng)網(wǎng)絡(luò)時,選擇獲勝的超盒不僅依靠隸屬度而且還考慮輸入的樣本點與超盒數(shù)據(jù)質(zhì)心之間的距離,具體設(shè)計如下:

當(dāng)輸入的樣本點位于相同類別的超盒隸屬度為1時,即輸入的樣本點完全位于某個相同類別的超盒內(nèi),這時不考慮輸入樣本點與超盒內(nèi)的數(shù)據(jù)質(zhì)心之間的距離。當(dāng)輸入的樣本點位于相同類別的超盒隸屬度不為1時,則考慮樣本點與這些超盒數(shù)據(jù)質(zhì)心之間的距離。樣本點與質(zhì)心之間距離的計算公式采用歐式距離計算,具體計算如式(21)所示。

(21)

式中:n為輸入樣本的維度;x表示輸入的樣本;y表示超盒數(shù)據(jù)質(zhì)心。

在計算完具體的距離以后,需要將其轉(zhuǎn)換為具體的距離權(quán)值。計算方法如式(22)所示。

(22)

式中:m為相同超盒的個數(shù);dist為式(21)計算的結(jié)果。

在選擇最終獲勝的超盒時,將每個超盒的隸屬度的值(由式(2)所求)與其距離權(quán)值相加,用相加后的值由大到小排序超盒,選擇前K個獲勝超盒,并進行下一步的擴展判斷。

2.3 收縮規(guī)則

從3.2節(jié)選擇的K個獲勝的超盒中,選擇第1個超盒進行擴展條件判斷,如果滿足擴展條件,則進行重疊測試。如果存在重疊則進行收縮,收縮的規(guī)則如表1所示。其中情況1、2以及情況4都考慮了質(zhì)心是否在重疊區(qū)域的問題。并且在每個收縮后的超盒都增加一個長度為0.01單位的間隔,這樣可以避免輸入的樣本點剛好落在2個重復(fù)超盒收縮的邊界。

表1 E-CFMM的收縮規(guī)則

續(xù)表(表1)

續(xù)表(表1)

通過表1的方式收縮存在重疊的超盒后,還要判斷本次超盒收縮得是否過多,當(dāng)收縮不到原來超盒大小的1/3時,則拒絕本次收縮并選擇下一個候選超盒進行擴展和收縮判斷,如果所有的候選超盒都不滿足上述情況,則樣本點單獨形成一個超盒。當(dāng)收縮大于原來超盒大小的1/3時,則還要判斷收縮后的超盒的數(shù)據(jù)質(zhì)心還在不在超盒內(nèi),如果不在,則需要使用如下的方法更新質(zhì)心:

如果超盒數(shù)據(jù)質(zhì)心小于該超盒的下限V,則該質(zhì)心獨立形成一個超盒,并將原來的超盒所隸屬的樣本數(shù)量與質(zhì)心形成的超盒所隸屬的樣本數(shù)量平分,原來的超盒數(shù)據(jù)質(zhì)心設(shè)置為超盒的下限V。

如果超盒數(shù)據(jù)質(zhì)心大于該超盒的上限W,則該質(zhì)心獨立形成一個超盒,并將原來的超盒所隸屬的樣本數(shù)量與質(zhì)心形成的超盒所隸屬的樣本數(shù)量平分,原來的超盒數(shù)據(jù)質(zhì)心設(shè)置為超盒的上限W。

2.4 刪除同類完全被包住的超盒

由于利用重疊測試值來判斷不同類別的超盒之間是否存在重疊時,可能會導(dǎo)致同類超盒存在完全被包住的情況,如果不刪除被完全包住的超盒的話不但不會提升模型的準確率而且還可能會增加網(wǎng)絡(luò)的復(fù)雜度。為此,增加刪除同類完全被包住的超盒的方法,并更新較大超盒的質(zhì)心以及超盒樣本數(shù)量。更新質(zhì)心的方法見式(23),更新超盒樣本數(shù)量方法見式(24)。

(23)

cardin_parent=cardin_parent+cardin_current

(24)

式中:cardin_parent表示較大超盒所擬合的樣本數(shù)量;cardin_current表示較小超盒所擬合的樣本數(shù)量;cluster_parent表示較大超盒的數(shù)據(jù)質(zhì)心;cluster_current表示較小超盒的數(shù)據(jù)質(zhì)心。

2.5 集成方法

第1步,訓(xùn)練弱分類器。首先,選擇5個帶質(zhì)心的K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)作為弱分類器,擴展系數(shù)分別為0.1、0.3、0.5、0.7、0.9。其次,打散訓(xùn)練集,將訓(xùn)練集平分,其中前一部分訓(xùn)練集用于訓(xùn)練弱分類器,而后一部分訓(xùn)練集用于通過訓(xùn)練好的弱分類器來進一步生成訓(xùn)練數(shù)據(jù)。復(fù)次,每個弱分類器隨機選擇前一部分訓(xùn)練集中的1/3的數(shù)據(jù)用于訓(xùn)練初始網(wǎng)絡(luò),再隨機選擇1/3的訓(xùn)練樣本測試第一個弱分類器,并保留預(yù)測錯誤的樣本,測試之后用這些數(shù)據(jù)訓(xùn)練第一個弱分類器。再次,在錯誤的樣本中添加新的訓(xùn)練樣本,使得數(shù)量等于訓(xùn)練樣本的1/3,并將該數(shù)據(jù)用于測試第2個弱分類器,進行上面同樣的操作。如果是第5個弱分類器產(chǎn)生的預(yù)測錯誤的樣本,則留給第1個弱分類器進行訓(xùn)練使用。當(dāng)某個弱分類器預(yù)測錯誤率為0或者在3輪中最小錯誤率沒有改變時,則停止訓(xùn)練該弱分類器。最后,當(dāng)沒有可以訓(xùn)練的弱分類器時,則停止訓(xùn)練,進行下一步的操作。

第2步,形成隨機森林所需要的新的數(shù)據(jù)。訓(xùn)練完成弱分類器之后,使用后一部分訓(xùn)練集和測試集用于剛剛訓(xùn)練好的弱分類器形成新的樣本,此時每個弱分類器輸出10個離散屬性值,分別為:

該超盒預(yù)測的類別值。

測試樣本所屬的超盒的樣本的數(shù)量。

求得測試樣本中最高隸屬度相同類別的超盒個數(shù)。

求得測試樣本中最高隸屬度不同類別的超盒個數(shù)。

測試樣本與數(shù)據(jù)質(zhì)心之間距離最小的超盒類別,如果多個選擇第1個。

求得測試樣本中最大隸屬度所屬的類別,如果多個選擇第1個。

測試樣本最大隸屬度是否為1。

測試樣本點與超盒數(shù)據(jù)質(zhì)心之間距離最近的5個超盒所屬類別中,類別相同個數(shù)最多的類別,如果多個選擇第1個。

測試樣本點所求得的前5個最大隸屬度所屬類別中,類別相同個數(shù)最多的類別,如果多個選擇第一個。

測試超盒的正確率,其正確率轉(zhuǎn)換為0~10個等級,等級越大正確率就越大,其中使用的數(shù)據(jù)為訓(xùn)練弱分類器的數(shù)據(jù)。

第3步,數(shù)據(jù)預(yù)處理。首先,將每個弱分類器輸出的10個離散屬性值進行拼接組成擁有50個條件屬性和1個決策屬性的數(shù)據(jù)。其次,使用信息增益與屬性依賴度進行特征選擇,選出信息增益與屬性依賴度之和大于零的特征。最后,進行標準歸一化。其中,信息增益計算方法參見式(25),屬性依賴度計算方法參見式(26)。

(25)

式中:a為離散屬性,有V個可能的取值{a1,a2,…,aV};Dv表示所有在屬性a上取值為aV的樣本。Ent(D)計算方法參見式(27)。

(26)

式中:U為論域;PosB(D)表示正域,其計算方法參見式(28)。

(27)

式中:i表示第i類樣本所占的比例為pi(i=1,2,…,N)。

(28)

本文中,X為依據(jù)決策屬性劃分的數(shù)據(jù)集,R為一個條件屬性,U為整個數(shù)據(jù)集,Y為依據(jù)R的值劃分的數(shù)據(jù)集。

第4步,訓(xùn)練并測試隨機森林。將這些整理好的訓(xùn)練數(shù)據(jù)作為隨機森林的訓(xùn)練數(shù)據(jù),將整理好的測試數(shù)據(jù)作為隨機森林的測試數(shù)據(jù),最后輸出預(yù)測結(jié)果。

3 實驗結(jié)果及分析

3.1 數(shù)據(jù)集

實驗部分使用UCI資料庫中的數(shù)據(jù)集[15]。這些基準數(shù)據(jù)集已被廣泛用于評估機器學(xué)習(xí)算法。數(shù)據(jù)集的詳細信息如表2所示。在以下實驗中,所有數(shù)據(jù)集中的訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)之比為8∶2。

表2 實驗數(shù)據(jù)集

3.2 性能評估指標

為了進一步比較E-CFMM與其他算法的性能,使用準確度、精確率、召回率以及F-score,并使用ROC曲線和AUC值以及箱型圖的方式來做性能評估指標分析。表3為由二分類問題定義的混淆矩陣表。

表3 混淆矩陣

準確度定義如下:

Accurate=(TP+TN)/(TP+TN+FN+FP)

(29)

精準率定義如下:

(30)

召回率是分類器正確檢測到正類實例的比率,其計算公式如下:

(31)

根據(jù)精準率和召回率的計算結(jié)果,F(xiàn)-score的公式定義如下:

(32)

此外,AUC得分是根據(jù)ROC曲線下的面積來測量的,該曲線根據(jù)真實陽性率(TPR)和錯誤陽性率(FPR)繪制。

TPR=TP/(TP+FN)

(33)

FPR=FP/(FP+TN)

(34)

3.3 帶質(zhì)心的K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)(CFMM)與其他模糊最小最大網(wǎng)絡(luò)的比較

為了比較FMMN、EFMNN、KNEFMNN以及CFMM之間的準確度和運行時間。在實驗中使用3種不同尺寸的擴展系數(shù),即小尺寸θ=0.1,中等尺寸θ=0.55和大尺寸θ=1.0。其他參數(shù)設(shè)置為K=2,γ=1。比較結(jié)果如表4所示。

通過表4可以看出:在不同擴展系數(shù)下,CFMM在準確率方面都是最好的。同時,相比于其他模糊最小最大神經(jīng)網(wǎng)絡(luò)方法,CFMM在準確率方面隨著擴展系數(shù)θ=1的增大而更有優(yōu)勢。但CFMM在訓(xùn)練時間方面比其他方法耗時要多,特別是在小尺寸的擴展系數(shù)的時候。導(dǎo)致CFMM訓(xùn)練時間長的根本原因在于增加了計算質(zhì)心和更新質(zhì)心這2個步驟所消耗的時間。導(dǎo)致CFMM的準確率隨著擴展系數(shù)θ=1的增大而增大的根本原因在于擴展系數(shù)越大,超盒擴展的越“粗糙”,而考慮了質(zhì)心以及新的收縮規(guī)則的情況會使得超盒擴展得更加準確。

表4 CFMM與FMMN、EFMNN、KNEFMNN在不同擴展系數(shù)下的實驗結(jié)果

3.4 E-CFMM與其他模糊最小最大網(wǎng)絡(luò)的比較

由于FMMN及其變體需要考慮擴展系數(shù)選擇的問題,而E-CFMM不需要考慮擴展系數(shù)的問題,為了更直觀地表現(xiàn)實驗結(jié)果,對準確度、精準率、召回率以及F-score進行比較。因為評估指標只適用于二分類的情況,因此使用Circle、Ionosphere和Spiral數(shù)據(jù)集作為比較的數(shù)據(jù)集。此處,F(xiàn)MMN及其變體的擴展系數(shù)與E-CFMM中的弱分類器的擴展系數(shù)相同,即擴展系數(shù)分別選擇0.1、0.3、0.5、0.7、0.9,而E-CFMM采用運行5次的結(jié)果作為比較結(jié)果。其中K=2,γ=1。箱型圖比較結(jié)果見圖2~4。

圖2 E-CFMM與FMMN及其變體 在Circle數(shù)據(jù)集上的比較結(jié)果

圖3 E-CFMM與FMMN及其變體 在Ionosphere數(shù)據(jù)集上的比較結(jié)果

圖4 E-CFMM與FMMN及其變體 在Spiral數(shù)據(jù)集上的比較結(jié)果

通過箱型圖的比較可以發(fā)現(xiàn),E-CFMM算法每次運行的結(jié)果在準確度、精準率、召回率以及F-score方面大部分優(yōu)于FMMN及其變體,并且E-CFMM不受到擴展系數(shù)選擇的影響。這主要是因為不同的數(shù)據(jù)集在使用訓(xùn)練好的每個帶有不同擴展系數(shù)的弱分類器生成數(shù)據(jù)時,最接近擁有最優(yōu)擴展系數(shù)的弱分類器生成的條件屬性在使用隨機森林訓(xùn)練時,該條件屬性會有更高的信息增益率,即越接近擁有最優(yōu)擴展系數(shù)的弱分類器生成的條件屬性越重要。

3.5 刪除同類完全包住的超盒對E-CFMM的影響

刪除同類完全包住的超盒對E-CFMM的影響,如表5所示。

表5 比較刪除同類完全包住的超盒對E-CFMM的影響

雖然同類超盒可能有一些其他有用信息,但通過表5可以發(fā)現(xiàn),刪除同類完全包住的超盒對E-CFMM幾乎沒有影響。導(dǎo)致這個現(xiàn)象的原因是因為集成方法有更好的泛化能力。

3.6 E-CFMM與其他機器學(xué)習(xí)算法的比較

在分類性能方面,E-CFMM與其他流行的機器算法(如樸素貝葉斯、K最近鄰、支持向量機和隨機森林)進行了比較,其中支持向量機使用了徑向基函數(shù)(RBF)內(nèi)核。此處,直接利用了scikit-learn工具箱[16]的這些機器學(xué)習(xí)算法,所有的參數(shù)都使用默認值,對于具有隨機性的算法,采用運行5次取平均值的方法來表示預(yù)測結(jié)果。最終實驗結(jié)果如表6所示。

表6 E-CFMM與其他機器學(xué)習(xí)的實驗結(jié)果比較

通過表6發(fā)現(xiàn),如果從最小錯誤率的個數(shù)來看,所提出來的算法(E-CFMM)與隨機森林的性能差不多,相比于其他的機器學(xué)習(xí)算法來說最優(yōu)結(jié)果的個數(shù)最多。

為了更全面地比較E-CFMM與其他機器學(xué)習(xí)方法的分類性能,此處采用假設(shè)檢驗來進行測試。零假設(shè)是:H0: 10個不同的實驗數(shù)據(jù)集中,E-CFMM與流行的機器學(xué)習(xí)算法的性能上沒有差異。為了拒絕這個假設(shè),在本次實驗使用Friedman秩和檢驗用作測試多個方法之間的顯著性差異。首先,F(xiàn)riedman秩和檢驗對分類算法的性能進行排名,其中最佳分類器被分配為第1等級,第2個最佳分類器被分配為第2等級,依此類推。最后,F(xiàn)riedman檢驗對分類器的平均等級進行比較。表7顯示了E-CFMM與流行的機器學(xué)習(xí)算法的測試誤差等級以及10個數(shù)據(jù)集中的平均等級。

表7 E-CFMM與流行的機器學(xué)習(xí)算法的測試誤差等級 以及10個數(shù)據(jù)集中的平均等級

如果實驗結(jié)果滿足零假設(shè)的話,則說明所有算法的執(zhí)行情況相似,因此它們的平均秩Rj應(yīng)該相等,弗里德曼(Friedman)統(tǒng)計量計算參見式(35):

(35)

(36)

該度量根據(jù)具有k-1和(k-1)·(N-1)自由度的F分布進行分配。如果否定假設(shè)被拒絕,即模糊最小最大神經(jīng)網(wǎng)絡(luò)的性能在統(tǒng)計上不同,則需要進行事后檢驗,以便發(fā)現(xiàn)這些模型的平均等級之間的關(guān)鍵差異。

使用95%置信區(qū)間(α=0.05)作為識別模糊最小最大神經(jīng)網(wǎng)絡(luò)的統(tǒng)計意義的閾值,使用弗里德曼檢驗計算出F分布:

本次實驗具有10個數(shù)據(jù)集和5個分類器,F(xiàn)F根據(jù)F分布具有分布5-1=4和(5-1)×(10-1)=36自由程度,F(xiàn)(4,36)的顯著性水平的臨界值α=0.05是2.634。觀察到FF>F(4,36),因此原假設(shè)被拒絕。這也就意味著在所考慮的數(shù)據(jù)集上, E-CFMM與流行的機器學(xué)習(xí)算法的性能上有差異。

下面比較E-CFMM算法與其他機器學(xué)習(xí)算法的性能指標,如表8~10所示,算法的ROC曲線結(jié)果見圖5。

表8 在Circle數(shù)據(jù)集上各種機器學(xué)習(xí)算法的精準率、召回率和F-score

表9 在Ionosphere數(shù)據(jù)集上各種機器學(xué)習(xí)算法的精準率、召回率和F-score

表10 在Spiral數(shù)據(jù)集上各種機器學(xué)習(xí)算法的精準率、召回率和F-score

通過表8~10可以發(fā)現(xiàn),E-CFMM算法在Ionosphere數(shù)據(jù)集以及Spiral數(shù)據(jù)集上無論是在精準率、召回率以及F-score方面都表現(xiàn)的最優(yōu)。同時,通過圖5可以發(fā)現(xiàn),E-CFMM算法在Circle數(shù)據(jù)集和Spiral數(shù)據(jù)集中AUC表現(xiàn)也是最優(yōu)的。

圖5 不同算法在不同數(shù)據(jù)集表現(xiàn)的ROC曲線

為了使得實驗結(jié)果更具有參考價值,增加對機器學(xué)習(xí)方法的重要參數(shù)的比較實驗。表11~14展示了不同參數(shù)下的樸素貝葉斯、KNN、SVM和RF的性能,表中字體加粗的表示其性能優(yōu)于E-CFMM。

通過表11~14可以發(fā)現(xiàn):當(dāng)隨機森林的n_estimators設(shè)置為100時與E-CFMM的性能不相上下,其他的參數(shù)的機器學(xué)習(xí)方法的性能都略低于E-CFMM,尤其是樸素貝葉斯在準確率方面大部分結(jié)果都是低于E-CFMM。

表11 不同版本的樸素貝葉斯的性能

表12 不同參數(shù)下的KNN性能

表13 不同參數(shù)下的SVM性能

表14 不同參數(shù)下的RF性能

4 結(jié)論

提出了一種帶質(zhì)心的K最近鄰增強模糊最小最大神經(jīng)網(wǎng)絡(luò)的集成網(wǎng)絡(luò)方法(E-CFMM),通過實驗發(fā)現(xiàn):E-CFMM可以有效地克服FMMN及其變體過于依賴擴展系數(shù)的選擇問題而且還提升了準確度,并且通過箱型圖的分析看出,E-CFMM算法每次運行的結(jié)果在準確度、精準率、召回率以及F-score方面大部分是優(yōu)于FMMN及其變體。同時,可以發(fā)現(xiàn)E-CFMM測試誤差平均等級是1.95,這在其他機器學(xué)習(xí)方法的測試誤差平均等級中是最低的。

主站蜘蛛池模板: 青草国产在线视频| 国产乱人视频免费观看| 午夜不卡视频| 欧美69视频在线| 亚亚洲乱码一二三四区| 麻豆国产在线不卡一区二区| 青青草a国产免费观看| 国产日韩精品欧美一区灰| 99久久人妻精品免费二区| 鲁鲁鲁爽爽爽在线视频观看| 精品国产成人av免费| 黄色网站不卡无码| 欧洲高清无码在线| 日韩在线2020专区| 久久久国产精品免费视频| 98精品全国免费观看视频| 青青草国产免费国产| 国内毛片视频| 久久公开视频| 国产精品欧美日本韩免费一区二区三区不卡 | 国产精品3p视频| 波多野结衣无码视频在线观看| 欧美成人区| 国产成人免费手机在线观看视频| 亚洲天堂网视频| 亚洲欧美综合在线观看| 小说 亚洲 无码 精品| 国产精品一区二区在线播放| 日本91在线| 国产精品青青| 99视频精品全国免费品| 色网站在线视频| 亚洲AⅤ综合在线欧美一区 | 欧美国产日产一区二区| 美女毛片在线| 色婷婷综合激情视频免费看| 第一页亚洲| 日韩欧美国产中文| 亚洲男人在线| 亚洲熟女偷拍| 国产精品13页| 国产欧美精品专区一区二区| 福利视频久久| 精品无码一区二区三区电影| 四虎永久在线视频| 国产日韩欧美中文| 丝袜高跟美脚国产1区| 久久青草精品一区二区三区| 无码人妻免费| 九九热视频在线免费观看| 欧美精品1区| 亚洲乱强伦| 国产无人区一区二区三区| 国产精品欧美日本韩免费一区二区三区不卡 | 日韩麻豆小视频| 欧美日韩成人在线观看| 狠狠色香婷婷久久亚洲精品| 美臀人妻中出中文字幕在线| 最新国产成人剧情在线播放| 韩日免费小视频| 国产超碰在线观看| 亚洲综合色区在线播放2019| 国产丝袜啪啪| 亚洲精品片911| 欧美日韩国产综合视频在线观看| 亚洲乱亚洲乱妇24p| 国产第二十一页| 国产屁屁影院| 久久性视频| 欧美国产成人在线| 91福利在线观看视频| 精品无码视频在线观看| 国产日韩精品欧美一区灰| 国产地址二永久伊甸园| www.精品国产| 欧美成人影院亚洲综合图| 日韩毛片免费| 四虎永久免费地址在线网站| 国产精品久久久精品三级| 久草视频福利在线观看 | 国产免费自拍视频| 色婷婷电影网|