999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視圖關系學習與圖學習的多視圖圖聚類

2023-10-29 04:20:50高清維趙大衛盧一相
計算機與生活 2023年10期
關鍵詞:融合

袁 柱,高清維,王 琳,趙大衛,盧一相,孫 冬,竺 德

安徽大學 電氣工程與自動化學院,合肥 230601

聚類作為無監督學習的一個分支是一種常見的數據分析方法,在機器學習、人工智能和模式識別等領域有著舉足輕重的作用。它廣泛應用于信息檢索、數據分類和異常檢測等場景[1]。聚類是根據數據之間的關系,將數據集劃分為不同的聚類簇。聚類分析的目標可以概括為“類內的相似性與類間的排他性”?,F實生活中,從不同的角度看待問題能夠把問題描述得更加全面。從不同方面描述的數據稱為多視圖數據,相比單視圖數據而言,多視圖數據包含更豐富的信息,從而把事物描述得更加全面。因此,多視圖數據廣泛存在于實際應用中。例如,一則新聞可以由不同的媒體報道,一個對象可以用正面和側面等不同的角度分別描述[2-3]。

多視圖聚類應用于人臉識別、新聞數據處理等人們生活的各個場景。在人臉識別技術中,往往會受到來自光線、面部表情和面部細節的干擾,使得識別精準度與效率降低,而多視圖聚類能夠有效地解決這一問題。對于目前存在的新聞數據類型復雜、數量龐大以及傳播速度極快等現狀,有效處理新聞數據成為了一個新問題。在日常生活中,面對龐雜的新聞,人們往往不能快速獲得感興趣的信息。而多視圖聚類可以有效挖掘新聞的類屬信息,能夠很好地解決個性化新聞推薦這一難題。本文在后續的實驗部分將針對上述兩種應用場景,驗證本文算法的有效性與可行性。

串聯所有的視圖通常會導致維度災難。因此,處理單視圖數據的方法不能直接遷移到處理多視圖數據上。近些年來,人們陸續提出了許多多視圖聚類方法??梢苑譃槲孱悾憾嘁晥D子空間聚類[4]、基于協同訓練的多視圖聚類、基于多核學習的多視圖聚類、多任務多視圖聚類、多視圖圖聚類。多視圖子空間聚類方法假設高維數據通常分布于低維子空間的并上[5-6]。它基于自表達性,即假設每個樣本可以被其他樣本線性表示。為了得到具有塊對角陣結構表示系數矩陣Z,關于Z的兩個廣泛使用的假設是低秩[6]和稀疏[7]。通過對所有的表示系數矩陣求平均值得到相似性矩陣,最后把它作為譜聚類算法的輸入[8],得到最終的聚類結果。在此基礎上,提出了多種多視圖子空間聚類模型。文獻[9]提出了新的多視圖子空間聚類算法。對所有的視圖都學習一個圖,并強制執行一個公共的聚類指標矩陣。但這一假設往往是不成立的,因為公共的聚類指標矩陣必須包含所有視圖的部分信息。因此,無法得到一個所有視圖共同認可的聚類指標矩陣。DiMSC(diversity-induced multi-view subspace clustering)[10]利用希爾伯特-施密特獨立準則(Hilbert Schmidt independence criterion,HSIC)作為多樣性項來探索多視圖數據的互補性。它通過挖掘多視圖數據的互補信息,提高聚類結果的準確性。文獻[11]提出了一個基于聯合相似圖的多視圖子空間聚類方法。這個聯合相似圖是基于多樣性正則化和秩約束的低秩表示來構建的。CiMSC(consistency-induced multiview subspace clustering)[12]以視圖內結構一致性和樣本分配一致性作為切入點,可以從高維數據中,學習到一個有效的子空間表示,并通過非線性重構方式將其編碼為潛在表示。但上述三種模型均采用了平均值圖作為譜聚類算法的輸入,忽略了這種低質量視圖對聚類結果的影響。LGOMSC(fusing local and global information for one-step multiview subspace clustering)[13]與文獻[14]提供了一種一步式多視圖子空間聚類,它融合了子空間表示、多視圖信息融合和聚類作為一個統一的優化框架來實現聚類。但這種方法忽略了不同視圖的多樣性,因此多視圖數據的互補信息沒有得到充分的挖掘。

在多視圖圖聚類方法中,用圖形表示對象與對象之間的關系。圖形中的節點對應數據對象,圖形中的每個邊描繪一對對象之間的關系。一般把對象之間的關系用相似性表示,即輸入圖矩陣由樣本數據相似性矩陣生成。一個常見的假設是每個視圖可以捕獲多視圖數據的部分信息,多視圖數據中每個視圖對應的圖形都具有相似的聚類結構。因此,多視圖可以通過合并視圖以增強數據對象之間的關系。多視圖圖聚類的目的是在所有視圖中找到一個融合圖,然后在融合圖上應用圖形切割算法或譜聚類,產生最終的聚類結果。如何得到一個有利于聚類的融合圖,成為多視圖圖聚類的首要問題。在文獻[15-17]中運用多視圖數據矩陣加權融合的方法,雖然它們沒有添加額外的聚類方法,但它們獨立地為每個視圖構造相似圖矩陣,這種方法可能會得到次優的融合圖。MAGC(multi-view attributed graph clustering)[18]使用圖過濾來實現聚類的平滑表示,并引入一種加權機制,區別不同視圖的不同貢獻。在實際應用中,每個視圖在共識圖中的重要性不同。因此,文中給每個相似圖分配不同的權重[19]。GMC(graph-based multi-view clustering)[20]應用一種自加權圖融合技術,將所有多視圖數據矩陣融合,生成一個融合圖數據矩陣。融合圖數據矩陣反過來改進了每個視圖的數據矩陣,在不使用別的圖切割算法下直接得到了最終的聚類結果。文獻[21]開發了一個統一的框架,同時進行圖學習和譜聚類。然而,這種方法不能對所有視圖保持靈活的局部多樣性結構,導致聚類性能表現不佳[22]。文獻[23]的方法運用每個視圖是融合圖的一個擾動和接近融合圖的圖應該被賦予較大權重的理論。在融合過程中對圖進行動態加權,有效降低了噪聲圖的干擾效應。文獻[24-25]針對現有的基于歐幾里德結構的多視圖圖聚類方法,提出了一種基于流行拓撲結構的聚類方法,將多個自適應圖整合到一個共識圖中。GBS(graph-based system)[26]的工作原理是提取每個視圖的數據特征矩陣,構造所有視圖的圖矩陣,并將構造的圖矩陣融合生成一個統一的圖矩陣,得到最終的聚類。文獻[27]為了實現最優的全局特征學習,提出了一種把自適應圖學習稀疏表示與自適應加權合作學習相結合。它通過引入自適應圖學習的同步優化方法可以更好地保留每個視圖內部的完整結構,使得到的全局最優矩陣有利于最終的聚類結果。

影響多視圖聚類性能的因素是能否充分挖掘和利用隱藏在其中的信息。這些信息包括高維數據在低維子空間的分布、多視圖數據分布的幾何形狀、多視圖視圖數據之間的互補信息以及不同視圖所占權重等。然而上文提及的方法,在一定程度上不能有效地利用或挖掘出這些信息,以至于得到次優的聚類結果。為了充分挖掘隱藏在多視圖數據中的信息,本文提出了一種視圖關系與圖結構學習的多視圖圖聚類方法,在一個統一的框架中基于多視圖自表達來整合圖融合與譜聚類學習。具體來說,首先把視圖自表達學習擴充到多視圖領域,有效地揭示了高維數據的低維子空間分布。其次對得到的相似圖做流形正則化處理,控制樣本數據分布的幾何形狀,明確地加強子空間表示。然后利用HSIC作為多樣性表示,充分利用隱藏在多視圖數據之間的互補信息。進一步,采用誘導自加權的圖融合學習方法,交替優化融合圖和不同視圖所占權重,將相似圖動態加權得到融合圖。最后,通過對融合圖圖結構的學習,建立了與譜聚類的聯系,構建了一個高質量的譜聚類輸入圖,生成聚類結果。圖1展示了本文工作的框架結構圖。在后續五個廣泛使用的數據集上的實驗結果表明,提出的視圖關系學習與圖學習的多視圖圖聚類算法具有一定的有效性和競爭性。

圖1 視圖關系學習與圖學習的多視圖圖聚類算法框架Fig.1 Multi-view graph clustering algorithm framework for view relation learning and graph learning

1 視圖關系學習與圖學習的多視圖圖聚類

1.1 符號與定義

X={X1,X2,…,Xv}是有v個視圖的多視圖數據矩陣,其中表示第v個視圖的特征維度,n表示視圖所包含的樣本個數。Zv∈Rn×n(v=1,2,…,h)是第v個視圖相似圖。U∈Rn×n是融合圖。β、γ、δ、ε、ζ是權衡參數。

1.2 多視圖自表達學習

1.2.1 單視圖自表達學習

單視圖數據集是指利用一種類型的特征對樣本集合進行描述,從而構成的數據矩陣。給定一個單視圖樣本數據集X=[x1,x2,…,xn]∈Rd×n,該樣本數據集有n個樣本向量,每個樣本向量的特征維度是d,設這組數據屬于k(k已知或未知)個低維線性子空間的并。

單視圖子空間聚類是指將這組樣本數據分割為不同的類,在理想情況下,每一類對應一個子空間。它的基本思想是,將樣本數據向量xi表示為其他所有屬于數據集X的樣本向量的線性組合??梢员硎緸椋?/p>

對表示系數施加一定的約束,使得當xi與xj不屬于同一個子空間時,有zij=0。將所有的數據及其表示系數按一定方式排成矩陣,則方程(1)等價于:

其中,Z∈Rn×n表示系數矩陣。若已知數據的子空間結構,并將數據按類別逐列排放,則在一定條件下可使表示系數矩陣Z具有塊對角結構,可以寫為:

其中,Zα(α=1,2,…,k)表示樣本數據在所屬子空間的系數矩陣。也就是說,若Z具有塊對角結構,那么這種結構揭示了高維數據的低維子空間結構。

在實際應用中,數據往往受各種噪聲或奇異值樣本的影響,這種影響是不可忽略的,此時可以把視圖自表達模型描述為:

本文使用最小二乘回歸子空間聚類模型,優化上述方程(4),得到方程(5):

式中,第一項為數據項,刻畫了表示數據與真實數據的逼近程度;第二項為正則項。β>0 是一個權衡參數,用來衡量視圖自表達學習中數據項和正則項的關系。若β的值過大,對噪聲或離群值魯棒效果較差;若β的值過小,得到的Zv的結構對最終的聚類結果不利。

1.2.2 擴充到多視圖領域的自表達學習

為了更加完備地表示一個樣本集合,往往需要使用更高維度的特征描述樣本集合,這被稱為多視圖數據集。把視圖自表達學習擴充到多視圖領域的優勢在于:(1)多視圖數據集的不同特征可以從不同的角度捕獲更多的信息,相比單視圖聚類只能利用單一的特征獲得部分信息,多視圖聚類結果的精度更高。(2)多視圖數據之間存在互補和一致性信息,將多視圖數據矩陣構成單一的特征表示矩陣,通常會存在特征冗余,并且不同視圖的統計特性是不同的。如果只是簡單地將所有視圖矩陣組合成一個數據矩陣,通常會破壞原始特征空間的內在結構。而將視圖自表達學習擴充到多視圖領域可以有效解決上述問題。

在后續的可視化分析中,本文所提算法在BBCSport多視圖數據集上的聚類結果要明顯優于在該數據集上只使用單視圖的聚類結果。證明了本文將視圖自表達學習擴充到多視圖領域的可行性。

把從單視圖的自表達學習擴充到多視圖領域得到方程(6):

如同在SMR(smooth representation),本文使用圖的正則化技術,它明確地加強子空間表示以滿足聚類效果[28]。流行正則化學習可以挖掘數據分布的幾何形狀,將其作為一個增加的正則項來控制樣本分布的幾何形狀。流形正則化學習的一個直觀解釋是,如果兩個數據點很接近,那么它們在相似圖中也很接近。它具有以下形式||xi-xj||2→0 ?||zi-zj||2→0,?i≠j。定義如下:

其中,前兩項是擴充到多視圖領域的視圖自表達學習。利用樣本數據相關性,對原始數據構建表示系數矩陣。方程使用Frobenius 范數進行約束,使得表示系數矩陣Z具有塊對角結構且對大部分噪聲有很強的魯棒性,揭示了高維數據的低維子空間分布。最后一項是流形正則化項,γ是正則化項參數。對得到的相似圖做流形正則化處理,控制樣本數據分布的幾何形狀,明確地加強子空間表示,進一步提高聚類精確度。

可以看出,方程(8)所提算法僅考慮多視圖的相似性信息。雖然使用流行正則化技術進一步地約束,但忽略了多視圖數據之間的關系,沒有充分挖掘和利用多視圖之間的信息,得到的相似圖質量較低。

1.3 視圖關系學習

多視圖的互補信息是每個視圖可能包含其他視圖不具備的知識。因此,采用多視圖能夠全面和準確地描述數據。然而,現有的多視圖學習方法有很大的局限性,它們不能保證不同視圖對應不同相似矩陣之間的互補性。換句話說,這些方法假設獨立構造的相似矩陣之間有豐富的互補信息,或假設多視圖彼此之間是獨立的。然而,這種假設是沒有任何依據的。因此,本文對視圖之間的多樣性進行研究。

為了增加多視圖數據之間的多樣性,本文探究矩陣之間的依賴關系。根據文獻[29]可以得到,多視圖數據的多樣性與它們的依賴性息息相關。簡單來說,如果數據之間有高度的依賴性,那么它們之間就有更強的多樣性。兩個變量之間的依賴性可以用很多方法來測量。本文采用HSIC,因為HSIC 實現簡單,能夠解決線性和非線性問題,并且經驗HSIC 可以用數據矩陣乘積的跡來表示,這保證了問題的可解性。HSIC在希爾伯特空間中計算Zv和Zv′上的互協方差算子的平方范數,根據經驗HSIC的定義[29],其表達式為:

其中,K1和K2是格拉姆矩陣,H=δij-1/n,H∈Rn×n。本文使用HSIC衡量數據之間的依賴性,保證多視圖數據提供足夠的互補信息,減少數據的冗余信息。

多視圖互補信息的探索是多視圖聚類的核心。因此,結合方程(8)和方程(9)得到:

其中,δ是正則化項參數。最后一項利用HSIC 獨立準則,依據核相關性度量來挖掘多視圖數據間的多樣性,明確地對不同視圖進行共正則化,深入探索了不同視圖的互補信息。通過對上述聯合增強的多視圖自表達學習,可以得到每個視圖的相似圖{Z1,Z2,…,Zh}。通常取相似圖的平均值圖作為譜聚類算法的輸入,以獲得最終的聚類結果。但該方法沒有區分不同視圖在融合圖中所占權重,并且會受到噪聲視圖的影響。因此,用次優的融合圖作為譜聚類的輸入得到的聚類結果并不理想。

1.4 圖融合

本文基于以下兩點:(1)每個視圖的相似圖Zv是融合圖U的一個擾動;(2)接近融合圖的視圖應該占較大的權重。提出一種誘導自加權的圖融合學習,自動加權每個相似圖Z1,Z2,…,Zh的不同權重,得到一個統一的融合圖U:

其中,wv根據如下計算規則獲?。?/p>

在實際應用中為了避免分母為0,使用方程(13):

其中,μ是一個非常小的數。

方程(11)中的wv依賴于U,即方程(11)中第一項的U和wv相互耦合。如果固定wv,可以把wv理解為第v個視圖的在融合圖中的所占權重。如果相似圖Zv很接近融合圖U,那么||Zv-U||F的值很小,wv的值就很大,即接近融合圖的視圖能夠分得較高的權重。反之當Zv遠離U時,wv的值很小,視圖分配的權重較低。這使得wv可以作為多視圖在融合圖中的權重,這一項的存在是有意義的。

根據方程(11)得到的U可以進一步用于方程(13)wv的更新。因此可以通過交替優化U和wv的方法,來解決前文提出的一種誘導自加權的圖融合學習。在下文的算法1,給出交替優化U和wv的具體過程。

1.5 圖結構學習與譜聚類

譜聚類作為多視圖圖聚類的方法之一,它是一種應用圖的分割理論,將圖分割為多個獨立的連通分量,每個連通對應一個簇。目前通常把圖割理論優化為對拉普拉斯矩陣進行譜分解問題。一般情況下,聚類的目標聚類簇數量往往是事先給定的,在本文中取k。那么方程(10)與方程(11)的解融合圖U也應該有k個連接點,即數據點已經被聚類為k個簇。如何約束融合圖U,使得U能滿足上述條件,獲得優質的譜聚類輸入圖,因此,本文對融合圖U的結構進行學習。

根據拉普拉斯矩陣性質,圖U的連接點k的數目等于它的拉普拉斯矩陣LU的零特征值的重根數目。由于LU是一個半正定矩陣,它的特征值λn≥…≥λ2≥λ1≥0。即如果,那么融合圖U就有k個連接點,才能作為譜聚類的輸入。因此本文需要最小化

通過對融合圖的拉普拉斯矩陣LU的特征向量進行聚類,將聚類問題轉換成圖的最優劃分問題。根據Ky Fan定理,本文可以得到譜聚類的目標函數:

譜聚類算法通過輸入融合圖U和聚類目標簇數k,接著計算度矩陣DU和拉普拉斯矩陣LU,然后利用拉普拉斯矩陣的特征向量進行聚類。

將方程(14)帶入到方程(11)中,可得到:

聯合方程(10)和方程(15)得到一種基于視圖關系與圖結構學習的多視圖圖聚類算法模型:

其中,前四項相輔相成,充分地挖掘了多視圖數據的互補信息。這樣得到的相似圖,可以有效且全面地揭示隱藏在數據中的分布結構。ε、ζ是正則化項參數。后兩項進一步用誘導自加權的圖融合學習方法,把融合圖和不同視圖所占權重交替優化。最后,通過對融合圖結構的學習,建立了圖學習與譜聚類之間的聯系,構建了一個高質量的輸入圖作為譜聚類算法的輸入,從而得到最終聚類結果。

2 優化

2.1 方程(10)的優化算法

求解方程(10)需要利用HSIC 的內積,即Kv=(Zv)TZv。可以得到如下方程:

可以看出,方程(18)對于每個視圖都是獨立的。因此,對于每個視圖,本文可以分別更新Zv。方程(18)關于Zv求導得到:

通過求解方程(20),可以得到每個視圖的相似圖。對方程(10)的求解步驟,在算法1中做出總結。

2.2 方程(16)的優化算法

提取的多視圖數據矩陣,使用算法1得到相似圖Z1,Z2,…,Zh。之后本文通過求解方程(16)得到融合圖U。觀察到,方程(16)中的變量是相互耦合的,本文可以通過交替迭代的方法優化求解。

2.2.1 固定F 和U 更新wv

方程(16)轉化成方程(11),可以由方程(13)直接得到。

2.2.2 固定F 和wv 更新U

注意到L是U的函數,方程(16)可以轉化為:

方程(22)關于U(:,i)的導數為:

2.2.3 固定wv 和U 更新F

可以把方程(16)轉化為求解方程(25):

F的最優解由LU的k個特征值對應的k個最小特征向量組成。

經過優化,所有變量都更新完畢。算法1總結了方程(16)的求解細節。

算法1MVG(multi-view graph clustering algorithm combining view relation learning and graph learning)算法的優化

輸入:多視圖數據矩陣X={X1,X2,…,Xh},聚類的數量k,參數β>0,γ>0,δ>0,ε>0,ζ>0。

輸出:相似圖Z1,Z2,…,Zh,融合圖U,聚類指標矩陣F。

步驟1利用HSIC內積,把方程(10)轉化為方程(18)。對方程(18)關于Zv求導,令導數為0,得到多視圖相似圖矩陣Z1,Z2,…,Zh。方程(16)中的各變量相互耦合,步驟2、步驟3、步驟4采用交替迭代的方法優化求解。

步驟2固定F和U,把方程(16)轉化為方程(11),根據方程(12)求解wv。

步驟3固定F和wv,由于L是U的函數,把方程(16)轉化為方程(21)。對方程(21)進行變換,并關于U(:,i)求導,令導數為0,可得U。

步驟4固定wv和U,把方程(16)轉化為方程(25),根據方程(25)求解F。

2.3 復雜度分析

MVG 算法的復雜度由三部分組成。具體來說,更新Zv需要計算矩陣的逆,它的復雜度為O(n3)。更新U的復雜度為O(hn),其中h是多視圖數據的視圖數。更新F需要計算拉普拉斯矩陣的特征向量,它的復雜度為O(kn2),其中k是聚類數目,n是樣本個數。設經過t次迭代后算法停止,總復雜度為O((n2+h+kn)tn),其中h?n,k?n,t?n。對比其他方法的復雜度:MCLES(multi-view clustering in latent embedding space)[30]的總復雜度為其中d(v)是第v個視圖數據集的維度,d是隱含嵌入表示的維度,k是聚類數目,V是多視圖數據的視圖數,n是樣本個數;GMC[20]的總復雜度為O(((mk+mn+c+cn)n)t+mnkd),其中m是多視圖數據的視圖數,k是領域的數量,c是聚類數目,t是迭代次數,n是樣本個數;LMSC(latent multi-view subspace clustering)[31]的復雜度為O(k2d+d3+k3+n3+dkn+kn2),其中k為潛在表示的維度,d是多視圖特征的總維度,n是樣本個數;MCDCF(multi-view clustering via deep concept factorization)[32]的總復雜度為O(m(pn2+dn2+hrqn2)),其中m是多視圖數據的視圖數,p是近鄰圖數量,q是內在維度,d是所有視圖的原始特征維度,r是迭代次數,n是樣本個數;FPMVS(fast parameter-free multi-view subspace clustering)[33]的總復雜度為O(hk2+hk3+nk3),其中h是所有視圖的維度總和,k為聚類數,n是樣本個數。通過對比上述算法的復雜度,本文所提算法更簡潔。

2.4 收斂性分析

觀察方程(16)發現,除了圖融合項外,其余項是明顯的凸函數。因此僅需要證明圖融合項是否具有收斂性。接下來重點對圖融合項的收斂性做理論分析。

引理1[34]對于任何的非0常數x和y,都有以下不等式成立:

代入wv=1/(2||Zv-U||F),得到:

根據引理1,可以得到:

聯合方程(28)和方程(29),可以得到:

因此,每次迭代之后,圖融合項總是在單調遞減,直至收斂。因此在大多數情況下,算法1 至少會收斂到局部最優解。在后續的收斂性實驗部分同樣證明了這一點。

3 實驗

為了驗證本文方法的聚類性能,在五個廣泛使用的多視圖數據集上進行實驗。根據六個評價指標,將MVG算法與其他算法進行比較。

3.1 數據集

五個數據集分別是reuters-1200、BBCSport、prokaryotic、ORL 和3scources。數據集的資料詳細統計在表1中。

表1 數據集介紹Table 1 Introduction of datasets

3.2 比較方法

實驗中,將本文提出的MVG算法與九種多視圖聚類算法進行對比。對比算法分別是SC_best、GMC[20]、GFSC(multi-graph fusion for multi-view spectral clustering)[23]、MCLES[30]、LMSC[31]、MCDCF[32]、FPMVS[33]、Co-Reg[35]、LTMSC(low-rank tensor constrained multiview subspace clustering)[36]。SC_best 算法在每一個視圖上運用譜聚類算法,通過信息量最大的一個視圖,得到單個視圖的最佳聚類結果。Co-Reg 算法運用共正則化的原理,使不同視圖的聚類一致。MCLES算法在潛在嵌入表示之后構造相似矩陣,并利用聚類指標矩陣直接得出聚類結果。GMC算法使用稀疏表示和自加權策略得到多個視圖統一的圖矩陣,之后對圖的拉普拉斯矩陣施加秩約束,不需要額外的聚類步驟。LMSC算法引入多視圖潛在表示,增強聚類結果的魯棒性。LMSC 算法在子空間表示中加入低秩約束,探索數據的高階相關性,減少了視圖的冗余信息。GFSC算法提出新的多視圖譜聚類模型,同時進行圖融合和譜聚類。MCDCF 將多層概念分解引入到多視圖聚類中,能夠學習層次信息,并推導出一個共識表示矩陣來獲取視圖間的共享信息。FPMVS將錨抽樣機制和子空間圖的構建統一到一個模型里,兩個過程相互協商,提高聚類效果。

3.3 評價指標

聚類分析要求高的類內的相似性,低的類間的相似性。為了對所有聚類算法的性能進行評估,本文選擇了6個廣泛使用的評價指標,對所有的評價指標,數值越大,說明聚類性能越好。不同的評價指標算法對聚類特性的偏好不同,選用多個評價指標能能全面地評價算法的聚類效果。

(1)標準化互信息NMI(normalized mutual information):

其中,H(X)和H(Y)分別是隨機變量X、Y的熵,I(X,Y)是兩個隨機變量X和Y的互信息。

(2)準確度ACC(accuracy),準確度用來度量預測結果與真實數據之間的關系,定義如下:

其中,si和ri是給定樣本數據xi的真實類別標記和聚類標記。當x=y時,δ(x,y) 的值為1,否則為0。map(ri)是映射函數,將聚類標記映射到真實類別。

(3)蘭德系數RI(Rand index),它表示預測樣本正確聚類的值。值越大說明聚類結果和樣本真實情況越相似。RI定義如下:

其中,TP是同一類的樣本劃分到同一個聚類簇;FN是同一類的樣本劃分到不同的聚類簇;FP是不同類的樣本劃分到同一個聚類簇;TN是不同類的樣本劃分到不同的聚類簇。

(4)精確率P(precision),它表示預測樣本判定為相同聚類中,樣本真實情況正確分類的占比。P定義如下:

(5)F(F-score),結合精確率和召回率R(recall)定義如下:

(6)調整蘭德系數AR(adjusted Rand index),在RI的基礎上,提出了具有更高預測區分度的AR,定義如下:

3.4 實驗結果

對于比較算法,采用原論文中的建議調節參數,保存較好的實驗結果。對于所有算法,每個實驗重復運行10 次,報告平均值的標準偏差。評價指標的值越大,表明聚類性能越好。表2~表6 報告了MVG算法在5 個數據集reuters-1200、BBCSport、prokaryotic、ORL和3scources上的聚類結果。其中,最優結果加粗顯示。

表2 各算法在reuters-1200數據集上的實驗結果Table 2 Experimental results of each algorithm on reuters-1200 dataset

表3 各算法在BBCSport數據集上的實驗結果Table 3 Experimental results of each algorithm on BBCSport dataset

表4 各算法在prokaryotic數據集上的實驗結果Table 4 Experimental results of each algorithm on prokaryotic dataset

表5 各算法在ORL數據集上的實驗結果Table 5 Experimental results of each algorithm on ORL dataset

表6 各算法在3scources數據集上的實驗結果Table 6 Experimental results of each algorithm on 3scources dataset

通過比較表2~表6的實驗結果,本文可以觀察到以下幾點:

(1)在所有的實驗結果中,MVG算法在大部分情況下優于其他多視圖聚類方法。具體來說,MVG 算法在總實驗中排名第一的占比為66.7%,排名第二的占比為26.7%,排名第三的占比為3.34%。

(2)在ORL 和reuters-1200 數據集上,MVG 算法始終優于其他多視圖聚類方法,這表明本文提出的MVG算法的有效性。在reuters-1200數據集上,MVG算法展示出較強的競爭力,評價指標NMI、ACC、P、F、RI和AR分別比次優方法提升0.22、0.09、0.115、0.152、0.032和0.185。

(3)MVG 算法始終優于SC_best 方法,多視圖數據優于單視圖數據的聚類結果,表明多視圖聚類中探索數據互補信息的重要性。MVG算法在大多數情況下優于GFSC算法,表明加入視圖關系學習能夠有效提高多視圖聚類性能。

3.5 可視化分析

為了更直觀地描述算法的聚類結果,分析其揭示隱藏在數據中分布結構的能力。本文運用t-SNE(t-distributed stochastic neighbor embedding)可視化算法,將對比算法的聚類結果、MVG算法的聚類結果和在單視圖數據集上的MVG 算法的聚類結果可視化。圖2展示了上述三個實驗在BBCSport數據集上的可視化聚類結果,不同的顏色表示不同的聚類簇。根據圖2(a)~圖2(e)觀察到,本文提出的MVG算法,相同顏色的點更緊密,即聚類簇內的數據點具有強相關性。且不同顏色的簇之間分離度更高,即簇與簇之間有較強的無關性。實驗結果進一步驗證了類內的相似性與類間排他性的聚類目標。這充分表明本文算法的可行性與有效性,以及該算法具有揭示隱藏在數據中分布結構的能力。根據圖2(e)、圖2(f)可以觀察到,MVG算法在BBCSport多視圖數據集上的聚類結果,要明顯優于在該數據集上只使用單視圖進行聚類的結果。這表明多視圖聚類方法優于單視圖聚類方法,同時驗證了本文將視圖自表達學習擴充到多視圖領域的可行性。

3.6 消融研究

為了驗證本文提出的MVG算法中,視圖多樣性項、多視圖數據分布的幾何形狀和融合圖圖結構項對聚類效果的影響,在5 個數據集上進行消融研究。MVG的3個變體算法定義如下,MVG-D忽略視圖多樣性,MVG-C忽略視圖數據分布的幾何形狀,MVGS 忽略融合圖圖結構。MVG-D、MVG-C 和MVG-S分別將參數δ、γ、ζ設為0,在6 個評價指標上的聚類結果如圖3所示。根據圖3,可以觀察到以下幾點:(1)對比MVG 聚類算法的結果,當忽略多視圖數據分布的幾何形狀,即MVG-C不進行流行正則化學習時,相比MVG 算法在常見的5 個數據集3scources、ORL、prokaryotic、BBCSport 和reuters-1200 上的聚類評價指標都顯示次優的聚類結果。(2)忽略融合圖圖結構時,即MVG-S。可以看出,對聚類輸入圖的圖結構進行約束,在聚類評價指標都有一定程度的提升。

圖3 MVG算法的消融研究Fig.3 Ablation study of MVG algorithm

3.7 參數敏感性分析

MVG 算法有5 個參數,β是數據自表達項的參數,γ是控制數據分布幾何形狀項的參數,δ是視圖多樣性項的參數,ε是圖融合項的參數,ζ是圖結構項的參數。在reuters-1200數據集上進行參數敏感性分析實驗,本文給出所有參數的敏感性分析結果。固定其他4個參數保持不變,改變其中一個參數的取值范圍。圖4展示了在reuters-1200數據集上所有參數對聚類性能的影響。

由圖4可以看出,參數β、參數γ、參數δ、參數ε和參數ζ分別在10、0.1、1、0.1、10 左右,聚類取得最佳結果。參數的取值,過大或者過小都會降低聚類性能或導致聚類精度波動較大。當β的值過大時,對噪聲或奇異值樣本魯棒效果較差;當β的值過小時,得到的Zv的結構對最終的聚類結果不利。當γ的值過大時,對樣本分布的幾何形狀約束過高;當γ的值過小時,不能明確地加強子空間表示。當δ的值過大時,視圖的多樣性項權重過高,導致學習的相似圖不準確;當δ的值過小時,多視圖視圖之間的互補信息不能得到充分的挖掘。類似的,參數ε的值過大時,會導致聚類評價指標的波動過大;參數ε的值過小時,融合圖的質量不再受到算法的關注。參數ζ的值過大時,導致次優的聚類評價指標;參數ζ的值過小時,一定程度上忽略了融合圖圖結構的學習。

3.8 收斂性實驗

本文提出的MVG 算法包含4 個未知變量,分別是Zv、wv、U和F。在每次迭代中,每次優化問題都有一個封閉解,可以表明,整個優化算法有較好的收斂性。圖5顯示了MVG算法在5個數據集上的收斂曲線。橫坐標表示迭代次數,縱坐標表示目標函數值。在實驗中,最大迭代數為10。從圖5 可以看出,MVG在少量迭代中收斂,這能夠證明所提出的算法有很好的收斂性。

圖5 MVG算法的收斂性實驗Fig.5 Convergence experiment of MVG algorithm

4 結論

在一個統一的框架中基于多視圖自表達來整合圖融合與譜聚類學習。把視圖自表達學習擴充到多視圖領域,有效地揭示了高維數據的低維子空間分布。對得到的相似圖做流形正則化處理,控制樣本數據分布的幾何形狀,明確加強子空間表示。把HSIC 準則作為多樣性項,充分利用隱藏在多視圖數據之間的互補信息。采用誘導自加權的圖融合學習方法,通過交替迭代優化,將相似圖動態加權,得到一個融合圖。通過對融合圖結構的學習,建立了圖學習與譜聚類之間的聯系,構建一個高質量的輸入圖作為譜聚類的輸入,生成聚類結果。不僅能夠充分挖掘隱藏在多視圖數據中的豐富的信息,在此基礎上自加權融合相似圖,優化譜聚類的輸入。在多個數據集上的實驗結果表明,該算法具有一定的可行性與有效性。

猜你喜歡
融合
一次函數“四融合”
兩個壓縮體融合為一個壓縮體的充分必要條件
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
寬窄融合便攜箱TPFS500
寬窄融合便攜箱IPFS500
從創新出發,與高考數列相遇、融合
寬窄融合便攜箱IPFS500
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
“四心融合”架起頤養“幸福橋”
福利中國(2015年4期)2015-01-03 08:03:38
主站蜘蛛池模板: 四虎永久在线| 91久久天天躁狠狠躁夜夜| 国产Av无码精品色午夜| 超级碰免费视频91| 国产迷奸在线看| 日韩 欧美 小说 综合网 另类 | 国产在线无码一区二区三区| 人妻精品全国免费视频| 国产成人精品视频一区二区电影 | 欧美中文一区| 亚洲高清在线天堂精品| 国产成人一区免费观看| 中文字幕在线日本| 婷婷色中文| 天天综合天天综合| 国产亚洲精品自在线| 噜噜噜久久| 日韩毛片免费| 亚洲性一区| 一级毛片基地| 免费毛片a| 97视频精品全国免费观看| 国产视频自拍一区| 丁香六月激情婷婷| 国产一在线观看| 国产白浆一区二区三区视频在线| 在线无码九区| 国产成人免费手机在线观看视频| 亚洲一区二区三区在线视频| 国产在线自揄拍揄视频网站| 男人的天堂久久精品激情| 亚洲国产一成久久精品国产成人综合| 午夜毛片免费观看视频 | 免费看a级毛片| 日本人真淫视频一区二区三区| 91精品福利自产拍在线观看| 国产爽妇精品| 91免费片| 特级毛片8级毛片免费观看| 精久久久久无码区中文字幕| 无码精品福利一区二区三区| 国产欧美日韩va| 黄片一区二区三区| 国产亚洲视频在线观看| 一级毛片免费的| 国产尹人香蕉综合在线电影| 亚洲精品高清视频| 亚洲精品无码高潮喷水A| 国产精品午夜福利麻豆| 中国毛片网| 少妇人妻无码首页| 久久性视频| 国产亚洲精品无码专| 国产99在线| 国产91小视频在线观看| 久草视频福利在线观看| 日韩第九页| 日韩天堂在线观看| 日本黄色a视频| 香蕉久人久人青草青草| 极品国产一区二区三区| 国产精品精品视频| 亚洲最新网址| 久久精品一品道久久精品| 自拍偷拍欧美| 亚洲欧美另类中文字幕| 91黄色在线观看| 中文字幕色站| 日韩区欧美区| 区国产精品搜索视频| 欧美亚洲综合免费精品高清在线观看 | 黄色免费在线网址| 国产精品浪潮Av| 伊人天堂网| 亚洲日本中文综合在线| 中文字幕欧美日韩| www.亚洲天堂| 国产女人在线| 亚洲无码免费黄色网址| 全免费a级毛片免费看不卡| 精品国产中文一级毛片在线看 | 婷婷午夜影院|