










摘要: 針對如何充分融合多視圖數據的互補性和多樣性信息以提高聚類性能的問題, 提出一種基于自適應加權共識自表示的多視圖子空間聚類模型. 首先, 引入稀疏互斥性學習視圖特定的稀疏自表示矩陣, 再利用自適應加權學習多視圖共識自表示矩陣以融合各視圖所學到的自表示; 其次, 將多視圖共識矩陣與聚類指示矩陣的學習整合到一個統一的優化模型, 使自表示學習與聚類達到相互促進的效果; 最后, 在6個常用的多視圖數據集上進行實驗, 并與9種相關方法進行對比. 實驗結果表明, 該方法的信息融合效果明顯, 聚類效果有提升.
關鍵詞: 多視圖子空間聚類; 稀疏表示; 自表示; 自適應加權學習
中圖分類號: TP391.1文獻標志碼: A文章編號: 1671-5489(2025)02-0513-15
Multi-view Subspace Clustering Based onAdaptive Weighted Consensus Self-representation
LI Yong, ZHANG Weiqiang
(School of Mathematical Sciences, Shenzhen University, Shenzhen 518060, Guangdong Province, China)
Abstract: Aiming at the problem of how to fully integrate the complementary and diverse information of multi-view data to improve the clustering performance, we proposed a multi-view subspace clustering based on adaptive weighted consensus self-representation. Firstly, we introduced sparse mutual exclusion to learn view-specific sparse self-representation matrix, and then used adaptive weighted learning of multi-view consensus self-representation matrix to fuse the self-representation learned from various views. Secondly, we integrated the learning of multi-view consensus matrix and clustering indicator matrix into a unified optimization model, so that self-representation learning and clustering could promote each other. Finally, we conducted experiments on six commonly used multi-view datasets, and compared them with nine related methods. The experimental results show that the proposed method has obvious information fusion effect and improves clustering effect.
Keywords: multi-view subspace clustering; sparse representation; self-representation; adaptive weighted learning
收稿日期: 2024-11-29.
第一作者簡介: 李 永(1999—), 男, 漢族, 碩士研究生, 從事多視圖聚類的研究, E-mail: 2100201001@email.szu.edu.cn.
通信作者簡介: 張維強(1977—), 男, 漢族, 博士, 副教授, 從事機器學習和圖像處理的研究, E-mail: wqzhang@szu.edu.cn.
基金項目: 國家自然科學基金(批準號: 61972264)、 廣東省自然科學基金(批準號: 2019A1515010894)和深圳市高校穩定支持計劃項目(批準號: 20200807165235002).
在機器學習和數據挖掘領域, 聚類是探索和分析數據間關系最常用的方法之一, 其基本思想是根據特定標準對數據點進行劃分, 使相似數據分到同一類, 不相似數據分到不同類[1].隨著數據采集技術和傳感技術的快速發展, 數據可通過多個領域的多個來源獲取或通過多個特征進行表示, 從而得到多源或多模態數據, 在聚類中統稱為多視圖數據. 例如, 在計算機領域, 一個圖像的特征可通過不同的特征提取算法獲得, 如局部二值模式(local binary patterns, LBP)[2]、 尺度不變特征轉換(scale-invariant feature transform, SIFT)[3]和方向梯度直方圖(histogram of oriented gradient, HOG)[4]等; 在網頁分析中, 一個網頁可以由網頁文本、 圖片和指向它的超鏈接表示; 在文本分析中, 一篇新聞可以被多種語言報道. 相比于單視圖數據, 多視圖數據能從多角度、 全面地描述一個對象, 對探索和分析數據間關系有很大幫助. 多視圖數據聚類基于兩個基本假設: 1) 一致性, 所有視圖對描述的同一個對象有共同的類別屬性; 2) 多樣性, 每個視圖除共同信息外, 還包含特定的屬性. 如何充分利用多視圖數據的一致性和多樣性, 對多視圖聚類(multi-view clustering, MVC)至關重要.
近年來, 已涌現大量的MVC方法, 主要分為兩類: 一類是基于神經網絡的MVC[5-8], 將圖學習、 注意力機制、 自監督機制和自編碼框架加入神經網絡的設計中, 學習用于聚類的表示矩陣或建立表示學習與聚類的統一模型; 另一類是基于譜聚類的MVC, 可細分為基于協同訓練的多視圖聚類[9-12]、 多視圖多核聚類[13-15]、 多視圖非負矩陣分解聚類[16-19]、 多視圖圖聚類[20-23]和多視圖子空間聚類[24-50](multi-view subspace clustering, MSC). 由于MSC具有良好的數據表征能力, 因此備受關注.
MSC假設高維數據點位于多個低維子空間的并, 先利用子空間自表示矩陣構建相似度矩陣, 然后對相似度矩陣的Laplace矩陣應用Ncut譜聚類算法[24]得到聚類結果. 多視圖子空間聚類的研究重點是如何設計自表示的正則項, 使自表示矩陣能有效刻畫數據的子空間結構. 傳統方法包括稀疏子空間聚類(sparse subspace clustering, SSC)[25]、 低秩表示(low rank representation, LRR)[26]和塊對角表示(block diagonal representation, BDR)[27].Brbic'等[28]對自表示矩陣施加低秩和稀疏約束, 對各視圖自表示之間施加一致性約束以及各視圖自表示與共識矩陣的一致性約束. Chen等[30]對自表示矩陣、 聚類指示矩陣及其轉置的乘積同時施加塊對角約束. Zhang等[31]將每個視圖的自表示矩陣分解成低維的正交基矩陣和潛在表示矩陣, 對這些潛在表示矩陣施加低秩約束. 為處理原始數據的噪聲干擾和非線性結構, Zhang等[32]提出了學習一個多視圖共享的潛在表示, 在潛在表示上進行子空間聚類. 進一步, 文獻[33]將潛在表示
的學習由線性擴展到非線性, 使用全連接神經網絡學習更復雜的潛在表示. Lu等[34]對所有視圖學習共享的一致潛在表示以及每個視圖的特定潛在表示, 然后將每個視圖特有的潛在表示和所有視圖共享的一致潛在表示進行拼接集成, 最后學習集成表示的自表達, 或者分別對這些潛在表示進行自表達. Wang等[35]將圖學習引入到子空間聚類中, 利用自表示矩陣學習每個視圖的圖矩陣, 然后加權融合所有圖矩陣到統一的圖中進行譜聚類. 一些方法提出應考慮視圖間自表示的一致性約束和多樣性約束. Cao等[37]利用Hilbert-Schmidt獨立性準則(Hilbert-Schmidt independence criterion, HSIC)作為多樣性正則項, 但未考慮多視圖的一致性. Wang等[38]在自表示之間引入稀疏互斥性作為多樣性正則項, 并約束每個視圖具有共同的聚類指示矩陣. 在此基礎上, Chen等[39]在同一類中不同視圖間施加HSIC作為多樣性約束, 并約束所有視圖共享聚類結果. 文獻[40-41]則將自表示拆分成多視圖共享的一致表示及每個視圖特定的自表示, 在一致表示和特定表示上分別施加不同的約束. Wang等[44]學習一個共享的潛在完備空間, 引入完備感知相似性約束潛在表示和相似矩陣之間的關系.
盡管上述方法在一定程度上提高了多視圖聚類性能, 但如何充分融合多視圖的信息、 進一步提高聚類性能仍是目前多視圖聚類研究的焦點. 本文對多視圖數據先學習每個視圖特定的稀疏自表示矩陣, 然后通過自適應加權學習一個多視圖共識自表示矩陣, 并由共識自表示矩陣和聚類指示矩陣相互引導得到聚類結果, 稱為基于自適應加權共識自表示的多視圖子空間聚類(adaptive weighted consensus self-representation for multi-view subspace clustering, AWCR-MSC). 本文模型將多視圖自表示學習、 自適應加權共識融合以及譜聚類整合到一個統一的模型, 三者相輔相成, 自表示通過自適應學習分配不同的權重進行信息融合, 信息融合得到的共識矩陣通過聚類指示矩陣反饋促進自表示的學習, 從而更好地提升聚類性能.
1 預備知識
1.1 符號定義
對任意矩陣A, 用Aij,A,Aj分別表示A的第ij元素、 第i行向量、 第j列向量, AT
表示A的轉置, A表示對A的所有元素取絕對值. 若A為方陣, 則tr(
A)表示A的跡, diag(A)表示對角線上第i個元素為Aii的對角矩陣. 矩
陣A的L1-范數為
‖A‖1=∑i,jAij,
Frobenius范數為
‖A‖F=∑i,jA2ij,
向量x=(x1,x2,…,xn)T∈瘙綆n的1-范數為
‖x‖1=∑jxj,
2-范數為‖x‖2=∑jx2j.
1∈瘙綆n表示元素全是1的向量, I∈瘙綆n×n表示單位矩陣. 對于與A同形狀的矩陣B, A與B的Hadamard積為
A⊙B=∑i,jAijBij.
A≥0表示A的所有元素非負.
給定一組包含V個視圖的多視圖數據{X1,…,XV}, 其中第v個視圖的數據Xv∈瘙綆dv×n, n為樣本個數, dv為Xv的特征維數, Xv表示第v個視圖的第i個樣本數據. {Z1,…,ZV}為各視圖的自表示矩陣, 其中Zv∈瘙綆n
×n, v=1,2,…,V. Q=(q1,…,qn)T∈{0,1}n×c為
所有視圖共同的聚類指示矩陣, c為聚類個數, qj∈{0,1}c為第j個樣本的聚類標簽. 假設每個樣本屬于且僅屬于一個類, 則qj的分量有且只有
一個分量為1, 值為1的分量的指標即為該樣本的類別. 根據Q得到的數據連接矩陣Θ的
ij-元為Θij=12‖qi-qj‖22, 若第i,j個樣本為同一類, 則Θij=0, 否則Θij=1.
1.2 多視圖子空間聚類
數據的自表示是指子空間中每個數據點都可以由該空間其他數據點的線性組合表示. 對于視圖Xv, 其自表示形式為
Xv=XvZv+Ev,(1)
其中Zv∈瘙綆n×n為自表示矩陣, Ev∈瘙綆dv×n為自表示誤差或噪聲. 基于自表示多視圖子空間聚類的目標函數基本形式為
min ∑Vv=1(Φ(Ev)+λΩ(Zv)),s.t. diag(Zv)=0,(2)
其中Φ(·)度量表示誤差或噪聲, Ω(·)為正則項, λgt;0為平衡參數. 利用自表示矩陣得到相似度矩陣S的一般公式為
S=12∑Vv=1( Zv+ZTv).(3)
最后對親和度矩陣進行譜聚類得到聚類結果.
1.3 互斥性/一致性正則化多視圖子空間聚類
為挖掘多視圖數據的互補信息, 互斥性/一致性正則化多視圖子空間聚類(exclusivity-consistency regularized multi-view subspace clustering, ECMSC)[3
8]對多視圖自表示矩陣引入了一個稀疏互斥性正則項, 并為所有視圖學習一個共同的聚類指示矩陣, 建立了如下聯合優化模型:
minQ,Z1,…,ZV∑Vv=1(‖Ev‖1+λ1‖Zv‖1)+λ2∑w≠v(‖Zv⊙Zw‖
1+λ3‖Zv⊙Θ‖1),
s.t. Xv=XvZv+Ev, diag(Zv)=0, QTQ=I,(4)
其中λ1,λ2,λ3分別為多視圖自表示稀疏正則項、 稀疏互斥正則項和聚類指示矩陣一致正則項的權重.
2 模型及其優化
2.1 本文模型
ECMSC[38]學習各視圖特定的稀疏自表示矩陣, 并利用互斥正則項有效刻畫了多視圖的互補性, 目標函數(4)的最后一個正則項利用多視圖自表示學習一致的
聚類指示矩陣. 但該模型未充分融合多視圖的自表示. 為在自表示中全局地融合各視圖的信息, 本文提出對所有樣本用多視圖的自表示通過自適應加權平均學習一個多視圖共識自
表示矩陣Z. 若已知每個視圖的自表示矩陣Zv∈瘙綆n×n(v=1,2,…,V), 則本文的自適應加權多視圖共識自表示矩陣優化模型為
minZ,Ai∑ni=1‖Z-
iA‖22,
s.t. diag(Z)=0, A≥0, AT1=1,(5)
其中: Z∈瘙綆n為多視圖共識自表示矩陣Z的第i列; Zv∈瘙綆n為第v個視圖自表示矩陣Zv的
第i列, v=1,2,…,V; i=[Z1,…,ZV]∈瘙綆n×V為第i個樣本所有視圖自表示的拼接;
‖Z-iA‖22表示用第i個樣本的所有視圖自表示通過A∈瘙綆n中的元素
進行加權組合表示的平方誤差; A(A1,A2,…,An
)∈瘙綆V×n為所有權重構成的矩陣. 通過這種方式對多視圖自表示進行融合可有效保留多視圖的重要信息.
受ECMSC[38]啟發, 本文也學習各視圖特定的稀疏自表示矩陣, 并利用互斥正則項刻畫多視圖的互補性, 但本文利用式(5)學習自適應加權的多視圖
共識自表示矩陣, 利用共識自表示學習聚類指示矩陣, 得到聯合優化模型如下:
minZv,Z,A,Q∑V
v=1(‖Xv-XvZv‖2F+α‖Zv‖1)+β∑Vv,w=1v≠w
‖Zv⊙Zw‖1+
γ∑ni=1‖Z -iA ‖22+η‖Z⊙Θ‖1,
s.t. diag(Zv)=0, diag(Z)=0, A≥0, AT1=1, QTQ=I,(6)
稱為基于自適應加權共識自表示的多視圖子空間聚類(adaptive weighted consensus self-representation for multi-view subspace clustering, AWCR-MSC).
本文方法的基本思想是: 為多視圖數據學習各視圖特定的稀疏自表示矩陣及刻畫多視圖的互補性, 先對各視圖特定的稀疏自表示矩陣引入互斥正則項; 然后利用式(5)學習
自適應加權的多視圖共識自表示矩陣, 并利用共識自表示學習所有視圖共同的聚類指示矩陣. 基本框架如圖1所示.
圖1 本文模型基本框架Fig.1 Basic framework of proposed model
2.2 模型優化
本文采用交替最小化方法對問題(6)進行迭代求解, 迭代的每一步, 固定其他變量, 更新其中一個變量. 每步迭代需要求解下面4個子問題.
2.2.1 更新Zv
固定Z,A,Q, 關于Zv的子問題為
minZv∑Vv=1(‖Xv-XvZv‖2F+
α‖Zv‖1)+β∑Vv,w=1v≠w‖Zv⊙Zw
‖1+γ∑ni=1‖Z-iA‖22,s.t. diag(Zv)=0.(7)
本文使用ADMM算法[51]對問題(7)進行求解, 引入輔助變量Cv和Jv將問題分為
minZv,Cv,Jv∑Vv=1(‖Xv-XvC
v‖2F+α‖Zv‖1)+β∑Vv,w=1v≠w‖Zv⊙Zw‖1+γ∑ni=1‖
Z-iA‖22,
s.t. Cv=Zv-diag(Zv), Cv=Jv,(8)
其中i=(J1,…,JV)∈瘙綆n×V為第i個樣本所有視圖自表示的拼接.
問題(8)的增廣Lagrange函數為
L(Zv,Cv,Jv,Y1v,Y2v)=∑Vv=1
(‖Xv-XvCv‖2F+α‖Zv‖1)+β∑V
v,w=1v≠w‖Zv⊙Zw‖1+γ∑ni=1‖Z
-iA‖22+μ2∑Vv=1Cv-Zv+diag(Zv)+Y1vμ2
F+Cv-Jv+Y2vμ2F,(9)
其中Y1v和Y2v為Lagrange乘子, μgt;0為懲罰參數. 下面將問題(9)分解為幾個子問題進行交替更新.
1) Zv的子問題.
固定其他變量, 去掉問題(9)中與Zv無關的項, 因為問題(9)在視圖間是獨立優化的, 所以對于單個視圖:
minZv α‖Zv‖1+β∑w≠v‖Z
v⊙Zw‖1+μ2Cv-Zv+diag(Zv)+Y1vμ
2F,(10)
問題(10)的解為
v=Sα+β∑w≠vZw/μCv+Y1vμ,Zv=v-diag(v),(11)
其中Sτ[·]為收縮閾值算子.
2) Cv的子問題.
固定其他變量, 去掉問題(9)中與Cv無關的項, 對于單個視圖, 有
minCv‖Xv-XvC
v‖2F+μ2Cv-Zv+diag(Zv)+Y1vμ2F+Cv-Jv+Y2vμ2F.(12)
問題(12)有閉式解:
Cv=(XTvXv+μI)
-1XTvXv+μ2(Zv+
Jv-diag(Zv))-12(Y1v+Y2v).(13)
3) Jv的子問題.
固定其他變量, 去除問題(9)中與Jv無關的項:
minJvγ∑ni=1‖Z-iA‖
22+μ2∑Vv=1Cv-Jv+Y2vμ2F,(14)
將問題(14)簡化為
miniγ‖Z-iA‖22+μ2i-i+2iμ2F,(15)
其中i,i,2i與i的構造相同, 分別為第i個樣本的所有C
v,Jv,Y2v的拼接. 令問題(15)的目標函數關于i的導數等于0, 可得問題(15)的解析解為
i=(2γZAT+μi+2i)(2γAAT+μI)-1,(16)
更新完i(i=1,2,…,n)后, 取1,…,n的第v列拼接得到Jv.
4) Y1v,Y2v和μ的子問題.
Lagrange算子Y1v和Y2v可通過標準梯度上升法更新:
Y1v=Y1v+μ(Cv-Zv+diag(Zv)),
Y2v=Y2v+μ(Cv-Jv),μ=min{ρμ,μmax},(17)
其中ρ為步長, μmax為μ可取到的最大值.
算法1 問題(7)的ADMM求解算法.
輸入: 多視圖數據{X1,…,XV}, 聚類數c, 參數α,β,γ;
初始化: Zv=Z0, Cv=Jv=Zv, Z=1V∑
Vv=1Zv, Y1v=Y2v=0, A=1
V1V×n, μ=0.25, μmax=106, ρ=1.1, ε=10-3, t1=0, t1max=30;
輸出: Zv;
while收斂條件未滿足時do
1) 利用式(11)更新Zv;
2) 利用式(13)更新Cv;
3) 利用式(16)更新Jv;
4) 利用式(17)更新Y1v, Y2v, μ;
5) 檢查收斂條件: ‖Cv-Zv+diag(Zv)‖∞lt;ε, ‖Cv-Jv‖∞lt;ε;
6) t1=t1+1;
7) if t1≥t1max
break
end if
end while.
2.2.2 更新Z
固定Zv,A,Q, 關于Z的子問題為
minZγ∑ni=1‖Z-iA‖22+η‖Z⊙Θ‖1,
s.t. diag(Z)=0.(18)
將問題(18)轉化, 對Z的第i列, 有
minZγ‖Z-iA‖22+η‖Z⊙Θ‖1,(19)
問題(19)的解為
=Sη/(2γ)Θ(iA),(20)
利用(i=1,2,…,n)得到Z:
Z=-diag().(21)
2.2.3 更新A
固定Zv,Z,Q, 得到關于A的子問題, 對于A的第i列, 有
minA‖Z-iA‖22,
s.t. A≥0, AT1=1.(22)
記Gi=Z1T-i, 將問題(22)轉化為
minA‖GiA‖22,
s.t. A≥0, AT1=1.(23)
問題(23)的解為
A=(GTiGi)-111T(GTiGi)-11,(24)
其中若Aijlt;0, 則令Aij=0.
2.2.4 更新Q
固定Zv,Z,A, 關于Q的子問題為
minQ‖Z⊙Θ‖1,
s.t. QTQ=I,(25)
利用等式
‖Z⊙Θ‖1=∑i,jZij12‖qi-qj‖22
=〈QQT,L〉,(26)
其中L=diag(Z1)-Z, 問題(27)轉化為
minQ〈QQT,L〉,
s.t. QTQ=I.(27)
問題(27)的解可通過譜聚類得到, 其最優解Q由L的前c個最小特征值對應的特征向量組成, 其中c為聚類數. 最后將Q作為K-Means算法的輸入,
輸出聚類結果.
綜上, 本文模型的優化算法如下.
算法2 模型AWCR-MSC的算法.
輸入: 多視圖數據{X1,…,XV}, 聚類數c, 參數α,β,γ,η;
初始化: Zv=Z0, Q=(1n0…0)n×c
, Cv=Jv=Zv, Z=1V∑Vv=1
Zv, Y1v=Y2v=0, A=1V1V×n, μ=0.25, μmax=106, ρ=1.1, ε=10-3, t1=0, t1max=30, T=0, Tmax=20;
輸出: 聚類結果Q;
1) 利用算法1更新Zv;
2) 利用式(20),(21)更新Z;
3) 利用式(24)更新A;
4) 通過求解(27)更新Q;
5) 檢查收斂條件:
‖QT+1-QT‖∞lt;ε;
6) T=T+1;
7) if T≥Tmax
break
end if
end while.
3 實驗及結果分析
3.1 實驗設置
3.1.1 數據集
為評價AWCR-MSC算法的聚類有效性, 實驗采用6個常用的多視圖數據集: BBC,BBCSport,ORL,MSRC-v1,3Sources和20newsgroups. 各數據集的統計信息列于表1.
表1 多視圖數據集信息
Table 1 Multi-view dataset information
數據集樣本數類別數視圖數視圖維度
BBC68554(4 659,4 633,4 665,4 684)
BBCSport54452(3 183,3 203)
ORL400403(4 096,3 304,6 750)
MSRC-v121075(24.576,512,256,254)
3Sources16963(3 560,3 631,3 068)
20newsgroups50053(2 000,2 000,2 000)
BBC: 該數據集是從BBC網站上獲得的一組新聞報道, 共有2 225個文檔, 涉及5個主題, 本文使用該數據集的子集, 由685個文檔和4個不同視圖組成.
BBCSport: 是一個體育新聞數據集, 包含5個主題領域, 包括從2004年—2005年在BBC體育網站收集的544份文件. ORL: 該數據集包含40個人的400張人臉圖像, 每個人都有10張不同的面部圖像, 這些圖像
是在不同時間拍攝的, 隨光線、 面部表情和面部細節的變化而變化. MSRC-v1: 該數據集由7個物體的210張圖像組成, 這7個物體分別是樹、 建筑物、 飛機、 奶牛、 人臉、 汽車和自行車.
3Sources: 是一個新聞數據集, 包含6個主題: 商業、 政治、 健康、 娛樂、 體育和科技, 有169篇文章, 均由BBC、 《衛報》和路透社三家媒體同時報道.
20newsgroups: 是一個新聞組文檔數據集, 由5個主題組成, 共500個文檔, 用3種預處理方法生成3個不同的特征集.
3.1.2 對比方法和評價指標
為驗證AWCR-MSC算法的優勢, 本文將其與如下有代表性的9種相關方法進行比較: DiMSC[37],ECMSC[38],MVGL[20],MLRSSC[28],MSC_IAS[44],CDD[41
],FGL-MSC[35],FLMSC[31],JSMC[43], 并使用6個如下常用的聚類評價指標比較不同算法的性能: F-score、 P
recision、 Recall、歸一化互信息(NMI)、 正確率(ACC)和調整蘭德系數(ARI). 這些評價指標的取值范圍為0~1, 模型在所有評價指標上的值越接近1, 其聚類效果越好.
3.1.3 參數設置
本文模型需要調整4個參數α,β,γ和η. 使用網格搜索策略尋找最優參數, α的搜索范圍為{0.001,0.01,0.1,1}, β,γ和η的搜索范圍為{0.001,0.01,0.1,1,10,100,1 000}, 得到參數(α,β,γ,η)在數據集BBC,BBCSport,ORL,MSRC-v1,3Sources,20newsgroups的最優設置分別為(1,100,100,0001),(1,100,1 000,0.01),(0.1,10,10,0.1),(0.1,0.1,1,0.1),(0.1,10,10,0.1),(1,10,10,001). 對于對比方法, 使用對應文獻的結果或根據經驗調整參數以獲得最佳結果. 調整好最優參數后, 將本文方法和對比方法重復運行10次, 然后記錄平均值和標準差. 實驗統一在MATLAB 2018a中使用Inter(R) Core(TM) i5-8250U CPU @ 1.60 GHz和8 GB RAM的處理器實現.
3.2 實驗結果
3.2.1 聚類結果對比
本文方法與對比方法在6個數據集上的聚類結果分別列于表2~表7. 由表2~表7可見, 在所有數據集上, 本文方法的大部分指標都優于對比方法. 本文方法和ECMSC都對視圖特定的自表示采用了稀疏正則項和稀疏互斥正則項, 但本文方法與ECMSC的不同點是: ECMSC未有效融合多視圖自表示, 而本文通過自適應加權學習多視圖共識的自表示, 有效融合了多視圖的自表示, 從而本文方法的聚類性能與ECMSC相比有顯著提高.
3.2.2 參數敏感度分析
在本文模型AWCR-MSC中, α用于平衡每個視圖特定自表示矩陣的稀疏性, β用于平衡各視圖特定自表示矩陣的稀疏互斥性, γ用于平衡多視圖自表示融合為共識自表
示的誤差, η用于平衡共識自表示矩陣與聚類指示矩陣的聯系. 為分析參數對聚類結果(使用ACC作為評估指標)的影響, 圖2~圖4分別給出了ACC隨參數α,(β,γ)和η的變化情況. 注意, 在考察聚類結果對某個或某對參數的敏感性時, 其他參數固定.
首先, 固定β,γ和η, 分析在所有數據集上本文方法聚類結果對參數α的敏感度. 由圖2可見, 數據集BBC,ORL和20newsgroups對α的變化不敏感, 而數據集BBCSport,3Sources和20newsgroups的聚類結果受α的變化影響較大. 當α=1時, 數據集BBC,BBCSport,20newsgroups的ACC較高, 當α=01時, 數據集ORL,MSRC-v1,3Sources的ACC較高, 故對數據集BBC,BBCSport,20newsgroups設定α=1, 對數據集ORL,MSRC-v1,3Sources設定α=0.1.
其次, 固定α,η, 記錄β和γ的聯合變化對聚類結果的影響. 由圖3可見, 在數據集BBC,BBCSport,MSRC-v1,3Sources上, β和γ的取值對聚類結果有重大影響, 說明這兩個正則項在模型中具有關鍵作用.
最后, 固定α,β,γ為對應的最優參數, 記錄η的變化對聚類結果的影響. 由圖4可見, 數據集BBC和BBCSport在較小的η上性能更好, 數據集MSRC-v1和3Sources在較大的η上性能更好, 而數據集ORL和20newsgroups對η的變化不敏感. 在3.1.3節參數設置中, 各數據集上參數α,β,γ,η的取值分別來自于圖2~圖4中各數據集較好的結果對應的參數值.
3.2.3 視圖數的影響分析
本文研究多視圖聚類, 為說明多視圖融合的有效性, 在數據集ORL上考慮視圖數目對聚類效果的影響, 結果列于表8. 由表8可見, 隨著視圖數的增加, 最終的聚類效果越來越好, 表明每個視圖都提供了不同程度的重要信息, 并對聚類都有促進效果; 特別地, 在融合View2和View3兩個視圖信息的實驗中, 本文方法的效果接近3個視圖的效果, 可見其融合效果較好.
3.2.4 消融實驗
考慮本文模型AWCR-MSC, 對于參數α,β,γ,η, 為進一步驗證模型中各部分的有效性, 在兩個數據集BBC,ORL上對本文模型進行消融實驗, 結果分別列于表9和表10. 由表9和表10可見:
1) α=0對應于去掉稀疏正則項, 聚類性能嚴重下降, 說明本文模型中稀疏性正則項對多視圖子空間聚類有重要作用;
2) γ=0相當于去掉多視圖自適應融合共識自表示項, 聚類性能也嚴重下降, 說明本文模型中該項對多視圖子空間聚類也有重要作用;
3) β=0相當于去掉各視圖特定自表示矩陣的稀疏互斥性, 聚類性能有輕微下降, 說明該項在本文模型中有一定的輔助作用;
4) η=0相當于去掉共識自表示矩陣與聚類指示矩陣的互相引導, 而僅用本文模型計算共識自表示矩陣Z, 然后利用S=12(Z+ZT)計算相似度矩陣, 再用譜聚類得到聚類結果, 此時聚類性能略有下降, 表明共識自表示矩陣與聚類指示矩陣互相引導對聚類性能有一定的提升作用.
3.2.5 數值收斂性分析
圖5為本文算法在6個數據集上的數值收斂情況. 由圖5可見, 本文的迭代算法在開始時收斂非常快, 隨著迭代次數的增加, 誤差逐漸接近于0且保持穩定. 在所有數據集上, 本文方法在20次迭代即可達到數值收斂.
綜上所述, 針對如何充分融合多視圖數據的互補性和多樣性信息以提高聚類性能的問題, 本文首先提出了一個新的多視圖子空間聚類模型, 稱為基于自適應加權共識自表示的多視圖子空間聚類. 該模型為多視圖數據學習各視圖特定的稀疏自表示矩陣, 對各視圖特定的稀疏自表示矩陣引入互斥正則項以刻畫多視圖的互補性, 利用自適應加權學習多視圖共識自表示矩陣, 并利用共識自表示學習聚類指示矩陣. 其次, 對本文模型給出了一個交替最小化算法. 最后, 在6個常用的多視圖數據集上進行實驗, 并與9種相關方法進行對比, 結果表明, 本文方法聚類性能更優.
參考文獻
[1]YANG Y, WANG H. Multi-view Clustering: A Survey[J].Big Data Mining and Analytics, 2018, 1(2): 83-107.
[2]OJALA T, PIETIKAINEN M, MAENPAA T. Multiresolution Gray Scale and Rotation Invariant Texture Classification with Local Binary Patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.
[3]LOWE D G. Distinctive Image Features from Scale-Invariant Keypoints[J].International Journal of Computer Vision, 2004, 60: 91-110.
[4]DALAL N, TRIGGS B. Histograms of Oriented Gradients for Human Detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). Piscataway, NJ: IEEE, 2005: 886-893.
[5]ZHU P F, HUI B Y, ZHANG C Q, et al. Multi-view Deep Subspace Clustering Networks[EB/OL].(2019-08-06)[2023-05-01].https://arxiv.org/abs/1901.08978.
[6]LIU J W, XIE H J, LU R K, et al. Multi-view Subspace Adaptive Learning via Autoencoder and Attention[EB/OL].(2022-01-01)[2023-06-10].https://arxiv.org/abs/2201.00171.
[7]FAN S H, WANG X, SHI C, et al. One2multi Graph Autoencoder for Multi-view Graph Clustering[C]//Proceedings of the Web Conference 2020. New York: ACM, 2020: 3070-3076.
[8]XIA W, WANG S, YANG M, et al. Multi-view Graph Embedding Clustering Network: Joint Self-supervision and Block Diagonal Representation[J].Neural Networks, 2022, 145: 1-9.
[9]KUMAR A, DAUME H. A Co-training Approach for Multi-view Spectral Clustering[C]//Proceedings of the 28th International Conference on Machine Learning (ICML-11). New York: ACM, 2011: 393-400.
[10]KUMAR A, RAI P, DAUME H. Co-regularized Multi-view Spectral Clustering[C]//Proceedings of the 24th International Conference on Neural Information Processing Systems. [S.l.]: NIPS, 2011: 1-9.
[11]YE Y K, LIU X W, YIN J P, et al. Co-regularized Kernel K-Means for Multi-view Clustering[C]//2016 23rd International Conference on Pattern Recognition (ICPR). Piscataway, NJ: IEEE, 2016: 1583-1588.
[12]APPICE A, MALERBA D. A Co-training Strategy for Multiple View Clustering in Process Mining[J].IEEE Transactions on Services Computing, 2015, 9(6): 832-845.
[13]LIU J Y, LIU X W, XIONG J, et al. Optimal Neighborhood Multiple Kernel Clustering with Adaptive Local Kernels[J].IEEE Transactions on Knowledge and Data Engineering, 2020, 34(6): 2872-2885.
[14]ZHANG P R, YANG Y, PENG B, et al. Multi-view Clustering Algorithm Based on Variable Weight and MKL[C]//International Joint Conference on Rough Sets. Berlin: Springer International Publishing, 2017: 599-610.
[15]LIU X W, DOU Y, YIN J P, et al. Multiple Kernel K-Means Clustering with Matrix-Induced Regularization[C]//Proceedings of the AAAI Conference on Artificial Intelligence. New York: ACM, 2016: 1888-1894.
[16]TAN J P, YANG Z J, CHENG Y Q, et al. SRAGL-AWCL: A Two-Step Multi-view Clustering via Sparse Representation and Adaptive Weighted Cooperative Learning[J].Pattern Recognition, 2021, 117: 107987-1-107987-12.
[17]LIU J L, WANG C, GAO J, et al. Multi-view Clusterig via Joint Nonnegative Matrix Factorization[C]//Proceedings of the 2013 SIAM International Conference on Data Mining. Society for Industrial and Applied Mathematics.[S.l.]: SIAM, 2013: 252-260.
[18]HE M J, YANG Y, WANG H J. Learning Latent Features for Multi-view Clustering based on NMF[C]//International Joint Conference on Rough Sets. Berlin: Springer International Publishing, 2016: 459-469.
[19]OU W H, YU S J, LI G, et al. Multi-view Non-negative Matrix Factorization by Patch Alignment Framework with View Consistency[J].Neurocomputing, 2016, 204: 116-124.
[20]ZHAN K, ZHANG C Q, GUAN J P, et al. Graph Learning for Multiview Clustering[J].IEEE Transactions on Cybernetics, 2017, 48(10): 2887-2895.
[21]LI Y Q, NIE F P, HUANG H, et al. Large-Scale Multi-view Spectral Clustering via Bipartite Graph[C]//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto: AAAI, 2015: 2750-2756.
[22]LI Z L, TANG C, LIU X W, et al. Consensus Graph Learning for Multi-view Clustering[J].IEEE Transactions on Multimedia, 2021, 24: 2461-2472.
[23]ZOU X, TANG C, ZHENG X, et al. Inclusivity Induced Adaptive Graph Learning for Multi-view Clustering[J].Knowledge-Based Systems, 2023, 267: 110424-1-110424-11.
[24]SHI J B, MALIK J. Normalized Cuts and Image Segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 888-905.
[25]EIHAMIFAR E, VIDAL R. Sparse Subspace Clustering: Algorithm, Theory, and Applications[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(11): 2765-2781.
[26]LIU G C, LIN Z C, YAN S C, et al. Robust Recovery of Subspace Structures by Low-Rank Representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 35(1): 171-184.
[27]LU C Y, FENG J S, LIN Z C, et al. Subspace Clustering by Block Diagonal R
epresentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 41(2): 487-501.
[28]BRBIC' M, KOPRIVA I. Multi-view Low-Rank Sparse Subspace Clustering[J].Pattern Recognition, 2018, 73: 247-258.
[29]LIN S X, ZHONG G, SHU T. Simultaneously Learning Feature-Wise Weights and Local Structures for Multi-view Subspace Clustering[J].Knowledge-Based Systems, 2020, 205: 106280-1-106280-13.
[30]CHEN H Z, WANG W W, LUO S S. Coupled Block Diagonal Regularization for Multi-view Subspace Clustering[J].Data Mining and Knowledge Discovery, 2022, 36(5): 1787-1814.
[31]ZHANG G Y, HUANG D, WANG C D. Facilitated Low-Rank Multi-view Subspace Clustering[J].Knowledge-Based Systems, 2023, 260: 110141-1-110141-12.
[32]ZHANG C Q, HU Q H, FU H Z, et al. Latent Multi-view Subspace Clustering[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 4279-4287.
[33]ZHANG C Q, FU H Z, HU Q H, et al. Generalized Latent Multi-view Subspace Clustering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 42(1): 86-99.
[34]LU R K, LIU J W, LIU Z Y, et al. Partially Latent Factors Based Multi-view Subspace Learning[J].Computational Intelligence, 2022, 38(5): 1772-1801.
[35]WANG Y D, PEI X B, ZHAN H X. Fine-Grained Graph Learning for Multi-view Subspace Clustering[J].IEEE Transactions on Emerging Topics in Computational Intelligence, 2023, 8(4): 2804-2815.
[36]QIN Y L, FENG G R, REN Y L, et al. Consistency-Induced Multiview Subspace Clustering[J].IEEE Transactions on Cybernetics, 2022, 53(2): 832-844.
[37]CAO X C, ZHANG C Q, FU H Z, et al. Diversity-Induced Multi-view Subspace Clustering[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 586-594.
[38]WANG X B, GUO X J, LEI Z, et al. Exclusivity-Consistency Regularized Multi-view Subspace Clustering[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 923-931.
[39]CHEN H Z, TAI X C, WANG W W. Multi-view Subspace Clustering with Inter-Cluster Consistency and Intra-Cluster Diversity among Views[J].Applied Intelligence, 2022, 52: 9239-9255.
[40]LUO S R, ZHANG C Q, ZHANG W, et al. Consistent and Specific Multi-view Subspace Clustering[C]//Proceedings of the AAAI Conference on Artificial Intelligence. New York: ACM, 2018: 3730-3737.
[41]HUANG S D, TSANG I W, XU Z L, et al. CDD: Multi-view Subspace Clustering via Cross-view Diversity Detection[C]//Proceedings of the 29th ACM International Conference on Multimedia. New York: ACM, 2021: 2308-2316.
[42]SI X M, YIN Q Y, ZHAO X J, et al. Consistent and Diverse Multi-view Subspace Clustering with Structure Constraint[J].Pattern Recognition, 2022, 121: 108196-1-108196-15.
[43]CAI X S, HUANG D, ZHANG G Y, et al. Seeking Commonness and Inconsistencies: A Jointly Smoothed Approach to Multi-view Subspace Clustering[J].Information Fusion, 2023, 91: 364-375.
[44]WANG X B, LEI Z, GUO X J, et al. Multi-view Subspace Clustering with Intactness-Aware Similarity[J].Pattern Recognition, 2019, 88: 50-63.
[45]WANG S H, WANG Y, LU G F, et al. Mixed Structure Low-Rank Representation for Multi-view Subspace Clustering[J].Applied Intelligence, 2023, 53: 18470-18487.
[46]張興鵬, 何東, 楊模, 等. 基于多尺度注意力和數據增強的細胞核分割 [J]. 計算機工程, 2025, 51(2): 387-396. (ZHANG X P, HE D, YANG M, et al. Nucleus Segmentation Based on Multiscale Attention and Data Augmentation [J].Computer Engineering, 2025, 51(2): 387-396.)
[47]周宇, 謝威, 鄺得互, 等. 基于三元自注意力的視頻快照壓縮成像重建 [J]. 計算機工程,2025, 51(1): 20-30. (ZHOU Y, XIE W, KWONG T W, et al. Reconstruction of Video Snapshot Compressive Imaging Based on Triple Self-Attention [J]. Computer Engineering,2025, 51(1): 20-30.)
[48]顧兆軍, 葉經緯, 劉春波, 等. 基于核主成分分析的半監督日志異常檢測模型 [J]. 江蘇大學學報(自然科學版), 2025, 46(1): 64-72. (GU Z J, YE J W, LIU C B, et al. Anomaly Detection Model of Semi-supervised Log Based on Kernel Principal Component Analysis [J]. "Journal of Jiangsu University (Natural Science Edition), 2025, 46(1): 64-72.)
[49]徐楊楊, 商耀達, 孫建國. 基于預條件廣義逐次超松弛迭代法的數值格林函數計算方法 [J]. 吉林大學學報(地學版), 2024, 54(5): 1696-1710. (XU Y Y, SHANG Y D, SUN J G. A Preconditioned Generalized Successive Over-Relaxation Iterative Method for the Numerical Green’s Function Method [J]. "Journal of Jilin University (Earth Science Edition),2024, 54(5): 1696-1710.)
[50]任芳國, 和嘉琪. 關于矩陣的Schatten p-范數的注記 [J]. 東北師大學報(自然科學版), 2023, 55(4): 1-8. (REN F G, HE J Q. Remarks on the Schatten p-Norm of Matrices [J]. Journal of Northeast Normal University (Natural Science Edition), 2023, 55(4): 1-8.)
[51]BOYD S, PARIKH N, CHU E, et al. Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers[J].Foundations and Trends in Machine Learning, 2011, 3(1): 1-122.
(責任編輯:韓 嘯)