中圖分類號:TP18;O157.5文獻標識碼:A
Abstract:Aiming at the problem of missing node attributes in graph data,we proposes a novel attribute missing graph learning framework. The framework maps node attributes to edge attributes by reconstructing the structural joint bipartite network. This enables attribute completion and graph tasks to be performed together under a unified framework that can handle both continuous and discrete missing data. According to the attribute homogeneity and structural homogeneity of the attribute graph,we propose an attribute missing representation learning method,which introduces edge embeddings and attention mechanisms to capture the correlations between attribute-attribute and structure-attribute in structural joint bipartite network to enhance the missing attribute learning. Experimental results on four real-world datasets show that our framework outperforms the baselines in both atribute completion tasks,validating the effectiveness of the method.
Keywords: graph neural network;attribute completion; node classification; bipartite graph;topology of networks
0 引言
圖結構數據可以自然地模擬來自社會[1-2]、金融[3-4]、生物[5]等領域的真實數據。近年來,圖神經網絡(Graph
Neural Networks,GNNs)憑借其在非歐幾里得數據建模方面的優勢,在社交網絡分析、生物信息學等領域的圖學習任務展現出顯著優勢[6-7]。然而,現有研究大多假設圖數據屬性完整,忽視了實際場景中因隱私保護或觀測限制導致的屬性缺失問題[8]。以圖1Stanford社交網絡數據為例,約 10% 的節點年齡屬性缺失,僅依賴性別屬性進行節點分類的準確率顯著低于使用完整屬性時的性能。與離散的節點標簽分類不同,屬性補全需要同時處理連續型和離散型數據,是圖分析任務的重要前置環節。在有限的信息上恢復高維可感知的屬性至關重要。因此,本文針對屬性缺失圖的補全問題展開研究,旨在通過生成高質量屬性提升下游分類任務性能。

現有的屬性補全方法中,傳統的基于可觀測值估計缺失屬性的補全方法[9基于強分布假設,難以同時處理連續與離散屬性;基于深度學習的補全方法[10-11],雖具有更高的靈活性,但直接應用于圖數據時忽略了拓撲結構信息,無法生成與圖緊密相關的節點屬性。盡管 GCNmf[12] 和GraphRNA[13等方法利用了拓撲結構信息來處理屬性缺失圖,但它們專注于提升下游任務性能,無法生成缺失的屬性。因此,本文基于屬性圖的屬性同質性和結構同質性,通過重構二部聯合網絡將屬性補全與節點分類統一建模,并提出一種基于二部聯合網絡的屬性缺失圖表示學習方法(Atribute missing graph learning method based on the Structural joint bipartite network,Graph-SN)對二部聯合網絡進行學習。本文的主要貢獻包括:1)定義了一個二部聯合網絡(Structural joint bipartiteNetwork,SN),將連續型與離散型屬性轉為圖結構,靈活處理兩種類型數據。這種方法使得屬性補全任務和節點分類任務自然表述為圖上的邊及節點預測問題。2)提出了一種基于二部聯合網絡的表示學習方法(Graph-SN)。GraphSN引人邊嵌入及注意力機制來捕獲屬性內部及屬性與結構之間的相關性,以此學習屬性缺失圖的嵌入以解決屬性補全及節點分類任務。3)對4個真實世界的圖數據集進行了全面深人的比較分析,驗證了方法的有效性。
1 相關工作
屬性圖中的節點原始屬性蘊含了豐富的語義信息,這些信息對于圖的表示學習具有重要價值。研究表明,節點屬性信息顯著影響圖學習性能。針對屬性缺失圖的學習方法大致可以分為兩類:1)基于補全的圖學習方法;2)直接面向缺失圖的學習方法。
基于補全的圖學習方法主要采用數據插補技術進行屬性補全后結合常規GNNs進行學習。基于統計的補全方法通過可觀測值估計缺失屬性,在低維缺失情況下表現良好但對數據分布要求較高,其中均值插補[9]方法簡單但偏差較大,未能充分利用屬性相關性;而多重插補方法[14]通過迭代填補更好地利用屬性相關性,但更適用于參數估計而非最終補全數據。基于機器學習的補全方法,如 KNN[15]、矩陣補全[16]、隨機森林[17],對數據分布要求較低且擬合能力更強,但過程較為復雜。基于深度學習的補全方法,如生成對抗網絡[10]、自動編碼器[1]、ME-DIAN[18]和Grape[19]等,雖能解決屬性補全問題,但直接擴展至圖域時未能充分考慮節點間關聯性。并且,此類方法補全過程和后續的學習過程相互獨立,高缺失率下性能不穩定。
直接面向缺失圖的學習方法通過改進GNNs自適應處理缺失屬性來生成有效低維嵌入。此類方法以完成下游任務為目的,雖能生成有效嵌入但無法獲得完整補全數據。例 PaGNN[20] 只將可觀測的屬性進行消息傳遞;GCNmf[12] 引人高斯混合模型對鄰居特征分析進行建模,將特征補全與GCN訓練結合為端到端模型; FP[21] 基于Dirichlet能量最小化構建圖上的擴散型微分方程,開發出一個簡單、快速、可擴展的迭代特征傳播算法;DAFC[22]通過結構使不同域之間的屬性進行遷移傳播,構建出保留不同領域節點的領域差異情況下的特征補全策略。此外,ASD-VAE[23]、AIAE[24]和RITR[25]等方法也通過構造圖特定的編碼器來對缺失屬性的樣本進行嵌人的初始化。這些方法都是在缺失屬性數據輸入后通過設計不同的策略來補全節點低維嵌人,GraphRNA[13]和 NET-GAN[26] 則通過重構屬性圖結構,在數據輸入前改變圖結構解決缺失問題。
雖然許多針對屬性缺失圖的學習方法都取得了好的效果,但在平衡屬性完成和下游任務的性能方面仍然存在局限性。
2 方法和實現
2.1 問題定義
為明確本文解決的問題,本節將對相關概念和符號進行說明,并形式化本文問題。
定義1屬性缺失圖。給定一個屬性缺失圖 G=(V,E,X,Y,M) ,其中 V={v1,v2,…,vn} 表示頂點集, E= (204號
與 vj 有邊}表示邊集。 X∈R|V|×|F| 表示 ∣V∣ 個節點和 ∣F∣ 個屬性組成的節點屬性矩陣,第 i 個節點的第 m 維屬性記為 xim 。 Y 表示節點標簽向量。對于圖 G ,其節點屬性矩陣存在部分缺失,本文用掩碼矩陣M 表示,只有當 mij=1 時可觀測到節點 i 的第 j 維屬性。
定義2二部圖。給定一個二部圖 BG=(V,F,E) ,其中 V 和 F 表示互不相交的兩個頂點集。 E={eij=(vi
fj)|Vi 與 fj 有邊}表示邊集,只有兩頂點集間可能存在邊,即 |E|?|V|×|F| 。
對于屬性缺失圖 G=(V,E,X,Y,M) 的屬性補全問題,通常形式化為學習映射 I:xijpred=Ii(G) ,對于 mij= O的數據,通過最小化 Xijpred 和 xij 之間的差,學習 I 。
對于屬性缺失圖 G=(V,E,X,Y,M) 的節點分類問題,通常形式化為學習映射 g:yi-pred=gi(G) ,通過最小化 yitred 和 yi 之間的差異,學習 g 。
2.2 模型框架
本文提出一個處理屬性補全和節點分類任務的統一學習框架,以解決圖數據屬性缺失問題。如圖2所示,該框架包含3個核心組件:首先,通過構建二部聯合網絡SN,將屬性補全和節點分類任務分別轉化為邊和節點預測問題,實現任務統一表示并兼容多種屬性類型;其次,提出GraphSN表示學習方法,基于屬性同質性和結構同質性特點,利用邊嵌入和注意力機制捕獲屬性-屬性及結構-屬性間的相關性;最后,針對不同屬性類型設計預測器完成下游任務。各組件的具體設計如圖2。
2.2.1屬性補全問題轉換
本節采用屬性二部轉換的方法,將屬性缺失圖的屬性矩陣轉化為圖結構。 IGMC[27] 方法中首次將矩陣補全任務轉換為二部圖求解,但其只適用于類別數相同的離散型數據處理。對此,本文考慮類別不一致的離散型數據及連續型數據處理轉換,構建流程如圖3所示。
給定一個屬性缺失圖 G=(V,E,X,Y,M) ,基于掩碼矩陣 M 將屬性矩陣 X 轉換為屬性二部圖 BG=(V,F ,Ebg )。在 BG 中,節點集 V 等價于 G 中的節點集 V;F 為屬性節點集,由 V 中節點的屬性 {f1,f2,…,fm} 構成;Ebg 為屬性邊的集合,只存在于 V 和 F 兩部分節點之間。當節點屬性為連續型數據時, Ebg={(vi,fj,evi,fi)| vi∈V,fj∈F,mij=1} ,其中 evi,fj 的取值為 xij 的取值;當節點屬性為離散型數據時! ,Ebg={(vi,fj,1)|vi∈V ,fj∈F,mij=1amp;xij=1} 。
將生成的 BG 與原圖 G 根據等價的節點集 V 構建二部聯合網絡 SN=(V,F,E,Ebg,X,X′,Y,M) 。為實現有效的消息傳遞,需要為 V 和 F 中的節點分配屬性值。采用以下特征表示方案來清楚區分原始節點和屬性節點: V 中的每個節點使用 n 維one-hot節點特征(
):對 F 中的每個節點使用 n 維常數向量作為 F 中數據節點的節點特征,保特 V 和 F 中的節點特征維度一致。 x′ 的實現細節如式(1)所示:

在經過 SN 構建后,屬性補全任務被自然地表示為 SN 中的 Edg 預測問題;對于 ?mij=0 ,通過最小化 xijfred 和 xij 之間的距離,來學習映射 I:xij-pred=e(bg)ji=Ii(SN) ,完成屬性補全任務。同理,節點分類問題可自然地表示為 SN中的 V 節點標簽預測問題;通過最小化 yipred 和 yi 之間的距離,學習映射 g:yipred=gi (SN),完成節點分類任務。

2.2.2基于二部聯合網絡的表示學習方法
本節提出一種基于二部聯合網絡的表示學習方法GraphSN。GraphSN的提出是基于屬性圖同時具有屬性同質性和結構同質性的典型特點,例如在社交網絡中,相同年齡的用戶可能有相同的興趣,而多個有關聯的用戶可能有相同的興趣。GraphSN主要由兩個部分組成:1)基于屬性邊嵌入的二部圖表示學習;2)基于注意力機制的結構-屬性學習。方法過程如圖2b所示。
本文提出一種融合邊特征與節點嵌人的新機制,充分利用BG的邊屬性值,通過在GCN架構上引入注意機制,將節點嵌入與邊嵌入集成作為每層輸入,實現節點 v 屬性上的嵌入學習,如式 (2)~(4) 所示:


hνl=σ(Wl?(hνl-1+nνl)),?l∈{1,…,L}
z-bg?υ=h?ν?L
在第0層,節點 v 的屬性嵌入為 xν′ 。第 ξl 層的節點屬性嵌入更新如式(3)所示,其中 σ 為激活函數; Wl 為可訓練權重矩陣; hνl-1 表示節點 υ 在第l-1層上的屬性嵌入;
表示節點在當前層從鄰居節點所聚合到的信息,鄰居信息的聚合方式如式(5):

其中, σ 為激活函數; Pι 為可訓練權重矩陣; N 為節點鄰域函數; αvul 為注意力系數,如式(6)所示,它是關于 hvl-1 ,hul-1 以及 evul-1 的函數:
ανul=fl(hνl-1,hul-1,evul-1)
其中, fl 為一個普通計算注意力計算函數, evul-1 為第 l-1 層的邊嵌入,本文通過式(7)更新邊嵌入:
eνul=σ[Ql?(eνul-1+hνl-1+hul-1)]
其中, σ 為激活函數; Qι 為可訓練權重矩陣。
GraphSN利用GraphSAGE從結構上學習圖的節點嵌人表示。GraphSAGE在消息傳遞過程中僅對部分鄰居進行采樣,歸納式學習方法使得它具有較強的拓展性。將圖 G 作為輸人進行學習,通過式 (8)~(10) 獲取節點結構上的嵌入:


z-gν=gνL
節點 v 在第0層的嵌入是可見的節點屬性 |xν| ,即對未知屬性用0進行插補。節點 υ 的結構嵌入更新方式如式(9)所示,其中 Wl′ 為可訓練權重矩陣; grι-1 是節點 v 在第l-1層的結構嵌入; N′ 為鄰居采樣函數。
基于上述方法分別從 G 及 BG 上學習節點結構嵌入及屬性上的嵌入后,通過引入注意力機制融合兩者的關鍵信息,最終的節點嵌入表示如式(11)所示,其中 α′ 為注意力系數矩陣:

2.2.3 屬性補全及節點分類
在SN中對節點進行嵌人學習后,在第 L 層時輸出嵌入 z ,用于后續屬性補全及節點分類任務。本文的屬性補全任務轉換為 SN 的 Ebg 預測,節點 νi 的 fj 屬性預測函數如式(12)所示:

針對連續型屬性數據,使用MSE作為損失函數進行屬性補全訓練。為避免完整屬性二部圖訓練導致的過擬合問題,采用類Dropout[28]機制,在訓練階段設置邊丟失率 γedrop 隨機丟失邊,測試階段則使用完整圖結構。對離散型屬性數據,使用BCE作為損失函數進行訓練。此時, BG 僅包含屬性值為1的邊,訓練時實施 1:1 負采樣擴充未知樣本空間。
利用第 L 層學習到的節點嵌人完成節點分類,節點 νi 的預測函數如式(13)所示:
yi=MLP(zviL)
3實驗與結果
3.1 實驗設置
3.1.1 數據集
本文在4個真實世界的數據集上評估所提出的學習框架,這些數據的詳細信息如表1所示。
Stanford和Colgate數據集源自Facebook[1],描述Stanford和Colgate大學社交關系網絡。節點代表個體

成員,具有性別、專業、年齡等6類屬性,并根據身份分為學生和教職員工兩類。
ENZYMES數據集基于蛋白質分子結構構建,節點代表氨基酸,邊表示相互作用關系。每個節點具有18維物理化學特征(極性、親水性等),并按氨基酸結構類型分為3類。
NBA 數據集擴展自Kaggle的球員數據[29],節點代表2016—2017賽季 NBA球員,邊表示 Twitter 社交關系。節點包含96維賽季統計和個人特征(三分命中率、薪資等),按薪資是否超過中位數分為3類。
3.1.2 參數設置
在GraphSN模型的實驗中,采用Adam優化器(學習率0.001,L2正則化0.001)訓練1000個epoch,使用固定劃分的訓練/驗證/測試集以確保結果可復現。為消除隨機性影響,實驗控制隨機種子。
屬性補全任務采用3層GraphSN(64維隱藏單元 hu ,RELU激活)架構,設置邊丟失率 γedrop 為0.2,通過屬性缺失率 Rm 隨機移除屬性生成測試集,并利用召回率評估離散型屬性補全效果,MSE評估連續型屬性補全效果。節點分類任務采用2層GraphSN(64維隱藏單元 hu ,RELU激活)架構,設置節點丟失率 γdrop 為0.2,按60%/10%/30% 比例劃分數據集,以分類準確率為評價指標。
實驗將 Rm 從 10% 提高到 70% ,以評價GraphSN和基線模型的性能。對于每個缺失率,每個數據集的性能將進行20次評估,并報告平均結果。
3.2實驗結果與分析
3.2.1 屬性補全
在本節中,為客觀地評估GraphSN在屬性補全任務上的效果與性能,將GraphSN與4組5個基線模型進行比對:1)基于統計學的插補法,NeighAggre[30];2)基于機器學習的單一插補法,包括 KNN[15] ;3)基于機器學習的多元插補法, MICE[14] ;4)基于深度學習的插補法, VAE[11] 和GAIN[10]。
GraphSN和上述5個基線模型在4個真實數據集上的實驗結果如圖4所示。
1)在高缺失率下,GraphSN在大多數數據集上都有最好的結果。特別是在離散屬性數據集上實現了約 20% 的召回率提升。這一優勢主要源于模型能夠同時捕捉屬性相關性和圖結構信息,當觀測數據稀缺時,所提方法的雙重信息融合機制能更有效地推斷缺失值。
2)在低缺失率下,GraphSN在 ENZYMES 和 NBA數據集上的結果比MICE 略差。探究其原因,ENZ-YMES是由大量小型子圖(平均32.63)組成。這種細粒度結構限制了圖結構信息的有效性,使得基于屬性相關性的傳統方法在數據充足時更具優勢。根據NBA的結果,當缺失率較低時,各方法的MAE差異均小于0.05,表明此時屬性補全任務已接近其性能上限。
3)忽略圖結構的GraphSN/noStru變體性能下降,這證實了在屬性補全過程中考慮圖結構中的復雜關系能生成更符合圖語義的屬性。
3.2.2 節點分類
在本節中,為客觀地評估GraphSN在節點分類任務上的效果與性能,將GraphSN與3組7個基線模型進行了比較:1)傳統GNNs,包括 GCN、GAT 和 GraphSAGE;2)較為先進的改進GNNs,包括 DAGNN[31]和 JK-
Net[32];3)屬性缺失圖改進的GNNs,包括GraphRNA[13]和 GCNmf[12] 。因組1、組2不能直接處理屬性缺失圖,為保持比較的公平性,本文將這部分基線模型與一些特征補全策略相結合,包括零補全、鄰居補全、VAE等,并為每個基線選擇最佳補全策略(結果見表2)。
GraphSN與上述7個基線模型在4個真實數據集上的實驗結果如表3所示。粗體和下劃線表示最佳和次佳分數,從結果可以得到以下結論:


1)除ENZYMES數據集外,GraphSN在所有的缺失率和數據集上都獲得了最佳的準確性。在 50% 的缺失率下,Stanford、Colgate和NBA數據集的分類準確率比最佳基線分別提高了 5.49%.7.13% 和 9.39% 。值得注意的是,當缺失率達到 70% 時,GraphSN在 Stanford 和Colgate數據集上繼續達到較高的準確性。其中基于補全的組1和組2對比模型在低缺失度情況下表現良好,但隨著缺失率的增加,其性能明顯下降,獨立補全過程引入的累計誤差會影響后續的學習效果。
2)ENZYMES數據集的分類性能次優。如圖4所示,屬性補全結果表明,ENZYMES數據集表現出相對孤立的節點結構,稀疏的圖結構使得節點間信息傳遞路徑不足,破壞了缺失屬性的完成。相比之下,基于多跳機制的DAGNN和JKNet表現出了更優性能,它們能夠利用跳躍連接緩解節點的信息孤立問題。
實驗從模型變體、模塊消融和適用性3個維度對GraphSN進行深人分析,結果如表4所示。其中,GraphSN/endToend和GraphSN/imputeTpred 是GraphSN的變體,前者采用端到端策略直接完成分類,后者是屬性補全后再輸人分類器的兩步策略。GraphSN/noStru 是不考慮圖結構的GraphSN方法。GraphSN的兩種變體在屬性缺失圖上都顯示出了優越的結果。在4個數據集上,兩步策略優于端到端策略,突出了屬性在圖分析任務中的重要性。并且,當缺失率為 50% 時,GraphSN分類準確率仍有 83.12% ,表明其對部分缺失特征的魯棒性。此外,GraphSN(all)在完整圖上仍然有較好的表現。

4結論
本文主要研究了屬性缺失圖上的屬性補全問題,旨在解決如何有效生成高質量節點屬性的同時提高下游節點分類任務性能的問題。通過將節點屬性轉為圖結構來構建二部聯合網絡,將屬性補全及下游任務自然地表述為圖分析問題。在這基礎上提出了基于二部聯合網絡的GraphSN表示學習方法。GraphSN充分利用圖上屬性同質性和結構同質性的典型特點,引人邊嵌人與注意力機制捕獲屬性-屬性及結構-屬性間的相關性,完成對屬性缺失圖的表示學習。在4個真實標準數據集上的實驗結果證明了GraphSN的有效性。研究結果在實際應用場景中具有廣泛潛力,例如在社交網絡用戶畫像補全中,可有效處理用戶屬性缺失問題,提升推薦系統準確性;在知識圖譜補全中,可為缺失實體屬性提供補充方案等。這些應用場景均可受益于本方法對屬性同質性和結構同質性的聯合建模能力。
需要指出的是,當前研究主要針對同質圖設計。未來研究將拓展至異質圖場景,重點解決多類型節點和邊的交互關系建模問題,以進一步提升復雜網絡中的屬性補全能力。此外,探索模型在動態圖數據上的適應性也是重要的研究方向。
參考文獻:
[1]TRAUDAL,MUCHA PJ,PORTER MA. Socialstructure of Facebook networks[J].Physica A,2012,391(16):4165-4180.
[2]王玉,許楠楠,胡海波.社交媒體中的跨平臺信息擴散特征及機制[J].復雜系統與復雜性科學,2022,19(4):7-16.WANGY,XUHUHBhaacteristisandehanissofossplatfoifoationdifusioicialmedia]oleSteand Complexity Science,2022,19(4):7-16.
[3]YANGS,ZHANGZ,ZHOUJ,etal.FinancialriskanalysisfrSEswithgrapbasedsuplychainminingC//InteratioalJointCoferences on Artificial Inteligence. Freiburg:IJCAI,2021:4661-4667.
[4]路冠平,李江平.基于復雜網絡演化模型的新冠危機對經濟的沖擊研究[J].復雜系統與復雜性科學,2023,20(1):34-40,65.LUGP,LIJP.EvolutionmodeltheeconomiclmpactofCOVID-19crisisbasedoncomplexetworkJ].ComplexSystemsandComplexityScience,2023,20(1):34-40,65.
[5]GAIZAP,VERRISONF,MONF,etalDecipheringinteractionfingerprintsfroproteinmoecularsurfacesusinggeoeeplearning[J].Nature Methods,2020,17:184-192.
[6]趙文炎,鐘誠,田殿雄,等.基于混合卷積神經網絡特征增強的目標識別算法[DB/OL].[2025-01-22].htp:/ns.cnki.net/kcms/detail/371402.N.20241112.1140.002.html.ZHAO WY,ZHONGC,TIANDX,etal.Targetrecognitionalgorithmbasedonhybridconvolutionalneura networkfeatureenhancement[DB/OL].[2025-01-22]. http://kns.cnki.net/kcms/detail/37.1402.N.20241112.1140.002.html.
[7]吳越,王英,王鑫,等.基于超圖卷積的異質網絡半監督節點分類[J].計算機學報,2021,44(11):248-2260.WUY,WANGY,WANGX,tal.otifasedhyperapoolutionetorkforssuperviseddeclasificationonhtrogeous
[8]WANGR,MOUS,WANGX,etalGraphstructureestimationneuralnetworks[C]/TheInterationalConferenceof WorldWide Web.New York:ACM,2021:342-353.
[9]LIUX,ZUX,Ialultipleeleasicompleteel]EEasactisonalyisdligence,2019,42(5):1191-1204.
[10]YOONJODONJ,CHARM.GN:MisingataiputatiousiggenerativeadversarialnetsC/Iteratioaloferenceoachine learning.New York:ACM,2018:5689-5698.
[11]KINGMAD,WELINGM.AutoencodingvariatioalBaysC/nteatioalCoferencenLeaingRepresentatios.WasngtonCICLR,2014.
[12]TAGUCHH,LUX,MURATAT.Graphconvolutionaletworksforgraphscontainingmisingfeatures].FutureGenerationomputerSystems,2021,117:155-168.
[13]HUANGX,ONGQ,LIYetal.GrapecurentnetworkswithaributedandmwalksC//ACMSIGKDInterationalCofeeceoKnowledge Discovery and Data Mining. New York:ACM,2019:732-740.
[14]BURGETELF,RJPMulipleputatiofissngataviaseqtiaegeintres]AmericanJoalofEig2010,172:1070-1076.
[15]KIMKueaetaa.
[16]HASTIET,MAZUMDERR,LEEJD,etal.MatrixcompletioandlowrankSVDviafastalteratigleastquaresJ].TheJoualfMachine Learning Research,2015,16(1):3367-3402.
[17]STEKHOVENDJ,BUHLMANNP.MissForest—non-parametric missingvalueimputationformixed-typedata[J].Bmc Bioiformatics,2012,28(1):112-118.
[18]SPINELIAU.sigataiutatioiadesarialldgaoutoaleoks]aeworks,2020,129:249-260.
[19]YOUJ,MAXIGY,etal.Handingmisingdataithgrapepesentatiolearing]AdvaesieralfomatiProesSytems,2020,33:19075-19087.
[20]JIAGBGZompletegaepresetatiadgviartaaeuraeoksDB/O]22torg/10.48550/arXiv.2003.10130.
[21]ROSIE,KENHGORNOVAMIetalOnthereasoablefeiveessofaturepropgatioinaingonraphswihssingnode features[DB/OL].[2024-12-20]. htps://arxiv.org/pdf/211.12128.
[2]BIW,XUB,SUX,etal.Predictigthiletmajorityograps:kowedgetrasferablegrapeuraltwokC/eInteaalConference of World Wide Web.New York:ACM,2023:274-285.
[23]JIANGXUtalcpleeaaecureepledtaltodCtlConference on Web Search and Data Mining. New York:ACM,2024:9.
[24]XIAR,ZHAGC,A,etalAtributeiputatioutoeodersforatrbuteissnggaphs]KnowledgeBasedSysts,29:111583.
[25]TUW,XXetalRevisigialipleedsinggaatek]Eton Neural Networks and Learning Systems,2024,36(2):3244-3257.
[26]BOJCHEVSKIA,SHCHURO,ZUGNERD,etal.Netgan:generating graphsviarandomwalks[C/nternationalConferenceon MachineLearning. New York:ICML,2018:610-619.
[27]ZHANGM,HENY.InductivematrixcompletionbasedongahuraletworksC//teationalConferenceonLearingRepentations. Washington DC: ICLR,2019.
[28]RONGYW,XUtalropdgetowarspgaoutialetksoodecasificaiC/teatioalfeence onLearning Representations.Washington DC:ICLR,2020.
[29]DAIE,WASyntthdscriatioleaingfairgrapeuraletwokswithlitedsesitivetrbteforatioCCInternational Conference on Web Search and Data Mining. New York:ACM,2O21:680-688.
[30]SIMSEKOENDavigatigetoksysingoopilndgProedingsofteNtialAcadfSieesfUied States of America,2008,105(35):12758-12762.
[31]YANGL,UOIetalGemandawaegaphuralnetwoksfrsibasedeendatC//CSeateestGroup on Information Retrieval. New York:ACM,2022.
[32]XUK,LICAYtalepreseioagonahsijuingowedgeeoksC/teatioalCferececeLearning. Washington DC:ICLR,2018.
(責任編輯 耿金花)