999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

圖表示學習方法研究綜述

2023-01-01 00:00:00李青王一晨杜承烈
計算機應用研究 2023年6期

摘 要:針對圖表示方法的相關解析任務進行了研究,從形式化定義出發,首先以不同核心技術作為分類標準將圖表示學習方法劃分為五大類,其包括基于降維解析、矩陣分解、隨機游走、深度學習和其他表示學習方法。其次通過歸納與對比分析梳理各類技術發展脈絡,進而深層次展現各類圖表示方法的優劣。隨后結合圖表示學習的常用數據集、評估方法和應用領域的歸納分析,展開動態性、可擴展性、可解釋性和可解析性的四維剖析。最后總結并展望了圖表示學習的未來研究趨勢與發展方向。

關鍵詞: 圖表示; 圖模型; 圖表示學習方法; 表示學習; 深度學習

中圖分類號: TP389.1 文獻標志碼:A 文章編號: 1001-3695(2023)06-001-1601-13

doi: 10.19734/j.issn.1001-3695.2022.09.0504

Survey on graph representation learning methods

Li Qing, Wang Yichen, Du Chenglie

(College of Computer Science, Northwest Polytechnical University, Xi’an 710129, China)

Abstract:Research on the related analysis tasks of graph representation methods was carried out, starting from the formal definition, divide graph representation learning methods into five categories with different core technologies as the classification criteria, including dimensionality reduction analysis, matrix decomposition, random walk, neural network and other representation learning methods. Secondly, through induction and comparative analysis, the paper combed the development context of various technologies, and then showed the advantages and disadvantages of various graphic representation methods in a deep level. Then combined with the inductive analysis of common data sets, evaluation methods and application fields of graph representation learning, it carried out the four-dimensional analysis of dynamics, scalability, interpretability and analyticity. Finally, it summarized and looked forward to the future research trends and development directions of graph representation learning.

Key words:graph representation; graph model; graph representation learning method; representation learning; deep learning

0 引言數據是影響決策的重要因素,高效的數據表示方法能顯著提升計算機的決策能力。圖結構數據作為最常見的數據之一,已應用于諸多研究領域(如生物醫學領域Pseudo2GO模型[1]、社交網絡鏈路預測模型[2]、金融領域Deeptrax網絡模型[3]等)。由此可見,高效的圖結構數據表示方法將長期受到學術界和工業界的重視。

圖表示學習(graph representation learning)作為圖結構數據的表示方法能高效地提取圖結構信息,有效捕捉節點與節點之間的復雜關系[4],已經廣泛應用于各項下游任務(如節點分類[5]、鏈接預測[6]和圖聚類[7]等)。其任務的核心是將圖中的每個節點映射到一個低維、稠密的向量中,同時有效留存每個節點的特征與其對應的向量空間[8]。通過已有研究的分析,發現現有圖表示學習算法在動態、可解釋、可擴展、可深層解析的圖表示需求與應用之間還存在較大差距。總的來說,已有圖表示學習研究主要面臨以下四個方面的難題與挑戰。a)如何在向量空間中嵌入節點表示的同時,減少資源消耗,且高效保留相似圖結構的拓撲信息。研究者試圖引入結構等效[9]和規則等效[10]兩種方法。但是,由于此類方法計算成本過高且靈活性較差,導致難以廣泛應用。b)如何在資源受限的條件下,選擇合理的節點表示向量維度。若用高維度的向量表示,其計算和內存資源占用率過高[11];選用低維度向量表示,則可能丟失圖的關鍵信息。因此,如何在有限資源的限制條件下,保證圖模型的適度可拓展性表示是需要破解的一類難題。c)面對圖結構中復雜節點與邊的異質性表示時,如何構建通用化的圖表示方法,保留豐富的圖拓撲信息是亟待解決的另一圖表示學習難題。部分圖表示方法試圖通過高階圖的表示學習方法,但由于大部分網絡結構過于稀疏,無法提供足夠的可觀測鏈路,從而難于滿足應用的性能需求[12]。d)如何結合下游任務特征,動態高效利用資源在各個節點的多維跨域屬性,選擇必要合適的屬性來進行圖表示是一個值得關注的問題。在現實應用中,往往需要動態關注圖的鏈接結構,動態獲取推薦系統中圖的節點功能屬性信息。因此,為下游任務動態選擇合適的圖表示方法是另一需要解決的問題。

為了克服以上四類問題,本文介紹了現有的圖表示方法及應用場景,全面闡述分析了各類模型的優缺點,并總結論述了相關測試數據集和評估標準,希望對未來圖表示學習新方法的研究和圖表示學習應用技術的發展提供一定的參考價值。

1 圖表示學習形式化定義首先,本文總結了圖表示學習的相關形式化定義,通過圖1明晰圖表示學習形式化任務描述框架的各個環節。在表1中給出相關符號及其含義,以作為后續討論的基礎。

2 圖表示學習的方法近年來,關于圖表示學習的研究激增。本文歸納總結了各類圖表示方法,通過圖2進行概覽展示。早期的降維解析和矩陣分解方法計算復雜度高、擴展性差。基于隨機游走的圖表示方法,較好地處理了大規模稀疏網絡,但仍無法高效捕獲圖的拓撲結構。在神經網絡算法的啟發下,基于神經網絡的圖表示方法誕生,較好地解決了圖拓撲信息丟失、節點信息不平衡等問題,但仍存在動態擴展性差、復雜網絡信息表示不完全等問題。此外,超圖和異構圖的表示學習方法優化了神經網絡模型的不足,在部分下游任務取得了良好的效果。因此,本文將著眼于以上五大類方法,進行分類闡述。同時,總結對比其所對應的典型圖表示模型。最后,將各類圖表示方法進行對比分析,以進行深層總結歸納。

2.1 基于降維解析的圖表示學習方法基于降維解析的圖表示學習方法是將高維圖結構數據降維成低維表示,同時保留原始數據的期望屬性。其關鍵優勢在于能通過深層降維架構學習更多層次性數據特征,無須針對特定的圖數據形式設計具體的人工特征,顯著地提升了圖表示學習的效果。具體可分為線性降維和非線性降維兩種方式,其中線性降維方法可分為主成分分析法[16]、線性判別分析法[17]和多維標度法[18]等,如表2所示。非線性降維方法則主要包括:等度量映射法[19]、局部線性嵌入法[20]、核方法[21]等,如表3所示。

主成分分析法認為方差較大的主成分代表重要的信息,因此它求解使數據方差最大化的低維表示。線性判別分析法與主成分分析法基本思想類似,在求解最大化問題時使用了特征分解來解決。這兩種方法降低了計算開銷,但是要求數據符合高斯分布,并且忽略了空間距離的影響。多維標度法的出現解決上述問題,它在保留空間距離的基礎上對數據降維,保持了數據低維映射的相異性。

然而,上述的三種方法無法處理數據高度非線性的情況。為了解決這個問題,DeMers等人[67]于1993年提出了非線性降維的思想,目標是自動學習非線性拓撲信息。等度量映射法作為典型的非線性降維法,使用測地距離進行流形學習,很好地控制了數據信息的流失,但是其擴展性差,無法添加新樣本。核方法巧妙地規避了這個問題,其使用核函數替換內積,使得原本不可分離的數據可以在高維空間進行分離,但是其存在計算速率慢,容易過擬合的問題。

2.2 基于矩陣分解的圖表示學習方法

2.3 基于隨機游走的圖表示學習方法基于隨機游動的圖表示方法適用于包含大量路徑關系的圖,其中路徑關系蘊涵圖的拓撲信息。首先,基于隨機游走的圖表示方法的游走隨機性促進模型高效學習圖節點信息。其次,該方法通過遍歷相鄰節點來捕獲圖拓撲信息。最后在隨機采樣的路徑上執行概率模型,以完善節點特征表示。表5總結了三種典型基于隨機游走的圖表示學習方法的優缺點。隨機游走模型[25] (DeepWalk)使用圖中節點間的共現關系來學習節點的向量表示。首先,DeepWalk選取圖中的一個隨機節點,再根據此節點的連通現狀隨機選擇下一步節點進行游走,起止節點間經過的路徑即為一條游走序列,圖中所有節點都至少要進行一次以該節點為起點的隨機游走,直到充分捕獲圖的拓撲信息。

2.4 基于深度學習的圖表示學習方法隨著深度神經網絡的飛速發展,深度學習方法在機器學習領域展現了巨大的應用價值。近年來,受循環神經網絡(RNN)和卷積神經網絡(CNN)的啟發,基于神經網絡的圖表示學習方法成為了一個新興的研究熱點。

2.4.1 基于卷積神經網絡的圖表示學習方法圖卷積網絡模型(graph convolutional network,GCN)[28]是研究者由圖卷積理論受到啟發而設計的一個層級網絡傳播模型,主要應用于半監督學習問題,是一種基于高效卷積神經網絡的變體。GCN采用譜圖卷積的局部一階近似直接對圖進行操作,充分學習隱藏層表示,既可以捕獲圖的局部拓撲信息,也可以學習節點特征信息。模型采用圖卷積運算逐層地獲取節點嵌入,在每一層中,首先學習節點的低階領域信息,再進行一層或幾層線性變換和非線性激活,使用的傳播規則是:

2.4.2 基于注意力神經網絡的圖表示學習方法隨著Transformer模型在自然語言處理領域的廣泛應用,注意力機制逐漸被引入到圖表示學習領域,它能有效捕獲圖中每個節點和其他節點之間的關聯程度,從而高效地提取出圖的特征,同時避免了圖的噪聲部分,以便在信息處理中增加信噪比。圖注意力網絡模型(graph attention networks,GAT)[32]是注意力機制應用于圖表示學習領域的一次大膽嘗試,解決了已有基于卷積神經網絡的圖表示方法只能捕獲圖的局部拓撲信息問題。GAT無須預構建圖,因此也解決了一些基于譜的圖神經網絡中存在的問題。圖注意力層是GAT的核心設計。首先,GAT根據輸入的節點向量在圖注意力層進行自注意力計算,其次,GAT使用了掩碼(mask)機制避免圖拓撲信息的損失。最后,為了降低計算復雜度,GAT將注意力機制嚴格限制在節點的鄰域節點集上。GraphTransformer[33]解決了GAT注意力機制與圖結構數據的兼容問題。主要做了四點優化,首先,GraphTransformer將注意力機制作為圖中節點的鄰域連通性的函數,即模型通過注意力機制捕獲了圖中每個節點與其鄰居節點的相關程度。其次,圖作為一種抽象數據類型,GAT使用的位置編碼并不適合圖結構數據,因此,GraphTransformer模型使用了拉普拉斯特征向量作為圖結構數據的位置編碼。再次,為了提升訓練速率,GraphTransformer模型使用批標準化代替了層標準化。最后也是最重要的一點,GraphTransformer模型不但考慮了圖中節點的特征,同時將邊的特征也納入到模型計算之中。模型核心層GraphTransformer層中邊的特征提取被表示為

2.4.3 基于生成對抗網絡的圖表示學習方法相較其他圖表示模型的訓練,生成對抗網絡思想避免了馬爾可夫鏈的使用,降低了計算成本。其次,理論上所有可微分函數都可用于構建生成對抗網絡中的生成器和辨別器,確保生成對抗網絡框架極易應用于圖表示學習領域,無須遵循任何因式分解去設計模型,所有生成器和鑒別器即能正常工作。最后,對抗學習的思想提升了模型的魯棒性。GraphGAN模型[36]是生成對抗網絡應用于圖表示學習領域的經典模型。如圖7所示,模型設置生成器和辨別器模塊,通過兩個模塊的不斷博弈,提升模型準確性和魯棒性。但是,GraphGAN在部分下游任務中表現一般,例如:鏈接預測等。首先,生成器模塊通過學習,擬合底層真實節點的分布并生成一系列假樣本迷惑辨別器,GraphGAN將生成器設定成一個覆蓋所有節點的softmax函數,其次,辨別器模塊負責鑒別生成器輸出的節點連接信息,篩除假樣本。GraphGAN將鑒別器定義為兩個輸入節點內積的sigmoid函數:

2.4.4 基于對比學習網絡的圖表示學習方法

2.4.5 基于時空動態網絡的圖表示學習方法

2.5 其他圖表示學習方法

2.5.1 超圖

2.5.2 異構圖

2.6 不同圖表示方法對比分析通過上述研究分析發現不同圖表示方法各有優缺。基于降維解析的圖表示方法在圖表示任務中應用廣泛,其計算成本低,可解釋性強,模型能夠捕獲到更多層次性數據特征。但是大多數基于降維解析的模型只能學習到圖的一階相似度,無法捕獲高階相似度,丟失了圖的拓撲信息。基于隨機游走的圖表示方法作為早期提出的圖表示方法,思路較為簡單直接,其可擴展性較強,易于在訓練中加入新的節點,能較好地捕捉節點間的結構相似性。但是,由于其模型表達能力有限、節點間參數無法共享等因素影響,模型很難保留圖的全局信息。此外,隨機行走算法依賴于隨機策略,會產生不確定的節點關系,且難以融合屬性信息進行表示學習,魯棒性差。同時未充分捕獲圖本身的結構信息,難以有效地調整參數以適配不同類型的圖,計算復雜度高,難以構建多層圖。

3 測試數據集與評估方法

3.1 測試數據集常用的圖表示學習測試數據集,主要包括以下12種。其中,數據集規模與復雜度依次遞增,如表12所示。

3.2 評估指標表13對比了不同下游任務的圖表示學習方法的評估指標。

3.3 評估結果對比根據圖表示學習的相關性泛化理論,模型的泛化性能受到輸入實體節點的分布影響,很難直接橫向比較各個方法。因此,本節選取了部分具有代表性的基于圖表示學習方法在統一的實驗條件下的結果。這些方法都經過嚴格的模型評估和選擇,輸入特征和數據劃分統一公平,采用十折交叉檢驗的方式進行實驗,實驗結果均可復現。

3.3.1 節點分類針對節點分類任務,本文選取了Cora、Citeseer 和 Wiki 三個數據集進行測試[11]。表14展示了節點分類任務中各方法的測試對比結果。基于卷積神經網絡的GCN模型在三個數據集上效果均為最優,這是由于GCN模型所使用的多層卷積網絡在節點之間相互傳播信息,節點間的信息共享有利于完成節點分類任務;基于隨機游走的DeepWalk模型和node2vec模型效果次優,這是因為隨機游走算法能充分學習節點的上下文信息,進而捕獲到節點間的結構相似性;基于矩陣分解的HOPE 模型和GraRep模型的效果較差,這是因為它們很難捕獲節點的領域信息,致使丟失了圖的拓撲信息造成。

3.3.2 鏈接預測針對鏈接預測任務[37],本文選取Cora、Twitter和Epinion三個數據集測試。表15展示了鏈接預測任務中各方法測試的對比結果。基于生成對抗網絡的DGGAN模型效果最優,這是由于DGGAN模型利用兩個相互影響的生成器學習了魯棒性更強的源向量和目標向量,更好地捕獲了圖的拓撲信息;基于隨機游走的DeepWalk模型、node2vec模型和APP模型效果良好,但隨著原始負樣本的增加,它們的性能迅速下降,這是由于基于隨機游走的模型并未充分學習到圖本身的結構信息,并且此類模型很難融合節點屬性信息進行表示學習;其他模型效果較差,這是由于其無法模擬圖的非對稱性,丟失了圖的拓撲信息。

3.3.3 圖重構針對圖重構任務中,本文選取了Google和Epinions數據集進行測試[37]。圖15展示了圖重構任務中各方法測試的對比結果。

基于生成對抗網絡的DGGAN模型效果最優,這是由于其使用聯合學習的方法,有效地捕獲了每個節點的源向量和目標向量的特征;HOPE模型和APP模型由于捕獲了圖的非對稱高階近似取得較好的結果;node2vec模型等其他應用于無向圖的模型效果較差,而應用于無向圖的模型由于學習少量的正樣本邊和大量的負樣本邊造成圖重構任務效果較差。

3.3.4 可視化針對評估結果可視化任務,本文選取DBLP數據集進行測試[78]。圖16展示了評估結果可視化任務中各方法測試的對比結果。LINE(2nd)模型效果最優,這是因為此類基于結構保留的方法充分學習了節點的一階和二階鄰近性,更好地保留了緊湊的類內聚類;基于隨機游走的DeepWalk模型效果次優,這是因為基于隨機游走的方法通過捕獲圖中的上下文信息來提供可分離的類間表示,所以不出現在同一上下文中的節點往往是分離的,由于隨機進行路徑采樣帶來了噪聲影響,類內向量往往很難進行聚類;而矩陣分解的模型難以聚合相同的屬性的節點,所以性能較差。

4 圖表示學習的應用

4.1 金融領域由于金融投資的高風險性,金融行業需要更加精確可靠的實時數據。圖作為一種抽象形式,能夠高效地表示復雜金融數據,提升金融行業的資源配置效率,強化風險管控能力,有效促進金融業務的創新發展。已有圖表示學習模型應用于股票預測[79]、金融投資[80]等方向。此外,圖表示學習在銀行業、證券行業、保險行業、支付清算行業和互聯網金融行業都得到廣泛應用。

4.2 軍事領域軍事領域的數據具有超海量性、強領域性、泛多樣性、廣時空性及高演化性等特征。傳統的信息表示已經無法滿足大量戰場信息和軍事知識的表示需求。圖表示學習能夠高效輔助軍事系統快速識別實體、事件間的相關關系,實現輔助分析和預測預警,提高軍事大數據的核心利用價值。因此,軍事領域是圖表示學習的重要應用方向之一。已有圖表示學習模型應用于軍事行為預測[81]、軍事裝備[82]等方向。

4.3 醫療領域在醫療信息系統和生物基因技術數十年的高速發展之后,傳統的數據表示方法已經無法應對不斷爆發的醫療數據海嘯和數據爆炸現象。圖表示學習可以高效地將海量醫學數據,轉換成標準化的知識基礎,做到數據驅動醫療服務,大大提高醫療服務能力和效率,進而解決醫療領域存在的諸多需求。醫學界已經提出了一些圖表示學習框架來研究阿爾茨海默病[83]以及大腦對腦磁信號的反應[84]。

4.4 其他領域圖表示學習也可以應用于氣象領域,用于研究氣象站網絡,其模型能夠有效地捕捉不同氣象站的氣象信息[85,86]。圖表示學習還可用于交通領域[87]、互聯網新聞傳播研究[88]、政治關系[89]、人機交互[90]等方面。5 結束語本文對圖表示學習領域的研究現狀進行綜述,總結了圖表示學習的主要方法,橫向對比介紹了各種圖表示學習方法的主要模型。同時,也總結了圖表示學習實驗所使用的主要數據集和評估準則。最后討論了圖表示學習的應用領域。圖表示學習不僅是很多研究領域的基礎問題,也廣泛應用于各個具體任務,具有重要的研究價值。然而,現有的圖表示學習方法在獲取圖拓撲結果、降低計算復雜度等方面仍存在進步空間。因此,圖表示學習未來的研究方向,可概括如下:a)動態圖表示學習。

無論是在社交網絡、生物醫學網絡還是金融網絡等各個領域的數據網絡中,目前已有的圖表示學習方法大都忽略了圖的動態時空信息,例如:已有應用于社交領域的圖表示模型,很難學習到用戶動態增刪的好友信息。動態圖表示學習的研究有利于解決社交領域的好友推薦,生物醫學領域的腦疾病預測[84]和金融領域的股票預測[79]、金融投資[80]等問題。因此如何結合信息的空間和時間擴散進行建模是圖表示學習模型的未來的研究熱點之一。b)圖表示學習的可擴展性。

目前,絕大多數圖表示學習方法僅適用于小規模的圖結構,無法擴展到包含大量節點和邊信息的大型圖中。提升圖表示學習模型的可擴展性有利于其應用于包含著以千萬計、數億計的用戶信息、基因信息的社交網絡和生物醫學網絡中,因此,如何選擇一種可擴展的方式對圖表示學習模型進行訓練和學習是一大研究熱點。c)圖表示學習的可解釋性。

絕大多數優秀的圖表示學習方法都采用了神經網絡的架構,然而基于神經網絡的圖表示模型算法的可解釋性仍然沒有得到解決。例如,應用于推薦系統任務的圖表示模型尚無法解釋推薦是如何被實現的。因此圖表示學習方法的可解釋性也是未來研究的熱點之一。d)可深層解析的圖表示學習。

圖卷積網絡因其優越的性能而備受關注。然而,圖卷積層的數量通常不超過兩層。當嘗試疊加更多的圖卷積層時,性能會顯著下降。這種淺層結構很難學習圖的全局信息。因此,對深層圖表示學習的研究可以有效的獲取圖的全局信息和局部信息,更好地應用于各個下游任務。參考文獻:

[1]Fan Kunjie,Zhang Yan. Pseudo2GO: a graph-based deep learning method for pseudogene function prediction by borrowing information from coding genes[J]. Frontiers in Genetics,2020,11: 807.

[2]徐昭娣,胡軍.基于增量學習的動態社交網絡鏈接預測[J]. 數碼設計,2019,8(9):5.(Xu Zhaodi,Hu Jun. Dynamic social network link prediction based on incremental learning [J]. Digital Design,2019,8(9):5.)

[3]Khazane A,Rider J,Serpe M,et al. DeepTrax: embedding graphs of financial transactions[C]//Proc of the 18th IEEE International Conference on Machine Learning and Applications. 2019: 126-133.

[4]Sun Ke,Liu Jiaying,Yu Shuo,et al. Graph force learning[C]//Proc of IEEE International Conference on Big Data. 2020: 2987-2994.

[5]Bhagat S,Cormode G,Muthukrishnan S. Node classification in social networks[M]//Social Network Data Analytics. Boston:Springer,2011: 115-148.

[6]Liben-Nowell D,Kleinberg J. The link prediction problem for social networks[C]//Proc of the 12th International Conference on Information and Knowledge Management. 2003: 556-559.

[7]Goyal P,Ferrara E. Graph embedding techniques,applications,and performance: a survey[J]. Knowledge-Based Systems,2018,151: 78-94.

[8]Hamilton W L. Graph representation learning[J]. Synthesis Lectures on Artificial Intelligence and Machine Learning,2020,14(3): 1-159.

[9]Lorrain F,White H C. Structural equivalence of individuals in social networks[J]. The Journal of Mathematical Sociology,1971,1(1): 49-80.

[10]Tu Ke,Cui Peng,Wang Xiao,et al. Deep recursive network embedding with regular equivalence[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. 2018: 2357-2366.

[11]Chen Fenxiao,Wang Yuncheng,Wang Bin,et al. Graph representation learning: a survey[J]. APSIPA Trans on Signal and Information Processing,2020,9:15.

[12]Wang Hongwei,Wang Jialin,Wang Jia,et al. Learning graph representation with generative adversarial nets[J]. IEEE Trans on Knowledge and Data Engineering,2019,33(8): 3090-3103.

[13]Ding C H Q,He Xiaofeng,Zha Hongyuan,et al. A min-max cut algorithm for graph partitioning and data clustering[C]//Proc of IEEE International Conference on Data Mining. 2001: 107-114.

[14]Cavallari S,Zheng V W,Cai Hongyun,et al. Learning community embedding with community detection and node embedding on graphs[C]//Proc of ACM on Conference on Information and Knowledge Management. 2017: 377-386.

[15]Fáry I. On straight-line representation of planar graphs[J]. Acta Scientiarum Mathematicarum,1948,11: 229-233.

[16]Jolliffe I T,Cadima J. Principal component analysis: a review and recent developments[J]. Philosophical Transactions of the Royal Society A: Mathematical,Physical and Engineering Sciences,2016,374(2065): 20150202.

[17]Ye Jieping,Janardan R,Li Qi.Two-dimensional linear discriminant analy-sis[C]// Advances in Neural Information Processing Systems.2004.

[18]Robinson S L,Bennett R J. A typology of deviant workplace beha-viors: a multidimensional scaling study[J]. Academy of Management Journal,1995,38(2): 555-572.

[19]Samko O,Marshall A D,Rosin P L. Selection of the optimal parameter value for the Isomap algorithm[J]. Pattern Recognition Letters,2006,27(9): 968-979.

[20]Roweis S T,Saul L K. Nonlinear dimensionality reduction by locally linear embedding[J]. Science,2000,290(5500): 2323-2326.

[21]Harandi M T,Sanderson C,Shirazi S,et al. Graph embedding discriminant analysis on Grassmannian manifolds for improved image set matching[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. 2011: 2705-2712.

[22]Belkin M,Niyogi P. Laplacian eigenmaps for dimensionality reduction and data representation[J]. Neural Computation,2003,15(6): 1373-1396.

[23]Cao Shaosheng,Lu Wei,Xu Qiongkai. GraREP: learning graph representations with global structural information[C]//Proc of the 24th ACM International Conference on Information and Knowledge Management. 2015: 891-900.

[24]Ou Mingdong,Cui Peng,Pei Jian,et al. Asymmetric transitivity preserving graph embedding[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016: 1105-1114.

[25]Perozzi B,Al-Rfou R,Skiena S. DeepWalk: online learning of social representations[C]//Proc of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2014: 701-710.

[26]Grover A,Leskovec J. node2vec: scalable feature learning for networks[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016: 855-864.

[27]Zhou Chang,Liu Yuqiong,Liu Xiaofei,et al. Scalable graph embedding for asymmetric proximity[C]//Proc of AAAI Conference on Artificial Intelligence. 2017.

[28]Kipf T N,Welling M. Semi-supervised classification with graph convo-lutional networks[EB/OL]. (2016).https://arxiv.org/abs/1609.02907.

[29]Chiang Weilin,Liu Xuanqing,Si Si,et al. Cluster-GCN: an efficient algorithm for training deep and large graph convolutional networks[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. 2019: 257-266.

[30]Chen Ming,Wei Zhewei,Huang Zengfeng,et al. Simple and deep graph convolutional networks[C]//Proc of International Conference on Machine Learning. 2020: 1725-1735.

[31]Xia Feng,Wang Lei,Tang Tao,et al. CenGCN: centralized convolutional networks with vertex imbalance for scale-free graphs[J]. IEEE Trans on Knowledge and Data Engineering,2023,35(5):4555-4569.

[32]Velikovic' P,Cucurull G,Casanova A,et al. Graph attention networks[EB/OL]. (2017).https://arxiv.org/abs/1710.10903.

[33]Dwivedi V P,Bresson X. A generalization of transformer networks to graphs[EB/OL]. (2020).https://arxiv.org/abs/2012.09699.

[34]Ying Chengxuan,Cai Tianle,Luo Shengjie,et al. Do transformers really perform badly for graph representation?[C]// Advances in Neural Information Processing Systems. 2021.

[35]Chen Dexiong,O’Bray L,Borgwardt K. Structure-Aware Transformer for graph representation learning[C]//Proc of International Confe-rence on Machine Learning. 2022: 3469-3489.

[36]Wang Hongwei,Wang Jia,Wang Jialin,et al. GraphGAN: graph representation learning with generative adversarial nets [EB/OL]. (2017). https://arxiv.org/abs/1711.08267.

[37]Zhu Shijie,Li Jianxin,Peng Hao,et al. Adversarial directed graph embedding[EB/OL]. (2020).https://arxiv.org/abs/2008.03667.

[38]Mo Yujie,Peng Liang,Xu Jie,et al. Simple unsupervised graph representation learning[C]// Proc of AAAI Conference on Artificial Intelligence. 2022.

[39]Wang Haonan,Zhang Jieyu,Zhu Qi,et al. Augmentation-free graph contrastive learning[EB/OL]. (2022).https://arxiv.org/abs/2204.04874.

[40]Knyazev B,Augusta C,Taylor G W. Learning temporal attention in dynamic graphs with bilinear interactions[EB/OL]. (2019).https://arxiv.org/abs/1909.10367.

[41]Chen Jie,Pareja A,Domeniconi G,et al. Evolving graph convolutional networks for dynamic graphs: U.S. Patent Application 16/790,682[P]. 2021-08-19.

[42]Yang Yu,Yin Hongzhi,Cao Jiannong,et al. Time-aware dynamic graph embedding for asynchronous structural evolution[EB/OL]. (2022).https://arxiv.org/abs/ 2207.00594.

[43]Pang Yan,Shan Ai,Wang Zhen,et al. Sparse-Dyn: sparse dyna-mic graph multirepresentation learning via event-based sparse temporal attention network[J]. International Journal of Intelligent Systems,2022,37(11):8770-8789.

[44]Feng Yifan,You Haoxuan,Zhang Zizhao,et al. Hypergraph neural networks[C]//Proc of AAAI Conference on Artificial Intelligence. 2019: 3558-3565.

[45]Jiang Jianwen,Wei Yuxaun,Feng Yifan,et al. Dynamic hypergraph neural networks[C]// Proc of the 28th International Joint Conference on Artificial Intelligence. 2019: 2635-2641.

[46]Chen Hongxu,Yin Hongzhi,Wang Weiqing,et al. PME: projected metric embedding on heterogeneous networks for link prediction[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. 2018: 1177-1186.

[47]Xu Linchuan,Wei Xaiokai,Cao Jiannong,et al. Embedding of embedding (EOE) joint embedding for coupled heterogeneous networks[C]//Proc of the 10th ACM International Conference on Web Search and Data Mining. 2017: 741-749.

[48]Zhang Hongming,Qiu Liwei,Yi Lingling,et al. Scalable multiplex network embedding[C]// Proc of the 28th International Joint Confe-rence on Artificial Intelligence. 2018: 3082-3088.

[49]Dong Yuxiao,Chawla N V,Swami A. metapath2vec: scalable representation learning for heterogeneous networks[C]//Proc of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2017: 135-144.

[50]He Yu,Song Yangqiu,Li Jianxin,et al. Hetespaceywalk: a heterogeneous spacey random walk for heterogeneous information network embedding[C]//Proc of the 28th ACM International Conference on Information and Knowledge Management. 2019: 639-648.

[51]Fu Taoyang,Lee W C,Lei Zhen. HIN2vec: explore meta-paths in he-terogeneous information networks for representation learning[C]//Proc of ACM on Conference on Information and Knowledge Management. 2017: 1797-1806.

[52]Ley M. DBLP: some lessons learned[J]. Proceedings of the VLDB Endowment,2009,2(2): 1493-1500.

[53]Gui Huan,Liu Jialu,Tao Fangbo,et al. Large-scale embedding lear-ning in heterogeneous event data[C]//Proc of the 16th IEEE International Conference on Data Mining. 2016: 907-912.

[54]Tu Ke,Cui Peng,Wang Xiao,et al. Structural deep embedding for hyper-networks[C]//Proc of AAAI Conference on Artificial Intelligence. 2018.

[55]Zhang Ruochi,Zou Yuesong,Ma Jian. Hyper-SAGNN: a self-attention based graph neural network for hypergraphs[EB/OL]. (2019). https://arxiv.org/abs/1911.02613.

[56]Zhang Chuxu,Song Dongjin,Huang Chao,et al. Heterogeneous graph neural network[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. 2019: 793-803.

[57]Zhang Chuxu,Swami A,Chawla N V. SHNE: representation learning for semantic-associated heterogeneous networks[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining. 2019: 690-698.

[58]Wang Xiao,Ji Houye,Shi Chuan,et al. Heterogeneous graph attention network[C]//Proc of World Wide Web Conference. 2019: 2022-2032.

[59]Hu Ziniu,Dong Yuxiao,Wang Kuansan,et al. Heterogeneous graph transformer[C]//Proc of Web Conference. 2020: 2704-2710.

[60]Yun S,Jeong M,Kim R,et al. Graph transformer networks[C]//Advances in Neural Information Processing Systems. 2019.

[61]Zhu Shichao,Zhou Chuan,Pan Shirui,et al. Relation structure-aware heterogeneous graph neural network[C]//Proc of IEEE International Conference on Data Mining.2019: 1534-1539.

[62]Schlichtkrull M,Kipf T N,Bloem P,et al. Modeling relational data with graph convolutional networks[C]//Proc of European Semantic Web Conference. Cham:Springer,2018: 593-607.

[63]Wang Xiao,Lu Yuanfu,Shi Chuan,et al. Dynamic heterogeneous information network embedding with meta-path based proximity[J]. IEEE Trans on Knowledge and Data Engineering,2022,34(3):1117-1132.

[64]Xue Hansheng,Yang Luwei,Jiang Wen,et al. Modeling dynamic he-terogeneous network for link prediction using hierarchical attention with temporal RNN[C]//Proc of Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Cham:Sprin-ger,2020: 282-298.

[65]Bian Ranran,Koh Y S,Dobbie G,et al. Network embedding and change modeling in dynamic heterogeneous networks[C]//Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. 2019: 861-864.

[66]Milani Fard A,Bagheri E,Wang K. Relationship prediction in dyna-mic heterogeneous information networks[C]//Proc of European Con-ference on Information Retrieval. Cham: Springer,2019: 19-34.

[67]DeMers D,Cottrell G. Non-linear dimensionality reduction[C]// Advances in Neural Information Processing Systems. 1992.

[68]Ahmed A,Shervashidze N,Narayanamurthy S,et al. Distributed large-scale natural graph factorization[C]//Proc of the 22nd International Conference on World Wide Web. 2013: 37-48.

[69]Chen M,Tsang I W,Tan Mingkui,et al.A unified feature selection framework for graph embedding on high dimensional data[J].IEEE Trans on Knowledge and Data Engineering,2015,27(6):1465-1477.

[70]Yan Shuicheng,Xu Dong,Zhang Benyu,et al. Graph embedding and extensions: a general framework for dimensionality reduction[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2006,29(1): 40-51.

[71]Xia Feng,Liu Jiaying,Nie Hansong,et al. Random walks: a review of algorithms and applications[J]. IEEE Trans on Emerging Topics in Computational Intelligence,2020,4(2): 95-107.

[72]Wang Xiao,Bo Deyu,Shi Chuan,et al. A survey on heterogeneous graph embedding: methods,techniques,applications and sources[EB/OL]. (2020).https://arxiv.org/abs/2011.14867.

[73]Mikolov T,Sutskever I,Chen Kai,et al. Distributed representations of words and phrases and their compositionality[C]// Advances in Neural Information Processing Systems. 2013.

[74]Scarselli F,Gori M,Tsoi A C,et al. The graph neural network model[J]. IEEE Trans on Neural Networks,2008,20(1): 61-80.

[75]Zhou Jie,Cui Ganqu,Hu Shengding,et al. Graph neural networks: a review of methods and applications[J]. AI Open,2020,1: 57-81.

[76]Skarding J,Gabrys B,Musial K. Foundations and modeling of dyna-mic networks using dynamic graph neural networks: a survey[J]. IEEE Access,2021,9: 79143-79168.

[77]Giles C L,Bollacker K D,Lawrence S. CiteSeer: an automatic citation indexing system[C]//Proc of the 3rd ACM Conference on Digi-tal libraries. 1998: 89-98.

[78]Tang Jian,Qu Meng,Wang Mingzhe,et al. LINE: large-scale information network embedding[C]//Proc of the 24th International Conference on World Wide Web. 2015: 1067-1077.

[79]Mikolov T,Sutskever I,Chen Kai,et al. Distributed representations of words and phrases and their compositionality[C]//Advances in Neural Information Processing Systems. 2013.

[80]Soleymani F,Paquet E. Deep graph convolutional reinforcement lear-ning for financial portfolio management-DeepPocket[J]. Expert Systems with Applications,2021,182: 115127.

[81]Liu Lixing,Gurney N,McCullough K,et al. Graph neural network based behavior prediction to support multi-agent reinforcement lear-ning in military training simulations[C]//Proc of Winter Simulation Conference. 2021: 1-12.

[82]Liu Chenguang,Yu Yongli,Li Xingxin,et al. Application of entity relation extraction method under CRF and syntax analysis tree in the construction of military equipment knowledge graph[J]. IEEE Access,2020,8: 200581-200588.

[83]Zhang Chao,Zhang Keyang,Yuan Quan,et al. Regions,periods,activities: uncovering urban dynamics via cross-modal representation learning[C]//Proc of the 26th International Conference on World Wide Web. 2017: 361-370.

[84]Zhang Daokun,Yin Jin,Zhu Xingquan,et al. Network representation learning: a survey[J]. IEEE Trans on Big Data,2020,6(1): 3-28.

[85]Hu Chenhui,Cheng Lin,Sepulcre J,et al. A spectral graph regression model for learning brain connectivity of Alzheimer’s disease[J]. PLoS One,2015,10(5): e0128136.

[86]Liu Rui,Nejati H,Cheung N M. Joint estimation of low-rank components and connectivity graph in high-dimensional graph signals: application to brain imaging[EB/OL]. (2018).https://arxiv.org/abs/1801.02303.

[87]Chepuri S P,Liu Sijia,Leus G,et al. Learning sparse graphs under smoothness prior[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.2017: 6508-6512.

[88]Dong Xiaowen,Thanou D,Frossard P,et al. Learning Laplacian matrix in smooth graph signal representations[J]. IEEE Trans on Signal Processing,2016,64(23): 6160-6173.

[89]Thanou D,Dong Xiaowen,Kressner D,et al. Learning heat diffusion graphs[J]. IEEE Trans on Signal and Information Processing over Networks,2017,3(3): 484-499.

[90]Baingana B,Giannakis G B. Tracking switched dynamic network topologies from information cascades[J]. IEEE Trans on Signal Processing,2017,65(4): 985-997.

[91]胡秉德,王新根,王新宇,等. 超圖學習綜述:算法分類與應用分析[J]. 軟件學報,2022,33(2):498-523.( Hu Bingde,Wang Xingen,Wang Xinyu,et al. A review of hypergraph learning: algorithm classification and application analysis[J]. Journal of Software,2022,33(2): 498-523.)

[92]ubelj L,Bajec M. Model of complex networks based on citation dynamics[C]//Proc of the 22nd International Conference on World Wide Web. 2013: 527-530.

[93]De Choudhury M,Lin Y R,Sundaram H,et al. How does the data sampling strategy impact the discovery of information diffusion in social media?[C]//Proc of the 4th AAAI International Conference on Weblogs and Social Media. 2010.

[94]Richardson M,Agrawal R,Domingos P. Trust management for the semantic Web[C]//Proc of International Semantic Web Conference. Berlin: Springer,2003: 351-368.

[95]Cucerzan S. Large-scale named entity disambiguation based on Wikipedia data[C]//Proc of Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. 2007: 708-716.

[96]Palla G,Farkas I J,Pollner P,et al. Directed network modules[J]. New Journal of Physics,2007,9(6): 186.

[97]Ying R,He Ruining,Chen Kaifeng,et al. Graph convolutional neural networks for Web-scale recommender systems[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. 2018: 974-983.

[98]Zhang Fuzheng,Yuan N J,Lian Defu,et al. Collaborative knowledge base embedding for recommender systems[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016: 353-362.

[99]Li Ruoyu,Wang Sheng,Zhu Feiyun,et al. Adaptive graph convolutional neural networks[C]//Proc of AAAI Conference on Artificial Intelligence. 2018.

[100]Matsunaga D,Suzumura T,Takahashi T. Exploring graph neural networks for stock market predictions with rolling window analysis[EB/OL]. (2019). https://arxiv.org/abs/ 1909.10660.

[101]Zhang Daokun,Yin Jie,Zhu Xingquan,et al. Metagraph2vec: complex semantic path augmented heterogeneous network embedding[C]//Proc of Pacific-Asia Conference on Knowledge Discovery and Data Mining. Cham:Springer,2018: 196-208.

[102]Bizer C,Lehmann J,Kobilarov G,et al. DBPedia: a crystallization point for the Web of data[J]. Journal of Web Semantics,2009,7(3): 154-165.

[103]De Fraysseix H,Pach J,Pollack R. Small sets supporting fary embeddings of planar graphs[C]//Proc of the 20th ACM Annual Symposium on Theory of Computing. 1988: 426-433.

[104]Stein S K. Convex maps[J]. Proceedings of the American Ma-thematical Society,1951,2(3): 464-466.

[105]Chrobak M,Payne T H. A linear-time algorithm for drawing a planar graph on a grid[J]. Information Processing Letters,1995,54(4): 241-246.

[106]De Fraysseix H,Pach J,Pollack R. How to draw a planar graph on a grid[J]. Combinatorica,1990,10(1): 41-51.

主站蜘蛛池模板: 欧美精品亚洲精品日韩专区va| 国产成人h在线观看网站站| 2020最新国产精品视频| 午夜丁香婷婷| 国产三区二区| 国产精品一区在线观看你懂的| 国产成人综合亚洲欧美在| 亚洲女同欧美在线| 2021国产精品自产拍在线| 亚洲欧洲日韩综合| 国产成人精品日本亚洲77美色| 中文一级毛片| 男人天堂伊人网| 久久精品91麻豆| 亚洲天堂视频网| 综合社区亚洲熟妇p| 午夜精品区| 亚洲欧美不卡中文字幕| 亚洲精品欧美重口| 日韩精品一区二区三区中文无码| 大香网伊人久久综合网2020| 无码又爽又刺激的高潮视频| 国产99久久亚洲综合精品西瓜tv| 草草线在成年免费视频2| 欧美精品导航| 天天色天天操综合网| 女人18毛片一级毛片在线 | 中文天堂在线视频| 欧美国产成人在线| 国产精品开放后亚洲| 亚洲AV无码不卡无码| 久久成人国产精品免费软件| 毛片在线播放a| 亚洲成aⅴ人在线观看| 久久精品电影| 欧美成人午夜视频| 免费女人18毛片a级毛片视频| 成人a免费α片在线视频网站| 九九久久精品免费观看| 亚洲精品无码久久毛片波多野吉| 国产精品自在线拍国产电影| 婷婷色一区二区三区| 在线a视频免费观看| 波多野结衣久久高清免费| 亚洲天堂精品在线观看| v天堂中文在线| a级毛片免费播放| 好紧好深好大乳无码中文字幕| 呦系列视频一区二区三区| 亚洲人成影视在线观看| 丰满人妻中出白浆| 亚洲人成网站日本片| 日本午夜精品一本在线观看 | 成人综合在线观看| 国产超碰一区二区三区| 在线观看免费黄色网址| 欧美三级日韩三级| 毛片免费在线视频| 五月丁香在线视频| 在线看免费无码av天堂的| 亚洲中文字幕在线一区播放| 亚洲色图另类| 99re在线观看视频| 亚洲精品无码抽插日韩| 久久久久无码精品| 欧美啪啪网| 欧美精品在线观看视频| 成人精品午夜福利在线播放| 一区二区三区毛片无码| 成人在线亚洲| 啪啪啪亚洲无码| 国产主播在线一区| 日本日韩欧美| 97色伦色在线综合视频| 日韩成人午夜| 黄色网页在线观看| 国产成人高精品免费视频| 亚洲欧美日韩成人在线| 五月天在线网站| 国产午夜人做人免费视频中文| 天天色天天综合网| 亚洲日韩精品综合在线一区二区|