999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

異構網絡表示學習方法綜述

2021-01-26 05:50:48王建霞劉夢琳許云峰張妍
河北科技大學學報 2021年1期

王建霞 劉夢琳 許云峰 張妍

摘 要:現實生活中存在的網絡大多是包含多種類型節點和邊的異構網絡,比同構網絡融合了更多信息且包含更豐富的語義信息。異構網絡表示學習擁有強大的建模能力,可以有效解決異構網絡的異質性,并將異構網絡中豐富的結構和語義信息嵌入到低維節點表示中,以便于下游任務應用。通過對當前國內外異構網絡表示學習方法進行歸納分析,綜述了異構網絡表示學習方法的研究現狀,對比了各類別模型之間的特點,介紹了異構網絡表示學習的相關應用,并對異構網絡表示學習方法的發展趨勢進行了總結與展望,提出今后可在以下方面進行深入探討:1)避免預先定義元路徑,應充分釋放模型的自動學習能力;2)設計適用于動態和大規模網絡的異構網絡表示學習方法。

關鍵詞:計算機神經網絡;異構網絡;表示學習;圖神經網絡;建模能力

中圖分類號:TP311.13?文獻標識碼:A

文章編號:1008-1542(2021)01-0048-12

現實世界的數據集大多是以圖形或網絡等數據結構表示,其中對象及其之間的關系分別由節點和邊來體現。例如社交網絡[1-2]、物理系統[3]、交通網絡[4-5]、引文網絡[6-7]、推薦系統[8-9]、知識圖[10]等。

網絡中的節點擁有豐富的屬性信息(如圖像、文本等),形成典型的復雜信息網絡。基于復雜信息網絡的普遍存在性,對信息網絡進行研究和分析具有很高的應用價值。

信息網絡屬于不規則的非歐幾里德數據,如何有效地提取信息成為值得研究的課題。近些年來,網絡表示學習在結構特征提取方面顯示出強大的潛力。如圖1所示,網絡表示學習方法從復雜的信息網絡中學習每個實體的特征信息,將其表示為低維稠密的實數向量,以應用于下游機器的學習任務[11]。

目前大多數網絡表示學習方法都集中在同構網絡上,只考慮一種節點對象和一種連接關系,忽略了網絡的異質性。然而,現實生活中存在更多的是包含多種類型的節點以及邊的異構網絡。相比同構網絡,異構網絡融合了更多信息且包含更豐富的語義信息。若直接將異構網絡當作同構網絡去處理,很容易造成信息的丟失,影響下游任務的效果,所以近年來越來越多針對異構網絡的表示學習方法被設計出來。CHANG等[13]設計了一個深度表示學習模型以捕捉網絡中異質數據之間的復雜交互。FU等[14]利用神經網絡模型捕獲了異構網絡中豐富的關系語義學習節點的表示。

當前,包含不同類型的節點和連接關系的異構網絡的表示學習綜述相對較少。周慧等[15]介紹了基于網絡結構的異構網絡嵌入方法,但缺少對圖神經網絡方法的介紹。本文系統地介紹了異構網絡表示學習相關方法的模型,分為基于網絡結構的嵌入方法和圖神經網絡方法2大類,并細分為4個小類別,分別是基于隨機游走方法、基于一階/二階相似度方法、基于圖注意力網絡方法和基于圖卷積網絡方法,對比了各模型的優缺點和應用場景。同時,還整理了開源實現的表示學習模型以及常用的數據集供研究者參考。異構網絡表示學習方法分類如圖2所示。

1?異構網絡表示學習的基本定義

異構網絡表示學習公式中常見符號及其含義如表1所示。

定義1?異構信息網絡(HIN,簡稱異構網絡)[16]

如圖3 a)和圖3 b)所示,異構網絡(IMDB數據集)由多種類型的對象(演員(A)、電影(M)、導演(D))和關系(電影(M)與導演(D)之間的拍攝關系,演員(A)與電影(M)之間的角色扮演關系)組成。在異構網絡中,2個對象可以通過不同的語義路徑

進行連接,這種連接方式稱為元路徑。

如圖3 c)所示,通過多條元路徑(例如,moive-actor-moive(MAM)和movie-director-movie(MDM))連接2部電影。不同的元路徑揭示不同的語義,MAM表示共同角色關系,而MDM則表示他們由同一導演制作。給定一條元路徑P,每個節點都有一組基于元路徑的鄰居,可以在異構網絡中揭示多種結構信息和豐富的語義信息。

定義3?基于元路徑的鄰居(Meta-path based neighbors)

在異構網絡中給定一個節點v和一條元路徑P,將節點v基于元路徑的鄰居NPv定義為通過元路徑P與節點v連接的一組節點,節點的鄰居包括自己。

以圖3 d)為例,給定元路徑MAM,M1基于元路徑的鄰居包括M1(自己),M2和M3。類似地,M1的基于元路徑MDM的鄰居包括M1和M2。

定義4?網絡表示學習[18]

2?異構網絡表示學習方法介紹

異構網絡表示學習方法是將異構網絡中豐富的結構信息和語義信息嵌入到低維節點表示中,便于下游任務應用。隨著深度學習的興起,圖神經網絡(GNN)成為近年來異構網絡表示學習領域中的熱門研究方向。與基于網絡結構的嵌入方法相比,圖神經網絡方法通過聚合節點自身屬性信息以及鄰居節點信息得到節點的嵌入表示。

2.1?基于網絡結構的嵌入方法

基于網絡結構的嵌入方法單純利用網絡中拓撲結構的相似性生成節點嵌入向量,根據獲取相似性方式的不同,分為基于隨機游走方法和基于一階/二階相似度方法,各模型的主要特點如表2所示。

2.1.1?基于隨機游走方法

metapath2vec模型是DONG等[20]在2017年提出的一種用于異構網絡的節點嵌入方法。該方法使用基于元路徑的隨機游走策略,從異構網絡獲取每個頂點的異構鄰居。即給定一條元路徑P,第i步的轉移概率為

metapath2vec模型使用基于元路徑隨機游走和skim-gram的方式解決了異構網絡的異質性問題,提供了異構網絡表示學習研究的基本思路。

HERec模型[21]利用一種類型約束策略過濾節點序列,捕獲異構網絡中反映的復雜語義。通過一些對稱的元路徑將異構網絡變成同構網絡,然后在同構網絡中根據node2vec方法[25]優化以下目標函數,學習單條元路徑下節點的嵌入如式(2)所示:

式中:f是將節點映射到低維特征空間上的函數;NPv表示在給定一條元路徑的情況下節點v的鄰居。最后融合各條元路徑的信息得到最終的節點表示。

不同于metapath2vec和HERec,按照給定元路徑模式游走的方式,HIN2Vec模型[17]完全隨機選擇游走節點,只要節點有連接均可游走。HIN2Vec模型采用基于隨機游走和負采樣的方法生成符合目標關系的點邊序列。如圖4所示,假設隨機游走得到序列P1,P2,A1,P3,A1,目標關系包含元路徑長度不大于2的所有關系,那么對于節點P1,可以產生訓練數據(P1,P2,P-P)和(P1,A1,P-P-A)。然后HIN2Vec模型將節點和節點間的關系簡化成二分類問題,即給定2個節點x,y,通過預測節點之間是否存在確定的關系r,將分類問題作為優化目標學習節點表示。

metapath2vec,HERec和HIN2Vec是異構網絡表示學習的3個早期工作,為之后的工作提供參考。HU等[26]設計了一種通過結合基于元路徑上下文的三向神經交互模型(MCRec)。該模型通過使用基于優先級的采樣技術選擇高質量的節點序列構建基于元路徑的上下文,并利用共同注意力機制相互改善基于元路徑的上下文和節點的表示。

LU等[27]提出了一種可感知關系結構的異構網絡嵌入模型(RHINE),包含2種與結構相關的度量,這些度量將異類關系區分為2類:從屬關系(AR)和交互關系(IR)且專門為處理AR和IR量身定制了不同模型,可以更好地捕獲網絡的結構和語義。

在網絡表示學習中,負采樣是一項重要操作。通過提高負采樣的效率,找到有代表的負樣本,可以大大提高模型的性能。為了找到有代表性的負樣本,HU等[28]將圖對抗網絡[29](GAN)引入到異構網絡表示學習中,提出了一種新的用于異構網絡嵌入的框架(HeGAN)。HeGAN根據關系類型使用GAN生成更具代表性的負樣本。研究表明,無論是在分類、聚類還是鏈接預測任務中,HeGAN方法顯著優于metapath2vec方法和HIN2Vec方法[28]。

2.1.2?基于一階/二階相似度方法

TANG等[22]在LINE算法[30]的基礎上進行改進,提出了一種半監督的文本數據表示學習方法,即預測文本嵌入(PTE)。PTE模型首先將異構網絡分解為一組二部圖網絡,然后通過捕獲二部圖網絡的二階相似度學習節點的嵌入表示。PTE模型的目標函數為

SHI等[23]發現之前很多算法都是把不同類型的節點映射到同一低維空間中,容易造成信息丟失,故提出一種新的嵌入式學習框架(AspEm),通過對異構網絡進行多個方面的劃分,實現了在避免信息丟失的情況下,獲得高質量的節點嵌入表示,如圖5所示。圖5 a)圖例可以分解成圖5 b)中2個方面的子圖。AspEm還設計有一個不兼容信息的度量方法,為嵌入學習選取合適的方面。給定一個方面a,目標函數為

AspEm方法雖然獨立地獲取了不同方面的信息,但是完全禁止了跨方面的聯合學習。SHI等[24]對AspEm方法進行改進,提出HEER算法。HEER算法允許不兼容的信息在聯合學習過程中進行不同程度的協作。HEER算法的基本思想:在節點表示的基礎上建立邊的表示,并且為不同類型的邊采用不同的度量空間,通過結合邊的表示和不同的度量空間,學習異構網絡節點和邊的嵌入表示。

2.2?圖神經網絡方法

近年來,隨著圖神經網絡(GNN)的興起,以圖卷積網絡(graph convolutional network)和圖注意力網絡(graph attention network)為代表的圖神經網絡被廣泛應用于異構網絡表示學習中。與同構網絡不同,異構網絡通常需要考慮不同關系下鄰居信息的差異。因此,異構圖神經網絡方法通常采用層次聚合的方式,即節點級別的聚合以及語義級別的聚合。圖神經網絡方法的主要特點如表3所示。

2.2.1?基于圖注意力網絡方法

近年來,深度學習引入了注意力機制,注意力機制的潛力在各個領域得到了充分證明。WANG等[19]首次將注意力機制引入異構圖神經網絡中研究,并提出一種基于層次注意力的異構圖神經網絡模型(HAN)。HAN模型嵌入架構如圖6所示,總體包括2部分:1)將所有類型的節點投影到統一的特征空間中,并通過節點級別注意力學習基于元路徑的鄰居節點的權重;2)利用語義級別注意力學習每條元路徑的權重,并通過相應的聚合操作得到最終的節點表示。

HAN節點級別的聚合:如圖6 a)所示,節點級注意力旨在學習給定元路徑下不同鄰居節點的重要性,然后通過加權平均學習節點在某條元路徑下的表示。

HAN語義級別的聚合(如圖6 b)所示):

ZHANG等[31]發現很少有網絡可以同時考慮異構網絡的結構信息以及每個節點的異構內容信息,故提出一種異構圖神經網絡模型(HetGNN)解決此問題。HetGNN首先引入帶有重啟策略的隨機游走方法為每個節點(見圖7中節點a)采樣固定長度的異構鄰居,然后利用節點異構內容編碼器編碼節點的異構內容,從而得到節點的初始嵌入表示。

目前大多基于元路徑的表示學習方法舍棄了元路徑內部的節點信息,只考慮元路徑的起始節點和末尾節點,造成信息丟失。為了解決上述問題,FU等[32]提出了MAGNN模型,MAGNN模型框架如圖8所示。首先將異構網絡的節點屬性信息映射到同一個隱層的向量空間,然后使用注意力機制將元路徑內部的語義信息納入考慮,最后使用注意力機制聚合多條元路徑信息得到最終的節點表示。

MAGNN節點級別的聚合:

MAGNN將元路徑實例中所有節點的特征納入考慮。

元路徑間的聚合即語義級別的聚合,目的是組合所有元路徑包含的語義信息。如式(14)所示,MAGNN使用線性轉換和一層非線性函數,將節點嵌入映射到所需維度的向量空間。

式中:βP表示各條元路徑的重要性;[WTHX]hPAv代表類型為A的節點的最終表示;[WTHX]Wo代表線性轉換的權重矩陣。

MAGNN和其他模型在鏈接預測任務中的性能見表4。由表4可知,MAGNN的性能大大優于其他模型,其中最強大的基礎模型是metapath2vec,而MAGNN比metapath2vec得分更高,表明考慮單條元路徑是欠佳的。在GNN基準中,HAN獲得最佳結果,因為HAN考慮了網絡的異質性并結合多條元路徑。MAGNN與HAN相比改進了約6%,結果表明元路徑的內部信息對節點嵌入至關重要。

2.2.2?基于圖卷積網絡方法

大多異構網絡表示學習方法都需要預先指定元路徑, 但需要很強的先驗知識,元路徑的選擇在極大程度上會影響模型的效果。YUN等[33]提出了一種能夠生成新的圖數據結構的圖變換網絡(GTNs),旨在解決異構網絡分析中如何選取合適元路徑的問題。

GTNs模型架構如圖9所示,GTNs通過GT層將原始圖數據[WTHX]A∈RN×N×|R|轉換成新的圖數據[WTHX]A(l)∈RN×N×C,然后在新圖數據上進行卷積操作學習有效的節點表示。其中,GT層可以識別原始圖數據中未連接節點之間的有用連接,并生成對任務有用的元路徑。

1) GTNs節點級別的聚合

GTNs采用GCN的聚合方式.針對第i條元路徑,通過聚合得到該元路徑下的節點表示為[WTHX]Zi:

2) GTNs語義級別的聚合

將多條元路徑下的節點表示拼接起來得到最終節點表示[WTHX]Z:

其中:‖表示連接操作;C代表通道數。

預定義的元路徑和通過GTNs模型學習到的排名最高的元路徑之間的比較見表5。由表5可知,GTNs模型找到了重要的元路徑,這些元路徑與按領域知識預先定義的元路徑一致。此外,GTNs還發現所有類型節點之間的新的相關元路徑。

3?應?用

3.1?常用數據集

眾多測試算法性能的數據集見表6,數據集包括3類,分別是引文網絡、社交網絡和電影數據。對于每個數據集,表中給出了數據集來源,分別統計了該數據集的邊的類型、節點數、邊數、標簽類別數量,是否含有特征以及元路徑,方便研究者選擇適合模型的數據集。

3.2?開源實現

表7整理了具有代表性模型的開源實現,供研究者快速學習或復現驗證模型效果。

3.3?實際應用

異構網絡表示學習方法可以應用到許多實際任務中,可以寬泛地將應用分為3類,即節點分類、節點聚類和鏈接預測。

1) 節點分類?其大多屬于半監督的學習任務,即原始數據中給定某些節點對應的類別,通過學習已有標簽的數據信息,從而預測沒有標簽的節點屬于哪一個類別。通常先抽取節點的屬性或結構特征為節點生成嵌入信息,然后應用邏輯回歸等分類器為對應節點預測標簽。節點分類應用領域十分廣泛。如,在新聞和推特中,對短文本進行分類,幫助用戶找到相關信息[34];在社交網絡中預測部分用戶的標簽信息;在生物領域中,對蛋白質生物功能進行標記。最近實驗數據[19,31-33]表明,融入屬性信息的異構圖神經網絡模型對節點分類的精度都要高于基礎模型metapath2vec,表明利用異構節點特征的GNN架構可以得到更好的嵌入表示,對提高下游任務有很大的幫助。

2) 節點聚類?按照某個特定標準(如距離準則)把一個數據集分割成不同的類或簇,使得同一個簇內的數據對象的相似性盡可能大,同時不在同一個簇中數據對象的差異性也盡可能大。節點聚類算法可以用來為社交網絡中的用戶自動劃分好友分組,為蛋白質網絡中的各類蛋白質依照它們之間的聯系自動聚類。研究[32]表明,在節點聚類任務中,node2vec[22]優于傳統的異構模型[20-21],這是由于node2vec作為一種基于偏隨機游走方法,迫使圖中靠近的節點在嵌入空間中也靠近[35],從而對節點的位置信息進行編碼,同時這個特性也極大促進了K-Means算法的發展。

3) 鏈接預測?旨在預測網絡中丟失的邊,或者未來可能會出現的邊。在生物領域中,由于目前有很多蛋白質人們都不熟悉,因而實驗時間和金錢成本高,需要較準確的預測以降低成本。例如文獻[36—40]預測可以發生相互作用的蛋白質,為疾病的發生和大規模的治療設計提供有價值的見解。鏈接預測在社交網絡也得到廣泛應用,例如向用戶推薦商品[41-42]或熟人。由表4可知,MAGNN[32]模型在鏈接預測方面的效果最好,這是由于MAGNN不僅聚合多條元路徑的信息還考慮元路徑內部的語義信息。

4?總結與展望

現有的異構網絡表示學習方法包括基于隨機游走方法、基于一階/二階相似度方法、基于圖注意力網絡方法和基于圖卷積網絡方法4個類別。本文綜合比較了方法模型各自的特點,并給出了異構網絡表示學習中的經典數據集和常用模型的開源實現項目。

隨著社會的不斷進步,現實世界網絡將變得更加復雜,如何有效聚合網絡中豐富的信息輔助表征向量的學習,同時降低模型的復雜度是今后研究的一個方向?;贕NN的異構網絡表示學習方法需解決以下問題:

1) 避免預先定義元路徑。目前大多數異構網絡表示學習方法都需要預先人為定義元路徑,需要很強的先驗知識且耗費很大的人力。最近提出的GTNs[33]可以識別原始圖數據中未連接節點之間的有用連接,自適應地學習到合適長度的元路徑,并且實驗表明,在節點分類任務上GTNs的效果要優于HAN模型。

2) 適應動態網絡。真實世界的網絡具有動態性,節點以及節點之間復雜的交互信息無時無刻不在更新,而現有的異構網絡表示學習方法大都針對靜態網絡,設計能夠高效融合交互信息的動態異構網絡表示方法具有很高的實用價值。

3) 適應大規模復雜信息網絡?,F實世界的網絡有上億節點,如OAG數據集[43]含有10億多個節點和連接關系,而現有的異構網絡表示學習方法僅適用于小規模數據網絡。因此,設計具有可擴展性的方法也是未來研究的一個方向。

參考文獻/References:

[1]?HAMILTON W, YING Z, LESKOVEC J. Inductive representation learning on large graphs[C]//Advances in Neural Information Processing Systems. Long Beach:NIPS, 2017: 1024-1034.

[2]?WANG D, CUI P, ZHU W. Structural deep network embedding[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York : ACM, 2016: 1225-1234.

[3]?BATTAGLIA P, PASCANU R, LAI M, et al.Interaction networks for learning about objects, relations and physics[C]//Advances in Neural Information Processing Systems. Barcelona : NIPS, 2016: 4502-4510.

[4]?LI Yaguang, YU R, SHAHABI C, et al. Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting[EB/OL].[2018-02-22]. https://arxiv.org/abs/1707.01926.

[5]?ZHANG J, SHI X, XIE J, et al. Gaan: Gated Attention Networks for Learning on Large and Spatiotemporal Graphs[EB/OL].[2018-03-20]. https://arxiv.org/abs/1803.07294.

[6]?ATWOOD J, TOWSLEY D. Diffusion-convolutional neural networks[C]//Advances in Neural Information Processing Systems. Barcelona: NIPS, 2016: 1993-2001.

[7]?BERG R, KIPF T N, WELLING M. Graph Convolutional Matrix Completion[EB/OL].[2017-10-25].https://arxiv.org/abs/1706.02263.

[8]?LU Y, FANG Y, SHI C. Meta-learning on heterogeneous information networks for cold-start recommendation[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York : ACM, 2020: 1563-1573.

[9]?ZHANG J, SHI X, ZHAO S, et al. Star-gcn: Stacked and Reconstructed Graph Convolutional Networks for Recommender Systems[EB/OL].[2019-05-27].https://arxiv.org/abs/1905.13129.

[10]SUN Z, DENG Z H, NIE J Y, et al. Rotate: Knowledge Graph Embedding by Relational Rotation in Complex Space[EB/OL].[2019-02-26]. https://arxiv.org/abs/1902.10197.

[11]魯軍豪, 許云峰. 信息網絡表示學習方法綜述[J]. 河北科技大學學報, 2020, 41(2): 133-147.

LU Junhao,XU Yunfeng.A survey of information network representation learning[J].Journal of Hebei University of Science and Technology,2020,41(2):133-147.

[12]涂存超, 楊成, 劉知遠, 等. 網絡表示學習綜述[J]. 中國科學:信息科學, 2017, 47(8): 980-996.

TU Cunchao, YANG Cheng, LIU Zhiyuan, et al. Network representation learning: An overview[J]. Scientia Sinica Informationis, 2017, 47(8): 980-996.

[13]CHANG S, HAN W, TANG J, et al. Heterogeneous network embedding via deep architectures[C]//Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York: ACM, 2015: 119-128.

[14]FU T, LEE W C, LEI Z. HIN2Vec: Explore meta-paths in heterogeneous information networks for representation learning[C]//Proceedings of the 2017 ACM on Conference on Information and Knowledge Management. Singapore: ACM, 2017: 1797-1806.

[15]周慧,趙中英,李超.面向異質信息網絡的表示學習方法研究綜述[J]. 計算機科學與探索, 2019, 13(7): 1081-1093.

ZHOU Hui, ZHAO Zhongying, LI Chao. Survey on representation learning methods oriented onheterogeneous information networks[J]. Journal of Frontiers of Computer Science and Technology, 2019, 13(7): 1081-1093.

[16]SHI C, LI Y, ZHANG J, et al. A survey of heterogeneous information network analysis[J]. IEEE Transactions on Knowledge and Data Engineering, 2016, 29(1): 17-37.

[17]SUN Y Z, HAN J W, YAN X F, et al. PathSim: Meta path-based top-k similarity search in heterogeneous information networks[J]. Proceedings of the VLDB Endowment, 2011, 4(11): 992-1003.

[18]ZHANG Daokun, YIN Jie, ZHU Xingquan, et al. Network representation learning: A survey[J]. IEEE Transactions on Big Data, 2017.doi:10.1109/TBDATA.2018.2850013.

[19]WANG X, JI H, SHI C, et al. Heterogeneous graph attention network[C]//The World Wide Web Conference. Geneva:WWW, 2019: 2022-2032.

[20]DONG Y, CHAWLA N V, SWAMI A. Metapath2vec: Scalable representation learning for heterogeneous networks[C]//Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2017: 135-144.

[21]SHI Chuan, HU Binbin, ZHAO W X, et al. Heterogeneous information network embedding for recommendation[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 31(2): 357-370.

[22]TANG J, QU M, MEI Q. PTE: Predictive text embedding through large-scale heterogeneous text networks[C]//Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York: ACM, 2015: 1165-1174.

[23]SHI Y, GUI H, ZHU Q, et al. AspEm: Embedding learning by aspects in heterogeneous information networks[C]//Proceedings of the 2018 SIAM International Conference on Data Mining. California: SIAM, 2018: 144-152.

[24]SHI Y, GUI H, GUO F, et al. Easing embedding learning by comprehensive transcription of heterogeneous information networks[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM, 2018: 2190-2199.

[25]GROVER A, LESKOVEC J. node2vec: Scalable feature learning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 855-864.

[26]HU B, SHI C, ZHAO W X, et al. Leveraging meta-path based context for Top-N recommendation with a neural co-attention model[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York: ACM, 2018: 1531-1540.

[27]LU Yuanfu, SHI Chuan, HU Linmei, et al. Relation structure-aware heterogeneous information network embedding[J]. IEEE Transactions on Knowledge and Data Engineering, 2019.http://arxiv.org/abs/1905.08027.

[28]HU B, FANG Y, SHI C. Adversarial learning on heterogeneous information networks[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM, 2019: 120-129.

[29]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Advances in Neural Information Processing Systems, 2014, 3: 2672-2680.

[30]TANG J, QU M, WANG M, et al. LINE: Large-scale information network embedding[C]//Proceedings of the 24th International Conference on World Wide Web. Geneva:WWW,2015: 1067-1077.

[31]ZHANG C, SONG D, HUANG C, et al. Heterogeneous graph neural network[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York: ACM, 2019: 793-803.

[32]FU X, ZHANG J, MENG Z, et al. MAGNN: Metapath aggregated graph neural network for heterogeneous graph embedding[C]//Proceedings of the Web Conference 2020. Geneva: WWW, 2020: 2331-2341.

[33]YUN S, JEONG M, KIM R, et al. Graph transformer networks[C]//Advances in Neural Information Processing Systems. Vancouver: NIPS, 2019: 11983-11993.

[34]HU L, YANG T, SHI C, et al. Heterogeneous graph attention networks for semi-supervised short text classification[C]//Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Hong Kong: EMNLP-IJCNLP, 2019: 4823-4832.

[35]YOU Jiaxuan, YING R, LESKOVEC J. Position-Aware Graph Neural Networks[EB/OL].[2019-06-13]. https://arxiv.org/abs/1906.04817.

[36]SHOEMAKER B A, PANCHENKO A R. Deciphering protein-protein interactions. Part I. experimental techniques and databases[J]. Plos Computational Biology, 2007, 3(3): e42.

[37]LI Hang, GONG Xinjun, YU Hua, et al. Deep neural network based predictions of protein interactions using primary sequences[J]. Molecules, 2018, 23(8): 1923.

[38]ZHANG Zhaopeng, RUAN Jishou, GAO Jianzhao, et al. Predicting essential proteins from protein-protein interactions using order statistics[J]. Journal of Theoretical Biology, 2019, 480: 274-283.

[39]LOPAMUDRA D, ANIRBAN M. A classification-based approach to prediction of dengue virus and human protein-protein interactions using amino acid composition and conjoint triad features[C]//2019 IEEE Region 10 Symposium (TENSYMP). Kolkata: IEEE, 2019: 373-378.

[40]BELTRAN J C, VALDEZ P, NAVAL P. Predicting protein-protein interactions based on biological information using extreme gradient boosting[C]//2019 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB). Siena:IEEE, 2019: 1-6.

[41]FAN S, ZHU J, HAN X, et al. Metapath-guided heterogeneous graph neural network for intent recommendation[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM ,2019: 2478-2486.

[42]FAN W, MA Y, LI Q, et al. Graph neural networks for social recommendation[C]//The World Wide Web Conference. New York: ACM , 2019: 417-426.

[43] HU Z, DONG Y, WANG K, et al. Heterogeneous graph transformer[C]//Proceedings of the Web Conference. New York: ACM, 2020: 2704-2710.

主站蜘蛛池模板: 欧美综合一区二区三区| 亚洲精品桃花岛av在线| 亚洲成A人V欧美综合天堂| 国产精品自拍露脸视频| 国产精品欧美激情| 国产成人AV综合久久| 天天婬欲婬香婬色婬视频播放| 国产超薄肉色丝袜网站| 波多野结衣一级毛片| 亚洲国产一成久久精品国产成人综合| 无码中文AⅤ在线观看| 一级毛片在线免费视频| 99热这里都是国产精品| 久久精品视频一| AV老司机AV天堂| 五月婷婷丁香综合| 欧美亚洲另类在线观看| 操国产美女| 国产精品区网红主播在线观看| 欧美成人a∨视频免费观看| 亚洲无码37.| 免费看av在线网站网址| 国产精品爽爽va在线无码观看| 91亚洲国产视频| 精品无码视频在线观看| 国产91特黄特色A级毛片| 国产真实乱人视频| 国产欧美专区在线观看| 999精品免费视频| 色婷婷电影网| 久久久国产精品无码专区| 青青操视频免费观看| 国产精品亚洲专区一区| 欧美一区精品| 久久99国产综合精品女同| 亚洲欧美日韩久久精品| 新SSS无码手机在线观看| 亚洲精品无码久久久久苍井空| 无码精油按摩潮喷在线播放| 久久精品国产国语对白| 麻豆国产精品一二三在线观看| 欧美日韩专区| 九月婷婷亚洲综合在线| Aⅴ无码专区在线观看| 无码国产伊人| 亚洲一区二区三区国产精华液| 亚洲色中色| 国产人人射| 在线人成精品免费视频| 玩两个丰满老熟女久久网| 91日本在线观看亚洲精品| 丁香五月激情图片| 国产欧美日韩另类精彩视频| 精品欧美一区二区三区久久久| 色精品视频| 久久精品视频亚洲| 亚洲日韩精品综合在线一区二区| 国产免费高清无需播放器| 国产精品国产主播在线观看| 国产小视频免费| 国产成人亚洲欧美激情| 亚洲中文精品久久久久久不卡| 欧美成人影院亚洲综合图| 丝袜美女被出水视频一区| 亚洲av无码牛牛影视在线二区| 日韩精品欧美国产在线| 色综合天天综合中文网| 狠狠干欧美| 欧美不卡视频一区发布| 91麻豆精品视频| 日本精品一在线观看视频| 九九九国产| 亚洲欧美日韩久久精品| 国产欧美日韩免费| 亚洲v日韩v欧美在线观看| 国产亚洲欧美在线中文bt天堂| 国产成人精品一区二区秒拍1o| 色老头综合网| 免费a级毛片视频| 国产91无码福利在线 | 免费不卡在线观看av| 高清精品美女在线播放|