999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合全局結構信息的拓撲優化圖卷積網絡

2022-03-01 12:33:46高金輝趙曉夢李佳寧
計算機應用 2022年2期
關鍵詞:優化信息模型

富 坤,高金輝,趙曉夢,李佳寧

(河北工業大學人工智能與數據科學學院,天津 300401)

0 引言

在許多領域中,越來越多的數據以圖的方式呈現,如通信網絡中的信息傳播、生物網絡中的蛋白質交互、社交用戶的偏好和交際關系[1-2]等,因此,通過對圖數據進行網絡表示學習并對其深入挖掘有較高的研究價值和現實意義。在相關研究中,網絡信息的表示是一個重要的問題。本文主要針對基于拓撲優化的圖卷積網絡(Topology Optimization based Graph Convolutional Network,TOGCN)無法表達全局結構信息的問題進行研究。

圖卷積神經網絡(Graph Convolutional Neural Network,GCNN)是卷積神經網絡(Convolutional Neural Network,CNN)[3]在圖數據上的一種推廣,是近期進行網絡表示學習的一類重要模型[4-6]。Bruna 等[7]提出將GCNN 根據定義卷積的方式分為兩種:

1)基于譜域的GCNN 以卷積定理和圖譜理論作為理論基礎,利用拉普拉斯矩陣定義圖中的傅里葉變換,并使用不同的濾波器進行圖數據的特征提取。Spectral CNN 模型將濾波器定義為一組可學習參數,使用了多通道濾波器對圖數據進行特征提取。ChebNet(Network with Chebyshev polynomials)模型[8]使用切比雪夫多項式來近似圖卷積濾波,用多項式的階數K控制卷積核的參數數量,減少了圖卷積的參數,降低了計算復雜度。Kipf 等[9]提出了圖卷積網絡(Graph Convolutional Network,GCN)模型對ChebNet 進行簡化,使用的卷積濾波近似于一階切比雪夫濾波,該模型同時屬于基于譜域和基于空域的GCNN 模型。Levie 等[10]提出了CayleyNet(Network with Cayley polynomials)模型使用一個定義于復空間的函數Cayley 多項式近似卷積濾波來捕獲窄頻帶。譜域GCNN 優勢在于具有扎實的理論基礎,便于研究人員對其運行機制進行挖掘,但該類模型只能應用于無向圖中,且在圖發生變化時模型的適用性較差。

2)基于空域的GCNN 主要考慮節點的空間關系,節點更新是對其鄰域節點特征進行聚合的過程。Micheli[11]提出了NN4G(Neural Network For Graphs)模型累加鄰域節點信息進行特征聚合,并使用剩余鏈接和跳躍鏈接的方式記憶每一層的節點信息。Atwood 等[12]提出DCNN(Diffusion-CNN)模型把圖卷積看作是節點信息擴散的過程,假設每個節點的信息以一定的概率轉移到相鄰節點。相較于譜域GCNN,空域GCNN 的卷積過程更加靈活。

傳統的GCNN 一般通過原始的拓撲圖進行節點向量的學習。雖然使用原始的拓撲圖進行學習有益于模型的可解釋性,便于分析圖數據的特性,但由于圖數據關系的稀疏性,原始的拓撲圖中會帶有噪聲,不利于學習節點表示向量。為了解決這個問題,研究人員們提出了TOGCN,該類模型根據節點屬性等特征優化拓撲圖。Veli?kovi? 等[13]提出的GAT(Graph Attention Network)模型利用注意力機制確定每個鄰居節點對中心節點的重要性,將其作為新的網絡拓撲圖中的邊權重。Li 等[14]提出的AGCN(Adaptive Graph Convolutional Network)模型使用廣義馬氏距離替代歐氏距離來計算節點之間的距離,更新拓撲矩陣的殘差矩陣。Vashishth 等[15]提出的Conf-GCN(Confidence-based GCN)模型對每個節點都設置一個關于其標簽分布的置信度向量,根據兩相鄰節點的置信度差異對拓撲圖進行更新,Jiang 等[16]提出的圖學習卷積網絡(Graph Learning-Convolutional Network,GLCN)模型則利用相鄰節點屬性相似度來約束其鏈接權重,并對圖拓撲優化訓練與圖卷積訓練進行集成,提高了模型的優化效率。

雖然TOGCN 很好地衡量了相鄰節點間的關聯程度,但仍存在以下問題:1)忽略了全局信息對節點表征的影響;2)不能很好地處理由于信息缺失帶來的模型性能下降的問題。

本文針對以上兩個問題,對TOGCN 中的一個經典模型GLCN 進行改進,提出融合全局結構信息的TOGCN(Global structural information Enhanced-TOGCN,GE-TOGCN)模型,該模型通過運用GLCN 的圖學習方法保留了拓撲優化在學習節點鄰域信息方面的優勢;同時以類中心向量作為網絡的全局向量,將其與類標簽同時作為節點的類輔助信息進行訓練。先利用標記節點計算類中心向量,而后利用部分未標記節點更新類中心向量,再使用新的類中心向量更新節點表示向量,使模型能夠同時學習到豐富的局部信息和全局信息。

1 相關工作

在這部分,本文主要介紹網絡表示學習與全局結構信息的概念,介紹用于網絡表示學習的經典模型GCN 的譜域圖卷積原理。

1.1 網絡表示學習

網絡表示學習[17]目的是學習節點低維稠密的特征信息,得到的低維節點特征不僅能在最大化保留原有網絡信息的情況下減小節點特征的存儲空間,而且降低了圖中冗余噪聲信息的影響,再將這些節點特征用于后續的網絡數據分析任務。

1.2 全局結構信息

全局結構信息[18]可表示為非相鄰節點間存在的結構關系或網絡本身存在的某種特征信息,如子圖、路徑等。本文中使用類信息作為全局結構信息,來捕獲節點的類特征。

1.3 譜域圖卷積原理

CNN 在不需過多先驗知識的情況下仍保持著強大的特征提取能力,被廣泛應用于圖像處理、計算機視覺等領域中。但CNN 只能處理網格數據,即每個節點的鄰域節點數量要保持一致,而圖數據中每個節點的鄰居數量并不固定,不符合CNN 卷積的前提條件,因此,GCNN 設計了適于處理圖數據的非歐氏卷積核。

CNN 中的卷積過程可以表示為輸入信號與卷積核經傅里葉變換后乘積的逆變換,傅里葉變換的目的是通過一組正交基將輸入信號由空域投影到頻域中,本質上是時域信號與正交基的內積運算。正交基為拉普拉斯算子的特征函數,推廣到圖上時,由于拉普拉斯矩陣是拉普拉斯算子的離散形式,因此拉普拉斯矩陣的特征向量集合就可看作是GCNN 的一組正交基。下面以圖輸入信號為例,簡要敘述圖中的傅里葉變換過程。

首先定義圖的拉普拉斯矩陣:

其中:D代表度矩陣;A代表圖的拓撲矩陣。

假設圖為無向圖,則矩陣L為對稱矩陣,因此可分解為:

其中:Λ為矩陣L的特征值矩陣;U為對應于Λ的特征向量組成的矩陣。

那么在圖中的傅里葉變換過程可表示為:

其中:N代表圖中節點個數;f*(λl)代表圖信號在第l個特征值λl對應的特征向量上的投影;f(i)代表圖信號第i個節點的信號值;ul(i)表示第l個特征值對應的特征向量在節點i上的分量。則在全圖中的圖信號傅里葉變換可表示為:

類似地,定義傅里葉逆變換為:

定義卷積核為g,則圖的卷積過程可表示為:

2 GE-TOGCN模型設計

本文提出的GE-TOGCN 模型整體結構如圖1 所示。通過一個含有5 個節點,且節點分為2 類的圖來表示模型中節點表示向量的計算過程,其中:x1,x2,…,x5表示5 個節點的高維向量;z1,z2,…,z5表示經訓練后各節點的低維表示向量;μ1和μ2表示兩類的類中心向量。

圖1 GE-TOGCN模型整體結構Fig.1 Overall structure of GE-TOGCN model

本文模型主要包括以下部分。

1)圖拓撲優化層:沿用GLCN 的拓撲優化方式,學習一個最優的拓撲圖來表示節點間更準確的相互關系。

在圖拓撲優化層中引入類中心向量作為圖中的全局結構信息,通過維持準則將類中心向量與節點表示向量關聯起來,使得節點可以更準確地學習到類內節點與類之間的結構關系。依據以下步驟進行類中心向量計算與基于全局正則化的節點表示更新:首先利用標記節點向量定義初始類中心向量;然后利用未標記節點更新類中心向量,從而使計算出的類中心向量可以更好地代表類內節點的整體情況;最后根據全局正則化規則使用更新后的類中心向量更新節點表示向量。

2)圖拓撲優化損失LGTO:該損失函數通過計算兩個相鄰節點屬性向量的距離來修正優化后的拓撲圖中兩個節點之間的連接權重。

3)圖卷積層:將學習好的拓撲圖進行卷積操作得到節點的低維表示向量。

4)半監督損失Lsemi:該損失函數利用交叉熵損失來降低每一個給定標簽節點的表示向量與真實類標簽之間的差異。

2.1 圖拓撲優化層

在本層中,給定圖的屬性矩陣,目的是學習一個可優化的相似矩陣S。圖拓撲優化層具體計算步驟如下:

給定一個輸入X=(x1,x2,…,xN)∈RN×p,先通過一個全連接神經網絡層學習一個節點的低維屬性表示向量H,而后使用一個添加注意力機制的神經網絡層擬合一個映射函數Sij=m(hi,hj),Sij代表由第i個節點的低維表示向量hi與第j個節點的屬性hj由函數m映射后得到的節點i與節點j之間的相似程度,如式(7)~(8)所示:

其中:WL為神經網絡層的權重矩陣;b為偏置向量;ReLU(·)=max(0,·)代表激活函數,保證拓撲圖矩陣S中每一個元素非負;a為注意力向量,用于學習每一個鄰居節點j對節點i的重要程度。先通過使用注意力向量與連接節點之間的距離來計算兩節點之間的連接相似性,再使用softmax 操作對相似權重進行歸一化,目的是滿足矩陣S每一行元素相加為1,有利于簡化模型在圖卷積層中的計算過程。在拓撲優化層中使用式(9)所示損失函數優化圖拓撲矩陣S:

式(9)表示:若節點i和節點j屬性向量之間的差距較大,則兩節點之間的相似度會較小,第二項對相似度矩陣做了正則化來控制該矩陣的稀疏性。該損失函數通過計算兩個相鄰節點屬性向量的距離來修正優化后的拓撲圖中兩個節點之間的連接權重。

2.2 圖卷積層

在學習到優化后的拓撲圖后,將其作為新的圖卷積核進行卷積操作,共同提升圖拓撲優化和圖卷積的表現。在一個完整的圖拓撲優化神經網絡結構中包含多個圖卷積層,每層的傳播規則如式(10)所示:

其中:k代表卷積的層數;DS=diag(d1,d2,…,dn)是關于S的一個對角矩陣,di=為節點i在優化圖S中的“度”,使用DS對矩陣S進行歸一化可以消除梯度消失和梯度爆炸對模型的影響;W(k)代表第k層卷積層中的權重矩陣;σ(·)代表激活函數,在中間層設置為ReLU(·)=max(0,·)函數保證向量非負;X(k+1)代表經過第k層卷積得到的節點特征向量。由于優化后的圖S本身滿足行相加為1 的條件,不需要使用DS對S進行歸一化,因此可簡化為式(11):

對于半監督學習任務,最后一層的輸出如式(12)所示:

其中:C代表類的個數;Z為模型最終輸出的節點表示向量;zi表示第i個節點的表示向量。

由于TOGCN 是基于半監督學習的圖模型,因此該模型引入部分節點的標簽向量,通過交叉熵函數減小標簽向量與對應節點表示向量之間的距離,損失函數如式(13)所示:

其中:Y為部分給定的|Nlabel|個標簽向量;Z為對應的節點向量。

TOGCN 模型的總損失函數如式(14)所示:

損失函數的第一部分利用交叉熵損失來降低每一個給定標簽節點的表示向量與真實類標簽之間的差異;第二部分為圖拓撲優化層的損失函數,使用參數θ表示圖拓撲優化層損失函數所占比重。

2.3 維持全局結構信息的正則化準則

在TOGCN 中,雖然使用注意力機制和相鄰節點的屬性信息來獲取節點間實際的鏈接權重,但并沒有考慮到全局結構信息對節點的影響。Li 等[19]提出的LGAE(Local-Global AutoEncoder)模型定義了全局信息維持準則,并將類中心向量作為全局信息加入模型中,實驗結果表明加入該信息后分類任務的準確率有一定的提升。受該模型的啟發,為了更好地量化全局結構信息與節點屬性信息之間的關系,本文使用類中心向量更新節點表示向量,并利用部分節點的真實標簽優化類中心向量。具體來說,在圖中每個類都設置一個軟類標簽,即類分布中心向量,使節點的表示向量接近于該向量。

LGAE 模型使用一個虛擬二部圖G來對節點與類之間的關系進行描述并定義全局信息維持準則:定義二部圖G=((V,Vˉ),E)為節點集合V與Vˉ之間、邊權重為E的無向圖。對于一個被分為C個類的圖,頂點集分別為圖數據樣本V和數據類分布中心Vˉ,E代表數據樣本和類分布中心之間的連接權重矩陣,可看作是樣本與類向量之間的相似程度。將第c(c∈C)個類的類中心分布向量定義為μc(x(Vc)),Vc代表第c個類的節點集合,x(Vc)代表第c個類節點集合中節點的高維向量,則Vˉ可表示為類中心分布向量的集合,即Vˉ=[μ1(x(V1)),μ2(x(V2)),…,μC(x(VC))]。全局嵌入的目的是建立一個映射g*:V→g*(x(V)),該映射要滿足:若數據樣本高維向量xi接近于第c類的分布中心μc(x(Vc)),那么作為樣本節點的低維表示向量,g*(xi)也應當接近于低維的類分布中心μc(g*(x(Vc))),因此,維持全局結構信息的準則如式(15)所示:

其中:μc(g*(x(Vc)))表示與第c類相對應的類分布中心向量(以下簡稱為μc);B是一個關于映射矩陣G*的約束矩陣。全局圖嵌入尋求一種低維表示,來保持數據樣本和對應類分布中心之間的鄰近性。全局信息嵌入可以將同一類的表示數據映射到對應類分布中心附近,因此,它可以降低類內差異。

下面介紹維持全局結構信息的準則中相似度e的選取方式。現有圖卷積網絡模型中通常用兩種方式設定相鄰節點間的連接權重:

1)高斯核權重。該方法使用高斯核函數來度量兩個向量之間的相似程度,函數如式(16)所示:

其中:xi與xj代表節點i與j的屬性向量。高斯核函數可以將低維的向量投影到無窮維來度量兩個向量的相似度,并使用參數σ控制函數的徑向作用范圍。即若σ減小,則在兩向量距離減小時,兩個向量的相似度會更明顯地增大。

2)相同權重。即節點與所有相連節點之間的相似度e相同,如式(17)所示:

若節點i是節點j的鄰居節點,則節點i對于節點j的相似度為1;若節點i與節點j無連接關系,則i對于j的相似度為0。

在正則化損失中,若選用第一種方式定義權重會削弱距離類中心向量較遠的節點對損失函數的影響,因此本文選用第二種方法來設定節點與類節點之間的相似度e。

2.4 類中心向量計算與基于全局正則化的節點表示更新

本文同時使用標記節點與未標記節點計算類中心向量,將節點根據2.3 節中的全局正則化準則,使用更新后的類中心向量更新節點的表示向量,并利用標記節點的真實標簽對類中心向量與節點表示向量進行優化。

本文先使用標記節點的表示向量計算初始類中心向量,具體來說,每類的初始類中心向量為該類中全部標記節點的表示向量的平均值,如式(18)所示。

使用標簽向量計算類中心之后,需要使計算出的類中心更接近類內全部節點的中心,因此,在計算過程中不僅要考慮標記節點,也需要考慮未標記節點的情況。Shoestring 模型[20]根據未標記節點表示向量與當前的類中心向量之間的相似度將部分未標記節點分配至對應的類,綜合考慮當前類的中心向量和這些未標記節點的情況,重新計算類中心向量,從而使計算出的類中心向量可以更好地代表類內節點的整體情況,經實驗表明由該向量優化后的節點表征在標簽較少時具有良好的性能。

受該模型啟發,本文增加了類中心向量的更新過程,并使用類中心向量進行節點表示的更新工作。在每一次迭代過程中,根據未標記節點的表示向量與當前計算出的類中心向量的相似度,利用部分相似度排名高的未標記節點更新對應的類中心向量,而后根據更新后的類中心向量將節點分配到其最接近的類中,并利用半監督損失函數來保持標記節點的表示向量與更新后的對應類中心向量之間的鄰近性(節點的表示向量代表該節點從屬于每類的概率)。

具體來說,計算未標記節點向量對更新后類中心向量的貢獻權重與對應的貢獻向量,根據權重將更新前類中心向量與未標記節點的貢獻向量相加,更新后的類中心向量用于節點表示向量的更新。具體計算步驟如下所示:

1)設定未標記節點的分配比例k∈[0,1],將每類中100k%個未標記節點分配到每類中。而后,使用softmax 函數計算未標記節點分配到各個類別的概率,計算公式如式(19)所示:

其中:i表示未標記節點;c∈C為類別;zi為當前模型中節點i最后一層的輸出向量;j為節點i所屬的類別;μj為第j類的類分布中心向量;eij代表節點i與類j之間的邊權重。

2)對于每一個類別,將所有未標記節點根據從屬于該類別的概率p(i∈c)進行排序,并根據設定的節點抽取比例k將從屬概率排名前100k%的節點抽取出來,后續將根據這些節點的表示向量計算新的類中心向量。

3)計算每個分配到各類的未標記節點向量對于對應類中心向量的貢獻權重。①對于每個類,將該類中所有分配的未標記節點的分配概率相加作為未標記節點的初始貢獻權重基數。②為了根據給定標簽節點的情況自適應調控分配的未標記節點對更新后類中心向量的貢獻權重,統計該類中標記節點的總數,將該總數與未標記節點的初始貢獻權重基數相加得到該類中所有未標記節點的最終貢獻權重基數。這樣計算后,若每類給定的標記節點較少,那么未標記節點的總貢獻權重相對較高。因為若給定標簽節點較少,那么由給定標簽節點表示向量計算出的類中心向量個例性太強,相對不可靠,就需要增加未標記節點的貢獻權重調整類中心向量。③節點自身分配概率p計算出的貢獻權重基數的比值即為該節點向量對其所分配類的類中心向量的貢獻權重,計算方法如式(20)所示:

4)計算各類中未標記節點向量與更新前類中心向量的差異向量,計算公式如式(21)所示:

5)對于分配到某個類的未標記節點,它的貢獻向量為該節點的貢獻權重與差異向量的乘積。對于類別c,將更新前第c類的類中心向量與被分配到該類的所有節點的貢獻向量相加就可以得到更新后的類中心向量,計算過程如式(22)所示:

6)參考全局正則化準則與Shoestring 模型中節點的重分配過程,通過節點與類中心向量的歐氏距離計算節點屬于每類的概率,將其作為更新后的節點表示向量。通過進行softmax 操作,可以增大類內節點的相似性與不同類節點間的差異性,計算方法如式(23)所示:

經過上述步驟,完成了對類中心向量與節點表示向量的更新工作。由于融合了未標記節點的類信息,因此在更新之后,每類的中心向量可以更好地表示該類節點的整體聚合趨勢。

得到更新后的節點表示向量后,通過交叉熵損失函數減小節點預測類向量與對應節點真實標簽向量之間的距離(標簽向量矩陣定義為Y,yij表示第i個節點標簽向量在第j類上的分量),計算方法如式(24)所示:

GE-TOGCN 模型總損失函數LGE-TOGCN由LGTO和Lsemi兩部分構成,計算方式如式(25)所示:

其中:λ1,λ2∈[0,1]是LGTO和Lsemi的權重控制參數。

2.5 GE-TOGCN模型偽碼

GE-TOGCN 模型偽碼如下所示:

3 基于GE-TOGCN的實驗與結果分析

為評估模型GE-TOGCN 的性能,使用Cora、Citeseer 兩個真實數據集在完成模型訓練后進行節點分類和可視化任務實驗,選用的對比模型為原模型GLCN[16]、譜域圖卷積網絡模型ChebNet[8]、圖卷積網絡模型GCN[9]與同樣基于拓撲優化策略的信任圖卷積網絡模型Conf-GCN[15]。

3.1 實驗設置

本文實驗環境是基于Windows 10 系統,內存為8 GB 的CPU 環境,編程語言為Python3.6,實驗框架為Tensorflow。

實驗數據集Cora 是一個包含多個領域的機器學習論文的引文數據集,論文根據類型分為基于事例、基于遺傳模型、基于神經網絡模型、基于概率模型、基于強化學習、基于規則學習和基于理論共7 類,共2 708 篇文章。在預處理過程中,將每篇文章中所有頻數大于10 且有實際意義的詞語(無意義詞語如“的”“有”等)提取出來構建一個詞匯表,詞匯表中單詞的個數即為論文屬性的個數。經提取后Cora 數據集屬性個數為1 433。

實驗數據集Citeseer 是由論文數據庫Citeseer 上提取的部分論文組成的引文數據集,分為代理技術、人工智能、數據庫、信息檢索、機器學習和人機交互共6 類。共選取3 327 篇論文,詞匯表中單詞個數為3 703。

兩個數據集的詳細信息如表1 所示。

表1 數據集詳細信息Tab.1 Details of datasets

在兩個數據集中,每一類分別從原訓練集隨機抽取1、2、5、10 個節點作為訓練集來模擬標簽信息缺失的情況(每類抽取部分標簽即代表缺失訓練集中其他節點的標簽信息),選擇500 個節點作為驗證集,1 000 個測試節點作為測試集,進行節點分類任務。模型由一個圖拓撲優化層與兩個圖卷積層構成,圖拓撲優化層隱藏單元數為70,圖卷積層中第一層隱藏單元數為30,第二層需根據數據集類的個數具體設定。設置最大訓練迭代次數為10 000,使用Adam 優化器[21]進行參數優化,學習率設置為0.05。如果驗證損失在100 次內沒有下降,則提前停止訓練。

3.2 基于GE-TOGCN的實驗結果與分析

完成模型訓練后,分別使用測試集進行節點分類和可視化任務。

1)GE-TOGCN 在節點分類任務中的實驗結果與分析。

將模型訓練后得到的節點表示向量與真實標簽向量進行比較,使用Micro-F1 指標[22]計算節點分類的準確率。由于抽取標記節點時具有隨機性,因此將模型重復運行10 次,計算平均分類準確率作為最后的分類結果。節點分類準確率如表2~3 所示。

表2 Cora數據集上的節點分類準確率 單位:%Tab.2 Node classification accuracy on Cora dataset unit:%

表3 Citeseer數據集上的節點分類準確率 單位:%Tab.3 Node classification accuracy on Citeseer dataset unit:%

可以看出,在缺失標簽信息的情況下,GE-TOGCN 的分類精度優于基準模型及GLCN 模型。根據分類結果,改進后的模型與次優的模型相比,在Cora 數據集上的分類準確率提高了1.2~12.0 個百分點,在Citeseer 數據集上分類準確率提高了0.9~9.9 個百分點。實驗結果分析如下:

ChebNet 利用切比雪夫高階展開式近似圖的卷積過程,簡化了原始圖卷積過程的計算,同時加強高頻信號的作用,但高頻信號對節點分類效果產生了一定的負面作用。GCN簡化了ChebNet,使用重歸一化加強了低頻信號的作用,所以優于ChebNet 中節點的分類效果。Conf-GCN 對每個節點都設置了類分布向量作為節點的信任向量,根據鄰接節點的分布向量與分布方差計算兩者之間的相似度來優化拓撲矩陣。GLCN 與Conf-GCN 分別利用相鄰節點的屬性相似度與節點的信任向量優化拓撲矩陣,為模型提供了額外的弱監督信息。在標記節點較少時,這些弱監督信息會幫助節點學習到更準確的表示向量,因此性能優于GCN;但這兩種方法只能使相鄰節點信息更準確地進行傳播,而對于非相鄰節點的類相似度考慮不足。GE-TOGCN 在GLCN 的基礎上融合了全局結構信息,量化了非相鄰節點的表示信息與全局類信息之間的關系,因此在訓練節點較少的情況下,通過標記節點與非標記節點的雙重作用,模型可以更充分地利用標記節點的標簽信息,并利用全局類信息更好地表示該類節點的整體聚合趨勢,分類效果優于TOGCN。

2)GE-TOGCN 在節點可視化任務中的實驗結果與分析。

在節點可視化任務中,本文使用t-SNE(t-distributed Stochastic Neighbor Embedding)模型[23],通過非線性降維的方式將學習到的最終節點表示向量投影到二維空間。圖2 中的點表示測試集中各節點表示向量經投影后的二維向量,點的顏色表示類別。由于模型分類結果會隨著選取標簽的質量上下浮動,因此運行結果會存在偏差,本文選擇10 次結果中分類準確率最接近平均值的一次完成可視化任務。從圖2 中可以看出,GE-TOGCN 模型比基準模型類內節點的聚合程度更高,不同類簇之間邊界劃分更清晰。實驗結果說明加入類中心向量后,每類類內節點具有更強的聚合性,不同類節點間具有更明顯的差異性。

圖2 Cora數據集上每類標簽節點個數為5時的可視化結果Fig.2 Visualization results with 5 label nodes per class on Cora dataset

4 結語

本文針對TOGCN 僅對鄰接節點之間的連接關系進行優化,卻忽略全局結構信息的問題進行了改進,將類向量作為全局結構信息融入到節點信息中,使得節點可以在學習局部信息的同時在低維空間中保持高維空間中節點與對應類之間的幾何結構。在Cora 與Citeseer 上進行了模型訓練和下游任務實驗,節點分類任務實驗結果表明,引入類信息作為全局結構信息可以提高在標簽信息缺失的情況下節點分類的準確率;節點可視化任務實驗結果顯示,改進后的模型可以增強同類節點之間的內聚性,同時增強不同類節點間的差異性。實驗結果表明,加入類全局信息有助于提高原模型在標簽信息缺失時的魯棒性,同時節點能夠表現出更明顯的類特征。

致謝:感謝天津大學金弟老師為本文研究提出的建設性意見。

猜你喜歡
優化信息模型
一半模型
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 精品精品国产高清A毛片| 亚洲精品桃花岛av在线| 婷婷开心中文字幕| 国产激爽大片高清在线观看| 啪啪国产视频| 日韩人妻少妇一区二区| 伊人久久久大香线蕉综合直播| 国产成人精品高清不卡在线| 中文字幕永久视频| 国产视频自拍一区| a级高清毛片| 国产va欧美va在线观看| 98超碰在线观看| 91精品啪在线观看国产91| 欧美亚洲国产精品第一页| 538国产在线| 欧美a在线看| 欧美综合中文字幕久久| 91国内在线视频| 久久窝窝国产精品午夜看片| 日本人又色又爽的视频| 国产91视频免费| 波多野结衣爽到高潮漏水大喷| 亚洲人成成无码网WWW| 久久精品嫩草研究院| 亚洲av无码成人专区| 日韩精品亚洲精品第一页| 91精品国产自产在线观看| 亚洲综合二区| 91无码人妻精品一区二区蜜桃| 呦女亚洲一区精品| 久久这里只有精品免费| 99久久精品免费看国产电影| 99在线观看免费视频| av大片在线无码免费| 婷婷色中文| 天天综合天天综合| www.91在线播放| 色婷婷亚洲综合五月| 国产精品视频3p| 老熟妇喷水一区二区三区| 超碰精品无码一区二区| 国产成人91精品免费网址在线| 992Tv视频国产精品| 亚洲成a∧人片在线观看无码| 亚洲欧美h| 性色一区| 福利视频一区| 成人午夜精品一级毛片| 精品三级网站| 欧洲熟妇精品视频| jizz在线免费播放| 91网在线| 99色亚洲国产精品11p| 日韩 欧美 小说 综合网 另类| 国产丝袜91| 国产国产人免费视频成18| 亚洲国产黄色| 操国产美女| 亚洲开心婷婷中文字幕| P尤物久久99国产综合精品| 色妞www精品视频一级下载| 亚洲无限乱码一二三四区| 99精品伊人久久久大香线蕉| 精品偷拍一区二区| 一区二区在线视频免费观看| 第九色区aⅴ天堂久久香| 毛片一区二区在线看| 四虎精品黑人视频| 久久精品最新免费国产成人| 亚洲日本中文综合在线| 亚洲欧美成aⅴ人在线观看| 青青青视频免费一区二区| 色哟哟国产精品一区二区| 日韩欧美网址| 伦精品一区二区三区视频| 国产精品自在拍首页视频8| 欧美精品啪啪| 国产91久久久久久| 欧美精品二区| 国产第一页第二页| 毛片a级毛片免费观看免下载|