














摘要: 為了更好地表示鄰居節點數量較少的罕見實體,提出基于近鄰實體的知識圖譜嵌入模型NNKGE,使用K近鄰算法獲得目標實體的近鄰實體作為擴展信息,并在此基礎上提出RNNKGE模型,使用改進的K近鄰算法獲得目標實體在關系上的近鄰實體,通過圖記憶網絡對其編碼生成增強的實體表示。通過對公共數據集上實驗結果的分析,以上兩個模型在僅使用近鄰節點的情況下均實現了對基準模型(CoNE)的性能超越,緩解了數據稀疏問題并改善了知識表示性能。
關鍵詞: 知識圖譜;知識圖譜嵌入;鄰居節點;K近鄰算法;圖記憶網絡
中圖分類號:"""" TP181;O157.5文獻標識碼: A
Knowledge Graph Embedding Model with the Nearest Neighbors Based on Improved KNN
LIU Jie, SUN Gengxin, BIN Sheng
(College of Computer Science amp; Technology, Qingdao University, Qingdao 266071, China)
Abstract: In order to better represent the rare entities with a small number of neighbors, this paper proposes a knowledge graph embedding model based on the nearest neighbors (NNKGE), which uses the K-Nearest Neighbor algorithm to obtain the nearest neighbors of the target entity as extended information. Based on this, the relational nearest neighbors-based knowledge graph embedding model (RNNKGE) is proposed. To generate an enhanced entity representation, the nearest neighbors of the target entity in relation are obtained by the improved K-Nearest Neighbor algorithm and encoded by the graph memory network. Through the analysis of the experimental results on the public datasets, the above two models outperform the benchmark model (CoNE) in the case of using only the nearest neighbor nodes, alleviating the data sparsity problem and improving the knowledge representation performance.
Keywords:
knowledge graph; knowledge graph embedding; neighbor nodes; K-nearest neighbor algorithm; graph memory network
0 引言
知識圖譜(KG)是一種結構化的語義網絡,以“頭實體關系尾實體”的形式存儲大量事實三元組,目前被廣泛應用于智能問答[1]、推薦系統[2]、搜索引擎[3]等多個人工智能領域。雖然知識圖譜在結構化數據的表示方面效果顯著,但符號表示的特性使其在下游任務中面臨諸多挑戰。知識圖譜嵌入旨在將知識圖譜中的實體和關系表示為稠密低維的實值向量,在低維向量空間中推理潛在的語義聯系。它在簡化操作、降低計算復雜度的同時,有效緩解數據稀疏性問題,實現異質信息融合。隨著知識圖譜規模的快速增長,知識圖譜嵌入在語義數據建模和知識圖譜補全任務中變得愈加重要[4]。
傳統的知識圖譜嵌入模型,如TransE[5]和TransR[6]通常假設三元組相互獨立,僅關注知識圖譜中的事實三元組。隨著研究深入,許多方法開始學習三元組周圍的局部鄰域以提高模型的表達能力,如CoNE[7]、KBGAT[8]、NAEA[9]等。然而現有的模型大多只學習實體的一階鄰居節點或多階鄰居節點,無法對鄰域較少的罕見實體進行充分地學習。為解決該問題,CoNE模型將實體描述文本中的語義實體和拓撲結構中的鄰居實體組成復合鄰域,這在一定程度上提高了知識表示性能并克服了鄰居節點分布不平衡問題,對于缺少足夠文本信息和鄰域信息的實體,該模型仍不能充分學習特征。本文提出一個新的知識圖譜嵌入模型NNKGE,根據嵌入空間中的距離檢索與目標實體最近的K個實體作為輔助信息,其近鄰實體大多與目標實體屬同一類別。由于同類實體間大多具有相同的特征和性質,因此可以學習同類實體的特征表示目標實體。受平移距離思想的啟發,又在NNKGE模型的基礎上提出考慮關系的知識圖譜嵌入模型RNNKGE,將事實的合理性視為向量空間中頭實體和尾實體經過關系轉換后的距離,檢索與目標實體在關系上距離最近的K個實體作為輔助信息,并利用圖記憶網絡(GMN)學習目標節點及其輔助節點的特征,生成增強的實體表示。最后在公共的基準數據集上驗證本文模型在鏈接預測任務上的有效性。實驗結果表明,本文模型相對于傳統的知識表示模型有較大提升,并利用更少的參數實現對基準模型(CoNE)的性能超越。與許多先進的知識表示模型相比,本文模型具有很強的競爭力。
1 相關工作
知識圖譜嵌入通過將知識圖譜中的實體和關系映射到連續低維的向量空間來準確描述實體和關系的語義信息。近年來,各類知識圖譜嵌入方法被提出。TransE、TransR、TimE[10]等模型將關系視為低維空間上頭實體和尾實體之間的平移操作,利用基于距離的評分函數對關系進行打分。隨著深度學習的發展,神經網絡也被應用到知識圖譜嵌入,如ConvE[11]、ConvKB[12]等模型均利用卷積神經網絡(CNN)提取三元組特征。盡管上述方法均在知識圖譜補全任務中效果顯著,但忽略了知識圖譜中的其他多源異質信息,這些信息可以有效提高知識表示能力[13]。Xie等[14]提出基于實體描述信息的DKRL模型,分別使用連續詞袋模型(CBOW)和卷積神經網絡(CNN)構建基于實體描述的表示向量。然而實體描述的信息冗余問題會稀釋實體的特征并阻礙重要特征的提取,截取固定長度的文本信息又會導致實體語義含義的丟失。
考慮到實體不僅受關聯三元組本身的約束,還受到與其相連實體的約束,許多方法開始學習三元組周圍的局部鄰域來提高模型的表達能力[15]。文獻[9]提出一種多語言知識圖譜的鄰域感知注意力表示方法,通過賦予鄰居節點不同的權重來聚合鄰居實體的表示。HRAN模型[16]在關系路徑下聚合實體的鄰居特征,并通過注意力機制學習每個關系路徑的重要性,聚合學習到的權重和基于關系路徑的鄰域特征完成知識表示。ContE模型[17]通過考慮隱含在關系局部鄰域中的上下文來建模三元組,將關系的前向影響和后向影響映射到不同的嵌入向量,根據實體位置將其靜態嵌入向量添加到關系對應的上下文向量中,得到實體的多義表示。CAFE模型[18]使用實體鄰域信息的特征集將三元組轉換為特征向量,并將其用于訓練神經預測模型。文獻[8]使用圖注意力網絡(GAT)挖掘目標實體的多跳鄰居的特征信息,獲得基于多跳鄰居的擴展向量。現實世界中知識圖譜存在實體的長尾問題,這將導致知識圖譜嵌入模型無法從拓撲鄰域中收集足夠信息[19]。為克服鄰居實體分布不平衡問題,CoNE模型利用實體描述信息補足罕見實體的拓撲鄰域。該模型將描述文本中的語義實體和拓撲結構中的鄰居實體組成復合鄰域,利用GMN編碼復合鄰域以生成增強的實體表示,這在一定程度上增強了知識表示性能,然而知識圖譜中仍存在復合鄰居數量較少的罕見實體,CoNE不能充分學習其特征,并忽略了描述文本中的豐富時序信息,增加了模型計算量。為解決以上問題,本文提出基于KNN近鄰實體的知識圖譜嵌入模型NNKGE,利用嵌入空間中目標實體的近鄰實體來表示目標實體。并在此基礎上提出基于改進的KNN近鄰實體的知識圖譜嵌入模型RNNKGE,它考慮實體之間的關系,學習目標實體在關系上的近鄰實體特征提高模型的預測精確度。
2 本文模型
2.1 模型框架
本文提出基于KNN近鄰實體的知識圖譜嵌入模型NNKGE和基于改進的KNN近鄰實體的知識圖譜嵌入模型RNNKGE,均旨在通過學習目標實體的近鄰實體特征提高模型的預測精確度。為更清晰地描述本文模型,本文給出相關的定義和符號表示,將知識圖譜定義為
G=ε,R,T(1)
其中,實體集合ε=e1,e2,e3,…,en表示n個不同的實體,關系集合R=r1,r2,r3,…,rm表示m個不同的關系,T表示三元組集合且Tε×R×ε,其中每個三元組表示為h,r,t,h為頭實體,r為關系,t為尾實體,且h∈ε,t∈ε,r∈R,h,r,t∈T。此外,本文分別使用h,r,t∈Rd表示頭實體、關系以及尾實體對應的d維嵌入向量。
NNKGE和RNNKGE模型的整體框架均如圖 1 所示,該框架主要包含3個組件:
1)近鄰實體集:現有模型大多學習目標實體的鄰居實體來提高模型的表達能力,但鄰居節點分布不平衡問題未得到解決,因此現有模型無法從鄰居節點中學習足夠信息。本文將KNN算法應用到知識圖譜的表示學習中,根據嵌入空間上的距離檢索與目標實體最近的K個節點作為拓展信息,這些節點稱作目標實體的近鄰實體集。NNKGE模型使用傳統的KNN算法收集目標實體的近鄰實體,其近鄰實體大多與目標實體屬同一類別。受TransE模型啟發,RNNKGE將關系看作頭實體到尾實體之間的平移,將實體之間的關系考慮到KNN算法中,并使用改進的KNN算法獲得目標實體在關系上的近鄰實體作為擴展信息,該方法可以獲得包含一階鄰居實體的近鄰實體集,有效克服鄰居節點分布不平衡問題。
2)編碼器:為了學習給定實體及其近鄰實體的特征,NNKGE和RNNKGE模型均使用圖記憶網絡作為編碼器,利用多層注意力機制提取實體的潛在特征并生成增強的實體表示。
3)解碼器:NNKGE和RNNKGE模型均可使用現有的知識圖譜嵌入(KGE)模型作為解碼器,通過解碼器得到三元組的最終分數,該分數被用來判斷三元組是否成立。為公平起見,本文模型首先使用TransE模型作為解碼器,實驗結果證明本文模型在僅使用近鄰實體的情況下提高了模型表示性能。此外,本文使用ConvKB模型作為解碼器驗證了本文模型的普遍適用性。
2.2 近鄰實體集
2.2.1 NNKGE模型的近鄰實體集
KNN算法具有很強的自適應性,被廣泛用于數據分析、圖像處理、文本分類等領域[20]。KNN算法的核心思想是:在特定空間中尋找目標樣本的K個最相鄰樣本,如果這K個樣本大多屬于某一類別,則該樣本也屬于這個類別,并具有這個類別上樣本的某些特性。目標實體的K個近鄰實體大多與目標實體屬于同一類別,它們之間通常具有相似的特征和性質,因此可以學習這些特征表示目標實體。NNKGE模型將KNN算法用到知識圖譜嵌入中,在特征空間中尋找與目標實體最相鄰的K個實體來輔助構建實體的表示向量。如圖2所示,將實體節點分別映射到稠密低維的向量空間中,然后在該向量空間中計算目標實體與候選實體集中每個實體之間的距離。將與目標實體距離最近的K個實體記錄為NK(etarget)=α1,α2…αK,α1,α2…αK∈ε),則NK中節點αi1≤i≤K滿足以下關系:
αi∈NK Detarget,αi≤Detarget,α′i(2)
其中,αi∈NK,α′i∈ε且α′iNK,目標實體etarget∈ε,Dei,ej為節點ei與節點ej之間的距離,具體表示為
Dei,ej=∑dx=1exi-exj212(3)
其中,ei,ej∈Rd分別為實體ei,ej∈ε的初始特征向量,且ei=e(1)i,e(2)i,…,e(d)iT,ej=e(1)j,e(2)j,…,e(d)jT(4)
2.2.2 RNNKGE模型的近鄰實體集
受TransE模型的啟發,RNNKGE模型將關系視為頭實體和尾實體在低維空間上的平移,根據經過關系解釋后的頭實體與尾實體之間的距離來衡量事實的合理性。與NNKGE模型相比,RNNKGE模型得到的近鄰實體集包含一階鄰居實體,能夠有效克服鄰居節點分布不平衡問題。如圖3所示,首先在稠密低維的向量空間中將關系向量平移到目標實體向量上構造新的目標向量,將候選實體分別映射到向量空間后,計算這些向量與新的目標向量之間的距離,并選擇K個距離最小的候選實體記錄為N′K(etarget)=β1,β2…βK,β1,β2…βK∈ε)。N′K中實體βi1≤i≤K與目標實體etarget大概率可以組成正確的三元組,且滿足以下關系:
βi∈N′K DRnew_etarget,βi≤DRnew_etarget,β′i(5)
其中, βi∈N′K,β′i∈ε且β′iN′K,DRnew_etarget,βi具體表示為
DRnew_etarget,βi=∑dx=1e(x)target+r(x)-βi(x)212(6)
其中, etarget,βi,r∈Rd分別表示實體etarget∈ε,βi∈N′K及關系r∈R的初始特征向量,且
etarget=e(1)target,e(2)target,…,e(d)targetT
r=r(1),r(2),…,r(d)T
βi=βi(1),βi(2),…,βi(d)T(7)
考慮關系的KNN算法偽代碼為:
Algorithm 1:改進的KNN算法
Initialize: N′K←,dic←
Input: 目標實體向量etarget,實體字典E=e1:e1,e2:e2,…,en:en,關系向量矩陣R=r1,r2,…,rm,最大最近鄰數量K1≤K≤n
Output: N′K
Etarget←etarget∥將目標實體向量轉換為m列的矩陣
new_Etarget←Etarget+R∥構造融入關系的新實體矩陣
for new_etarget∈new_Etarget do
for i = 1 to n do
if (etarget == ei) then
continue
else
dic←dic∪ei:DRnew_etarget,ei
end if
end for
end for
#在dic字典中按照距離進行排序并取距離最小的前K個節點
#將近鄰節點記錄在N′K中
return N′K
2.3 編碼器
如圖4所示,本文使用圖記憶網絡聚合目標實體自身的特征和其近鄰實體的特征以生成增強的實體表示。NNKGE和RNNKGE模型分別將目標實體etarget的近鄰實體記錄在NK和N′K中,本節以RNNKGE模型為例,首先將N′Ketarget表示為離散的存儲單元:
Q′etarget=Wkeyβi,Wvalueβi(1≤i≤K)(8)
其中,βi∈Rd,表示近鄰實體βi的初始特征向量,矩陣Wkey,Wvalue∈Rd×d可將共享d維向量βi轉換到不同的特征空間。然后利用一個Z層的注意力機制提取近鄰實體的潛在特征,第一個注意力層的實體輸入向量設置為初始向量,之后每個注意力層的輸入都是上個注意力層的輸出。在第z個注意力層中,輸入向量為上一層的輸出向量ez-1,輸出向量ez聚合了目標實體及其K個近鄰實體的特征,具體表示為
ez=ez-1proj+∑Kx=1x×Wvalueβi(9)
其中,ez-1proj表示第z-1個注意力層的輸出向量ez-1經過線性變換和非線性激活函數后得到的其自身的映射向量,i為相對注意力分數,以相對注意力分數作為權重,近鄰實體的特征表示為權重與其值向量的數乘。映射向量ez-1proj和相對注意力分數i具體定義為
ez-1proj=σWprojez-1+bproj(10)
i=τσWezproj;Wkeyβi+b(11)
其中,Wproj∈Rd×d,bproj∈Rd,σ為LeakyReLU激活函數。W∈R1×2d,b∈R1,τ為Softmax激活函數,a;b表示向量a和向量b的拼接操作。
經過Z個注意力層后,頭實體和尾實體的向量分別表示為
hK=hZ-1proj+VhT(12)
tK=tZ-1proj+VtT(13)
其中,Vh和Vt分別為頭實體和尾實體的K個近鄰實體的向量矩陣,且Vh={Wvalueβh1,Wvalueβh2,…WvalueβhK},Vt={Wvalueβt1,Wvalueβt2,…WvalueβtK},={1,2,…,K}。βhi、βti(1≤i≤K)分別為頭實體和尾實體的近鄰實體。
2.4 解碼器
NNKGE和RNNKGE模型均可利用現有的知識圖譜嵌入模型作為解碼器。TransE是一種簡單有效的方法,它將兩個實體之間的關系看作頭實體到尾實體的平移,即當 (h,r,t)成立時,h+r≈t成立。本文提出的兩個模型首先利用經典模型TransE作為解碼器對三元組 (h,r,t)的正確性進行建模,區分兩個實體h和t是否處于關系r中。基于距離的評分函數通過計算實體之間的距離來衡量事實的合理性,本文將評分函數表示為
GTransE(h,r,t)=-‖h+r-t‖22(14)
并采用最大間隔法定義損失函數:
LTransE=∑h,r,t∈T∑h′,r,t′∈T′maxγ+GTransEh,r,t-GTransE(h′,r、t′),0(15)
其中,間隔超參數γgt;0,T′為T的負采樣集,頭實體h和尾實體t被隨機替換為三元組中的候選實體h′或t′,具體表示為
T′=h′,r,t∣h′∈ε∪h,r,t′∣t′∈ε(16)
為驗證本文模型的普遍適用性,NNKGE和RNNKGE模型使用ConvKB作為解碼器,并將評分函數表示為
GConvKB(h,r,t)=con(φ([h,r,t]))*Ω)·ω(17)
其中,con和*分別為連接和卷積操作,Ω和ω分別為表示卷積核集和權重,φ為ReLU激活函數。損失函數定義為
LConvKB=∑h,r,t∈T∪T′log(1+exp(∝·GConvKBh,r,t))+λ2‖ω‖22(18)
其中,λ為正則項的權重,且h,r,t∈T時,∝=1;h,r,t∈T′時,∝=-1。
3 實驗及結果分析
隨著現實世界數據指數級增長,相應的知識圖譜很難甚至不可能及時更新,鏈接預測任務可以基于知識圖譜中現有的三元組來預測缺失的實體或關系[21] 。WN18RR[11]和FB15K237[22]是知識圖譜補全中常用的經典公開數據集,其中WN18RR是從WordNet大規模英語詞匯語義知識圖譜中提取得到的,包含涉及14 541個實體和237種關系的30余萬個三元組樣本;FB15K237是從當前存儲最多事實三元組的Freebase知識圖譜中抽取得到的,包含涉及40 943個實體和11種關系的近10萬個三元組樣本。研究表明若數據集存在可逆關系問題,即測試集中的三元組可以通過翻轉訓練集中的三元組得到,那么簡單規則模型在此類數據集中即可取得較優性能。因此,數據集WN18RR和FB15K237均消除了可逆關系問題。此外,通過計算發現數據集WN18RR中每個實體平均具有20個鄰居實體,最多具有521個鄰居實體,本文選擇鄰居節點數量小于10的所有實體以及涉及這些實體的相關三元組組成新的數據集WN18RR10。實驗數據集的統計數據如表1所示。
為了加速收斂和避免過擬合,模型采用TransE作為初始嵌入模型,訓練得到實體和關系的初始特征向量。評估階段使用 “filter”方式過濾掉所有已被模型觀測到的事實的結果,并選擇平均排名(MR)、平均倒數排名(MRR)、排在前k位的比例Hits@k(k=1, 3, 10)作為本文模型的評測指標。
KNN算法中以歐氏距離作為衡量指標,通過網格尋優法搜索選擇模型的超參數,設定圖記憶網絡的注意力層數Z∈{1,3,5},近鄰實體數量K∈{3,5,10,20,30},實體和關系的向量維度d∈{100,300,600},在TransE解碼器中使用SGD優化器,在ConvKB解碼器中使用Adam優化器,并將損失函數的λ值設置為0.001,學習率λ∈{0.000 1,0.001,0.01},間隔超參數γ∈{1,3,6,8,12},訓練批次大小設置為1 000。實驗時每訓練20輪進行一次測試,在經過1 000輪的迭代訓練后停止,最優參數根據驗證集中的平均排名確定。
本文模型在數據集FB15k237和WN18RR中的實驗結果如圖5、圖6所示,在使用TransE模型為解碼器時,與CoNE-TransE模型相比,NNKGE-TransE模型在FB15k237中將MR指標從211降低到115,Hits@10指標從48.5%增加到60.2%,Hits@1指標從21.6%增加到30.0%;在WN18RR中MR指標從3 542降低到512,Hits@10指標從50.2增加到60.9%。同時,RNNKGE-TransE模型在FB15k237中的MR指標降低到108,Hits@10增加到61.3%;在WN18RR中,該模型的MR指標降低到509,Hits@10增加到61.8%。與其他先進的KGE模型相比,RNNKGE-TransE模型在FB15k237中獲得最好的MR、Hits@10以及Hits@3指標,并且在WN18RR上獲得最好的MR、Hits@10指標。
此外,CoNE模型分別使用TransE、ConvE以及RotatE[23]模型作為解碼器,且CoNE-TransE、CoNE-ConvE以及CoNE-RotatE的實驗結果表明在知識圖譜的鏈接預測任務中,CoNE模型具有增強不同類型的KGE模型的能力,同時NNKGE/RNNKGE-TransE和NNKGE/RNNKGE-ConvKB的實驗結果驗證了本文模型的普遍適用性。解碼器越先進,模型總體性能越好,因此本文模型在更先進的解碼器中會表現出更好的結果。
本文模型在數據集WN18RR10上的實驗結果如表2所示,由于該數據集中所有實體的鄰居節點數量均不超過10,傳統模型無法充分學習鄰域特征。本文模型使用嵌入空間上的近鄰節點作為輔助信息在該數據集上進行實驗,其中RNNKGE模型在該數據集上獲得最好的MR、Hits@10、Hits@3和Hits@1指標,驗證了本文模型能夠提高關聯事實較少的罕見實體的表達能力。
4 結語
傳統的基于鄰居節點的表示學習模型無法有效克服鄰居節點分布不平衡等缺陷,導致知識表示語義不完善。針對這個問題,本文使用嵌入空間上的近鄰節點作為輔助信息,分別提出基于KNN近鄰實體的知識圖譜嵌入模型NNKGE和基于改進的KNN近鄰實體的知識圖譜嵌入模型RNNKGE,并在公共基準數據集上進行鏈接預測任務。實驗結果表明,本文模型在MeanRank和Hits@k指標上均取得一定的性能提升,并且近鄰節點信息在鏈接預測任務上也被證明是有效的,利用該信息增強了知識表達能力,提高了知識圖譜的完備性。未來工作中,本文將考慮使用更復雜的模型作為解碼器,并利用多源信息如實體描述、實體類型和關系路徑等來提高知識表示性能。
參考文獻:
[1]PHAN T, DO P. Building a Vietnamese question answering system based on knowledge graph and distributed CNN[J]. Neural Computing and Applications, 2021, 33(21): 1488714907.
[2]MU S, LI Y, ZHAO W X, et al. Knowledge-guided disentangled representation learning for recommender systems[J]. ACM Transactions on Information Systems (TOIS), 2021, 40(1): 126.
[3]ZHAO X J, CHEN H, XING Z C, et al. Brain-inspired search engine assistant based on knowledge graph[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 34(8):43864400.
[4]XIE Z, ZHU R, ZHAO K, et al. Dual gated graph attention networks with dynamic iterative training for cross-lingual entity alignment[J]. ACM Transactions on Information Systems (TOIS), 2021, 40(3): 130.
[5]BORDES A, USUNIER N, GARCIA-DURAN A, et al. Translating embeddings for modeling multi-relational data[J]. 2013, 2: 27872795.
[6]LIN H L, LIU Y, WANG W D, et al. Learning entity and relation embeddings for knowledge resolution[J]. Procedia Computer Science, 2017, 108: 345354.
[7]WANG K, LIU Y, XU X, et al. Enhancing knowledge graph embedding by composite neighbors for link prediction[J]. Computing, 2020, 102(12): 25872606.
[8]NATHANI D, CHAUHAN J, SHARMA C, et al. Learning attention-based embeddings for relation prediction in knowledge graphs[C] //Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2020: 47104723.
[9]ZHU Q, ZHOU X, WU J, et al. Neighborhood-aware attentional representation for multilingual knowledge graphs [C]// Proceedings of the 28th International Joint Conference on Artificial Intelligence. China: IJCAI, 2019: 19431949.
[10] ZHANG Q J, WANG R G, YANG J, et al. Knowledge graph embedding by translating in time domain space for link prediction[J]. Knowledge-Based Systems, 2021, 212: 106564.
[11] DETTMERS T, MINERVINI P, STENETORPP, et al. Convolutional 2D knowledge graph embeddings [C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2018: 18111818.
[12] NGUYEN D Q, NGUYEN D Q, NGUYEN T D, et al. A convolutional neural network-based model for knowledge base completion and its application to search personalization[J]. Semantic Web, 2019, 10(5): 947960.
[13] JI S, PAN S, CAMBRIA E, et al. A survey on knowledge graphs: Representation, acquisition, and applications[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 33(2): 494514.
[14] XIE R, LIU Z, JIA J, et al. Representation learning of knowledge graphs with entity descriptions [C]//Proceedings of the 30th AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2016: 26592665.
[15] ZHANG Q J, WANG R G, YANG J, et al. Structural context-based knowledge graph embedding for link prediction[J]. Neurocomputing, 2022, 470: 109120.
[16] LI Z F, LIU H, ZHANG Z L, et al. Learning knowledge graph embedding with heterogeneous relation attention networks[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 33(8): 39613973.
[17] PU F, ZHANG Z, FENG Y, et al. Learning context-based embeddings for knowledge graph completion[J]. Journal of Data and Information Science, 2022, 7(2): 84106.
[18] BORREGO A, AYALA D, HERN NDEZ I, et al. CAFE: Knowledge graph completion using neighborhood-aware features[J]. Engineering Applications of Artificial Intelligence, 2021, 103: 104302.
[19] LI M D, SUN Z Y, ZHANG S H, et al. Enhancing knowledge graph embedding with relational constraints[J]. Neurocomputing, 2021, 429: 7788.
[20] MAHESH B. Machine learning algorithms-a review[J]. International Journal of Science and Research, 2020, 9: 381386.
[21] ZHOU Z H, WANG C, FENG Y, et al.JointE: Jointly utilizing 1D and 2D convolution for knowledge graph embedding[J]. Knowledge-Based Systems, 2022, 240: 108100.
[22] BOLLACKER K,EVANS C,PARITOSH P,et al. Freebase:a collaboratively created graph database for structuring human knowledge [C]//Proceedings of the 2008 ACM SIGMOD International Conference on Management of Data. New York: ACM, 2008: 12471249.
[23] SUN Z, DENG Z H, NIE J Y, et al.RotatE: knowledge graph embedding by relational rotation in complex space [DB/OL]//[20220605].http://arxiv.org/pdf/1902.10197.
(責任編輯 耿金花)