999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于動態二分網絡表示學習的推薦方法

2022-01-01 00:00:00張陽陽陳可佳張杰
計算機應用研究 2022年4期

摘要:構建用戶—項目交互網絡并學習其表征是一種有效的推薦方法。已有的方法大多將交互網絡視為靜態同質網絡,忽略了交互時序性和節點異質性的影響。針對這一問題,提出一種基于動態二分網絡表示學習的推薦方法,首先構建時序加權二分網絡;然后將用戶節點和項目節點分別映射到不同的向量空間以保留網絡的異質性,選擇圖卷積網絡來聚合節點的一階和高階鄰居信息;最后使用多層感知機學習兩類節點嵌入的非線性關系并進行top-N推薦。在Amazon和Taobao數據集上的實驗結果表明,該方法在HR和NDCG推薦指標上均顯著優于相關的基于靜態、異質網絡表示學習的方法。

關鍵詞:推薦系統; 動態網絡; 二分網絡;圖卷積

中圖分類號:TP391文獻標志碼:A

文章編號:1001-3695(2022)04-011-1024-06

doi:10.19734/j.issn.1001-3695.2021.09.0409

Recommendation method based on dynamic bipartite network representation learning

Zhang Yangyanga, Chen Kejiaa,b, Zhang Jiea

(a.School of Computer Science, b.Jiangsu Key Laboratory of Big Data Security amp; Intelligent Processing, Nanjing University of Posts amp; Telecommunications, Nanjing 210023, China)

Abstract:Representation learning of a user-item interaction network becomes an effective recommendation method. Most of the existing methods regard the interaction network as a static homogeneous network, ignoring the impact of interaction timing and node heterogeneity. In response to this problem, this paper proposed a recommendation method based on dynamic bipartite network representation learning. Firstly, the method constructed a time-series weighted bipartite network, and then respectively mapped user nodes and item nodes to different vector spaces to preserve the heterogeneity of the network, and aggregated the first-order and high-order neighbor information for center nodes with graph convolution. Finally it used a multi-layer perceptron to learn the nonlinear relationship between the two types of node embeddings and performed top-N recommendation. Experimental results on Amazon and Taobao datasets show that the proposed method is significantly superior than the related methods based on static or heterogeneous network representation learning in HR and NDCG indicators.

Key words:recommendation system; dynamic network; bipartite network; graph convolution

0引言

近年來,推薦系統在各種在線服務中發揮著越來越重要的作用,能夠通過分析用戶的行為提供精準的個性化信息,緩解信息過載問題。傳統的推薦方法是基于用戶—項目的交互數據學習一種用戶對項目偏好的預測函數,例如基于評分矩陣分解的推薦、基于隱因子矩陣的協同推薦等[1]。隨著用戶和項目規模的增加,交互數據顯得相對稀疏,傳統基于矩陣分解的方法已經難以適應規模大且類型復雜的交互網絡,導致推薦結果并不理想。

最近,基于圖學習(graph learning)的推薦方法得到了廣泛的關注[2~8],將用戶和項目的交互數據形式化為一個圖(或網絡),再通過表示學習獲取節點的低維向量從而進行推薦。嵌入的向量旨在最大限度地保留用戶和項目節點的交互信息或者屬性信息,并且能有效降低推薦模型的復雜性。

目前,大多數基于網絡表示學習的推薦方法是將交互數據構建為一個靜態網絡,然而用戶與項目的交互是一個動態過程,其交互的時序信息往往反映了用戶偏好的變化情況。此外,已有方法大多是對用戶節點和項目節點采用同樣的編碼方式,忽略了節點表示的異質性對于推薦結果的影響。針對上述問題,本文保留了用戶—項目二分網絡中的交互時間并構建動態二分網絡。首先對用戶節點和項目節點分別編碼以映射到不同的低維向量空間,編碼中采用轉換矩陣以融合兩類向量的信息;然后利用圖卷積操作聚合節點的一階鄰居和高階鄰居的結構信息和時序信息;最后將用戶和項目的嵌入向量拼接作為全連接神經網絡的輸入,得到預測得分并排序。

1相關工作

1.1基于網絡表示學習的推薦系統

與傳統基于協同過濾或基于內容的推薦方法不同,基于網絡表示學習的推薦系統能夠從交互數據中自動生成用戶和項目的隱向量,直接反映用戶對項目的偏好。這在一定程度上可以緩解冷啟動、矩陣稀疏等問題,有效提升推薦的性能。

網絡表示學習旨在將網絡節點映射到低維向量空間,保留原始網絡的結構特征和內容特征[9],常見方法如DeepWalk[10]、LINE[11]、GCN[12]等已廣泛應用于推薦系統中。最近出現了一系列基于圖神經網絡(GNN)的推薦方法,如文獻[3~5, 13~16]在圖中構建和傳播信息得到節點嵌入,獲得優異的推薦性能。KGAT方法[13]將注意力機制和知識圖譜引入GNN,使用圖卷積遞歸挖掘高階連通信息,自適應地學習用戶和項目之間不同的相關性和影響程度以更新雙方節點的嵌入表示;LightGCN方法[5]使用傳統GCN的聚合操作,在用戶—項目交互圖上線性傳播來學習節點的低維向量,然后將所有層的向量融合作為最終嵌入進行推薦。

不過,上述方法主要面向同質網絡,而用戶—項目的交互數據本質上是二分網絡(bipartite network),兩類節點既有相關性也有獨立性,表示學習應考慮網絡的異質性。基于異質信息網絡的推薦系統[17]可以建模用戶和項目之間復雜的交互關系,有效融合屬性和各類輔助信息,如HeRec[18]、GHCF[19]。目前,專用于二分圖的表示學習方法相對較少,TigeCMN[20]使用兩個耦合的記憶網絡來顯式和動態地存儲并更新外部矩陣中的節點嵌入;HiGNN[21]通過堆疊多個GNN模塊和交替使用確定性聚類算法來學習節點表示。

1.2動態網絡表示學習

用戶和項目的交互網絡不僅是異質的,也是動態變化的,例如用戶在不同的時刻購買不同的商品。因此,推薦系統也應考慮網絡的時序特征和演變規律。

已有的動態網絡表示學習方法主要包括基于時間快照網絡的方法和基于連續時間網絡的方法[22]。基于時間快照網絡的方法[23~26]是按時間對動態網絡進行等間隔劃分,得到多個時間快照下的靜態網絡,然后在每個快照網絡下進行表示學習,最后利用序列模型進行融合,代表性方法有DynGEM[23]、EvolveGCN[25]、DySAT[26]等。這類方法的時間粒度劃分依賴于特定的網絡,而且難以捕捉每個時刻網絡的演變情況。基于連續時間網絡的方法[27]則是給網絡中的每一條連邊打上一個時間戳,通過構造包含時間約束的隨機游走、在時間加權圖上進行圖卷積等方法學習節點的低維嵌入表示。

動態網絡表示學習的算法還沒有廣泛應用在推薦任務上,目前在序列推薦上出現了一些融合時間信息的方法,如DCN-SR[28]使用共同注意力網絡捕獲用戶長期和短期交互行為之間的動態交互,并生成用戶長期和短期興趣的相互依賴表示;DynamicRec[29]根據當前輸入動態使用動態卷積計算卷積核,從而捕捉序列行為;Song等人[30]提出了一種動態圖注意力神經網絡的推薦模型DGRec,用戶的動作被分割成會話(session)子序列,先使用循環神經網絡(RNN)在會話中建模用戶行為,然后利用圖自注意力網絡(GAT)捕捉其社交網絡中朋友的影響。這些方法的本質是將動態網絡劃分成一系列的時間快照網絡,然后使用RNN等序列模型融合并進行預測。

與上述工作不同,本文研究的基于網絡表示學習的推薦方法是從全局網絡的角度建模用戶和項目,將網絡表示為動態二分網絡,即一種有一定異質性的動態連續時間網絡。目前,專門針對動態二分網絡表示學習的研究還是一個空白,本文提出一種基于動態二分網絡表示學習的推薦方法,同時考慮了網絡節點的異質性和交互的時序性。

2基本定義

定義1動態二分網絡(dynamic bipartite network)。動態二分網絡G=(U,V,ET),其中,U和V分別表示兩類節點的集合,ETU×V×+表示網絡中僅存于節點集合U和V之間邊的集合,每一條邊ei=(u,v,t)∈ET上有時間戳t∈+,表示該邊發生的時刻。圖1是一個動態二分網絡的實例,表示用戶在不同時刻購買商品,用戶節點和商品節點連邊上的數值為購買的時刻。

定義2動態二分網絡表示學習。對于動態二分網絡G=(U,V,ET)的表示學習是學習一個預測函數fT:U→d,V→d,其能夠將網絡中的節點映射到一個帶有時間依賴特征的低維向量空間,節點的表示除了保留原始網絡的結構特征之外,還包含了原始網絡在時間上的演化特征。

3提出的方法——DBNRec

本文提出了一種基于動態二分網絡表示學習的推薦方法DBNRec(dynamic bipartite network based recommendation),能夠學習用戶隨時間變化的歷史偏好信息。該方法首先根據用戶和項目交互的時序信息計算時序加權二分網絡,然后將用戶節點與項目節點分別編碼并嵌入到不同的空間以保留節點的異質性特征,嵌入方法采用圖卷積對鄰域的低階和高階信息進行聚合和傳播,最后將兩類節點的低維嵌入拼接并送入全連接神經網絡,預測得分后進行top-N推薦。

3.1整體框架

DBNRec模型的整體框架如圖2所示。圖中最下方為整個模型的輸入,即由用戶—項目交互構成的動態二分網絡,網絡中用戶節點和項目節點之間的每一條連邊上都有一個(或多個)時間戳,表示交互的時間。模型的中間部分是時序加權圖的多個嵌入層,層與層之間的信息可以傳播。用戶節點或項目節點均能從其一階以及更高階的鄰居傳播時序和結構兩方面的信息。這里高階鄰居的定義與同質網絡中的一致,是指中心節點的多跳鄰居,例如對于用戶u來說,其二階鄰居是指與它交互過同一個項目i的其他用戶。每個嵌入層都能得到用戶節點或項目節點的一個向量表示,將多個嵌入層的向量進行拼接作為該節點的最終嵌入。模型的最上端是預測層,對任意一個用戶—項目對,將兩者的最終嵌入進行拼接作為多層感知機(MLP)的輸入,輸出結果可視為用戶對項目的偏好得分,對該得分進行排序即可完成top-N推薦。

3.2時序加權二分網絡

為了利用用戶—項目的歷史交互信息,本文根據交互的時間順序計算兩類節點之間連邊的時序權重。在推薦系統中,用戶的未來偏好通常體現在其和較近時間內交互過的項目中,并且用戶—項目交互的重要性也與兩者發生交互的時間密切相關。時間加權一般分為兩種方式,一種是基于線性函數,另一種是基于非線性函數[27]。由于推薦系統中用戶的偏好是經常變化的,最近交互過的項目更能體現用戶的當前偏好,非線性函數能夠更好地體現用戶偏好隨著時間變化的差異,不僅可以反映用戶過去行為的變化趨勢,還能夠突出用戶最新興趣的權重和降低過去興趣的權重。所以,本文選擇了非線性函數中的指數函數實現時間權重的計算。

每一條邊的時序權重計算過程如下:首先為網絡中的每個用戶節點u∈U賦予一個時間t0u,表示u和所有鄰居項目節點交互的最早時間,即t0u=min{τ(u,i)|i∈N(u)},其中N(u)表示u的所有鄰居項目節點的集合,τ(u,i)為用戶u和項目i的一次交互時間。用戶u和項目i的連邊[u,i]的時序權重定義為

gu,i=∑t∈τ(u,i)exp(t-t0u)∑j∈N(u)exp(t-t0u)(1)

其中:時序權重gu,i的取值為(0,1),值越高,代表在整個時間范圍內用戶u對項目i的偏好程度越高。如果用戶在相近的時間內與不同的項目交互,說明這些項目具有相似的用戶偏好。同樣,對于項目節點i也可以按類似做法計算其與鄰居用戶節點之間邊的時序權重。如果不同的用戶在相近的時間內與同一個項目交互,說明這些用戶在這段時間內的偏好需求相似。

圖3舉例說明按上述方法在動態二分網絡中計算得到邊的時序權重。圖3中,(a)為帶時間戳的原始二分網絡,值越大代表交互時間越近;(b)是根據式(1)計算得到的用戶u1和它的一階鄰居i1、i2、i3之間的時序權重;(c)是采用相同方法計算得到的項目i1和它的一階鄰居u1、u2及u3之間的時序權重。在時序加權二分網絡中,每對用戶—項目之間存在兩個不同的時序加權值,分別用于之后兩個不同的嵌入過程。

3.3基于圖卷積的嵌入層

在推薦系統中,用戶交互過的項目能夠直接體現用戶的偏好,而與項目交互過的用戶也能作為該項目的特征,這體現了用戶和項目兩者在表示上的協同性。為了充分捕捉二分網絡的結構信息,本文基于圖卷積網絡(graph convolutional network,GCN)的信息傳播機制構建DBNRec模型的嵌入層,利用鄰域信息學習用戶和項目各自的低維嵌入。具體來說,嵌入過程主要分成信息編碼和信息聚合兩步。

3.3.1信息編碼

對于任意一個用戶—項目對〈u,i〉,項目i傳遞給用戶u的信息定義為

mu←i=f(ei,eu,pu,i)(2)

其中:mu←i是待聚合的信息嵌入向量;f(·)代表信息編碼函數,其輸入包括用戶嵌入表示eu、項目嵌入表示ei和衰減系數pu,i。

信息編碼函數f(·)具體定義為

mu←i=pu,i(W1ei+W2(eiW3eu))(3)

其中:W1、W2∈d×d分別為可訓練的權重矩陣,用來提取聚合信息;W3∈d×d是轉換矩陣;pu,i定義為

pu,i=gu,i|Nu||Ni|(4)

分母中的|Nu|和|Ni|分別表示用戶u和項目i的一階鄰居個數。gu,i為時序權重,該權重系數表明,如果用戶u歷史上交互過的項目越多或者歷史上與項目i交互過的用戶越多,則項目i對用戶u的偏好影響越小,同時,交互時間越近的項目對用戶的影響越大。

需要指出的是,為了保留動態二分網絡中節點的異質性,DBNRec模型將用戶節點和項目節點分別嵌入到不同的向量空間。因此,該信息編碼函數不僅考慮了項目i對用戶u的貢獻,也考慮了eu和ei之間的協同相關性(使用轉換矩陣W3進行計算)。mi←u的計算方法與mu←i一致,不再贅述。

3.3.2信息聚合

根據上述定義的信息編碼規則,模型將用戶u的所有鄰居(項目)節點的信息進行聚合來更新u的嵌入表示。聚合函數定義為

e(1)u=LeakyReLU(mu←u+∑i∈Numu←i)(5)

其中:e(1)u表示經過第一層聚合后用戶u的嵌入。激活函數采用LeakyReLU,允許信息對正負信號進行編碼,避免梯度消失問題。聚合時除了考慮用戶u的所有鄰居外,還考慮了用戶自身的信息mu←u。

類似地,項目i的嵌入表示e(1)i也可以從與它連接的所有鄰居(用戶)節點中聚合得到。聚合函數定義為

e(1)i=LeakyReLU(mi←i+∑u∈Nimi←u)(6)

總之,一階嵌入層是聚合一階鄰居的信息從而學習用戶中心節點和項目中心節點各自的表示。在此基礎上,可以堆疊多個嵌入層來傳播高階鄰居的信息。假設一共堆疊了L個嵌入層,用戶和項目均可以獲取從1-hop到L-hop傳播來的鄰域信息。

在第l層,用戶u的嵌入可以表示為

e(l)u=LeakyReLU(m(l)u←u+∑i∈Num(l)u←i)(7)

m(l)u←i=pu,i(W(l)1e(l-1)i+W(l)2(e(l-1)iW(l)3e(l-1)u))(8)

mu←u=W(l)1e(l-1)u(9)

其中:W(l)1、W(l)2∈dl×dl-1表示第l層的權重矩陣;e(l-1)i表示經過前面l-1層傳播得到項目i的嵌入;pu,i可以控制每層的嵌入信息隨著傳播路徑變長而逐步減弱。

3.4基于神經網絡的模型預測

L個嵌入層傳播之后,得到用戶u的L個嵌入表示{e(1)u,…,e(L)u}。由于不同嵌入層中傳播的信息不同、反映的用戶偏好也不同,本文將這些嵌入向量進行拼接,得到用戶u的最終嵌入表示eu,即eu=e(1)u‖…‖e(L)u;并用同樣的方法獲得項目i的最終嵌入表示ei=e(1)i‖…‖e(L)i。向量拼接操作簡單且無須學習額外的參數,廣泛應用在圖神經網絡的相關工作中[3, 5, 14]。在得到用戶u和項目i的最終嵌入后,DBNRec模型利用多層感知機(MLP)計算用戶u對項目i的偏好。

z=eu‖ei(10)

u,i=σ(ReLU(WTz+b))(11)

其中:z表示將用戶u和項目i的向量拼接得到的向量;W為權重矩陣;b為偏置項。ReLU作為隱藏層的激活函數,輸出層的σ(·)采用的是sigmoid激活函數,使得用戶u對項目i的預測偏好得分在(0,1)。

3.5損失函數

DBNRec模型的損失函數選擇推薦系統中常用的BPR[31]損失,即根據用戶交互過的項目和未交互過的項目之間的相對順序,使得前者的預測得分高于后者。該損失函數定義如下:

L=∑(u,i,j)∈O-ln σ(u,i-u,j)+λ‖θ‖22(12)

其中:O={(u,i,j)|(u,i)∈R+,(u,j)∈R-}代表訓練數據集,R+表示已交互的用戶項目節點對集合,R-表示未交互的用戶項目節點對集合;σ(·)表示sigmoid激活函數;θ表示模型參數的正則化項。本文通過梯度下降更新參數,得到最終的預測模型。

DBNRec的算法描述如下所示:

輸入:動態二分網絡G=(U,I,ET),時序嵌入傳播層數L。

輸出:預測模型φ,用戶u對項目i的預測分ui。

初始化用戶節點表示e(0)u、項目節點表示e(0)i、權重矩陣W1和W2、轉換矩陣W3;

根據式(1)計算邊的時序權重gu,i;

for l=1,…,L do

for u in U, i in V do

根據式(3)(4)計算m(l)u←u,m(l)u←i;

采用同樣方法計算m(l)i←i,m(l)i←u;

根據式(7)~(9)更新e(l)u,e(l)i;

end for

end for

for u in U, i in V do

eu=e(1)u‖…‖e(L)u,ei=e(1)i‖…‖e(L)i;

z=eu‖ei;

根據式(11)計算預測得分u,i;

4實驗及分析

4.1實驗數據

實驗采用了兩個帶有時間戳的電商數據集Amazon(http://jmcauley.ucsd.edu/data/amazon/)和Taobao(https://tianchi.aliyun.com/dataset/)。Amazon數據集包含亞馬遜網站(Amazon.com)自1996年5月至2014年7月產生的約1.428億條產品評論數據。本文使用其中的子數據集Amazon-Electronics,包括192 403位用戶和63 001個產品,每條記錄包含用戶ID、產品ID、用戶名、評論的有用程度、評論內容和評論時間。Taobao數據集是淘寶網(Taobao.com)自2015年7月1日至2015年11月30日之間產生的用戶行為數據,每條數據包含用戶ID、店鋪ID、產品ID、類別ID、交互行為ID和交互時間。

經過預處理,數據集僅保留出現次數大于3次的用戶和項目,處理后的數據集統計信息如表1所示。

4.2比較方法

本文選取了一系列的相關推薦方法進行對比實驗。除了傳統基于矩陣分解的方法PMF[32]外,還選取了不考慮時序的基于靜態網絡表示學習的推薦算法。其中又分為基于同質網絡的方法(如DeepWalk[10]、node2vec[33]、LINE[11]等),以及基于異質網絡的方法(如HeRec[18]和NGCF[34])。基于同質網絡的方法是將用戶和項目視為同一類節點,基于異質網絡的方法則將兩者視為不同的兩類節點。最后,本文還選擇了動態網絡表示學習方法CTDNE用于推薦。所有對比方法的詳細介紹如下:

a)PMF是經典的基于矩陣分解的協同過濾算法,將行為矩陣分解為用戶潛在向量矩陣和項目潛在向量矩陣,并且使用正則化項防止過擬合。在預測階段,將用戶向量和項目向量作內積預測評分。

b)DeepWalk首次提出基于隨機游走進行網絡表示學習,通過隨機游走獲取k-hop鄰域內的節點對構成節點序列,然后使用skip-gram算法學習節點的表示。

c)node2vec是DeepWalk的改進版本,主要的區別是在隨機游走時結合BFS和DFS的策略,根據概率轉移矩陣進行游走。

d)LINE通過計算節點的一階相似度和經驗概率以及二階相似度和經驗概率來建模節點之間的關系,分別使用最小化KL散度進行訓練,然后將輸出拼接作為節點的表示。

e)NGCF將交互網絡視為二分網絡,基于圖神經網絡將兩類節點嵌入到同一個低維表示空間,并在圖上傳播實現對高階連通性的建模,最終提高協同過濾的效果。與NGCF不同,本文在二分網絡中融入了用戶和項目交互的時序信息,并且將兩類節點分別映射到兩個不同的向量空間。

f)HeRec是一種基于異質網絡嵌入的推薦方法,首先利用基于元路徑的隨機游走策略將異質網絡轉換為多個同質網絡,然后在每個同質網絡上分別進行網絡表示學習,最后與矩陣分解(MF)模型結合進行推薦。實驗設置中為二分網絡定義了兩種元路徑(UIU和IUI),分別得到用戶網絡和項目網絡兩個同質網絡。

g)CTDNE[27]是基于隨機游走的動態網絡表示學習方法,約束每次游走路徑必須符合連邊發生的時間順序,從而將網絡的時序信息捕獲到隨機游走序列中,最后使用skip-gram算法進行節點嵌入。不過,該方法未考慮節點的異質性,游走時將用戶和項目視為同一類節點,并嵌入到同一個向量空間。

4.3實驗設置

DBNRec模型使用Adam方法進行優化,分批次訓練,批大小設置為1 024,迭代次數為100次,學習率設置為0.000 1。實驗使用兩層時序嵌入層,每層的嵌入維度大小設置為64。各對比方法均采用其原始文獻中提供的最優參數。為了便于比較,每種方法的嵌入維度設置為64。本文使用留一法將數據集劃分為訓練集、測試集和驗證集。針對每個用戶,從用戶的多次行為中隨機選擇一個行為作為驗證集,剩余的數據按照8∶2的比例劃分訓練集和測試集。實驗選擇常用的HR(hit ration)和NDCG(normalized discounted cumulative gain)作為推薦性能的評價指標。

4.4實驗結果及分析

表2和3分別匯總了所有方法在兩個數據集上的HR@K和NDCG@K(K=2, 5, 10)。

通過對表2的綜合分析可以得出:在Amazon-Electronics數據集上,使用了時序信息的方法CTDNE和DBNRec在絕大多數情況下優于基于靜態網絡表示學習的推薦方法,說明了用戶和項目交互的時序信息對學習兩者的嵌入至關重要。PMF是傳統基于矩陣分解的方法,在top-N推薦任務上的效果略差,可能的原因是數據的稀疏性導致矩陣分解的結果不佳,從而降低了推薦性能;基于DeepWalk、node2vec和LINE的推薦方法效果要優于PMF,但是三者未考慮交互的時序信息,并且將兩類節點嵌入到同一空間,node2vec比DeepWalk和LINE的效果更好,說明深度鄰居信息和廣度鄰居信息在推薦網絡中均很重要;HeRec方法考慮了二分網絡中節點的異質性,根據預定義的元路徑將異質網絡劃分為兩個同質網絡,分別學習用戶和項目的嵌入,然而從實驗結果來看,該方法并未表現出較大的優勢,其可能原因是該方法非常依賴于元路徑的定義,盡管區分處理了用戶節點和項目節點,但依然將它們映射在同一個向量空間中;NGCF也是基于二分網絡的推薦算法,與DBNRec一樣,使用圖卷積的方法捕獲一階和高階鄰居信息,效果在大多數情況下與基于node2vec的方法相當,僅次于采用時序信息的CTDNE和DBNRec方法。

從表3的結果可以看出,在Taobao數據集上,DBNRec方法的效果要顯著高于其他方法,并且在相同的K值下,Taobao數據集上的HR和NDCG的值明顯高于Amazon-Electronics數據集上的對應結果。其主要原因有兩點:a)Taobao數據集的稀疏度低于Amazon-Electronics數據集,網絡中可能包含更多能有效表征用戶偏好的信息,使得本文方法的優勢更加顯著;b)Taobao數據集中訓練數據的時間跨度為152 d,明顯少于Amazon-Electronics的時間跨度,數據的密度和質量更高,用戶偏好的變化也更加可預測,而數據時間跨度過大會對用戶偏好的建模造成一定困難。

總的來說,DBNRec方法在兩個數據集上均獲得了較好的結果。隨著K值的增加,本文方法表現出較大的優勢。

此外,本文進一步分析了超參數(即嵌入維度)對于DBNRec方法的影響。選取不同的嵌入維度[16,32,64]分別在兩個數據集上進行了實驗,并使用HR@K和NDCG@K來對不同嵌入維度的模型進行評估,其他參數保持不變。圖4和5分別列出了DBNRec模型在不同的數據集和嵌入維度下的HR@K值和NDCG@K值。

由結果可見,隨著嵌入維度的增加,DBNRec在兩個數據集上的HR@K和NDCG@K(K=[2,5,10,20])值都有輕微的上升。為了避免過擬合,本文最終將模型的嵌入維度設置為64。

圖6展示了Taobao數據集中部分用戶節點和項目節點的低維嵌入表示(采用HeRec和DBNRec方法)的可視化結果。圖中,三角形節點表示用戶節點,圓形節點表示項目節點,這里項目節點是從測試集中選取的。每個用戶節點和多個交互過的項目節點之間有連邊,且顏色保持一致(參見電子版)。

由圖6可以看出用戶節點和項目節點在嵌入空間的分布情況。一般來說,用戶與他交互過的項目應該比與他沒有交互過的項目在空間中的距離更近。將圖6(a)(b)的可視化結果進行對比可見,DBNRec方法的嵌入結果顯然更為準確。此外,一些用戶與項目節點交互的時間遠近也能在DBNRec的嵌入結果中得到體現。例如,用戶u29023最近一次的交互項目為i13061,在圖6(b)中該用戶與i13061的距離比與其他項目節點的距離要更近。

5結束語

為了對用戶偏好隨時間演變的規律進行建模,本文將用戶—項目交互數據構建成動態二分網絡并將時序信息嵌入到網絡的連邊中,利用圖卷積方法聚合網絡中節點的一階和高階鄰居信息以學習節點的嵌入,并將二分網絡中兩種類型的節點分別映射到不同的特征空間以保留網絡的異質性。實驗驗證了DBNRec方法的有效性,與相關模型相比,推薦性能有顯著提升。未來將進一步研究交互的異質性(如多行為隱式反饋 [16,19])及其時序性對于推薦模型的影響。

參考文獻:

[1]Verbert K, Manouselis N, Ochoa X, et al. Context-aware recommender systems for learning: a survey and future challenges[J].IEEE Trans on Learning Technologies,2012,5(4):318-335.

[2]Nikolakopoulos A N, Karypis G. RecWalk: nearly uncoupled random walks for top-N recommendation[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining.New York:ACM Press,2019:150-158.

[3]Fan Wenqi, Ma Yao, Li Qing, et al. Graph neural networks for social recommendation[C]//Proc of World Wide Web Conference. New York: ACM Press,2019:417-426.

[4]Wang Hongwei, Zhao Miao, Xie Xing, et al. Knowledge graph con-volutional networks for recommender systems[C]//Proc of World Wide Web Conference.New York:ACM Press,2019:3307-3313.

[5]He Xiangnan, Deng Kuan, Wang Xiang, et al. LightGCN:simpli-fying and powering graph convolution network for recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2019:639-648.

[6]Zhang Yuan, Sun Fei, Yang Xiaoyong, et al. Graph-based regularization on embedding layers for recommendation[J].ACM Trans on Information Systems,2020,39(1):article No.2.

[7]Ma Chen, Ma Liheng, Zhang Yingxue, et al. Memory augmented graph neural networks for sequential recommendation[C]//Proc of the 34th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:5045-5052.

[8]Wu Jiancan, Wang Xiang, Feng Fuli, et al. Self-supervised graph learning for recommendation[C]//Proc of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2021:726-735.

[9]涂存超,楊成,劉知遠,等.網絡表示學習綜述[J].中國科學:信息科學,2017,47(8):980-996.(Tu Cunchao, Yang Cheng, Liu Zhiyuan, et al. Network representation learning:an overview[J].Science China: Information Sciences,2017,47(8):980-996.)

[10]Perozzi B, Al-Rfou R, Skiena S. DeepWalk: online learning of social representations[C]//Proc of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2014:701-710.

[11]Tang Jian, Qu Meng, Wang Mingzhe, et al. LINE:large-scale information network embedding[C]//Proc of the 24th International Conference on World Wide Web.New York:ACM Press,2015:1067-1077.

[12]Kipf T N, Welling M. Semi-supervised classification with graph con-volutional networks[C]//Proc of International Conference on Learning Representations.2017.

[13]Wang Xiang, He Xiangnan, Cao Yixin, et al. KGAT: knowledge graph attention network for recommendation[C]//Proc of the 25th ACM SIGKDD Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2019:950-958.

[14]Wu Shu, Tang Yuyuan, Zhu Yanqiao, et al. Session-based recommendation with graph neural networks[C]//Proc of the 33rd AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2019:346-353.

[15]Yu Wenhui, Qin Zheng. Graph convolutional network for recommendation with low-pass collaborative filters[C]//Proc of the 37th International Conference on Machine Learning.New York:PMLR Press,2020:10936-10945.

[16]Jin Bowen, Gao Chen, He Xiangnan, et al. Multi-behavior recommendation with graph convolutional networks[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:659-668.

[17]劉佳瑋,石川,楊成,等.基于異質信息網絡的推薦系統研究綜述[J].信息安全學報,2021,6(5):1-16.(Liu Jiawei, Shi Chuan, Yang Cheng, et al. Heterogeneous information network based recommender systems: a survey[J].Journal of Cyber Security,2021,6(5):1-16.)

[18]Shi Chuan, Hu Binbin, Zhao W X, et al. Heterogeneous information network embedding for recommendation[J].IEEE Trans on Know-ledge and Data Engineering,2019,31(2):357-370.

[19]Chen Chong, Ma Weizhi, Zhang Min, et al. Graph heterogeneous multi-relational recommendation[C]//Proc of the 35th AAAI Confe-rence on Artificial Intelligence.Palo Alto,CA:AAAI Press,2021:3958-3966.

[20]Zhang Zhen, Bu Jiajun, Ester M, et al. Learning temporal interaction graph embedding via coupled memory networks[C]//Proc of Web Conference.New York:ACM Press,2020:3049-3055.

[21]Li Zhao, Shen Xin, Jiao Yuhang, et al. Hierarchical bipartite graph neural networks: towards large-scale ecommerce applications[C]//Proc of the 36th IEEE International Conference on Data Engineering.Piscataway,NJ:IEEE Press,2020:1677-1688.

[22]Taheri A, Gimpel K, Berger-Wolf T. Learning to represent the evolution of dynamic graphs with recurrent models[C]//Proc of International World Wide Web Conference.New York:ACM Press,2019:301-307.

[23]Goyal P, Kamra N, He Xinran, et al. DynGEM: deep embedding method for dynamic graphs[C]//Proc of the 3rd International Workshop on Representation Learning for Graphs.2018.

[24]Yu Wenchao, Cheng Wei, Aggarwal C C, et al. NetWalk: a flexible deep embedding approach for anomaly detection in dynamic networks[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining.New York:ACM Press,2018:2672-2681.

[25]Pareja A, Domeniconi G, Chen Jie, et al. EvolveGCN: evolving graph convolutional networks for dynamic graphs[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:5363-5370.

[26]Sankar A, Wu Yanhong, Gou Liang, et al. DySAT: deep neural re-presentation learning on dynamic graphs via self-attention networks[C]//Proc of the 13th International Conference on Web Search and Data Mining. New York: ACM Press,2020:519-527.

[27]Nguyen G H, Lee J B, Rossi R A, et al. Continuous-time dynamic network embeddings[C]//Proc of Web Conference. New York:ACM Press,2018:969-976.

[28]Li Chao, Liu Zhiyuan, Wu Mengmeng. Multi-interest network with dynamic routing for recommendation at Tmall[C]//Proc of the 28th ACM International Conference on Information and Knowledge Management.New York:ACM Press,2019:2615-2623.

[29]Tanjim M M, Ayuubi H A, Cottrell G W. DynamicRec: a dynamic convolutional network for next item recommendation[C]//Proc of the 29th ACM International Conference on Information amp; Knowledge Mana-gement.New York:ACM Press,2020:2237-2240.

[30]Song Weiping, Xiao Zhiping, Wang Yifan, et al. Session-based social recommendation via dynamic graph attention networks[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining.New York:ACM Press,2019:555-563.

[31]Rendle S, Freudenthaler C, Gantner Z, et al. BPR: Bayesian personalized ranking from implicit feedback[C]//Proc of the 25th Conference on Uncertainty in Artificial Intelligence.Arlington:AUAI Press,2009:452-461.

[32]Ma Hao, Yang Haixuan, Lyu M R, et al. SoRec: social recommendation using probabilistic matrix factorization[C]//Proc of the 17th ACM Conference on Information and Knowledge Management.New York:ACM Press,2008:931-940.

[33]Grover A, Leskovec J. node2vec:scalable feature learning for networks[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2016:855-864.

[34]Wang Xiang, He Xiangnan, Wang Meng, et al. Neural graph colla-borative filtering[C]//Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2019:165-174.

收稿日期:2021-09-14;

修回日期:2021-11-06

基金項目:國家自然科學基金面上項目(61772284,61876091)

作者簡介:張陽陽(1997-),女,江蘇連云港人,碩士研究生,主要研究方向為推薦系統;陳可佳(1980-),女(通信作者),江蘇淮安人,副教授,碩導,博士,主要研究方向為機器學習、數據挖掘、復雜網絡(chenkj@njupt.edu.cn);張杰(1998-),男,安徽安慶人,碩士研究生,主要研究方向為推薦系統.

主站蜘蛛池模板: 无码精品福利一区二区三区| 毛片三级在线观看| 亚洲欧美精品在线| 免费全部高H视频无码无遮掩| 欧美a√在线| 国产综合精品日本亚洲777| 精品91视频| 色天堂无毒不卡| 视频二区国产精品职场同事| 日韩欧美综合在线制服| 亚洲高清免费在线观看| 高清久久精品亚洲日韩Av| 国产福利影院在线观看| 亚洲欧美成aⅴ人在线观看| 91亚洲视频下载| 日韩欧美国产另类| 无码中文字幕乱码免费2| 国产99视频精品免费视频7| 成人午夜网址| 欧美日韩一区二区在线播放| 九九九国产| 中文一级毛片| 亚洲伦理一区二区| 青青青亚洲精品国产| 麻豆国产在线观看一区二区| 国禁国产you女视频网站| 成人年鲁鲁在线观看视频| julia中文字幕久久亚洲| 人人看人人鲁狠狠高清| 国产欧美在线观看一区| 最新国产精品鲁鲁免费视频| 69av在线| 亚洲一级毛片在线播放| 午夜小视频在线| 久久精品免费国产大片| 老司机精品久久| 亚洲香蕉伊综合在人在线| 一区二区影院| av天堂最新版在线| 国产精品无码翘臀在线看纯欲| 国产91视频免费观看| 无码久看视频| 午夜综合网| 成人无码一区二区三区视频在线观看 | 国产精品无码作爱| 国产久草视频| 国产一区二区免费播放| 国产乱子伦手机在线| 日韩成人午夜| 亚洲成人免费在线| a毛片在线播放| 国产经典三级在线| 久久久四虎成人永久免费网站| 九九九久久国产精品| 久久精品中文字幕少妇| 中文无码日韩精品| 色综合五月婷婷| 色屁屁一区二区三区视频国产| 亚洲精品福利网站| 亚洲国产成人精品青青草原| 青青久久91| 亚洲一区二区约美女探花| 国产成人在线小视频| 国产麻豆另类AV| 再看日本中文字幕在线观看| 国产欧美精品一区aⅴ影院| 狠狠亚洲婷婷综合色香| 91精品啪在线观看国产| 久久中文字幕不卡一二区| 青草娱乐极品免费视频| 2020最新国产精品视频| a级毛片网| 在线免费观看AV| 日韩在线播放欧美字幕| 国产自无码视频在线观看| 日韩精品成人网页视频在线| 日本影院一区| 国产精品丝袜在线| 精品国产成人a在线观看| 欧美日韩成人在线观看| 高清国产va日韩亚洲免费午夜电影| 亚洲欧美日韩色图|