999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于超圖卷積網絡和目標多意圖感知的會話推薦算法

2024-02-18 20:50:24王倫康高茂庭
計算機應用研究 2024年1期

王倫康 高茂庭

摘 要:當前先進的會話推薦算法主要通過圖神經網絡從全局和目標會話中挖掘項目的成對轉換關系,并將目標會話壓縮成固定的向量表示,忽略了項目間復雜的高階信息和目標項目對用戶偏好多樣性的影響。為此提出了基于超圖卷積網絡和目標多意圖感知的會話推薦算法HCN-TMP。通過學習會話表示來表達用戶偏好,首先依據目標會話構建會話圖,依據全局會話構建超圖,通過意圖解糾纏技術將原有反映用戶耦合意圖的項目嵌入表示轉換為項目多因素嵌入表示,再經圖注意力網絡和超圖卷積網絡分別學習目標會話節點的會話級和全局級項目表示,并使用距離相關性損失函數增強多因素嵌入塊間的獨立性;然后嵌入目標會話中節點位置信息,加權每個節點的注意力權重,得到全局級和會話級會話表示;利用對比學習最大化兩者互信息,經目標多意圖感知,針對不同的目標項目自適應地學習目標會話中多意圖的用戶偏好,得到目標感知級會話表示,最后線性融合三個級別的會話表示得到最終的會話表示。在Tmall和Nowplaying兩個公開數據集上進行大量實驗,實驗結果驗證了HCN-TMP算法的有效性。

關鍵詞:圖神經網絡; 會話推薦; 意圖解糾纏; 注意力機制; 自監督學習

中圖分類號:TP301.6?? 文獻標志碼:A?? 文章編號:1001-3695(2024)01-005-0032-07

doi:10.19734/j.issn.1001-3695.2023.05.0199

Session-based recommendation algorithm based on hypergraph convolution network and target multi-intention perception

Abstract:The current advanced session recommendation algorithms mainly use graph neural network to mine the pairwise transformation relationships of items from the global and target sessions, and compress the target session into a fixed vector representation, ignoring the complex high-order information between items and the impact of target items on user preference diversity. To this end, this paper proposed a hypergraph convolution network and target multi-intention perception for session-based recommendation algorithm HCN-TMP. This algorithm expressed user preference by learning session representation. Firstly, it constructed a session graph based on the target session, and constructed a hypergraph based on the global session. It transformed the original item embedding representation that reflected the users coupling intention into a multi factor embedding representation of the item through intention disentanglement technology. Then, it learned the item representations of the session level and global level of the target session node through graph attention network and hypergraph convolutional network respectively, and used the distance correlation loss function to enhance the independence between the multi-factor embedded blocks. Next, it embedded the node location information in the target session, weighted the attention weight of each node, and got the session representation of the global level and session level. It used comparative learning to maximize the mutual information of the two. Through the target multi-intention perception, it adaptively learned the multi-intention user preferences in the target session for different target items, obtained the session representation of the target perception level. Finally, it linearly fused the three level session representations to obtain the final session representation. This paper carried out the experiments on two public data sets, Tmall and Nowplaying. The experimental results verify the effectiveness of the HCN-TMP algorithm.

Key words:graph neural network; session-based recommendation; intent disentanglement; attention mechanism; self-supervised learning

0 引言

隨著互聯網信息量爆炸式增長,大量信息涌現在用戶面前。由于用戶時間和精力有限,無法查看所有信息,推薦系統作為一個重要的信息過濾工具,通過幫助用戶推薦其感興趣的物品,發揮著重要作用。傳統推薦算法學習用戶模型[1,2]或依賴用戶長期行為[3,4]進行推薦,然而在一些匿名推薦場景中,因為用戶信息不可知,且只能獲取用戶短期行為,無法挖掘其歷史偏好和長期偏好,導致推薦效果不佳。基于會話的推薦系統(session-based recommendation system,SRS) [5]通過給定用戶匿名的連續行為序列預測下一個可能與之交互的項目,因其高效且高實用而引起廣泛關注。

SRS的現有工作主要分為傳統方法[6~8]、基于序列化的方法[9~12]和基于GNN(graph neural network)的方法。傳統方法通過相似性規則[6]或馬爾可夫鏈[7,8]進行建模來預測下一個可能交互的項目,前者嚴重依賴目標會話中的共現信息,忽略了其他有用信息,后者假設下一個項目完全基于前一個項目,無法捕捉長期的順序依賴。基于序列化的方法主要通過RNN(recurrent neural network)或其變體方法來挖掘會話的順序特征,盡管已經取得了顯著的性能提升,但這些方法忽略了項目的復雜轉換,不足以在會話中獲得準確的用戶表示。基于GNN的方法將會話構建成圖結構,通過在圖上傳播和更新項目的嵌入表示,經注意力機制融合目標會話中項目的嵌入表示得到最終的會話表示來表達用戶偏好,從而捕捉項目復雜的轉換關系。

近幾年,國內外學者所做SRS的工作結果表明,基于GNN的方法比傳統方法和基于序列化的方法具有顯著的優勢,因此基于GNN的SRS成為主流的研究方向。Wu等人[13]提出了SR-GNN模型,通過門控圖神經網絡學習會話圖中項目的嵌入表示,開創了使用GNN解決SRS問題的先例;Xu等人[14]在GNN模塊后應用自注意力機制融合上下文信息去捕捉項目相關性;Yu等人[15]在SR-GNN的基礎上,將目標項目的特征通過注意力機制集成到會話表示學習中,取得了更好的效果。以上基于GNN的方法僅考慮目標會話的項目轉移關系,忽略來自其他會話的協同信息,導致無法充分挖掘用戶偏好。為了解決這個問題,融合協同信息[16~19]的方法被提出,Zheng等人[16]同時考慮目標會話和近鄰協同會話,通過雙通道SGCN模塊學習項目兩種類型的嵌入表示;文獻[17~19]同時考慮目標會話和全局協同會話,通過構建會話圖和全局圖學習會話內和會話間的信息,用協同信息增強目標會話,以解決目標會話數據稀疏的問題。一般GNN只能挖掘項目的成對轉換關系,忽略了項目的高階轉換關系,文獻[20~22]用超圖神經網絡(hypergraph neural network,HGNN)[23]來學習項目的嵌入表示,從而挖掘高階信息。此外,用戶采用某項目的意圖是由該項目多因素決定的,每個交互項都可以被視為耦合意圖的結果[24],因此基于意圖解糾纏的方法被應用到基于GNN的SRS中[22,25,26]。當前基于意圖解糾纏的方法雖然考慮到用戶采用某物品的意圖是由該物品多因素決定的,有較好效果,但依舊存在問題。目標會話被壓縮成固定的會話表示,忽略了目標項目對用戶偏好多樣性的影響。

在網上購物場景中,給定一個目標會話(A品牌藍牙耳機、B品牌手機、C品牌藍牙耳機、C品牌電腦、D品牌手機),在不考慮目標項目的情況下,用戶可能有如下三種意圖:用戶點擊了A品牌藍牙耳機和C品牌藍牙耳機,可能是想購買藍牙耳機;用戶點擊了B品牌手機和D品牌手機,可能是想購買一款智能手機;用戶點擊了B品牌藍牙耳機和C品牌電腦,可能對C品牌的商品情有獨鐘。目標會話中所體現的用戶意圖是多樣的,很難達到精確推薦的目的。當引入目標項目某品牌手機,就能很好地解決這個問題,某品牌手機屬于用戶意圖中某品牌商品和智能手機的范疇,削弱了用戶購買藍牙耳機的意圖,縮小了用戶意圖空間。為此,提出了一種基于超圖卷積網絡和目標多意圖感知的會話推薦算法(hypergraph convolution network and target multi-intention perception for session-based re-commendation algorithm,HCN-TMP)。首先,由于用戶采用某項目的意圖是由該項目多因素決定的,所以采用基于意圖解糾纏的方法將項目嵌入分為多塊,假設每塊代表一個潛在因素。其次,分別從全局和目標會話中學習項目兩個級別的嵌入表示。a)對于全局會話,為每一個會話構建一個超邊,一個超邊內的項目都彼此相互連接,通過共享項目連接的不同超邊構成超圖,超圖中蘊涵了項目的高階轉換關系,經HGNN學習全局級項目嵌入表示;b)對于目標會話,構建包含目標會話成對轉換關系的會話圖,通過GNN學習會話級嵌入表示。對于兩個級別的嵌入表示,同時使用距離相關性損失函數來促使項目多個嵌入塊間有更強的獨立性。在得到項目兩個級別的嵌入之后,考慮到目標會話中出現在不同位置的項目對用戶偏好的影響不同,所以融合項目在目標會話中的位置信息,經軟注意力機制分別得到全局級會話表示和會話級會話表示,利用對比學習最大化兩種會話表示的互信息。經目標多意圖感知,針對不同的目標項目,通過注意力機制感知目標項目與目標會話中項目多因素的相關性,自適應地學習目標會話中多意圖的用戶偏好,縮小用戶的意圖空間,得到目標感知級會話表示,以解決上述問題。最后,線性地組合三種類型的會話表示來表達用戶最終偏好,進而進行推薦。

1 相關工作

1.1 超圖神經網絡

與簡單圖不同,一個超圖由多個超邊構成,每個超邊連接多個節點,用G=(V,E,W)表示,其中,V表示節點集合,E表示超邊集合,W表示超邊權重的對角矩陣。HGNN通過“節點-超邊-節點”模式有效地提取超圖上的高階相關性信息,即先從節點到超邊的信息聚合,再從超邊到節點的信息傳播。文獻[23]通過構建超圖卷積網絡(hypergraph convolution network,HGCN)完成“節點-超邊-節點”模式,如式(1)所示。

X(l+1)=σ(D-1/2vHWD-1eHTD-1/2vX(l)Θ(l))(1)

其中:Dv、De分別表示節點和超邊度的對角矩陣,起到歸一化的作用;H表示超圖的關聯矩陣;X(l)表示第l層節點的嵌入向量矩陣;Θl表示第l層可訓練的參數矩陣;σ表示非線性激活函數。

具體來說,首先初始化節點嵌入表示,記作X(0),并通過參數矩陣轉換特征維度;其次,通過左乘HT聚集節點到超邊的信息;最后,通過左乘H從超邊向節點傳播信息。HGNN經L層迭代訓練得到最佳的節點嵌入表示X(L)。

1.2 對比學習

自監督學習屬于無監督學習的一種,即用于訓練的標簽源于數據本身,無須另外人工標記。對比學習[27]是自監督學習的一個分支,核心思想是讓模型學習如何將正樣本和其他負樣本區別開,抓住樣本的本質特征。在表征學習中,對比學習是通過將同一樣本的多種嵌入相互靠近,不同樣本的嵌入相互遠離來實現的,最大化同一樣本多種嵌入的互信息,增強了樣本嵌入的魯棒性。文獻[28]提出了InfoNCE,主要用在自監督學習中作為一個對比損失函數,如式(2)所示。

其中:X表示包含正負樣本的集合;fk(·)表示一種相似度函數;(xj,ct)表示負樣本對;(xt+k,ct)表示正樣本對;EX表示整體期望。通過最小化損失函數即可最大化正樣本對之間的互信息。

2 模型框架與算法描述

2.1 問題說明

設V={v1,v2,…,vm}為會話中出現過的所有項目組成的集合;s=[v1,v2,…,vn]為按時間戳排序的匿名會話,其長度記為|s|;S={s0,s1,s2,…,s|S|-1}為整個數據庫中的會話集,|S|為會話總數。每個項目vi∈V和會話s都被嵌入到相同的向量空間,分別用s∈RApd和xi∈RApd表示,d表示向量的維度。

對于給定的目標會話s0=[v1,v2,…,v|s0|],SRS任務的目標是預測下一個可能交互的項目v|s0|+1。推薦模型生成V中所有項目的偏好分數,選擇得分最高的前K個項目進行最終推薦。

2.2 模型框架

基于GNN的SRS任務一般包含圖構建、項目嵌入表示學習、目標會話表示生成、預測四步[13]。HCN-TMP算法在以上步驟的基礎上增加一個意圖解糾纏模塊以挖掘項目多因素信息,為學習用戶多意圖偏好提供條件。

在圖構建模塊中,由于目標會話中蘊涵的信息有限,所以將全局會話作為協同信息,根據目標會話中項目的成對轉換關系構建會話圖,根據全局會話的高階轉換關系構建超圖。在意圖解糾纏模塊中,為了對用戶多意圖偏好建模,經意圖解糾纏,將原有反映用戶耦合意圖的項目嵌入表示轉換為項目多因素嵌入表示。在項目嵌入表示學習模塊中,為獲取兩個級別項目多因素的嵌入表示,在會話圖中,用GAT(graph attention network)學習目標會話項目的會話級表示;在超圖中,用HGCN學習目標會話項目的全局級項目表示,并通過距離相關性損失函數促使項目多因素嵌入塊有更強的獨立性。在目標會話表示生成模塊中,將目標會話中項目的位置信息考慮到注意力權重中,分別融合目標會話中兩個級別項目的嵌入表示,得到全局級會話表示和會話級會話表示,并通過對比學習最大化兩者的互信息;此外,考慮到目標項目對用戶多意圖偏好的影響,目標會話項目的會話級表示和目標項目通過目標多意圖感知得到目標感知級會話表示,從而縮小用戶意圖偏好空間。在預測模塊中,線性融合全局級、會話級和目標感知級會話表示作為用戶偏好向量,經softmax函數預測項目得分,從而進行推薦。算法模型如圖1所示。

2.3 圖構建模塊

1)會話圖構建 參考文獻[17],為了對目標會話項目的轉換關系建模,將目標會話構建成一個會話圖。為了模型簡單起見,在會話圖構建時,忽略入度、出度、自環等多類型的轉換關系,只考慮項目的成對轉換關系,因此構建無向圖。給定目標會話s0=[v1,v2,…,v|s0|],構建會話圖G′=(V′,E′)。其中:V′表示出現在目標會話s0中所有項目的集合;E′表示邊集合,E′={e′i,j|(vi,vj)|vi,vj∈V′} ,(vi,vj)表示邊,即用戶在s0中點擊vi和vj存在先后順序,用VS(vi)表示會話圖中項目vi的鄰居項目。

2)超圖構建 在SRS任務中,某些項目被交互通常是先前多個項目聯合影響的結果,因此項目轉換關系是多對多的,參考文獻[21],用超圖挖掘項目高階轉換關系。給定全局會話S,構建超圖G″=(V″,E″)。其中:V″表示全局會話中所有項目的集合,即V″=V;E″是一個包含|S|個超邊的集合,每個會話構成一個超邊,每個超邊ε∈E″包含多個項目節點,ε={vi|vi∈s|s={v1,v2,…,v|s0|}}。

為每個超邊設置一個權重Wεε,所有超邊權重構成一個對角矩陣W∈RAp|S|×|S|,整個超圖可以用一個關聯矩陣H∈RApm×|S|表示,對于一個項目vi∈ε,Hiε定義為

D∈RApm×m、B∈RAp|S|×|S|分別表示節點和超邊度的對角矩陣,用Dii和Bεε分別表示節點和超邊的度,Dii=∑|S|ε=1WεεHiε,Bεε=∑mi=1Hiε。

2.4 意圖解糾纏模塊

當前基于表征學習的SRS任務大多把項目嵌入到一個整體表示中,項目嵌入被視為耦合意圖的結果,無法從細粒度的角度挖掘項目背后的不同潛在因素,而用戶采用某項目的意圖是由該項目多因素決定的,所以參考文獻[25],使用意圖解糾纏方法對項目嵌入的多因素進行編碼。對于一個嵌入表示為xi∈RApd的項目vi,通過意圖解糾纏將vi的嵌入表示分為T塊,假設每塊嵌入表示一個獨立與其他塊的潛在因素,如式(4)所示。

其中:σ表示激活函數;WTt∈RApd×d/T,bt∈RApd/T表示第t個因素的可訓練的參數;ci,t表示項目vi第t個因素的嵌入表示,采用L2正則化防止過擬合。項目vi的嵌入經過解糾纏轉換為xi=[ci,1,…,ci,T]∈RApd/T。

2.5 項目嵌入表示學習模塊

根據已構建的會話圖和全局圖,分別通過會話級和全局級項目表示學習部分來獲取目標會話項目會話級和全局級的項目表示,并且通過距離相關損失部分提高全局級嵌入表示多個嵌入塊的獨立性。

2.5.1 會話級項目表示學習

會話圖中蘊涵項目成對轉換關系,參考文獻[17],通過GNN學習會話級項目表示。與文獻[17]不同的是,此處對項目T塊嵌入表示分開學習,最后融合得到最終的會話級項目表示,從而學習項目多因素的特征。

在會話圖中,不同鄰居對當前項目的重要性不同,通過GAT將不同的注意力權重分配給鄰居以區分其重要性,并將其線性組合。項目vi第t個因素的學習過程如式(5)所示。

其中:αt(vi,vj)表示在第t個因素下項目vj與vi的注意力權重,計算方式如下:

其中:⊙表示向量對應位置相乘;LeakyReLU為激活函數;W1∈RApd/T表示可訓練參數。最后,融合項目T塊嵌入表示得到最終的會話級項目表示x′i=[c′i,1,…,c′i,T]∈RApd/T。

2.5.2 全局級項目表示學習

超圖蘊涵項目高階轉換關系,參考文獻[21],通過HGCN學習全局級項目表示。與會話級項目表示學習一樣,此處依舊分開學習項目多因素的嵌入,最后融合得到最終的全局級項目表示。

在超圖中,采用“節點-超邊-節點”的信息傳播模式,通過卷積操作聚合并傳遞圖中信息,項目vi第t個因素的信息傳播過程如式(7)所示。

在圖卷積過程中,去除非線性激活部分和參數矩陣。為了簡單起見,將所有權重系數Wεε設為1。參考式(1),圖卷積過程的矩陣表達形式為

C(l+1)=D-1HWB-1HTC(l)(8)

信息傳播和聚合應用于所有項目的堆疊形式構成了多層HGCN結構,通過L輪迭代形成穩定的模式,項目vi第t個因素的嵌入表示為cLi,t。為了解決因多輪迭代出現過擬合的問題,平均L輪所得的項目嵌入,如式(9)所示。

最后融合項目T塊嵌入表示得到最終的全局級項目表示x″i=[c″i,1,…,c″i,T]∈RApd/T。

2.5.3 距離相關損失

在意圖解糾纏模塊中,為了探究用戶多意圖偏好,把項目嵌入分成T塊,每塊表示一個潛在因素。為了更全面且有針對性地描述項目的多特征,就要讓項目嵌入的多因素間的獨立性更高,采用距離相關損失作為正則化器去縮小每一對因素間的依賴性。因為通過會話圖和超圖學習了兩個級別項目表示,距離相關損失存在于會話級項目表示學習和全局級項目表示學習過程中,距離相關損失函數表示如下:

其中:cos(·,·)表示兩個向量的距離相關性函數。

2.6 目標會話表示生成模塊

與文獻[16~19]在學習目標會話表示之前直接融合多個級別項目嵌入不同,HCN-TMP從三個角度分別學習會話級、目標感知級和全局級會話表示,并通過對比學習最大化會話級和全局級會話表示的互信息,從而減少因項目嵌入融合帶來的噪聲。考慮到用戶采用某項目的意圖是由項目多因素決定的,所以分開學習項目的每個因素,更好地捕捉用戶關心的主要因素。

2.6.1 會話級與全局級會話表示

參考文獻[17],為了得到目標會話的整體表示,與現有著重關注目標會話最后一個項目的方法不同,融合位置信息嵌入,學習每個項目對整個目標會話的影響權重。會話級會話表示與全局級會話表示采用同樣的學習方法,下文詳細描述會話級會話表示學習過程,對全局級會話表示的學習過程不再贅述。

其次,通過軟注意力學習目標會話內每個項目第t個因素的權重,如式(13)所示。

函數。然后,加權融合會話級項目嵌入,得到第t個意圖的會話級會話表示s′t,如式(14)所示。

最后,融合T個意圖的會話級會話表示得到最終的會話級會話表示s′=[s′1,…,s′T]∈RApd/T。同理,得到最終的全局級會話表示s″=[s″1,…,s″T]∈RApd/T,其中s″t表示第t個意圖的全局級會話表示。

2.6.2 目標感知級會話表示

現有基于意圖解糾纏的方法都是將目標會話壓縮成固定的向量表示,忽略了目標項目對用戶偏好多樣性的影響。HCN-TMP通過目標多意圖感知,即目標多意圖注意力機制,自適應學習目標會話中與目標項目相關度更高的多意圖用戶偏好,為每個目標項目學習一個目標感知級會話表示。

在目標會話的第t個意圖中,取目標項目v|s0|+1的嵌入向量,通過非線性轉換后,與目標會話的所有項目的會話級嵌入表示內積,經歸一化得到項目注意力權重,如式(15)所示。

最后,融合T個意圖的會話級會話表示得到最終的目標感知級會話表示s=[s1,…,sT]∈RApd/T。由于數據庫中所有項目V={v1,v2,…,vm}都要作為目標項目,vo∈V作為目標項目,目標感知級會話表示為so。

2.6.3 對比學習

將全局級會話表示作為自監督信號,通過對比學習最大化會話級和全局級會話表示的互信息。參考式(2),采用基于標準二分類的InfoNCE作為損失函數,如式(17)所示。

2.7 預測模塊

在獲取全局級、會話級和目標感知級會話表示后,針對目標項目vo,通過鏈接和線性變換到向量so來表達用戶最終偏好,如式(18)所示。

so=W7[so;s′;s″](18)

其中:W7∈RApd×3d表示可訓練參數。

對于目標項目vo,通過項目嵌入xo和用戶偏好向量so內積得到項目得分zo:

zo=sToxo(19)

其中:y={y1,y2,…,ym}表示目標會話中真實點擊項目的獨熱編碼向量。結合式(10)(17)和(20)的損失函數形成統一的優化目標,如式(21)所示。

LAp=λLAp1+δLAp2+LAp3(21)

其中:λ和δ是兩個超參數,控制距離相關損失和對比學習損失的比率。

3 實驗與分析

為了評估算法HCN-TMP的有效性,在Tmall和Nowplaying兩個公開數據集上進行以下四部分實驗:與基線模型的對比實驗、消融實驗、參數調整實驗以及算法在不同長度的會話表現實驗。

3.1 數據集與預處理

實驗選擇Tmall(https://tianchi.aliyun.com/dataset/dataDetail?dataId=42)和Nowplaying(http://dbis-nowplaying.uibk.ac.at/#nowplaying)兩個公開數據集。參考文獻[13,17]的數據處理方法,過濾掉兩個數據集中會話長度為1、項目出現次數少于5次的會話和項目。由于原Tmall數據集中項目數量過大,參考文獻[17],篩選出1/64的會話作為最終數據集,并選擇最后一天的數據作為測試集,剩余的作為訓練集;對于Nowplaying,選擇最后兩個月的數據作為測試集,剩余的作為訓練集。對于會話序列s=[v1,v2,…,vn] ,為了增強會話數據,生成一系列(會話序列,標簽),例如 ([v1],v2),([v1,v2],v3),…,([v1,v2,…,vn-1],vn)。數據集內容如表1所示。

3.2 評價指標

實驗使用基于排名的P@K和MRR@K兩種評價指標對模型進行評價。考慮SRS實驗的有效性和在實際生活中的應用,選取K=20。

3.3 對比方法

為驗證模型的性能,選擇以下算法進行對比:

a)Item-KNN[6]。推薦與目標會話最相似的會話中的項目,相似度定義為會話中項目的共現信息。

b)FPMC[7]。結合矩陣分解和一階馬爾可夫鏈來捕獲序列效果和用戶偏好。

c)GRU4Rec[9]。一種基于RNN的方法,利用GRU來捕獲會話序列中項目之間順序的行為。

d)NARM[10]。在GRU4Rec的基礎上加入注意力機制,以對用戶的主要目的進行建模。

e)SR-GNN[13]。通過門控圖神經網絡學習會話圖中項目的嵌入表示,開創了使用GNN解決SRS問題的先例。

f)GC-SAN[14]。將GNN和多層自注意力網絡結合,從而集成上下文信息。

g)TAGNN[15]。引入了目標感知模塊,挖掘目標項目與歷史動作的相關性,從而改進會話表示。

h)GCE-GNN[17]。通過構建會話圖與全局圖去學習兩個層次的項目表示,以達到全局信息增強目標會話的目的。

i)S2-DHCN[21]。構建線圖和超圖學習會話間和會話內信息,并使用自監督學習來增強模型。

j)SHARE[20]。利用超圖和注意力網絡去探究上下文窗口,從而對會話相關的項目表示建模。

k)Disen-GNN[25]。將意圖解糾纏技術與門控圖卷積層相結合對項目潛在因素進行建模,以估計用戶的不同意圖。

3.4 參數設置

對于HCN-TMP算法,與文獻[13,17]設置算法項目嵌入向量的維度統一為100不同,本文考慮到項目的多因素,把項目嵌入分為T塊,所以項目嵌入向量的維度d需要通過參數實驗得到。參考文獻[13,17],設置批量處理大小為100,可訓練參數以均值為0、標準差為0.1的高斯分布初始化,使用初始學習率為0.001的Adam優化器,每三個訓練周期衰減0.1,正則化系數為10-5。對于其他影響算法性能的參數(HGCN層數、項目因素數、超參數λ和超參數δ)通過在兩個數據集的參數實驗得到。對于對比方法,為了公平起見,參數設置與原文獻相同。

3.5 結果分析

a)將HCN-TMP與11個對比算法進行對比實驗,實驗結果如表2所示。從表2可以看出:

(a)基于序列化的方法(NARM和GRU4Rec)基本優于不考慮序列化的傳統方法(Item-KNN和FPMC),表明在SRS任務中考慮會話序列信息是十分重要的。

(b)基于GNN的方法比傳統方法和基于序列化的方法具有顯著的優勢,主要原因可能是圖結構可以迭代地聚合圖中的相鄰信息以提取項目之間的成對轉換關系,從而獲得更好的項目表示。在基于GNN的方法中,僅考慮目標會話項目轉移關系的方法(SR-GNN、GC-SAN、SHARE等)效果明顯差于考慮協同信息的方法(GCE-GNN和S2-DHCN),說明目標會話以外的協同信息能更好地挖掘用戶偏好。

(c)基于目標項目感知的方法(TAGNN)在Tmall數據集上優于所有其他基線方法,可能的原因是目標項目能很好感知用戶偏好、挖掘用戶意圖。但在Nowplaying數據集中,TAGNN相比別的基于GNN的方法效果并不好,說明不同數據集中目標項目對用戶意圖的挖掘起到的作用不相同。

(d)基于超圖建模會話的方法(S2-DHCN和SHARE)優于一般二部圖建模會話的方法(SR-GNN、GC-SAN),因為一般圖只能挖掘項目的成對轉換關系,超圖可以挖掘項目的高階轉換關系。基于意圖解糾纏的方法(Disen-GNN)效果好于意圖耦合的方法(SR-GNN、GC-SAN),因為用戶采用某物品的意圖是由該物品多因素決定的,Disen-GNN將項目嵌入到多個塊中表示不同的因素。

(e)HCN-TMP算法考慮除目標會話以外的全局協同會話,通過超圖建模全局協同會話,經多意圖目標感知,針對不同的目標項目自適應地學習目標會話中多意圖的用戶偏好,綜合以上方法優勢所在,在兩個數據集中明顯優于所有基線方法。Tmall數據集上比最好的基線方法在P@20上高出16.18%,在MRR@20上高出12.01%;Nowplaying數據集上比最好的基線方法在P@20上高出1.83%,在MRR@20上高出2.02%。由此可見,相比Nowplaying數據集,HCN-TMP對Tmall數據集有更可觀的效果,主要的原因可能是目標多意圖感知模塊對購物類用戶多意圖場景有更強的針對性。

b)對HCN-TMP算法進行消融實驗,以驗證每個重要組成部分的有效性。在每個實驗中,移除其中一個部分,性能變化程度表明移除部分的重要性程度,分析以下五個模型:HCN-TMP_1表示移除HGCN部分,即不考慮全局協同信息,連帶需要移除對比學習部分;HCN-TMP_2表示移除意圖解糾纏部分,即項目只用一個整體嵌入表示;HCN-TMP_3表示移除目標感知部分,不考慮目標項目;HCN-TMP_4表示移除對比學習損失部分,即參數δ=0;HCN-TMP_5表示移除距離相關損失部分,即參數λ=0。實驗結果如圖2所示。

圖2實驗結果表明,超圖能有效地挖掘項目高階信息;意圖解糾纏可以更好地探究用戶的多種意圖;目標感知通過感知目標項目與目標會話的相關性改進會話表示,提升了模型推薦性能,對于數據集Tmall有更明顯的提升效果;對比學習損失和距離相關損失對提高模型推薦性能都是有效的,前者作用更大。

c)對HCN-TMP算法進行參數調整實驗,以獲取在最優性能下的參數值。HCN-TMP堆疊多個HGCN層來建模超圖中的高階信息,將層數L范圍定為{1,2,3,4,5}來研究HGCN層數對推薦結果的影響,結果如圖3所示。

圖3實驗結果表明,Tmall數據集在HGCN層數為1時,P@20和MRR@20都能達到最高,之后隨著層數加深效果越來越差,所以層數最終設定為1;Nowplaying在層數為3時P@20達到最高、在層數為2時MRR@20達到最高,之后隨著層數加深效果越來越差,由于層數為3時綜合效果更好,所以層數最終設定為3。對于Tmall,僅一層就能達到最佳效果的主要原因可能是數據集中的會話較短,一層就可以完成圖信息的完全傳播,使用過多的層將為表示學習過程帶來噪聲。

為了研究項目的多因素對實驗結果的影響,將項目嵌入塊T范圍定為{1,2,…,9,10},此處保持項目嵌入的維度不變,對于Tmall數據集,采用項目嵌入維度d=250;對于Nowplaying數據集,采用項目嵌入維度d=100,結果如圖4所示。

圖4實驗結果表明,隨著因素數的增加,性能通常會增加,直到達到峰值,然后開始下降。當T=1時,性能很差,表明項目耦合的嵌入表示不足以捕獲會話中用戶的多種意圖,證明了在細粒度級別上意圖解糾纏的合理性。Tmall數據集在因素數為5時,P@20和MRR@20都能達到最高,因素數最終設定為5;Nowplaying因素數為7時P@20達到最高、因素數為6時MRR@20達到最高,由于因素數7時綜合效果更好,所以因素數最終設定為7。因素數對兩個數據集影響是不同的,主要是因為這兩個數據集收集于不同的場景,用戶意圖是由不同場景的不同因素驅動的。

為了使項目多個嵌入塊有更強的獨立性,HCN-TMP應用了距離相關損失,超參數λ控制訓練過程中的距離相關損失權重,大范圍內調整λ以獲得最佳值權重。參考文獻[25],將超參數λ范圍定為{0,0.5,5,10,100},基于評價指標P@20研究其對結果的影響,結果如圖5所示。圖5實驗結果表明,設置適當的λ可以提高性能。當λ=0時,即不考慮距離相關損失,兩個數據集的性能都相對較差;當λ=5時,在兩個數據集上都能達到最佳效果,這表明考慮項目因素獨立可以有效地促進嵌入學習,從而提高性能;當λ過大時,會削弱距離相關損失對學習過程的指導作用,導致性能下降。

為了最大化全局級和會話級項目表示的互信息,HCN-TMP應用了對比學習的方法,提出了對比學習損失,超參數δ控制訓練過程中的對比學習損失權重。參考文獻[21],將超參數δ范圍定為{0,0.001,0.01,0.02,0.03,0.05},基于評價指標P@20研究其對結果的影響,結果如圖6所示。

圖6實驗結果表明,當Tmall和Nowplaying數據集的δ分別達到0.03和0.02時模型的性能最佳,表明全局級項目表示能夠作為自監督信號,最大化與會話級項目表示的互信息。對于兩個數據集,隨著δ的增加,模型的性能有所下降,下降的原因可能是聯合損失函數之間的梯度沖突。

d)針對數據集中不同長度的會話,對HCN-TMP進行實驗,以探究算法對長會話和短會話的影響。長度小于等于5的會話為短會話,剩余的會話是長會話。此處選擇TAGNN和GCE-GNN這兩個表現最佳的基線方法作為對比方法,結果如圖7所示。

圖7實驗結果表明,在兩個數據集上,所有方法在長會話上的性能都高于短會話,主要原因可能是長會話所蘊涵的信息更多,能更好地表達用戶的偏好。HCN-TMP在兩個數據集的長會話和短會話上都優于對比方法TAGNN和GCE-GNN,說明HCN-TMP能同時處理長項目依賴和短項目依賴問題,主要原因可能是HCN-TMP能根據目標項目自適應地學習目標會話中多意圖的用戶偏好,縮小用戶的意圖空間,無論會話長短都能很好地感知用戶意圖。

4 結束語

本文提出基于超圖卷積網絡和目標多意圖感知的會話推薦算法HCN-TMP,既考慮到通過超圖神經網絡去捕捉項目之間的高階轉換關系,又考慮到通過目標多意圖感知自適應地學習目標會話中多意圖的用戶偏好,并通過距離相關損失和對比學習損失對SRS任務進行優化,使推薦更加精確。相比基線方法,HCN-TMP雖然有著最佳的效果,但模型的復雜度高、訓練時間更久,難以應用于實際應用場景。因此,下一步研究通過簡化圖神經網絡,從而降低模型復雜度。

參考文獻:

[1]Wang Xiang, He Xiangnan, Wang Meng, et al. Neural graph col-laborative filtering[C]//Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2019:165-174.

[2]Zhu Ziwei, Wang Jianling, Caverlee J. Improving top-k recommendation via joint collaborative autoencoders[C]//Proc of World Wide Web Conference.New York:ACM Press,2019:3482-3483.

[3]Wang Jianling, Caverlee J. Recurrent recommendation with local coherence[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining.New York:ACM Press,2019:564-572.

[4]Wang Jianling, Louca R, Hu D, et al. Time to shop for Valentines day: shopping occasions and sequential recommendation in e-commerce[C]//Proc of the 13th International Conference on Web Search and Data Mining.New York:ACM Press,2020:645-653.

[5]Wang Shoujing, Cao Longbing, Wang Yan, et al. A survey on session-based recommender systems[J].ACM Computing Surveys,2021,54(7):article No.154.

[6]Sarwar B, Karypis G, Konstan J, et al. Item-based collaborative filtering recommendation algorithms[C]//Proc of the 10th International Confe-rence on World Wide Web.New York:ACM Press,2001:285-295.

[7]Rendle S, Freudenthaler C, Schmidt-Thieme L. Factorizing perso-nalized Markov chains for next-basket recommendation[C]//Proc of the 19th International Conference on World Wide Web.New York:ACM Press,2010:811-820.

[8]Shani G, Heckerman D, Brafman R I, et al. An MDP-based recommender system[J].Journal of Machine Learning Research,2005,6(1):1265-1295.

[9]Hidasi B, Karatzoglou A, Baltrunas L, et al. Session-based recommendations with recurrent neural networks[C]//Proc of International Conference on Learning Representations.2016:1-10.

[10]Li Jing, Ren Pengjie, Chen Zhumin, et al. Neural attentive session-based recommendation[C]//Proc of ACM Conference on Information and Knowledge Management.New York:ACM Press,2017:1419-1428.

[11]Tan Y K, Xu Xinxing, Liu Yong. Improved recurrent neural networks for session-based recommendations[C]//Proc of the 1st Workshop on Deep Learning for Recommender Systems.New York:ACM Press,2016:17-22.

[12]Jannach D, Ludewig M. When recurrent neural networks meet the neighborhood for session-based recommendation[C]//Proc of the 11th ACM Conference on Recommender Systems.New York:ACM Press,2017:306-310.

[13]Wu Shu, Tang Yuyuan, Zhu Yanqiao, et al. Session-based recommendation with graph neural networks[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2019:346-353.

[14]Xu Chengfeng, Zhao Pengpeng, Liu Yanchi, et al. Graph contextua-lized self-attention network for session-based recommendation[C]//Proc of the 28th International Joint Conference on Artificial Intel-ligence.Palo Alto,CA:AAAI Press,2019:3940-3946.

[15]Yu Feng, Zhu Yanqiao, Liu Qiang, et al. TAGNN:target attentive graph neural networks for session-based recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:1921-1924.

[16]Zheng Yujia, Liu Siyi, Li Zekun, et al. DGTN:dual-channel graph transition network for session-based recommendation[C]//Proc of International Conference on Data Mining.Piscataway,NJ:IEEE Press,2020:236-242.

[17]Wang Ziyang, Wei Wei, Cong Gao, et al. Global context enhanced graph neural networks for session-based recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:169-178.

[18]Chu Fei, Jia Caiyan. Self-supervised global context graph neural network for session-based recommendation[J].PeerJ Computer Science,2022,8(2):e1055.

[19]Deng Zhihong, Wang Changdong, Huang Ling, et al. G3SR: global graph guided session-based recommendation[J].IEEE Trans on Neural Networks and Learning Systems,2022,34(12):9671-9684.

[20]劉高,黃沈權,龍安,等.基于超圖網絡的產品設計知識智能推薦方法研究[J].計算機應用研究,2022,39(10):2962-2967.(Liu Gao, Huang Shenquan, Long An, et al. Research on intelligent recommendation method of product design knowledge based on hypergraph network[J].Application Research of Computers,2022,39(10):2962-2967.)

[21]Xia Xin, Yin Hongzhi, Yu Junliang, et al. Self-supervised hyper-graph convolutional networks for session-based recommendation[C]//Proc of the 35th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2021:4503-4511.

[22]Li Yinfeng, Gao Chen, Luo Hengliang, et al. Enhancing hypergraph neural networks with intent disentanglement for session-based recommendation[C]//Proc of the 45th International ACM SIGIR Confe-rence on Research and Development in Information Retrieval.New York:ACM Press,2022:1997-2002.

[23]Feng Yifan, You Haoxuan, Zhang Z, et al. Hypergraph neural networks[C]//Proc of the 33rd AAAI Conference on Artificial Intel-ligence.Palo Alto,CA:AAAI Press,2019:3558-3565.

[24]Ma Jianxin, Zhou Chang, Cui Peng, et al. Learning disentangled representations for recommendation[EB/OL].(2019-10-31).https://arxiv.org/pdf/1910.14238v1.pdf.

[25]Li Ansong, Cheng Zhiyong, Liu Fan, et al. Disentangled graph neural networks for session-based recommendation[J].IEEE Trans on Knowledge and Data Engineering,2023,35(8):7870-7882.

[26]洪明利,王靖,賈彩燕.多通道圖注意力解耦社交推薦方法[J].國防科技大學學報,2022,44(3):1-9.(Hong Mingli, Wang Jing, Jia Caiyan. Multi-channel graph attention network with disentangling capability for social recommendation[J].Journal of National University of Defense Technology,2022,44(3):1-9.)

[27]Khosla P, Teterwak P, Wang Chen, et al. Supervised contrastive learning[C]//Proc of the 34th Conference on Neural Information Processing Systems.2020:18661-18673.

[28]Van Den Oord A, Li Yazhe, Vinyals O. Representation learning with contrastive predictive coding[EB/OL].(2019-01-22)[2023-04-01].https://arxiv.org/pdf/1807.03748.pdf.

主站蜘蛛池模板: 亚洲一区二区精品无码久久久| 秋霞午夜国产精品成人片| 日本一区二区不卡视频| 亚洲免费人成影院| 久久久无码人妻精品无码| 久久亚洲黄色视频| 日本高清成本人视频一区| 欧美在线黄| 91色爱欧美精品www| 青青草一区二区免费精品| 日韩欧美国产区| 国产精品污视频| 日韩天堂视频| 国产精品19p| 亚洲Va中文字幕久久一区 | 97免费在线观看视频| 日韩成人午夜| www亚洲天堂| 亚欧乱色视频网站大全| 亚洲AV无码乱码在线观看代蜜桃 | 无码电影在线观看| 理论片一区| 凹凸精品免费精品视频| 伊人天堂网| 99久久99这里只有免费的精品| 最近最新中文字幕在线第一页| 国产99热| 在线看AV天堂| 欧美一级色视频| 久久香蕉欧美精品| 国产精品自在自线免费观看| 一区二区偷拍美女撒尿视频| 香蕉99国内自产自拍视频| 欧美日韩在线成人| 一级毛片免费不卡在线 | 欧美v在线| 国产黄视频网站| 极品av一区二区| 国产精品成人久久| 中文无码日韩精品| 日韩一级毛一欧美一国产| 国产亚洲欧美日韩在线观看一区二区| 亚洲成a人片在线观看88| 国产91丝袜在线播放动漫| 日韩精品专区免费无码aⅴ| 国产你懂得| 手机看片1024久久精品你懂的| 亚洲福利视频一区二区| 日本不卡在线播放| 美女扒开下面流白浆在线试听 | 亚洲资源站av无码网址| 毛片免费观看视频| 久久天天躁夜夜躁狠狠| 99热这里只有精品国产99| 国产微拍精品| 青青青国产视频| 日本精品影院| 国产91无毒不卡在线观看| 久久综合亚洲鲁鲁九月天| 青青青亚洲精品国产| 亚洲成人在线网| 国产sm重味一区二区三区| 在线色国产| 嫩草国产在线| 欧美特黄一级大黄录像| 丝袜久久剧情精品国产| 国产性生大片免费观看性欧美| 中文字幕亚洲专区第19页| 久久视精品| 亚洲精品人成网线在线| 国产精品国产主播在线观看| 精品91视频| 免费人成视频在线观看网站| 欧美激情视频一区二区三区免费| 欧美在线观看不卡| 老司机午夜精品网站在线观看 | 久久女人网| 国产午夜精品一区二区三区软件| 久久精品人人做人人爽97| 精品三级网站| 精品国产黑色丝袜高跟鞋| 国产成人夜色91|