999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多層次視圖對比學習的知識感知推薦算法

2024-02-18 20:55:34王正東王靖楊曉君林浩申
計算機應用研究 2024年1期

王正東 王靖 楊曉君 林浩申

摘 要:現有基于圖神經網絡(GNN)的推薦模型存在一個自然的缺陷,即稀疏監督信號問題且在關系建模中是粗粒度的,模型不能在更細粒度層面識別用戶項目交互關系,這可能會使模型的實際性能在一定程度上下降。受對比學習在挖掘監督信號方面的成功啟發,提出了一個基于多層次視圖對比學習的知識感知推薦算法框架(knowledge-aware recommendation algorithm based on multi-level view contrastive learning,KRMVC)。該框架構造了全局和局部共四個圖形視圖,即全局結構視圖、局部的意圖視圖、協調視圖和協同視圖。同時在探索用戶項目交互背后的意圖中,設計了一種新的GNN信息聚合方案,用來提取關于用戶意圖的有用信息,并將其編碼到用戶和項目的表示中。KRMVC在全局和局部層次上跨四個視圖進行對比學習,利用多任務策略對推薦自監督任務和對比學習任務進行聯合優化,以此提升性能。實驗表明,該模型在MovieLens和Yelp2018兩個數據集上AUC值相較于最先進的基線提升了1.1%與0.7%,F1指標分別提升了1.4%和1.0%,recall@K指標均優于最先進的基線。

關鍵詞:推薦系統; 知識圖譜; 對比學習; 圖神經網絡

中圖分類號:TP391?? 文獻標志碼:A?? 文章編號:1001-3695(2024)01-007-0045-06

doi:10.19734/j.issn.1001-3695.2023.05.0283

Knowledge-aware recommendation algorithm based on multi-level view contrastive learning

Abstract:The existing graph neural network (GNN)-based recommendation models have a natural limitation, namely the sparse supervision signal problem and coarse-grained relation modeling. These models cant identify user-item interaction relationships at a finer granularity, potentially leading to a decrease in their actual performance. Inspired by the successful application of contrastive learning in mining supervision signals, this paper proposed a KRMVC algorithm. The KRMVC framework constructed four graph views, including a global structural view, a local intention view, a coordination view, and a collaboration view. Additionally, the algorithm designed a new GNN information aggregation scheme to extract useful information about user intents and encoded it into the representations of users and items. KRMVC performed contrastive learning across the four views at both global and local levels, used a multi-task strategy to jointly optimize the recommendation supervision task and contrastive learning task for performance improvement. Experimental results demonstrate that the model achieves improvements in AUC values by 1.1% and 0.7%, F1 scores by 1.4% and 1.0%, and recall@K scores surpass state-of-the-art baselines on the MovieLens and Yelp2018 datasets.

Key words:recommender system; knowledge graph; contrastive learning ; graph neural network

0 引言

在當今信息爆炸的時代,用戶很難快速準確地找到感興趣的內容,因為存在大量冗余和無效的信息。推薦系統是解決信息過載問題的有效方法之一,它根據用戶的興趣和歷史行為推薦相關內容[1]。傳統的協同過濾推薦方法(collaborative filtering,CF)[2~4]依賴于歷史用戶行為數據來捕捉協作信號進行推薦。然而,它們面臨著冷啟動問題,因為它們將每個交互視為獨立的實例,忽略了它們之間的關系,如NFM[2]和xDeepFM[3]。一種廣泛采用的解決方案是將各種類型的輔助信息,如知識圖(knowledge graph,KG)[5]中包含的豐富實體和關系,納入推薦系統,以學習高質量的用戶和項目表示,即知識感知推薦(knowledge-aware recommendation,KGR)。已有許多研究工作[6,7]致力于知識圖譜推薦,重點是如何有效利用項目方面的圖形信息進行用戶和項目表示學習。早期的KGR研究[8,9]主要采用不同的知識圖嵌入(knowledge graph embedding,KGE)模型,如TransE [10]和TransH [11],對實體嵌入進行預訓練來學習項目表示。然而,這些方法效果不佳,因為它們獨立處理每個項目實體關系,無法提取足夠的協作信號來進行表示學習。

隨后,出現了基于連接的方法,用于模擬用戶、物品和實體之間的多種連接模式。這些方法可以分為基于路徑[12]和基于圖神經網絡(GNN)[13]的兩類?;诼窂降姆椒▊戎赜谕ㄟ^捕獲知識圖譜中的遠程結構來豐富用戶物品交互。然而,這些方法依賴于手動設計的元路徑,難以優化?;贕NN的方法則通過信息聚合將多跳鄰居融入節點表示中,而當前基于GNN的模型受到稀疏監督信號問題的困擾,導致節點表示的退化和不可區分性。

近年來,在推薦系統領域中,基于圖卷積網絡(graph con-volutional network,GCN)的模型取得了顯著應用。通過結合協同過濾信息和GCN,推薦系統取得了優秀的效果。GCN的設計利用了圖的連通性,能夠有效地聚合用戶鄰居節點信息,提高用戶和項目的表示學習效果?;谶@些特性,許多研究人員將GCN應用于推薦系統中。例如,PinSage[14]將隨機游走算法和GCN結合,建立了節點表示;NGCF[15]利用GCN的信息傳播特性,顯式建模了用戶項目之間的高階連接性。盡管這些模型在推薦效果上取得了良好成果,但由于數據稀疏問題,仍存在過度平滑和效率低的挑戰。為了應對這些問題,LR-GCCF[16]利用殘差網絡結構緩解了過度平滑,并去除了GCN的非線性激活規則;LightGCN[17]則進一步簡化了圖卷積操作,保留了鄰域聚合組件,實現了輕量高效的效果。

基于圖卷積網絡(GCN)的推薦模型在推薦領域取得了顯著的效果,然而這種方法仍然面臨著許多待攻破的難題。本文強調設計的模型應以更細粒度的方式探索更多的圖視圖進行學習,并且多級跨視圖對比機制對于模型設計至關重要。因此,提出了一種基于自監督學習范式的新模型KRMVC,旨在充分利用知識圖譜和用戶物品交互中的協同和交互背后的意圖信息來進行知識感知推薦(KGR)。該模型引入了一種新穎的多級跨視圖對比學習機制,以協同監督四個圖視圖之間的學習。特別是在意圖和協調視圖方面,設計了一種新的GNN信息聚合方案,用來提取用戶意圖的有用信息,并將其編碼到用戶和項目表示中。此外為了結合推薦任務和對比學習任務,采用了多任務訓練策略來優化整個模型。在訓練過程中,綜合考慮推薦自監督任務和對比學習任務的損失函數,通過最小化整體的損失函數來學習模型參數。這樣的聯合優化過程充分利用了自監督信號和對比信號,以提高推薦模型的性能。通過廣泛的實證研究,KRMVC在兩個基準數據集上展現出優于現有模型的性能。

1 相關工作

1.1 知識感知推薦

與傳統的基于矩陣分解和自編碼器的協同過濾方法[18]相比,基于圖的協同過濾將交互數據組織成交互圖,并從結構圖信息中學習有意義的節點表示。由于以下三個原因,GNN技術在推薦系統中變得非常流行:a)大多數推薦系統中的信息具有圖結構,而GNN在學習圖表示方面具有優勢;b)從圖結構的角度看,可以使用統一的框架對不同類型的數據進行建模;c)GNN通過多層網絡傳遞信息,可以明確編碼用戶交互行為中的高階信號。GNN包括圖構建、鄰居聚合、信息更新和最終節點表示。為了鞏固和保留來自所有層的表示,直接使用來自所有層的表示,而不僅僅是最后一層。

1.2 對比學習

最初的主流對比學習方法Inst Disc[19]提出后,隨之而來的是一系列對比學習模型[20,21],引發了大規模的研究浪潮。隨著對比學習的廣泛應用,自監督學習(self-supervised lear-ning,SSL)得到了推薦系統的重點關注,因為它可以節省人力和物力資源。許多推薦系統在對比學習下取得了顯著的改進[21,22],并且每個系統都取得了可觀的進展。對比學習最初被提出是為了解決少量或無注釋問題。然而,通過找到合適的正負樣本對,已經證明對比學習在推薦系統中可以發揮重要作用。因此,識別正確的正負樣本對對于該方法的成功至關重要。與計算機視覺中常用的對比學習[23]不同,不使用純粹的丟棄增強和旋轉增強。這是因為在圖網絡中,用戶和項目可能存在密切關聯,不應隨意分開。簡單的隨機丟棄可能導致模型忽視重要的節點和關系。為解決這個問題,本文模型采用了一種多視圖對比方法,有助于識別有價值的用戶項目關系。

2 推薦算法框架

本章將詳細描述提出的推薦框架KRMVC。KRMVC的目標是將自監督學習(SSL)和知識感知推薦(KGR)結合,以此來改進用戶和項目的表示學習??蚣芙Y構如圖1所示,本文框架生成了四種不同的圖形視圖,包括全局層次的結構視圖和局部層次的意圖、協調及協同視圖,將局部視圖交叉對比學習和全局視圖橫向對比學習相結合,以提升推薦性能。

2.1 用戶意圖建模

先前基于圖神經網絡的研究,它們假設用戶和項目之間沒有或只有一種交互關系。然而,本文目標是捕捉影響用戶行為的多個意圖。將意圖定義為用戶選擇項目的原因,它反映了所有用戶行為的共性。以音樂推薦為例,可能的意圖包括對音樂屬性的不同考慮,如藝術家與合作伙伴的組合,或音樂風格和情感的選擇。通過將用戶驅動的類似意圖與項目上的偏好相匹配,可以提升廣泛使用的協同過濾效果。受該觀點的啟發,本文以意圖為粒度來建模用戶項目關系[24]。假設IS是所有用戶共享集合,將用戶項目關系劃分為|IS|個意圖,并將每個(u,i)分解為{(u,s,i),s∈IS}。因此,用戶項目交互圖重新組織為一個異構圖,稱為意圖圖譜(intent graph,IG)。

2.1.1 意圖的表示學習

為了明確識別每個意圖的語義,KTUP[25]提出了一個簡單的解決方案,但這個方案僅考慮了單個關系,沒有考慮關系的交互和組合,因此為每個意圖s∈IS分配一個關于知識圖(KG)關系的分布,采用注意策略來創建意圖嵌入:

其中:er為關系r的嵌入,將關系r賦予注意分數α(r,s)以量化其重要性,形式如式(2)所示。

其中:wrs是特定關系r和特定意圖s的可訓練權重。

2.1.2 意圖的獨立建模

一個具有獨立信息的意圖能提供一種有價值的角度來描述用戶的行為模式,相反如果一個意圖可以通過其他意圖推斷得出,那么它可能是冗余的。因此,為了提高模型的性能和可解釋性,鼓勵意圖的表示彼此之間有所區別。這里引入一個獨立意圖表示學習的建模模塊,通過應用統計量互信息作為正則化器來實現[26]:

其中:m(·)是衡量任意兩個意圖表示之間關聯性的函數,本文設置為余弦相似度函數;τ是softmax函數中的溫度超參數。

2.2 多視圖生成

與以往方法不同,本文在用戶項目交互圖中引入了交互意圖,形成用戶-意圖-項目-實體圖,以實現更精細的學習。這包括用戶-項目-實體圖,并同時考慮局部和全局視圖。首先根據項目-項目關系將圖分成用戶-意圖-項目圖和項目-實體圖。用戶-意圖-項目圖包含用戶-項目圖,被視為局部協同視圖,用于挖掘項目之間的協同關系。用戶-意圖-項目圖被視為局部意圖視圖,用于探索用戶項目交互背后的意圖。項目-實體圖被視為局部協調視圖,協調不同意圖路徑對用戶項目交互的影響。原始的用戶-項目-實體圖被視為全局結構視圖,保存完整的路徑結構信息,即用戶-項目-實體的遠程聯通性,結合這四個視圖,推薦模型能夠在多個層次上全面理解用戶和項目之間的關系。每個視圖提供了不同的信息和角度,相互之間互補,從而增強了模型的能力,更細粒度地識別用戶和項目之間的交互關系。通過這樣的視圖劃分,可以綜合考慮用戶、項目、意圖和實體之間的關系,并在不同的視圖上進行對比學習,從而實現更精細的推薦學習。

2.3 局部對比學習

基于在局部層面獲取的意圖、協調和協同視圖,繼而探索了三種具有合適圖編碼器的圖形視圖,并對它們進行了對比學習以實現相互監督。具體而言,在意圖、協調視圖中,本文提出了一種新的GNN信息聚合方案,該方案允許提取關于用戶意圖的有用信息,并將它們編碼到用戶和項目的表示中;在協同視圖中,本文使用了經過改進的Light-GCN[17]在兩個視圖中學習全面的項目表示。隨后,通過對三個視圖特定的嵌入進行編碼,本文提出了一種局部對比學習方法,鼓勵這三個視圖共同改善表示效果。

2.3.1 意圖視圖編碼

意圖視圖注重用戶交互背后的意圖識別,考慮在用戶意圖的細粒度級別上捕捉更細粒度的模式,假設具有相似意圖的用戶會有相似的物品偏好。如前所述,協同過濾效應[2~4]通過假設具有相似行為的用戶具有相似的物品偏好,這啟發本文將用戶的歷史交互數據視為用戶預先存在的特征。首先從意圖圖譜(IG)中提取用戶意圖信息,考慮IG中的用戶u,本文使用Nu={(s,i)|(u,s,i)∈D}來表示意圖感知歷史和用戶u的一階連接。因此可以將歷史物品的意圖感知信息整合起來,創建用戶u的表示形式:

X(k+1)u=fIG({(Xku,es,Xki)|(s,i)∈Nu})(4)

其中:X(k)u表示用戶u的k階表示;fIG(·)表示每個一階(u,s,i)的聚合函數。這里將fIG(·)實現為

其中:e(k)i是項目i的嵌入;⊙是元素積。對于特定的某一個用戶,不同的意圖會對其行為產生不同的激勵作用,因此本文引入一個注意力得分χ(u,s)來區分意圖s的重要性。

其中:X(k)u是用戶u的嵌入。通過元素積χ(u,s)es⊙e(k)i來構建項目i的信息,能夠明確地表達用戶k階意圖感知信息。在k層之后,可以得到用戶u在不同層的表示,將它們求和即為用戶u的最終表示。

Ziu=X(0)u+…+X(k)u(7)

2.3.2 協調視圖編碼

協調視圖注重于協調不同意圖路徑對用戶偏好的不同影響。由于一個實體可以出現在多個知識圖(KG)三元組中,它可以將其連接的實體視為其屬性,這些屬性反映了項目之間的內容相似性。具體來說,使用Ni={(r,v)|(i,r,v)∈G}來表示項目i的屬性和一階連通性,然后將關聯實體的關系感知信息進行聚合,得到項目i的表示為

X(k+1)i=fKG({(X(k)i,er,X(k)v)|(r,v)∈Ni})(8)

其中:X(k)i是k階連接中收集信息的表示;fKG(·)是用于提取和整合每個連接(i,r,v)信息的聚合函數。先前的研究僅通過注意機制模擬知識圖關系在衰減因子中的作用[26],本文考慮了聚合器的關系上下文,將聚合器的關系上下文建模為

其中:Nli是所有以i為起點的l跳路徑集合,在k層之后,可以得到項目i在不同層的表示,將它們求和即為項目i的最終表示。

Zci=X(0)i+…+X(k)i(11)

2.3.3 協同視圖編碼

協同視圖側重于項目之間的協同信息,即項目-用戶-項目的共現情況。通過對用戶-項目交互的遠程連接進行建模,可以在協同視圖中捕獲協同信息。在這里,借鑒了之前基于協同過濾(CF)的工作[2~4],采用了Light-GCN進行處理。Light-GCN以遞歸方式進行k次聚合,其中包含簡單的消息傳遞和聚合機制,無須進行特征轉換和非線性激活,從而實現了高效的計算。在第k層中,聚合過程可以被表述為

其中:X(k)u和X(k)i表示用戶u和項目i在第k層的嵌入;Nu和Ni分別表示用戶u和項目i的鄰居節點。將不同層上的表示相加為局部協同表示,如式(13)所示。

Zsu=X(0)u+…+X(k)u,Zsi=X(0)i+…+X(k)i(13)

對于相同實體的協同視圖,通過使用加權求和的方法,為每個協同視圖分配一個權重,然后將不同協同視圖的表示按照權重進行線性組合。這樣可以綜合考慮相同實體的協同視圖的貢獻,并生成最終的綜合表示。

2.3.4 局部跨視圖對比優化

利用協同和協調視圖,針對項目i的視圖特定嵌入Zsi和Zci,進行局部跨視圖對比學習,以監督兩個視圖學習具有區分性的表示。受文獻[28]的啟發,本文定義正樣本和負樣本如下:在一個視圖中,隨機節點與另一個視圖學習到的相應節點形成正對,而所有其他節點被視為負樣本。局部對比損失函數為

其中:s(·)表示余弦相似度計算;τ表示溫度參數。負樣本來自兩個來源,即視圖內和視圖間的節點,對應于式(14)分母中的第二、三項。同理可得,協同和意圖視圖的針對用戶u的視圖特定嵌入Zsu和Ziu,局部對比損失函數如式(15)所示。

將對比學習后的嵌入和損失相加,得到局部層次的用戶表示Zlocalu、項目表示Zlocali及局部對比總損失Llocal:

Zlu=Zsu+Ziu,Zli=Zsi+Zci,Llocal=Llocal_u+Llocal_i(16)

2.4 全局對比學習

在上述操作中,已經獲得了用戶和物品的部分信息特征,但是還沒有探索用戶-物品-實體之間的擴展鏈接信息,即整體圖結構。因此,采用了以下全局對比學習方法,其中使用了路徑感知編碼器來探索結構視圖。

2.4.1 結構視圖編碼

為了獲得全局視圖的編碼信息,本文采用了圖神經網絡,它可以在l層中聚合鄰居信息,并同時保留路徑信息。聚合公式的處理過程如式(17)所示。

其中:β(i,r,e)可表示為

β(i,r,e)=softmax((Xi‖Xr)T·(Xe‖Xr))(18)

然后將所有層的表示相加得到全局用戶表示Zgu和項目表示Zgi:

Zgu=X(0)u+…+X(L)u,Zgi=X(0)i+…+X(L)i(19)

2.4.2 全局跨視圖對比優化

采用與局部層面對比學習相同的正負采樣策略,全局視圖和局部視圖對比損失函數可表示為

用戶嵌入計算的對比損失Lglobalu/Llocalu與Lglobali/Llocali類似,只需在式(20)中將物品嵌入替換為用戶嵌入。因此,全局對比總損失如式(21)所示。

其中:N為項目數;M為用戶數。

2.5 模型預測

在四個視圖進行了多層聚合和多層跨視圖對比學習優化后,本文獲得了用戶u的多個表示(Zsu,Ziu,Zgu)和項目i的多個表示(Zsi,Zci,Zgi)。將這些表示進行求和及連接,得到最終用戶和物品表示,并通過內積預測它們的匹配分數,具體為

z*u=(zsu+ziu)‖zgu,

z*i=(zsi+zci)‖zgi,

(u,i)=z*uTz*i(22)

2.6 多任務訓練

為了結合推薦任務和自監督任務,采用多任務訓練策略來優化整個模型。本文使用成對的BPR損失函數[29]來重構歷史數據,該損失函數使得歷史交互物品的預測得分高于沒有交互的物品。BPR損失函數定義如式(23)所示。

其中:O={(u,i,j)|(u,i)∈O+,(u,j)∈O-}是由觀測到的交互O+和未觀測到的交互O-組成的訓練數據集;σ是sigmoid函數。將全局和局部對比損失與BPR損失相結合,最小化損失函數來學習模型參數:

LMCKL=LBPR+α(μLlocal+(1-μ)Lglobal)+βLINT+λ‖Θ‖22(24)

其中:Θ是模型參數集合;μ是確定局部和全局對比損失率的超參數;α、β和λ是控制對比損失率、獨立損失率和L2正則項的超參數。

3 實驗結果與分析

3.1 數據集和評價指標

在兩個公開的數據集上評估KRMVC和基線模型的性能。MovieLens-1M是一個電影推薦的基準數據集,包含約1百萬條明確評分,涵蓋了來自6 036名用戶對2 445個項目的評分。Yelp2018是Yelp網站2018年挑戰賽所采用的公開數據集,包含用戶查看過的餐廳、酒吧等商家記錄。表1顯示了這兩個數據集的統計信息。

將數據集以6∶2∶2的比率劃分成訓練集、驗證集和測試集。在兩個實驗場景中評估了本文的模型:a)在點擊率(CTR)預測方面,將訓練好的模型應用于預測測試集中的每個交互,采用了兩個廣泛使用的指標AUC和F1來評估CTR預測效果;b)在top-K推薦方面,使用訓練好的模型在測試集中為每個用戶選擇預測點擊概率最高的K個項目,選擇recall@K來評估推薦模型的效果。

3.2 對比方法和參數設置

本文選用了7個不同研究方法的基線與KRMVC進行比較。

a)BPRMF[29]:通過最大化后驗概率來學習,使得觀察到的物品得分高于未觀察到的物品。

b)CKE[30]:設計了三個組件,分別從結構、文本和視覺內容中提取物品的語義表示。

c)RippleNet[31]:通過自動且迭代地沿著知識圖中的鏈接擴展用戶潛在興趣,模擬用戶偏好在一組知識實體上的傳播。

d)KGAT[32]:通過遞歸地從節點的鄰居和高階連接中傳播嵌入,以端到端的方式明確模擬知識圖中的高階關系。

e)KGIN[24]:在GNN范式中考慮了用戶-物品關系,具有更細粒度的長期意圖和關系路徑語義。

f)MCCLK[33]:通過本地和全局層面上跨三個視圖進行對比學習,在自監督的方式下挖掘全面的圖形特征和結構信息。

g)MFCCL[34]:在全局和局部視圖采用了多種視圖增強方法,用多視圖融合跨層對比學習獲取更多的特征信息。

為了公平比較,將所有的基線方法參數設置為原始文獻最佳值。其中,用戶和項目的嵌入維度設為64,batchsize為2 048,模型優化器為Adam,使用Xavier初始化器初始化參數,學習率為10-3,溫度超參數τ為0.5,超參數λ為10-5。表2提供了其他超參數的最優設置。

3.3 實驗結果分析

多次實驗得到的CTR預測結果如表3所示,top-K推薦結果如圖2和3所示。對實驗數據進行分析得到以下結論:

a)本文模型在兩個數據集上表現都較好。具體而言,KRMVC模型在MovieLens和Yelp2018數據集上進行CTR預測任務,其中AUC評價指標相較于最先進的基線提升了1.1%與0.7%,F1指標分別提升了1.4%和1.0%。在top-K推薦任務中,recall@K指標在任何K值下都優于最先進的基線。以上的實驗數據充分驗證了本文模型的有效性。

b)與BPRMF、CKE和RippleNet相比,KRMVC在其架構中結合了Light-GCN和知識感知圖神經網絡。這種設計使本文模型能夠充分利用評分和評論文本中難以察覺的信息,使模型能夠理解用戶和物品之間的關系。通過這種方式,本文模型通常會產生優秀的用戶和物品表示,從而提高評分預測性能。

c)本文采用了對比學習方法來自監督KRMVC模型,它在性能上始終優于KGAT和KGIN。盡管GNN已經被集成到KGAT和KGIN中,并且已經取得了一定的進展,但它們仍然需要監督信號來增強自身的學習能力,并跟上基于對比學習模型的性能。

d)KRMVC模型引入了用戶意圖概念,并通過多層次視圖對比學習方法進行深入挖掘。它更準確地捕捉用戶的偏好和興趣,提供強大的用戶和物品表示。與MCCLK模型相比,KRMVC利用全局和局部視圖進行跨視圖對比學習,綜合考慮全局結構、局部協同關系和意圖探索。這使得KRMVC模型更全面地理解用戶與物品之間的關系,提供準確和有用的推薦結果。

e)MFCCL模型采用的增強方法可能會導致圖結構的改變或噪聲的引入,從而可能影響模型對用戶項目交互關系的準確建模。KRMVC模型在設計GNN信息聚合方案時專注于提取有用的用戶意圖信息,通過在全局和局部層次上跨四個視圖進行對比學習,KRMVC模型能夠更全面地理解用戶與物品之間的關系,提供更準確和有用的推薦結果。

3.3.1 消融實驗

為了驗證KRMVC各組件的性能和有效性,通過以下實驗進行對比。

a)V1:移除全局對比模塊,保留局部意圖、協調、協同視圖學習。

b)V2:移除局部對比模塊,保留全局結構視圖學習。

c)V3:在V2基礎上,加入意圖、協調視圖學習。

在兩個數據集上的消融實驗結果如表4所示。觀察表4數據可得,KRMVC性能優于V1與V2,驗證了局部和全局多視圖跨層對比學習對模型優化的積極作用。在數據集MovieLens中,V1性能優于V2,但在Yelp2018數據集中相反,這表明在大規模數據集中,學習局部各視圖之間的區分性信息更具優勢。此外,V3性能始終優于V2,而KRMVC性能始終優于V3,這證明了意圖、協調視圖的加入和協同視圖并不沖突,新的GNN信息聚合方案通過更精細地建模和關系路徑的利用,能夠捕捉用戶意圖的有用信息,并在實驗性能對比中展現出較高的性能和解釋性,這三個視圖的局部對比學習對算法起到了優化作用。

3.3.2 超參數敏感性分析

為了觀察模型在不同設置下的性能變化,本文通過系統地調整模型的超參數,以揭示超參數對于模型表現的影響,分析不同超參數對CTR預測任務中AUC指標的影響。

a)局部對比損失權重μ控制了局部對比損失在最終對比損失中的影響,本文在{0,0.2,0.4,0.6,0.8,1.0}內變化μ,實驗結果如表5所示。通過實驗分析,μ=0和1的情況下表現最差,證明了兩級對比損失的有效性,而μ=0.4在模型優化中平衡了局部和全局的對比損失。

b)對比損失權重α決定了在多任務訓練中對比損失的重要性。本文在{1,0.1,0.01,0.001}內變化α,實驗結果如表6所示??梢杂^察到,α=0.1帶來了最佳的模型性能,主要原因是將對比損失調整到與推薦任務損失相對平衡的水平可以提升模型性能。

c)為了分析意圖數量的影響,本文在{1,2,4,8}內變化|IS|,實驗結果如表7所示。增加意圖數量在大多數情況下提升了性能,意圖數量過多也會使一些意圖過于細粒度,無法攜帶有用信息,實驗表明數量為4最合適。

d)為了分析聚合深度對協調視圖的影響,考慮變化關系路徑聚合層數Kc。疊加更多層可以將更長距離的連接所攜帶的信息整合到節點表示中。本文在{1,2,3,4}內搜索Kc,并將結果總結在表8中。在大多數情況下,增加模型深度能夠提升預測結果。實驗表明聚合層數為3時性能最好。

3.4 實例分析

本節針對用戶意圖的語義進行實例分析,通過MovieLens一個例子展示模型的可解釋性。如圖4所示,可得以下觀察結果。

a)新GNN聚合方案通過各種知識圖關系引導出用戶的意圖及所有用戶的共同特點。其中,對于一個意圖,關系的權重反映了其影響用戶行為的重要性。比如第一個意圖s1的前兩個關系是影片-獎項和影片-時長,而第二個意圖s2被賦予最高得分的是影片-評分和影片-演員,很顯然學習到的意圖可以捕獲用戶選擇的共享原因。此外由于對意圖進行了獨立建模,意圖具有明確的邊界,所以能從不同及獨立的角度描述用戶行為。

b)有一些關系在多個意圖中都得到很高的權重得分,如影片-評分,這表明這個關系是與用戶行為相關的共同因素,將其與其他關系(如影片-演員)聯合起來,就可以把意圖s2歸納為某個演員主演的高評分影片。

c)新GNN聚合方案可以為每個用戶交互創建基于實例的解釋及用戶的個性化推薦。如圖3實例中的交互u213-i2451,由式(6),根據注意力得分搜索最具有影響力的意圖s2。這個意圖解釋了這個行為,用戶u213選擇影片i2451,是因為它符合用戶u213對某個演員主演的高評分影片的興趣。

4 結束語

本文基于知識圖譜的多視圖對比推薦算法框架KRMVC,KRMVC在用戶物品表示學習中考慮了全局級別的結構視圖、局部級別的意圖、協調和協同視圖四個視圖角度,通過多級跨視圖對比學習在四個視圖之間進行信息交互,同時探索特征和結構信息,并進一步學習具有區分性的表示。在關系建模方面,KRMVC框架揭示了用戶-物品關系的意圖粒度,展示可解釋的語義。同時,KRMVC利用關系路徑感知的聚合從多跳路徑中整合關系信息,以改進表示。通過引入多個視圖來深度挖掘用戶-項目偏好,視圖的劃分和設計有助于在不同層次上對用戶-項目偏好進行更全面的表達和分析。除了視圖層面的表現,本文還使用了對比學習方法,利用多任務策略對推薦監督任務和對比學習任務進行聯合優化。這可以更好地利用視圖中關于用戶-項目偏好的信息,提升推薦模型的性能。本文對KRMVC框架的有效性和可解釋性進行了深入分析,在兩個公開數據集上進行了大量實驗,實驗結果證明KRMVC比現有先進方法取得了更好的性能。此外,本文認識到目前的研究通常將基于知識圖譜的推薦框架作為一項監督任務,但這樣的監督信號過于稀疏,無法提供高質量的表示。因此,計劃在未來的工作中繼續探索自監督學習,并引入因果概念,以進一步提升KRMVC框架在知識感知推薦中的性能和解釋能力。

參考文獻:

[1]徐鵬宇,劉華鋒,劉冰,等.標簽推薦方法研究綜述[J].軟件學報,2022,33(4):1244-1266.(Xu Pengyu, Liu Huafeng, Liu Bing, et al. Survey of tag recommendation methods[J].Journal of Software,2022,33(4):1244-1266.)

[2]He Xiangnan, Liao Lizi, Zhang Hanwang, et al. Neural collaborative filtering [C]//Proc of the 26th International Conference on World Wide Web.Republic and Canton of Geneva,Switzerland:International World Wide Web Conferences Steering Committee,2017:173-182.

[3]Lian Jianxun, Zhou Xiaohuan, Zhang Fuzheng, et al. xDeepFM:combining explicit and implicit feature interactions for recommender systems[C]//Proc of the 24th ACM SIGKDD International Confe-rence on Knowledge Discovery & Data Mining.New York:ACM Press,2018:1754-1763.

[4]Liu Yong, Wei Wei, Sun Aixin, et al. Exploiting geographical neighborhood characteristics for location recommendation[C]//Proc of the 23rd ACM International Conference on Information and Knowledge Management.New York:ACM Press,2014:739-748.

[5]Chen Ting, Kornblith S, Norouzi M, et al. A simple framework for contrastive learning of visual representations[C]//Proc of the 37th International Conference on Machine Learning.[S.l.]:JMLR.org,2020:1597-1607.

[6]Chen Yu, Wu Lingfei, Zaki M. Iterative deep graph learning for graph neural networks:better and robust node embeddings[J].Advances in Neural Information Processing Systems,2020,33:19314-19326.

[7]Dwivedi V P, Joshi C K, Luu A T, et al. Benchmarking graph neural networks[EB/OL].(2022-12-28).https://arxiv.org/abs/2003.00982.

[8]Gao Bin, Liu Tieyan, Wei Wei, et al. Semi-supervised ranking on very large graphs with rich metadata[C]//Proc of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2011:96-104.

[9]Gao Jun, He Di, Tan Xu, et al. Representation degeneration problem in training natural language generation models[EB/OL].(2019-07-28).https://arxiv.org/abs/1907.12009.

[10]Bordes A, Usunier N, Garcia-Durán A, et al. Translating embeddings for modeling multi-relational data[C]//Proc of the 26th International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2013:2787-2795.

[11]Wang Zhen, Zhang Jianwen, Feng Jianlin, et al. Knowledge graph embedding by translating on hyperplanes[C]//Proc of the 28th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2014:1112-1119.

[12]Hu Binbin, Shi Chuan, Zhao W X, et al. Leveraging meta-path based context for top-n recommendation with a neural co-attention model[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2018:1531-1540.

[13]Shi Chuan, Hu Binbin, Zhao W X, et al. Heterogeneous information network embedding for recommendation[J].IEEE Trans on Know-ledge and Data Engineering,2018,31(2):357-370.

[14]Ying R, He Ruining, Chen Kaifeng, et al. Graph convolutional neural networks for Web-scale recommender systems[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2018:974-983.

[15]Wang Xiang, He Xiangnan, Wang Meng, et al. Neural graph collaborative filtering[C]//Proc of the 42nd International ACM SIGIR Confe-rence on Research and Development in Information Retrieval.New York:ACM Press,2019:165-174.

[16]Chen Lei, Wu Le, Hong Richang, et al. Revisiting graph based collaborative filtering:a linear residual graph convolutional network app-roach[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:27-34.

[17]He Xiangnan, Deng Kuan, Wang Xiang, et al. LightGCN:simplifying and powering graph convolution network for recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:639-648.

[18]Strub F, Mary J, Philippe P. Collaborative filtering with stacked denoising autoencoders and sparse inputs[C]//Proc of NIPS Workshop on Machine Learning for eCommerce.2015.

[19]Wu Zhirong, Xiong Yuanjun, Yu S X, et al. Unsupervised feature learning via non-parametric instance discrimination[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2018:3733-3742.

[20]He Kaiming, Fan Haoqi, Wu Yuxin, et al. Momentum contrast for unsupervised visual representation learning[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:9726-9735.

[21]Shuai Jie, Zhang Kun, Wu Le, et al. A review-aware graph contrastive learning framework for recommendation[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2022:1283-1293.

[22]Yu Junliang, Yin Hongzhi, Xia Xin, et al. Are graph augmentations necessary?Simple graph contrastive learning for recommendation[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2022:1294-1303.

[23]Tian Yonglong, Krishnan D, Isola P. Contrastive multiview coding[C]//Proc of the 16th European Conference on Computer Vision.Berlin:Springer,2020:776-794.

[24]Wang Xiang, Huang Tinglin, Wang Dingxian, et al. Learning intents behind interactions with knowledge graph for recommendation[C]//Proc of Web Conference.New York:ACM Press,2021:878-887.

[25]Cao Yixin, Wang Xiang, He Xiangnan, et al. Unifying knowledge graph learning and recommendation: towards a better understanding of user preferences[C]//Proc of World Wide Web Conference.New York:ACM Press,2019:151-161.

[26]Wang Hongwei, Zhang Fuzhen, Zhang Mengdi, et al. Knowledge-aware graph neural networks with label smoothness regularization for recommender systems[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2019:968-977.

[27]Sun Zhiqing, Deng Zhihong, Nie Jianyun, et al. Rotate: knowledge graph embedding by relational rotation in complex space[EB/OL].(2019-02-26).https://arxiv.org/abs/1902.10197.

[28]Zhu Yanqiao, Xu Yichen, Yu Feng, et al. Deep graph contrastive representation learning[EB/OL].(2020-07-13). https://arxiv.org/abs/2006.04131.

[29]Rendle S, Freudenthaler C, Gantner Z, et al. BPR: Bayesian personalized ranking from implicit feedback[EB/OL].(2012-05-09).https://arxiv.org/abs/1205.2618.

[30]Zhang Fuzheng, Yuan N J, Lian Defu, et al. Collaborative know-ledge base embedding for recommender systems[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2016:353-362.

[31]Wang Hongwei, Zhang Fuzheng, Wang Jialin, et al. RippleNet:propagating user preferences on the knowledge graph for recommender systems[C]//Proc of the 27th ACM International Conference on Information and Knowledge Management.New York:ACM Press,2018:417-426.

[32]Wang Xiang, He Xiangnan, Cao Yixin, et al. KGAT: knowledge graph attention network for recommendation[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2019:950-958.

[33]Zou Ding, Wei Wei, Mao Xianlin, et al. Multi-level cross-view con-trastive learning for knowledge-aware recommender system[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2022:1358-1368.

[34]顧嘉靜,楊丹,聶鐵錚,等.基于多視圖融合跨層對比學習的推薦算法[J/OL].計算機工程.(2023-04-04).https://doi.org/10.19678/j.issn.1000-3428.0066906.(Gu Jiajing, Yang Dan, Nie Tiezheng, et al. A recommendation algorithm based on multi-view fusion and cross-layer contrastive learning[J/OL].Computer Engineering.(2023-04-04).https://doi.org/10.19678/j.issn.1000-3428.0066906.)

主站蜘蛛池模板: 色综合成人| 日本三区视频| JIZZ亚洲国产| 色窝窝免费一区二区三区| 国产va欧美va在线观看| 这里只有精品国产| 啊嗯不日本网站| 国产剧情国内精品原创| 99国产精品一区二区| 91精品免费高清在线| 丰满的少妇人妻无码区| 熟女成人国产精品视频| 婷婷伊人五月| 99r在线精品视频在线播放 | 色播五月婷婷| 四虎精品国产AV二区| 国产在线观看精品| 久久综合AV免费观看| 久久中文字幕av不卡一区二区| 亚洲无码熟妇人妻AV在线| 国产在线视频欧美亚综合| 美女一级毛片无遮挡内谢| 久久国产亚洲欧美日韩精品| 本亚洲精品网站| 国产精品专区第一页在线观看| 国产精品久久久久久久久kt| 国产亚洲欧美另类一区二区| 91区国产福利在线观看午夜| 99热这里只有精品在线观看| 99视频在线精品免费观看6| 亚洲成人黄色在线| 亚洲第一区在线| 欧美精品H在线播放| 红杏AV在线无码| 青青草原国产精品啪啪视频| 国产性精品| 全午夜免费一级毛片| 尤物特级无码毛片免费| 色AV色 综合网站| 国产精品一区二区久久精品无码| 国产乱子伦精品视频| 亚洲成年人网| 欧美一区精品| 亚洲三级影院| 九色在线视频导航91| 亚洲天堂网2014| 在线播放91| 中国一级特黄视频| 99久久国产精品无码| 国产在线无码av完整版在线观看| 午夜三级在线| 国产日产欧美精品| 精品一区二区三区无码视频无码| 久久久久人妻一区精品| 国产欧美精品一区二区 | 亚洲女人在线| 久久狠狠色噜噜狠狠狠狠97视色| 欧美在线国产| 亚洲码一区二区三区| 久久人与动人物A级毛片| 亚洲资源在线视频| 中文字幕在线免费看| 国产爽妇精品| 亚洲A∨无码精品午夜在线观看| 国内精品自在欧美一区| 国产xx在线观看| 影音先锋丝袜制服| 国产精品亚洲欧美日韩久久| P尤物久久99国产综合精品| 日韩欧美国产中文| 人妖无码第一页| 99热这里只有免费国产精品| 在线观看无码av免费不卡网站| 亚洲男人在线| 欧美黄网在线| 国产亚洲精| 国产99热| 成人国产小视频| 亚洲国产欧美目韩成人综合| 成人在线综合| av天堂最新版在线| 亚洲婷婷丁香|