摘要:在推薦系統領域中,圖卷積網絡具有對于圖結構數據更強的信息抽取能力。然而,現有的圖卷積網絡推薦算法主要關注改進模型結構,忽視了提高原始樣本采樣質量與挖掘用戶—項目間隱式關系的重要性。針對上述問題,提出一種基于混合采樣的圖對比學習推薦算法。首先使用混合采樣方法,提取出正樣本中部分信息并將其注入負樣本,從而生成全新的富含信息的難負樣本;其次,通過輕量圖卷積網絡對難負樣本進行特征提取,得到用戶和項目的節點表征,采用鄰域對比學習方法挖掘樣本隱式關系;最后,利用多任務策略對推薦監督任務和對比學習任務進行聯合優化。在真實數據集Yelp2018和Amazon-book上進行實驗,采用recall和NDCG指標進行評估,實驗結果表明,提出的模型相較其他基準模型取得了更好的效果。
關鍵詞:圖卷積網絡;推薦系統;難負樣本;圖對比學習
中圖分類號:TP391文獻標志碼:A文章編號:1001-3695(2023)05-010-1346-06doi:10.19734/j.issn.1001-3695.2022.10.0533
0引言
隨著互聯網技術的飛速發展,信息呈爆發式增長,其中往往夾雜著大量冗余的無效信息,使得用戶難以快速準確地找到自己感興趣的內容。推薦系統是解決信息過載問題的有效方法之一,它的功能是根據用戶的興趣特點和歷史行為,向用戶推薦感興趣的信息[1]。傳統的推薦算法可以分為基于內容的推薦方法、基于協同過濾的推薦方法、混合推薦方法[2]。基于內容的推薦方法的理論依據主要來自于信息檢索和信息過濾,其核心思想是根據用戶過去的瀏覽記錄向用戶推薦用戶沒有接觸過的推薦項;基于協同過濾的推薦方法利用相似用戶之間具有相似興趣偏好的方法來發現用戶對項目的潛在偏好;混合推薦方法是指將多種推薦技術混合后,得到的一種全面且復雜的推薦系統。上述方法中,基于協同過濾的推薦方法僅需利用用戶的歷史評分數據便可推薦用戶可能感興趣的其他物品[3],因而簡單有效,是當前應用最廣泛的個性化推薦算法。但是相對于龐大的項目數量,用戶對項目的評分數據非常少,容易引發數據稀疏性問題,導致推薦系統的推薦質量下降。
傳統基于協同過濾的推薦系統一般使用矩陣分解(matrixfactorization)算法[4],將用戶和項目映射在同一個潛在空間中,并使用不同的潛在向量來描述用戶和項目,最終將用戶和物品的交互建模為兩者之間的內積操作。該算法存在可解釋性較差、訓練時間過長的問題。隨著深度學習的興起,推薦領域逐漸出現了利用神經網絡挖掘用戶—項目交互的方法[5]。例如,He等人[6]提出了一個采用多層感知器(MLP)來學習交互的通用框架NCF,該方法利用多層神經網絡替代了MF模型中的內積操作,但由于忽視了用戶和項目間的高階連接性,不能充分發揮推薦系統的性能[7]。
近年來,基于圖卷積網絡(graphconvolutionnetwork,GCN)的模型在推薦領域應用廣泛,融合協同過濾信息和GCN的推薦系統取得了非常好的效果[8]。GCN結構設計利用了圖的連通性,能夠聚合用戶鄰居節點信息,從而更為有效地學習用戶和項目表征[9]。鑒于GCN的特性,許多研究人員將其應用于推薦系統中。例如,Ying等人[10]將隨機游走算法和GCN結合構建節點表示,提出了PinSage;Wang等人[11]利用GCN的信息傳播特性提出了NGCF,該模型完全繼承了GCN中的特征變換、非線性激活等一系列傳播規則,對用戶—項目之間的高階連接性進行了顯式建模。盡管模型已經取得了較好的推薦效果,但是仍存在由數據稀疏導致的過度平滑問題,模型的效率偏低。針對上述問題,Chen等人[12]提出了LR-GCCF,利用殘差網絡結構緩解過度平滑問題,同時去除了GCN的非線性激活規則;在此基礎上,He等人[13]進一步簡化了圖卷積操作,提出了LightGCN,該模型僅保留了GCN中的鄰域聚合組件用于協同過濾,取得了輕量高效的效果。
基于GCN的推薦算法在推薦領域中取得了顯著的效果,然而此方法仍然存在著許多問題。首先是如何高效地從用戶—項目隱式反饋中負采樣,大多數模型直接從原始樣本中進行負采樣,這種方法往往只關注圖的離散空間,忽視了圖卷積網絡特有的鄰域集成結構;其次,現有模型普遍通過用戶和項目的顯式交互學習節點表示,不能很好地挖掘用戶與項目之間的隱式關系,受用戶—項目交互數據稀疏性的影響,現有模型的推薦性能仍受到限制。
針對以上問題,本文提出了一種基于混合采樣的圖對比學習推薦算法MSGCL(graphcontrastivelearningrecommendationalgorithmbasedonmixedsampling)。首先,該算法使用了插值混合技術,將正樣本的信息注入負樣本中,從而在連續空間中合成難負樣本;利用圖卷積網絡中的聚合操作將得到的難負樣本結合,得到富含信息的難負樣本用于模型的訓練。與常規采樣方法相比,本文算法生成的難負樣本蘊涵豐富的信息量,更有利于模型的訓練。在原有推薦監督任務的基礎上,MSGCL定義了新的對比學習框架,進一步挖掘用戶和項目鄰居的潛在關系,以降低數據稀疏對推薦效果的影響。
1基于混合采樣的圖對比學習推薦算法
1.1模型框架
MSGCL模型的框架如圖1所示。模型通過三個模塊實現:a)混合采樣,用于融合原始用戶—項目交互圖數據中的正樣本與負樣本,生成信息量更多的難負樣本;b)輕量圖卷積網絡,是實現推薦的主要方法,用于提取混合采樣方法所生成樣本的特征;c)鄰域對比學習,結合樣本節點自身與同質結構鄰居的對比學習框架,與輕量圖卷積網絡原有的監督任務聯合優化得到最終的推薦結果。
1.2混合采樣
推薦模型的學習目標是找出用戶更感興趣的項目,賦予其更高的預測分數,最終返回每個用戶一個有序排列的項目預測分數列表。項目在列表中排序越靠前,表示用戶對該項目的偏好越高。該列表的評估方式一般采取以下假設:相較于未被觀測到的項目,用戶更偏好于已經被觀測到的項目。這種方式將已觀測到的項目作為正樣本,在未被觀測到的項目中選取負樣本。由于未被觀測到的項目數量遠遠大于已觀測的項目,優化目標經常被簡化為貝葉斯個性化排序(Bayesianpersonalizedranking,BPR)損失[14],具體數學表示如下:
其中:i+與i-分別表示正樣本與負樣本;Pu(agt;b)表示用戶u相對于b偏好a;Θ是模型的參數;fs(u)是負采樣的分布,通常被設為均勻分布,即fs(u)=funiform(u)。
根據式(1)可知,負采樣方法是BPR損失的一個重要影響部分,對推薦模型的訓練極其重要。本文受到文獻[15]的啟發,研究應用了新的插值混合采樣方法。在連續空間中合成與正樣本相似的難負樣本,能夠幫助模型更好地區分正負樣本以提升推薦系統性能。該方法分為樣本生成與樣本聚合兩個步驟。
1.2.1樣本生成
在一個l層的GCN中,每個項目i有l+1個嵌入e(l)i,它們聚合了對應節點前l層的信息。為了得到負例i-的嵌入ei-,本文從所有負樣本中隨機選取M個負例,構成負樣本嵌入候選集ε={e(l)im}。之后使用mixup方法[16]將正樣本嵌入ei+的部分信息注入到候選負樣本嵌入中,最終生成難負樣本e′(l)im。對于一個l層的GCN,樣本生成步驟表示如下:
其中:α(l)是混合系數,用于控制所注入的正樣本信息量,其每層的值通過均勻采樣在(0,1)內隨機生成,均勻采樣能夠消除mixup方法對模型泛化能力的影響[17];e′(l)im是生成的新的難負樣本嵌入,它的集合表示為ε′={e′(l)im}。經過上述操作,生成了注入正樣本信息的難負樣本。由于該樣本與正樣本相似,模型更難區分決策邊界,識別能力得到了一定的提升。
1.2.2樣本聚合
對于生成的難負樣本集ε′,本文利用了GCN中的聚合過程對其中的嵌入e′(l)im進行合成,最終生成負例i-的嵌入ei-。在l層GCN中,各層生成的難負樣本集記做ε′(l)。首先,使用了一種用內積近似正樣本分布的難負樣本選擇策略[18]從ε′(l)中采樣出難負樣本嵌入。以l=2為例,采樣得到的難負樣本嵌入記做e′(0)ia、e′(1)ib、e′(2)ic。以上嵌入在GCN各層中隨機選取,因此a、b、c可以相同也可以不同。然后對上述嵌入進行合成,得到最終輸出的嵌入:
其中:e′(l)ix表示第l層采樣得到的難負樣本嵌入;fconcat(·)表示采用拼接的方式合成最終嵌入。
1.2.3損失優化
將上述采樣方法應用到BPR損失函數中,對本文模型參數進行優化,更新如下:
其中:σ為sigmoid函數;ο+表示訓練數據集中正樣本對的集合;ei-~fm(u,i+)表示負樣本嵌入由本文定義的混合采樣方法生成。
1.3輕量圖卷積網絡
1.3.1圖卷積網絡
圖卷積網絡是一種利用圖結構特性在圖上進行卷積操作的神經網絡,該模型通過聚合周圍節點的特征更新自身節點[19]。假設一個無向圖G=(V,E),其中V包含網絡中所有的N個節點,E是節點之間的邊(vi,vj)∈E。將每個節點的特征設為向量xi,它們共同組成一個特征向量矩陣X∈EuclidExtraaBpN×C,其中C為特征向量的維數。圖G中各節點間的關系通過引入其鄰接矩陣A∈EuclidExtraaBpN×N與其度矩陣D來表示,Dij=∑jAij。GCN通過獨特的信息傳播規則進行節點更新,具體公式定義為
其中:H為節點特征矩陣,l為GCN的層數且H0=X;σ為非線性激活函數;W為特征變換矩陣。
1.3.2輕量圖卷積
推薦系統中,用戶—項目交互數據具有天然的圖結構,可以建模為二分圖,如圖2所示。其中U是用戶節點u的集合,I是項目節點i的集合,圖中的邊表示用戶項目交互。
相關研究表明,圖卷積網絡中的非線性激活函數與特征變換矩陣對協同過濾模型的性能貢獻很小,因此本文采用最先進的LightGCN[13]算法提取用戶—項目圖結構數據中的特征。該算法去除了上述兩種規則,保留了圖卷積網絡中的鄰域聚合、信息傳播等方法用于推薦,具備更快的訓練時間和更少的資源需求。以圖2中的u2、i4為例,輕量圖卷積過程如圖3所示。
基于圖卷積網絡的協同過濾算法的核心思想是利用用戶—項目的高階連接性對圖結構的協作信號進行建模,需要對圖中單個節點的鄰居節點進行聚合操作以完成信息傳播。給定用戶u和項目i,它們各自的特征向量聚合過程如下:
其中:e(l)u、e(l)i分別表示用戶u和項目i在第l層GNN的嵌入;Nu表示與用戶u交互過的項目集合;Ni表示與項目i交互過的用戶集合。l層的圖卷積網絡經過上述聚合操作后,每個用戶/項目能夠從它們的高階鄰居中獲得信息。不同于用于節點分類的傳統GNN,輕量圖卷積去除了原有的自連接操作,采用池化操作對所有卷積層的特征進行組合。這種方式被認為能夠適當緩解過度平滑問題,且凸顯出特征節點的子圖信息在不同范圍內的重要性[20]。運用上述方法將每層得到的嵌入累加后,所生成用戶和項目的最終表示如下:
1.4鄰域對比學習
現有的基于GCN的協同過濾方法通過建模用戶—項目交互圖來捕獲用戶對項目的偏好。盡管該方法較為有效,但其推薦監督任務僅基于用戶—項目可觀察到的反饋,存在數據稀疏性問題[21]。針對該問題,參考文獻[22]提出的SGL,本文使用了鄰域對比學習方法進行優化,將每個用戶(或項目)與其同質結構鄰居進行對比,定義了新的任務補充原有推薦監督任務,以增強特征提取。
用戶與項目產生交互時更有可能選擇與自己較為相似的其他用戶所交互過的項目,這種趨勢可以建模為用戶—項目間的高階連接性。以u1為例,將所有與其相關的交互擴展成樹型結構,并根據到達u1的路徑長短將節點劃分成l階鄰居,如圖4所示。
u1和二階鄰居u2、u3都與i1產生過交互,可以說明三者因i1而具有相似性。依此類推,二分圖中的其他用戶(項目)節點,它們與自身的偶數階節點也具有相似性。由于GCN中的交互圖也是二分圖,基于GCN的模型在圖上進行偶數次信息傳播操作后,能夠自然聚合同質結構鄰居的信息,從而降低提取用戶(或項目)潛在鄰居的難度。通過上述方式,同質鄰域的表征信息能夠從模型的偶數層輸出獲得,并用于對用戶(或項目)與其結構鄰居的關系進行建模。將用戶自身嵌入與其偶數層同質鄰居的用戶嵌入作為正樣本,而其他用戶嵌入作為負樣本,為了最小化兩者間的距離,本文基于InfoNCE[23]損失函數定義了新的對比學習任務,用戶的對比損失計算方式如下:
1.5總體學習目標
為了幫助推薦模型更有效地對用戶與項目之間的交互進行建模,本文將上述提及的對比學習損失作為補充,并利用多任務學習策略將其與經過混合采樣方法改進后的BPR損失相結合,得到的模型整體損失函數如下:
其中:λ1、λ2分別是控制對比學習與正則化項權重的超參數;Θ是模型參數的集合。
2實驗結果與分析
2.1實驗環境
為了驗證本文算法性能,采用PyTorch機器學習框架,在Windows1064位操作系統,PyCharm2020,IntelCoreTMi7-6700HQCPU@2.60GHz,NVIDIAGeForceGTX1060@6GB,16GB內存,Python3.6的環境下進行實驗。
2.2數據集和評價指標
本文采用兩個公開數據集Yelp2018、Amazon-book進行實驗。Yelp2018是Yelp網站2018年挑戰賽所采用的公開數據集,包含用戶查看過的餐廳、酒吧等商家記錄;Amazon-book為用戶在亞馬遜平臺的書籍消費記錄。表1顯示了這兩個數據集的統計信息。
本文基于top-K推薦方法,采用推薦系統任務中常用的召回率recall和歸一化折損累計增益(normalizeddiscountedcumulativegain,NDCG)作為性能評價指標。根據推薦系統領域的常見設置習慣,將K設為20。
recall表示推薦模型成功預測的樣本在正樣本中所占的比例,recall的值越大,推薦性能越好。其定義如下:
其中:u為用戶;R(u)為模型預測出的需要推薦的項目的集合;T(u)為真實的測試集中被推薦的集合。求得每個用戶的recall值后,將其求和平均便可得到整個數據集上的recall值。
NDCG用來評價推薦結果的準確性,與用戶關系更密切的物品在列表中位置更靠前,NDCG值越大,推薦性能越好。
其中:reln表示處于位置n的推薦項目的相關性;K表示最有可能向用戶推薦的前K個項目;|REL|表示相關度最高的前K個項目的集合。
2.3對比方法與參數設置
為了綜合評估MSGCL的性能,本文采用幾種較為先進的模型作為對比方法:
a)BPRMF[14],一種采用矩陣分解進行優化的經典協同過濾算法;
b)NGCF[11],一種基于圖卷積網絡的協同過濾方法,通過評分矩陣構建用戶—項目交互圖,以此來提取用戶和項目間的高階信號;
c)LR-GCCF[12],一種基于殘差圖卷積網絡的協同過濾推薦模型,去除了圖卷積網絡中的非線性操作;
d)LightGCN[13],一種簡單而高效的推薦算法,在NGCF基礎上去掉了特征變換和非線性操作,保留了圖卷積網絡中的鄰域聚合和線性傳播用于推薦;
e)DGCF[24],一種解耦用戶和項目表示,多方面反映用戶意圖的圖協同過濾模型;
f)MSGCL,本文提出的基于混合采樣的圖對比學習推薦模型。
本文所有對比算法均采用其對應文獻中給出的最佳參數。其中,用戶和項目嵌入的維度設置為64,batchsize為2048,推薦模型的優化器為Adam[25],使用Xavier[26]初始化參數,學習率為10-3,超參數λ1=10-7、λ2=10-4、α=1。本文在2.4.3節對混合采樣與鄰域對比學習部分的兩個重要參數——候選集大小M與溫度超參數τ進行了敏感度分析,以搜尋最佳參數。經過對比實驗后,最終將M設置為32,τ設置為0.05。
2.4實驗結果分析
2.4.1模型推薦效果
本文提出的MSGCL與其他經典協同過濾推薦算法在兩個真實數據集上的實驗結果如表2和圖5所示,其中Improv.代表本文算法相較于現有最優基線算法在各項指標上的提升比例。
觀察實驗結果可以發現,基于圖卷積網絡的推薦算法遠優于傳統的不使用圖卷積網絡的算法,這充分表明了圖卷積網絡在提升推薦系統性能方面的優越性。其中,NGCF直接利用了圖卷積網絡的原始結構對用戶—項目的高階連接性進行建模,相比使用矩陣分解的BPRMF大大提升了推薦性能;LR-GCCF參考ResNet[27]引入了殘差結構,以解決加深圖卷積網絡層數而導致的性能下降問題,同時簡化了部分參數,性能略優于NGCF;但其存在局限性,部分數據集并不適合過深的圖卷積網絡。LightGCN在NGCF基礎上去除了非線性激活函數與特征變換矩陣操作,取得的結果優于NGCF;DGCF在現有圖卷積網絡基礎上挖掘了用戶意圖,在基線模型中表現最優。
本文提出的MSGCL模型對比各基準算法在recall@20和NDCG@20指標上均取得了最好的效果。在兩個數據集上,MSGCL較基準模型中表現最好的模型(DGCF)在recall@20指標上分別提升了5.1%、14.2%,在NDCG@20指標上分別提升了4.5%、17.6%。這主要取決于以下幾個方面:a)MSGCL使用了混合采樣方法,可以從隱式反饋中采取更高質量的樣本用于模型訓練;b)本文模型通過LightGCN算法提取出用戶—項目的特征嵌入,去除了原始圖卷積網絡中對推薦任務較為冗余的非線性激活與特征變換,更為輕量高效;c)MSGCL還挖掘了用戶—項目結構鄰居的潛在關系作為輔助信息,可以更為合理地向用戶推薦其感興趣的物品。
2.4.2消融實驗
為了分析MSGCL中各組件的性能,驗證混合采樣和鄰域對比學習對改進推薦性能的有效性,通過以下實驗進行對比:a)V1,不改變采樣方法,運用輕量圖卷積網絡提取用戶—項目特征;b)V2,在V1基礎上,僅將原始采樣方法替換為混合采樣方法;c)V3,在V1基礎上,僅增加鄰域對比學習輔助任務,并利用多任務策略聯合訓練。
在兩個數據集Yelp2018和Amazon-book上的消融實驗結果如表3所示。由表3可得,MSGCL的性能優于V2和V3,這證明了混合采樣和鄰域對比學習兩者并不沖突,它們的融合對算法起到了優化作用。以Yelp2018數據集為例,V2較MSGCL在recall@20指標上降低了1.0%,在NDCG@20指標上降低了0.9%;V3較MSGCL在recall@20指標上降低了1.2%,在NDCG@20指標上降低了1.4%。這表明了結合兩種方法的必要性,刪除兩者之一都會導致模型性能下降。
此外,V2、V3推薦性能均優于V1,表明混合采樣和鄰域對比學習均為改進圖推薦模型的有效手段,進一步證明了改進采樣質量和挖掘用戶—項目潛在關系對圖推薦系統的重要性。
2.4.3超參數敏感性分析
在MSGCL中,候選集大小M和溫度超參數τ為兩個重要參數。為了確定算法中這兩個參數的最優值,采取的策略是固定其中一個參數尋找另一個的最優值,找到最優值后固定該值,以尋找下一個參數的最優值。其中,M可能的取值為16、32、64;τ可能的取值為005、0075、01、0125、015。在Yelp2018數據集上分析M和τ的敏感性,實驗結果如表4、5所示。
由表4、5可以看出,M和τ的取值對推薦系統性能具有一定影響。候選集大小M決定了每次進行混合采樣時所生成的難負樣本集合大小。一般情況下,增加M值能夠提升推薦性能,而M值過大時,會導致難負樣本在所有樣本中占比過大,推薦性能下降。溫度超參數τ決定了對比學習任務對難以區分的負樣本的關注程度。τ越大,關注度越小;τ越小,關注度越大[28]。當溫度超參數τ采用合適的值時,負樣本會獲得更大的梯度,從而與正樣本分離。在投影空間中,小的τ值能夠使模型關注距離正樣本更近的負樣本。當M=32、τ=005時,recall@20和NDCG@20指標均取得了最好效果。
2.4.4實例分析
為了進一步觀察和說明MSGCL在實際推薦效果上的結果差異,本文挑選出了MSGCL和LightGCN在Yelp2018數據集上對某一用戶的個性化推薦結果,將其作為樣本案例進行對比。
在實驗中,將Yelp2018數據集劃分成訓練集和測試集。表6是該用戶在訓練集中的樣本實例,其中,交互過的項目ID代表與該用戶產生過交互的項目ID;地點和商戶類型代表項目ID的實際含義,即該用戶查看過某一地點的某商戶。表7是該用戶在測試集中的樣本實例。
經過實驗后發現,本文提出的MSGCL對測試集中ID為771、2740的項目進行了成功推薦,而LightGCN僅對ID為2740的項目進行了成功推薦。當用戶與項目的交互記錄過少,會產生數據稀疏性問題,造成推薦效果下降。本文提出的MSGCL相較LightGCN對該問題進行了一定的緩解,驗證了本文模型具有更好的推薦效果。
3結束語
本文提出了一種基于混合采樣的圖對比學習推薦算法(MSGCL),使用混合采樣方法替代直接從原始樣本負采樣的方法,生成注入正樣本信息的難負樣本,成功改進了采樣質量,優化推薦模型訓練。定義的鄰域對比學習任務框架,能夠有效挖掘用戶(項目)間的潛在聯系。在兩個數據集上的結果表明,相較于當前先進的基線模型,MSGCL的性能表現占優。
在未來的工作中,可以考慮向模型中加入更多輔助信息來改善推薦性能,如知識圖譜、用戶偏好等。此外,可以考慮使用異構網絡來挖掘用戶—用戶、項目—項目此類自身的聯系,構建更為復雜有效的推薦框架。
參考文獻:
[1]徐鵬宇,劉華鋒,劉冰,等.標簽推薦方法研究綜述[J].軟件學報,2022,33(4):1244-1266.(XuPengyu,LiuHuafeng,LiuBing,etal.Surveyoftagrecommendationmethods[J].JournalofSoftware,2022,33(4):1244-1266.)
[2]BalabanovicM,ShohamY.Fab:content-based,collaborativerecommendation[J].CommunicationoftheACM,1997,40(3):66-72.
[3]AdomaviciusG,TuzhilinA.Towardthenextgenerationofrecommendersystems:asurveyofthestate-of-the-artandpossibleextensions[J].IEEETransonKnowledgeandDataEngineering,2005,17(6):734-749.
[4]KorenY,BellR,VolinskyC.Matrixfactorizationtechniquesforre-commendersystems[J].Computer,2009,42(8):30-37.
[5]湯佳欣,陳陽,周孟瑩,等.深度學習方法在興趣點推薦中的應用研究綜述[J].計算機工程,2022,48(1):12-23,42.(TangJia-xin,ChenYang,ZhouMengying,etal.AsurveyofstudiesondeeplearningapplicationsinPOIrecommendation[J].ComputerEngineering,2022,48(1):12-23,42.)
[6]HeXiangnan,LiaoLizi,ZhangHanwang,etal.Neuralcollaborativefiltering[C]//Procofthe26thInternationalConferenceonWorldWideWeb.NewYork:ACMPress,2017:173-182.
[7]鄧凱,黃佳進,秦進.基于物品的統一推薦模型[J].計算機應用,2020,40(2):530-534.(DengKai,HuangJiajin,QinJin.Item-basedunifiedrecommendationmodel[J].JournalofComputerApplications,2020,40(2):530-534.)
[8]付峻宇,朱小棟,陳晨.基于圖卷積的雙通道協同過濾推薦算法[J].計算機應用研究,2023,40(1):129-135.(FuJunyu,ZhuXiaodong,ChenChen.Two-channelcollaborativefilteringrecommendationalgorithmbasedongraphconvolution[J].ApplicationResearchofComputers,2023,40(1):129-135.)
[9]夏鴻斌,陸煒,劉淵.基于異構鄰域聚合的協同過濾推薦算法[J].模式識別與人工智能,2021,34(8):712-722.(XiaHongbin,LuWei,LiuYuan.Collaborativefilteringwithheterogeneousneighborhoodaggregation[J].PatternRecognitionandArtificialIntelligence,2021,34(8):712-722.)
[10]YingR,HeRuining,ChenKaifeng,etal.GraphconvolutionalneuralnetworksforWeb-scalerecommendersystems[C]//Procofthe24thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryamp;DataMining.NewYork:ACMPress,2018:974-983.
[11]WangXiang,HeXiangnan,WangMeng,etal.Neuralgraphcollaborativefiltering[C]//Procofthe42ndInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2019:165-174.
[12]ChenLei,WuLe,HongRichang,etal.Revisitinggraphbasedcollabo-rativefiltering:alinearresidualgraphconvolutionalnetworkapproach[C]//ProcofAAAIConferenceonArtificialIntelligence.2020:27-34.
[13]HeXiangnan,DengKuan,WangXiang,etal.LightGCN:simplifyingandpoweringgraphconvolutionnetworkforrecommendation[C]//Procofthe43rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2020:639-648.
[14]RendleS,FreudenthalerC,GantnerZ,etal.BPR:Bayesianpersona-lizedrankingfromimplicitfeedback[C]//Procofthe25thConfe-renceonUncertaintyinArtificialIntelligence.Arlington,VA:AUAIPress,2009:452-461.
[15]HuangTinglin,DongYuxiao,DingMingng,etal.MixGCF:animprovedtrainingmethodforgraphneuralnetwork-basedrecommendersystems[C]//Procofthe27thACMSIGKDDConferenceonKnow-ledgeDiscoveryamp;DataMining.NewYork:ACMPress,2021:665-674.
[16]KalantidisY,SariyildizMB,PionN,etal.Hardnegativemixingforcontrastivelearning[EB/OL].(2020-12-04).https://arxiv.org/pdf/2010.01028v2.pdf.
[17]YuHao,WangHuanyu,WuJianxin.Mixupwithouthesitation[C]//Procofthe11thInternationalConferenceonImageandGraphics.Cham:Springer,2021:143-154.
[18]ZhangWeinan,ChenTianqi,WangJun,etal.Optimizingtop-ncolla-borativefilteringviadynamicnegativeitemsampling[C]//Procofthe36thInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2013:785-788.
[19]徐冰冰,岑科廷,黃俊杰,等.圖卷積神經網絡綜述[J].計算機學報,2020,43(5):755-780.(XuBingbing,CengKeting,HuangJunjie,etal.Asurveyongraphconvolutionalneuralnetwork[J].ChineseJournalofComputers,2020,43(5):755-780.)
[20]XuKeyulu,LiChengtao,TianYonglong,etal.Representationlearningongraphswithjumpingknowledgenetworks[C]//Procofthe35thInternationalConferenceonMachineLearning.2018:5453-5462.
[21]LinZihan,TianChangxin,HouYupeng,etal.Improvinggraphcollabo-rativefilteringwithneighborhood-enrichedcontrastivelearning[C]//ProcofACMWebConference.NewYork:ACMPress,2022:2320-2329.
[22]WuJiancan,WangXiang,FengFuli,etal.Self-supervisedgraphlearningforrecommendation[C]//Procofthe44thInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2021:726-735.
[23]VandenOordA,LiYazhe,VinyalsO.Representationlearningwithcontrastivepredictivecoding[EB/OL].(2019-01-22).https://arxiv.org/pdf/1807.03748.pdf
[24]WangXiang,JinHongye,ZhangAn,etal.Disentangledgraphcollabo-rativefiltering[C]//Procofthe43rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2020:1001-1010.
[25]KingmaDP,BaJ.Adam:amethodforstochasticoptimization[EB/OL].(2017-01-30).https://arxiv.org/pdf/1412.6980.pdf.
[26]GlorotX,BengioY.Understandingthedifficultyoftrainingdeepfeedforwardneuralnetworks[C]//Procofthe13thInternationalConferenceonArtificialIntelligenceandStatistics.2010:249-256.
[27]HeKaiming,ZhangXiangyu,RenShaoqing,etal.Deepresiduallearningforimagerecognition[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.WashingtonDC:IEEEComputerSociety,2016:770-778.
[28]WangFeng,LiuHuaping.Understandingthebehaviourofcontrastiveloss[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2021:2495-2504.