盧澤倫 古萬榮 毛宜軍 陳梓明1



摘 要:推薦系統(tǒng)中用戶的評分往往會受到評分上下文的影響,即用戶先前對一些物品的評分會影響其對當前物品評分的客觀性。稀疏線性方法在計算物品相似度時將受到上下文影響的用戶評分與其他評分同等看待,然而該部分評分并不能客觀地反映出物品之間的相似度。針對以上問題,在稀疏線性方法的基礎上提出了融合評分上下文和物品相似度的推薦算法,算法分為三個階段:第一個階段使用加權評分計算物品最近鄰進行特征選擇;第二個階段利用評分誤差權重減少算法模型對受到上下文影響的評分的擬合,訓練得出物品相似度矩陣;第三個階段根據用戶評分和物品相似度進行評分預測以完成物品推薦。在MovieLens的四個數據集上進行實驗,采用平均準確率(MAP)、平均倒數排名(MRR)和歸一化折損累計增益(NDCG)指標來評估算法效果。實驗結果表明,融合評分上下文將進一步提高物品相似度的準確性,從而提高推薦的性能。
關鍵詞:顯式反饋; 推薦系統(tǒng); 評分上下文; 物品相似度; 稀疏線性方法
中圖分類號:TP391 文獻標志碼:A 文章編號:1001-3695(2023)10-024-3040-07
doi:10.19734/j.issn.1001-3695.2023.02.0057
Recommendation algorithm with rating context and item similarity
Lu Zelun1, Gu Wanrong1, 2, Mao Yijun1, Chen Ziming1
(1. College of Mathematics & Informatics, South China Agricultural University, Guangzhou 510642, China; 2. Guangzhou Key Laboratory of Intelligent Agriculture, Guangzhou 510642, China)
Abstract:In the recommendation system, the users ratings are often affected by the rating context, that is, the users previous ratings of some items will affect the objectivity of his rating of the current item. Sparse linear method treats user ratings affected by context as the same as other ratings when calculating item similarity. However, this partial ratings cannot objectively reflect the similarity between items. To solve the above problems, this paper proposed a recommendation algorithm combining rating context and item similarity based on sparse linear method. It divided the algorithm into three stages.The first stage used weighted ratings to calculate the items nearest neighbor for feature selection.In the second stage,it used the rating error weight to reduce the fitting of the ratings affected by the context of the algorithm model, and trained the item similarity matrix. In the third stage,it predicted the ratings according to the users ratings and the item similarity, and finally sorted the predicted ratings to complete the item recommendation. Experiments were conducted on four datasets of MovieLens, it used mean average precision (MAP) , mean reciprocal rank (MRR) and normalized discounted cumulative gain (NDCG) to evaluate the effectiveness of the algorithm. The experimental results show that the fusion rating context will further improve the accuracy of item similarity and thus improve the performance of recommendation.
Key words:explicit feedback; recommendation system; rating context; item similarity; sparse linear method
0 引言
隨著互聯(lián)網的高速發(fā)展和數據信息的爆炸式增長,人們面臨著嚴重的信息過載問題,推薦系統(tǒng)作為解決信息過載問題的主要技術之一,可根據用戶的歷史數據將物品準確地推薦給用戶,同時獲取用戶對物品的評分,進一步分析出用戶的偏好以進行更好的推薦[1~3]。用戶的歷史數據常分為隱式數據和顯式數據,隱式數據包括用戶對物品的點擊等[4, 5],顯式數據包括用戶對物品的評分等[6, 7]。然而在顯式數據中,用戶對物品的評分往往不完全代表用戶的實際偏好或者物品的質量,該評分還受到其他因素的影響[8]。在很多情況下,用戶先前對其他物品的評分情況會影響其對當前物品的評分,如在觀看電影的場景中,當用戶先前觀看的電影的質量很低且用戶對該電影的評分也很低,那么用戶很有可能會給當前觀看的電影評一個高分,即使當前電影的質量一般,這種情況稱為用戶的評分受到評分上下文的影響。例如,用戶A對劇情電影A的評分原本只能打到3分,然而因為用戶A在觀看劇情電影A之前看了一部十分差勁的劇情電影B,導致其在兩部電影間作出對比之下給劇情電影A打了5分的高分。在包括稀疏線性方法(sparse linear method,fsSLIM)[9]等使用物品相似度進行推薦的推薦算法中,計算物品相似度?;谟脩魧ξ锲返脑u分,且將用戶的所有評分同等對待[10~12],忽略了受到上下文影響的用戶主觀評分并不能客觀地反映出物品之間的相似度這一問題,即物品之間的相似度不應受到用戶評分先后順序的影響。針對上述問題,本文在稀疏線性方法的基礎上提出一種利用時間信息來融合評分上下文和物品相似度的推薦算法(fsSLIM with rating context,RCfsSLIM)。首先,利用時間信息對用戶評分進行加權處理,使用加權處理后的評分計算并選擇出物品最近鄰;然后,在基于物品最近鄰的基礎上,使用評分誤差權重減少算法模型對受到上下文影響的評分的擬合,訓練得出物品相似度矩陣,再通過結合用戶評分矩陣和物品相似度矩陣計算得到預測評分,最終完成物品的推薦;最后,本文在四個標準數據集上進行了實驗比較,結果表明融合評分上下文將進一步提高物品相似度的準確性,從而提高推薦的性能。
1 相關工作
本文提出的基于物品相似度的推薦算法利用時間信息將評分上下文融入其中,與之相關的工作包括用戶評分上下文的影響、融合時間信息的推薦算法、基于物品相似度的推薦算法三方面。
1.1 用戶評分上下文的影響
Lu等人[8]統(tǒng)計用戶閱讀新聞的數據發(fā)現,用戶的評分經常發(fā)生變化,且這些變化與用戶交互的上下文高度相關。其將數據分為閱讀前、閱讀后和任務后。前兩個階段是在用戶瀏覽有順序的新聞列表上下文中收集的,這可能會受到新聞在列表中的位置、周圍新聞和以前閱讀的新聞的影響。為了消除這些影響,任務后階段在用戶完成新聞閱讀后,將所有新聞重新顯示給用戶,然后再一次要求用戶提供對每個新聞的實際評分,文獻[8]認為此階段中新聞在列表中的位置和上下文的影響都被消除了,并以此當做用戶對每個新聞的實際評分。將收集的數據經過T檢驗后分析發(fā)現,用戶對前一個點擊的新聞的評分會影響當前閱讀新聞的用戶體驗,當用戶先前閱讀不喜歡的新聞時,其在閱讀后階段中對當前閱讀的新聞的評分會高于實際評分。分析數據表明,用戶交互上下文將影響用戶對當前閱讀的新聞的即時評分,這可能與用戶的實際評分不一致。因此本文利用時間信息體現出評分的上下文關系,將同一用戶的評分按時間順序排序后,對受到評分上下文影響的評分進行加權處理以改變其對算法模型的影響。
1.2 融合時間信息的推薦算法
傳統(tǒng)的推薦系統(tǒng)傾向于利用用戶對物品的所有評分來學習用戶的長期偏好,在這種情況下用戶的全部評分是同等重要的。然而用戶對物品的選擇往往受其最近的短期偏好以及最近瀏覽或購買物品等時間相關的上下文場景所影響[11,13]。針對上述問題,研究人員將時間信息融合進推薦算法中[14],近年來,基于序列和基于會話的推薦系統(tǒng)悄然興起,其中一項重要的工作是處理物品中如時間、用戶等上下文信息。Tang等人[15]認為用戶最近的偏好對其當前如何選擇物品會造成更大的影響,于是通過卷積神經網絡對用戶短期序列的信息進行提取。Kang等人[16]和Sun等人[17]使用自注意力機制對用戶最近的若干個歷史行為進行信息提取,以此將時間信息融合進推薦算法中。這些算法都表明融合了時間信息的推薦模型能有效地獲得更好的推薦結果,也從另一角度表明融合時間信息有助于模型構建用戶偏好或物品屬性。因此,本文利用時間信息將評分上下文融合到推薦算法中,以獲得更好的推薦效果。
1.3 基于物品相似度的推薦算法
推薦系統(tǒng)主要分為基于內容的推薦、基于協(xié)同過濾的推薦和混合推薦[18,19]三大類。結合用戶評分和物品相似度進行推薦是基于協(xié)同過濾的推薦中常用的一種技術[11,20]。Kabbur等人[21]通過用戶評分訓練出兩個低維的隱因子矩陣,同時將兩個隱因子矩陣乘積得到的高維矩陣視為物品的相似度矩陣。Lin等人[22]將自注意力機制融合到算法中以獲得更加準確的物品相似度。Ning等人[9]提出了fsSLIM模型,該模型可通過基于鄰域的方法提前計算出物品的相似物品進行特征選擇。對于某一物品,模型只使用其相似物品對其進行學習,而不需要考慮其他所有物品,其目的是為了減小模型的訓練時間。在特征選擇步驟中,常用皮爾森系數度量相似度,物品u和v的皮爾森相似度計算方法如下:
其中:Ri,u和Ri,v分別表示用戶i對物品u的評分和用戶i對物品v的評分;Ru和Rv分別表示物品u所有評分的平均分和物品v所有評分的平均分;Iuv表示對物品u和v都有評分的用戶。接著fsSLIM模型可使用評分矩陣結合特征選擇訓練出物品的相似度矩陣,其目標函數如下:
其中:Rj是評分矩陣R的第j列;Wj是物品相似度矩陣W的第j列。最后fsSLIM模型使用用戶評分和物品相似度進行評分預測以進行物品推薦。然而,無論是在特征選擇階段還是模型訓練階段,fsSLIM模型都忽略了用戶的評分上下文對部分評分的影響,降低了訓練得到的物品相似度矩陣的準確性和推薦效果。因此,本文在fsSLIM模型的基礎上利用時間信息對用戶評分進行加權處理,將受到上下文影響的評分與其他評分進行區(qū)分,并在特征選擇階段使用加權評分更加準確地計算出物品最近鄰。同時在模型訓練階段根據評分的權重情況減少算法模型對受到上下文影響的評分的擬合,以此將評分上下文融入其中,從而提高推薦的性能。
2 融合評分上下文和物品相似度的推薦算法
本文所提出的RCfsSLIM算法框架如圖1所示,主要分為三個階段:在第一個階段即特征選擇階段中,使用加權評分計算物品最近鄰進行特征選擇以減少算法模型訓練時間;在第二個階段即模型訓練階段中,使用評分誤差權重減少算法模型對受到上下文影響的評分的擬合,以減少該評分對物品相似度的影響,訓練得出物品相似度矩陣;在第三個階段即評分預測與物品推薦階段中,通過用戶評分矩陣和物品相似度矩陣完成評分預測,最終將預測的評分進行排序后形成推薦的物品列表。
2.1 符號定義
在提出本文模型之前,先對本文主要使用到的三個矩陣進行說明:
矩陣R為用戶—物品評分矩陣,即用戶的評分矩陣。評分矩陣的每一行代表一個用戶,每一列代表一個物品。評分矩陣第u行第i列的值Rui表示用戶u對物品i的評分。
矩陣A是評分權重矩陣,大小與評分矩陣R相同。在評分權重矩陣A中,每一個位置上不為0的值Aui是對應評分矩陣R中評分Rui的權值,權值大小經過以下處理:a)對同一用戶的評分按時間先后進行排序,若前一個評分等于最高評分,則當前評分權值大于1;b)對同一用戶的評分按時間先后進行排序,若前一個評分等于最低評分,則當前評分權值小于1;c)其他情況下評分權值等于1。其中,加權評分不應高于原始評分的更高一級評分且不應低于原始評分的更低一級評分,如用戶評分為4分(評分區(qū)間為1~5分,評分間隔為1分),則加權評分不超過5分且不低于3分。
矩陣W為物品相似度矩陣,其行數與列數都和物品數量相等,通過學習用戶—物品評分矩陣得出。矩陣W的每一行或是每一列都代表一種物品,且W的每一列可視為此物品和此列對應物品的相似度。相似度矩陣第u行第i列的值Wui表示第u個和第i個物品的相似度。
2.2 RCfsSLIM的模型
RCfsSLIM模型計算用戶i對未評分物品j的預測評分公式如下:
排序由式(18)得到的預測評分,即可獲得向用戶推薦的物品列表。RCfsSLIM模型的算法描述如下:
輸入:用戶的評分數據,每一評分數據包括用戶ID、物品ID、評分值和時間戳。
輸出:用戶的物品推薦列表。
a)使用每一評分數據的時間戳信息計算出該評分的評分權重值。同時將每一評分數據的評分值和評分權重值相乘,得出加權評分。
b)根據式(8)使用加權評分計算出物品之間的相似度,得到物品的最近鄰。
c)初始化物品相似度矩陣,根據式(16)使用物品的最近鄰、評分值和評分權重,通過坐標下降法更新物品相似度矩陣。
d)物品相似度矩陣更新完成后利用式(18)計算得出評分預測矩陣。
e)對預測的評分進行排序,取預測評分高的多個物品作為物品推薦列表。
3 實驗結果與分析
3.1 數據集
實驗采用MovieLens的四個數據集,分別是ml-100k、ml-latest-small(ml-ls)、Hetrec2011-movielens-2k(ml-10m2k)和ml-1m。其中,Hetrec2011-movielens-2k數據集將MovieLens數據集的電影與其在IMDb和爛番茄中的相應網頁鏈接起來,是Movie-Lens10M數據集的擴展。數據集的具體信息如表1所示。
3.2 評價指標
實驗采用top-N推薦評價指標來評估推薦算法的性能,其中包括平均準確率(mean average precision,MAP)、平均倒數排名(mean reciprocal rank,MRR)和歸一化折損累計增益(normalized discounted cumulative gain,NDCG)。
3.3 實驗結果與分析
本文實驗在四個數據集上都隨機抽取了70%的訓練數據和30%的測試數據。由于數據集ml-ls和ml-10m2k的評分間隔為0.5分,數據集ml-100k和ml-1m的評分間隔為1分,所以這四個數據集的評分權值進行如下設置:a)對同一用戶的評分按時間先后進行排序,若前一個評分等于最高評分,則在數據集ml-ls和ml-10m2k中,當前評分的權值設為1.1,在數據集ml-100k和ml-1m中,當前評分的權值設為1.2;b)對同一用戶的評分按時間先后進行排序,若前一個評分等于最低評分,則在數據集ml-ls和ml-10m2k中,當前評分的權值設為0.9,在數據集ml-100k和ml-1m中,當前評分的權值設為0.8;c)其他情況下評分權值等于1。
除了fsSLIM模型以外,本文提出的RCfsSLIM模型還與以下五種基線模型進行了對比:
a)ItemKNN[10]:一種經典的基于物品的推薦算法,ItemKNN根據物品之間的相似度大小進行排序后完成推薦。
b)WRMF[24,25]:該算法使用加權的方法來表征用戶對物品行為的置信度,以此改變部分訓練數據對模型的影響。
c)FISM[21]:該算法通過用戶評分訓練出兩個低維的隱因子矩陣,兩個矩陣乘積得到的高維矩陣視為物品的相似度矩陣。
d)LRML[26]:該算法使用用戶和物品之間的潛在關系進行建模,以此提高特征選擇的能力和推薦的性能。
e)AutoInt[27]:該算法使用多頭自注意力來進行特征的交叉學習,有效地構造了高階特征以獲得更好的推薦效果。
3.4 實驗結果與分析
3.4.1 推薦結果比較
本文提出的RCfsSLIM模型與六個基線模型應用于稀疏度不同的數據集上的整體效果如表2所示。本文算法RCfsSLIM明顯優(yōu)于其他六種對比方法,相比于fsSLIM模型,RCfsSLIM模型在特征選擇階段使用加權評分計算物品相似度以找出更加準確的相似物品,并在模型訓練時減小對部分受到用戶評分上下文影響的評分的擬合,提高了訓練得到的物品相似度矩陣的準確性,體現出更好的推薦效果。
3.4.2 第一個階段中使用加權評分進行特征選擇的作用
RCfsSLIM模型第一個階段中特征選擇的本質是使用加權評分提前計算出物品之間的相似度,接著只使用物品的多個相似物品進行訓練即可,由此可見在特征選擇階段中更加準確地找出某一物品的多個相似物品的重要性。
本節(jié)實驗使用物品最近鄰算法(item K-nearest neighbor,ItemKNN)探究使用加權評分進行特征選擇的作用。ItemKNN算法首先使用式(1)通過評分矩陣R中的物品向量來計算得到物品之間的相似度;接著對于一個用戶未評分的物品,該算法將該物品和用戶已評分物品的相似度進行累加;最后對每一個未評分物品累加的相似度進行排序從而達到推薦的目的。從相似度計算式(1)可以看出,計算物品相似度完全基于用戶評分,即對于兩個物品而言,若用戶評分越相近,則兩個物品的相似度越高,且ItemKNN在推薦物品的過程中僅累加物品之間的相似度進行排序,所以可將使用該算法進行推薦的性能視為物品之間相似度的準確性。
作為與式(1)的對比,本文在ItemKNN算法中使用式(8)通過加權評分計算物品之間的相似度,除此之外其余所有參數保持不變。實驗結果如表3所示,使用加權評分計算物品之間的相似度表現出更好的推薦效果,即對于某一個物品而言,使用加權評分可以更加準確地尋找出與其相似的k個物品,這也正是RCfsSLIM模型中特征選擇階段所需要的效果。
3.4.3 第二個階段中評分誤差權重的影響
RCfsSLIM模型的第二個階段中,一個評分的評分誤差權重δ的大小影響著模型對該評分的擬合程度。若δ為1,則表示模型對該評分進行完全擬合,僅在特征選擇時使用加權評分計算物品相似度;若δ為0,則表示模型不對該評分進行擬合;δ的值在0~1,則表示模型將減小對該評分的擬合??梢娫u分誤差權重δ在RCfsSLIM推薦模型中的重要性。
本節(jié)實驗進一步研究了評分誤差權重對推薦結果的影響,在數據集ml-100k、ml-ls、ml-10m2k中,top-N取5的情況下,各個評估指標的實驗結果如圖2所示。作為對比,圖2將同時畫出同樣條件下fsSLIM的評估指標情況,由于不存在評分誤差權重,所以fsSLIM在所有圖中都是直線,每一條直線代表的數據集為距離其最近的折線所代表的數據集。
由圖2可看出,RCfsSLIM的推薦效果普遍都比fsSLIM要好。同時當評分誤差權重偏大或偏小時,推薦效果都有所下降。在數據集ml-100k中,評分誤差權重取0.4時推薦效果普遍最好;在數據集ml-ls中,評分誤差權重取0.8時推薦效果普遍最好;在數據集ml-10m2k中,評分誤差權重取0.5時推薦效果普遍最好。
另外,在評分誤差權重很小的情況下,部分數據集的RCfs-SLIM的推薦效果比fsSLIM差,說明RCfsSLIM在不對受到用戶評分上下文影響的評分進行完全擬合的同時,也不可完全舍去這一部分評分,其在一定程度上有助于模型構建物品相似度矩陣。
3.4.4 在RCfsSLIM模型的兩個階段中進行加權處理的有效性
本文RCfsSLIM模型在第一個階段即特征選擇階段中,對評分進行加權處理以計算物品的最近鄰;在第二個階段即模型訓練階段中,使用坐標下降法進行目標函數的優(yōu)化時,對評分誤差進行加權處理以減少算法模型對受到上下文影響的評分的擬合,從而減少該部分評分對物品相似度的影響。
本節(jié)實驗進一步研究了僅在第一階段或者僅在第二階段進行加權處理的推薦效果,在數據集ml-100k、ml-ls、ml-10m2k中,top-N取3的情況下,各個評估指標的實驗結果如圖3所示。其中,fsSLIM模型表示第一個階段和第二個階段都不進行加權處理的情況;fsSLIM-weightknn模型表示僅在第一個階段即特征選擇階段進行加權處理的情況;fsSLIM-weighterror模型表示僅在第二個階段對評分誤差進行加權處理的情況;RCfs-SLIM模型即本文方法則表示同時在兩個階段進行加權處理的情況。
由圖3可看出,無論是僅在第一個階段對評分進行加權處理,還是僅在第二個階段對評分誤差進行加權處理,其推薦效果都比不進行加權處理的情況要好,這是因為在第一個階段即特征選擇階段中對評分進行加權處理可以更好地找出某個物品的相似物品,在第二個階段即模型訓練階段中對評分誤差進行加權處理可以減少算法模型對受到上下文影響的評分的擬合,從而減少該部分評分對物品相似度的影響以提高物品相似度矩陣的準確性。同時,本文提出的在第一個階段和第二個階段都進行加權處理的RCfsSLIM模型表現出最好的推薦效果。
4 結束語
在一些使用用戶評分計算物品相似度的推薦算法中,受到評分上下文影響的用戶主觀評分并不能客觀地反映出物品之間的相似度,從而影響推薦的性能。本文在fsSLIM模型的基礎上提出了融合評分上下文和物品相似度的RCfsSLIM推薦模型。RCfsSLIM模型首先使用加權評分計算物品相似度的方法進行特征選擇,在進一步使用坐標下降法優(yōu)化目標函數時,對受到用戶評分上下文影響的評分誤差進行加權處理,使RCfs-SLIM推薦模型減小對這些評分的擬合以減小該評分對計算物品相似度的影響,從而提高模型訓練得到的物品相似度矩陣的準確性。實驗結果驗證了本文算法的可行性和有效性。
未來將進行以下兩方面的工作:a)當前設置某一評分的權重的做法是將用戶評分按時間排序后,考慮該評分的先前一個評分的情況,未來工作將綜合考慮該評分的先前多個評分的情況,以另一種角度分析評分上下文;b)由于評分權重矩陣的值為人工提前設置,下一步將研究通過算法模型自動學習出各個評分的權重值以提高推薦性能。
參考文獻:
[1]Xu Kerui, Yang Jingxuan, Xu Jun, et al. Adapting user preference to online feedback in multi-round conversational recommendation[C]// Proc of the 14th ACM International Conference on Web Search and Data Mining. New York: ACM Press, 2021: 364-372.
[2]Srivastava R, Palshikar G K, Chaurasia S, et al. Whats next? A recommendation system for industrial training[J].Data Science and Engineering,2018,3(3):232-247.
[3]Liu Luyao, Du Xingzhong, Zhu Lei, et al. Learning discrete hashing towards efficient fashion recommendation[J].Data Science and Engineering,2018,3(4):307-322.
[4]陳碧毅, 黃玲, 王昌棟, 等. 融合顯式反饋與隱式反饋的協(xié)同過濾推薦算法[J].軟件學報, 2020,31(3): 794-805. (Chen Biyi, Huang Ling, Wang Changdong, et al. Explicit and implicit feedback based collaborative filtering algorithm[J].Journal of Software,2020,31(3): 794-805.)
[5]Askari B, Szlichta J, Salehi-Abari A. Variational autoencoders for top-k recommendation with implicit feedback[C]// Proc of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press, 2021: 2061-2065.
[6]Lin Guanyu, Liang Feng, Pan Weike, et al. FedRec: federated re-commendation with explicit feedback[J].IEEE Intelligent Systems,2021,36(5):21-30.
[7]Jadidinejad A H, Macdonald C, Ounis I. Unifying explicit and implicit feedback for rating prediction and ranking recommendation tasks [C]// Proc of ACM SIGIR International Conference on Theory of Information Retrieval. New York: ACM Press, 2019: 149-156.
[8]Lu Hongyu, Zhang Min, Ma Shaoping. Between clicks and satisfaction: study on multi-phase user preferences and satisfaction for online news reading [C]// Proc of the 41st International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press, 2018: 435-444.
[9]Ning Xia, Karypis G. SLIM: sparse linear methods for top-n recommender systems [C]// Proc of the 11th IEEE International Confe-rence on Data Mining. Piscataway, NJ: IEEE Press, 2011: 497-506.
[10]Deshpande M, Karypis G. Item-based top-N recommendation algorithms[J].ACM Trans on Information Systems,2004,22(1):143-177.
[11]Choi M, Kim J, Lee J, et al. Session-aware linear item-item models for session-based recommendation [C]// Proc of Web Conference. New York: ACM Press, 2021: 2186-2197.
[12]Linden G, Smith B, York J. Amazon.com recommendations: item-to-item collaborative filtering[J].IEEE Internet Computing,2003,7(1):76-80.
[13]Wang Shoujin, Cao Longbing, Wang Yan. A survey on session-based recommender systems [J].ACM Computing Surveys,2022,54:1-38.
[14]包玄,陳紅梅,肖清.融入時間的興趣點協(xié)同推薦算法[J].計算機應用,2021,41(8):2406-2411.(Bao Xuan, Chen Hongmei, Xiao Qing. Time-incorporated point-of-interest collaborative recommendation algorithm[J].Journal of Computer Applications,2021,41(8):2406-2411.)
[15]Tang Jiaxi, Wang Ke. Personalized top-N sequential recommendation via convolutional sequence embedding [C]// Proc of the 11th ACM International Conference on Web Search and Data Mining. New York: ACM Press, 2018: 565-573.
[16]Kang Wangcheng, McAuley J. Self-attentive sequential recommendation [C]// Proc of the 18th IEEE International Conference on Data Mining. Piscataway, NJ: IEEE Press, 2018: 197-206.
[17]Sun Fei, Liu Jun, Wu Jian, et al. BERT4Rec: sequential recommendation with bidirectional encoder representations from transformer [C]// Proc of the 28th ACM International Conference on Information and Knowledge Management. New York: ACM Press, 2019: 1441-1450.
[18]Ozgobek O, Gulla J A, Erdur R C. A survey on challenges and me-thods in news recommendation [C]// Proc of the 10th International Conference on Web Information Systems and Technologies. 2014: 278-285.
[19]Van B J, Goethals B. High-dimensional sparse embeddings for collaborative filtering [C]// Proc of Web Conference. New York: ACM Press, 2021: 575-581.
[20]Bhattacharya M, Barapatre A. Query as context for item-to-item re-commendation [C]// Proc of the 14th ACM Conference on Recommender Systems. New York: ACM Press, 2020: 575-576.
[21]Kabbur S, Ning X, Karypis G. FISM: factored item similarity models for top-N recommender systems [C]// Proc of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2013: 659-667.
[22]Lin Jing, Pan Weike, Ming Zhong. FISSA: fusing item similarity models with self-attention networks for sequential recommendation [C]// Proc of the 14th ACM Conference on Recommender Systems. New York: ACM Press, 2020: 130-139.
[23]Friedman J, Hastie T, Tibshirani R. Regularization paths for genera-lized linear models via coordinate descent[J].Journal of Statistical Software,2010,33(1):1-22.
[24]Pan Rong, Zhou Yunhong, Cao Bin, et al. One-class collaborative filtering [C]// Proc of the 8th IEEE International Conference on Data Mining. Piscataway, NJ: IEEE Press, 2008: 502-511.
[25]Hu Yifan, Koren Y, Volinsky C. Collaborative filtering for implicit feedback datasets [C]// Proc of the 8th IEEE International Confe-rence on Data Mining. Piscataway, NJ: IEEE Press, 2008: 263-272.
[26]Tay Y, Anh T L, Hui S C. Latent relational metric learning via me-mory-based attention for collaborative ranking [C]// Proc of the 26th International Conference on World Wide Web. New York: ACM Press, 2018: 729-739.
[27]Song Weiping, Shi Chence, Xiao Zhiping, et al. AutoInt: automatic feature interaction learning via self-attentive neural networks [C]// Proc of the 28th ACM International Conference on Information and Knowledge Management. New York: ACM Press, 2019: 1161-1170.
收稿日期:2023-02-18;修回日期:2023-04-20
基金項目:中山大學廣東省計算科學重點實驗室開放基金資助項目(2021010);廣東省自然科學基金面上項目(2022A1515011489);國家社科基金后期資助項目(19FTJB001);廣東省哲學社會科學規(guī)劃項目(GD19CGL34)
作者簡介:盧澤倫(1997-),男,廣東惠州人,碩士,CCF會員,主要研究方向為推薦系統(tǒng)、機器學習;古萬榮(1982-),男(通信作者),廣東梅州人,講師,碩導,博士,主要研究方向為搜索引擎、互聯(lián)網大數據分析與挖掘、推薦系統(tǒng)(guwanrong@scau.edu.cn);毛宜軍(1979-),男,湖北公安人,講師,博士,主要研究方向為基因數據處理、信息安全、人工智能;陳梓明(1998-),男,廣東廣州人,碩士,主要研究方向為機器學習.