999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度層次注意力矩陣分解*

2023-02-08 02:31:14李建紅蘇曉倩吳彩虹
關(guān)鍵詞:用戶信息模型

李建紅,蘇曉倩,吳彩虹

(1.安徽理工大學(xué)人工智能學(xué)院,安徽 淮南 232001;2.安徽理工大學(xué)安全科學(xué)與工程學(xué)院,安徽 淮南 232001)

1 引言

隨著大數(shù)據(jù)時(shí)代的到來,很多互聯(lián)網(wǎng)應(yīng)用使用的數(shù)據(jù)量也變得越來越大,如何從這些大量數(shù)據(jù)中獲得有效的信息是學(xué)術(shù)界和工業(yè)界急需解決的問題。推薦系統(tǒng)作為信息提取的一種有效方式,已大規(guī)模應(yīng)用于個(gè)性化推薦中,例如京東、淘寶和亞馬遜等電商平臺(tái)都部署了推薦系統(tǒng),為用戶提供個(gè)性化商品推薦服務(wù)。推薦系統(tǒng)的核心是推薦算法,常見的是協(xié)同過濾及其擴(kuò)展算法,包括CF(Collaborative Filtering)[1]、MF (Matrix Factorization)[2 - 3]及張燕平等人[4 - 7]提出的用戶聲譽(yù)推薦算法等。近年來,以深度學(xué)習(xí)為代表的人工智能技術(shù)取得了巨大進(jìn)展,究其原因是深度學(xué)習(xí)能夠?qū)?shù)據(jù)進(jìn)行學(xué)習(xí)并獲得其特征表示,因此很多研究人員嘗試將深度學(xué)習(xí)技術(shù)應(yīng)用到推薦中,以挖掘用戶的潛在偏好信息,從而提升推薦系統(tǒng)的性能。利用RBM(Restricted Boltzmann Machine)[8]和AE(Automatic Encoder)[9,10]等深度學(xué)習(xí)方法進(jìn)行個(gè)性化推薦,其核心思想都是對(duì)輸入數(shù)據(jù)進(jìn)行學(xué)習(xí),以獲取用戶個(gè)性化偏好信息。文獻(xiàn)[11]則是在廣度和深度學(xué)習(xí)(Wide and Deep Learning)[12]基礎(chǔ)上提出了DeepHM(Deep Hybrid Model), 該文獻(xiàn)指出廣度和深度學(xué)習(xí)需要專家設(shè)計(jì)特征工程模型,并且廣度學(xué)習(xí)沒有挖掘數(shù)據(jù)非線性用戶偏好的能力。此外,通過VAE(VAriational Eutoencoder)和CF學(xué)習(xí)數(shù)據(jù)分布可以獲得用戶偏好信息并進(jìn)行個(gè)性化推薦[13]。

Figure 1 DeepHAMF framework圖1 DeepHAMF框架

注意力機(jī)制在自然語(yǔ)言處理中能夠捕獲文本間的關(guān)系信息,且文本信息能夠很好地刻畫用戶的個(gè)性化偏好信息,因此很多研究人員嘗試將文本信息和注意力機(jī)制應(yīng)用于評(píng)分預(yù)測(cè)中。例如,Lü 等人[14]提出的AICF(Attention-based Item Collaborative Filtering),將注意力機(jī)制應(yīng)用于項(xiàng)目文本信息中,獲得了較好的推薦效果。此外,Pang等人[15]則提出了ACNN-FM(Attention-based Convolutional Neural Network and Factorization Machines),通過基于注意力的卷積神經(jīng)網(wǎng)絡(luò)和分解機(jī)獲取用戶對(duì)不同項(xiàng)目的個(gè)性化偏好。無論是基于傳統(tǒng)模型的推薦算法還是基于深度學(xué)習(xí)的方法都不能取得令人滿意的結(jié)果。究其原因有:(1)推薦算法獲取用戶偏好信息的能力不足;(2)數(shù)據(jù)稀疏性影響了推薦算法的性能。

為了解決上述問題,本文提出了一種深度層次注意力矩陣分解(DeepHAMF)的新型推薦模型(如圖1所示)。該模型對(duì)原始輸入信息不僅用嵌入操作進(jìn)行編碼,同時(shí)使用自注意力機(jī)制進(jìn)行編碼,目的是直接得到顯式偏好信息;其次,DeepHAMF使用多層感知機(jī)訓(xùn)練得到輸入信息編碼表示后,原始輸入信息的矩陣分解和注意力編碼之后的矩陣分解結(jié)果采用層次注意力機(jī)制相結(jié)合,得到用戶潛在的偏好信息。實(shí)驗(yàn)結(jié)果表明,相比較其他的評(píng)分預(yù)測(cè)算法,DeepHAMF算法可以取得較好的效果。本文的主要工作可歸納為以下幾個(gè)方面:

(1) 本文提出了名為DeepHAMF的新的神經(jīng)網(wǎng)絡(luò)模型并應(yīng)用于評(píng)分預(yù)測(cè)中,實(shí)驗(yàn)結(jié)果驗(yàn)證了該模型的有效性。

(2) 對(duì)于原始輸入信息進(jìn)行并行操作:一是采用嵌入操作進(jìn)行編碼;另外采用自注意力機(jī)制進(jìn)行編碼,捕獲用戶顯式信息偏好,該部分命名為自注意力層。

(3) 當(dāng)輸入信息進(jìn)行編碼后,送入多層感知機(jī)中,利用多層感知機(jī)訓(xùn)練得到信息編碼表示。原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果通過層次注意力機(jī)制獲得歷史行為數(shù)據(jù)中用戶不同項(xiàng)目的偏好信息,該部分命名為層次注意力模塊。

(4) 最后通過殘差融合層對(duì)層次注意力模塊、原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果進(jìn)行擬合得到預(yù)測(cè)結(jié)果。

2 相關(guān)工作

基于協(xié)同過濾的算法包括NMF(Non-negative Matrix Factorization)[16]、RLMC(Robust Local Matrix Factorization)[17]等。這些算法能夠挖掘用戶間的共同偏好,但是無法獲得用戶潛在的偏好信息,這樣導(dǎo)致推薦效果不佳。隨著深度學(xué)習(xí)的不斷發(fā)展,研究人員嘗試將其應(yīng)用于推薦中,目的是獲得用戶潛在的偏好信息,以提高推薦系統(tǒng)的性能。Jia 等人[18]提出的 CF-CNN(Collaborative filtering and Convolutional Neural Networks) 方法將神經(jīng)網(wǎng)絡(luò)和協(xié)同過濾聯(lián)合起來進(jìn)行評(píng)分推薦。類似的方法還有DMF(Deep Matrix Factorization)[19]和NRR(Neural Rating Regression)[20]。Qian等人[21]提出的DLSA (Dual Learning Self-Attention)算法結(jié)合了雙重學(xué)習(xí)和自注意力機(jī)制進(jìn)行評(píng)分預(yù)測(cè)。另外,Nguyen等人[22]提出了NMC-S(Neural Matrix Completion Summarization)模型,該模型不僅繼承了神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)能力,而且還能夠擴(kuò)展到訓(xùn)練集之外的部分觀察樣本,故不需要重新訓(xùn)練或微調(diào)。還有些研究利用屬性信息和深度學(xué)習(xí)進(jìn)行個(gè)性化信息挖掘[23 - 29]。隨著圖神經(jīng)網(wǎng)絡(luò)[30 - 32]應(yīng)用于異質(zhì)網(wǎng)絡(luò)上,研究人員開始嘗試將其與推薦系統(tǒng)相結(jié)合。文獻(xiàn)[33]提出了RMGCNN (Recurrent Multi-Graph Convolutional Neural Networks),將評(píng)分預(yù)測(cè)問題轉(zhuǎn)換為矩陣填充問題。另外,IGPL (Inductive Graph Pattern Learning)[34]則是利用圖神經(jīng)網(wǎng)絡(luò)子圖匹配模型與歸納學(xué)習(xí)相結(jié)合進(jìn)行評(píng)分預(yù)測(cè)。

3 DeepHAMF

在開始介紹DeepHAMF前,首先對(duì)問題定義進(jìn)行介紹,以更好地理解本文提出的模型。

3.1 問題定義

推薦算法主要是利用用戶和項(xiàng)目之間的交互信息,挖掘出用戶對(duì)項(xiàng)目的偏好信息,為用戶推薦可能感興趣的項(xiàng)目。黃立威等人[35]給出了如式(1)所示的形式化定義:

(1)

其中,U是用戶集合,u表示某個(gè)用戶;I是項(xiàng)目集合,i表示某個(gè)項(xiàng)目;S(·)表示推薦算法,i′u表示用戶u感興趣的項(xiàng)目。本文主要是進(jìn)行評(píng)分預(yù)測(cè),其結(jié)果為預(yù)測(cè)評(píng)分的值。評(píng)分值越高,用戶可能感興趣的程度越高,則推薦性能越好。

3.2 DeepHAMF

DeepHAMF主要包括嵌入層、注意力層、多層感知機(jī)層、層次注意力模塊和殘差融合層。

(1)原始輸入:原始輸入信息,只包括用戶編號(hào)和項(xiàng)目編號(hào),分別用userid和itemid表示。

(2)嵌入層:在獲得原始輸入信息后,需要將其轉(zhuǎn)換為向量表示后才能進(jìn)行后續(xù)操作。因此,通過嵌入層將原始輸入信息轉(zhuǎn)換成向量表示,其處理方式如式(2)和式(3)所示:

user_emd=embedded(userid)

(2)

item_emd=embedded(itemid)

(3)

其中,embedded(·)表示嵌入函數(shù),user_emd和item_emd分別表示用戶編號(hào)和項(xiàng)目編號(hào)嵌入操作后的結(jié)果。

(3)自注意力層:自注意力機(jī)制[36]在自然語(yǔ)言處理等領(lǐng)域取得了不錯(cuò)的效果,因此本文采用自注意力進(jìn)行編碼,并將這層命名為自注意力層。該層處理方法如式(4)和式(5)所示:

(4)

(5)

其中,Softmax(·)表示激活函數(shù),d表示輸入向量的維度,user_emd_att和item_emd_att分別表示向量經(jīng)過注意力層處理后的向量表示。

在輸入信息轉(zhuǎn)換為嵌入向量表示后,一部分直接輸入到多層感知機(jī)中,除此之外,本文還利用注意力層進(jìn)行學(xué)習(xí),這樣能夠捕獲原始輸入信息的偏好,究其原因是通過注意力機(jī)制能夠?qū)τ脩舾信d趣的項(xiàng)目增加相應(yīng)的權(quán)重。

(4)多層感知機(jī)層:由于神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練后能夠利用向量對(duì)數(shù)據(jù)進(jìn)行特征表示,本文通過多層感知機(jī)進(jìn)行學(xué)習(xí)表示,這樣經(jīng)過訓(xùn)練后的向量能夠表示輸入信息。具體操作方式如式(6)~式(9)所示:

(6)

(7)

(8)

(9)

(5)層次注意力模塊:經(jīng)過前面的處理后,通過矩陣分解操作,可以獲得原始輸入信息的交互信息,具體如式(10)和式(11)所示:

user_item=user_emd?item_emd

(10)

user_item_att=user_emd_att?item_emd_att

(11)

其中,user_item和user_item_att分別是原始輸入矩陣分解結(jié)果的向量表示和原始輸入注意機(jī)制后的矩陣分解結(jié)果的向量表示。其目的是通過用戶與項(xiàng)目直接交互得到偏好信息。此外,需要將原始輸入信息和經(jīng)過多層感知機(jī)的信息進(jìn)行注意力機(jī)制融合,其目的是獲取潛在的用戶個(gè)性化偏好信息。利用多層感知機(jī)學(xué)到的向量表示通過矩陣分解操作得到交互信息,具體如式(12)和式(13)所示:

user_item_mlp=user_mlp?item_mlp

(12)

user_item_attm=user_att_mlp?item_att_mlp

(13)

其中,user_item_mlp和user_item_attm分別是利用矩陣分解操作后的向量結(jié)果。通過層次注意力分別將注意力結(jié)果和多層感知機(jī)輸出進(jìn)行層次注意力操作,具體如式(14)和式(15)所示:

uiam=f(user_item_att)·f(user_item_mlp)

(14)

uima=f(user_item_attm)·f(user_item_att)

(15)

其中,uiam和uima分別表示操作后的結(jié)果;·表示點(diǎn)乘;f(·)表示激活函數(shù),且激活函數(shù)是Linear。

(6)殘差融合層:將相關(guān)信息(包括模型中原始輸入信息、注意力層信息及層次注意力層信息)進(jìn)行融合并輸出預(yù)測(cè)結(jié)果。整個(gè)過程如式(16)和式(17)所示:

uira=F(uiam,W)+uiam+H(user_item)

(16)

uiar=F(uima,W)+uima+H(user_item_att)

(17)

其中,F(·)和W分別為殘差融合的激活函數(shù)和權(quán)重;uiar和uira分別表示殘差融合層輸出結(jié)果;H(·)表示維度求和函數(shù)tf.reduce_sum(),目的是把向量數(shù)據(jù)變成一個(gè)評(píng)分?jǐn)?shù)據(jù)。

最后對(duì)相關(guān)用戶偏好信息進(jìn)行求和并輸出評(píng)分,如式(18)所示:

r=uira+uiar+U+I+b

(18)

其中,U表示用戶偏移量,I表示項(xiàng)目偏置量,b表示全局偏置量,r表示預(yù)測(cè)結(jié)果。

為了更好地優(yōu)化DeepHAMF算法,本文采用l2正則化項(xiàng)結(jié)合懲罰項(xiàng)的方法作為損失函數(shù)進(jìn)行優(yōu)化,具體的損失函數(shù)如式(19)所示:

(19)

其中,μ和θ均為懲罰項(xiàng)系數(shù),φ為常數(shù)項(xiàng)系數(shù),R表示用戶對(duì)項(xiàng)目的實(shí)際評(píng)分,user_emd和item_emd分別表示用戶編號(hào)的向量表示和項(xiàng)目編號(hào)的向量表示。

DeepHAMF可以表述為對(duì)原始輸入信息進(jìn)行如下操作。首先,對(duì)原始輸入信息除了采用嵌入操作進(jìn)行編碼外,還采用自注意力機(jī)制進(jìn)行編碼,可以捕獲用戶顯式信息偏好。對(duì)輸入信息進(jìn)行編碼后,將其送入多層感知機(jī)中,并利用多層感知機(jī)訓(xùn)練得到編碼表示;其次,與原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果通過層次注意力機(jī)制獲得歷史行為數(shù)據(jù)中用戶不同項(xiàng)目的偏好信息;最后,利用殘差網(wǎng)絡(luò)將層次注意力模塊、原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果進(jìn)行擬合。

4 模型訓(xùn)練和實(shí)驗(yàn)結(jié)果分析

4.1 數(shù)據(jù)集

本文實(shí)驗(yàn)中使用的數(shù)據(jù)集為公開數(shù)據(jù)集MovieLens 100K(100k)和MovieLens 1M(1m)。100k數(shù)據(jù)集包含100 000個(gè)評(píng)分記錄;MovieLens 1m數(shù)據(jù)集包含1 000 209個(gè)評(píng)分記錄。所有的數(shù)據(jù)集分?jǐn)?shù)都在1~5分。數(shù)據(jù)集詳細(xì)信息如表1所示。

Table 1 Description of MovieLens datasets

4.2 評(píng)價(jià)指標(biāo)與對(duì)比算法

均方根誤差(RMSE)和平均絕對(duì)誤差(MAE)是推薦系統(tǒng)中廣泛使用的評(píng)價(jià)指標(biāo),本文也使用RMSE和MAE來評(píng)估DeepHAMF模型的性能。其計(jì)算如式(20)和式(21)所示:

(20)

(21)

其中,T表示測(cè)試集的大小,R表示用戶的真實(shí)評(píng)分。

為了有效地驗(yàn)證本文模型的有效性,實(shí)驗(yàn)部分需回答以下問題:

(1)DeepHAMF與當(dāng)前主流算法相比性能怎么樣?

(2)DeepHAMF與有(無)文本信息的推薦算法和基于注意力的推薦算法相比,效果是否具有競(jìng)爭(zhēng)性?

(3)DeepHAMF各模塊效果如何?

為了充分回答上述問題,本文選取了傳統(tǒng)的矩陣分解方法、基于神經(jīng)網(wǎng)絡(luò)的算法、基于注意力機(jī)制的算法和基于文本算法的模型進(jìn)行比較,具體有:深度混合評(píng)分推薦DeepHM、奇異值分解模型SVD++(Singular Value Decomposition++)、通過對(duì)偶自動(dòng)編碼機(jī)的表示學(xué)習(xí)方法ReDa( Recommendation via Dual-autoencoder)、基于卷積神經(jīng)網(wǎng)絡(luò)的協(xié)調(diào)過濾算法CF-CNN、貝葉斯概率矩陣分解BPMF(Bayes Probabilistic Matrix Factorization)、概率矩陣分解PMF(Probabilistic Matrix Factorization)、非負(fù)矩陣分解NMF(Nonnegative Matrix Factorization)、基于神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型NMC-S、基于抽樣偏見和變分估計(jì)器模型RLMC、利用用戶隱式社交關(guān)系推薦算法SR(Social Relations)[37]、聯(lián)合矩陣填充和圖卷積神經(jīng)網(wǎng)絡(luò)算法RMGCNN、局部圖匹配的歸納模型IGPL、深度矩陣分解DMF、神經(jīng)評(píng)分回歸模型NRR、主題注意力的協(xié)同過濾算法AICF、基于注意力卷積神經(jīng)分解機(jī)算法ACNN-FM、概率評(píng)分自動(dòng)編碼器算法PRA(Probabilistic Rating Auto-encoder)[38]、基于參數(shù)自動(dòng)搜索的推薦算法Auto-S(Auto-Surprise)[39]、凸最小化Frank-Wolfe算法SHCGM(Stochastic Homotopy Conditional-Gradient Method)[40]和動(dòng)態(tài)圖推薦算法GCMC-GRU(Graph Convolutional Matrix Completion Gate Recurrent Unit)[41]。

4.3 模型訓(xùn)練參數(shù)

DeepHAMF算法只使用用戶ID、電影ID和評(píng)分信息,不會(huì)添加任何其他信息。實(shí)驗(yàn)參數(shù)設(shè)置中使用Adam優(yōu)化函數(shù),多層感知機(jī)層使用3層,每層的神經(jīng)元個(gè)數(shù)分別為200,100和10。激活函數(shù)使用ReLU函數(shù),最后融合層輸出評(píng)分值,程序語(yǔ)言是Python3。本文使用TensorFlow深度學(xué)習(xí)框架實(shí)現(xiàn)本文提出的模型。為了減少運(yùn)行時(shí)間,使用NVIDIA RTX2080Ti GPU來加速實(shí)驗(yàn)運(yùn)行。懲罰系數(shù)μ和θ均為0.000 1。

4.4 實(shí)驗(yàn)結(jié)果分析

為了回答問題(1),表2給出了DeepHAMF與當(dāng)前主流的評(píng)分預(yù)測(cè)算法在MovieLens數(shù)據(jù)集上的十交叉驗(yàn)證(10-cv)結(jié)果。從100k數(shù)據(jù)集上的結(jié)果來看,DeepHAMF模型均有0.5%的性能提升。從1m數(shù)據(jù)集上的的實(shí)驗(yàn)結(jié)果來看,DeepHAMF模型在RMSE評(píng)價(jià)指標(biāo)上保持了一定的優(yōu)勢(shì),但在MAE指標(biāo)上DLSA算法取得了不錯(cuò)的結(jié)果。原因在于,DLSA算法通過雙重學(xué)習(xí)和自我注意力機(jī)制能夠充分挖掘用戶偏好信息,因此能夠獲得較好的結(jié)果。即使如此,DeepHAMF在RMSE指標(biāo)上還是優(yōu)于DLSA的,并且其MAE值僅次于DLSA算法的。此外,結(jié)合表1的數(shù)據(jù)可知,當(dāng)數(shù)據(jù)量變大時(shí),數(shù)據(jù)稀疏性也越來越強(qiáng)。從實(shí)驗(yàn)結(jié)果來看,DeepHAMF的性能比較好,這也說明DeepHAMF在數(shù)據(jù)稀疏性較高的情況下也能取得較好的效果。整體來說,本文DeepHAMF確實(shí)能夠充分挖掘用戶的個(gè)性化偏好信息,即使在數(shù)據(jù)稀疏的情況下也能擁有不錯(cuò)的結(jié)果。

Table 2 Experimental results of DeepHAMF compared to 10-cv rating recommendation algorithms (without text information) on the MovieLens datasets

對(duì)于問題(2),表3給出了在MovieLens數(shù)據(jù)集上進(jìn)行五交叉驗(yàn)證(5-cv)的結(jié)果,DeepHAMF模型無論是在MAE指標(biāo)上還是RMSE指標(biāo)上均最優(yōu),平均有1%的性能提升。這表明了DeepHAMF模型與不使用文本信息的推薦算法相比,能夠取得較好的實(shí)驗(yàn)結(jié)果。這也表明了本文模型在不使用文本信息的情況下,能夠充分挖掘用戶的個(gè)性化偏好信息,從而獲得很好的推薦效果。

Table 3 Experimental results of DeepHAMF compared to 5-cv rating recommendation algorithms(without text information) on RMSE metrics

表4給出DeepHAMF模型與其他利用文本信息的評(píng)分算法進(jìn)行對(duì)比的結(jié)果。根據(jù)表4的實(shí)驗(yàn)結(jié)果可知,在MovieLens 100K數(shù)據(jù)集上,DeepHAMF模型的結(jié)果不是最優(yōu)的。原因是100k數(shù)據(jù)集相對(duì)來說較小而且數(shù)據(jù)還有一定的稀疏性,導(dǎo)致用戶和項(xiàng)目之間的交互信息較少,利用文本信息能夠有效刻畫用戶的偏好,而DeepHAMF沒有利用文本信息,故無法充分獲取用戶的個(gè)性化偏好信息。但是,DeepHAMF模型在MovieLens 1M上取得了較好的實(shí)驗(yàn)結(jié)果,這表明當(dāng)數(shù)據(jù)量較大時(shí),即使不使用文本信息,該模型也能夠充分挖掘用戶的偏好信息而獲取較好的推薦效果。與基于注意力的算法(包括DLSA和AFM等算法)相比,DeepHAMF模型擁有較好的結(jié)果,這也表明本文設(shè)計(jì)的注意力模塊確實(shí)有效。此外,通過表3和表4可以發(fā)現(xiàn),加入文本信息的算法的整體效果要比無文本信息的算法好,但DeepHAMF模型還是能夠取得更好的效果。

Table 4 Experimental performance of DeepHAMF compared to 5-cv rating recommendation algorithms(based on text information and attention mechanism)

為了驗(yàn)證DeepHAMF模型各個(gè)模塊的效果,本文進(jìn)行了消融實(shí)驗(yàn)(十交叉驗(yàn)證),對(duì)DeepHAMF模型各個(gè)模塊的作用進(jìn)行驗(yàn)證。相關(guān)模塊命名為:自注意力層(DeepHAMF_att)、層次注意力層(DeepHAMF_hatt)和殘差層(DeepHAMF_res)。消融實(shí)驗(yàn)結(jié)果如圖2和圖3所示。

Figure 2 Results of ablation experiment on 100k dataset圖2 100k數(shù)據(jù)集上消融實(shí)驗(yàn)結(jié)果

Figure 3 Results of ablation experiment on 1m dataset圖3 1m數(shù)據(jù)集上消融實(shí)驗(yàn)結(jié)果

根據(jù)圖2和圖3的實(shí)驗(yàn)結(jié)果可知,DeepHAMF模型的推薦性能逐步提升,層次注意力層和殘差融合層的實(shí)驗(yàn)結(jié)果相比其他模塊提升比較明顯。原因是因?yàn)樵趯哟巫⒁饬硬粌H通過矩陣分解獲得用戶的顯式偏好信息,還利用注意力捕獲用戶潛在偏好信息;殘差融合層則是對(duì)這些模塊進(jìn)行擬合,以充分獲得用戶的偏好信息。

根據(jù)以上實(shí)驗(yàn)可知,DeepHAMF對(duì)用戶與項(xiàng)目的交互信息進(jìn)行挖掘,以獲得用戶的偏好信息,然后將其運(yùn)用于評(píng)分推薦中。相比于其他機(jī)器學(xué)習(xí)和深度學(xué)習(xí)評(píng)分預(yù)測(cè)算法,DeepHAMF擁有更高的推薦精度。

5 結(jié)束語(yǔ)

為了充分挖掘用戶個(gè)性化偏好信息,以達(dá)到較好的推薦效果,本文提出了一種名為深度層次注意力矩陣分解(DeepHAMF)的新型推薦模型。該模型可以充分利用用戶的評(píng)分?jǐn)?shù)據(jù)挖掘出用戶個(gè)性化偏好信息,即使數(shù)據(jù)稀疏也具有良好的推薦能力。由于添加文本信息可以很好地提升推薦效果,在后續(xù)的工作中,將對(duì)DeepHAMF模型進(jìn)行改進(jìn),通過添加相關(guān)文本信息和算法使其在評(píng)分推薦性能上有更好的提升。

猜你喜歡
用戶信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
如何獲取一億海外用戶
展會(huì)信息
主站蜘蛛池模板: 54pao国产成人免费视频| 久久久久亚洲av成人网人人软件| 全部无卡免费的毛片在线看| 久久香蕉国产线看观看式| 欧美天堂久久| 99久久精品国产麻豆婷婷| 国产精品香蕉| 久草网视频在线| 日本少妇又色又爽又高潮| 国产精品黄色片| 亚洲制服丝袜第一页| 一本大道视频精品人妻| 成人欧美在线观看| 国产拍揄自揄精品视频网站| 精品国产成人av免费| 亚洲欧洲日产国码无码av喷潮| 蜜芽国产尤物av尤物在线看| 国产91特黄特色A级毛片| 中美日韩在线网免费毛片视频 | 久久青草免费91观看| 亚洲熟妇AV日韩熟妇在线| 国产亚洲美日韩AV中文字幕无码成人| 久久综合成人| 久久国产精品77777| 欧美亚洲激情| 国产精品无码一区二区桃花视频| 人妻中文久热无码丝袜| 91福利免费视频| 久久亚洲日本不卡一区二区| 福利在线不卡| 免费在线不卡视频| 97久久免费视频| 老色鬼欧美精品| 亚洲人成在线精品| JIZZ亚洲国产| 999国内精品久久免费视频| 亚洲女同一区二区| 9966国产精品视频| 在线欧美一区| 亚洲精品视频在线观看视频| 亚洲一区二区无码视频| 狠狠做深爱婷婷久久一区| 三上悠亚在线精品二区| 国产老女人精品免费视频| 香蕉久久国产超碰青草| 午夜视频免费一区二区在线看| 免费jjzz在在线播放国产| 欧美天堂久久| 亚洲全网成人资源在线观看| 国产精品55夜色66夜色| 欧美一区二区三区欧美日韩亚洲 | 亚欧成人无码AV在线播放| 一级毛片免费观看不卡视频| 亚洲电影天堂在线国语对白| 色婷婷在线播放| 色国产视频| 国产精品黄色片| 2022精品国偷自产免费观看| 91福利一区二区三区| 熟妇人妻无乱码中文字幕真矢织江| 久久久久青草线综合超碰| 久久青青草原亚洲av无码| 九色91在线视频| 日本免费福利视频| 精品视频一区在线观看| 天天视频在线91频| 天堂va亚洲va欧美va国产 | 亚洲视频在线网| 国产成人夜色91| 爆操波多野结衣| 国产精品三级av及在线观看| 亚洲欧美综合在线观看| 亚洲欧美极品| 国产午夜无码专区喷水| 国产一级裸网站| 国产无码高清视频不卡| 亚洲性视频网站| 国产亚洲欧美在线专区| 国产主播福利在线观看| 国产视频一二三区| 国产免费久久精品99re不卡| 亚洲中文在线看视频一区|