999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合元路徑與改進協(xié)同注意力的推薦研究

2022-12-11 12:23:42秦倩倩張志軍袁衛(wèi)華胡海星王宜貴
計算機技術(shù)與發(fā)展 2022年12期
關(guān)鍵詞:特征用戶模型

秦倩倩,張志軍,袁衛(wèi)華,桑 勝,胡海星,王宜貴

(山東建筑大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,山東 濟南 250101)

0 引 言

近年來,推薦系統(tǒng)在為用戶推薦個性化項目信息方面發(fā)揮著越來越重要的作用。基于深度學(xué)習(xí)的推薦系統(tǒng)能夠有效挖掘用戶和項目之間的非線性關(guān)系[1],將復(fù)雜的抽象信息編碼為更高層次的數(shù)據(jù)表達,在一定程度上緩解冷啟動問題和數(shù)據(jù)稀疏問題,實現(xiàn)高質(zhì)量的推薦。目前基于深度學(xué)習(xí)的推薦研究主要集中在同質(zhì)信息網(wǎng)絡(luò)領(lǐng)域,隨著推薦系統(tǒng)的發(fā)展,越來越多的專家和學(xué)者通過在模型中增加一些輔助信息,如位置信息[2]等,來提高推薦系統(tǒng)的性能。基于異質(zhì)信息網(wǎng)絡(luò)(Heterogeneous Information Networks,HIN)的推薦系統(tǒng)逐漸成為研究熱點。

異質(zhì)信息網(wǎng)絡(luò)通常采用元路徑[3]為對象建立關(guān)系序列,為推薦任務(wù)捕獲更豐富的語義信息。基于異質(zhì)信息網(wǎng)絡(luò)的排序模型HeteRS[4]采用多變量馬爾可夫鏈學(xué)習(xí)不同類型節(jié)點之間的影響,將推薦問題視為依賴于查詢的節(jié)點鄰近問題,建立用戶偏好模型,但傳統(tǒng)方式處理異質(zhì)信息的效率較低;FMG[5]對于每個元圖[3]產(chǎn)生的相似性,采用矩陣分解的方法生成用戶和項目的嵌入表達,對于不同元圖的特征,采用因子分解機自動選擇有用的特征;HERec[6]模型采用基于元路徑的隨機游走方式學(xué)習(xí)節(jié)點序列嵌入,并結(jié)合矩陣分解框架實現(xiàn)商品推薦,然而,這種元路徑的隨機游走方式在選擇節(jié)點序列時存在隨機性;MCRec[7]模型提出用戶-元路徑-項目的三元神經(jīng)交互模型,采用優(yōu)先級方式選擇元路徑節(jié)點序列,從基于元路徑的上下文中挖掘和提取重要信息;EHCF[8]是一種不采用負采樣策略的高效異質(zhì)協(xié)同過濾推薦方法,該方法可以更細粒度地建模用戶-項目關(guān)系并學(xué)習(xí)模型參數(shù)。以上方法利用不同的推薦方法學(xué)習(xí)用戶-項目之間的關(guān)系,但主要存在以下三方面不足:第一,現(xiàn)有的方法在生成用戶和項目的嵌入表達時未對用戶和項目信息進行深層次處理;第二,在基于元路徑上下文提取元路徑交互信息時,忽略了元路徑語義的整體性特征;第三,在用戶、項目和元路徑特征拼接時未考慮降低冗余信息對推薦效果的影響。針對以上不足,該文提出了融合元路徑與改進協(xié)同注意力的推薦模型MICA,該模型主要包括基于k-最大池化的協(xié)同注意力模塊、基于元路徑上下文的交互模塊、基于注意力的特征拼接模塊和輸出模塊。主要工作如下:

(1)在基于k-最大池化的協(xié)同注意力模塊中,MICA以用戶和項目相互增強的方式區(qū)分用戶和項目的重要性,基于k-最大池化計算鄰居注意力特征向量得到用戶和項目協(xié)同注意力嵌入表達,緩解了最大池化操作在協(xié)同注意力機制中帶來的特征信息丟失問題。

(2)在基于元路徑上下文的交互模塊中,元路徑信息經(jīng)過CNN(Convolutional Neural Network)處理,提取路徑序列顯著性特征和路徑序列完整性特征,通過注意力機制學(xué)習(xí)用戶和項目在元路徑交互中的重要性,得到基于注意力的元路徑上下文嵌入表達,克服了元路徑最大池化操作抽取特征不充分的問題。

(3)基于注意力的特征拼接模塊從用戶、項目協(xié)同注意力嵌入表達,元路徑上下文嵌入表達中計算注意力權(quán)重區(qū)分重要特征,降低冗余特征對推薦系統(tǒng)性能的影響。

在兩個真實的數(shù)據(jù)集上進行了大量實驗。實驗結(jié)果表明,與其他基準模型相比,MICA具有較好的推薦效果,證明了模型結(jié)合用戶、項目協(xié)同注意力表達及元路徑上下文表達實現(xiàn)top-N推薦的有效性。

1 相關(guān)工作

1.1 基于深度學(xué)習(xí)和注意力機制的推薦算法

在基于深度學(xué)習(xí)的推薦算法中,He等人[9]提出了一個基于深度神經(jīng)網(wǎng)絡(luò)的協(xié)同過濾框架NCF,該框架結(jié)合矩陣分解和多層感知機建模用戶和項目之間的復(fù)雜交互;Guo等人[10]提出的DeepFM模型用因子分解機學(xué)習(xí)特征間的低階特性,用深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)特征間的高階組合;神經(jīng)圖協(xié)同過濾推薦框架NGCF[11]利用用戶-項目圖結(jié)構(gòu)傳播嵌入,構(gòu)建高階關(guān)系。以上方法進一步證明了深度學(xué)習(xí)在推薦領(lǐng)域中的重要性。

由于注意力機制的優(yōu)點,許多工作[1,12]開始將注意力機制引入到推薦中。Yuan等人[12]提出了一種基于注意力機制的上下文感知順序推薦模型ACA-GRU,利用注意力機制區(qū)分評分序列中每個項目的重要性;Duan等人[13]提出了一個雙注意力自編碼器的推薦模型,同時提取用戶和項目的重要信息,并將自編碼器與概率矩陣分解相結(jié)合,利用深度學(xué)習(xí)提高推薦效果;鄭誠等人[14]將評分信息分別送入基于自編碼器的協(xié)同過濾模型和融合了注意力機制的協(xié)同過濾模型中,不僅可以挖掘用戶的整體偏好,而且還可以挖掘物品之間的局部依賴信息。以上方法利用注意力機制的優(yōu)點,提取不同方面的重要特征信息用于推薦。

盡管上述工作在推薦系統(tǒng)領(lǐng)域取得了不錯的效果,但其都是基于同質(zhì)信息網(wǎng)絡(luò),而現(xiàn)實生活中大多事物是由多種類型的節(jié)點和邊組成,因此,異質(zhì)信息網(wǎng)絡(luò)成為目前研究的熱點。

1.2 基于異質(zhì)信息網(wǎng)絡(luò)的推薦算法

目前,基于異質(zhì)信息網(wǎng)絡(luò)的方法通過計算元路徑相似性學(xué)習(xí)用戶和項目的表達。Sun等人[15]提出了PathSim方法來評估異質(zhì)信息網(wǎng)絡(luò)中基于對稱路徑的相同類型對象間的相似性,但其計算較為復(fù)雜;Tao等人[16]提出了一種基于半對稱加權(quán)元路徑的相似性度量方法PW-PathSim,計算兩個實體間的相關(guān)性,并將用戶和項目的相似性與矩陣分解相結(jié)合進行推薦;張杰等人[17]采用隨機游走學(xué)習(xí)對稱元路徑中用戶的偏好,采用注意力機制融合偏好權(quán)重,并將其集成到矩陣分解中。這些基于路徑相似性的方法都取得了不錯的效果,但這些方法不適用于不采用對稱路徑的網(wǎng)絡(luò)中。

Metapath2vec[18]針對不同類型的節(jié)點隨機游走以得到更充分的語義關(guān)系;Wang等人[19]假設(shè)用戶或項目在不同元路徑下有共同特征,利用所有元路徑學(xué)習(xí)統(tǒng)一的用戶和項目表達;Yan等人[20]使用了輔助信息將標簽信息整合到推薦中,但該方法忽略了節(jié)點的異質(zhì)性;趙金龍等人[21]提出了保持語義關(guān)系與結(jié)構(gòu)拓撲的異質(zhì)信息網(wǎng)絡(luò)表示方法,設(shè)計了基于元路徑的隨機游走策略獲取異質(zhì)信息網(wǎng)絡(luò)中的節(jié)點序列;Hu等人[22]采用了協(xié)同注意力機制學(xué)習(xí)用戶和項目的重要特征信息,但其最大池化操作會丟失部分重要特征信息。以上基于異質(zhì)信息網(wǎng)絡(luò)的推薦方法在用戶和項目交互中往往只關(guān)注最重要的特征,如使用最大池化操作,這會帶來部分重要信息丟失問題,限制了推薦系統(tǒng)性能的提升。

2 模型和方法

MICA的模型結(jié)構(gòu)如圖1所示,模型由基于k-最大池化的協(xié)同注意力模塊、基于元路徑上下文的交互模塊、基于注意力的特征拼接模塊和輸出模塊四部分組成。基于k-最大池化的協(xié)同注意力模塊先通過查找層得到低維稠密向量,再經(jīng)過多層感知機MLP(Multi-Layer Perceptron)學(xué)習(xí)用戶和項目的抽象特征,計算用戶-項目協(xié)同注意力矩陣,然后結(jié)合k-最大池化與協(xié)同注意力機制分別提取前k個項目和用戶的重要信息,以便最大程度地獲取鄰居信息,最后得到用戶和項目嵌入表達。基于元路徑上下文的交互模塊首先將數(shù)據(jù)集中的4類路徑通過SVDFeature[23]路徑采樣,然后將采樣得到的元路徑實體節(jié)點序列輸入到CNN中提取路徑特征,利用最大池化和平均池化操作計算路徑序列顯著性特征和路徑序列完整性特征,最后通過兩層注意力網(wǎng)絡(luò)生成路徑嵌入表達。基于注意力的特征拼接模塊將用戶和項目協(xié)同注意力嵌入表達與元路徑上下文嵌入表達進行拼接,通過注意力機制提取重要特征抑制噪聲,最終通過輸出模塊實現(xiàn)top-N推薦。

圖1 MICA的整體框架

2.1 主要符號

表1總結(jié)了文中用到的主要符號及其含義。

表1 文中用到的主要符號

2.2 模型描述

2.2.1 基于k-最大池化的協(xié)同注意力模塊

用戶和項目的原始嵌入。對于每個用戶u和項目v,建立查找層轉(zhuǎn)換成低維的稠密向量,即pu∈RLu×1和qv∈RLv×1,Lu表示與用戶具有交互關(guān)系的項目數(shù),Lv表示與項目具有交互關(guān)系的用戶數(shù)。該層對應(yīng)了兩個參數(shù)矩陣,即P∈R|u|×d和Q∈R|v|×d,d表示嵌入表達維度,|u|和|v|分別表示用戶u和項目v的總數(shù)目。因此,用戶和項目的原始嵌入信息表示為矩陣:

Uu=Look-up(P,pu)

(1)

Vv=Look-up(Q,qv)

(2)

其中,Uu∈Rd×Lu和Vv∈Rd×Lv分別對應(yīng)圖1中用戶和項目的原始嵌入。

基于k-最大池化的協(xié)同注意力機制。在與用戶具有交互關(guān)系的項目列表中,每個項目對該用戶最終推薦的作用并不是相同的,與項目具有交互關(guān)系的用戶列表亦是如此,因此,文中采用協(xié)同注意力機制[22],以相互增強的方式選擇較為重要的項目和用戶。對于給定Uu和Vv,計算其協(xié)同注意力矩陣M∈RLu×Lv,M中的每一項Mi,j由用戶、注意力矩陣A和與該用戶具有交互關(guān)系的項目共同確定。Mi,j按照如下公式計算:

(3)

(4)

(5)

使用最大池化抽取顯著性鄰居特征會帶來部分重要特征丟失的問題,因此,對于協(xié)同注意力矩陣M,文中定義k-最大池化操作,采用最大池化抽取矩陣M第i行的前k個最大元素,得到用戶的鄰居注意力特征向量aui,同樣,抽取矩陣M第j列的前k個最大元素,得到項目的鄰居注意力特征向量avj,公式計算如下:

(6)

(7)

(8)

(9)

uu=Uuau

(10)

vv=Vvav

(11)

其中,aui和avj分別表示用戶u的第i個鄰居注意力特征向量,項目v的第j個鄰居注意力權(quán)重向量,通過公式(8)和(9)定義的歸一化操作分別得到用戶u和項目v的鄰居注意力特征表達au∈RLu×1和av∈R1×Lv,基于公式(10)和(11)篩選用戶u和項目v的協(xié)同注意力嵌入表達uu∈R1×d,vv∈R1×d。

2.2.2 基于元路徑上下文的交互模塊

基于元路徑上下文的交互模塊包括路徑節(jié)點序列采樣、元路徑表達和基于注意力的元路徑上下文嵌入表達。

路徑節(jié)點序列采樣。同MCRec[7],文中采用SVDFeature采樣策略。對于給定的元路徑(如UMUM),該元路徑對應(yīng)多條路徑節(jié)點序列,如u1-m2-u2-m1,…,ui′-m1-u2-mj′。以u1-m2-u2-m1為例,計算出u1與m2、m2與u2以及u2與m1的兩兩相似性,對相似性求平均,根據(jù)平均相似性對所有的候選路徑節(jié)點序列排序,保留平均相似性最高的K個路徑節(jié)點序列,文中在3.2.2節(jié)中對參數(shù)K進行了實驗分析。

元路徑表達。將采樣得到的路徑節(jié)點序列送入CNN進行特征提取,CNN由卷積層和池化層組成,卷積層通過卷積運算可以產(chǎn)生新的特征,池化層可以分別抽取最大特征和平均特征,能夠有效得到其對應(yīng)的路徑節(jié)點序列表達。對于元路徑ρ,其路徑節(jié)點序列為p,采用CNN學(xué)習(xí)其嵌入表達hp:

hp=f(Conv1D(W,Cp,″valid″)+d)

(12)

元路徑的節(jié)點序列經(jīng)過CNN處理后,其特征映射中的神經(jīng)元個數(shù)并沒有顯著減少,因此需要進一步抽取特征,降低特征維度。為了抽取路徑序列表達中的顯著特征,文中采用最大池化計算其重要維度特征;同時,為了保證元路徑語義特征的完整性,采用平均池化來保留路徑序列的整體性特征。通過提取路徑序列顯著性特征和完整性特征,既能得到元路徑最重要的語義信息,又能夠保留整體語義信息,通過增加元路徑語義信息量來提高上下文表達,緩解文獻[7]中只采用最大池化操作帶來的語義丟失問題。

元路徑ρ的最終表達cρ計算如下所示:

(13)

(14)

(15)

基于注意力的元路徑上下文嵌入表達。每種元路徑所體現(xiàn)的語義不同,用戶對不同的元路徑有不同的偏好,因此,通過注意力機制學(xué)習(xí)用戶和項目在元路徑交互的重要性。文中采用兩層架構(gòu)實現(xiàn)注意力機制,利用softmax歸一化得到注意力權(quán)重aρ,將其與元路徑的嵌入cρ相乘計算加權(quán)和得到基于注意力的元路徑上下文嵌入表達cu→v,計算如下所示:

(16)

(17)

(18)

2.2.3 基于注意力的特征拼接模塊

將用戶和項目的協(xié)同注意力嵌入表達uu、vv和元路徑上下文嵌入表達cu→v進行拼接,如公式(19)所示:

hu,v=uu⊕vv⊕cu→v

(19)

其中,⊕表示向量的拼接操作。通過拼接操作得到的hu,v會存在一些冗余信息,為了提高推薦精度,文中采用注意力機制進行特征區(qū)分,其過程如下所示:

za=f(W(2)f(W(1)hu,v+b(1))+b(2))

(20)

αu,v=softmax(za)

(21)

zu,v=hu,vαu,v

(22)

其中,hu,v∈R1×3d為拼接后的嵌入,W(1)∈R3d×d和b(1)∈Rd×1為第一層的權(quán)重矩陣和偏置項,W(2)∈Rd×1和b(2)∈R1×1為第二層的權(quán)重矩陣和偏置項。

2.2.4 輸出模塊

(23)

其中,激活函數(shù)采用ReLU,輸入為zu,v∈R1×3d,W(1)∈R3d×d和b(1)∈Rd×1分別為第一層的權(quán)重矩陣和偏置項,W(2)∈Rd×1和b(2)∈R1×1分別為第二層的權(quán)重矩陣和偏置項。

2.3 模型學(xué)習(xí)

使用隱式反饋計算損失函數(shù),借鑒文獻[7,9],通過負采樣技術(shù)來學(xué)習(xí)該模型的參數(shù),讓每個訓(xùn)練樣本只修改一小部分權(quán)重而不是全部權(quán)重,所以,交互(u,v)的優(yōu)化目標如下所示:

(24)

其中,第一項和第二項建模了觀察到的交互和從噪聲分布Pneg抽樣得到的負樣本。Pneg設(shè)置為均勻分布。

3 實 驗

3.1 實驗設(shè)置

3.1.1 數(shù)據(jù)集

該文分別在Movielens和Yelp數(shù)據(jù)集上評估了MICA模型的有效性。Movielens被廣泛應(yīng)用于評估協(xié)同過濾算法,將評分視為用戶與項目之間的一次交互;Yelp是一個商業(yè)數(shù)據(jù)集,它包含用戶對業(yè)務(wù)的評分以及業(yè)務(wù)的相關(guān)信息。這兩個數(shù)據(jù)集的詳細描述如表2所示,表中第3-5列分別表示實體A、實體B和兩個實體之間交互的數(shù)量,表中第6列和第7列分別表示使用的元路徑及其語義描述。其中,元路徑語義描述中的字母是為了方便區(qū)分。

表2 數(shù)據(jù)集描述

3.1.2 評價指標和參數(shù)設(shè)置

(1)評價指標。

采用留一法來評價推薦性能[9],對于每個數(shù)據(jù)集,隨機選擇80%的數(shù)據(jù)作為訓(xùn)練集,剩余20%作為測試集。對于測試集中的每一個正樣本,隨機抽取100個與目標用戶沒有交互記錄的負樣本。評價指標采用準確率(Prec@N)、召回率(Recall@N)和歸一化折損累計增益(NDCG@N),這些指標值越大,效果越好。

(2)參數(shù)設(shè)置。

使用Adam算法優(yōu)化模型,設(shè)置學(xué)習(xí)率lr的取值集合為[0.000 1,0.000 5,0.001,0.005],dropout的取值集合為[0.1,0.3,0.5,0.7,0.9],用戶和項目嵌入維度的取值集合為[64,128,256,512],k-最大池化中k的范圍為[1,10],路徑節(jié)點序列個數(shù)K的取值集合為[1, 3, 5, 7, 9]。最后學(xué)習(xí)率設(shè)置為0.001,dropout設(shè)置為0.5,CNN的卷積核大小kernel_size設(shè)置為3,用戶和項目的嵌入維度latent_dim設(shè)置為256,k-最大池化中的參數(shù)k設(shè)置為7,路徑節(jié)點序列個數(shù)K設(shè)置為5。

3.1.3 基準模型

選用的基準模型如下所示:

BPR[24]:這是經(jīng)典的貝葉斯個性化排序模型,該模型采用最小化隱式反饋成對排序損失,實現(xiàn)top-N推薦。

MF[25]:這是一種標準的矩陣分解方法,為了實現(xiàn)top-N推薦,文中用交叉熵損失來代替原本的損失函數(shù)。

NeuMF[9]:這是僅使用隱式反饋的top-N推薦神經(jīng)網(wǎng)絡(luò)方法,該方法由廣義矩陣分解和多層感知機組成。

NGCF[11]:這是一種神經(jīng)圖協(xié)同過濾推薦框架,該框架利用用戶-項目的圖結(jié)構(gòu)建模高階關(guān)系。

SVDFeaturemp:SVDFeature[23]是一種基于特征的矩陣分解模型。該變體利用Metapath2vec++[18]提取用戶和商品的節(jié)點表達作為SVDFeature的特征,應(yīng)用隨機游走策略和skip-gram,采用非均勻負采樣技術(shù)進行優(yōu)化。

HeteRS[4]:這是一種基于異質(zhì)信息網(wǎng)絡(luò)的排序方法,它采用多變量馬爾可夫鏈建模用戶偏好,但未考慮用戶和項目的重要特征。

FMGrank:FMG[5]是一種基于異質(zhì)信息網(wǎng)絡(luò)的評分預(yù)測模型,利用MF方法生成用戶和項目的嵌入表達,利用FM方法自動選擇有效元圖,文中將其優(yōu)化目標修改為成對排序損失以實現(xiàn)top-N推薦。

MCRec[7]:這是一種基于元路徑的三元神經(jīng)交互模型,能夠?qū)W習(xí)用戶、物品和基于元路徑上下文的有效表達。

LGRec[22]:這是一種融合局部信息和全局信息的異質(zhì)信息網(wǎng)絡(luò)推薦方法,利用協(xié)同注意力機制分別為用戶和項目建模局部信息,通過多標簽分類問題學(xué)習(xí)用戶和項目的關(guān)系表示。

EHCF[8]:這是一種不使用負采樣的高效協(xié)同過濾推薦方法,可以更細粒度地建模用戶-項目關(guān)系。

3.2 實驗結(jié)果與分析

3.2.1 不同方法的性能比較

MICA在兩個數(shù)據(jù)集上與其他模型的性能比較如表3所示,實驗結(jié)果表明:

表3 不同方法在兩個數(shù)據(jù)集上的性能比較

(1)MICA在兩個數(shù)據(jù)集上性能均優(yōu)于其他基準模型,這說明在異質(zhì)信息網(wǎng)絡(luò)中,基于k-最大池化的協(xié)同注意力機制結(jié)合提取路徑序列顯著性特征和完整性特征得到的元路徑上下文嵌入表達能夠提升推薦系統(tǒng)性能,表明所提模型的有效性。

(2)對比基于協(xié)同過濾和基于異質(zhì)信息網(wǎng)絡(luò)這兩類方法,大多數(shù)基于異質(zhì)信息網(wǎng)絡(luò)的方法(SVDFeaturemp、FMGrank和MCRec)優(yōu)于基于協(xié)同過濾的方法(BPR和MF),這說明異質(zhì)信息網(wǎng)絡(luò)能更有效地提取特征信息。

另外,NeuMF和NGCF在基于協(xié)同過濾方法中效果較好,這說明采用深度學(xué)習(xí)算法可以提高推薦效果。

(3)在基于異質(zhì)信息網(wǎng)絡(luò)的方法中,EHCF效果最好,MCRec和LGRec模型次之,這表明基于元路徑的上下文信息在推薦中能夠挖掘更豐富的語義信息;FMGrank性能僅次于MCRec與LGRec模型,但優(yōu)于SVDFeaturemp,這表明元圖在捕獲元路徑語義關(guān)系方面的有效性;MICA優(yōu)于EHCF,證明在異質(zhì)信息網(wǎng)絡(luò)中,采用深度學(xué)習(xí)方法優(yōu)于傳統(tǒng)協(xié)同過濾方法。

3.2.2 參數(shù)對模型性能的影響

為了驗證參數(shù)對模型的影響,選擇三個關(guān)鍵參數(shù),即用戶和項目的嵌入維度、k-最大池化的參數(shù)k和路徑節(jié)點序列個數(shù)K,實驗結(jié)果如圖2所示。對于圖2(a),隨著用戶和項目的嵌入維度不斷增大,性能越來越好,當嵌入維度為256時,性能最優(yōu),但當維度為512時,效果下降,這說明嵌入維度過小或過大會帶來欠擬合和過擬合的問題。對于圖2(b),k為7時效果較好,這說明抽取用戶和項目的前k個鄰居信息的可行性,不僅可以保留鄰居的重要信息,還可以有效減少信息丟失,在數(shù)據(jù)集Movielens上表現(xiàn)出的效果較為顯著。對于圖2(c),當K為5時,模型取得的效果最優(yōu),這說明當路徑節(jié)點序列K為1或3時,依據(jù)相似性排序得到的路徑節(jié)點序列個數(shù)相對較少,無法充分挖掘節(jié)點序列信息;當K為7或9時,隨著序列個數(shù)的增多,序列的相似性會依次降低,而相似性低的序列可能會引入不必要的噪聲,降低模型效果。因此,MICA選取用戶和項目的嵌入維度為256、k-最大池化參數(shù)為7和路徑節(jié)點序列K為5作為最終的參數(shù)值。

圖2 參數(shù)對MICA的影響

3.2.3 消融實驗

為了證明MICA各模塊的有效性,設(shè)置了5個變體模型:

(1)no_kcoatt:MICA的協(xié)同注意力機制未使用基于k-最大池化操作;

(2)no_avg&max:基于元路徑上下文的交互模塊中未使用平均池化和最大池化;

(3)no_avg:基于元路徑上下文的交互模塊中使用了最大池化,但未使用平均池化;

(4)no_max:基于元路徑上下文的交互模塊中使用了平均池化,但未使用最大池化;

(5)no_att:基于注意力的特征拼接模塊中未使用注意力機制。

從圖3可以看出,各個模型的性能排序為:MICA>no_att>no_kcoatt>no_avg>no_max>no_avg&max,從比較結(jié)果可以看出,在兩個數(shù)據(jù)集中,MICA可以提高推薦效果。首先,采用基于k-最大池化的協(xié)同注意力機制以相互增強的方式分別得到用戶和項目的鄰居注意力特征表達;其次,在卷積層之后采用平均池化進行路徑序列完整性特征提取(no_max)效果不如路徑序列顯著性特征提取(no_avg)模型,但結(jié)合平均池化與最大池化(no_kcoatt),既可以保留顯著性特征,也可以保留完整性特征,提高了推薦性能;最后,使用基于注意力的特征拼接模塊(MICA)性能優(yōu)于不使用注意力機制的對應(yīng)模塊(no_att),這表明拼接之后存在冗余特征,利用注意力機制可以篩選重要特征信息。

圖3 各個變體與MICA的性能對比

3.2.4 不同模型中不同dropout值的影響

MCRec和MICA在不同dropout取值時的對比結(jié)果如圖4所示。從圖中可以看出,MICA表現(xiàn)出較好的效果,在Yelp數(shù)據(jù)集中尤為明顯。當dropout為0.5時,MCRec和MICA都表現(xiàn)出較好的效果,當dropout為0.3和0.7時,推薦性能次之,而0.1和0.9時效果最差,這說明隨機丟棄的神經(jīng)元過少或過多會帶來過擬合和欠擬合問題,影響推薦效果。

圖4 不同dropout取值在MCRec和MICA中Prec@10的對比

3.2.5 不同元路徑的影響

為了分析異質(zhì)信息網(wǎng)絡(luò)中不同元路徑對最終推薦性能的影響,以NeuMF模型為基準模型(該模型是不含異質(zhì)信息的神經(jīng)協(xié)同過濾模型),在兩個數(shù)據(jù)集中逐步加入元路徑,結(jié)果如圖5所示。

圖5 不斷加入元路徑時,MICA的性能變化

從圖中可以看出,未加入元路徑時NeuMF在Prec@10指標表現(xiàn)優(yōu)于MICA,當不斷加入元路徑時,MICA的性能逐漸提高,這說明有效利用異質(zhì)信息網(wǎng)絡(luò)元路徑可以融入更多上下文信息,提高推薦效果。此外,加入不同元路徑對MICA性能提升幅度不同,這說明不同元路徑表達的語義信息不同,比如,在Movielens數(shù)據(jù)集中,添加元路徑UMTM時,可以看到模型的性能有明顯的提升,而在Yelp數(shù)據(jù)集中,添加元路徑UBCaB和UBCiB效果提升較為顯著。

4 結(jié)束語

針對現(xiàn)有模型的不足,提出了一種融合元路徑與改進協(xié)同注意力的推薦模型,為了使模型達到最優(yōu)的效果,提出了基于k-最大池化的協(xié)同注意力機制,有效避免了信息丟失;提出了同時提取路徑序列顯著性特征和完整性特征保留元路徑語義信息,并利用注意力機制有效緩解用戶、項目和元路徑拼接帶來的特征冗余問題,提高推薦性能。

由于選擇元路徑需要一定的經(jīng)驗知識,目前在異質(zhì)信息網(wǎng)絡(luò)中選擇元路徑仍需手動選擇,所以,未來將考慮如何自動選擇元路徑,從而更加擬合現(xiàn)有模型。

猜你喜歡
特征用戶模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
主站蜘蛛池模板: 青青青国产精品国产精品美女| 波多野结衣中文字幕一区二区| 中国国产A一级毛片| 露脸真实国语乱在线观看| 5555国产在线观看| 91久久国产热精品免费| 免费全部高H视频无码无遮掩| 婷婷久久综合九色综合88| 久久久久国产精品嫩草影院| 真人高潮娇喘嗯啊在线观看| 精品少妇人妻无码久久| 日本人妻丰满熟妇区| 91九色视频网| 国产精品无码久久久久AV| 无码高清专区| 久久久久人妻精品一区三寸蜜桃| 亚洲婷婷丁香| 久久99国产视频| 亚洲欧美色中文字幕| 国产一区二区福利| 伊人久久影视| 尤物精品视频一区二区三区 | 一区二区三区高清视频国产女人| a色毛片免费视频| 激情乱人伦| 国产午夜小视频| 欧美日韩在线国产| 国产在线专区| 国产精品19p| 亚洲精品无码久久毛片波多野吉| 免费可以看的无遮挡av无码| 一区二区三区国产| 国产99在线观看| 国产精品高清国产三级囯产AV| 国产本道久久一区二区三区| 亚洲综合经典在线一区二区| 精品国产自在现线看久久| 尤物亚洲最大AV无码网站| 操国产美女| 久久久久久久久18禁秘| 亚洲中文字幕久久无码精品A| 亚洲va视频| 欧美日韩导航| 综合色区亚洲熟妇在线| 亚洲天堂精品视频| 久久这里只有精品2| 久久一本精品久久久ー99| 一级做a爰片久久免费| 免费毛片全部不收费的| 四虎国产永久在线观看| 二级特黄绝大片免费视频大片| 久久频这里精品99香蕉久网址| 亚洲成人在线免费| 黄色不卡视频| 国产一在线| 国产91视频免费观看| 搞黄网站免费观看| 欧美日韩在线亚洲国产人| 国产亚洲精品91| 国产激情影院| 国产免费自拍视频| 国产成人AV综合久久| 99久久亚洲精品影院| 无码'专区第一页| 欧美精品在线观看视频| 欧美一级99在线观看国产| 国产激爽大片在线播放| 国产sm重味一区二区三区| 欧美成人日韩| 日韩最新中文字幕| 亚洲欧美另类中文字幕| 一级毛片a女人刺激视频免费| 国产成人超碰无码| 99在线国产| 一级毛片免费播放视频| 国产精品久久久久久影院| 女人av社区男人的天堂| 日韩色图区| 香蕉网久久| 国产亚洲视频在线观看| 欧美精品不卡| 美女一级免费毛片|