999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合用戶偏好與新聞方面級特征表示的推薦框架

2024-12-10 00:00:00耿宜鵬崔慶華
現(xiàn)代信息科技 2024年24期

摘" 要:文章提出了一種基于方面級的用戶偏好和新聞特征表示學(xué)習(xí)的新聞推薦框架(ALNR),通過新聞方面級編碼器和用戶方面級編碼器分別學(xué)習(xí)用戶偏好和新聞方面級特征表示。這些編碼器的設(shè)計(jì)能夠捕捉用戶和新聞之間的差異,以此預(yù)測用戶點(diǎn)擊候選新聞項(xiàng)目的概率,從而提高了推薦系統(tǒng)的個性化水平。通過在MIND數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證了所提出方法明顯優(yōu)于當(dāng)前領(lǐng)先的基線方法,進(jìn)一步證明了方面級特征的重要性。

關(guān)鍵詞:新聞推薦;用戶偏好;方面級特征;表示學(xué)習(xí)

中圖分類號:TP391.5" " 文獻(xiàn)標(biāo)識碼:A" " " 文章編號:2096-4706(2024)24-0121-06

Recommendation Framework Integrating User Preferences and News Aspect-level Feature Representation

GENG Yipeng, CUI Qinghua

(Nantong Institute of Technology, Nantong" 226002, China)

Abstract: This proposes a news recommendation framework (ALNR) based on aspect-level user preferences and news feature representation learning. By news aspect-level encoders and user aspect-level encoders, it learns user preferences and news aspect-level feature representations separately. The design of these encoders allows for the capture of differences between users and news, enabling the prediction of the probability of a user clicking on a candidate news item, thereby enhancing the personalization level of the recommendation system. Through experiments conducted on the MIND dataset, it has been verified that the proposed method significantly outperforms the current leading baseline method, further demonstrating the importance of aspect-level features.

Keywords: news recommendation; user preference; aspect-level feature; representation learning

0" 引" 言

隨著在線應(yīng)用的普及,用戶可以隨時隨地獲取各種新聞。然而,這種便利也帶來了嚴(yán)重的“信息過載”問題[1]。個性化新聞推薦系統(tǒng)能夠幫助用戶從海量新聞中找到自己最感興趣的內(nèi)容[2]。因此,它已成為當(dāng)今網(wǎng)絡(luò)新聞平臺不可或缺的功能。

近年來,隨著深度學(xué)習(xí)技術(shù)在新聞推薦領(lǐng)域的深入研究和不斷發(fā)展[3-4],但大多數(shù)方法都試圖在粗粒度的主題級別上建模用戶偏好,并在粗粒度的方面級別上表示新聞特征[5-6]。然而,細(xì)粒度的特征信息對于新聞推薦是必不可少的[7]。然而,現(xiàn)有的方法都忽略了在方面層面上對用戶偏好和新聞特征的建模,導(dǎo)致新聞推薦的效果有限[8]。

現(xiàn)有的新聞推薦方法的缺陷主要有三個方面:第一,現(xiàn)有往往較為粗糙,無法準(zhǔn)確描述新聞特征[9]。如表1所示,以第一篇新聞文章為例,主題是健康,但還可以用更細(xì)粒度的方面來描述文章。第二,主題信息不能全面反映用戶偏好。以第二篇新聞文章為例,用戶可能對與汽車新聞相關(guān)的某些方面感興趣。第三,一部分新聞文章沒有明確標(biāo)注主題信息。以第三篇新聞文章為例,主題標(biāo)注十分耗時,不可能為所有新聞文章生成主題標(biāo)簽。這限制了建立在明確主題信息上的新聞推薦系統(tǒng)的適用性[10]。

相比之下,新聞文章的方面信息可以從其內(nèi)容中自動提取,這證明了由細(xì)粒度方面信息驅(qū)動的新聞推薦的必要性。因此,本文提出了一種基于方面級表示的新聞推薦框架(ALNR)。該框架由用戶方面級編碼器、新聞方面級編碼器和點(diǎn)擊預(yù)測器組成,旨在更準(zhǔn)確地學(xué)習(xí)用戶偏好和新聞特征。更具體地說,新聞方面級編碼器和用戶方面級編碼器配備了一個方面級特征提取器,分別為新聞項(xiàng)目和用戶生成方面級特征表示,這些表示隨后被輸入到點(diǎn)擊預(yù)測器中。點(diǎn)擊預(yù)測器計(jì)算給定用戶點(diǎn)擊每條候選新聞的概率,從而為用戶生成新聞的推薦列表。

本文的主要貢獻(xiàn)點(diǎn)如下:

1)提出了通過對細(xì)粒度的方面級用戶偏好和新聞特性進(jìn)行建模的方法,并利用特征提取器從新聞項(xiàng)中學(xué)習(xí)更準(zhǔn)確的用戶偏好和新聞特征表示。

2)設(shè)計(jì)了一個新的新聞推薦框架(ALNR),包括用戶方面級編碼器、新聞方面級編碼器和點(diǎn)擊預(yù)測器,以提供更準(zhǔn)確的新聞推薦服務(wù)。

3)在新聞數(shù)據(jù)集MIND上進(jìn)行了廣泛的實(shí)驗(yàn),結(jié)果表明本方法在性能上優(yōu)于最先進(jìn)的競爭方法。

1" 基于方面級表示的新聞推薦框架

在本節(jié)中,我們將介紹本文提出的新聞推薦框架(ALNR),其架構(gòu)如圖1所示,其體系結(jié)構(gòu)包括三個核心模塊:新聞方面級編碼器、用戶方面級編碼器和點(diǎn)擊預(yù)測器,每個模塊的描述如下。

1.1" 問題形式化

給定用戶u,用戶u瀏覽的新聞集定義為N u = {n1,n2,…,nm}。考慮到一條候選新聞c,其二元標(biāo)簽y = {0,1}表示用戶u是否會點(diǎn)擊新聞c。ALNR框架被訓(xùn)練為一個預(yù)測模型,該模型通過學(xué)習(xí)u歷史瀏覽新聞Nu來預(yù)測u點(diǎn)擊c的概率,通過概率值對所有的候選新聞進(jìn)行排序。本方法的目標(biāo)是訓(xùn)練模型,得到一個用戶可能會感興趣的新聞列表,最終實(shí)現(xiàn)個性化的新聞推薦。

1.2" 新聞方面級編碼器

為了獲得新聞特征嵌入和方面級特征嵌入,本文設(shè)計(jì)了新聞方面級編碼器,如圖1(a)所示,該編碼器由兩個核心子模塊組成:新聞特征提取器和方面級特征提取器。

給定一條新聞,首先使用新聞特征提取器和方面級特征提取器對其進(jìn)行編碼,從而分別生成初始新聞嵌入r和特定于方面的嵌入rd。接著,將r和rd拼接,產(chǎn)生最終的新聞表示n,如下所示:

n = [r;rd] (1)

1.2.1" 新聞特征提取器

為了充分提取每篇新聞文章的標(biāo)題、類別和摘要三個部分信息,受Wu等人[11]的啟發(fā),本文設(shè)計(jì)了四個組件,將這些信息同時編碼為潛在表征中,包括標(biāo)題學(xué)習(xí)組件、摘要學(xué)習(xí)組件、類別學(xué)習(xí)組件和注意力組件,如圖2(a)所示。

1)標(biāo)題學(xué)習(xí)組件:該組件分為三層,第一層將新聞標(biāo)題中的單詞轉(zhuǎn)換為單詞嵌入。首先,將新聞標(biāo)題定義為T = {w1,w2,…,wN},w為單詞,N為標(biāo)題中單詞的個數(shù)。根據(jù)詞嵌入矩陣W∈RV×D,其中V表示詞匯的大小,D表示詞嵌入的維數(shù),將新聞標(biāo)題T轉(zhuǎn)為嵌入表示E n = {e1,e2,…,eN}。

考慮到卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)被廣泛應(yīng)用于捕捉文本特征[12]。因此,我們利用CNN網(wǎng)絡(luò)在第二層中捕獲新聞標(biāo)題更深層的特征,第ith個位置的表示如式(2)所示:

(2)

其中,f表示ReLU,表示卷積算子,e(i-k):(i+k)表示從位置(i-k)到(i+k)的詞嵌入的連接,Cw表示CNN濾波器的核,bw為偏置向量。基于第二層的特征學(xué)習(xí),可以得到一系列上下文詞嵌入{c1,c2,…,cN}。

在第三層中,為了捕獲新聞表述的重要特征,我們利用詞級注意力網(wǎng)絡(luò)[13]來增強(qiáng)新聞標(biāo)題的重要特征信息表示,如式(3)~(5)所示:

(3)

(4)

(5)

其中,符號φ表示tanh運(yùn)算,q、v和V表示可學(xué)習(xí)參數(shù),ci表示標(biāo)題的第jth詞的嵌入,rt表示新聞標(biāo)題的最終表示。

2)摘要學(xué)習(xí)組件:新聞?wù)蜆?biāo)題的學(xué)習(xí)過程類似,因此,得到新聞?wù)谋硎緍a。

3)類別學(xué)習(xí)組件:由于大多數(shù)新聞文章帶有類別和子類別標(biāo)簽信息,也是新聞推薦的關(guān)鍵特征。為此,我們設(shè)計(jì)將兩類類別轉(zhuǎn)換為低維密集表示,并生成相應(yīng)的表示,如式(6)~(7)所示:

(6)

(7)

其中,f表示ReLU,ec和esubc表示類別和子類別的嵌入表示,Vc、vc和Vsubc表示密層參數(shù),rc和rsubc分別表示新聞類別和子類別的表示。

4)注意力組件:為了融合學(xué)習(xí)到的各類特征表示,我們使用注意力網(wǎng)絡(luò)來給定新聞中包含的各種特征信息的權(quán)重,并構(gòu)建最終的新聞表示。注意力權(quán)重的表示方法如式(8)所示:

(8)

(9)

其中,符號φ表示tanh,qt、Vt和vt表示可學(xué)習(xí)參數(shù),λt、λa、λc和λsubc分別表示標(biāo)題、摘要、類別和子類別的權(quán)重參數(shù)表示。最后,結(jié)合相應(yīng)的嵌入表示,構(gòu)建最終的新聞表示r,如式(10)所示:

(10)

1.2.2" 方面級特征提取器

如圖2(b)所示,受He等人[14]工作的啟發(fā),我們設(shè)計(jì)了方面級的特征提取器,包括基于注意力的新聞嵌入和基于方面級特征的新聞嵌入重構(gòu):

1)基于注意力的新聞嵌入。為了捕獲每個新聞條目中的重要方面級詞匯,我們利用注意機(jī)制對新聞進(jìn)行編碼,如式(11)~(14)所示:

(11)

(12)

(13)

(14)

其中,ei表示該詞在新聞內(nèi)容中的嵌入,包括標(biāo)題、摘要和類別。Y表示單詞嵌入的平均值,H表示y和ei的映射矩陣。為權(quán)重,可以看作是第ith詞是描述新聞主要方面級特征信息的正確方面詞的概率。zd表示根據(jù)每個可能方面級詞匯的加權(quán)概率進(jìn)行的基于注意力的新聞嵌入。

2)基于方面級特征的新聞嵌入重構(gòu)。為了保證方面級特征提取的質(zhì)量,受自編碼器的啟發(fā),我們通過提取的方面嵌入的線性組合來重構(gòu)每個新聞,如式(15)~(16)所示:

(15)

(16)

其中,Wp表示權(quán)重矩陣,b表示偏置向量,P可以看作是所有方面級嵌入的權(quán)重向量,A表示方面級嵌入矩陣,它是用新聞嵌入的k均值質(zhì)心初始化的。rd表示用方面級詞匯重構(gòu)的新聞嵌入。

1.3" 用戶方面級編碼器

如圖1(b)所示,為了準(zhǔn)確地對用戶偏好進(jìn)行建模,本文設(shè)計(jì)了一個用戶方面級編碼器,該編碼器由新聞的兩個提取器以及用戶偏好提取器組成。更具體地說,使用兩個新聞特征提取器分別學(xué)習(xí)一般新聞表示k和特定于方面級特征的新聞表示kd。用戶歷史瀏覽新聞的最終表示,如(17)所示:

n′ = [k;kd] (17)

為了從每個用戶瀏覽的新聞中對用戶表示建模,我們進(jìn)一步設(shè)計(jì)了一個用戶偏好提取器。它采用句子級注意力機(jī)制,通過選擇重要新聞,學(xué)習(xí)更準(zhǔn)確的用戶表征,具體如式(18)~(20)所示:

(18)

(19)

(20)

其中,符號φ表示tanh運(yùn)算,表示用戶u瀏覽的第ith新聞的表示,qn、Vn和vn表示可學(xué)習(xí)參數(shù),M表示用戶u瀏覽的新聞的總條數(shù),表示注意力權(quán)重,最后,用戶u的方面級特征表示u是瀏覽新聞表示的加權(quán)總和。

1.4" 點(diǎn)擊預(yù)測器

當(dāng)獲取到方面級新聞表示n和用戶表示u,根據(jù)Okura等人[15]的工作,我們設(shè)計(jì)了點(diǎn)擊預(yù)測器通過對用戶表示u與候選新聞n進(jìn)行內(nèi)積計(jì)算,得到用戶點(diǎn)擊候選新聞的概率,計(jì)算如式(21)所示:

(21)

2" 實(shí)驗(yàn)分析

2.1" 數(shù)據(jù)集

實(shí)驗(yàn)使用的是經(jīng)典的新聞數(shù)據(jù)集MIND[16],該數(shù)據(jù)集收集來自Microsoft News網(wǎng)站的匿名行為日志,包含兩個子數(shù)據(jù)集,數(shù)據(jù)集詳情如表2所示。對于每條新聞,MIND提供標(biāo)題、類別、摘要和實(shí)體信息;考慮到數(shù)據(jù)集的特殊組成,實(shí)驗(yàn)將發(fā)布的驗(yàn)證集作為測試集,并從訓(xùn)練集中分離10%的樣本作為新的驗(yàn)證集。

2.2" 評價指標(biāo)

平均倒數(shù)排名(Mean Reciprocal Rank, MRR)和歸一化折損累計(jì)增益(Normalize Discounted Cumulative Gain, nDCG)是用來衡量推薦模型排序性能的指標(biāo),定義如式(22)~(23)所示:

(22)

(23)

其中,N表示用戶的總量,Pi表示第i個用戶的真實(shí)訪問值在推薦列s表的位置,若推薦列表不存在該值,則p = +∞。

2.3" 實(shí)驗(yàn)設(shè)置

本研究基于TensorFlow框架構(gòu)建神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型,在NVIDIA GeForce RTX3090顯卡和16 GB內(nèi)存的環(huán)境下訓(xùn)練模型。實(shí)驗(yàn)利用預(yù)訓(xùn)練好的Glove embedding[17]初始化單詞嵌入,并將嵌入維數(shù)設(shè)置為300。對于所有模塊,CNN的過濾器設(shè)置為400,窗口大小設(shè)置為5。對于訓(xùn)練,我們將負(fù)采樣比設(shè)置為6,批大小設(shè)置為256。為了避免過擬合,dropout值設(shè)置為0.2。

2.4" 對比方法

在實(shí)驗(yàn)中,我們對比了幾種具有代表性的基線模型,包括潛在因素模型和神經(jīng)網(wǎng)絡(luò)模型:

1)FM[18],一種基于矩陣分解的推薦任務(wù)非線性模型,它結(jié)合了支持向量機(jī)和分解模型的優(yōu)點(diǎn)。

2)CNN[19],一種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò),利用CNN對新聞標(biāo)題的詞序列進(jìn)行編碼,并應(yīng)用最大池化來捕獲特征以進(jìn)行新聞推薦。

3)DKN[20],一種基于深度學(xué)習(xí)的新聞推薦系統(tǒng),它利用CNN和注意力機(jī)制來學(xué)習(xí)用戶和新聞表示,并使用知識圖來提高推薦的有效性。

4)TANR[5],一個最先進(jìn)的新聞推薦系統(tǒng),它應(yīng)用CNN和注意力網(wǎng)絡(luò),在主題類別標(biāo)簽的幫助下生成主題感知的新聞表示。

5)LSTUR[21],一種新聞推薦序列模型,通過門循環(huán)單元網(wǎng)絡(luò)對長期和短期用戶偏好進(jìn)行建模。

6)ALNR*,表示為ALNR的簡化版本,它從標(biāo)準(zhǔn)ANRS模型中刪除了所有方面級特征提取器。

2.5" 實(shí)驗(yàn)結(jié)果與分析

2.5.1" 推薦性能對比

為了驗(yàn)證ALNR的有效性,我們對其推薦精度進(jìn)行了基線比較。表3和表4中呈現(xiàn)了MRR、nDCG@5和nDCG@10的結(jié)果,并得出以下結(jié)論:

傳統(tǒng)的潛在因素模型(FM)無法有效捕獲復(fù)雜和深層的特征,因此其表現(xiàn)明顯較差。與潛在因素模型相似,單個神經(jīng)網(wǎng)絡(luò)(如CNN)的性能相對較低,表明基礎(chǔ)神經(jīng)網(wǎng)絡(luò)模型無法完全捕獲新聞內(nèi)容的特征。然而,利用新聞類別的深度神經(jīng)網(wǎng)絡(luò)(如DKN、LSTUR、TANR)相對于潛在因素模型取得了顯著的改進(jìn)。盡管這些模型優(yōu)于基礎(chǔ)模型,但它們無法捕獲與新聞內(nèi)容相關(guān)的細(xì)粒度方面級信息,從而限制了性能改進(jìn)。

基于注意力機(jī)制的方法(如DKN)在模型新聞表示中應(yīng)用了多頭自注意力,相較于其他基線表現(xiàn)更好。然而,它仍然忽略了細(xì)粒度的方面信息,因此其性能不及我們提出的ALNR模型。相比之下,我們的ALNR模型不僅捕獲了各種類型的新聞信息,還學(xué)習(xí)了細(xì)粒度的方面級信息,從而支持更準(zhǔn)確的推薦。因此,ALNR在所有指標(biāo)上表現(xiàn)出最佳性能。ALNR的性能甚至優(yōu)于TANR,這表明在新聞推薦的背景下,細(xì)粒度的方面信息比傳統(tǒng)的主題信息更為強(qiáng)大。

此外,當(dāng)從ANRS中刪除了所有模塊的方面級特征提取器,構(gòu)建了一個精簡的變體ANRS*,從實(shí)驗(yàn)結(jié)果可以看出,方面級信息在提高推薦性能上起到非常關(guān)鍵的作用。

2.5.2" 方面級詞匯數(shù)量的影響

我們將方面級詞匯的數(shù)量從10到45,步長為5,并在圖2中顯示相應(yīng)的性能。方面級特征提取器中的矩陣用新聞嵌入的k均值質(zhì)心初始化,這決定了方面級詞匯的數(shù)量。實(shí)驗(yàn)結(jié)果顯示,當(dāng)方面級詞匯數(shù)設(shè)置為40時,模型達(dá)到了最佳性能。可能的原因有兩個方面。一方面,當(dāng)方面的數(shù)量小于40時,模型無法捕獲足夠的方面特征。另一方面,當(dāng)方面數(shù)超過40個時,模型更容易捕獲和吸收噪聲信息。

2.5.3" 不同輸入數(shù)據(jù)的影響

我們將不同類型的新聞相關(guān)數(shù)據(jù)輸入到模型中并比較其性能。根據(jù)輸入數(shù)據(jù)的差異,我們將標(biāo)準(zhǔn)ALNR轉(zhuǎn)換為ALNRt、ALNRtc、ALNRa、ALNRac、ALNRat和ALNRact六種變體。其中,ALNRt表示僅將新聞的標(biāo)題作為輸入的ALNR模型,而上標(biāo)c和上標(biāo)a分別表示新聞類別和摘要。從圖3可以看出,ALNRact(即將所有可用數(shù)據(jù)作為輸入的標(biāo)準(zhǔn)ALNR模型)的性能最好。此外,ALNRt和ALNRtc的性能分別優(yōu)于ALNRa和ALNRac。這可能是因?yàn)樵谛侣勍扑]的背景下,新聞標(biāo)題比摘要更能提供信息。當(dāng)比較ALNRat和ALNRact時,引入類別特征信息也可以提示模型的推薦精度。

3" 結(jié)" 論

本研究提出了一種新的方面驅(qū)動新聞推薦框架(ALNR)。該框架建立在用戶偏好和新聞的方面級特征表示學(xué)習(xí)的基礎(chǔ)上,由三個主要模塊組成:新聞方面級編碼器、用戶方面級編碼器和點(diǎn)擊預(yù)測器。在新聞編碼器和用戶編碼器中,提取方面級特征信息分別增強(qiáng)新聞和用戶的表示。在真實(shí)新聞數(shù)據(jù)集的評估結(jié)果證明了我們提出的模型的優(yōu)越性。本研究提供更符合用戶興趣和偏好的新聞推薦,有利于改善用戶的閱讀體驗(yàn)。在未來工作中,我們考慮挖掘更多的用戶行為的隱式反饋數(shù)據(jù),如用戶點(diǎn)擊、瀏覽、收藏等,以進(jìn)一步提升推薦的個性化程度。

參考文獻(xiàn):

[1] 耿宜鵬,鞠時光,蔡文鵬,等.基于Skip-PTM的網(wǎng)頁主題分類與主題變遷的研究 [J].小型微型計(jì)算機(jī)系統(tǒng),2020,41(7):1395-1399.

[2] 姚楠,何山,趙越,等.結(jié)合強(qiáng)化學(xué)習(xí)和用戶短期行為的新聞推薦算法 [J].計(jì)算機(jī)應(yīng)用與軟件,2024,41(4):284-290.

[3] MA M,NA S,WANG H,et al. The Graph-based Behavior-aware Recommendation for Interactive News [J].Applied Intelligence,2022,52(2):1913-1929.

[4] GENG Y,SHAO Y,ZHANG S,et al. Multi-hop Temporal Knowledge Graph Reasoning over Few-Shot Relations with Novel Method [C]//2022 2nd International Conference on Consumer Electronics and Computer Engineering.Guangzhou:IEEE,2022:551-556.

[5] WU C,WU F,AN M,et al. Neural News Recommendation with Topic-Aware News Representation[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.Florence:ACL,2019:1154-1159.

[6] HU L M," LI C, SHI C,et al. Graph Neural News Recommendation with Long-term and Short-term Interest Modeling [J/OL].Information Processing and Management,2020,57(2):102142(2019-11-15).https://doi.org/10.1016/j.ipm.2019.102142.

[7] ZOGAN H,RAZZAK I,WANG X,et al. Explainable Depression Detection with Multi-aspect Features Using a Hybrid Deep Learning Model on Social Media [J].Proceedings of the 25th World Wide Web Conference,2022,25(1):281-304.

[8] RAZA S,DING C. News Recommender System: a Review of Recent Progress,Challenges, and Opportunities [J].Artificial Intelligence Review,2022,55(1):749-800.

[9] 田萱,丁琪,廖子慧,等.基于深度學(xué)習(xí)的新聞推薦算法研究綜述 [J].計(jì)算機(jī)科學(xué)與探索,2021,15(6):971-998.

[10] 武金路,崔曉暉.基于用戶隱式反饋信號和多維度興趣的新聞推薦算法 [J].計(jì)算機(jī)工程與應(yīng)用,2024,60(12):101-110.

[11] WU C,WU F,AN M,et al. Neural News Recommendation with Attentive Multi-View Learning [C]//Proceedings of the 28th International Joint Conference on Artificial Intelligence.AAAI Press:Macao,2019:3863-3869.

[12] WANG B,KANG Y,HUO D,et al. Depression Signal Correlation Identification from Different EEG Channels Based on CNN Feature Extraction [J/OL].Psychiatry Research: Neuroimaging,2023,328:111582(2022-12-22).https://doi.org/10.1016/j.pscychresns.2022.111582.

[13] LIU D,QU X,LIU X Y,et al. Jointly Cross and Self-Modal Graph Attention Network for Query-Based Moment Localization [C]//Proceedings of the 28th ACM International Conference on Multimedia.Association for Computing Machinery:New York,2020:4070-4078.

[14] HE R,LEE W S,NG H T,et al. An Unsupervised Neural Attention Model for Aspect Extraction [C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics.Vancouver:ACL,2017:388-397.

[15] OKURA S,TAGAMI Y,ONO S,et al. Embedding-based News Recommendation for Millions of Users [C]//Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.Association for Computing Machinery:New York,2017:1933-1942.

[16] WU F,QIAO Y,CHEN J H,et al. MIND: A Large-scale Dataset for News Recommendation [C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.ACL,2020:3597-3606.

[17] PENNINGTON J,SOCHER R,MANNING C. GloVe: Global Vectors for Word Representation [C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing.Doha:ACL,2014:1532-1543.

[18] RENDLE S. Factorization Machines [C]//Proceedings of the 2010 IEEE International conference on data mining.Sydney:IEEE,2010:995-1000.

[19] CHEN Y. Convolutional Neural Network for Sentence Classification [D].Waterloo:University of Waterloo,2015.

[20] WANG H,ZHANG F,XIE X,et al. DKN: Deep Knowledge-Aware Network for News Recommendation [C]//Proceedings of the 21th World Wide Web Conference.Republic and Canton of Geneva:International World Wide Web Conferences Steering Committee,2018:1835-1844.

[21] AN M,WU F,WU C,et al. Neural News Recommendation with Long-and Short-term User Representations [C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.Florence:ACL,2019:336-345.

作者簡介:耿宜鵬(1995—),男,漢族,助教,碩士,研究方向:自然語言處理;通信作者:崔慶華(1992—),女,漢族,講師,碩士,研究方向:推薦系統(tǒng)。

主站蜘蛛池模板: 成人av专区精品无码国产| 欧美日韩国产综合视频在线观看 | 成人精品在线观看| 在线不卡免费视频| 亚洲精品你懂的| 亚洲精品自在线拍| 理论片一区| 青青青国产视频手机| 国产鲁鲁视频在线观看| 免费观看亚洲人成网站| 亚洲欧美日韩成人高清在线一区| 亚洲欧美在线精品一区二区| 日韩人妻精品一区| 无码综合天天久久综合网| 欧美精品三级在线| 一本久道久综合久久鬼色| 亚洲av无码片一区二区三区| 亚洲性影院| 亚洲av无码片一区二区三区| 国产麻豆精品在线观看| 午夜福利免费视频| 中文字幕在线免费看| a级毛片免费播放| 欧美日韩国产高清一区二区三区| a级毛片免费播放| 黄色一级视频欧美| 一级毛片免费观看不卡视频| 欧美日韩中文国产va另类| 欧美中文字幕一区| 免费全部高H视频无码无遮掩| 精品無碼一區在線觀看 | 亚洲中文无码h在线观看| 国产高清不卡视频| 亚洲人成高清| 风韵丰满熟妇啪啪区老熟熟女| 免费国产高清精品一区在线| 91精品国产情侣高潮露脸| 九九视频免费在线观看| 91娇喘视频| 国产精品久久久久久久久久98| 国产精品漂亮美女在线观看| 国产无人区一区二区三区| 五月天综合婷婷| 2021国产v亚洲v天堂无码| 亚洲午夜天堂| www.国产福利| 精品国产Ⅴ无码大片在线观看81| 亚洲无线国产观看| 中文字幕 日韩 欧美| 国禁国产you女视频网站| 国产正在播放| 日韩欧美国产综合| 97久久人人超碰国产精品| 综合社区亚洲熟妇p| 久久中文字幕2021精品| 亚洲综合色区在线播放2019| 国产黄色片在线看| 8090成人午夜精品| 97在线观看视频免费| 久久无码av一区二区三区| 久久国产精品77777| 国产成人禁片在线观看| 玖玖精品在线| 亚洲色图欧美激情| 免费激情网址| 精品国产一区二区三区在线观看| 亚洲 欧美 日韩综合一区| 免费午夜无码18禁无码影院| 热久久国产| 欧美午夜性视频| 日韩AV手机在线观看蜜芽| 亚洲天堂久久久| 巨熟乳波霸若妻中文观看免费| 国产成人h在线观看网站站| 日本免费福利视频| 国产女人在线视频| 一本大道香蕉中文日本不卡高清二区 | 亚洲国产精品日韩专区AV| 自拍偷拍欧美日韩| 天堂av高清一区二区三区| 国产永久在线观看| 91啦中文字幕|