999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的論文個性化推薦算法

2018-05-29 07:45:26妍,
中文信息學報 2018年4期
關鍵詞:單詞文本用戶

王 妍, 唐 杰

(清華大學 計算機科學與技術系, 北京 100084)

0 引言

當前,個性化推薦在眾多社會網絡活動中扮演著重要的角色。如亞馬遜平臺,電商根據用戶的歷史購買行為推測其購買偏好,并向用戶推薦其可能喜歡的其他產品,從而增加潛在利潤[1-2]。本文的推薦系統是基于Aminer 學術搜索平臺的論文個性化推薦系統。Aminer平臺利用數據挖掘、社會網絡分析等技術,向用戶供搜索服務,包括研究者搜索、論文搜索、綜述文獻搜索等一系列檢索功能,同時兼有學術話題趨勢分析、研究者社會網絡關系挖掘等眾多功能。Aminer系統約搜集有8 000萬篇論文信息、4 000萬研究者信息。在服務于用戶搜索需求的同時,用戶個性化推薦的需求也變得更為重要。面對龐大的檢索結果集,用戶可能需要花費額外的時間去人工篩選自己想要的論文。因此,本項目的目標是實現一個建立在海量數據上的個性化推薦系統,從而給用戶提供個性化的決策和個性化的信息服務。具體而言,該推薦系統旨在向注冊用戶推薦他可能感興趣的論文,該推薦系統基于以下信息對用戶做出個性化推薦: 1)用戶偏好,即用戶已關注的論文列表; 2)論文相關的文本信息,包括論文關鍵詞、摘要; 3)用戶相關的文本信息,包括用戶的搜索日志,用戶關注的論文文本信息。

目前的個性化推薦系統通過收集用戶反饋,如對各種物品的評分數據來對用戶進行個性化推薦,其中經典的推薦算法可劃分為兩大類,協同過濾推薦算法和基于內容的推薦算法。本文的推薦系統混合使用了這兩種經典模型。

1 模型1.1 協同過濾推薦模型

協同過濾是廣泛使用的個性化推薦算法[3-4],其中結合聚類分析的協同過濾算法也被廣泛研究應用[5-6]。在本文的推薦系統中,我們采用基于物品的協同過濾推薦模型?;谖锲返膮f同過濾分為以下兩個主要步驟。

1) 構造用戶對論文的評級矩陣,在該項目中,評級數據簡化為0-1二值數據,表示是否關注該論文。

2) 用戶尚未關注的論文構成候選集,對論文候選集中的每篇論文預測用戶的關注概率。降序排序后返回前K篇預測評分最高的候選論文。

假設有m個用戶,n篇論文,首先構造用戶—論文關注矩陣(1),其中rui表示用戶u是否關注了論文i,

(1)

對用戶未關注的論文集中的每篇論文,預測目標用戶對它的喜愛程度。目標用戶對該論文喜愛程度的預測可以用式(2)計算,其中N表示與論文i相似的近鄰集合,相似度用余弦相似度計算,如式(3)所示。

(2)

其中,

(3)

其中ruk取值為0或1,Sik表示兩篇論文的相似度。得到預測分數Pui后,選擇排在前K位的物品作為推薦結果返回給目標用戶。

通過實驗,我們發現直接利用用戶評級矩陣進行基于物品的協同過濾推薦,效果并不理想。分析可知,原因是實際數據集的標注數據非常稀疏,即已產生關注行為的用戶占總用戶比例,以及產生關注行為的用戶所關注的論文數占總論文的比例都很小。針對這個問題,我們采用奇異值分解算法進行改進。通過對用戶的評級矩陣進行SVD降維來取其隱藏的特征,進一步利用降維后的矩陣對目標用戶進行物品推薦。具體到實驗中,我們通過SVD降維并保留90%的能量值,一定程度上緩解矩陣稀疏的問題。

1.2 基于內容推薦模型

僅采用協同過濾推薦模型的另一弊端是會產生無法推薦新論文的問題。因為推薦的論文必然是在其他用戶已關注的論文集中。而那些符合目標用戶興趣,但沒有被任何其他用戶關注過的論文,就無法對其進行推薦。為了解決這個問題,我們結合了基于內容的推薦[7-8]。通過基于內容的推薦模型產生一批候選論文,可以有效推薦那些沒有被其他用戶標注的新論文。且該方法受用戶數據稀疏性的影響較小。

在本項目中,我們用文本表示論文特征和用戶特征并計算相似度,基于內容推薦與用戶興趣特征相似的論文。

首先構造論文特征,取論文關鍵詞,計算TF-IDF值,則論文特征可表示成其關鍵詞的權重向量,每一維特征對應一個關鍵詞的權重,特征維數即詞匯總數。其次構造用戶的興趣特征,假設用戶關注的論文集合為P,通過對集合P中的論文特征取平均值得到用戶特征。計算和目標用戶興趣內容最相似的K篇論文時,采用余弦距離衡量。

基于內容的余弦相似度,選取相似度排名前K名的論文返回。

1.3 基于內容推薦模型的優化

在基于內容進行推薦時,我們將用戶和論文都映射到同一個向量空間,而推薦問題則轉化成計算距離用戶最近的論文。在上一小節,我們采用的是最常見的方式,將文本由其詞頻-逆文檔頻率(TF-IDF)表示它們的特征值,并通過向量的余弦相似性來進行推薦,本質上可以退化成比較特征詞的重合程度。然而這種特征分析往往不適合表示用戶和文檔的距離,首先因為它們近似正交,即兩個文本實際相似,但是單詞交集可能會很少。另外一個重要的原因是它們并不能捕捉單詞層面的相似性。如在該項目的關鍵詞集合中,“algorithm”和“machine learning”在語義上具有較高的相關性,但是僅僅使用余弦相似度模型并不能捕捉這一層次的相似性。

因此,當論文內容在詞匯層面重合度較小,語義層面卻較為相似的情況下,這種模型表現并不令人滿意??紤]這樣一個例子,兩個文本“Obama speaks to the media in Illinois.” 和“The president greet the press in Chicago.”在單詞層面正交,沒有重合,而其在語義上卻十分相似。為了刻畫這種相似性,我們采用了基于詞向量的Word Mover Distance (WMD)模型來衡量相似度。

1.3.1 詞向量

僅僅利用語料的上下文語境對單詞的隱含表示進行學習,生成詞向量表示在自然語言處理的各個研究領域被廣泛地使用。詞向量模型的輸入是大量的無監督語料,輸出是所有單詞(不包括低頻詞匯)的低維向量表示。

本文采用經典的Skip-gram模型訓練詞向量[9],使用谷歌新聞的語料來訓練詞向量。輸入為一個單詞,預測其上下文詞匯出現的概率。采用經典的三層網絡結構,第一層為輸入層,由一個單詞的K維詞向量表示。第二層為隱藏層。第三層為輸出層。輸出為已知輸入單詞時,其余各單詞在其上下文出現的概率,采用Softmax模型估計概率值。訓練目標是,最大化已知輸入單詞的條件下,相鄰語境中單詞出現的概率,其中條件概率用Softmax估計。模型的直觀解釋是,若單詞的上下文相似,則它們的詞向量更相似。

該模型的訓練模型也有各種各樣的實現,如通過隨機梯度下降法進行參數更新,通過負采樣的方法提高模型的性能等等。

在本項目中,有很大一部分特征詞是復合單詞,即短語。如“data mining”,如果拆成“data”和“mining”兩個單詞分別訓練則會損失其作為一個短語的語義信息。因此,我們的做法就是將它作為一個短語學習它的向量。首先對語料進行短語探測,一種簡單有效的方法是采用探測二元詞出現的次數來探測兩個單詞的短語,當其在文本中出現次數大于某個閾值時,則判定其為短語。這里通過實驗,將該閾值設定為10。將“data mining”處理表示成“data_mining”,以下劃線連接,接下來短語向量的訓練過程和詞向量學習的過程相似。實驗證明引入短語后,向量的語義表示上有更好的表現。

1.3.2 WMD距離函數 (Word Mover Distance)

我們將用戶模型和文檔模型里的特征詞表示成詞向量。然后,基于內容推薦轉化成如何評價用詞向量表示的用戶模型及文檔模型的相似度,這個問題可以抽象成用詞向量表示的兩個文本之間的距離。

簡單做法是將一個文本中所有的詞向量連接成一個長向量,然后直接應用計算向量相似度的方法來計算用戶和論文的相似度。但這個方法的弊端是,每個數據的詞匯數不同,導致連接向量的長度不同。通過補零會引入額外誤差,或是將向量相加,實驗證明效果并不理想。

基于這兩點考慮,我們通過改進版的Earth Mover Distance (EMD)來進行衡量[10],這里稱之為Word Mover Distance (WMD)。即,我們將一個用戶模型或是文本模型抽象成帶有權重的詞匯的集合,然后利用WMD來衡量從一個集合變換到另一個集合的距離。

可以把這個目標函數表示成式(4)。

(4)

上述最優化目標可以直觀理解成,為文檔中的每個單詞找到其在文檔中最相似的單詞,所有單詞的轉移距離之和則為文本的最小距離。最優化的過程本質上可以看成是推土機距離的一種特殊變形。

舉例來說,圖1描述了一個計算文本距離的過程。

圖1 Word Mover Distance示例[10]

首先去掉停用詞,樣例中的三個句子分別剩下四個單詞,因此假設每個單詞的權重為0.25,我們注意到每個轉移箭頭上標記了該轉移對總轉移距離的貢獻大小,可以發現,Word Mover Distance (WMD)可以很好的契合我們的動機,將一個句子里的單詞轉移到另一個句子里語義最為相似的單詞。例如,把單詞“Illinois”變成單詞“Chicago”比從單詞“Japan”變成“Chicago”損失更少,則文本D1比文本D2和目標文本D0更為接近。這是因為在計算單詞向量時,“Illinois”和“Chicago”的距離更為靠近,語義更為接近。因此可以推斷出,WMD可以很好地刻畫共有單詞很少或有較多同義詞時,兩個句子的語義信息。

實驗證明,通過引入詞向量模型,并采用 WMD距離衡量文本距離,可以有效地改善模型,在各數據集上取得更好的表現。

1.4 混合模型

為了提高整個推薦系統的性能,常常結合使用協同過濾模型和基于內容推薦的模型[11]。最后的混合模型,采取按比例返回結果的合成方式,即按比例返回兩種算法產生的推薦結果。協同過濾和基于內容的推薦算法,返回結果的比例初始值設為0.5和0.5。根據反饋,對該比例進行調整。當用戶對推薦的結果有積極的反饋,即有點擊或是直接關注等行為時,我們相應增加產生該條推薦結果的算法在整個混合模型中的比重。

為了取得更好的推薦效果,該模型中加入了一些工程性的技術技巧。

例如在基于內容作出推薦前,首先對不活躍用戶的興趣特征進行預測。該數據集大約有 70%用戶未產生任何標注或關注行為。對這一部分用戶的興趣的預測需要借助其他文本信息。該項目中,分析具體數據可發現用戶均產生一定數量的搜索記錄。通過對搜索關鍵詞進行預處理后,可以通過有相似搜索行為的用戶的興趣來預測該目標用戶的興趣。

首先對雜亂的搜索記錄進行預處理,包括去停用詞,取單詞詞干,去掉低頻的詞語,這里經過實驗設定閾值為5。其次發現一部分用戶的產生搜索日志的時間跨度較大,其興趣也隨著時間有所變化,為了突出刻畫用戶的短期興趣,在計算每個關鍵詞權重時都乘上時間衰減因子,越久遠的關鍵詞,則其權重越小。其次進行降維處理后計算相似度。同樣獲取與該用戶最相似的K個用戶,用他們的興趣向量平均值來預測目標用戶的興趣向量。

同時,在實際工程中并不是固定推薦排名最高的論文,而是在推薦集合中(集合大小設為 20)隨機抽取推薦,增加結果的多樣性,提供更好的用戶體驗。

2 實驗

2.1 數據集

Aminer: 我們采用的數據集是Aminer平臺上約4 100個用戶的用戶數據。需要的訓練數據均需自己預處理得到。最后的數據集規模為,約4 768個參與人次,而所有的參與人次來源于其中30%的用戶。

Meetup: Meetup是一個廣泛使用的聚會活動網站。我們通過Meetup API獲取了從2013到2016年在紐約舉辦的活動數據。對每個活動,我們抓取了它的文本描述信息和參與者信息,共22 313個活動和15 324個用戶,然后篩選不少于20人參加的聚會和參加不少于20個活動的用戶,最后得到4 722個用戶和5 064個活動。

Douban:豆瓣活動是國內使用廣泛的聚會網站。我們獲取了從2012至今在北京舉辦的活動。然后篩選不少于20人參加的聚會和參加不少于20個活動的用戶。最后獲得6 513用戶,5 326個活動(共222 795個參與人次)。對于每個活動,我們同樣抓取了它的文本描述信息。

表1列出了數據集的信息。

表1 數據集信息

2.2 實驗結果

首先介紹兩個基本的個性化推薦算法,以做比較:

1) 基于用戶的協同過濾算法: 構造用戶評級矩陣,通過相似用戶的評級信息,來預測目標用戶對該物品的喜愛程度。

2) 基于物品的協同過濾推薦算法: 與基于用戶的協同過濾算法類似,該算法首先構造物品評級矩陣,再通過相似物品的評級信息,來預測用戶對目標物品的喜愛程度。

在推薦系統中,常常使用準確率來刻畫返回結果的相關性。在返回的推薦條目中,希望包含盡可能多的相關結果。為了刻畫返回結果集的相關程度,用準確率來定義相關文檔占總返回結果的比例,用召回率來定義相關文檔占總相關文檔的比例(這里指用戶已關注的論文集合)。因此,我們采用了以下幾種評估方法。

1) 準確率(Prec): 表示正確推薦的數目在總推薦數中占有的比例。

2) 召回率(Rec): 表示正確推薦的數目在用戶相關集中所占的比例。

對比該項目算法和其他基礎算法在Aminer數據集上的表現,如表2所示。

表2 推薦模型性能比較

通過表中數據可以看出在所有的模型中,該文的模型在準確率,召回率和首位準確率等評估指標上較基本的推薦算法都取得了最好的表現。對比準確率和召回率發現,兩者并沒有相互制約,該文模型的準確率和召回率均有上升。其中Prec@1表示推薦列表的第一位是否準確,這個評估方法強調了推薦的排序。

同時發現,使用混合模型比單一的協同推薦模型顯著提高了性能。提高的9%到14%,表明了詞向量模型的引入在推薦系統中的顯著作用。與使用余弦距離的方法三相比,采用WMD距離的推薦模型,即方法四,在Aminer數據集上,Prec@1,Prec@20, Rec@20分別顯著提高約4%, 3%和2%。在Meetup和Douban數據集上,Prec@1分別提高3%和4%。分析可知,該性能的提升,是因為在文本長度比較短,單詞重合較少的情況下,WMD模型對于語義信息的捕捉優于余弦相似度模型。

2.3 系統實現和界面

系統后端使用Scala語言實現,推薦算法使用python實現,周期性地離線運行推薦算法,并將更新后的算法結果存儲到SSDB數據庫中。線上推薦則可通過直接索引,加以簡單的邏輯就可實現。且效率高,反應時間短。系統的界面如圖2所示, 提供了關注按鈕,以供用戶反饋。

圖2 推薦系統界面

3 結語

本文基于深度學習在Aminer平臺上實現了個性化推薦算法,對注冊用戶進行個性化論文推薦。在項目中,主要有以下創新。

1) 采用混合推薦的框架,將協同過濾和基于內容的推薦相結合,相互彌補缺點?;趦热莸耐扑]可以推薦沒有任何評價數據的新論文,協同過濾可以充分利用用戶評價數據來挖掘用戶或是論文之間的相似性,推薦高質量的論文。

2) 在基于內容推薦的模塊中,創新性地提出了用文本距離度量用戶和論文的相似性,并引入了語言模型中最近廣泛使用的詞向量模型,最后通過WMD距離來衡量用戶和論文的文本距離。實驗證明該算法的表現優異。

效果上,本文混合推薦模型相較于基本的協同過濾模型,在Aminer, Meetup, Douban三個數據集上進行驗證,有明顯的提升。

[1] Bennett J, Lanning S. The Netflixprize[C]//Proceedings of KDD cup and workshop. 2007: 35.

[2] Linden G, Smith B, York J. Amazon.com recommendations: Item-to-item collaborative filtering[J]. IEEE Internet computing, 2003, 7(1): 76-80.

[3] Cai Y, Leung H, Li Q, et al. Typicality-based collaborative filtering recommendation[J].Knowledge and Data Engineering, 2014, 26(3): 766-779.

[4] Resnick P, Iacovou N, Suchak M, et al. GroupLens: an open architecture for collaborative filtering of netnews[C]//Proceedings of the 1994 ACM conference on Computer supported cooperative work. ACM, 1994: 175-186.

[5] Shepitsen A, Gemmell J, Mobasher B, et al. Personalized recommendation in social tagging systems using hierarchical clustering[C]//Proceedings of the 2008 ACM conference on Recommender systems. ACM, 2008: 259-266.

[6] Gong S. A collaborative filtering recommendation algorithm based on user clustering and item clustering[J]. Journal of Software, 2010, 5(7): 745-752.

[7] Pazzani M, Billsus D. Content-based recommendation systems[M]//Peter B, Alfred K. Wolfgang N. The adaptive web. New York: Springer, 2007: 325-341.

[8] Balabanovic M, Shoham Y. Fab: content-based, collaborative recommendation[J].Communications of the ACM, 1997, 40(3): 66-72.

[9] Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality[C]//Proceedings of the Advances in neural information processing systems. 2013: 3111-3119.

[10] Kusner M, Sun Y, Kolkin N, et al. From Word Embeddings To Document Distances[C]//Proceedings of the 32nd International Conference on Machine Learning. 2015: 957-966.

[11] Burke R. Hybrid web recommender systems[M]//Peter B, Alfred K. Wolfgang N.The adaptive web. New York: Springer, 2007: 377-408.

E-mail: jietang@tsinghua.edu.cn

猜你喜歡
單詞文本用戶
單詞連一連
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
看圖填單詞
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
如何獲取一億海外用戶
創業家(2015年5期)2015-02-27 07:53:25
如何快速走進文本
語文知識(2014年1期)2014-02-28 21:59:13
主站蜘蛛池模板: 婷婷99视频精品全部在线观看| 777午夜精品电影免费看| 天天躁夜夜躁狠狠躁图片| 人妻少妇乱子伦精品无码专区毛片| 午夜免费视频网站| 内射人妻无套中出无码| 青青草原国产免费av观看| 88av在线| 色综合成人| 午夜无码一区二区三区| 伊人久热这里只有精品视频99| 日本高清在线看免费观看| 91小视频在线观看免费版高清| 国产日韩欧美中文| 亚洲男人在线| 亚洲欧美日韩中文字幕一区二区三区 | 久久精品无码国产一区二区三区| 亚洲综合狠狠| 亚洲天堂.com| 欧美日本激情| 亚洲国产中文精品va在线播放 | 亚洲人精品亚洲人成在线| 欧类av怡春院| 国产一级裸网站| 久草视频精品| 久久夜色精品| 波多野结衣一区二区三区四区视频 | 91久久国产热精品免费| 国产亚洲日韩av在线| 最新国产午夜精品视频成人| 国产一区二区三区夜色| 日韩欧美综合在线制服| 国产在线观看一区二区三区| 亚洲系列中文字幕一区二区| 亚洲丝袜第一页| 久久精品最新免费国产成人| 高清色本在线www| 亚洲国产成熟视频在线多多 | 亚洲永久精品ww47国产| 在线国产91| 99人妻碰碰碰久久久久禁片| 亚洲男人的天堂视频| 亚洲性日韩精品一区二区| 国产91无毒不卡在线观看| 久久久久久尹人网香蕉 | 国产精品久久久久久久久| 国产一级视频久久| 欧美日本激情| 欧美a在线| 久久6免费视频| 久久99国产综合精品1| 久久无码高潮喷水| 中文字幕免费在线视频| 国产素人在线| 99精品国产高清一区二区| 久久免费观看视频| 久久国语对白| 欧美高清国产| 国产精品久线在线观看| 亚洲国产欧美目韩成人综合| 99精品福利视频| 制服丝袜 91视频| 亚洲欧洲天堂色AV| 国产精品亚洲专区一区| 亚洲黄网在线| 亚洲美女操| 欧美一级99在线观看国产| 国产精品毛片一区视频播| 精品免费在线视频| 久久人午夜亚洲精品无码区| 亚洲国产日韩在线观看| 欧美国产日韩另类| 久热中文字幕在线| 亚洲精品中文字幕无乱码| 国产超碰在线观看| 欧美乱妇高清无乱码免费| 韩国自拍偷自拍亚洲精品| 亚洲一区二区三区国产精华液| 国产欧美在线观看一区| 无码专区国产精品第一页| 久久天天躁狠狠躁夜夜2020一| 91精品福利自产拍在线观看|