999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于元學(xué)習(xí)的響應(yīng)式推薦系統(tǒng)①

2021-09-10 07:31:28武多才
關(guān)鍵詞:用戶信息模型

武多才,張 謐

(復(fù)旦大學(xué) 軟件學(xué)院,上海 201438)

推薦系統(tǒng)能夠幫助用戶從浩繁的信息快捷地選出他們感興趣的內(nèi)容,但是我們面臨一個(gè)重要問(wèn)題是用戶的興趣會(huì)隨著時(shí)間發(fā)生變化[1,2],此外新用戶也會(huì)不斷到來(lái).根據(jù)最新的調(diào)研,電商平臺(tái)的銷售量和其推薦服務(wù)對(duì)用戶的響應(yīng)性呈現(xiàn)顯著的正相關(guān)關(guān)系[3].在這樣的背景下,我們提出響應(yīng)性作為一個(gè)在線推薦系統(tǒng)需要滿足的重要指標(biāo).具體來(lái)說(shuō),當(dāng)系統(tǒng)收集到用戶少量的最新交互信息之后,一個(gè)響應(yīng)式推薦系統(tǒng)需要滿足如下需求:

(1)對(duì)老用戶的響應(yīng)性.響應(yīng)式推薦系統(tǒng)需要及時(shí)有效地捕捉到老用戶興趣的變化.以圖1中的上半部分為例,對(duì)于一個(gè)老用戶,他之前都是比較喜歡科幻類型的電影.但是最近,該用戶的興趣發(fā)生了變化,展現(xiàn)出了對(duì)情感類型電影的興趣.這種變化可能是受朋友影響或者個(gè)人經(jīng)歷變化等因素.

圖1 兩個(gè)典型的響應(yīng)式推薦系統(tǒng)需求場(chǎng)景示意圖

(2)對(duì)新用戶地響應(yīng)性.響應(yīng)式推薦系統(tǒng)需要準(zhǔn)確地學(xué)習(xí)新用戶興趣.以圖1中下半部分所示為例,該用戶為系統(tǒng)中新用戶且只有只看了一部戰(zhàn)爭(zhēng)類型地電影.

接下來(lái),我們將這兩點(diǎn)響應(yīng)性需求統(tǒng)稱為學(xué)習(xí)用戶近期的興趣.根據(jù)我們的調(diào)研,盡管響應(yīng)性是推薦系統(tǒng)中一個(gè)重要的需求,現(xiàn)有的方法還沒(méi)有很好地滿足該需求.一方面,傳統(tǒng)的推薦系統(tǒng)方法采用線下訓(xùn)練線上預(yù)測(cè)的模式[4,5].這些方法很難滿足響應(yīng)性的需求,因?yàn)槟P陀?xùn)練好之后就不再改變.重新訓(xùn)練模型又十分耗時(shí)難以滿足時(shí)間需求.另一方面,最近的一些研究工作提出了一些增量更新的在線推薦算法[1,6-10].相比于重新訓(xùn)練模型,這些方法很好地提升了模型更新的時(shí)間效率.這些方法主要分為兩類,一類是在線下訓(xùn)練好的模型的基礎(chǔ)上,只使用新的交互信息微調(diào)(finetuning)模型[8-10];另一類方法會(huì)緩存一部分交互信息到一個(gè)池子(reservoir)中,然后定時(shí)更新模型,更新模型是使用池子中的交互信息和新的交互信息同時(shí)微調(diào)模型[1,7].

雖然這些基于微調(diào)的更新方法可以解決模型更新的時(shí)間效率問(wèn)題,他們面臨著新的交互信息量太少的問(wèn)題.傳統(tǒng)的機(jī)器學(xué)習(xí)模型需要大量的數(shù)據(jù)才能準(zhǔn)確學(xué)習(xí)樣本的表征,以 MNIST 手寫(xiě)數(shù)字識(shí)別數(shù)據(jù)集為例,該數(shù)據(jù)集有 6 萬(wàn)張圖片,平均每個(gè)數(shù)字有 6 千張圖片.為了應(yīng)對(duì)新的交互信息量太少的問(wèn)題,我們提出了一套基于元學(xué)習(xí)[11]的增量式模型更新方案.該方案能夠從之前的利用大量的歷史交互數(shù)據(jù)訓(xùn)練的過(guò)程中,學(xué)習(xí)出一些解決訓(xùn)練數(shù)據(jù)量少問(wèn)題的先驗(yàn)知識(shí),然后我們將這些先驗(yàn)知識(shí)應(yīng)用于最近的利用少量新的交互信息的更新過(guò)程中,從而指導(dǎo)模型更好地學(xué)習(xí)用戶近期的興趣.

元學(xué)習(xí)在許多小樣本學(xué)習(xí)(few shot learning)的任務(wù)中都取得了超過(guò)了微調(diào)的方法[11-13].其設(shè)計(jì)理念借鑒于人類的學(xué)習(xí)過(guò)程.人類在學(xué)習(xí)新的種類的分類任務(wù)時(shí),往往只需要一兩張樣例圖片就可以了,這是因?yàn)槿祟愒诜诸愇匆?jiàn)過(guò)的種類時(shí),會(huì)使用到之前學(xué)習(xí)到的先驗(yàn)知識(shí),而不是像傳統(tǒng)的機(jī)器學(xué)習(xí)算法一樣從頭開(kāi)始學(xué)習(xí).

從元學(xué)習(xí)的角度看,在我們的推薦場(chǎng)景中,響應(yīng)式推薦的要求是根據(jù)某個(gè)用戶少量的最新的交互信息為其推薦下一個(gè)物品.我們將這個(gè)需求定義為一個(gè)任務(wù).為了能夠利用少量的樣本學(xué)習(xí)出用戶在新交互物品上的興趣.借鑒于元學(xué)習(xí)的思想,我們需要為該任務(wù)準(zhǔn)備先驗(yàn)知識(shí).接下來(lái)的問(wèn)題是要如何學(xué)習(xí)這樣的先驗(yàn)知識(shí).為了學(xué)習(xí)先驗(yàn)知識(shí),我們首先利用大量的歷史交互數(shù)據(jù)構(gòu)建與當(dāng)前任務(wù)相似的任務(wù),即使用用戶相連的少量交互去預(yù)測(cè)緊接著的下一個(gè)交互.從歷史數(shù)據(jù)中,我們可以構(gòu)建大量的這樣的任務(wù).然后我們使用模型的初始參數(shù)作為先驗(yàn)知識(shí).該初始參數(shù)能夠使得模型在該任務(wù)上僅使用少量的樣本就能準(zhǔn)確學(xué)習(xí)出用戶近期的興趣.為了學(xué)習(xí)到這樣的初始參數(shù),借鑒于元學(xué)習(xí)的想法,我們將該需求建模成線下訓(xùn)練過(guò)程中監(jiān)督損失函數(shù),即線下訓(xùn)練的任務(wù)要在使用該初始參數(shù)的基礎(chǔ)上,經(jīng)過(guò)少量交互的更新,都能準(zhǔn)確預(yù)測(cè)其任務(wù)中對(duì)應(yīng)的下一個(gè)交互物品.這樣,在新的任務(wù)中,模型就可以在之前的相似任務(wù)中學(xué)習(xí)到的初始參數(shù)的基礎(chǔ)上更好地學(xué)習(xí)出用戶的興趣.

從傳統(tǒng)方法的角度看,相比于傳統(tǒng)的線下訓(xùn)練好模型然后線上微調(diào)模型的策略.我們的方法的優(yōu)勢(shì)是在線下訓(xùn)練模型的時(shí)候考慮到了之后線上更新只會(huì)有少量的交互信息,并將其設(shè)計(jì)在了線下更新模型參數(shù)的損失函數(shù)中.這樣學(xué)習(xí)到的模型參數(shù)能夠在線上更新的過(guò)程中僅使用少量的新的交互信息就能更準(zhǔn)確地學(xué)習(xí)出用戶近期的興趣.

后文組織如下:第1 節(jié)介紹我們提出的基于元學(xué)習(xí)的響應(yīng)式推薦算法;第2 節(jié)介紹實(shí)驗(yàn)設(shè)置和實(shí)驗(yàn)結(jié)果分析;第3 節(jié)進(jìn)行總結(jié)和展望未來(lái)工作.

1 基于元學(xué)習(xí)的響應(yīng)式推薦系統(tǒng)

1.1 構(gòu)建線下訓(xùn)練任務(wù)

我們將(u,v)定義為用戶u和物品v之間的一個(gè)交互.交互的集合記為R={···,(u,v),···}.從元學(xué)習(xí)的角度,為了對(duì)應(yīng)線上使用少量最新交互信息準(zhǔn)確更新用戶興趣表征的需求,我們將線下的大量的歷史交互信息重組為大量的如圖2所示的響應(yīng)式推薦任務(wù).每個(gè)任務(wù)就是使用用戶少量的k個(gè)連續(xù)交互信息去預(yù)測(cè)該用戶緊接著的下一個(gè)交互物品.因?yàn)楫?dāng)前用戶的k個(gè)交互數(shù)量太少,我們使用鄰居的交互信息來(lái)豐富當(dāng)前任務(wù)的數(shù)據(jù)量.我們將鄰居定義為與當(dāng)前用戶的k個(gè)交互物品至少存在一個(gè)交互的其他用戶.如圖2所示的用戶i和j為用戶1的鄰居.然后我們從鄰居的交互信息中隨機(jī)選取K-k個(gè)交互信息補(bǔ)充到當(dāng)前的訓(xùn)練任務(wù)中.然后一個(gè)線下訓(xùn)練任務(wù)t定義為用這K個(gè)交互信息(記為集合RtK)去預(yù)測(cè)當(dāng)前用戶的下一個(gè)交互(記為集合R1t).從歷史的交互信息中,我們可以構(gòu)建大量的這樣的任務(wù),記為集合T={t1,t2,···,tH},其中H為線下任務(wù)數(shù)量.

圖2 一個(gè)帶有鄰居信息的線下訓(xùn)練任務(wù)

1.2 利用元學(xué)習(xí)提取先驗(yàn)知識(shí)

我們將推薦模型記為f,所有任務(wù)共享相同的推薦模型結(jié)構(gòu),然后在自己的任務(wù)上調(diào)整其參數(shù)以滿足任務(wù)需求.借鑒于 MAML[11]的想法,我們將先驗(yàn)知識(shí)定義為模型f的初始參數(shù),記為Θ.然后對(duì)于任意一個(gè)任務(wù)t∈T,響應(yīng)式推薦的目的是使用交互信息RtK來(lái)更新模型,使得模型能夠準(zhǔn)確預(yù)測(cè)任務(wù)對(duì)應(yīng)用戶的下一個(gè)交互R1t.模型更新過(guò)程我們就使用簡(jiǎn)單的一步或者多步梯度下降更新方法.以一步梯度下降更新為例,模型參數(shù)的更新規(guī)則如下:

其中,LtK(·)為模型在任務(wù)t的RtK交互集合上的損失函數(shù),α為學(xué)習(xí)率.然后我們對(duì)先驗(yàn)知識(shí) Θ的要求是模型在這樣的初始參數(shù)上經(jīng)過(guò)少量樣本的更新就能準(zhǔn)確的預(yù)測(cè)對(duì)應(yīng)用戶的下一個(gè)交互信息,根據(jù)該要求我們?cè)O(shè)計(jì)如下優(yōu)化目標(biāo)來(lái)學(xué)習(xí)所有任務(wù)公用的初始參數(shù) Θ:

其中,Lt1(·)為模型在任務(wù)t的R1t交互集合上的損失函數(shù).值得注意的是,在我們的方法中,我們?cè)谔荻雀掠?jì)算Θt的過(guò)程中會(huì)保存所有中間狀態(tài),所以 Θt可以視為關(guān)于參數(shù) Θ的一個(gè)函數(shù),然后最后的學(xué)習(xí)目標(biāo)是對(duì)參數(shù)Θ求導(dǎo)數(shù),然后更新參數(shù) Θ.直觀地說(shuō),我們的優(yōu)化目標(biāo)是學(xué)習(xí)到初始參數(shù) Θ,使其在線下訓(xùn)練的過(guò)程中,對(duì)于每個(gè)任務(wù)都可以經(jīng)過(guò)少量交互的更新,然后準(zhǔn)確預(yù)測(cè)對(duì)應(yīng)用戶的下一個(gè)交互物品.之后,我們可以將參數(shù)Θ作為先驗(yàn)知識(shí),對(duì)于線上的更新需求,其正好與我們線下訓(xùn)練的任務(wù)相似,所以在線上更新的過(guò)程中,使用該參數(shù)作為初始參數(shù)更新模型,也能夠在少量樣本上準(zhǔn)確地學(xué)習(xí)到用戶的近期興趣,以準(zhǔn)確地預(yù)測(cè)用戶的下一個(gè)交互.

在我們的場(chǎng)景中,我們使用矩陣分解模型[3]來(lái)實(shí)現(xiàn)推薦模型f,模型的參數(shù) Θ={P,Q},其中P為用戶的特征矩陣,pi為矩陣P的第i列,表示用戶ui的特征;Q為物品的特征矩陣,qj為Q的第j列,表示物品vj的特征.根據(jù)矩陣分解模型,我們使用特征的內(nèi)積表示用戶ui對(duì)物品vj的喜好程度,記為rij=pTi qj.有了喜好程度的評(píng)分之后,我們可以根據(jù)評(píng)分為用戶推薦喜歡的物品.

然后我們基于BPR (Bayesian Personalized Ranking)[14]的方法來(lái)設(shè)計(jì)優(yōu)化目標(biāo)Lt1.BPR的優(yōu)化目標(biāo)是優(yōu)化排序,要求模型給出的評(píng)分將交互過(guò)的物品排在為交互過(guò)的物品之前.為了滿足該要求,給定一個(gè)交互集合R,首先需要如下定義BPR中的訓(xùn)練數(shù)據(jù)集,記為DR.

然后結(jié)合矩陣分解給出的評(píng)分,對(duì)于用戶ui,其交互過(guò)的物品vj和為交互過(guò)的物品vk之間的排序關(guān)系定義為:

因?yàn)槲覀冃枰獙⒔换ミ^(guò)的物品排在為交互過(guò)的物品之前,所以需要最大化.加上正則化項(xiàng)之后,最終的BPR 損失函數(shù)定義如下:

其中,λP,λ+Q,λ-Q是正則化項(xiàng)的權(quán)重超參數(shù).

有了 BPR 損失函數(shù)的定義之后,對(duì)于某個(gè)任務(wù)t∈T,我們定義該任務(wù)的損失函數(shù)LTt如下:

其中,DRtK是以交互集合RtK構(gòu)建的BPR 訓(xùn)練數(shù)據(jù)集.對(duì)于L1t,我們也使用 BPR 損失函數(shù),與LTt不同的是Lt1是在交互集合R1t上構(gòu)建的損失函數(shù).

值得注意的是在任務(wù)t上經(jīng)過(guò)L次更新之后得到的參數(shù),記為ΘtL.在我們的設(shè)計(jì)中,ΘtL相當(dāng)于關(guān)于初始參數(shù) Θ的一個(gè)L層的網(wǎng)絡(luò).這樣當(dāng)L增加時(shí),模型在訓(xùn)練過(guò)程中容易發(fā)生梯度爆炸的現(xiàn)象[15].為了解決這個(gè)問(wèn)題,我們?cè)偌由蠝\層的BPR 損失函數(shù)來(lái)限制參數(shù)的空間以保證模型的穩(wěn)定性.最終的優(yōu)化目標(biāo)如下:

其中,λML是基于元學(xué)習(xí)的損失函數(shù)的權(quán)重超參數(shù).

1.3 響應(yīng)式推薦

學(xué)好了先驗(yàn)知識(shí) Θ之后,我們可以利用該先驗(yàn)知識(shí)在線上的推薦任務(wù)中實(shí)現(xiàn)響應(yīng)式推薦.對(duì)于一個(gè)用戶u,我們首先利用其最近的k個(gè)交互構(gòu)建響應(yīng)式推薦任務(wù)中的交互集合RtK,然后我們以之前學(xué)習(xí)到的先驗(yàn)知識(shí) Θ為基礎(chǔ),利用該任務(wù)上的損失函數(shù)LtK做L次參數(shù)更新得到模型參數(shù) ΘtL.在先驗(yàn)知識(shí) Θ的幫助下,L次參數(shù)更新得到的模型能夠更好地捕捉到用戶最近的興趣.

1.4 線上增量更新

最后,我們的模型非常容擴(kuò)展線上增量更新.給定一個(gè)新的交互(u,v),如果用戶u或者物品v是新用戶或新物品,我們照如下公式初始化他們的特征:

其中,U和V表示現(xiàn)有用戶和物品的集合;M和N是現(xiàn)有用戶和物品的數(shù)目;?p和?q是采樣自標(biāo)準(zhǔn)多維高斯分布N(μ,σ2I)的小噪聲.通過(guò)這種方法,新用戶的表征可以利用到模型學(xué)習(xí)到的老用戶的表征,使得將新用戶加入后,模型也可以快速調(diào)整,學(xué)習(xí)出新用戶的表征.

如果用戶u不是新用戶,則我們可以為該新交互構(gòu)建一個(gè)任務(wù),其中待預(yù)測(cè)交互集合R1t={(u,v)},然后我們可以使用該用戶之前最近的k個(gè)歷史交互信息構(gòu)建任務(wù)訓(xùn)練交互集RtK.如果該用戶的歷史交互信息少于k個(gè),我們就重復(fù)采樣直至湊夠k個(gè)歷史交互.有了新任務(wù)t的交互集合RKt和R1t之后,我們就可以前面的優(yōu)化目標(biāo)更新先驗(yàn)知識(shí) Θ.

2 實(shí)驗(yàn)設(shè)置和結(jié)果分析

2.1 數(shù)據(jù)集介紹

我們使用了MovieLens-1M和Netflix 這兩個(gè)公開(kāi)數(shù)據(jù)集做了驗(yàn)證實(shí)驗(yàn).兩個(gè)數(shù)據(jù)集都是電影評(píng)分?jǐn)?shù)據(jù)集.其中,MovieLens-1M 數(shù)據(jù)集大約包含6 千用戶,4 千部電影和1 百萬(wàn)個(gè)評(píng)分,后面簡(jiǎn)稱MovieLens;Netflix數(shù)據(jù)集大約包含1.8 萬(wàn)用戶,45 萬(wàn)部電影和1 億個(gè)評(píng)分.評(píng)分的范圍是從1 到5.所有的評(píng)分都有一個(gè)時(shí)間戳.在我們的實(shí)驗(yàn)中,類似于BPR[14]的設(shè)置,我們將評(píng)分大于等于3的電影視為正樣本,其它的都視為為交互過(guò)的樣本.

2.2 對(duì)比模型介紹

我們選取如下流行的線上推薦模型作為對(duì)比:

(1)RKMF[5]:該方法使用核函數(shù)建模用戶與物品特征向量間的關(guān)系.在迭代更新的過(guò)程中,該方法交替地更新用戶特征或者物品特征.

(2)sRec[9]:該方法使用概率模型建模用戶特征和物品特征的演變過(guò)程,并且使用現(xiàn)有特征來(lái)初始化新用戶或者新物品特征.

(3)SPMF[10]:該方法在迭代增量的更新過(guò)程中,同時(shí)會(huì)使用緩存的之前的一部分老的交互信息.

2.3 評(píng)估方法介紹

我們首先隨機(jī)選出10%的用戶作為新用戶,將他們的交互信息從數(shù)據(jù)集中移除.為了驗(yàn)證推薦模型的響應(yīng)性,對(duì)于這些新用戶,我們?yōu)槟P吞峁┻@些用戶的n個(gè)新的交互,然后檢測(cè)模型是否能夠準(zhǔn)確預(yù)測(cè)這些用戶的下一個(gè)交互.在實(shí)驗(yàn)中,設(shè)置n=1,5,10 三種情況.

然后我們將剩下的交互信息按照時(shí)間順序劃分為90%和10%兩部分.對(duì)于所有的模型,我們將90%的部分用于線下訓(xùn)練模型,然后后面10%的部分用于線上迭代更新模型并檢驗(yàn)?zāi)P蛯?duì)于老用戶興趣變化的響應(yīng)性.在這個(gè)過(guò)程中,對(duì)于后面10%的交互信息,按照時(shí)間順序,每當(dāng)來(lái)一批交互信息的時(shí)候,我們先驗(yàn)證模型是否能夠準(zhǔn)確預(yù)測(cè)這些交互信息,然后再用這些新的交互信息更新模型.

根據(jù)之前的工作,我們采取 leave-one-out的評(píng)估模式[16,17].我們的目標(biāo)是預(yù)測(cè)用戶的下一個(gè)交互的物品,為了評(píng)估模型同時(shí)提升評(píng)估效率,我們從為交互過(guò)的物品中隨機(jī)采樣100 個(gè)物品作為負(fù)樣本.然后我們根據(jù)模型對(duì)這101 個(gè)物品的評(píng)分計(jì)算如下3 個(gè)評(píng)測(cè)指標(biāo):

(1)HR@K(Hit Ratio):評(píng)估正樣本出現(xiàn)在排序前K個(gè)之中的比例.

(2)AUC:ROC 曲線下的面積值.簡(jiǎn)單來(lái)說(shuō),該方法綜合評(píng)估了正樣本排在負(fù)樣本前面的概率.

(3)NDCG@K (Normalized Discounted Cumulative Gain):該方法要求正樣本排在前K個(gè)的同時(shí)還會(huì)根據(jù)排序位置進(jìn)行懲罰.排序越靠后,懲罰越多.

總的來(lái)說(shuō),這3 個(gè)指標(biāo)都是得分越高,模型性能越好.

2.4 對(duì)老用戶的響應(yīng)性對(duì)比

圖3展示了不同模型在更新更新過(guò)程中的性能變化曲線.從圖中可以看出,RKMF和sRec 模型的性能在線上更新的過(guò)程中迅速下降.因?yàn)檫@些模型在線上更新的過(guò)程中忽略了歷史數(shù)據(jù),從而導(dǎo)致模型在少量新樣本上容易過(guò)擬合,出現(xiàn)模型不穩(wěn)定現(xiàn)象.與之不同,我們的模型在自己相對(duì)獨(dú)立的任務(wù)中,基于共有的先驗(yàn)知識(shí),獨(dú)立地優(yōu)化自己的參數(shù),導(dǎo)致模型不會(huì)受到少量新交互信息的劇烈擾動(dòng),從而表現(xiàn)出更高的穩(wěn)定性.同時(shí),由于使用的歷史信息的先驗(yàn)知識(shí)更利于模型在少量樣本上快速收斂,我們的模型在響應(yīng)式推薦的任務(wù)中性能表現(xiàn)也更好.

圖3 不同模型對(duì)老用戶響應(yīng)性的AUC 值對(duì)比

2.5 對(duì)新用戶的響應(yīng)性對(duì)比

表1展示了不同模型在學(xué)習(xí)新用戶興趣任務(wù)上的表現(xiàn),其中n為模型當(dāng)前觀測(cè)到的新用戶的交互的數(shù)量.從表中可以看出我們的模型在學(xué)習(xí)新用戶興趣上的顯著優(yōu)勢(shì).舉例來(lái)說(shuō),在Netflix 數(shù)據(jù)集上,當(dāng)n=1時(shí),我們的模型在NDCG@10的指標(biāo)上超出了對(duì)比模型13%.

表1 不同模型對(duì)新用戶響應(yīng)性對(duì)比(HR@10和NDCG@10 簡(jiǎn)記為HR和NDCG)

此外,相對(duì)于HR@10 評(píng)價(jià)指標(biāo),我們的模型在NDCG@10 評(píng)價(jià)指標(biāo)上取得了更高的提升.舉例來(lái)說(shuō),在 MovieLens 數(shù)據(jù)集上,當(dāng)n=5的時(shí)候,我們的模型在HR@10 指標(biāo)上取得了10.7%的提升,在NDCG@10 指標(biāo)上取得了13.4%的提升.在Netflix的數(shù)據(jù)集上也有相同的現(xiàn)象.由于NDCG 指標(biāo)會(huì)對(duì)排序位置進(jìn)行懲罰,這說(shuō)明了我們的模型可以將正樣本排得更靠前.

2.6 對(duì)元學(xué)習(xí)損失函數(shù)權(quán)重的實(shí)驗(yàn)分析

我們細(xì)化研究了元學(xué)習(xí)損失函數(shù)對(duì)我們模型性能的影響.圖4展示了實(shí)驗(yàn)結(jié)果,從圖中我們我們可以分析得出如下結(jié)論:

圖4 元學(xué)習(xí)損失函數(shù)權(quán)重 λML對(duì)模型性能的影響

(1)使用適當(dāng)?shù)臋?quán)重,我們的元學(xué)習(xí)損失函數(shù)能夠使得模型學(xué)習(xí)出更好的性能

(2)隨著元學(xué)習(xí)損失函數(shù)權(quán)重λML的增加,模型的性能先提高后降低.同時(shí)值得注意的是,當(dāng)λML超過(guò)一定值之后,模型會(huì)發(fā)生梯度爆炸現(xiàn)象.由前面的方法部分介紹可知,這是由于元學(xué)習(xí)損失函數(shù)相當(dāng)于建立在多層的神經(jīng)網(wǎng)絡(luò)之上,容易過(guò)擬合,甚至發(fā)生梯度爆炸現(xiàn)象.

3 結(jié)論和展望

在本文中,我們提出了一套基于元學(xué)習(xí)的響應(yīng)式在線推薦系統(tǒng)設(shè)計(jì).在線上更新的過(guò)程中,由于新的交互信息數(shù)量少,導(dǎo)致模型很難根據(jù)少量新的交互信息準(zhǔn)確快速地學(xué)習(xí)出用戶最近的興趣.在我們的方法中,我們通過(guò)基于元學(xué)習(xí)的方案,從大量的歷史交互信息中提取出先驗(yàn)知識(shí),然后使用該先驗(yàn)知識(shí)指導(dǎo)模型的線上更新過(guò)程,從而使得模型能夠更加準(zhǔn)確地學(xué)習(xí)出用戶最近的興趣.我們通過(guò)大量的實(shí)驗(yàn)證明了我們方案的有效性.

在未來(lái)的工作中,我考慮使用社交網(wǎng)絡(luò)的信息來(lái)增強(qiáng)對(duì)用戶興趣特征的建模[18-20];同時(shí)我們希望通過(guò)元學(xué)習(xí)的方法更加細(xì)致地建模分析用戶的興趣隨時(shí)間變化的模式.

猜你喜歡
用戶信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
如何獲取一億海外用戶
展會(huì)信息
主站蜘蛛池模板: 波多野结衣久久高清免费| 伊人色天堂| 亚洲成人在线免费观看| 亚洲高清无码精品| 免费人成视网站在线不卡| 欧美日韩导航| 久久无码av三级| 亚洲无码91视频| 人妻无码AⅤ中文字| 日本伊人色综合网| 日韩在线观看网站| 草草影院国产第一页| 欧洲高清无码在线| 国产视频 第一页| 999精品免费视频| 免费无码一区二区| 久久超级碰| 国产一级视频在线观看网站| 国产成人精品一区二区免费看京| 成年午夜精品久久精品| 麻豆国产原创视频在线播放| 综合亚洲网| 在线视频97| 亚洲第一黄色网| 亚洲有码在线播放| 国产XXXX做受性欧美88| 精品视频第一页| hezyo加勒比一区二区三区| 精品视频一区二区观看| 成年看免费观看视频拍拍| 亚洲第一香蕉视频| 91毛片网| 久综合日韩| 99re视频在线| 被公侵犯人妻少妇一区二区三区| 99热这里只有精品5| 一本久道热中字伊人| 亚洲精品国产综合99久久夜夜嗨| 精品久久综合1区2区3区激情| 男女性午夜福利网站| 国产最爽的乱婬视频国语对白| 国产毛片高清一级国语| 香蕉久久国产精品免| 亚洲欧美在线综合一区二区三区| 91亚洲免费视频| 亚洲精品国产首次亮相| 99精品视频在线观看免费播放| AV在线天堂进入| 97视频精品全国免费观看| 四虎永久在线精品影院| 无码人中文字幕| 亚洲国产日韩欧美在线| 看你懂的巨臀中文字幕一区二区| 国产黄视频网站| 一级毛片在线免费视频| 亚洲一区波多野结衣二区三区| 国产一二三区视频| 2019年国产精品自拍不卡| 国产精品成人啪精品视频| 首页亚洲国产丝袜长腿综合| 米奇精品一区二区三区| 亚洲A∨无码精品午夜在线观看| 2022国产无码在线| 免费无码在线观看| 国产SUV精品一区二区6| 国产精品视频第一专区| 日本人妻丰满熟妇区| 老司机午夜精品网站在线观看| 日本91视频| 欧美性精品不卡在线观看| 不卡国产视频第一页| 麻豆国产精品| 亚洲自拍另类| 国产麻豆va精品视频| 欧美日韩第二页| 波多野结衣在线一区二区| 高清久久精品亚洲日韩Av| 国产高清精品在线91| 国产剧情国内精品原创| 伊人色婷婷| 亚洲区一区| 任我操在线视频|