999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合交互意圖的圖神經網絡協同過濾算法

2023-01-01 00:00:00張賢坤秦鋒斌孫月黃文杰董梅
計算機應用研究 2023年2期

摘 要:傳統的協同過濾方法很大程度上以一種統一的方式進行建模,沒有在交互意圖的細粒度上考慮建模關系。為此提出一種融合交互意圖的圖神經網絡協同過濾算法(INTNGCF)。首先,通過將邊分解成多個潛在空間來識別潛在意圖;其次,利用交互意圖融合層確定這些潛在意圖的重要性;最后,生成用戶對項目的預測評分。在三個真實數據集上與七種基線模型進行對比實驗,結果表明,提出的算法與其他先進的推薦模型相比具有一定的性能優勢。

關鍵詞:推薦系統;協同過濾;交互意圖;圖神經網絡

中圖分類號:TP399 文獻標志碼:A 文章編號:1001-3695(2023)02-029-0488-05

doi: 10.19734/j.issn.1001-3695.2022.07.0354

Neural graph collaborative filtering based on interaction intent

Zhang Xiankun1, Qin Fengbin1, Sun Yue2, Huang Wenjie1, Dong Mei1

(1.School of Artificial Intelligence, Tianjin University of Science amp; Technology, Tianjin 300457, China; 2.Witeyesz Corp., Ltd., Shenzhen Guangdong 518029, China)

Abstract:Traditional collaborative filtering methods largely model in a uniform way without considering the modeling relationships at the fine-grained level of interaction intent. This paper proposed a graph neural network collaborative filtering algorithm fused with interaction intention, named INTNGCF. Firstly, it identified the potential intention by decomposing edges into multiple potential spaces. Secondly, it used the interaction intention fusion layer to determine the importance of these potential intentions. Finally, it generated a predicted user rating of the project. Compared with seven baseline models on three real datasets, the results show that the proposed algorithm has certain performance advantages compared with other advanced recommendation models.

Key words:recommendation system; collaborative filtering; interaction intent; graph neural network

隨著大數據時代的不斷發展,信息過載現象日益嚴重。推薦系統[1]的出現旨在挖掘用戶潛在興趣,為用戶推薦最感興趣的信息,從而解決信息過載、長尾效應等問題。傳統的推薦算法主要包括基于內容的推薦、協同過濾以及混合推薦。其中,協同過濾是推薦系統中應用最廣泛、最成功的技術之一[2]。

協同過濾主要通過利用用戶—項目的歷史交互數據,預測用戶可能感興趣的物品。從本質上說,用戶—項目的交互可以構建為圖[3]。學習用戶和項目的信息表示對于協同過濾至關重要[4],例如矩陣分解(MF)[5]可以直接嵌入用戶與項目作為特征向量,并利用內積對用戶—項目交互進行建模。之后,一些研究[6~9]將歷史交互作為用戶存在的特征,并結合歷史物品的嵌入來豐富用戶的表現。隨著神經網絡的發展,近期的工作[10~12]進一步將所有歷史交互組織為用戶—項目二部圖,將多跳鄰居集成到表示中,并實現了最先進的性能。這些顯著的改進方式歸功于用戶—物品關系的建模,從只使用一個ID發展到使用一階的歷史交互,最后發展到整體的交互圖。

以上方法取得了一定的成功,但仍存在一定的缺陷。首先,之前的用戶—物品關系建模是粗粒度的,他們假設用戶以統一的交互意圖購買物品。然而,在現實世界中,用戶與物品產生交互的意圖是多樣的。例如,有些用戶購買商品是因為其性價比高,而有些用戶購買商品是因為其外觀搶眼。如果不考慮用戶的購買動機,就會導致次優推薦。其次,在考慮用戶交互意圖多樣性的同時,不僅要關注用戶—物品交互對用戶選擇的影響,也要注意用戶—用戶、物品—物品之間的隱式關聯對用戶選擇的影響。

針對上述問題,本文提出了一種融合交互意圖的圖神經網絡協同過濾算法(INTNGCF)。該模型由潛在意圖建模層、潛在意圖融合層和評分預測三個模塊組成。對于給定的一個用戶—項目交互(邊),潛在意圖建模層通過CF-PoolFormer[13]注意力機制將邊分解成多個潛在空間來識別潛在意圖。然后,融合層使用CF-PoolFormer注意力機制確定這些潛在意圖的重要性,并將它們組合起來,獲得統一用戶(項目)嵌入。最后,將它們串聯起來,使其通過CF-PoolFormer評分預測方法來預測評分。此外,為了處理過參數化和過擬合問題,利用稀疏正則化器;同時采用了基于評級的加權隨機樣本策略來處理有噪聲的成對標簽,加快優化速度。

1 相關工作

1.1 協同過濾

協同過濾是現代推薦系統中比較流行的一種技術[14]。常用的一種模式是將用戶和物品參數化為嵌入,并通過重構用戶物品的歷史交互來學習嵌入參數[15],如矩陣分解(MF)[5]。PMF[16]將評級矩陣顯式分解為兩個低維矩陣,之后通過最小化觀測評分和預測評分之間的均方誤差來優化最大似然估計。BiasedMF[5]通過納入用戶和物品特定的偏差,以及全局偏差,改進了PMF。之后,隨著深度學習技術的興起,人們開始考慮將深度學習技術用于協同過濾,如AutoRec[17],它是一個標準的自編碼器,利用協同過濾中的共現矩陣,完成物品向量或者用戶向量的自編碼,再利用自編碼的結果得到用戶對物品的預估評分,進而進行推薦排序。CF-NADE[18]在每次迭代中隨機去掉一部分輸入空間,可以看做去噪的自編碼器。Deep-Crossing[19]從特征工程、稀疏向量稠密化、多層神經網絡優化目標擬合的完整深度推薦建模方案,在工程應用上具備可實施性。由于傳統推薦模型面臨數據稀疏性和冷啟動等問題,人們開始探索基于圖的推薦算法。早期的研究試圖利用圖的兼容性來融合額外的信息,如社交網絡等[20]。近年來,深度學習也被用于圖的推薦算法中,例如GC-MC[11]是基于用戶—物品的二部圖提出的一種圖自編碼器框架,從鏈路預測的角度解決推薦系統中的評分預測問題;ACF[21]利用組件級別和節點級別的注意力機制選擇具有代表性的條目,同時提供良好的可解釋性;DGCF[4]和MCCF[22]認為將用戶—物品交互作為孤立的數據實例不足以捕獲用戶在采用一個物品時偏好的多樣性,可能導致次優表示。

1.2 圖神經網絡

由于傳統的神經網絡僅能處理歐氏空間數據,而圖數據屬于非歐氏空間數據,所以激發了圖神經網絡的興起。Bruna等人[23]在2013年提出第一個圖卷積神經網絡,他們基于圖譜從卷積定理出發,在譜空間定義圖卷積神經網絡。隨著越來越多的研究發現,圖卷積神經網絡存在融合時邊權值固定,不夠靈活、可擴展性差、隨著層數加深容易出現過平滑等現象。因此,各種基于GCN改進的方法層出不窮。Hamilton等人[24]提出了圖采樣聚合網絡(GraphSAGE),相比于圖卷積網絡等需要獲得所有節點的嵌入算法,GraphSAGE采用了歸納的方法,同時利用節點特征信息和結構信息得到圖嵌入的映射,獲得較強的可擴展性。Velikovic'等人[25]提出了圖注意力網絡(GAT),相比于圖卷積網絡在聚合鄰居信息時使用固定權值,GAT采用注意力機制對鄰近節點特征加權求和。鄰近節點特征的權重完全取決于節點特征,獨立于圖結構。Wu等人[26]指出,GCN主要從最近的深度學習方法中獲得靈感,因此可能會繼承不必要的復雜性和冗余計算,基于此提出了簡化的圖卷積網絡(SGC),SGC通過去除非線性和壓縮連續層之間的權重矩陣來降低這種額外的復雜性。He等人[27]提出了殘差神經網絡(ResNet),ResNet在網絡中增加了直連通道,直接將輸入信息繞道傳到輸出,保護信息的完整性,整個網絡只需要學習輸入、輸出差別的那一部分,有效緩解了過平滑等問題。

1.3 PoolFormer

PoolFormer方法是由顏水成團隊[13]提出的一種方法,用于驗證Transformer實際起作用的是模型結構。團隊認為Transformer模型結構采用MetaFormer這樣的通用架構(即token mixer+channel MLP(FFN)),其中token mixer用于融合token之間的信息,channel MLP主要包含兩個MLP層和非線性激活函數。PoolFormer采用非參數空間平均池化層Pooling替換了Transformer中的注意力模塊,使用Pooling方法,且沒有可學習的參數,大幅降低了計算復雜度,同時可以更好地聚合到鄰近的token features。

本文采用的CF-PoolFormer方法是PoolFormer方法的變體,采用了PoolFormer方法中的token mixer模塊,減少了模型計算的復雜度,同時使用非參數空間平均池化層一定程度上捕獲用戶—用戶和物品—物品之間的特征,此外,該方法中使用了殘差網絡,可以一定程度上緩解模型過平滑的問題。

2 INTNGCF算法

本文從用戶—項目交互意圖的細粒度上考慮建模關系,生成用戶與物品嵌入,以此來預測用戶u對項目i的評分,以表示用戶u對項目i的興趣偏好程度。

2.1 問題定義

Euclid Math OneGAp是由M種交互動機驅動的,第m種意圖捕獲用戶—項目交互中的第m種潛在交互動機。因此,分別為用戶和項目設計M種特定交互意圖的轉換矩陣,提取對于用戶u,其第m種交互意圖sum可以表示為

sum=Wmpu(1)

對于項目i,將其特征分為與交互意圖相對應的M類,其第m類特征 him可以表示為

him=Vmqi(2)

2.2 模型架構

本文通過考慮顯式用戶—項目交互下的多個潛在交互意圖。如圖1所示,利用具有CF-PoolFormer注意力機制的潛在意圖建模層和具有CF-PoolFormer注意力機制的潛在意圖融合層,以獲得統一的用戶(項目)嵌入,最后,將它們串聯起來,使其通過CF-PoolFormer評分預測方法來預測用戶u對項目i的評分,以表示用戶u對項目i的興趣偏好程度。

2.2.1 潛在意圖建模層

研究的對象為用戶u和與其進行交互的項目集合Iu。對于用戶u,有M種用戶特定的交互意圖{sum}Mm=1;對于項目i,有M類激發交互意圖的特征{him}Mm=1。由于與用戶產生交互的項目數目較多,為了避免聚合所有產生交互的項目,導致數據量過大,以及引入噪聲的問題,所以提出采用節點級別的CF-PoolFormer注意力機制去推斷用戶u在第m種意圖下產生交互的項目i。具體來說,用戶u由于第m種意圖與項目i產生交互的概率可以表示為

其中:attnode為節點級別的CF-PoolFormer注意力機制。具體表示為

其中:fea1為用戶特征嵌入; fea2為與用戶產生交互的項目特征的嵌入。

其次,在獲得交互產生的概率euim后,需要通過softmax函數去正則化,得到權重系數。

αuim=softmax(euim)=exp(σ(aTm·[sum‖him]))∑i∈Iuexp(σ(aTm·[sum‖him]))(8)

其中:σ為激活函數;‖為連接操作;aTm為第m種交互意圖下的節點級別注意力向量。

最后,對于所有在Iu中的項目,通過聚合每一個項目的第m類特征,可以學習到對應用戶u第m種交互意圖的第m類項目特征可以表示為

此時,每個用戶u將有M類與之交互意圖相對應的項目特征{zum}Mm=1,接下來將闡述如何組合{zum}Mm=1得到用戶最終的嵌入。

2.2.2 潛在意圖融合層

由于一個用戶對項目產生交互是由多種意圖驅動的,所以提出具有交互意圖級別的CF-PoolFormer注意力機制,用于生成用戶最后的嵌入。將與用戶u產生交互的M類項目特征作為輸入,學習的目標是確定每類項目特征的權重。

其中:attint表示具有意圖級別的CF-PoolFormer注意力機制。

考慮到交互意圖下對應的第m類項目特征的重要性βum應該是依賴于用戶u的,則將zum和sum結合起來,學習它們統一的嵌入:

其中:Cm為權重矩陣;bm為偏置向量。然后,使用一個意圖級別的注意向量q,則第m種交互意圖下對應的第m類項目特征的重要性,表示為

其中:b為偏置。之后使用softmax函數獲得第m類項目特征權重βum:

其中:βum越大,表示交互關系更有可能由第m類物品特征決定。利用這些學習到的權重,將這些代表用戶交互意圖的項目特征融合,得到用戶u的最終嵌入zu:

注意,這里詳細描述了用戶表示學習過程。因為項目表示學習是一個同樣過程,為了簡單起見,省略了它。

2.2.3 評分預測

將分別從用戶和項目部分得到的用戶u和項目i的最終嵌入(即zu和vi)連接起來,再使用CF-PoolFormer方法,不僅從用戶項目交互的角度,同時一定程度上捕獲用戶—用戶和項目—項目交互關系,以此來預測用戶u對項目i的評分r′ui:

INTNGCF算法的具體步驟如下:

a)提取交互意圖sum和激活交互意圖的項目特征 him。

b)使用節點級別的CF-PoolFormer注意力機制得到用戶由于第m種意圖與項目i產生交互的概率;項目在第m種意圖下與項目i產生交互的概率。

c)加權得到對應用戶u第m種交互意圖的項目特征zum;加權得到第m類項目特征激活的用戶交互意圖vmi。

d)使用組件級別的CF-PoolFormer注意力機制得到與用戶產生交互的每類項目特征的權重;與項目產生交互的每種交互意圖的權重。

e)加權得到用戶u的嵌入zu,項目i的嵌入vi。

f)使用CF-PoolFormer評分預測方法預測用戶u對項目i的評分。

3 實驗

3.1 數據集

為驗證和評估模型的有效性能,本文使用如下三個公開的數據集將本文算法與幾種先進的算法進行對比:

a)MovieLens-100k,電影評分數據集,包含943名用戶對1 682部電影的10萬次評分。

b)Amazon,產品推薦數據集,包含1 000個用戶對1 000個商品的65 170條評分。

c)Yelp,企業推薦數據集,包含1 286個用戶對2 614家企業的30 838條評價。

對于每個數據集,隨機選取80%的歷史評分作為訓練集,其余作為測試集。

3.2 評價指標

本文將平均絕對誤差(mean absolute error,MAE)、均方根誤差(root mean square error,RMSE)作為誤差評價指標。

a)平均絕對誤差MAE,用于度量兩個連續變量之間的差異,即用戶對項目的實際評分和預測評分之間的平均絕對誤差。

b)均方根誤差RMSE,代表觀測值與真實值偏差的平方和與觀測次數比值的平方根。

3.3 對比模型

為了驗證本文算法的有效性,將其與以下幾種算法進行比較:

a)基于矩陣分解的方法。

(a)PMF算法[16],將用戶—項目的歷史評分矩陣分解為兩個關于用戶和項目的低秩特征矩陣,再使用內積預測用戶對物品的評分。

(b)BiasMF算法[5],利用矩陣分解模型將評分矩陣分解為用戶物品的低秩特征矩陣,此外考慮來自用戶和物品的偏差信息,增強模型表達效果。

b)基于自動編碼器的方法。

(a)AutoRec算法[17],利用協同過濾的共現矩陣,完成物品向量或用戶向量的自編碼。然后再利用自編碼的結果得到用戶對物品的預測評分。

(b)CF-NADE算法[18],在用戶、物品節點上強制執行隨機排序,并通過隨機剪切將傳入的消息分成兩組,只保留其中一組??梢詫⒃撃P涂醋鍪且粋€去噪自動編碼器,在每次迭代中,輸入空間的一部分被隨機丟棄。

c)基于圖卷積神經網絡的方法。

(a)GC-MC算法[11],利用GNN提取用戶和項目的潛在特征,從鏈路預測的角度解決推薦系統中的評分預測問題。

(b)LightGCN算法[15],通過在用戶—項目交互圖上線性傳播用戶和項目嵌入來學習它們,并使用在所有層上學習到的嵌入的加權和作為最終的嵌入。

(c)MCCF算法[22],為一種新穎的多分量圖卷積協同過濾算法。

3.4 實驗結果與分析

3.4.1 交互意圖實驗結果分析

將交互意圖在{1,2,3,4}的范圍內進行實驗,結果如圖3所示。從結果中可以發現,隨著交互意圖的數量從1增加到4,該算法開始實現更大的改進,表明考慮多個交互意圖的重要性。特別是,當交互意圖的數量等于3時,實現了最好的性能。這說明了多個交互意圖的隱式語義捕獲能力。然而,當交互意圖的數量繼續增長時,性能是飽和的,甚至是下降的。

3.4.2 不同算法的實驗結果與分析

該算法與對比算法的結果如表1所示。

從表1可以看出:a)本文算法在RMSE與MAE這兩個評價指標上均得到優于對比算法的結果,表明了本文算法的有效性;b)使用本文算法的兩個變體來分析分層注意力機制的作用,具體地,INTNGCF-node表示未在潛在意圖建模層使用CF-PoolFormer注意力機制,INTNGCF-int表示未在潛在意圖融合層使用CF-PoolFormer注意力機制。從結果可以看出,CF-PoolFormer注意力機制對算法是有效的,也就是說,用戶與項目的交互確實是由多種意圖構成的,而且每種意圖對于學習每個用戶和項目的嵌入有不一樣的重要性。

3.5 參數敏感性分析

在訓練過程中,使用高斯分布N(0,0.1)隨機初始化模型參數,然后使用Adam作為優化器。實驗中主要參數的選擇范圍如下:droprate范圍為{0.2,0.3,0.4,0.5};嵌入維度d的范圍為{32,64,128};批次大小batch_size范圍為{128,256,512}。

本實驗平臺的操作系統為Linux,CPU為主頻35 GHz,內存為3 200 GB,編程語言為Python 3.7,深度學習框架為PyTorch 1.7。

1)droprate

由于模型中使用了全連接神經網絡,故進行droprate設置,以此提高網絡的精度與魯棒性。如表2所示,采用控制變量法對droprate進行調整,其中嵌入維度d設置為64,批次大小batch_size設置為256。從表2中分析可得,當droprate較高時會導致模型欠學習,過低時又會起不到效果,該參數為0.3時,模型效果最佳。

2)嵌入維度d

如表3所示對比實驗,其中batch_size設置為256,droprate設置為0.3,只調整嵌入向量維度。通過分析可以看出,對于Yelp和Amazon數據集,隨嵌入向量維度的增加,模型效果越好,d設置為128時結果最優,對于MovieLens數據集,d設置為64時結果最優,產生該結果是由三種數據集的差異所導致的。MovieLens數據集中包含的信息量大于Yelp和Amazon數據集,然而稀疏度低于以上兩個數據集,因此,當d過大時將會影響模型的性能,因此,值為64時效果最佳。而Yelp和Amazon數據集稀疏度較大,在一定程度上增大d可以增強表示能力,進而提高推薦性能。

3)批次大小batch_size

如表4所示,對批次大小batch_size調整的對比實驗中,將droprate設置為0.3,對于Yelp和Amazon數據集,d設置為128,對于MovieLens數據集,d設置為64。通過分析可以看出,對于Amazon和MovieLens數據集,隨著batch_size的增大,模型效果越來越好,但是batch_size=128~256模型效果的平均增長幅度相比batch_size=256~512的增長幅度要大,考慮到256的batch_size到512的batch_size運行時所占用空間翻倍增長,模型效果增長幅度相對未達到預期漲幅,故最終采用batch_size=256;對于Yelp數據集,由于數據量稍小,當batch_size增大到一定程度,將會降低模型的泛化能力,從而影響性能。

4 結束語

本文提出一種融合交互意圖的圖神經網絡協同過濾算法,探索用戶與項目產生交互的多種意圖,該模型將用戶—項目之間的交互邊以CF-PoolFormer注意力機制來分解,同時一定程度上捕獲用戶—用戶,項目—項目之間的潛在關聯關系,以此預測用戶對項目的評分。與標準的整體方法相比,多意圖交互顯著地豐富了表示能力,并反映了細粒度的用戶偏好。本文算法考慮的是用戶物品顯示交互下的交互意圖,缺乏對點擊、評論等隱式交互下的意圖捕獲,在未來的研究中,將考慮將顯示交互下意圖捕獲的方式運用于隱式交互中,從而進一步提升推薦性能。

參考文獻:

[1]Lyu L,Medo M,Yeung C H,et al. Recommender systems [J]. Physics Reports,2012,519(1): 1-49.

[2]趙俊逸,莊福振,敖翔,等. 協同過濾推薦系統綜述 [J]. 信息安全學報,2021,6(5):17-34. (Zhao Junyi,Zhuang Fuzhen,Ao Xiang,et al. Survey of collaborative filtering recommender systems [J]. Journal of Cyber Security,2021,6(5):17-34.)

[3]Kalofolias V,Bresson X,Bronstein M,et al. Matrix completion on graphs [EB/OL]. (2014). https://arxiv.org/abs/1408. 1717.

[4]Wang Xiang,Jin Hongye,Zhang An,et al. Disentangled graph colla-borative filtering [C]// Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press,2020: 1001-1010.

[5]Koren Y,Bell R,Volinsky C. Matrix factorization techniques for re-commender systems [J]. Computer,2009,42(8): 30-37.

[6]He Xiangnan,He Zhankui,Song Jingkuan,et al. Nais: neural attentive item similarity model for recommendation [J]. IEEE Trans on Knowledge and Data Engineering,2018,30(12): 2354-2366.

[7]Kabbur S,Ning Xia,Karypis G. FISM: factored item similarity models for top-n recommender systems [C]// Proc of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2013: 659-667.

[8]Koren Y. Factorization meets the neighborhood: a multifaceted collabo-rative filtering model [C]// Proc of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2008: 426-434.

[9]Li Chenliang,Quan Cong,Peng Li,et al. A capsule network for recommendation and explaining what you like and dislike [C]// Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press,2019: 275-284.

[10]Sun Jianing,Zhang Yingxue,Ma Chen,et al. Multi-graph convolution collaborative filtering [C]// Proc of IEEE International Conference on Data Mining. Piscataway,NJ:IEEE Press,2019: 1306-1311.

[11]Berg R,Kipf T N,Welling M. Graph convolutional matrix completion [EB/OL]. (2017). https://arxiv.org/abs/1706.02263.

[12]Wang Xiang,He Xiangnan,Wang Meng,et al. Neural graph collaborative filtering [C]// Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press,2019: 165-174.

[13]Yu Weihao,Luo Mi,Zhou Pan,et al. Metaformer is actually what you need for vision [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 10819-10829.

[14]Ying R,He Ruining,Chen Kaifeng,et al. Graph convolutional neural networks for web-scale recommender systems [C]// Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2018: 974-983.

[15]He Xiangnan,Deng Kuan,Wang Xiang,et al. LightGCN: simplifying and powering graph convolution network for recommendation [C]// Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press,2020: 639-648.

[16]Mnih A,Salakhutdinov R R. Probabilistic matrix factorization [C]// Proc of the 20th International Conference on Neural Information Processing Systems.2007:1257-1264.

[17]Sedhain S,Menon A K,Sanner S,et al. AutoRec: autoencoders meet collaborative filtering [C]// Proc of the 24th International Confe-rence on World Wide Web. 2015: 111-112.

[18]Zheng Yin,Tang Bangsheng,Ding Wenkui,et al. A neural autoregressive approach to collaborative filtering [C]// Proc of International Conference on Machine Learning. 2016: 764-773.

[19]Shan Ying,Hoens T R,Jiao Jian,et al. Deep crossing: Web-scale modeling without manually crafted combinatorial features [C]// Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 255-262.

[20]Zhao Wayne Xin,Li Sui,He Yulan,et al. Connecting social media to e-commerce: cold-start product recommendation using microblogging information [J]. IEEE Trans on Knowledge and Data Enginee-ring,2016,28(5): 1147-1159.

[21]Chen Jingyuan,Zhang Hanwang,He Xiangnan,et al. Attentive collabo-rative filtering: multimedia recommendation with item-and component-level attention [C]// Proc of the 40th International ACM SIGIR conference on Research and Development in Information Retrieval. New York: ACM Press,2017: 335-344.

[22]Wang Xiao,Wang Ruijia,Shi Chuan,et al. Multi-component graph convolutional collaborative filtering [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA:AAAI Press,2020:6267-6274.

[23]Bruna J,Zaremba W,Szlam A,et al. Spectral networks and locally connected networks on graphs [EB/OL]. (2013).https://arxiv.org/abs/1312. 6203.

[24]Hamilton W,Ying Z,Leskovec J. Inductive representation learning on large graphs [C]// Proc of the 31st International Conference on Neural Information Processing Systems. 2017: 1025-1035.

[25]Velikovic' P,Cucurull G,Casanova A,et al. Graph attention networks [EB/OL]. (2017). https://arxiv.org/abs/ 1710. 10903.

[26]Wu F,Souza A,Zhang Tianyi,et al. Simplifying graph convolutional networks [C]// Proc of International Conference on Machine Lear-ning. 2019: 6861-6871.

[27]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al. Deep residual learning for image recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016: 770-778.

[28]Louizos C,Welling M,Kingma D P. Learning sparse neural networks through L_0 regularization [EB/OL]. (2017). https://arxiv.org/abs/ 1712. 01312.

收稿日期:2022-07-11;修回日期:2022-09-19 基金項目:天津市高等學校本科教學質量與教學改革研究計劃項目(B201005706);天津市自然科學基金資助項目(19JCYBJC15300);天津市科技計劃項目(21ZYQCSY00050);天津市研究生科研創新項目(2021YJSS04)

作者簡介:張賢坤(1970-),男,安徽蕪湖人,教授,碩導,博士,主要研究方向為智能信息處理、領域軟件工程;秦鋒斌(1995-),女,山西長治人,碩士研究生,主要研究方向為智能信息處理、推薦系統;孫月(1994-),男(通信作者),山東德州人,工學碩士,主要研究方向為人工智能,計算機視覺(sun201835@outlook.com);黃文杰(1999-),男,浙江溫州人,碩士研究生,主要研究方向為推薦系統;董梅(1997-),女,甘肅定西人,碩士研究生,主要研究方向為智能信息處理、時序數據挖掘.

主站蜘蛛池模板: 伊人丁香五月天久久综合| 国产女人综合久久精品视| 天天综合网在线| 毛片手机在线看| 国产精品粉嫩| 色噜噜综合网| 午夜一级做a爰片久久毛片| 亚洲欧美综合另类图片小说区| 欧美亚洲欧美| 久久无码av一区二区三区| 国产爽妇精品| 无码高潮喷水专区久久| 国产永久免费视频m3u8| 免费又黄又爽又猛大片午夜| 亚洲av无码成人专区| 久久久久久午夜精品| 无码粉嫩虎白一线天在线观看| 亚洲精品无码人妻无码| 国产成人毛片| 青青草原国产精品啪啪视频| 黄色不卡视频| 亚洲免费毛片| 女人天堂av免费| 久久永久免费人妻精品| 国产小视频免费观看| 国产丝袜无码一区二区视频| 亚洲欧洲日本在线| 免费A级毛片无码无遮挡| 久久久久青草大香线综合精品| 成人国产精品一级毛片天堂| 永久天堂网Av| 在线欧美国产| jizz国产视频| lhav亚洲精品| 波多野结衣第一页| 日本人真淫视频一区二区三区| 黄色网站在线观看无码| 国产欧美在线观看一区 | 国产91丝袜在线播放动漫| 试看120秒男女啪啪免费| 国产在线观看第二页| 亚洲日产2021三区在线| 伊人中文网| 精品无码视频在线观看| 欧美一区二区福利视频| 日韩无码黄色| 精品久久高清| 激情综合婷婷丁香五月尤物| 亚洲国产日韩在线成人蜜芽| 亚洲国产日韩视频观看| 99re这里只有国产中文精品国产精品 | 国产成人av大片在线播放| 美女亚洲一区| 毛片网站免费在线观看| 日韩欧美国产成人| 夜夜操天天摸| 国产swag在线观看| 国产jizz| 一区二区欧美日韩高清免费| 国产成人一区二区| 亚洲中文字幕久久无码精品A| 国产精品成人观看视频国产| 久久黄色免费电影| 国产91蝌蚪窝| 久久婷婷人人澡人人爱91| 中文字幕在线观看日本| 亚洲一区毛片| 中文字幕在线观看日本| 国产99热| 国产精品v欧美| 中国成人在线视频| 亚洲午夜综合网| 国产精品午夜电影| 国产人人干| 亚洲成a人片| 久久99蜜桃精品久久久久小说| 在线中文字幕网| 久久人体视频| 欧美yw精品日本国产精品| Aⅴ无码专区在线观看| 香蕉久人久人青草青草| 国产一区二区三区精品欧美日韩|