999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖對比學習的MOOC 推薦方法

2023-01-27 08:27:34王曙燕郭睿涵孫家澤
計算機工程 2023年1期
關鍵詞:用戶方法模型

王曙燕,郭睿涵,孫家澤

(西安郵電大學 計算機學院,西安 710121)

0 概述

近年來,隨著互聯網技術的飛速發展,在線教育行業也迎來了新的發展潮流,其中擁有大量優質課程資源的MOOC 學習平臺是在線教育行業的主要代表。MOOC 平臺的不斷發展和積累為高校開展線上線下相結合的混合式教學提供了便利[1]。截止2021 年10 月底,我國上線MOOC 數量超過4.75 萬門,注冊用戶達到3.64 億,選課人次達到7.55 億,中國慕課數量和慕課學習人數均為世界第一。但是隨著學習資源越來越豐富,面對海量的MOOC 學習資源,廣大學習者面臨著“信息迷航”和“信息過載”等問題[2],同時,MOOC 平臺也很難針對學習者的特點為學習者推薦出其感興趣的學習資源。另一方面,MOOC 平臺也存在著高注冊率、低通過率的問題,通過率10%以上的課程占比不到10%。一個重要原因是MOOC 不能針對用戶的特點進行高質量的推薦。在MOOC 平臺中,用戶的興趣等信息難以獲取,現有的推薦方法不能很好地挖掘用戶學習記錄中隱含的用戶興趣等信息,同時,一些優質的新課程因為被點擊學習的次數較少而被雪藏,而一些發布時間較早的課程由于累計點擊學習次數較高而被頻繁地推薦。個性化推薦系統是解決信息過載問題的最有效的方法之一,可以幫助學習者在MOOC 平臺上高效地學習,避免學習迷航。此時,高質量的推薦結果就顯得尤為重要。一方面,準確的推薦結果可以節省學習者查找課程的時間,提高學習者的學習效率和學習興趣,高質量的推薦結果可以提高新課程的推薦頻率,使一些優質的新課程不會因為曝光頻次較少而被雪藏,增加授課教師的創作熱情;另一方面,高質量的推薦結果可以提高學習者對MOOC 平臺的滿意度和信任程度,提高MOOC 平臺的課程通過率。

目前常用的推薦模型主要分為淺層模型、神經模型與基于圖神經網絡(Graph Neural Network,GNN)的模型[3]。最早的推薦模型通過直接計算交互的相似度來捕捉協同過濾效應,隨后文獻[4]提出了基于神經網絡的模型。近年來,基于GNN 的圖嵌入推薦方法[5]憑借其處理結構化數據和挖掘結構化信息的優點,已經成為推薦系統中最新的研究方向。

但是目前對于MOOC 推薦的研究還比較少,MOOC 平臺的交互數據較為稀疏,不同課程被曝光的頻次差異較大,交互數據中噪聲數據較多,目前已有的MOOC 推薦方法不能有效解決上述問題。本文提出一種基于圖對比學習的MOOC 推薦方法,并設計一種新的數據增強方法。首先對用戶項目交互的二分圖進行數據增強得到兩個子視圖,數據增強包括隨機添加和隨機刪除兩種方法,然后通過圖卷積神經網絡對原始二分圖和兩個子視圖進行節點表征提取,構建推薦監督任務和對比學習輔助任務進行聯合優化,最后獲得推薦結果。

1 相關研究

1.1 推薦系統

1.1.1 協同過濾推薦方法

協同過濾推薦方法源于現實生活中口碑相傳的過程,協同過濾利用相似用戶之間具有相似興趣偏好的方法來發現用戶對項目的潛在偏好[6]。其核心思想可以分為兩部分:首先是利用用戶的歷史信息計算用戶之間的相似性;然后利用與目標用戶相似性較高的鄰居對其他產品的評價來預測目標用戶對特定產品的喜好程度,系統根據這一喜好程度來對目標用戶進行推薦。由于協同過濾僅需要利用用戶的歷史評分數據,因此簡單有效,是目前應用最為成功的推薦方法。協同過濾推薦系統最大的優點是對推薦對象沒有特殊的要求,能處理音樂、電影等難以進行文本結構化表示的對象[7]。但是,由于用戶對項目的評分數據相對項目的總數量非常少,因此常會遇到數據稀疏的問題[6]。

1.1.2 基于圖卷積神經網絡的推薦方法

在推薦系統中,大多數信息都具有圖形結構。用戶與項目之間的交互可以看作是二分圖,利用圖學習方法來獲得用戶和項目的嵌入表示[8]。在圖學習方法中,圖形神經網絡目前受到了廣泛的關注,其中基于圖卷積網絡(Graph Convolutional Network,GCN)的推薦模型憑借其優異的效果在推薦系統模型中被廣泛應用[9-10]。

圖神經網絡采用嵌入傳播迭代聚合鄰域嵌入。通過疊加傳播層,每個節點可以訪問高階鄰居信息,而不像傳統方法那樣只訪問一階鄰居信息[11]。該技術的靈感來自于圖卷積神經網絡,它提供了一種端到端的方式,將多跳鄰居集成到節點表征學習中,并實現最先進的性能推薦。

文獻[10]將協同信號嵌入到基于模型的連接圖的嵌入函數中,提出一種新的推薦方法NGCF,該方法利用用戶-項目集成圖中的高階連接性來實現協同信號的嵌入表示。

文獻[11]提出一種簡化的GCN 模型LightGCN,該模型只包含了GCN 鄰域聚合中最基本的部分,例如領域的聚合、多層傳播用于協同過濾的聚合,刪除了特征變換和非線性激活的部分。LightGCN 中圖卷積運算定義為:

圖1 LightGCN 圖卷積過程Fig.1 LightGCN graph convolution process

其中:al≥0 表示第l層嵌入構成最終嵌入的權重,它可以作為一個超參數進行手動調整,也可以作為一個模型參數。

LightGCN 通過在用戶-項目交互圖上線性傳播用戶和項目的嵌入來學習節點表征,最后將用戶和項目嵌入加權和作為最后的預測得分。模型預測結果被定義為用戶和項目最終表示的內積:

同時該結果也被作為生成推薦排名的分數。

1.2 對比學習

自監督學習的思想是設置一個輔助任務,從輸入數據本身提取額外的信息,利用未標記的數據空間。與監督式學習相比,自監督學習通過修改輸入數據來利用未標記的數據空間,挖掘出難以與正樣本區分的負樣本,從而在下游任務中取得顯著的改進[12-13]。對比學習是自監督學習中的一種方法。

在計算機視覺(Computer Vision,CV)、自然語言處理(Natural Language Processing,NLP)領域,對比學習結合自監督學習框架,近年來取得了顯著的成就[14-16],文獻[16]提出了一個簡單的視覺表征對比學習框架SimCLR,研究隨機圖像增強。對比學習通過最大化一個實例的兩個擴展視圖之間的一致性來訓練編碼器。其核心思想是樣本和與之相似的正樣本之間的距離遠大于樣本和與之不相似的負樣本之間的距離。

最新的研究結果表明,自監督學習可以有效提升推薦模型的性能,提高推薦模型對長尾項目的推薦效果[17],文獻[13]將自監督學習的方法加入到推薦模型中,提出一種新的推薦方法SGL,以用戶項圖上的自監督學習來補充有監督的推薦任務。文獻[18]針對交互序列提出一種新的數據增強方式,將對比學習應用于序列推薦中,提高了推薦模型的魯棒性。

在圖學習領域,由于圖數據也存在缺少標簽或難以標注的問題,自2020 年以來,研究人員著力于將對比學習技術應用于圖表示學習任務上,取得了較好的效果,這一系列算法研究稱為圖對比學習[19]。在一般意義上,圖對比學習是一種針對圖數據的自監督學習算法。對給定的大量無標注圖數據,圖對比學習算法旨在訓練出一個圖神經網絡編碼器。由這個圖神經網絡編碼得到的圖表示向量,可以很好地保留圖數據的特性,并進一步在無監督、半監督、遷移學習以及魯棒性測試等實驗設置下進行測試,并應用于社交網絡、蛋白質交互網絡、分子結構、學術引用網絡等多個場景中[20]。

2 MOOC 推薦方法

受到SGL 模型的啟發,本文將對比學習的思想應用于MOOC 課程推薦中,設計一種基于圖對比學習的MOOC 課程推薦模型。首先對輸入的用戶項目交互的二分圖進行數據增強,得到兩個子視圖;然后在原始二分圖和兩個子視圖上使用最先進的LightGCN 模型進行節點表征提取,構建推薦監督任務和對比學習輔助任務進行聯合優化;最后得到推薦結果。算法框架如圖2 所示。

圖2 本文算法框架Fig.2 Framework of the proposed algorithm

2.1 矩陣形式

將用戶和項目交互的二分圖以矩陣的形式進行操作,交互矩陣記為矩陣R∈RM×N,其中M和N分別為用戶的數量和課程的數量,如果用戶u學習過課程i,則Rui對應位置的數值為1,否則為0。得到用戶項圖的鄰接矩陣形式如下:

其中:D是(M+N)×(M+N)的對角矩陣,對角線上的數值Dii表示鄰接矩陣A第i行向量中非零項的數量。最后得到用于模型預測的最終嵌入矩陣形式如下:

2.2 數據增強

推薦系統中用戶項目交互二分圖具有如下的特點:1)用戶和項目的特征是離散的;2)與CV 和NLP任務將每個數據實例視為孤立的情況不同,交互圖中的用戶和項目本質上是相互連接和依賴的。因此,在圖像上進行的數據增強操作,如隨機裁剪、旋轉、灰度處理等方法是不適用于交互圖的,需要為基于圖的推薦模型重新設計數據增強的方法。

二分圖是建立在用戶-項目交互信息之上的,因此包含了協同過濾信息。第一跳鄰居直接描述用戶和項目節點,即用戶(或項目的互動用戶)的歷史交互可以被視為用戶(或項目)的預先存在的特性。用戶(或項目)的第二跳相鄰節點表現出相似的用戶行為(或項目的受眾)。此外,從用戶到項目的高階路徑反映了用戶對項目的潛在興趣。挖掘圖形結構的內在模式有助于節點表征學習。本文在圖結構上設計了兩種數據增強的方法:隨機添加和隨機刪除,以創建不同的節點視圖。數據增強的操作可以統一表示如下:

其中:將數據增強操作記為S;對用戶和項目交互的二分圖G進行兩次完全獨立的數據增強的操作形成兩個視圖s1(G)和s2(G);為在第l層得到的節點的兩個相關的節點表征;H表示鄰域聚合的函數用以更新節點表征。

每輪迭代在開始時生成每個節點的兩個不同視圖,對于兩個獨立的操作過程,隨機添加的參數m和隨機刪除比率p保持不變。

2.2.1 隨機添加方法

該方法通過參數m向交互記錄中添加m個隨機生成的交互記錄數據,具體而言,該方法會在用戶和項目交互的二分圖中隨機添加一些邊。兩個獨立的操作表示為:

其中:V表示節點的集合;E 表示邊的集合;E′、E″表示添加的邊的集合。

這種擴充有望從不同的擴充視圖中識別對節點表征學習比較重要的節點信息,并使節點表征學習對圖結構變化不太敏感。

2.2.2 隨機刪除方法

該方法通過一個隨機刪除比率p刪除一些用戶和項目的交互記錄,具體來講,該方法會隨機刪除一些交互二分圖中的一些邊,兩個獨立的操作表示為:

其中:M1,M2∈{0,1}||E是基于邊的集合的兩個掩碼向量,通過隨機刪除比率p生成;⊙表示兩個向量的乘積。

只有鄰域內的部分連接參與節點表征學習,使得GCN 不會過于依賴某一條邊,旨在捕獲節點局部結構的內在信息,并進一步賦予節點表征學習對噪聲數據更強的魯棒性。

2.3 對比學習

建立節點的增強視圖后,將同一個節點的視圖視為正對,將同一訓練批次不同節點的視圖視為負對。對正對的監督學習促進了同一節點不同視圖之間的一致性,而對負對的監督學習加強了不同節點之間的差異。損失函數形式上采用對比損失InfoNCE[21],以最大化正對的一致性,并最小化負對的一致性,用戶側InfoNCE 損失函數公式為:

其中:s表示計算用戶向量之間相似度的函數,這里采用余弦函數計算向量相似度;τ為溫度超參數,在兩個視圖s1(G)和s2(G)下進行圖卷積操作得到用戶u的節點表征,記為為同一用戶u在不同視圖下經過圖卷積網絡學習到的節點表征向量;用戶v(u≠v)在視圖s2(G)下經過圖卷積神經網絡學習到的表示記為為不同用戶節點經過圖卷積神經網絡學習到的節點表征向量。項目側InfoNCE 損失函數與用戶側InfoNCE 損失函數保持一致。LSSL損失函數公式為:

LSSL優化的目標是最大化同一節點表征向量之間的相似性,最小化不同節點表征向量之間的相似性。

2.4 聯合優化

為了利用對比學習任務改進推薦方法,本文采用多任務訓練策略,通過結合推薦監督任務和對比學習輔助任務對目標函數進行聯合優化,聯合優化的目標函數表示為:

其中:Θ表示模型中可訓練的參數表示L2 正則項,L2 正則項用以防止過擬合現象;λ1、λ2為超參數;LBPR表示推薦系統常用的貝葉斯個性化排名損失[22]。LBPR公式為:

其中:O表示用戶和項目交互的數據記錄;u表示用戶;i表示用戶交互過的項目;j表示用戶未交互過的項目;表示樣本得分,由式(5)計算得到表示正樣本得分;表示負樣本的得分。貝葉斯個性化排名損失LBPR的目標是讓正樣本和負樣本之間的得分之差盡可能大。

3 實驗結果與分析

3.1 實驗數據集

本文在實驗中選用的數據集為從中國最大的MOOC平臺之一的學堂在線收集的數據集[23],將不同年份開設的相同課程統一為一門課程,選擇2016 年10 月1日—2018年3月31日期間報名至少3門課程的用戶。數據集包括1 302 門課程、82 535 個用戶和458 454 條交互記錄。該數據集數據項包括:用戶ID,課程ID,學生首次注冊相應課程的時間,課程名稱,課程類別,課程類別ID。

對于選取的數據集,選取交互次數大于10 的用戶的數據集合,經過篩選后的數據集信息如表1 所示。

表1 篩選后的數據集信息Table 1 Filtered dataset information

3.2 實驗參數設置

本文實驗基于流行的開源推薦框架伯樂[24]實現,在實驗過程中,訓練集、驗證集和測試集的劃分按照比率8∶1∶1 隨機選取。模型的參數使用Xavier方法[25]進行初始化,優化器選用adam,學習率大小設為0.001,batch_size 設為2 048,圖卷積神經網絡層數設定為3 層。

本文實驗針對前K項推薦(Top-K)場景,采用式(17)~式(20)中描述的召回率(R)和歸一化折損累積增益(Normalize Discount Cumulative Gain,NDCG)作為評價指標。

其中:Reu表示根據用戶在訓練集上的行為給用戶做出的推薦列表;Tu表示用戶在測試集上的行為列表;U表示用戶的集合;reln表示處于位置n的推薦課程的相關性;K表示向用戶推薦預測概率最大的前K門課程;|REL|表示相關度最高的前K個課程的集合,令K等于5,即向用戶推薦預測概率最大的前5 門課程;召回率表示正確預測出的正樣本占實際正樣本的概率;NDCG 用來評價推薦結果的準確性,有高關聯度的結果出現在更靠前的位置時,NDCG 指標越高,推薦效果越好。

3.3 對比模型選擇

選擇另外4 種方法作為實驗的對比方法,包括基于矩陣分解模型的推薦算法、基于自編碼器的推薦算法和基于圖卷積神經網絡的推薦算法,具體內容如下:

1)DMF[26]。一種基于神經網絡結構的矩陣分解模型,通過神經網絡結構,將用戶和項目投射到潛在空間的低維向量中。

2)GC-MC[9]。一種基于用戶項目交互二分圖的圖自編碼器框架,從鏈路預測的角度解決推薦系統中的預測問題,只考慮一階鄰居,因此只使用了一個圖卷積層。

3)NGCF[10]。一種基于圖的協同過濾方法,基于標準的圖卷積神經網絡實現,在消息傳遞過程中將二階交互特征編碼到消息中。

4)LightGCN[11]。一種基于簡化和增強的圖卷積網絡的推薦方法,只包含GCN 中最重要的組成部分,例如領域聚合、多層傳播。通過在用戶項目交互圖上線性傳播用戶和項目的嵌入來學習節點表征,最后將用戶和項目嵌入的加權和作為最后的預測得分。

3.4 結果分析

3.4.1 MOOC 數據集實驗結果

本文方法與其他推薦方法在MOOC 數據集上的實驗結果如表2 所示。

表2 MOOC 數據集實驗結果Table 2 Experimental results of MOOC dataset

從表2 可以看出,本文提出的推薦方法在MOOC數據集上取得了優于其他對比方法的實驗結果,證明了本文方法的有效性,相較于性能最優異的LightGCN方法,本文方法Recall@5 提升了7.8%,NDCG@5 提升了7.3%。從實驗結果分析來看,GC-MC 使用基于信息傳遞方式的GNN 來挖掘二分圖,將協同過濾信號直接建模到節點表征中,相較于傳統的神經網絡模型性能有所提升。NGCF 通過顯式建模用戶和項目之間的高階連接性來提升節點表征的質量,取得了相較于GC-MC更好的性能。LightGCN 只對下一層進行規范化的鄰域嵌入,去除了NGCF 中自連接、特征變換、非線性激活等對于協同過濾推薦方法意義不大的操作,取得了優于NGCF 的實驗結果。

3.4.2 超參數λ1對算法性能的影響分析

為驗證超參數λ1對算法性能的影響,將本文方法在不同λ1值下的實驗結果進行比較,實驗結果如圖3、圖4 所示。

圖3 在MOOC 數據集上不同λ1 值的Recall@5 對比Fig.3 Recall@5 comparison of different λ1values on MOOC dataset

圖4 在MOOC 數據集上不同λ1 值的NDCG@5 對比Fig.4 NDCG@5 comparison of different λ1values on MOOC dataset

超參數λ1的作用是控制對比學習輔助任務占聯合學習任務的比例。由圖3、圖4 實驗結果可知,當λ1=0.1 時,本文方法性能最佳,當λ1>0.4時,模型性能急劇下降。合適的λ1值可以平衡推薦監督任務和對比學習輔助任務之間的關系,取得理想的性能。

3.4.3 溫度超參數τ對算法性能的影響分析

為驗證溫度超參數τ對算法性能的影響,將本文方法在不同溫度超參數τ值下的實驗結果進行比較,實驗結果如圖5、圖6 所示。

圖5 在MOOC 數據集上不同τ 值的Recall@5 對比Fig.5 Recall@5 comparison of different τ values on MOOC dataset

圖6 在MOOC 數據集上不同τ 值的NDCG@5 對比Fig.6 NDCG@5 comparison of different τ values on MOOC dataset

溫度超參數τ的作用是挖掘困難負樣本,即對梯度貢獻較大的負樣本。在投影空間中,小的溫度超參數會使困難負樣本和正樣本距離更遠,增大相似性得分的差值,使得正樣本和負樣本的區分度更加明顯。由圖5、圖6 結果可以看出,不同τ值對實驗結果具有不同的影響。當τ=0.5 時,算法性能達到最優,當τ值過小(τ<0.3)時,算法性能 會急劇下降。

3.4.4 數據增強方法效果對比

數據增強方法對比結果如表3 所示。由表3 結果可知,隨機添加的數據增強方法稍優于隨機刪除的方法。

表3 數據增強方法對比結果Table 3 Comparison results of data enhancement methods

一個可能的原因是使用隨機刪除數據增強方法會刪除掉一些交互中有用的信息,例如:用戶學習了C 語言、數據結構課程之后又學習了一門C#課程,但是由于C#的課程開設的較少,在隨機刪除的過程中刪除掉了這條交互記錄,導致在學習節點表征的過程中損失了一些有用的信息,而隨機添加的方法保留了所有的交互信息,可以在不丟失信息的情況下對圖結構進行擴充。

3.4.5 模型訓練效率對比

模型訓練的過程如圖7 所示,模型取得最優結果之后便不再記錄數值波動。

圖7 在MOOC 數據集上訓練效率Fig.7 Training efficiency on MOOC dataset

從圖7 可以看出,本文方法先于LightGCN 收斂,在實驗中,LightGCN 在103 次迭代后取得最優結果,本文方法在87 次迭代后取得最優結果。這得益于對比學習采用的InfoNCE 損失函數將同一batch 中不同用戶的節點表征均視為負樣本,使模型能夠從多個負樣本中學習節點表征,而LightGCN 中的BPR 損失僅使用一個負樣本,限制了模型的感知領域。另一方面,通過InfoNCE 損失函數中溫度超參數可以挖掘困難負樣本來引導節點表征學習,加快模型的收斂速度。

3.4.6 長尾課程推薦效果分析

將MOOC 數據集按項目交互次數進行篩選得到交互次數較少的課程的數據集,即長尾課程數據集,同時為了保證長尾課程的個數,選取交互次數為[5,300]的課程,共212 門課程,這些課程的平均交互次數為21.8。模型在長尾課程數據集上得到的結果如圖8 所示。

圖8 長尾課程推薦實驗結果Fig.8 Recommended experimental results of long tail course

從圖8 可以看出,在交互數據稀疏的情況下,LightGCN 很難獲取到長尾課程的高質量表示,本文提出的方法在交互次數較少的長尾課程數據集上仍能表現出較強的競爭力。這得益于InfoNCE 損失函數采用余弦相似度對課程之間的相似性進行度量,當所有實例映射到投影空間之后,通過計算余弦相似度,使得它們在投影空間內的分布是均勻的,因而在項目embedding包含的信息里,更多的保留了每個項目的個性化信息,使點擊次數較多地熱門課程和一些點擊次數較少的新開設的課程之間不會有較大的差異。

3.4.7 模型對噪聲數據魯棒性分析

將MOOC 數據集中按比例加入一定量隨機生成的交互記錄數據,得到加入噪聲數據的數據集。模型在噪聲數據集上得到的實驗結果圖9 所示。

圖9 本文方法和對比方法在噪聲數據集上的結果Fig.9 Results of this method and comparison method on noise datasets

從圖9 可以看出,在加入較多的噪聲數據的條件下,其他模型表現效果不佳,本文提出的方法在加入噪聲數據的數據集上仍能取得較好的實驗結果。本文方法通過比較節點經過數據增強后得到的兩個子視圖,能夠從用戶和項目交互的二分圖中識別出節點的圖結構信息,并且能夠減少節點表征學習對某些邊的依賴。

4 結束語

個性化推薦系統已經在互聯網各個領域得到廣泛使用,但是對于MOOC 課程推薦方法的研究卻相對較少,MOOC 平臺上的交互數據存在用戶信息不容易獲取、交互數據稀疏、課程曝光頻次不平衡、交互數據中存在噪音等問題。為此,本文提出一種基于圖對比學習的MOOC 推薦方法,通過構建對比學習輔助任務,提高對MOOC 課程推薦的效果,在MOOC 數據集上進行實驗,結果表明,本文提出的方法能有效提高MOOC 課程推薦質量,同時提升了模型訓練的效率。但是課程的特征信息中依然存在豐富的關聯信息,如課程中包含的知識點、講授課程的院校教師等信息,如何將課程的特征信息融入推薦系統,從而提升推薦效果,將是下一步的研究方向。

猜你喜歡
用戶方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国产精品任我爽爆在线播放6080 | 国产免费羞羞视频| 毛片免费视频| 亚洲女同欧美在线| 亚洲精品波多野结衣| 日韩在线视频网| 91小视频在线| 18禁黄无遮挡网站| 久久久亚洲色| 99精品热视频这里只有精品7| 啪啪啪亚洲无码| 国产精品高清国产三级囯产AV| 一本大道东京热无码av| 日本午夜三级| www.av男人.com| 天天躁狠狠躁| 97超碰精品成人国产| 亚洲综合香蕉| 97超碰精品成人国产| 国产人成乱码视频免费观看| jijzzizz老师出水喷水喷出| 精品91视频| 人妻一区二区三区无码精品一区| 亚洲自拍另类| 日韩一区二区三免费高清 | 日韩a在线观看免费观看| 亚洲动漫h| 亚洲中文无码av永久伊人| 午夜国产精品视频| 日韩免费毛片视频| 欧美成人看片一区二区三区| 亚洲清纯自偷自拍另类专区| 国内毛片视频| 国产一区二区三区日韩精品| 91亚洲视频下载| 亚洲精品自产拍在线观看APP| 久久亚洲国产最新网站| 伊人丁香五月天久久综合 | 无码中文字幕乱码免费2| 国产精品女熟高潮视频| 67194成是人免费无码| a毛片在线播放| 日韩成人在线一区二区| 亚洲第一成年人网站| 国产成人高精品免费视频| 精品国产www| 国内精品视频区在线2021| 99在线国产| 另类欧美日韩| 国产精品香蕉| 亚洲高清无码精品| 26uuu国产精品视频| 青青草原国产| 久久免费观看视频| 67194在线午夜亚洲| 亚洲国产av无码综合原创国产| 美女内射视频WWW网站午夜| 亚洲无码一区在线观看| 色天天综合| 国产精品免费电影| 午夜福利亚洲精品| 免费国产好深啊好涨好硬视频| 日本黄色a视频| 五月婷婷伊人网| 色一情一乱一伦一区二区三区小说| 久久国产毛片| 欧美日韩另类在线| 中文精品久久久久国产网址 | 亚洲中文制服丝袜欧美精品| 日韩免费中文字幕| 欧美yw精品日本国产精品| 国产正在播放| 精品成人免费自拍视频| hezyo加勒比一区二区三区| a毛片在线| 国产jizzjizz视频| 亚洲高清中文字幕在线看不卡| 亚洲国产理论片在线播放| 国产精品久久久久久影院| 喷潮白浆直流在线播放| 精品人妻一区二区三区蜜桃AⅤ| 女人av社区男人的天堂|