999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度信念網與隱變量模型的用戶偏好建模

2020-05-18 11:07:00潘良辰吳鑫然
計算機工程 2020年5期
關鍵詞:用戶模型

潘良辰,吳鑫然,岳 昆

(云南大學 信息學院,昆明 650500)

0 概述

隨著Web2.0、電子商務和社交網絡的快速發展,越來越多的用戶通過各種Web平臺參與到互聯網活動中,因此,產生了大量的用戶行為數據。用戶對電影或商品的評分是目前Web2.0應用中具有代表性的一類用戶行為數據,這些數據一般包含用戶屬性、評分對象屬性和用戶評分等可以直接觀測到的信息,也蘊含著一些無法被直接觀測到的信息,如表示用戶喜好或選擇傾向性的偏好信息。用戶評分數據反映了用戶偏好,用戶偏好決定了用戶評分。例如,MovieLens數據集[1]包括用戶信息、電影信息和評分,電影信息包括年代、類型、語言等多種屬性,用戶信息包括年齡、性別、職業等屬性信息,不同用戶對不同電影屬性有相應的喜好,用戶、電影以及評分等屬性間存在依賴關系并具有不確定性。因此,從評分數據中建立描述相關屬性之間依賴關系及其不確定性的用戶偏好模型,為個性化推薦和用戶行為建模等應用提供知識模型和計算框架,具有重要的現實意義。

貝葉斯網(Bayesian Network,BN)[2]是一種重要的概率圖模型,其是由一組節點組成的有向無環圖(Directed Acyclic Graph,DAG),每個節點都有一個條件概率表(Conditional Probability Table,CPT)[3]。BN可定量地描述屬性間的依賴關系,因此,其被廣泛應用于智能分析和推斷決策等領域。含隱變量的BN稱為隱變量模型(Latent Variable Model,LVM)。通過LVM可有效描述評分數據中能直接觀測到和不能直接觀測到的屬性之間的依賴關系,并可進行有效的推理計算,從而為用戶偏好模型的建立提供支持。例如,對于MovieLens數據而言,可使用隱變量表示用戶對電影的偏好,基于LVM學習方法構建包括用戶、電影、評分和偏好屬性的模型。

本文提出一種基于深度信念網(Deep Belief Network,DBN)與隱變量模型的用戶偏好建模方法。采用深度信念網對評分數據進行分類,利用類別變量擴展隱變量模型,同時基于評分數據的特點和隱變量模型構建的關鍵步驟,給出模型構建時需要滿足的約束條件以及該約束條件下模型的參數學習和結構學習方法。

1 問題分析

由于隱變量的取值無法被直接觀測到,可認為其數據缺失。期望最大(Expectation Maximization,EM)算法[4]是在不完整數據情況下對數據進行填充并用于模型參數最大似然估計的一種有效方法。結構期望最大(Structure Expectation Maximization,SEM)[5]算法是一種結合了EM算法和打分搜索的結構學習方法。EM算法的運行涉及大量迭代計算[6],計算復雜度較高。從BN的結構及特點來看,CPT中概率參數的規模由其父節點組合的取值數量決定,不同組合會帶來較高的時間和空間復雜度。在實際應用中,用戶評分數據具有海量、高維、稀疏、內部結構復雜等特征,從評分數據中構建LVM以有效描述用戶偏好具有較高的難度,這也是本文擬解決的一個問題。

從基于偏好模型的用戶偏好或評分估算的角度來看,可利用基于BN的概率推理算法,根據觀測到的用戶或對象屬性以及評分來估計用戶偏好,或根據用戶偏好來估算可能的評分。但是,針對CPT中并未包括的新用戶或新對象信息,傳統的BN模型難以進行有效的概率推理。例如,若利用基于樣本集{(男,<18,Educator,R),(男,25~34,Admin,R),(女,>34,Other,R)}構建的BN來估算用戶(男,>34,Farmer)的評分,由于該用戶信息并未包含于模型的CPT中,因此無法進行有效的概率推理。綜上,如何使得模型能有效支持新用戶或新對象的偏好估計及評分估算,是用戶偏好模型構建時面臨的又一挑戰。

圖1所示為一個簡單的隱變量模型,在實際情形中,Age和Profession等取值的個數遠多于該例中變量取值的個數,因此,CPT存在組合爆炸的情況,從而導致LVM構建效率較低、所占存儲空間較大等問題。

圖1 簡單的隱變量模型

本文在基于LVM的用戶偏好建模方面,研究如何提升模型構建效率、克服模型構建過程中CPT組合爆炸等問題;在基于傳統LVM的概率推理方面,研究對新用戶或新對象信息進行概率推理的問題。具體而言,本文首先利用隱變量表示用戶偏好,建立一種基于隱變量模型的用戶偏好模型;然后通過深度信念網對評分數據進行分類,利用類別變量擴展隱變量模型,得到類別簡化的貝葉斯網(Class Simplified BN,CSBN);接著給出模型構建時需滿足的約束條件及該約束條件下的模型參數學習和結構學習方法;最后在MovieLens和大眾點評數據集上進行實驗,以驗證本文方法的可行性和高效性。

2 相關工作

目前,從評分數據中構建用戶偏好模型,有基于評分矩陣和項目流行度的推薦方法[7]、建立商品服務評估模型[8]和使用向量模型或主題模型來表示用戶偏好[9-10]等方式。例如,結合LDA(Latent Dirichlet Allocation)[10]的主題分布描述用戶偏好,利用SVD(Singular Value Decomposition)[11]等矩陣因式分解模型描述用戶偏好,這些方法能夠表達預先給定的依賴關系。但LDA是一種線性模型,SVD的分解矩陣可解釋性較差,因此,兩者均無法表述評分數據中屬性間的依賴關系及其不確定性。

研究人員在基于BN或LVM的用戶偏好建模方面進行了較多研究。文獻[12]用隱變量表示用戶的評價行為,文獻[13-14]用隱變量描述用戶對電影類型的偏好,文獻[15]依據旅游的專家知識構建BN并估計用戶的旅游偏好,文獻[16]使用隱變量刻畫用戶興趣并提出一種用以描述用戶點擊行為的動態貝葉斯網模型。但是,上述模型構建效率較低,難以適用于高維、稀疏的評分數據,因此,在評分數據上以隱變量模型為基礎構建用戶偏好模型,成為亟需解決的問題。

在提高模型構建效率方面,文獻[17]采用決策樹對觀測數據進行分類,用分類后的變量構建BN,將觀測值的類別作為證據變量進行概率推理,但該方法難以處理海量、稀疏、高維的評分數據集。文獻[18-19]提出DBN以對數據進行分類和降維,DBN在很大程度上保存和還原了原始信息,可適用于海量、多維、內部結構復雜的評分數據。本文將DBN和隱變量模型進行結合,以構建用戶偏好模型。

3 符號定義

將包含用戶屬性、對象屬性和評分值等信息的評分數據記為D,U=(U1,U2,…,U|U|)表示用戶屬性集合,I∈{i1,i2,…,i|I|}表示對象屬性,R表示用戶評分。用戶偏好由用戶對評分對象各個屬性的喜好構成,表示為L∈{l1,l2,…,l|L|},其中,ix=lx(1≤x≤|I|),lx稱為第x維的偏好。例如,某一評分數據為U1(性別)=“男性”、U2(年齡)=“18歲~24歲”、U3(職業)=“學生”、i1(電影類別)=“動作片”、R(評分)=“4”,表示該用戶對某動作片的評分為4,l1=il表示用戶喜好“動作片”。

利用DBN分別對U和I數據進行分類,得到分別表示用戶屬性和對象屬性的類別變量UC和IC,分類后的評分數據DC包含UC、IC和R的信息。

定義1BN是有向無環圖(Directed Acyclic Graph,DAG),記為G=(V,E,θ),其滿足如下4個性質:

1)V是一組多維隨機變量集合,其構成了G中的節點,每一個節點對應一個變量。

2)含隱變量的BN簡稱隱變量模型,記為G=(V,L,E,θ),其中,L是描述用戶偏好的隱變量節點。

3)E是連接各節點有向邊的集合,表示各節點間的依賴關系。若存在從節點u指向節點v的有向邊u→v(u、v∈V,u≠v),則稱u是v的父節點。每個節點v在給定其父節點集π(v)時獨立于其非子孫節點。

4)θ為各節點條件概率參數的集合,表示為P(v|π(v))。

定義2類別簡化的貝葉斯網(CSBN)記為G=(V,L,E,θ),其滿足如下3個性質:

1)V={UC,IC,R}是包括用戶類別、對象類別和評分的變量集合。

2)L為隱變量,L=lj表示用戶對評分對象屬性第j個類別的偏好,其中,1≤j≤|IC|。

3)E和θ分別為G中有向邊和條件概率參數的集合。

圖2所示為一個簡單的CSBN模型,在采用分類變量UC替代圖1中的Age、Gender、Profession變量構建隱變量模型時,模型中的依賴關系得以簡化,且CPT的組合數量也大幅降低,便于計算和存儲。因此,采用分類變量構建隱變量模型,可以簡化模型并提高模型構建效率。

圖2 CSBN模型示例

4 基于DBN的評分數據分類

根據定義2,本文使用DBN分別對用戶屬性數據和評分對象屬性數據進行分類。分類后的評分數據維度降低,CPT中不同取值的組合也相應減少,從而提高了模型構建效率。此外,可以對訓練集中未出現的變量組合進行分類,從而實現對這類取值的概率推理。DBN分類算法[18-19]將DBN看作一個特殊的多層感知器,是由多個受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)[20]疊加構成的深度學習結構,預訓練階段通過逐層訓練得到各個RBM的權值,下一層的輸出作為更高一層的輸入。DBN訓練分為預訓練和微調2個步驟,最后將DBN模型輸入softmax回歸分類器[21]得到用戶屬性類別數據集。以用戶屬性數據的分類為例,基于DBN的評分數據分類算法R-DBN-Classification步驟如下:

算法1R-DBN-Classification算法

輸入用戶屬性數據D,迭代次數上限gn,學習率η

輸出帶有分類標簽的評分數據集Dc

1.η←0.01,gn←2 000

(學習率、迭代次數由經驗值確定)

2.初始化DBN分類器模型,RBMs層數為3,隱層單元分別設置為18、36、18//最后一層隱層單元個數為輸出的類別數

3.令n為輸入層神經元個數 //例如,針對性別、年齡和//職業,設置n=3

4.初始化DBN網絡的權值W=[W′1,W′2,W′3]為0矩陣,隨機初始化偏重b和c

5.W,b,c←DBN_train(n,v,gn)

(使用文獻[18-19]中的DBN_train算法)

6.UC←softmax(W,b,c,D)

算法1采用非監督貪婪逐層訓練的方法,即對比散度(Contrastive Divergence,CD)算法[20]獲取權值,只需單個步驟就可以接近最大似然學習,因此,可顯著縮短訓練時間,提高收斂速度。

以用戶屬性信息為例設計的DBN分類器模型結構如圖3所示,其中,輸入為用戶屬性,包括性別(Gender)、年齡(Age)和職業(Profession)。Gender取值為0、1,分別代表男、女,Age取值為年齡段,Profession取值為職業對應的編號。雖然輸入神經元個數為3,輸出神經元個數為18,但輸入神經元的3個節點取值組合數為2×7×21=294,相當于經過DBN分類器后用戶屬性組合從294降到了18,大幅降低了EM算法中間結果規模以及CSBN中節點的CPT規模,進而提高了BN的學習效率。

圖3 DBN分類器模型

5 帶分類變量的隱變量模型構建

5.1 約束條件

為保證模型構建的有效性,根據用戶偏好、隱變量在評分數據中的特定含義,本文給出如下約束:

約束1第j維的偏好lj表達用戶對評分對象屬性類別節點IC的第j個取值icj的傾向(1≤j≤|IC|),用戶屬性UC不依賴于其他變量。

約束2P(ic1|l1)>P(ic2|l1),當用戶偏好為l1時,該用戶偏好ic1的概率大于ic2;P(R=r2|ic1,l1)>P(R=r1|ic1,l1),用戶更可能對傾向或喜好的對象評高分(r2>r1),反之評低分(r1>r2)。

5.2 基于約束的CSBN參數學習

將引入分類變量后的用戶屬性類別數據集、評分對象屬性類別數據集以及評分數據,處理為帶有分類標簽的評分數據集Dc,Dc中一次用戶評分記錄為一個樣本Dcy∈{Dc1,Dc2,…,Dc|Dc|},包括ID、用戶屬性類別、評分屬性類別以及評分,用戶偏好L的取值個數為|I|,L∈{l1,l2,…,l|I|}。然后,隨機生成一組滿足約束條件的初始參數,對數據集中隱變量的值進行填充,再計算并更新參數,直至收斂或達到迭代次數上限,所得參數優化結果即為最終參數學習結果。基于第t次迭代得到的參數估計θt,第t+1次迭代過程如下:

(1)

(2)

(3)

(4)

EM算法不斷迭代直至收斂,基于約束的CSBN參數學習算法Parameter_learning描述如下:

算法2Parameter_learning算法

輸入帶有分類標簽的評分數據集Dc,收斂閾值δ,迭代次數上限T

輸出CSBN模型參數θ

1.隨機產生一組滿足約束2的初始參數θ′

2.for t←0 to T do

E步:

M步:

5.end for

例如,表1給出了利用DBN分類的用戶評分類別數據的片段示例,以圖2結構作為當前模型結構,執行算法2迭代一次修補后的樣本數據如表2所示。假設數據集大小為|Dc|,L的取值個數為|I|,則每次EM過程修補后的數據有|I|×|Dc|條,計算最大似然估計|I|×|Dc|次,EM迭代次數最多為T次,因此,需要計算T×|I|×|Dc|次最大似然估計,算法2的時間復雜度為O(T×|I|×|Dc|)。可見,EM算法的執行效率與修補后的數據量、輸入數據集以及隱變量取值個數呈負相關[22],即采用類別變量構建CSBN后數據量下降,從而提高了算法效率。

表1 數據集片段

表2 修補后的數據

5.3 基于約束的CSBN結構學習

貝葉斯信息準則(Bayesian Information Criterion,BIC)是一種常用的打分標準,能在缺值樣本前提下對結構進行打分,為本文學習CSBN結構提供了模型選擇基準。模型結構ζ的BIC評分計算公式如下:

(5)

式(5)右側第1項是模型ζ的優參對數似然度,其度量結構ζ數據D的擬合程度;第2項是一個關于模型復雜度的罰項,其能夠有效避免依據優參似然度選擇模型導致的過擬合現象。本文使用SEM算法結合BIC打分準則作為CSBN結構學習方法的基礎。首先根據約束1和約束2,隨機生成一組滿足約束1的初始結構和一組滿足約束2的初始參數,以生成的初始結構與初始參數作為SEM算法的初始值進行參數學習;然后計算初始結構的BIC評分,通過當前結構邊的變化得出一系列的候選結構,根據當前修補的數據集學習候選結構的參數并進行BIC打分,選出局部最優候選模型并與當前模型作對比,選其中評分較高者作為當前模型繼續進行參數學習,重復迭代上述步驟。

從初始CSBN模型出發進行參數學習,基于約束的CSBN結構學習算法Structure_learning描述如算法3所示。

算法3Structure_learning算法

輸入帶有分類標簽的評分數據集Dc,收斂閾值δ,迭代次數上限T,節點個數C_num

輸出CSBN模型結構G,CSBN模型參數θ

1.隨機生成滿足約束1的BN結構G′和滿足約束2的初始參數θ′

3.for i←0 to (C_num-1) do

4.令G_set為當前節點加、減或轉邊得到的候選結構

5.θi,Di←EM(Gi,D′i,θi,δ,1)//參數計算

6.temp←θi,Di,tempBIC←BIC(G,θ|D′)

7.if tempBIC>newscore then

8.θi,Di←temp,newscore←tempBIC

9.end if

10.if newscore>oldscore then

11.θi+1,Di+1←EM(Gi,D′i,θi,δ,T)

12.(G,θ)←(Gi+1,θi+1)

13.oldscore←BIC(G,θ|Dt+1)

14.else

return (G,θ)

15.end if

16.end for

假設模型的節點數為C_num,一次結構學習過程產生的候選結構個數為z,對所有候選結構執行一次EM算法,得出當前最優候選結構并對其執行EM算法直至收斂或達到迭代次數上限T,候選結構選擇的時間開銷遠低于EM算法的執行時間開銷,則SEM算法需要執行z×C_num次EM算法,C_num在算法開始時就給定,z由初始結構決定,則算法3的時間復雜度為O(T×|I|×|Dc|)。

6 實驗結果與分析

6.1 實驗設置

本文實驗采用GroupLens提供的MovieLens-1M數據集[1],其包括6 040條用戶屬性數據、3 952條電影屬性數據、1 000 209條電影評分數據。此外,在大眾點評網利用爬蟲爬取20個城市各100個用戶的評分數據,該數據集包括2 000條用戶屬性數據、5 162家餐廳屬性數據以及114 023條評分數據。2個數據集經過預處理后,每行數據對應一次用戶評分記錄,每個記錄分別由3個用戶屬性信息、1個電影/餐廳屬性信息和1個評分值組成。

實驗環境如下:Intel Core i7-6700 @ 3.40 GHz處理器,12 GB DDR4內存,Nvidia GeForce GTX 750 Ti顯卡,Windows 10(64位)操作系統,Python作為開發語言。

本文主要針對模型構建效率、所構建模型有效性等方面進行實驗分析。首先,分別在MovieLens和大眾點評數據集上對LVM和CSBN的模型構建時間進行對比,經測試DBN分類算法執行時間在CSBN模型構建時間中占比較小,因此,本文效率測試部分忽略DBN分類算法帶來的時間開銷。然后,基于CSBN模型的結構和參數,計算條件概率P(Q|e),其中,e是由用戶屬性構成的證據變量取值,Q是電影類型的查詢變量,計算具有最大后驗概率的電影類型并作為用戶偏好。本文對計算出的用戶偏好電影類型和統計出的真實用戶偏好電影類型進行對比,估計召回率(Recall)、準確率(Precision)以及F值。三者計算公式分別如下:

其中,num(inference)是推理出用戶有傾向觀看的電影類型數目,num(ture)是推理出有傾向且實際也有傾向觀看的電影類型數目,num(sample)是實際用戶有傾向觀看的電影類型數目。

6.2 效率測試

本文在MovieLens數據集上選取不同用戶數,分別測試CSBN和LVM的模型構建執行時間,結果如圖4所示。從圖4可以看出,隨著數據量的增加,CSBN和LVM的執行時間均增加,在同樣大小的數據集下,CSBN的執行效率高于LVM,并且隨著數據量的增加,CSBN更能有效地提升用戶偏好模型構建效率。

圖4 MovieLens數據集上模型構建執行時間對比

Fig.4 Comparison of model construction execution time on MovieLens dataset

圖5所示為大眾點評數據集上LVM和CSBN的模型構建時間對比,由于大眾點評數據集在每個城市均爬取了100個用戶的數據,從中隨機選取30%、50%、80%的數據來測試算法3的效率。從圖5可以看出,隨著數據集的增大,LVM和CSBN的執行時間均增加,在相同比例的數據集下,CSBN的執行時間遠低于LVM,原因在于數據量增加時,LVM模型中間結果規模以|I|倍增長,導致其執行時間增長更快。

圖5 大眾點評數據集上模型構建時間對比

Fig.5 Comparison of model construction time on DianPing dataset

此外,本文進一步比較不同數據集下LVM和CSBN模型構建時的中間結果規模,以反映算法執行過程中所需要的內存空間大小。表3和表4分別為MovieLens和大眾點評數據集上構建LVM和CSBN模型時一次迭代計算的中間結果規模,可以看出,在相同數據量時,CSBN構建時中間結果規模比LVM模型低1個數量級,隨著數據量的增加,LVM構建時中間結果規模以接近60%的比例快速增長,而CSBN模型增長較為平緩,這說明本文通過對評分數據進行分類再構建隱變量模型的方法,大幅減少了模型構建中的中間結果數量,且保證了模型構建的高效性。

表3 MovieLens數據集上模型構建的中間結果規模比較

Table 3 Comparison of intermediate result size in model construction on MovieLens dataset

表4 大眾點評數據集上模型構建的中間結果規模比較

Table 4 Comparison of intermediate result size in model construction on DianPing dataset

6.3 有效性測試

為了測試模型的有效性,本文在1 300個用戶的MovieLens數據集和80%大眾點評數據集上,測試基于CSBN和LVM模型估計的不同top-k用戶偏好的召回率、準確率和F值,結果分別如圖6和圖7所示。

圖6 MovieLens數據集上基于LVM和CSBN模型的用戶偏好對比

Fig.6 Comparison of user preferences based on LVM and CSBN models on MovieLens dataset

圖7 大眾點評數據集上基于LVM和CSBN模型的用戶偏好對比

Fig.7 Comparison of user preferences based on LVM and CSBN models on DianPing dataset

從圖6、圖7可以看出,在2種數據集上基于CSBN和LVM估計的偏好的召回率、精確率和F值基本相同,隨著k值的增加,基于CSBN和LVM的召回率、F值隨之上升,精確率隨之下降,并且相差不大。在k=7和k=3時,兩者的F值基本相同,說明此時CSBN和LVM的召回率和精確率達到了平衡,這在一定程度上說明了本文方法有效。

本文在不同數據量的2種數據集上,分別測試基于CSBN模型估計的偏好的召回率、精確率和F值,結果如圖8和圖9所示。可以看出,在MovieLens數據集上,隨著k值的增加,CSBN的召回率上升,精確率下降,而F值趨于穩定,在不同用戶個數下訓練的模型結果幾乎相同,說明了本文方法的穩定性。但在大眾點評數據集上,不同數據量的召回率、精確率和F值差距較MovieLens上偏大,原因在于大眾點評數據量較小,僅為MovieLens的10%,導致模型的結構和參數并未達到最優,這也符合大眾點評數據集的真實情況。

圖8 MovieLens數據集上CSBN模型的用戶偏好發現結果

Fig.8 User preference discovery results of CSBN model on MovieLens dataset

圖9 大眾點評數據集上CSBN模型的用戶偏好發現結果

Fig.9 User preference discovery results of CSBN model on DianPing dataset

大眾點評數據集上偏好估計的精確率高于MovieLens數據集,原因在于用戶喜好的“餐飲”類型比“電影”類型更加明顯。上述實驗結果說明了CSBN模型構建方法在真實數據集上的有效性,并且沒有因為提高效率而降低有效性。

7 結束語

本文提出一種基于深度信念網和隱變量模型的用戶偏好發現方法,該方法既可以描述隱含的用戶偏好,又可以反映用戶評分數據中各屬性間的任意不確定性依賴關系,且能夠提高模型構建效率,克服傳統隱變量模型構建過程中迭代計算多、中間結果規模大等問題。但是,本文方法是在靜態數據中構建CSBN模型,實際應用的評分數據是動態變化且不斷增加的。因此,下一步將以增量學習的方式在動態數據上構建CSBN模型。此外,用戶的偏好也隨著時間發生變化,建立動態的模型對不斷變化的偏好進行預測,也是今后的研究方向。

猜你喜歡
用戶模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
Camera360:拍出5億用戶
創業家(2015年10期)2015-02-27 07:55:08
100萬用戶
創業家(2015年10期)2015-02-27 07:54:39
主站蜘蛛池模板: 国内精品伊人久久久久7777人| 亚洲一级毛片免费观看| 午夜精品区| 国产人前露出系列视频| 日韩毛片免费视频| 日韩av高清无码一区二区三区| 午夜精品国产自在| 亚洲精品在线观看91| 欧美日韩国产系列在线观看| 秋霞午夜国产精品成人片| 99精品视频九九精品| 欧美日韩精品在线播放| 亚洲福利网址| 国产美女主播一级成人毛片| 国产免费网址| 97国产在线视频| 亚洲中文字幕av无码区| 日本道中文字幕久久一区| 97一区二区在线播放| 制服无码网站| 老熟妇喷水一区二区三区| 中文字幕有乳无码| 9966国产精品视频| 亚洲乱强伦| 欧美人在线一区二区三区| 农村乱人伦一区二区| 全部毛片免费看| 好久久免费视频高清| 丰满人妻久久中文字幕| 亚洲天堂区| 91无码网站| 久久99精品久久久大学生| 国产va免费精品| 国产一级视频久久| 亚洲人成人无码www| 四虎国产在线观看| 五月婷婷中文字幕| 五月婷婷综合色| 国产一区二区视频在线| 57pao国产成视频免费播放 | 凹凸国产熟女精品视频| 凹凸精品免费精品视频| 亚洲黄色成人| 欧美视频在线播放观看免费福利资源 | 精品人妻一区无码视频| 亚洲欧美不卡视频| 国产aaaaa一级毛片| 国产精欧美一区二区三区| 国产精品久久久精品三级| 国产区在线看| 久久无码免费束人妻| 国产精品女同一区三区五区| 亚洲精品国产精品乱码不卞 | 操国产美女| 中国精品自拍| 欧美日韩国产成人高清视频| 精品国产免费人成在线观看| 久久狠狠色噜噜狠狠狠狠97视色 | 国产高清不卡| 91久久夜色精品| 精品视频免费在线| 天堂岛国av无码免费无禁网站 | 国产无码网站在线观看| 国产剧情国内精品原创| 日本免费福利视频| 一级毛片基地| 综合久久五月天| yjizz视频最新网站在线| 亚洲欧美日韩动漫| 尤物精品国产福利网站| 91久久性奴调教国产免费| 久青草网站| 一本大道无码日韩精品影视| 无码中文字幕乱码免费2| 爱爱影院18禁免费| 国产美女叼嘿视频免费看| 欧美黑人欧美精品刺激| 欧美日韩亚洲综合在线观看| 九九久久99精品| 青青草欧美| 亚洲色婷婷一区二区| 亚洲精品777|