999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于事件描述的社交事件參與度預測

2020-12-02 06:27:48孫鶴立孫玉柱張曉云
計算機應用 2020年11期
關鍵詞:信息

孫鶴立,孫玉柱,2*,張曉云

(1.西安交通大學計算機科學與技術學院,西安 710049;2.西安交通大學外國語學院,西安 710049)

(?通信作者電子郵箱sunyuzhu12@xjtu.edu.cn)

0 引言

2014 年,Liu 等[1]提出了EBSNs 的概念,即基于事件的社會網絡(Event Based Social Networks,EBSNs)。EBSNs 不僅包含深度的線上交互(Online Interactions),還包含范圍廣泛的線下交互(Offline Interactions)。EBSNs 典型的網絡平臺代表有:Meetup、Google+Events、Groupon 和豆瓣等。依托這些平臺,用戶可以發布、參與社交事件,比如各種聚會、籌集資金、分發物品等[2]。近年來,越來越多的學者開始關注該領域,并開展了關于事件推薦[3-5]、事件安排[5-7]、行為分析[8-9]、參與預測[10-12]等方面的研究。

本文重點關注社交事件參與預測,文獻[10]預測了興趣組的未來存在可能,由于一個興趣小組的三月存活率不到30%,因此作者通過研究組的創辦者,組成員數量的增長速度以及其他因素,來預測最終該組是否能夠存活。文獻[11]預測了事件的參與人員組成,由于人們在選擇事件時通常基于某種模式,因此通過學習歷史數據可以預測出哪些人可能對該事件感興趣。文獻[12]提出了基于多特征的模型用于預測活躍組員和非活躍組員的參與度。

在EBSNs體系中,事件是運轉樞紐,而事件描述是事件的重要屬性,對于組織者和參與者均有重要的作用。事件描述可綜合包含多種信息,如事件意義、安排、預期等,可輔助用戶決策是否參加。同時,事件描述給了組織者最大的自由度來使事件更有吸引力,尤其在其他因素被限制的情況下(時間、地點等)。在當前的研究中,事件描述通常只被用來衡量事件間的相似度,以及事件與用戶興趣的契合度。比如在文獻[11]中,事件描述被用來計算事件間的相似度,根據用戶參與事件的歷史數據,為用戶推薦相似事件。文獻[13]使用TF-IDF(Term Frequency-Inverse Document Frequency)算法來處理事件描述,并用其計算事件間的相似度。文獻[14]提出用Vader對事件描述進行情感分析,并使用Jaccard 相似度來衡量事件的新奇性。目前,基于事件描述開展的工作還非常有限。

盡管事件描述包含了事件的重要信息,但由于評價事件描述效果的主觀性、算法限制等原因,直接度量事件描述仍較為困難,同時如何充分利用事件描述中的信息,如語義分析、預測、預警也是當前的難點問題。針對以上問題,本文開展了如下工作:

1)提出了成功事件、相同事件、相似事件、事件相似度的概念,并針對事件進行分類度量。

2)基于所提出概念,分別設計了基于拉索(Lasso)回歸、卷積神經網絡和門控循環神經網絡的事件描述分析方法。

3)設計了針對每種模型的訓練方案,并用其他數據結合分類算法預測事件人數,且分析了三種模型的預測結果,定量地研究了事件描述對預測事件參與度的影響,證明了事件描述對于增加事件吸引力的積極作用。

1 問題概述

在EBSNs 中,一個對組織者非常重要的問題是如何使自己的活動更受歡迎,進而吸引更多的參加者。同時,事件的屬性多種多樣,包括主題、舉辦時間、地點、所在組、事件描述等。作為自由度最大的屬性之一,問題描述在提高事件吸引力方面影響顯著,以下面兩段描述為例:

1)Let’s get ready to get in our bikinis and board shorts(speedos for the europeans)and enjoy the la summer heat on the beach! this year the event is on saturday,august 10th,starting at 1pm.We will have muchies,drinks and games.For those that are into volleyball,let’s repeat what we did last year.I saw a lot of losers,I mean winners.lol.Let’s enjoy a few good volleyball games.

2)Open to the public for a group class package and individual classes.

從自然語言理解角度,第一段描述顯然比第二段更有吸引力,而事實也是如此,第一個事件的參與人數(超過97%的同類事件)遠高于后者(超過5%的同類事件)。因此,如何定義事件描述,對事件舉辦者至關重要。

同時,定量研究事件描述對事件參與度的影響也是一個難點問題。一方面由于事件描述是自然語言,難以建模。雖然近年出現了一些文本建模方法,如基于循環神經網絡的語言模型(Recurrent Neural Network Language Modeling,RNNLM),較好地克服了傳統自然語言處理中的一些問題(例如反義詞),并在機器翻譯、文本生成等領域取得了不錯的效果,但它并不能很好地解決語義一致性的問題。例如在文本空間中,this flower smells pretty 和this flower smells pretty bad會比較接近,但它們的含義卻截然不同。另一方面,文本建模方法的本質是擬合文本序列的概率分布,以最大化某個目標函數的期望或概率,而不能真正理解語義,導致信息損失或失真,這兩方面導致定量研究事件描述的作用變得格外困難。

為解決以上問題,本文采用逆向思路,首先并從事件結果出發,提出事件相似度定義,從而判定事件的成功性并標注,進而讓三種預測模型學習標注結果,并進行預測,最后根據預測結果分析事件描述對參與度的影響。此思路可有效規避直接分析語句帶來的算法偏差,如語義一致性、信息損失問題。

1.1 問題定義

本文的數據來源為Meetup 平臺,Meetup 平臺中存在3 個基本對象:用戶、小組、事件。具有相同興趣的用戶形成小組,組織者可以在小組中發布事件,用戶可選擇是否參與該事件。事件連接了用戶和小組,是體系運轉的樞紐,本文提取事件的相關要素進行分析。

為了方便描述,本文使用一個七元組來表示事件eid(id,t,d,h,a,l,c)。其中:id是事件的唯一標識,t是事件舉辦時間,d 是事件描述,h 是事件所在組,a 是事件參與人,l 是事件所在地點,c 是事件主題。用四元組來表示組gid(id,e,m,c)。其中:id 是事件的唯一標識,e 是事件,m 是組內成員,c 是該組的主題。

接下來給出事件的相關定義。

成功事件 給定一個事件eid和與其相似的事件集合E=若eid的參與人數超過了70%的相似事件的參與人數,則eid為成功事件。

衡量事件舉辦結果的指標較多,如參與人數、小組參與比例、經費規模等,相對于其他指標,參與人數是事件參與度最為直觀的指標。對于舉辦者來說,如果所舉辦事件的參與人數超過了70%的同類事件,那么該事件可以看作是成功事件。

相似事件 給定事件eid1和eid2,若sim(eid1,eid2)>γ,則eid1和eid2互為相似事件,其中sim 表示相似矩陣,γ 為閾值。相似矩陣建立將在1.2 節中介紹,閾值γ 的選擇將在第3.1.2 節中介紹。相同事件 指對于事件eid1和事件指事件eid1的事件描述。

Meetup 平臺中約30%的事件屬于相同事件,它們對于推薦算法意義重大,但在計算事件描述對事件參與度的影響時,則會起到相反的作用:一方面由于在衡量事件描述產生的影響時,該類事件會增加其事件描述的影響比重,進而導致結果偏向于重復出現的事件描述;另一方面由于參與這類事件的人重疊度高,它們是基于經歷而不是基于事件描述來選擇該事件的,故對事件描述不敏感,因此剔除該類事件是有必要的。對于相同事件,本文只保留其平均值。

1.2 事件相似度

由于不同種類事件之間的參與人數差別較大,如演唱會可能會有數萬人參加,而讀書會的參與人數可能只有幾人,如果采用統一的標準,某些種類的事件成功率將會大大超過其他事件,這不是本文期望的,所以定義相似度以區分不同類別的事件。兩個事件,如果所在組相似、主題相似、距離相近、時間相近,那么它們很有可能是相似的。接下來,本文將分別定義組相似度、主題相似度、時間相似度和地點相似度,從而定義事件相似度。

1)組相似度。兩個組的相似度可以從兩個方面度量:一是組的主題相似度,二是組的成員相似度:

a)主題相似度group_cat_sim:

b)成員相似度group_mem_sim:

2)事件主題相似度和組主題相似度類似,定義如下:

3)時間相似度。通常事件舉辦時間越接近,時間相似度越大,為了計算需要,時間相似度的值域取[0,1],此處使用負指數函數定義時間相似度。

4)地點相似度。同樣的,距離越近的事件地點相似度越高。這里使用haversine公式計算兩點之間的距離:

5)事件相似度。基于以上公式,定義事件相似度如下:給定事件i和事件j,它們之間的相似度可定義為組相似度、主題相似度、時間相似度、地點相似度的線性組合,可用式(6)表示:

另外,1.1 節中事件相似度函數sim(eid1,eid2)>γ 中閾值γ的取值應該考慮event_sim函數的取值范圍。

2 預測模型

本文分別設計了基于拉索回歸、卷積神經網絡和門控循環神經網絡的預測模型。

2.1 基于拉索回歸的預測模型

雖然事件描述和事件參與結果之間不是線性關系,但如果不考慮文本的序列性,僅將文本看作詞的集合,那么事件描述和事件參與度之間可近似看作線性關系。本文未采用傳統的線性回歸,而使用拉索回歸,因為拉索回歸可以有效地處理線性數據,反映出事件描述中的單詞對于不同事件的重要性。由于同一類事件的發布者傾向對事件做出相似的描述,因此拉索回歸模型可以捕捉事件描述中的關鍵詞信息,從而對參與結果進行判斷。拉索回歸的預測模型如下:

式(7)中:yi為第i 個事件參與人數,xij為中第j 個單詞。式(8)為損失函數,MSE(Mean Squared Error)為均方誤差。

在實現中,為了與后面兩個預測模型統一,本文使用了輸出維數為1 的單層線性神經網絡,并采用了L1 正則,以突出某些詞的作用。預測模型的輸入是序列化后的文本,輸出為參與人數。

2.2 基于卷積神經網絡的預測模型

拉索回歸模型雖然可以捕獲在同一類事件描述中影響較大的詞語,但是對于詞語的組合方式并不敏感,而在現實世界中,詞語的不同組合方式可能表達完全相反的含義。因此本文利用卷積神經網絡對于詞語的組合特征進行分析,通過不同長度的卷積核捕捉不同長度的詞語組合的信息,從而提高判斷的準確性。卷積操作首先對文本信息中不同長度的詞語組合進行采樣,然后以詞語組合為特征分析其對于事件參與結果的影響程度,相較于拉索回歸模型以單詞為單位的方式,可以捕捉到更高層次的特征,從而達到更好的效果。

為了將文本的序列信息納入考量范圍,本文參考了seqGan[15]中判別器的結構,設計了卷積神經網絡,將卷積核的寬度設置成詞向量的維度,將卷積核的高度設置為25。判別器的具體處理過程如下。

首先將輸入文本ω0,ω1,…,ωt表示成如下形式:

其中:xi為ωi對應的k維詞向量是拼接符號是一個t×k的矩陣。

?為元素積(element-wise product)之和,b 為偏移量,ρ 為非線性函數。在實現中本文使用多個相同尺寸的核進行卷積,然后取Ci中的最大值。例如圖1 中第一個卷積核的l 為3,使用了4 個不同的卷積核,即對于相同的窗口一次輸出四個結果,然后取其中的最大值,即窗口大小為l 所對應的卷積結果。為了得到不同窗口尺寸下的上下文關系,本文使用不同尺寸的核,最后將結果拼接起來,得到處理后的特征向量,送入下一個環節。下一個環節為帶隱含層的線性網絡,假設得到最終的特征向量為(圖中對應的k為9),那么接下來本文對?進行如下操作。

其中:ω0,ω1分別對應第一和第二個淺色方塊,σ為非線性函數,·為矩陣乘法運算,b0、b1為偏移量。

本文使用了均方誤差(MSE)損失函數,并對最后兩個線性神經網絡采用了L2正則(式(14))。這里采用L2正則的原因是希望最后的線性神經網絡能盡可能考慮前面卷積神經網絡輸出的所有維度,而不是過度地依賴某些維度來做出判斷。

在計算過程中,輸入文本序列,首先經過詞向量層轉換成詞向量,然后進行卷積和池化,將結果拼接起來,再使用雙曲正切(tanh)歸一化,最后經過一個帶隱含層的線性前饋神經網絡輸出最終結果。

圖1 基于卷積層的神經網絡模型Fig.1 Convolution layer based neural network model

2.3 基于GRNN的預測模型

在上一小節,本文使用卷積層對原始輸入文本轉換成的詞向量進行處理,得到了一個新的特征向量。這個過程也可看成是定義了一個函數f :Rm×k→Rn,將原本在Rm×k空間中的樣本編碼到了Rn中。這樣做的目的是方便后續處理,即把一條文本轉換成一個向量,接下來的工作將基于該向量展開。但如何定義函數f,是此方法成敗的關鍵。f 需具有如下特點:1)能處理序列信息;2)能在轉換過程中盡量保留原始信息;3)易于實現。而之前的卷積層神經網絡并不完全滿足這三個條件。首先,它能處理序列信息,但它處理序列信息的能力來源于窗口大小的設置,因此,合理地設置窗口大小非常重要。而在文本處理中,如何設置窗口大小是件困難的事情。其次,因為池化層的存在,它在轉換過程中能保留多少原始信息是存疑的。

循環神經網絡(Recurrent Neural Network,RNN)可以很好地滿足上面三個條件,因此近年來在自然語言處理領域得到了廣泛的應用。RNN 能很好地克服卷積層的缺陷。RNN的感受野是整個句子,同時對文本從左到右(或雙向閱讀)的處理方式也與人的閱讀習慣相似,克服了卷積層中卷積核感受野的限制,能夠更好地收集原始文本中的信息。

門控循環單元神經網絡是長短期記憶(Long Short-Term Memory,LSTM)神經網絡的變體。LSTM 解決了RNN 在處理遠距離依賴時的梯度消失或梯度爆炸問題,可以很好地保持時序數據中長短距離的依賴關系。GRU 在保持了LSTM 優勢的同時網絡結構也更簡單,相較于LSTM 輸入門、輸出門、遺忘門的三門結構,GRU只有更新門和重置門[16]。

門控循環單元神經網絡在處理序列文本的同時,更好地保留了事件描述中原始文本信息,尤其是長文本中的信息,相對于卷積神經網絡,能夠捕捉更多文本信息,從而提高判斷的準確率。本文使用文獻[17]中的GRU結構,如圖2所示。

圖2 GRU的結構Fig.2 Structure of GRU

圖中:z[t]為更新門,r[t]為重置門,h[t]為當前t時刻的隱含狀態,橢圓中為算符,方框表示非線性函數。

GRU的前向傳播函數如下:

其中:W、U、b 為參數;xt為輸入向量,ht為輸出向量;zt、rt為更新門和重置門向量。同樣的,根據鏈式法則,可以得到其反向傳播公式。

將之前的神經網絡的卷積層替換為GRU,便得到了另一個新的預測模型(如圖3)。

圖3 基于GRU的神經網絡模型Fig.3 GRU based neural network model

在計算過程中,輸入文本序列,首先經過詞向量層轉換成詞向量,然后進行GRU 編碼,將結果拼接起來,再使用雙曲正切(tanh)歸一化,最后經過一個帶隱含層的線性前饋神經網絡輸出最終結果。

在以上幾個模型中,本文使用文獻[18]中word2vec 算法來計算詞向量,以避免獨熱編碼維度高、稀疏、詞之間相關性差的缺點。

3 實驗設計與結果

3.1 數據獲取與處理

實驗使用的數據集為Meetup 平臺上美國洛杉磯2018 至2019年的部分活躍組別和其成員及事件,詳細信息如表1所示。

表1 洛杉磯Meetup平臺數據集Tab.1 Dataset of Meetup platform in Los Angeles

3.1.1 數據預處理

由于爬取的數據描述為HTML 格式,同時包含很多非英語詞,例如表情、HTML 控制標簽,因此,在正式在預處理之前,本文對文本進行如下處理:1)去除所有非英文詞和HTML標簽;2)去除停止詞;3)將數字替換為“#”,將出現次數少于5次的詞替換為“<ukn>”;4)去除事件中無意義的屬性,例如圖片鏈接,最終選擇了如下屬性:時間、地點、事件描述、事件種類,部分數據如表2所示。

表2 部分處理后數據Tab.2 Part processed data

3.1.2 計算事件相似度與成功性標注

根據事件相似度的定義event_sim 函數計算所有事件的相似度,經計算,得到的event_sim 函數相似矩陣值的分布如圖4所示,可以看出,相似矩陣值在0.5附近有較大的差異,并且分布比例恰好在8∶2 左右,因此把1.1 節中事件相似度sim函數的閾值γ 取為0.5。然后利用事件成功的定義對所有事件的成功性進行判斷并標注。

圖4 相似矩陣值分布Fig.4 Distribution of similar matrix values

3.2 實驗設計

本文設計了兩組實驗來比較不同文本處理方式的效果:第一組實驗對比了不同的預測器在預測參與人數上的差異;第二組實驗中,本文將比較不同的文本處理方式對預測事件結果準確率的提升。

在參數設置方面,本文使用了網格搜索和四折交叉驗證的方式,確定了最佳參數,如表3 所示。針對第一個實驗,本文使用了均方誤差(MSE)來衡量預測值和參與人數的距離,具體如下:

其中:yi為真實參與人數,為預測參與人數。

表3 相關參數設置Tab.3 Settings of relative parameters

在第二個實驗中,本文使用準確率作為評價指標,準確率為成功事件與所有事件的比值,如式(19)所示:

其中:R為準確率,為Ms成功事件數量,Ma為所有事件數量。

3.3 實驗結果與分析

3.3.1 不同預測器預測參與人數差異實驗

首先使用80%的事件訓練三種預測模型,并使用剩下的數據對預測模型進行評估。訓練及測試過程的損失函數變化如圖5和圖6所示。

從圖中可以看出,使用GRU 作為編碼器的神經網絡的表現最好,其次是線性預測模型(Lass),使用卷積層的神經網絡(conv)表現最不理想。卷積層神經網絡效果較差的原因可能是卷積層在自然語言處理中比較適合短文本分類,即能區分文法上有明顯區別的句子,但由于其感受野的限制,不適合用來區分整個文本的語義區別。而另一點值得注意的是,盡管GRU 在此次實驗中的表現最好,但是其結果仍然不是十分理想(從測試環節損失函數的曲線的抖動也可以看出這一點),這是因為在預測過程中本文僅使用了事件描述這一屬性,而沒有參考其他屬性,例如事件種類、所在組別、舉辦時間、舉辦地點、舉辦者等,屬性的缺失限制了這些預測模型的上限。如果在預測時加上這些屬性,可以預見準確度會有所提升。

圖5 訓練過程中的損失函數變化Fig.5 Loss function change during training process

圖6 測試過程中的損失函數變化Fig.6 Loss function change during testing process

3.3.2 不同文本處理方式預測事件結果準確率實驗

此實驗中,為了衡量事件描述對事件參與人數的影響,本文將事件描述作為一個可選的屬性,使用隨機森林、Adaboost等分類器對事件成功性進行預測。如果加入的屬性提高了預測結果的準確率,那么便可推測,該屬性會對事件結果產生正向影響。由于在第一個實驗中卷積神經網絡的效果并不理想,所以第二個實驗中將其舍棄,僅用拉索回歸和GRU 來處理事件描述。

在訓練回歸模型時,本文從去重的原始數據中抽取50%的事件,將其移出數據庫,以免對接下來的實驗結果造成干擾。在訓練分類器時,本文從數據庫中抽取10 000條數據,并采用重復采樣的方式使正負數據比例達到1∶1,以避免不平衡數據集對實驗結果帶來的影響。最終本文使用Adaboost、決策樹、K 最近鄰(K-Nearest Neighbor,KNN)和隨機森林作為分類器,采用四折交叉驗證,并使用網格搜索來確定最佳參數。

使用GRU 作為編碼器的神經網絡處理事件描述時,采用70%的數據作為訓練數據,剩余的30%用來評估分類結果,仍然使用交叉驗證和網格搜索的方式來確定最佳參數。最終實驗結果如表4所示。

表4 不同文本處理方法和分類器對預測事件結果的影響Tab.4 Effect of different text processing methods and different classifiers on event prediction results

對比使用拉索回歸處理和不包含事件描述的預測結果,可以發現,分類精度提高2.35%(KNN 分類器)~3.8%(Adaboost分類器)。對比使用GRU神經網絡處理和不包含事件描述的預測結果,分類精度提高4.5%(KNN 分類器)~8.9%(隨機森林分類器),這證明事件描述能夠影響事件結果。對比GRU 神經網絡和拉索回歸兩種處理方式,無論基于哪種分類器,GRU 神經網絡處理方式的分類精度均更高。由于拉索回歸將文本序列視作詞的集合,丟失了序列信息,而序列信息對于文本處理非常重要,基于GRU 的神經網絡不但保留了序列信息,而且在轉換過程中盡量保留原始信息,更忠于原始文本,所以取得了更好的效果。同時可以看出,無論基于何種分類器,添加事件描述后分類精度都有了提高,這證明事件描述在提高事件參與度方面的重要作用。

4 結語

本文主要應用拉索回歸、卷積層的神經網絡、門控循環神經網絡三種方式研究了事件描述對事件參與度的影響。實驗證明,增加事件描述能夠提高事件參與度,且使用GRU 的神經網絡在預測事件參與人數的精度上都要高于其他兩個預測模型,顯示了循環神經網絡在處理時序信息上的能力。與此同時,可以看到,只憑事件描述預測事件參與人數準確率提升有限。未來工作中,將進一步結合其他因素,如時間、地點、組織者、事件類型等進行綜合預測,以提高預測的準確度。

猜你喜歡
信息
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息超市
大眾創業(2009年10期)2009-10-08 04:52:00
展會信息
展會信息
展會信息
展會信息
展會信息
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 精品第一国产综合精品Aⅴ| 亚洲中文字幕久久无码精品A| 亚洲愉拍一区二区精品| 1024你懂的国产精品| 女人18毛片一级毛片在线| 久久 午夜福利 张柏芝| 蜜芽国产尤物av尤物在线看| 99久久99这里只有免费的精品| 亚洲综合精品第一页| 原味小视频在线www国产| 亚洲中文字幕23页在线| 国产成+人+综合+亚洲欧美| 制服丝袜一区二区三区在线| 国产第一页第二页| 久久精品女人天堂aaa| 婷婷色中文网| 亚洲色欲色欲www在线观看| 一级毛片在线播放| 中文字幕色在线| 精品天海翼一区二区| 国产伦片中文免费观看| 色色中文字幕| 国产又大又粗又猛又爽的视频| 亚洲欧美综合在线观看| 色婷婷天天综合在线| 精品无码国产一区二区三区AV| 丝袜久久剧情精品国产| 国产极品美女在线播放| 欧洲亚洲一区| 69精品在线观看| 伊人久热这里只有精品视频99| 国产大片喷水在线在线视频| 在线不卡免费视频| 久久不卡国产精品无码| 国产日本欧美亚洲精品视| 国产综合亚洲欧洲区精品无码| 四虎综合网| 99久久性生片| 天天综合网站| 日韩大片免费观看视频播放| 在线另类稀缺国产呦| 99久久婷婷国产综合精| 伊人查蕉在线观看国产精品| 亚洲精品图区| 中文字幕第1页在线播| 亚洲综合色婷婷中文字幕| 亚洲国产看片基地久久1024| 91精品啪在线观看国产60岁| 色综合中文字幕| 亚洲欧美不卡中文字幕| 免费不卡在线观看av| 欧美精品一区在线看| 亚洲人成网站在线播放2019| 91精品专区国产盗摄| 538精品在线观看| 欧美精品一区二区三区中文字幕| 97在线免费视频| 国产91蝌蚪窝| 国产精品自在在线午夜区app| 免费人成视频在线观看网站| 狠狠色狠狠综合久久| 91久久国产成人免费观看| 人妻丰满熟妇av五码区| 久久大香伊蕉在人线观看热2| 99热国产这里只有精品无卡顿"| 亚洲最大看欧美片网站地址| 国产精品综合久久久| 92午夜福利影院一区二区三区| 亚洲乱码精品久久久久..| 在线另类稀缺国产呦| 国产成人精品亚洲77美色| 青青国产视频| 国产精品亚欧美一区二区| 午夜三级在线| 国产精品亚欧美一区二区| 国产高清国内精品福利| 色偷偷综合网| 国产国语一级毛片| 99久久精彩视频| 国产成人亚洲综合A∨在线播放| 综合久久久久久久综合网| 欧美亚洲激情|