999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于文本篩選和改進BERT的長文本方面級情感分析

2020-10-18 12:57:06方書雅劉守印
計算機應用 2020年10期
關鍵詞:分類文本情感

王 昆,鄭 毅,方書雅,劉守印

(華中師范大學物理科學與技術學院,武漢 430079)

(*通信作者電子郵箱syliu@mail.ccnu.edu.cn)

0 引言

情感分析(Sentiment Analysis,SA)是自然語言處理(Natural Language Processing,NLP)中一個非常重要的子領域。近些年在學術界獲得廣泛的關注,在現實中也具有重要的應用前景[1]。

實際生活中,用戶在互聯網上產生的文本中包含的情感是復雜的、多方面的,用戶在一段文本中會表達出在不同方面的不同情感傾向。基于這個事實,Liu[2]提出了方面級情感分析(Aspect-Based Sentiment Analysis,ABSA)任務,旨在分類出文本在不同方面所包含的情感,實現文本的多維度情感理解功能。但是,因為ABSA 任務的復雜性,人工提取文本中的方面及其表達的情感非常困難,所以相關數據集稀缺,初期的工作主要集中在如何提取方面的研究[3]。近幾年,Pontiki 等[4-5]在SemEval比賽中增加了基于ABSA 的子任務,同時給出了短文本ABSA 數據集,于是開始有大量的學者針對ABSA 任務中方面信息利用和情感上下文問題提出各種解決方法。目前ABSA 任務的主流解決方案包括早期復雜的特征工程方法[6-7]以及近期的神經網絡算法[8-11]。已有研究結果表明,神經網絡算法優于特征工程方法[1]。在神經網絡算法中,Wang 等[8]首次基于注意力機制和長短時記憶網絡(Long Short-Term Memory,LSTM)提出ATAE-LSTM(ATtention-based LSTM with Aspect Embedding)模型,利用方面語義來搜尋文本中與之相關位置的內容,在短文本ABSA 數據集上性能優于單純的LSTM[12]。Ma等[9]注意到方面及其上下文的協調性,在ATAELSTM 的基礎上進一步提出了交互式注意力模型(Interactive Attention Network,IAN),考慮了文本與方面語義之間的交互,進一步提升了情感分類正確率。Huang 等[10]注意到IAN的池化層忽略了文本與方面中的每個詞之間的相互關系,提出了沒有池化層的AOA-LSTM(Attention Over Attention LSTM)模型,取得了比IAN 更優的分類結果。Xue 等[11]首次提出結合卷積神經網絡(Convolutional Neural Network,CNN)[13]和門控機制[14]的GCAE(Gated Convolutional network with Aspect Embedding)模型,利用門控單元從文本中篩選出與方面相關的信息,取得了更高的正確率。

雖然關于方面級情感分析的帶標簽數據稀缺,但是非方面級情感分析的標記數據集很豐富,Chen 等[15]提出將轉移膠囊網絡(Transfer Capsule Network,TransCap)用于將遷移非方面級情感分析中的知識到方面級情感分類,自此該領域的研究開始傾向于使用遷移學習算法。同時,隨著語言模型的不斷發展,Devlin 等[16]提出的文本預訓練模型BERT(Bidirectional Encoder Representation from Transformers)在處理文本分類任務中表現出色,摒棄了卷積和循環神經網絡的結構,使用雙向Transformer[17]搭建整體網絡,預訓練過程中能夠從淺入深地學習到語言中包含的語法語義[18]。BERT 同樣適用于ABSA 任務,Sun 等[1]利用方面來構建疑問句,并結合BERT 模型提出BERT-pair-QA-M 等模型,實驗結果表明在短文本ABSA 數據集上比使用神經網絡算法的分類結果更優。Gao 等[19]在BERT 的基礎上提出TD-BERT 模型,通過抽取BERT編碼層特定位置的特征進行方面級情感分類,進一步提升分類性能,表明BERT在特征提取方面具有優越性能。

在長文本ABSA 任務上,由于在方面上表達的情感信息只存在于該方面相關的語句中,因此如何挖掘文本中與方面有關的上下文是一個非常重要的挑戰。袁丁等[20]基于GCAE,提出了CNN-GCAE 模型,利用字詞向量聯合模型對數據進行預處理,克服了GCAE 模型在數據預處理方面的不足,提高了在長文本AI Challenger2018 細粒度情感分析比賽數據集上的召回率[20]。

以上現有的神經網絡算法仍然存在如下問題:首先,基于循環神經網絡的模型仍然存在一定的梯度消失,而基于卷積神經網絡的模型沒有考慮到文本的時序關系,在長文本ABSA任務上的泛化能力較差;其次,因為BERT 的最長輸入序列長度固定,超過這個長度將被直接截斷,被截斷的文本可能仍然具有沒有被利用的信息。所以,對于長文本還需要進一步的數據處理,神經網絡模型的性能還有進一步提升的空間。同時,AI Challenger2018 細粒度情感分析比賽數據集上將方面分為粗粒度方面和細粒度方面兩個層次,對于粒度方面的利用研究目前還在初步階段,如何把現有的模型應用在這個數據集上是一個挑戰。

針對以上問題,本文提出文本篩選和改進BERT 的算法來處理長文本的ABSA 任務。該算法首先利用文本篩選網絡(Text Filter Network,TFN)對文本中的每個語句進行粗粒度方面的分類,得到部分語句,再對部分語句按次序進行組合,輸入到BERT-Pair-ATT 情感分類模型中進行訓練和預測。BERT-Pair-ATT 模型使用句子對的方式來處理輸入。因為原始BERT 模型直接將每個位置點的輸出進行平均得到特征向量,沒有體現出每個位置的重要程度,所以本文在BERT 的頂層增加一個注意力層,對BERT 的輸出特征賦予不同的權重。實驗結果表明,使用本文算法在長文本方面情感分析數據集上的結果比原始BERT高0.58%。本文主要工作為:

1)設計了文本篩選網絡TFN,利用LSTM來提取層次方面中粗粒度方面的文本特征,同時結合了注意力機制來對文本中每個部分進行特征加權,最終篩選出和粗粒度方面相關的文本(部分語句),對數據進行充分的預處理。

2)先利用TFN 對原始文本進行一次文本篩選,再將帶有方面信息的文本(部分語句)連同細粒度方面同時輸入至BERT-Pair-ATT 中進行特征提取,BERT-Pair-ATT 模型充分提取方面中包含的語義特征,提高了長文本ABSA任務的性能。

1 長文本方面級情感分析算法設計

1.1 任務定義

本文重點研究長文本在粗粒度和細粒度兩個層次下所包含的情感。對于一段文本,需要分類出在預定義的粗粒度方面下的每個細粒度方面所包含的4 種情感趨勢。情感趨勢的集合表示為E={“未提及”,“積極”,“中性”,“消極”}。統一起見,本文將文本表示為S,S可以由單個字符char的集合來表示,即Sc={char1,char2,…,charc_num};經過jieba 分詞軟件分詞可以在詞word的角度表示為Sw={word1,word2,…,wordw_num};經過分句之后在句子sent上表示為句子的組合Ss={sent1,sent2,…,sents_num},其中c_num、w_num和s_num分別為文本的包含的字符總數、單詞總數和句子總數。Ss經過一定方法篩選之后的集合表示為Sf={sf1,sf2,…,sfm},m為Sf中句子總數,Sf為Ss的子集。粗粒度方面(Coarse Aspect)表示為CA={CA1,CA2,…,CAp},細粒度方面(Fine Aspect)表示為FA={FA1,FA2,…,FAq},其中p、q代表的集合中方面的總數,FA集合中的元素是將CA中元素進一步細粒度劃分得到的。

1.2 算法框架

本文的算法框架如圖1 所示,分為兩個步驟:第一步首先對數據集中的原始文本進行分句算法處理得到句子組合Ss={sent1,sent2,…,sents_num}。為保證句子的次序,依次將每個句子與每個粗粒度方面的組合{senti,CAr}輸入至TFN 模型中判斷這個句子是否與此粗粒度方面相關,相關則輸出1,反之輸出0,其中r為CA 中第r個粗粒度方面。最終得到所有相關語句的集合Sf={sf1,sf2,…,sfm},其中m≤s_num;當所有語句都與粗粒度方面無關時,選取原始文本,此時m=s_num。這一步能夠壓縮數據集中文本的長度,增強數據在第二步的信息效度。第二步利用基于BERT 的BERT-Pair-ATT 模型進行方面級情感分類,其輸入采用句子對的方式,第一個文本為Sf中句子按照次序組合起來的新文本,第二個文本為CAr層次下的每個FA,例如“位置”層次下的“交通是否便利”,輸出為情感趨勢E中的類標簽。

圖1 本文算法框架Fig.1 Framework of proposed algorithm

1.3 TFN模型設計

TFN 模型的任務是對數據集的文本中的每個句子按照與之相關的粗粒度方面進行正確分類,篩選出對于第二步有分類價值的部分語句。本文設計的TFN 模型整體框架如圖2 所示。主要包含了詞嵌入層、兩個LSTM 編碼器[12]、注意力層和二分類器模塊。本文利用詞嵌入模型Word2Vec[21-22]在原始語料庫上預先訓練出一個領域相關的詞嵌入模型作為詞嵌入層的模型參數,大小為v×d,v為詞匯表的大小,d為詞嵌入的維度。通過LSTM 模型分別對句子和粗粒度方面文本建模,分別得到大小為h×l和h×c的對應嵌入向量,其中h為LSTM的隱藏層的維度,l、c分別為分句后語句和粗粒度方面在詞層面的長度。利用注意力機制,得到原始文本與粗粒度方面的注意力權重。最后用權重與句嵌入向量相乘的結果作為分類器的特征向量輸入,分類出這個句子是否和粗粒度方面是相關的。以下將具體介紹單獨模塊細節。

圖2 TFN模型架構Fig.2 TFN model architecture

1.3.1 LSTM編碼器

如圖3所示的LSTM 結構[12],分別對語句以及粗粒度方面建模。輸入的語句由l個詞組成{ws1,ws2,…,ws}l,粗粒度方面由c個詞組成{wa1,wa2,…,wac}。輸入至詞嵌入層,得到每個詞的向量表示wi∈Rd,對于沒有出現在詞表中的詞,本文使用U(-0.25,0.25)的均勻分布隨機初始化,然后通過LSTM 網絡得到語句的張量表示Sh=[hs1,hs2,…,hsl],Sh∈Rh×l以及粗粒度方面的張量表示F=[ha1,ha2,…,hac],F∈Rh×c,其中hk為LSTM的隱藏層在每一個時間點k上的輸出,LSTM 的隱藏層的輸出具體的計算公式如式(1)~(6)所示:

其中:ik、fk、ok分別為輸入門、遺忘門和輸出門在k時刻的輸出;和cellk分別為k時刻的中間量和狀態量;Wi、Wf、Wo、Wc為權重矩陣;bi、bf、bo、bc為偏置向量;σ為Sigmoid函數;“⊙”符號為矩陣對應元素相乘。

圖3 LSTM結構Fig.3 LSTM structure

1.3.2 注意力模塊

注意力機制在情感分析中廣泛應用,在情感分析任務中有很多模型中都嵌入了注意力機制[8-10]。本文提出一種基于注意力機制的架構,將粗粒度方面的信息與原始文本同時考慮進來,共同計算對于語句中每個詞的注意力分數。在方面情感分析中,Wang 等[8]證明了方面對于相關任務的重要性,并且本文認為除了文本整體的語義,一些和粗粒度方面相關的詞或者詞組能夠有效地幫助分類相關方面,所以本文提出使用注意力機制來學習文本中不同詞對于粗粒度方面的權重。粗粒度方面的句嵌入F通過均值池化層進行處理得到favg∈Rh×1,即如式(7)所示:

通過將Sh和favg作為注意力模塊的輸入,可以得到favg對于Sh中的每個時間點輸出的注意力權重weight∈Rn×1,本文注意力模塊的相似度計算準則為尺度點乘,按照式(8)計算權重:

其中softmax函數為指數歸一化函數,定義如式(9)所示:

利用權重向量weight對句嵌入向量Sh進行加權并與粗粒度方面的語義嵌入向量favg進行拼接(concatenate)得到最終的特征表示y∈R2h×1,如式(10)所示:

1.3.3 分類器

分類器包含了兩層前饋神經網絡:第一層使用大小為h的全連接層學習參數W1∈R2h×h;第二層使用大小為2 的全連接層學習另一組權重W2∈Rh×2。y輸入至這兩層前饋網絡得到輸出特征向量v,最終對v進行softmax 運算得到輸出output,公式如式(11)~(12)所示:

1.4 BERT-Pair-ATT模型設計

BERT是一種語言表征模型,在大型的語料庫上進行預訓練,然后利用預訓練模型的模型參數在其他的NLP 任務上進行微調。BERT-Pair-ATT 模型基于BERT 原始模型進行改進,具體的模型結構如圖4所示。

圖4 BERT-pair-ATT模型架構Fig.4 BERT-pair-ATT model architecture

Sun 等[1]提出構造疑問句的方式來處理ABSA 任務,并且得到了性能提升,同時本文數據集中的細粒度方面都具有疑問句的形式,例如“交通是否便利”,因為這種數據形式,所以BERT-Pair-ATT 將文本語句作為第一個文本,細粒度方面作為第二個文本作為輸入。BERT-Pair-ATT 的輸出與標準的BERTBASE[16]結構不同,BERTBASE的結構將首位的特征作為分類特征,利用這個分類特征輸入至全連接層來分類至具體的類別,而本文利用注意力機制,對所有的位置的特征進行處理,在其上添加注意力層,隨機初始化兩個矩陣W3∈Rb×b,W4∈Rb×1來學習所有位置上的哪些特征對于分類的任務更加有價值,其中b為BERT 模型隱層維度,W3、W4在訓練過程中不斷調整學習所有位置的輸出中與分類任務更為相關的部分。注意力層的分數計算見式(13),其中,EB為BERT 的編碼層的輸出,EB∈RL×b。式(14)~(15)將score權重與編碼器的輸出相乘得到加權的特征feature,再將每個位置的特征加權平均得到最終的分類特征,并輸入到全連接層進行分類。全連接層的權重為W3∈Rb×4,偏置為b3,最終得到預測的情感標簽label。

2 實驗與結果分析

2.1 數據集

實驗采用AI Challenger 2018 比賽中的細粒度情感分析數據集。此數據集為目前國內最大的公開中文方面情感分析數據集,其中訓練集和測試集分別含有10.5 萬和1.5 萬條餐飲評論,文本為段落級別的長文本,并且每段文本給出了6 個粗粒度方面(“位置”“服務”“價格”“環境”“菜品”“其他”)和總計20 個細粒度方面的4 類情感(“未提及”:-2,“中性”:0,“積極”:1,“消極”:-1)。作為模型驗證,實驗選取其中的“位置”粗粒度下的“交通是否便利”“距離商圈遠近”“是否容易尋找”3 個細粒度方面進行分析。由于任務是多標簽分類,最終數據集的數量按照細粒度方面的數目擴展3 倍至31.5 萬和4.5萬條,訓練集的數量統計如表1所示。

表1 訓練集上的標簽統計Tab.1 Label statistics on training set

表2 中展示了從訓練集中隨機選取一個評論文本及其在“位置”粗粒度方面下的情感傾向值。對于其中的評論文本樣例,在“位置”粗粒度方面下,僅提及其中關于商圈的信息,所以在其層次下的各個細粒度方面下的情感只在“商圈是否遠近”上表達一種積極的情感,并未提及其他方面。樣例具體的情感傾向標簽如表2所示。

表2 數據集評論文本樣例Tab.2 Sample of review text in dataset

2.2 TFN模型的訓練數據

TFN 模型的訓練數據來源于AI Challenger 2018比賽中的細粒度情感分析數據集。評論文本由多個評論句組成。為了利用原始數據集中的粗粒度方面的信息來提取出與之相關的評論句,假設一段評論文本在一個粗粒度下的任意一個細粒度方面上的情感標簽不為“未提及”,則表明這段評論文本中至少有一個評論句在提及這個粗粒度方面。基于這個假設,本文算法利用詞向量來計算原文中所有詞與粗粒度詞之間的余弦相似度來篩選出最相關的詞,提取出該詞所在的句子作為正類,同時隨機選取該粗粒度下的細粒度方面下全部都為“未提及”的評論中的評論句作為負類,這一類語句并沒有在提及這個粗粒度方面。經過上述算法的處理,最終得到針對“位置”粒度的檢測數據集,匯總的數據集的標簽統計如表3。為了保證數據集的完整性,采用了大約相同數目的標簽分布。

表3 TFN模型數據集標簽統計Tab.3 Label statistics of TFN model dataset

2.3 評價指標

由表1 可見數據集的標簽具有分布不平衡的特性。因為在不平衡數據集上正確率不能準確衡量數量少的類別上的分類性能,而macro-F1 能夠客觀準確計算每一個類別上的分類性能,所以實驗采用macro-F1 值來對模型的分類性能進行評價。首先在四類情感標簽上分別計算出F1值,然后對每個標簽上的F1 進行加權平均得到最終模型在本文數據集上的macro-F1值,這樣可以有效抑制數據不平衡對評價值的影響。F1的計算公式如式(16)~(18)所示:

其中:i表示在第i個情感標簽上的計算的評價指標;R為召回率(Recall);P為精準率(Precision);TP為正類情感標簽被模型預測為正類的樣本數量(True Positive);FN為正類情感標簽被模型預測為負類的樣本數量(False Negative);FP為負類情感標簽被模型預測為正類的樣本數量(False Positive)。最終的macro-F1指標計算公式如式(19):

2.4 相關模型對比

實驗將TFN+BERT-Pair-ATT 與如下相關模型進行對照實驗:

1)GCAE[11]。它是一種卷積網絡結合門控機制的深度學習網絡,通過門控機制來模擬注意力機制篩選出屬性相關的信息作為特征。

2)ATAE-LSTM[8]。該模型將屬性的詞嵌入分別添加至評論文本作為LSTM 的輸入以及LSTM 的隱藏層作為注意力函數的輸入,最終將注意力層的輸出與LSTM 隱藏層的加權和作為分類器的特征。

3)IAN[9]。利用交互式的注意力網絡處理ABSA 任務,作為對比,本文將任務中的在原文本出現的屬性替換為預定義的類別屬性,即“交通是否便利”“距離商圈遠近”“是否容易尋找”,從而使得IAN能夠適用于本文任務。

4)AOA-LSTM[10]。該模型包含了兩個雙向長短時記憶網絡(Bi-LSTM)以及AOA 模塊,借鑒了注意力機制的思想。同樣的本文將屬性修改為預定義的屬性以適用于本文任務作為對比。

5)BERT-Single。只考慮原始文本,采用全原始連接層進行微調,因為文本對應了多個標簽,針對每個標簽進行訓練與驗證。

6)BERT-Pair。輸入評論文本以及細粒度方面作為句子對分類任務,并只采用原始的全連接的方式進行微調。

前四類模型的文本嵌入層采用Word2Vec 算法來預訓練參數,后兩類模型采用BERT文本表示法。

2.5 相關超參數

實驗中所有的模型都基于PyTorch[23]深度學習框架,使用4 塊1080TiGPU 進行訓練推理。Word2Vec 的詞嵌入維度d為300,詞典的大小v為20 000。TFN 使用的LSTM 隱層維度為300,在訓練中使用Adam 優化器(Adaptive Moment Estimation),學習率設置為0.001,β1=0.9,β2=0.99,訓練過程中的批處理大小為256,全局迭代5次,為了防止過擬合,在網絡的每一層加入Dropout[24],丟棄概率(Dropout rate)為0.2。前四類對比模型都使用Adam 優化器,學習率為0.001,批處理大小設置為32,迭代次數設置為10。BERT-Single、BERTPair 以及BERT-Pair-ATT 都使用BERTBASE作為基礎模型架構,表4 為基于BERTBASE的文本表示法的相關模型的訓練參數設置,且在預訓練初期使用warm-up 技巧進行預熱[16]。以上所有的模型要優化的損失函數全部為負指數的似然函數-log(P(y|x)),其中(x,y)為(輸入,目標標簽)。

表4 BERT參數設置Tab.4 BERT parameter setting

2.6 結果與分析

TFN 訓練過程中在訓練集和測試集上的top1 正確率如圖5 所示,由于加入Dropout,訓練集上的正確率低于測試集,最終TFN在測試集上的最高正確率為92.82%。

圖5 TFN訓練中top1正確率曲線Fig.5 Top1 accuracy curves in TFN training

實驗的相關模型都經過10次實驗,取10次中最好的結果保存得到表5 實驗結果。由表5 中的數據可以在本文數據集上得到一些結論:1)除了BERT-Single 模型,其他使用BERT為基礎文本表示法的模型比CNN 或者循環神經網絡(Recurrent Neural Network,RNN)文本表示法的模型表現更加優異;2)本文提出的BERT-Pair-ATT 模型比BERT-Pair 模型在macro-F1 上高出0.27%,并且在每個標簽下的F1 都有提升;3)本文提出的文本篩選和BERT-Pair-ATT 的模型架構能夠提升傳統的單模型的性能,其中TFN+BERT-Pair-ATT 模型取得了最高的結果,使單模型BERT-Pair-ATT 的macro-F1 再次提升0.31%。

由于BERT-Single沒有利用方面中的信息,導致最終的分類結果不佳。在考慮利用方面之后,BERT-Pair 模型在macro-F1 上提高了4.14%。BERT 預訓練語言模型因為預先在大型語料庫上進行充分訓練,已經學習到了語言中的相關信息,因此最終的訓練結果基于都優于基于Word2Vec表示法的相關模型;并且使用了句子對方式用于長文本方面情感分析任務上的BERT 模型,只需要訓練一個模型參數就能夠帶來性能上的提升。對于長文本的處理,本文算法采取的是神經網絡來策略截短,而不是使用注意力機制來自適應地選取,此方式能夠降低BERT 模型的計算開銷,將輸入控制在BERT的限制長度內,同時也能夠保留充足的信息,所以使用TFN模型來預處理數據集,增強了BERT 的輸入文本信息的有效性,使性能進一步提升。

表5 不同模型的實驗結果對比Tab.5 Experimental results comparison of different models

3 結語

本文利用文本篩選和改進BERT 算法來處理長文本方面情感分析任務。首先基于原始數據集的標簽構造新的數據集用來訓練文本篩選模型TFN,其次,利用TFN 模型篩選出評論中粗粒度方面相關的部分語句,然后使用句子對方式作為BERT的輸入方式,并且在輸出層進一步添加注意力層。通過與相關深度學習模型的對比分析,本文模型能進一步提升長文本ABSA任務的性能。

本文通過TFN 模型對語句進行篩選,其正確率還需要進一步提升,接下來的工作中將結合主題模型進一步提高長文本處理能力,得到更加準確的文本篩選模型,從而提升整體算法的性能。

猜你喜歡
分類文本情感
分類算一算
如何在情感中自我成長,保持獨立
失落的情感
北極光(2019年12期)2020-01-18 06:22:10
情感
在808DA上文本顯示的改善
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
如何在情感中自我成長,保持獨立
數據分析中的分類討論
教你一招:數的分類
主站蜘蛛池模板: 欧美不卡二区| 五月天香蕉视频国产亚| 亚洲精品视频网| 美女免费黄网站| 国产xx在线观看| 免费全部高H视频无码无遮掩| 啪啪免费视频一区二区| 亚洲黄色激情网站| 免费国产在线精品一区| 国产情侣一区二区三区| 欧美成人影院亚洲综合图| 国产亚洲精品自在线| 亚洲丝袜第一页| 久久99蜜桃精品久久久久小说| www成人国产在线观看网站| 欧美一区日韩一区中文字幕页| 国产在线一区视频| 强奷白丝美女在线观看 | 久久精品人人做人人爽| 夜精品a一区二区三区| 福利在线一区| 在线色综合| 欧美成人精品一级在线观看| 婷婷丁香在线观看| 人人91人人澡人人妻人人爽| 97视频在线观看免费视频| 欧美三级不卡在线观看视频| 免费高清毛片| 国产精品嫩草影院av| 日韩午夜片| 久久精品日日躁夜夜躁欧美| 高清不卡一区二区三区香蕉| 国产欧美精品专区一区二区| 特级毛片免费视频| 国产高清不卡视频| 亚洲天堂久久| 国产福利一区视频| 国产一区二区福利| 综合色婷婷| 国产波多野结衣中文在线播放 | 亚洲国产精品日韩专区AV| 国产白浆一区二区三区视频在线| 好吊色妇女免费视频免费| 亚洲日韩精品伊甸| 高潮爽到爆的喷水女主播视频 | 成人免费午夜视频| 亚洲成人免费看| 国产亚洲现在一区二区中文| 亚洲天堂精品在线| www.youjizz.com久久| 国产亚洲欧美日韩在线一区二区三区| 亚洲成A人V欧美综合| 色婷婷狠狠干| 天天综合色网| 欧美色视频日本| 日韩成人免费网站| 日韩小视频在线观看| аⅴ资源中文在线天堂| 国产一级一级毛片永久| 久久久久夜色精品波多野结衣| 自拍亚洲欧美精品| 国产成人精品在线1区| 无码一区中文字幕| 毛片在线播放a| 婷婷色狠狠干| 国产女人爽到高潮的免费视频 | 亚洲成a人在线播放www| 欧美激情视频二区| 中日韩欧亚无码视频| 亚洲最猛黑人xxxx黑人猛交| 亚洲人成网7777777国产| 精品国产成人a在线观看| 成人午夜精品一级毛片| 热久久综合这里只有精品电影| 无码aaa视频| 自拍偷拍一区| 成人午夜在线播放| 亚洲综合久久成人AV| 波多野结衣AV无码久久一区| 欧美一级在线| 久久久久久久久久国产精品| 中文国产成人精品久久一|