999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

ELMo‐CNN‐BiGRU 雙通道文本情感分類模型

2022-08-12 02:29:42王梓宇趙偉超
計算機工程 2022年8期
關鍵詞:分類特征文本

吳 迪,王梓宇,趙偉超

(河北工程大學信息與電氣工程學院,河北 邯鄲 056038)

0 概述

文本情感分類是自然語言處理領域的重要分支,廣泛應用于輿情分析、內容推薦等任務,能幫助用戶快速獲取、整理和分析相關信息,并對帶有情感色彩的主觀性文本進行分析、處理、概括和推理。目前,深度學習技術[1]和注意力機制得到快速發展并且在文本分類領域取得了一定的研究進展。在利用深度學習技術實現自然語言處理的過程中,常用word2vec、Glove 等詞嵌入方式表示原始文本信息,從而有效捕捉句法和語義相關信息。文獻[2]提出一種基于卷積神經網絡(Convolutional Neural Network,CNN)的情感分類模型CNN_Text_word2vec,引入word2vec 來訓練每個單詞上的分布式單詞嵌入,通過多個不同大小的卷積核來學習文本特征。文獻[3]提出卷積神經網絡和長短期記憶(Long Short-Term Memory,LSTM)網絡模型CNNLSTM,采用word2vec訓練初始單詞向量,利用CNN 提取文本局部特征,通過LSTM 捕獲序列之間的長期依賴關系。文獻[4]提出一種基于深度卷積神經網絡的文本情感分類模型,堆疊多個卷積層,并利用全局最大池化構建情感分類模塊。文獻[5]提出MTL-MSCNNLSTM 模型,將多尺度CNN 和LSTM 相結合,有效利用處理不同尺度文本的局部和全局特征。文獻[6]提出MF-CNN 模型,結合多樣化的特征信息,利用句中的情感特征優化情感分類結果。針對現有深度學習技術在文本情感分類任務中特征提取能力不足的問題,研究人員提出了一系列解決方案。文獻[7]提出一種雙通道卷積神經網絡模型,將擴展文本特征和語義特征分別輸入到多通道的CNN 模型中,增強模型的情感特征提取能力。文獻[8]提出一種基于深度學習的詞匯集成雙通道CNN-LSTM 情感分析模型,將CNN 和雙向長短期記憶(Bi-directional Long Short-Term Memory,BiLSTM)分支以并行方式組合在一起提取特征。文獻[9]提出一種卷積神經網絡和長短期記憶結合的模型,串聯CNN 和LSTM 兩個模型提取文本情感特征。文獻[10]提出Multi-Bi-LSTM 模型,對現有的信息生成不同的特征通道,利用BiLSTM 學習句子中的情感傾向信息。注意力機制本質上與人類的選擇性機制類似,其目標是從眾多信息中選擇出對當前任務目標更關鍵的信息,被廣泛應用于自然語言處理、圖像與語音識別等各種不同類型的深度學習任務中,可有效提高模型分類效果。文獻[11]提出一種多通道卷積神經網絡模型,采用3 種通道進行卷積操作,利用字向量發現文本深層語義特征。文獻[12]提出一種基于RNN 和CNN 并融入注意力機制的新模型。文獻[13]利用區域LSTM 來調整不同信息對分類結果的影響程度,并實現了區域劃分。文獻[14]提出一種基于遞歸神經網絡(Recurrent Neural Network,RNN)的情感分析方法,將預處理后的文本數據輸入到一個或者多個RNN 中,利用注意力機制進行處理。文獻[15]對不同注意力模塊進行獨立訓練,用以提取各類文本情感特征。文獻[16]提出基于注意力機制的AT-DPCNN 模型,利用CNN 進一步提取注意力輸入矩陣的特征。文獻[17]提出一種基于注意力的雙向CNN-RNN 模型,利用注意力機制給雙向特征提取層賦予權重。文獻[18]在利用多頭注意力機制的同時加入位置編碼,采用圖卷積網絡獲取文本的情感信息。

上述模型由于采用傳統的靜態詞向量進行建模,導致上下文相似但情感極性不同的詞語映射到向量空間相鄰位置,影響情感分類效果,因此本文充分考慮不同上下文中的一詞多義現象,并且兼顧提取全局特征與局部特征,提出一種ELMo[19]-CNN-雙向門控遞歸單元(Bi-directional Gated Recurrent Unit,BiGRU)雙通道文本情感分類模型。將動態詞向量與靜態詞向量相結合,以實現不同上下文語境中的一詞多義效果。采用注意力機制處理輸入向量,得到內部詞之間的依賴關系。構建CNN-BiGRU 雙通道結構,并行提取數據的局部和全局特征,以實現特征的完整提取。

1 相關知識

1.1 ELMo 預訓練模型

文獻[19]提出的ELMo 是一個雙層雙向的LSTM 模型,分別有一個前向和一個后向語言模型,前向LSTM 和后向LSTM通過和計算獲得,其中(c1,c2,…,cn)表示n個文本序列。ELMO 預訓練模型結構如圖1所示,其中E表示文本語料的詞向量。利用大量語料訓練ELMo 模型結構,獲得預訓練模型。將ELMo 預訓練模型生成數據的動態詞向量與Glove預訓練模型生成的靜態詞向量進行堆疊嵌入,作為ELMo-CNN-BiGRU 模型的輸入特征。

圖1 ELMo 預訓練模型結構Fig.1 ELMo pretrained model structure

1.2 注意力機制

注意力機制是一種權重分配機制,通過調整權重系數來修改文本特征的關鍵程度。權重系數越大,表示該信息越重要,對文本情感分類結果影響越大。本文采用自注意力(Self-Attention)機制,僅關注自身信息更新訓練參數,降低對外部信息的依賴程度,更好地獲取信息的內部關聯關系。

1.3 雙通道深度學習模型

構建CNN 和BiGRU 雙通道模型,同時獲取輸入信息的局部特征和全局特征。雙通道結構可以有效彌補CNN 和BiGRU 模型各自缺陷,充分捕捉局部和全局的情感特征,優化文本情感分類結果。

1)局部特征獲取。采用CNN 獲取輸入信息的局部特征。通過卷積層抽取信息特征,獲取評論文本信息的局部語義特征。利用多尺度卷積核,采用不同尺度的卷積過濾器來幫助模型進行特征學習,獲得不同距離單詞間的特征信息。經過卷積層提取文本的特征信息后,輸入最大池化層中進行特征降維。

2)全局特征獲取。采用BiGRU 獲取輸入信息的全局特征,并且充分考慮上下文信息,更好地捕捉文本中的語義信息。BiGRU 中的GRU 單元結構如圖2 所示,GRU 單元在t時刻的更新門rt、重置門zt、當前記憶內容hc、當前時間的最終記憶ht更新過程如下:

圖2 GRU 單元結構Fig.2 GRU unit structure

其中:xt為輸入向量;σ、tanh 為激活函數;ht-1是t?1 時刻隱藏層狀態信息;Wr、Wz、Wh、Ur、Uz、Uh為權重矩陣;br、bz、bh為偏置值;⊙符號是向量間點乘運算。

2 ELMo-CNN-BiGRU 模型

本文提出一種ELMo-CNN-BiGRU 文本情感分類模型。首先,對原始評論文本數據進行去停用詞、無用標簽、特殊符號等預處理操作。然后,在詞嵌入操作過程中,采用ELMo 和Glove 模型分別生成動態詞向量和靜態詞向量,將兩種詞向量進行堆疊嵌入作為模型的輸入向量。其次,利用自注意力機制處理輸入向量,獲取信息的內部關聯關系。再次,利用雙通道的CNN 和BiGRU 模型分別提取局部和全局特征。最后,將雙通道提取的特征進行拼接,經全連接層處理后,輸入分類器進行文本情感分類操作。ELMo-CNN-BiGRU 模型框架如圖3 所示。

圖3 ELMo-CNN-BiGRU 模型框架Fig.3 ELMo-CNN-BiGRU model frame

2.1 詞嵌入層

由于靜態詞向量生成后不會發生改變,因此在應對不同上下文中一詞多義情況時存在局限性。動態詞向量會隨著模型訓練在不同上下文中做出調整,其初始化會影響到文本情感分類的收斂速度和最終結果。單獨使用靜態詞向量和動態詞向量其中的一種均存在一定的問題。為了在更精準地表示文本詞向量的同時加快模型收斂速度,并優化文本情感分類結果,采用Glove 模型生成的靜態詞向量與ELMo 預訓練模型生成的動態詞向量,以堆疊嵌入的方式作為模型的輸入向量。利用ELMo 預訓練模型進行詞嵌入操作,應對不同上下文中一詞多義的情況,使用堆疊嵌入的方式融合兩種詞向量,能夠有效優化文本情感分類結果。

Glove 模型生成詞的向量為wg,具體公式如下:

其中:t表示詞向量wg的維度。

ELMo 模型生成的詞向量為we,具體公式如下:

其中:T表示詞向量we的維度。

將wg與we堆疊生成的詞向量,作為模型隱藏層的輸入數據iinput,具體公式如下:

2.2 注意力層

采用Self-Attention 機制得到內部的詞依賴關系,具體公式如下:

其中:dk為輸入詞嵌入向量的維度;W為輸入信息。

將堆疊嵌入的特征向量,輸入到由Self-Attention機制構建的注意力層,進一步在雙通道深度學習層中獲取局部與全局特征。

2.3 雙通道深度學習層

ELMo-CNN-BiGRU 模型采用雙通道結構,其中CNN 通道用來捕獲評論文本數據的局部特征,BiGRU 通道用來獲取評論文本數據的全局特征。該結構可以同步綜合考量評論文本數據的局部和全局特征,在提取文本數據全局情感傾向特征的同時,捕獲文本的局部情感特征,從而更全面地獲取文本的情感特征,有效優化文本情感分類結果。

2.3.1 CNN 通道

ELMo-CNN-BiGRU 模型利用CNN 通道獲取文本數據的局部特征,其中CNN 通道由卷積層和池化層兩部分組成。

1)卷積層

卷積層采用3 種不同大小的卷積核,獲得不同距離詞序列之間的特征來提取更全面的局部信息。在CNN 通道中,利用卷積核進行一維卷積操作,將詞嵌入矩陣轉化為一維向量,采用ReLU 函數作為卷積層的激活函數。卷積操作能提取詞語序列的特征,從詞語序列Xi:i+h?1中提取特征圖,具體公式如下:

其中:b?Rk為偏置項,k為向量的維度;f為非線性函數ReLu;W?Rhd表示卷積核,h(h

2)池化層

采用最大池化法提取特征圖(Zmax)中池化區域最大的特征值,可對特征信息進行降維,具體公式如下:

2.3.2 BiGRU 通道

BiGRU 通道用于提取數據的全局特征。在BiGRU 模型中,t時刻當前隱藏層ht由前向隱藏層和后向隱藏層加權求和得到,具體計算如下:

其中:xt表示當前隱藏層的輸入向量表示(t?1)時刻前向隱藏層狀態表示t?1 時刻后向隱藏層狀態;wt、vt分別表 示t時 刻BiGRU 所對應的前向隱藏層和后向隱藏層的相關權重值;bt表示t時刻隱藏層狀態的偏置值。

2.4 分類層

將雙通道的特征數據進行拼接后,輸入到全連接層中,通過在全連接層前融合Dropout 方法緩解模型過擬合現象。利用softmax 函數對文本進行情感分類,具體公式如下:

其中:a、b分別為全連接層的權重矩陣和偏置值;y為雙通道拼接后的向量數據;Y為利用Dropout 方法處理后的向量。

2.5 文本情感分類流程

ELMo-CNN-BiGRU 文本情感分類流程具體如下:

1)將文本D同時輸入ELMo 預訓練模型和Glove 預訓練模型,生成對應的詞向量Se=[w1,w2,…,wx]、Sg=[w1,w2,…,wX],其中文本D由x個句子{d1,d2,…,dx}組成,文本中第i個句子由j個單詞{c1,c2,…,cj}組成,x和X為Glove 和ELMo 所生成的詞向量的維度。

2)將生成的詞向量進行堆疊式嵌入,得到模型的輸入向量iinput=[Se,Sg]。

3)將詞嵌入層生成的向量輸入自注意力層進行處理。

4)將自注意力機制層中的數據分別輸入雙通道的CNN 層和BiGRU 層,分別得到兩個通道的隱藏層表示。

5)拼接雙通道的特征向量并輸入帶有Dropout機制的全連接層,經過全連接層處理后使用softmax函數進行分類,獲得情感分類的最終結果。

3 實驗結果與分析

3.1 數據集與實驗環境設置

在Colaboratory 云平臺上進行模型搭建,采用Python編程語言和keras框架進行實驗。在IMDB、yelp、sentiment140 數據集上,將ELMo-CNN-BiGRU 模型與6 種模型進行性能對比,此外,針對ELMo-CNN-BiGRU模型,將在迭代次數、詞向量維度、詞向量嵌入方式和通道結構這4個方面進行對比實驗,以驗證ELMo-CNNBiGRU 雙通道文本情感分類模型的有效性。實驗所用數據集中訓練集和測試集的數據量比例為8∶2,具體統計信息如表1 所示。

表1 數據集統計信息Table 1 Data set statistics

3.2 超參數設置

將句子最大長度設置為100。對于小于最大長度的句子,采取補零操作;對于大于最大長度的句子,采取截斷操作。采用Adam 函數作為模型的訓練優化函數,Adam 函數的學習率設置為0.000 1。在ELMo-CNN-BiGRU 模型的CNN 通道中,多通道CNN 選取的卷積核窗口大小分別設置為2、3、5,采用Dropout 機制應對模型可能會發生的過擬合現象。BiGRU 模塊采用Tanh 作為神經元的激活函數,CNN模塊采用ReLU 函數作為卷積操作的激活函數。超參數設置如表2 所示。

表2 超參數設置Table 2 Hyperparameter setting

3.3 評價指標

采用準確率(A)和F1 值(F)作為評價指標,用來測試ELMo-CNN-BiGRU 及其對比模型性能。準確率和F1 值的計算公式分別如下:

其中:P表示精確率;R表示召回率;TTP表示實際標簽是真,模型預測結果為真的文本數量;FFN表示實際標簽為真,但是模型預測結果為假的文本數量;FFP表示實際標簽為假,但是模型預測結果為真的文本數量;TTN表示實際標簽為假,模型預測結果也為假的文本數量。

3.4 結果分析

為驗證ELMo-CNN-BiGRU 模型性能,首先測試迭代次數對實驗結果的影響,其次測試不同詞向量維度、詞向量嵌入方式、通道結構下的模型準確率和F1 值,最后將ELMo-CNN-BiGRU 與CNN、BiGRU等6 種文本情感分類模型進行對比實驗。

3.4.1 迭代次數對比

在IMDB、yelp、sentiment140 這3 個數據 集上,ELMo-CNN-BiGRU 模型的準確率和F1 值隨著迭代次數的變化趨勢如圖4、圖5 所示。

圖4 ELMo-CNN-BiGRU 模型在3個數據集上的準確率對比Fig.4 Comparison of the accuracy of the ELMo-CNN-BiGRU model on the three data sets

圖5 ELMo-CNN-BiGRU 模型在3 個數據集上的F1 值對比Fig.5 Comparison of F1 value of ELMo-CNN-BiGRU model on three data sets

由圖4、圖5 可知:在第10 次迭代前,ELMo-CNNBiGRU 模型的準確率和F1 值總體呈現緩慢上升趨勢,這是由于模型剛開始訓練,權重參數在初始化階段,需要增加迭代次數才能訓練出提升模型分類效果的參數;在第10 次迭代后,ELMo-CNN-BiGRU 模型的準確率和F1 值在IMDB、yelp、sentiment140 這3 個數據集上普遍呈現較快上升趨勢,這是由于經過迭代訓練,模型已經訓練出部分能提升模型分類效果的有效參數,進而加快了迭代速度;在第20次迭代后,ELMo-CNN-BiGRU模型在準確率和F1 值上普遍處于平穩狀態,這是由于模型要達到擬合狀態,結果變化不明顯;在IMDB、yelp、sentiment140 這3 個數據 集上,ELMo-CNN-BiGRU 模型的準確率和F1 值的變化趨勢相近,這表明ELMo-CNN-BiGRU 模型面對有差異數據時,分類結果具有一定的穩定性。

綜上所述,在3 個數據集上,ELMo-CNN-BiGRU模型在sentiment140 數據集上取得了最優結果,這是由于該模型使用的ELMo 模型更適合處理短文本數據,在較短的文本上能獲得更好的分類效果。

3.4.2 詞向量維度對比

詞向量維度對模型性能具有一定的影響。詞向量維度越大,所表示的信息量越大,但會淡化詞語之間的聯系,然而詞向量維度過小,則會產生無法有效區分詞語的問題,因此需要選擇合適的詞向量維度。在3 個數據集上,對ELMo-CNN-BiGRU 模型使用不同維度的詞向量進行實驗測試。本文使用ELMo 模型和Glove模型堆疊的方式生成詞向量,其中ELMo分別生成256、512、102 4 維的向量,Glove 分別生成50、100、200 維的向量,將兩者堆疊后產生不同維度的詞向量。在3 個數據集上,當詞向量維度不同時,ELMo-CNN-BiGRU模型的準確率與F1 值對比結果如圖6、圖7 所示。

圖6 詞向量維度對ELMo-CNN-BiGRU 模型準確率的影響Fig.6 Effect of word vector dimension on the accuracy of ELMo-CNN-BiGRU model

圖7 詞向量維度對ELMo-CNN-BiGRU 模型F1 值的影響Fig.7 Effect of word vector dimension on F1 value of ELMo-CNN-BiGRU model

由圖6、圖7可知:ELMo-CNN-BiGRU 模型在3 個數據集上的準確率和F1 值都在詞向量維度為612時達到最優效果。此時,ELMo 模型詞向量維度為512、Glove模型詞向量維度為100,因此詞向量維度并非越大效果越好,過大反而會導致模型的性能下降。在詞向量維度到達612之前,模型的性能震蕩上升,在612 維度后模型的性能震蕩下降??梢?,ELMo-CNNBiGRU 模型性能變化不穩定,震蕩改變是由于本文的詞向量采用堆疊嵌入,動態詞向量與靜態詞向量對模型性能的影響程度不同。

3.4.3 詞向量嵌入方式對比

采用ELMo 和Glove模型分別生成動態詞向量與靜態詞向量,堆疊后作為模型的輸入向量,為驗證堆疊嵌入方式的優勢,將其與word2vec、Glove、ELMo、ELMo+word2vec 進行對比,在采用不同的詞向量嵌入方式時,預訓練模型的準確率與F1 值結果如圖8、圖9 所示。由圖8、圖9 可知:ELMo 和Glove 堆疊嵌入方式明顯優于其他4 種詞嵌入方式;與傳統靜態詞向量嵌入方式相比,動態詞向量與靜態詞向量堆疊嵌入方式能根據不同的上下文調整詞向量,使得模型在準確率和F1 值上取得更好的效果;與ELMo和word2vec 堆疊嵌入方式相比,Glove 充分考慮全局信息,在實際應用中效果更好。

圖8 不同詞向量嵌入方式對ELMo-CNN-BiGRU 模型準確率的影響Fig.8 Effect of different word vector embedding modes on the accuracy of ELMo-CNN-BiGRU model

圖9 不同詞向量嵌入方式對ELMo-CNN-BiGRU 模型F1 值的影響Fig.9 Effect of different word vector embedding modes on the F1 value of ELMo-CNN-BiGRU model

3.4.4 通道結構對比

ELMo-CNN-BiGRU 模型采用雙通道結構,將數據送入雙通道結構,能更好地捕捉文本數據的全局與局部特征。在3 個數據集上分別進行雙通道結構與CNN-BiGRU 串行結構的準確率和F1 值對比,實驗結果如圖10、圖11 所示。

圖10 雙通道結構對模型準確率的影響Fig.10 Effect of dual-channel structure on model accuracy

圖11 雙通道結構對模型F1 值的影響Fig.11 Effect of dual-channel structure on model F1 value

由圖10、圖11 可知,雙通道結構較串行結構可有效提升模型性能,在IMDB、yelp、sentiment140這3個數據集上,準確率分別提升了2.91、3.08、3.28個百分點,F1 值分別提升了2.87、2.98、3.13 個百分點。

3.4.5 文本情感分類模型對比

將ELMo-CNN-BiGRU 模型與如下6 種模型進行對比實驗:

1)CNN,采用卷積層提取特征,池化層降低特征維度。

2)BiGRU,在門控遞歸單元的基礎上,采用雙向結構進行情感分析。

3)BiLSTM+EMB_ATT[20],使用注 意力機制學習句子的情感傾向權重分布,利用LSTM 獲取文本的語義信息。

4)BiGRU-CNN[21],引入注意力機制,將BiGRU和CNN 串行疊加構建情感分類模型。

5)H-BiGRU[22],利用BiGRU 編碼表示詞向量和句向量,采用注意力機制加權求和獲得數據的最終表示形式。

6)PF-CNN[23],分段提取句子特征,并融合詞性特征與詞向量區分同義詞。

文本情感分類模型的準確率和F1 值對比結果如表3、表4 所示。

表3 準確率對比結果Table 3 Accuracy comparison results %

表4 F1 值對比結果Table 4 F1 value comparison result %

由表3、表4 可知:BiGRU 由于能夠獲取評論文本的語義信息和雙向的上下文信息,較CNN 在準確率和F1 值上獲得更好的結果;BiGRU-CNN 在BiGRU和CNN 串聯處理特征信息的基礎上,融入注意力機制,較CNN 和BiGRU 模型更 優;ELMo-CNN-BiGRU模型采用動態詞向量技術進行詞嵌入,通過BiGRU 和CNN 雙通道并行提取特征,能夠同時獲得原始文本信息的全局特征和局部特征,與采用串聯結構的BiGRUCNN 模型相比,評論文本情感分類準確率和F1值均有所提高;ELMo-CNN-BiGRU 采用自注意力機制,對原始評論文本信息進行權重處理,能夠對重要信息投入更多關注,有效解決一詞多義問題,與H-BiGRU、BiLSTM+EMB_ATT、PF-CNN模型對比,在評論文本情感分類方面具有更好的性能表現;ELMo-CNN-BiGRU模型在3 個數據集上的準確率和F1 值均為最優,與對比模型中情感分類性能最優的H-BiGRU 模型相比,準確率分別提升了2.42、1.98、2.52個百分點,F1值分別提升了2.40、1.94、2.43 個百分點。

4 結束語

本文提出一種ELMo-CNN-BiGRU 雙通道文本情感分類模型。在輸入層,融合靜態詞向量和動態詞向量進行堆疊嵌入,使得文本信息表示能夠較好地根據上下文調整語義。利用自注意力機制為文本信息分配權重,獲得文本內部的詞依賴關系,并將其輸入到BiGRU-CNN 雙通道中,更全面地獲取文本數據的局部與全局特征。最終使用softmax 分類器,實現文本情感分類。實驗結果表明,在IMDB、yelp 和sentiment140 這3 個數據集上,ELMo-CNN-BiGRU 模型相較于CNN、BIGRU、BiLSTM+EMB_ATT、PF-CNN、BiGRU-CNN和H-BiGRU 模型具有更優的情感分類性能。下一步將建立細粒度情感分類模型,并且通過融合注意力機制,識別結構更復雜的評論文本的情感傾向。

猜你喜歡
分類特征文本
分類算一算
如何表達“特征”
在808DA上文本顯示的改善
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
主站蜘蛛池模板: 国产成人三级| 亚洲国产精品无码AV| 免费国产高清视频| 国产精品流白浆在线观看| 老司机久久99久久精品播放| 青青国产成人免费精品视频| 亚洲制服丝袜第一页| 日韩性网站| 国产日本欧美亚洲精品视| 性视频一区| 国产福利一区视频| 国产91特黄特色A级毛片| 亚洲成人在线免费| 欧美日韩另类在线| 国产免费a级片| 日本在线欧美在线| 国产小视频免费观看| 在线视频97| 丁香六月激情婷婷| 国产欧美另类| 成人国内精品久久久久影院| 欧美一级在线看| 囯产av无码片毛片一级| 嫩草在线视频| 午夜激情婷婷| 亚洲综合第一页| 国产精品污视频| 99视频在线观看免费| 青青草国产精品久久久久| 国产 在线视频无码| 亚洲色大成网站www国产| 尤物视频一区| 国产精品视屏| 国产精品99一区不卡| 亚洲AⅤ综合在线欧美一区| 亚洲精品777| 亚洲天堂自拍| 在线日韩一区二区| 日韩欧美中文字幕在线韩免费| 日韩高清一区 | 精品无码视频在线观看| 亚洲精品手机在线| 亚洲精品无码AⅤ片青青在线观看| 99久久精品免费看国产电影| 国产综合日韩另类一区二区| 国产毛片高清一级国语| 在线精品欧美日韩| 精品国产中文一级毛片在线看| 97久久免费视频| 国产91精品调教在线播放| 无码专区国产精品一区| 青青操国产视频| 成人午夜网址| 99视频精品在线观看| 精品国产Ⅴ无码大片在线观看81| 综合久久五月天| 日韩成人高清无码| 亚洲精品天堂在线观看| 一级毛片在线免费视频| 精品自窥自偷在线看| 国产成人久久综合一区| 国产精品女同一区三区五区| 天天干伊人| 亚洲欧美极品| 看你懂的巨臀中文字幕一区二区| 无码国产偷倩在线播放老年人| 精品欧美一区二区三区久久久| 国产制服丝袜91在线| 日本高清免费不卡视频| 欧洲精品视频在线观看| 欧洲日本亚洲中文字幕| 亚洲无码电影| 国产精品女在线观看| 在线不卡免费视频| 亚洲无码电影| 99视频只有精品| 国产精品流白浆在线观看| 欧亚日韩Av| 成人中文在线| 又污又黄又无遮挡网站| 成人精品在线观看| 欧美啪啪精品|