999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機制的特征融合-雙向門控循環單元多模態情感分析

2021-07-02 00:35:24賴雪梅陳虹羽李珊珊
計算機應用 2021年5期
關鍵詞:模態分類特征

賴雪梅,唐 宏,陳虹羽,李珊珊

(1.重慶郵電大學通信與信息工程學院,重慶 400065;2.移動通信技術重慶市重點實驗室(重慶郵電大學),重慶 400065)

(*通信作者電子郵箱798193875@qq.com)

0 引言

隨著互聯網的普及和科學技術的發展,大量用戶通過社交媒體(如微博、抖音、快手等)以文本、圖像、音頻或視頻等多種方式來發表自己的觀點,海量社交媒體數據的形態不再局限于單一的文本模式[1]。面對如此龐大的多模態信息,雖然單模態數據的情感分析近年來在客戶滿意度分析、衡量投票意向等方面取得了成功,但由于信息的多樣性,它不能有效處理多模態數據,多模態情感分析(Multimodal Sentiment Analysis)應運而生[2]。

多模態情感分析是在單模態情感分析的基礎上,從文本、圖像或音頻組成的數據甚至視頻數據中對觀點、情感狀態等進行的計算研究[3]。社交媒體是各種產品和用戶服務意見的巨大來源,文本、圖像、音頻和視頻等多個模態信息的有效結合可以更好地指導分析,減少分類錯誤,提高情感分類器的準確性。對視頻進行情感分析可以彌補文本情感分析中聲音和視覺的不足,語音和面部表情為更好地識別意見持有者的情感狀態提供了重要線索,這對于輿情監控、商品推薦和研究用戶反饋等實際應用具有重大的現實意義[4-5]。

近年來,深度學習方法在情感分析領域取得了廣泛的應用,顯示出巨大的潛力[6]。一般的深度學習模型有:卷積神經網 絡(Convolutional Neural Network,CNN)[7]、長短時記憶(Long Short-Term Memory,LSTM)網絡[8]和門控循環單元(Gated Recurrent Unit,GRU)[9]等。大多數研究者將深度學習模型與多模態情感分析相結合以解決多模態特征融合問題,文獻[10]中使用LSTM 模型進行圖文融合。雖然研究者對多模態情感分析模型提出了許多改進方法,也在一定程度上解決了相關問題并改善了性能,但仍存在不足之處。由于視頻中的每一句話都是在不同時間以特定順序說出的,所以視頻可以視為一系列具有序列關系的話語。以前的方法大都忽略了視頻中的話語順序,沒有考慮每個話語的上下文信息。因為情感的表達通常通過語言、聲音和視覺等多種行為之間的相互作用完成,所以如何準確捕捉這些信息之間的聯系至關重要。而且人們在進行情感表達時,每個模態對情感分類的貢獻度不同,這會對最后的情感分類結果產生直接的影響。

本文針對以上問題,提出一種基于注意力機制的特征融合-雙向門控循環單元多模態情感分析模型(Feature fusion based on Attention Mechanism-Bidirectional Gated Recurrent Unit,AMF-BiGRU)。首先,采用雙向門控循環單元(Bidirectional Gated Recurrent Unit,BiGRU)對文本、語音和圖像特征進行預處理,得到具有上下文信息的各模態特征表示;然后,通過跨模態注意力交互網絡對各模態與模態之間的交互作用進行建模;最后通過注意力機制考慮各模態貢獻程度,將視頻中的多模態特征有效融合,從而進行情感分類。為驗證本文模型的有效性,在CMU-MOSI(CMU Multimodal Opinion-level Sentiment Intensity)[11]和 CMU-MOSEI(CMU Multimodal Opinion Sentiment and Emotion Intensity)[12]數據集上進行測試,該模型在準確率和F1值上均表現出較好的分類效果。

1 相關工作

在視頻多模態情感分析中,首先從視頻中提取文本、語音和圖像特征,然后使用早融合[13]或晚融合[14]的方法將其融合分類。目前多模態情感分析方法主要分為兩類:1)獨立學習各模態特征并將其融合輸出[15-16];2)共同學習兩種或三種模態之間的交互作用[17-22]。

在將多模態特征融合之前,提取相鄰話語間的上下文關系是多模態情感分析領域中一個重要的研究課題。文獻[15]中提出了BC-LSTM(Bi-directional Contextual Long Short-Term Memory)模型,該模型在提取每個樣本特征時采用雙向LSTM結構捕捉上下文信息。文獻[16]提出了GME-LSTM(A)(Gated Multimodal Embedding Long Short-Term Memory with temporal Attention)模型,將LSTM 嵌入門控機制并結合時間注意力進行單詞級別的融合。但是這兩種方法都忽略了各模態內部信息與模態之間交互作用的結合。

如何對模態內部信息與模態之間的交互作用進行建模是一個問題,文獻[17]中提出了張量融合網絡(Tensor Fusion Network,TFN),通過創建多維張量來模擬單個模態和交叉模態特征,將單模態、雙模態和三模態之間的相互作用結合起來,但其空間復雜度較高。隨著注意力機制(Attention Mechanism,AM)[18]的流行,越來越多的研究者將AM 應用于多模態情感分析中:文獻[19]中提出了多注意力循環網絡(Multi-Attention Recurrent Network,MARN),通過分配多個注意分數來模擬模態內部和跨模態之間的交互作用;文獻[20]中則提出了一種基于注意網絡和門控記憶的多視圖順序學習的神經網絡結構,對模態之間的交互作用進行建模,稱之為記憶力融合網絡(Memory Fusion Network,MFN);文獻[12]中利用動態融合圖代替MFN 中的注意網絡來學習模態動力學,得到了Graph-MFN(Graph Memory Fusion Network)模型;文獻[21]和文獻[22]則利用多頭注意力機制進行多模態情感分析研究。雖然上述文獻在精度度量方面取得了成功,但未對融合過程中的各個模態是如何參與交互創造新的見解,而且也沒有考慮各個模態的貢獻程度對最后情感分類結果的影響。

2 基于AMF-BiGRU多模態情感分析模型

圖1 為本文提出的基于注意力機制的特征融合-雙向門控循環單元多模態情感分析(AMF-BiGRU)模型框架。

圖1 AMF-BiGRU模型框架Fig.1 Framework of AMF-BiGRU model

AMF-BiGRU模型主要包括以下4個部分:

1)上下文話語特征表示,稱之為Level1。該部分主要是將提取出的文本、語音和圖像特征分別輸入BiGRU 網絡中,得到各自具有上下文信息的特征表示。

2)跨模態注意力交互(Cross-Modality Attention Interaction,CMAI),稱之為Level2。這一部分主要是將模態內部信息和模態之間的交互作用相結合,得到具有交互作用的各模態特征表示。

3)多模態注意力融合,稱之為Level3。該層主要使用注意力機制來考慮各模態的貢獻程度,并將多模態信息融合。

4)情感分類:將融合的多模態信息進行情感分類。

2.1 上下文話語特征表示

每段視頻可以看作是由一系列具有上下文關系的話語組成。假設共有N段視頻,其中任意視頻i的最大話語長度為Li,則視頻i的全部話語為:ui=ui1,ui2,…,。對于視頻i中的任意話語j,采用由卡內基梅隆大學提供的多模態數據SDK工具分別獲取文本、語音和圖像特征,可以得到視頻i中話語j的文本特征表示語音特征表示、圖像特征表示。假設各單模態特征有km維,對于模態m的每個話語特征可以表示為,將一段視頻中所有話語的特征存放于矩陣中得到:

其中:m代表哪個模態,且m∈{T,A,V},T 代表文本、A 代表語音、V代表圖像。

GRU 模型由更新門zt和重置門rt構成,結構簡潔,能夠有效緩解梯度爆炸或彌散問題。GRU可表示為:

其中:xit為視頻i中第t個話語的輸入特征為話語t的候選隱藏狀態,ht為話語t的隱藏層狀態;U、W和b分別為權重和偏置;δ函數為Sigmoid 激活函數,*表示矩陣對應元素相乘。雖然GRU 能夠解決話語的長期依賴問題,但并未利用話語之間的上下文信息。BiGRU不僅參數少,而且訓練快,能夠記住話語中上下文的長期依賴關系,輸出更緊湊的表達信息。因此本文采用BiGRU 模型去捕捉各模態中所有話語的上下文信息,其表達式如下:

2.2 跨模態注意力交互

多模態情感分析的一個挑戰在于如何有效地將模態內部信息與模態之間的交互作用相結合,而各個模態之間是如何參與交互的是一個令人深思的問題。在AMF-BiGRU 模型中,模態內部信息由Level1 中得到的具有上下文信息的特征表示;受文獻[23]的啟發,將具有上下文信息的特征通過CMAI網絡層,從而獲得模態之間的交互作用。此處CMAI 網絡層主要由三部分組成:

1)CMAI_TA(Cross-Modality Attention Interaction_Text Audio):將具有上下文信息的文本、語音特征輸入到CMAI_TA 網絡層中,獲得文本和語音之間的跨模態交互作用表示

2)CMAI_TV(Cross-Modality Attention Interaction_Text Visual):將具有上下文信息的文本、圖像特征輸入到CMAI_TV 網絡層中,獲得文本和圖像之間的跨模態交互作用表示

3)CMAI_AV(Cross-Modality Attention Interaction_Audio Visual):將具有上下文信息的語音、圖像特征輸入到CMAI_AV 網絡層中,獲得語音和圖像之間的跨模態交互作用表示

假設由CMAI_EQ(Cross-Modality Attention Interaction_EQ)網絡層獲得視頻i中模態E和模態Q之間的跨模態交互作用表示。其中,將Ei和Qi作為CMAI_EQ 網絡層的輸入特征??傻玫骄哂薪换プ饔玫哪BE 特征表示為,其計算公式如下:

2.3 多模態注意力融合

人們在進行情感表達時,并非所有的模態對情感分類都同等重要。有些人喜歡用浮夸的表情來表達自己的喜好,而有些人更傾向用音調的高低來進行情感的表達,所以各模態情感特征的貢獻程度對最后的情感分類會產生直接的影響。本文根據AM 確定各模態的貢獻程度,將在Level2 得到的模態m的特征輸入到注意力網絡,且模態m所占的注意力權重為βm,通過加權累加得到最后用于分類的融合總特征,計算的表達式為:

其中:Pm為隱藏單元狀態,分別是權重和偏置,βm是經歸一化后的權重向量。

2.4 情感分類

使用全連接層和softmax 函數對融合總特征進行情感分類,分類結果為:

式中:Wt、bt為全連接層的權重和偏置,Wsoft、bsoft為softmax 層的權重和偏置,yi為最終的情感分類結果。

2.5 優化策略

在訓練過程中,本文采用交叉熵作為損失函數,公式如下:

3 實驗結果與分析

3.1 實驗數據集

本文采用CMU-MOSI 和CMU-MOSEI 數據集進行仿真實驗。

1)CMU-MOSI(CMU Multimodal Opinion-level Sentiment Intensity)數據集:包括93段視頻、2 199個話語,每個話語都有一個與之相應的情感標簽。在本文中,獲取的文本、語音和圖像特征中每個話語的特征維度分別為100 維、73 維和100 維,每個話語的情感極性被標注為積極或消極。采用62 段視頻(1 447 個話語)作為訓練集、31 段視頻(752 個話語)作為測試集,并從訓練集中選取20%數據作為驗證集。

2)CMU-MOSEI(CMU Multimodal Opinion Sentiment and Emotion Intensity)數據集:是目前最大的視頻多模態情感分析數據集。包括3 229 段視頻、22 676 個話語,每個話語都有一個與之相應的情感標簽,其情感標簽范圍為[-3,+3]。在本文中,獲取的文本、語音和圖像特征中每個話語的特征維度分別為300 維、74 維和35 維,將情感極性大于等于0 的記為積極、小于0 的記為消極。采用2 250 段視頻(16 216 個話語)作為訓練集、679 段視頻(4 625 個話語)作為測試集、300 段視頻(1 835 個話語)作為驗證集。實驗數據集的統計信息如表1所示。

表1 實驗數據集的統計信息Tab.1 Statistics of experimental datasets

3.2 參數設置及評價指標

實驗代碼采用基于Tensorflow后端的Keras深度學習框架編寫。在模型的訓練過程中,參數設置十分重要,本文所提方法的參數設置如表2所示。

表2 實驗參數設置Tab.2 Experiment parameters setting

本文通過準確率(Accuracy)和F1 值(F1-Score)對情感分類的性能進行評估,F1 值是綜合考慮了精確率和召回率的指標。

3.3 實驗分析

為了驗證本文所提模型的有效性,對比實驗采用兩種形式:一是同AMF-BiGRU 模型的變體進行對比,二是同經典的多模態情感分析模型進行對比。

AMF-BiGRU 模型的變體有3 種:1)NM(No Model):不使用任何模型,直接將文本、語音和圖像特征拼接,然后送入softmax 分類器進行分類輸出。2)BiGRU:將各單模態特征分別輸入上下文BiGRU 層,并進行拼接分類輸出。3)CMAIBiGRU(Cross-Modality Attention Interaction Bidirectional Gated Recurrent Unit):在BiGRU 的基礎上,加入跨模態注意力交互網絡層,然后再分類輸出。

經典的多模態情感分析模型有以下6種方法:

1)BC-LSTM[15]。在提取各單模態特征時采用雙向LSTM網絡結構捕捉上下文信息。

2)GME-LSTM(A)[16]。將LSTM 嵌入門控機制并結合時間注意力進行單詞級別的融合。

3)TFN[17]。通過創建多維張量來模擬單個模態和交叉模態特征,將單模態、雙模態和三模態之間的相互作用結合起來。

4)MFN[20]?;谧⒁饩W絡和門控記憶的多視圖順序學習的神經網絡結構,很好地建模了模態間交互作用。

5)MARN[19]。通過分配多個注意分數來模擬模態內部和跨模態之間的交互作用。

6)Graph-MFN[12]。利用動態融合圖代替記憶力融合網絡中的注意網絡來學習模態動力學。

在以下表格中,各符號代表含義為:文本(Text,T)、圖像(Visual,V)、語音(Audio,A),T+V 表示文本與圖像融合,T+A表示文本與語音融合,V+A 表示圖像與語音融合,T+V+A 表示文本、圖像與語音融合。

表3和表4分別顯示了本文所提AMF-BiGRU 模型及其變體在CMU-MOSI、CMU-MOSEI 數據集上的準確率和F1 值對比。就單模態特征、雙模態融合特征以及三模態融合特征而言,本文將AMF-BiGRU 模型同其變體進行對比分析。對比BiGRU 與NM 模型,在CMU-MOSI 數據集上,BiGRU 比NM 在分類準確率上提升了2.52%~10.94%,在F1 值上提升了2.14%~10.65%;在CMU-MOSEI數據集上,BiGRU 比NM 在分類準確率上提升了0.61%~3.52%,在F1 值上提升了1.37%~4.07%。由此可見,加入BiGRU 來考慮話語中上下文的依賴關系是有效的。

由于跨模態交互作用需要在兩個模態及以上進行,由表3 和表4 可以看出,在CMU-MOSI 數據集上,CMAI-BiGRU 比BiGRU 在分類準確率上提升了0.29%~4.94%,在F1 值上提升了0.14%~4.16%;在CMU-MOSEI 數據集上,CMAI-BiGRU比BiGRU 在分類準確率上提升了0.21%~0.64%,在F1 值上提升了1.10%~1.49%。實驗結果表明,考慮跨模態交互作用能提高情感分類性能。

表3 AMF-BiGRU模型及其變體在CMU-MOSI數據集上的準確率和F1值對比 單位:%Tab.3 Comparison of accuracy and F1-Score among AMF-BiGRU model and its variants on CMU-MOSI dataset unit:%

表4 AMF-BiGRU模型及其變體在CMU-MOSEI數據集上的準確率和F1值對比 單位:%Tab.4 Comparison of accuracy and F1-Score among AMF-BiGRU model and its variants on CMU-MOSEI dataset unit:%

對比AMF-BiGRU 與CMAI-BiGRU 模型:在CMU-MOSI 數據集上,AMF-BiGRU 比CMAI-BiGRU 在分類準確率上提升了1.08%~4.03%,在F1 值上提升了1.20%~3.48%;在CMUMOSEI 數據集上,AMF-BiGRU 比CMAI-BiGRU 在分類準確率上提升了0.52%~1.96%,在F1 值上提升了0.77%~2.13%。由此可見,各模態的貢獻程度會對最后的情感分類結果產生影響,而本文提出的AMF-BiGRU模型情感分類效果最好。

由表3 和表4 可以看出,在兩個數據集上,對于任一種模型,利用單模態特征進行分類時,文本特征的分類準確率和F1 值最高,那是因為文本中通常包含更豐富的信息;利用雙模態融合特征進行分類時,文本-圖像、文本-語音的分類性能相當,但雙模態融合特征的分類性能都比其單模態特征好;利用三模態融合特征進行分類時的效果最好。所以,將文本、語音和圖像這三種特征進行有效融合有助于提高情感分類的性能。而本文提出的AMF-BiGRU 模型在三模態融合特征中的分類效果最好,其在CMU-MOSI 數據集上的準確率和F1 值分別達到了82.05%、82.02%;在CMU-MOSEI 數據集上的準確率和F1值分別達到了78.48%、78.16%。

就三模態融合特征而言,表5 顯示了AMF-BiGRU 模型與經典的多模態情感分析方法在CMU-MOSI 和CMU-MOSEI 數據集上的準確率和F1 值對比。對于CMU-MOSI 數據集,本文所提模型在準確率上比BC-LSTM、GME-LSTM(A)、TFN、MARN 方法分別提升了2.18%、7.25%、6.42%、6.01%,在F1值上比BC-LSTM、GME-LSTM(A)、TFN、MARN 方法分別提升了2.40%、11.74%、5.29%、6.52%。

表5 不同方法在CMU-MOSI和CMU-MOSEI數據集上的準確率和F1值對比 單位:%Tab.5 Comparison of accuracy and F1-Score among different methods on CMU-MOSI and CMU-MOSEI datasets unit:%

對于CMU-MOSEI 數據集,本文所提模型在準確率上比BC-LSTM、MFN、MARN、Graph-MFN 方法分別提升了1.13%、3.26%、2.72%、2.05%,在F1 值上比BC-LSTM、MFN、MARN、Graph-MFN方法分別提升了1.11%、2.84%、2.30%、1.51%。

實驗結果表明,提出的AMF-BiGRU 模型的準確率和F1值在CMU-MOSI 和CMU-MOSEI 數據集上均優于對比方法。分析結果產生的原因,AMF-BiGRU 模型的優越性在于:首先使用BiGRU 充分利用了上下文話語間的互補信息;其次使用CMAI網絡層將兩個模態之間的交互作用進行了很好的結合,考慮了模態間的動態聯系;最后使用注意力機制為每個模態分配一個權重,使權重較大的模態更有助于情感分類。

3.4 耗時分析

在常用的計算機處理器上對每個話語進行情感預測,具體實驗環境為:Intel Core i5-7500 CPU 3.40 GHz,8.00 GB RAM,Windows 10,Python 3.6.5。AMF-BiGRU 模型在CMUMOSI 和CMU-MOSEI 數據集上的實際處理速度如表6 所示。從表6 可以看出,對于CMU-MOSI 數據集,每個話語的平均預測耗時為3.067 ms,遠小于每個話語的平均時長4.536 s;對于CMU-MOSEI 數據集,每個話語的平均預測耗時為1.544 ms,遠小于每個話語的平均時長7.158 s,所以能夠滿足實時性要求。之所以這兩個數據集的平均預測耗時不同,是因為這兩個數據集的特征提取方式不同,導致每個話語中各模態的特征向量維度不同,計算機的處理速度會有所差異。

表6 不同數據集中每個話語的耗時情況Tab.6 Time consumption of each utterance in different datasets

此外,本文還對不同方法在CMU-MOSI和CMU-MOSEI數據集上預測每個話語的耗時情況進行了對比,如表7所示。

表7 不同方法在CMU-MOSI和CMU-MOSEI數據集上預測每個話語的耗時對比Tab.7 Time consumption comparison of different methods to predict each utterance on CMU-MOSI and CMU-MOSEI datasets

從表7 可以看出,將這些模型應用于視頻話語情感預測時,每個話語的平均預測耗時均遠小于平均時長,實時性都比較高。對于CMU-MOSI數據集,BC-LSTM 模型比較簡單,所以其預測耗時最小;GME-LSTM(A)模型加入了門控和短時注意力,所以其結構較BC-LSTM 復雜,預測耗時相應增加;TFN 模型使用了張量網絡,MARN 模型運用多模注意力塊,涉及大量的張量運算,這兩個預測耗時是最多的;AMF-BiGRU 模型引入了跨模態注意力交互和多模態注意力融合層,其預測耗時位列第三,但和對比模型都相差不大。對于CMU-MOSEI數據集,BC-LSTM 模型預測耗時最??;MFN 模型使用記憶注意網絡學習多視圖之間的交互,其預測耗時增加;Graph-MFN 模型使用動態融合圖替代MFN 模型中的記憶注意網絡,增加了更復雜的張量運算,所以其預測耗時最多;從整體來看,AMFBiGRU模型與對比模型在每個話語的平均預測耗時方面都相差不大,都能很好地滿足實時性需求。

3.5 例子分析

為了更好地體現本文所提方法的泛化性,采用一些實際數據在AMF-BiGRU 模型上進行測試,如表8 所示。表8 中所列話語為一段視頻中的連續幾個話語片段,表中列出了每個話語的文本(T)、圖像(V)、語音(A)的實際表示,以及真實情感與預測情感的情感極性。

表8 多模態情感分析的例子Tab.8 Examples of multimodal sentiment analysis

圖2 視頻圖片Fig.2 Pictures of a video

可以看出,從文本、圖像、語音任意單模態信息中,話語1和話語3都可以明顯地表示出消極的情感,話語5可以明顯地表示出積極的情感,所以情感預測正確。雖然話語2 中的文本表示比較含蓄,而且帶有微笑的表情,但是其音調低、語速偏慢,它的下文(即話語3)情感極性是消極的,所以可以正確地預測出話語2 表示的是消極的情感。話語4 中圖像和語音表現出中性情感,但其文本很明顯地表示出積極,所以可以正確預測出其情感極性為積極。通過這個多模態情感分析的例子,可以表明AMF-BiGRU 模型能將文本、圖像、語音這三種模態信息有效融合,正確預測出每個話語的情感極性。

4 結語

為了有效地將視頻中所包含的情感進行分類,提出了一種AMF-BiGRU 模型進行視頻多模態情感分析研究。首先,使用BiGRU 獲取視頻中話語之間的上下文信息;然后,使用跨模態注意力交互網絡獲取兩個模態之間的交互作用;最后,引入注意力機制來考慮各個模態的貢獻程度。在公開的CMUMOSI 和CMU-MOSEI 數據集上進行驗證分析,實驗結果表明本文提出的AMF-BiGRU 模型可以很好地將多模態特征融合,提高多模態情感分類性能。在整體上,本文所提出的方法在準確率以及F1 值上均優于其他方法。如何提高多模態情感分析模型的魯棒性是下一步的主要研究內容。

猜你喜歡
模態分類特征
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
國內多模態教學研究回顧與展望
基于HHT和Prony算法的電力系統低頻振蕩模態識別
由單個模態構造對稱簡支梁的抗彎剛度
計算物理(2014年2期)2014-03-11 17:01:39
主站蜘蛛池模板: 色婷婷成人网| 日本午夜三级| 国产美女免费| 激情综合激情| 日韩毛片视频| 亚洲va欧美ⅴa国产va影院| 蜜臀av性久久久久蜜臀aⅴ麻豆| 午夜久久影院| 欧美成人在线免费| 88av在线看| 99er精品视频| 日韩午夜片| 99热亚洲精品6码| 黄色不卡视频| 秋霞国产在线| 欧美午夜在线视频| 国产毛片高清一级国语| AV天堂资源福利在线观看| 日韩在线1| 久久综合丝袜日本网| 午夜啪啪福利| 在线观看精品自拍视频| 国产欧美日韩一区二区视频在线| 亚洲精品无码在线播放网站| yjizz国产在线视频网| 国产成人免费观看在线视频| 亚洲伊人久久精品影院| 国产乱子伦视频三区| 欧美成人国产| 自拍中文字幕| 日韩福利在线视频| 午夜不卡视频| 91毛片网| 五月婷婷丁香色| 第一页亚洲| 在线国产毛片手机小视频| 四虎永久在线视频| 国产精品亚洲天堂| 日韩国产 在线| 久久人搡人人玩人妻精品| 精品视频福利| 久久综合色天堂av| 欧美特黄一免在线观看| 欧美专区日韩专区| 国产欧美精品午夜在线播放| 人妻丰满熟妇αv无码| 中文字幕 日韩 欧美| 久久一级电影| 日韩美女福利视频| 91啦中文字幕| 91香蕉视频下载网站| 77777亚洲午夜久久多人| 欧美日韩国产高清一区二区三区| AV无码一区二区三区四区| 亚洲人成亚洲精品| 亚洲国产中文欧美在线人成大黄瓜| 久草网视频在线| 91九色国产在线| 亚洲日韩精品无码专区| 超清无码一区二区三区| av在线手机播放| 亚洲精品天堂自在久久77| 国产人碰人摸人爱免费视频| 免费不卡视频| 国产免费福利网站| 天堂va亚洲va欧美va国产| 亚洲国产清纯| 成人综合网址| 久久久久亚洲Av片无码观看| 91蜜芽尤物福利在线观看| 国产亚洲成AⅤ人片在线观看| 伊人91在线| 国产欧美日韩va另类在线播放| 亚洲精品国产精品乱码不卞| 国产毛片片精品天天看视频| 干中文字幕| 无码国内精品人妻少妇蜜桃视频| 很黄的网站在线观看| 天堂中文在线资源| 波多野结衣中文字幕一区二区| 亚洲侵犯无码网址在线观看| 国产人在线成免费视频|