999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于關系自適應解碼的實體關系聯合抽取

2021-01-21 03:22:46丁相國桑基韜
計算機應用 2021年1期
關鍵詞:單詞模型

丁相國,桑基韜

(北京交通大學計算機與信息技術學院,北京 100044)

0 引言

知識圖譜在問答系統[1]、醫療文本挖掘[2]、推薦系統[3]、文本生成[4]等領域已經變得非常重要,然而大規模的知識圖譜都是由數以萬計的實體和關系組成,人工無法應對如此大規模的圖譜構建,于是從非結構化文本中抽取實體和關系變得尤為重要。

在以往的大多數實體關系抽取工作中,研究者往往采用的是流水線模型[5-7]。流水線模型的思想是先進行實體識別,再進行關系分類,任務的分離使此類模型存在誤差傳遞問題,即實體識別的錯誤會傳遞到關系分類中;并且此類模型忽略了實體識別和關系分類兩個任務之間的關聯信息。

編碼器-解碼器模型近年來備受關注,它能夠很好地處理序列生成問題,比如在翻譯模型中,將原始語言編碼,通過編碼信息解碼生成目標語言。編碼器-解碼器模型能夠將實體關系聯合抽取問題轉化為序列生成問題,自然地解決了上文流水線模型所提的兩種問題。近期,許多關系抽取工作[8-10]都是圍繞著編碼器-解碼器展開。

雖然以往基于編碼器-解碼器的模型[8-10]取得了優秀的效果,但是它們還是存在兩點問題:

一是在解碼階段,同時生成實體和關系,兩者是不同的對象,同一語義空間的映射降低了兩者的抽取效果。例如,對于三元組(India,Goa,contains)的生成,解碼階段既要生成實體India 和Goa,也要生成關系contains,兩種不同含義的對象使解碼器很難準確地映射。

二是沒有考慮不同關系之間的交互信息。以往模型更加注重的是實體與關系之間的交互信息,然而關系之間實際也存在著相關信息。語義相似性強的關系之間具有非常豐富的交互信息,特別是對于具有重疊實體的三元組,例如(India,Goa,administrative-divisions)的關系可以從(India,Goa,contains)中推斷出來,也可以從(Goa,India,country)推斷出來;administrative-divisions、contains、country 三個關系具有較強的語義相關性。

本文提出的基于關系自適應解碼模型,將不同關系分而治之,模型通過共享的模型結構,將實體關系抽取任務轉化為對應關系的實體對生成問題。如圖1 所示,模型根據不同的關系輸入,自適應輸出相應關系的實體對,不同關系又共享同一編碼器-解碼器進行聯合共享學習。

圖1 本文模型的輸入和輸出Fig.1 Input and output of the proposed model

不同關系分而治之,使解碼階段專注于對應關系的實體對生成。雖然輸出階段不包括關系的生成,但是生成的實體對隱含了輸入的關系,也就是實體對的生成隱含了關系抽取。如圖1 所示,輸入一個句子和關系,模型專注于對應實體對的生成。簡單地將不同關系分離成不同的模型,模型會丟失關系之間的交互信息;本文將不同關系共享同一編碼器-解碼器模型,共享的模型聯合學習不同關系,充分地考慮不同關系之間的交互信息。其次,本文對解碼器進行了改進,類似于文本摘要模型[11],本文在解碼器的映射層考慮當前時刻隱向量的注意力信息并在下一時間步的輸入考慮上一時刻的注意力信息,當未登錄詞出現時能夠以映射層注意力分數最高的詞代替,以減緩未登錄詞帶來的影響。經過實驗結果表明,所提模型在紐約時報(New York Times,NYT)數據集上得到了令人鼓舞的效果。

在實際場景中,需求是動態變化的,往往會添加新的實體關系抽取需求。本文將已有的關系稱為源域關系,添加的關系稱為目標域關系。以往的模型需要將目標域關系加入源域關系中,重新整理數據,從頭訓練模型。本文基于關系自適應解碼的模型,整體參數共享,保留了不同關系的共性信息,能夠分別處理不同關系;所以本文模型能夠單獨在目標域關系上微調,模型在F1 指標上有不錯表現的同時能夠縮短訓練時間。

本文的主要工作如下:

1)本文將實體關系聯合抽取任務轉化為對應關系的實體對生成任務。模型將不同關系分而治之,根據不同關系自適應輸出相應的實體對,在解碼階段更加專注于對應關系的實體對生成。同時不同關系之間共享同一模型參數,充分地考慮了不同關系之間的交互信息。

2)模型能夠適用于動態關系抽取需求的場景,能夠遷移到目標域關系上。在目標域關系上微調的效果要優于從頭開始訓練。

3)本文模型在NYT 數據集上比目前的先進模型具有更好的表現。

1 相關工作

從非結構化文本中抽取實體和關系一直以來都是信息抽取的重要任務之一,實體關系三元組的抽取對其他自然語言處理任務有非常重要的意義。早期的一些工作主要使用流水線模型。此類方法存在兩個任務之間誤差傳遞的問題,即實體識別的誤差會影響關系分類的效果,而且此類方法忽略了實體與關系之間的交互信息。后續一些工作[12-13]通過設計復雜的特征對實體關系進行抽取,但是這些工作需要專家參與特征的設計。近期有一些工作[14-15]使用神經網絡的方法自動地學習特征,他們通過對模型的部分參數共享,得到的實體識別的結果,通過最后的決策階段對所有的實體進行關系分類;但是他們定義了兩個損失函數,使此類模型還是分成了兩個任務,沒有充分地考慮實體與關系之間的交互信息。文獻[16]首次使用了一種新穎的標注機制對每個單詞標注,將問題轉化為序列標注問題,它首次考慮兩個任務之間交互信息,但是由于每個單詞只能標注一種標簽,模型不能處理具有重疊實體的關系三元組。

最近,許多研究者針對具有重疊實體的關系三元組展開了很多工作,其中:文獻[17]將句子的所有單詞作為圖中的節點,單詞的依存語法作為圖中的初始邊,使用圖卷積網絡對關系進行預測。文獻[18]使用兩層的強化學習分別對實體和關系進行抽取。目前最為出色的一些工作[8-10],使用編碼器-解碼器模型生成實體關系三元組,將問題轉化為序列生成問題,自然地解決了關系三元組中存在的重疊問題,其中文獻[10]取得了在NYT 數據集上最好的效果,但是這些優秀的模型沒有考慮解碼階段的實體和關系是兩個不同的對象以及不同關系之間是存在交互信息的。

目前,絕大部分共享模型都是共享單詞嵌入層,或者編碼層等部分模型,例如在多任務學習[19]中共享部分模型。很少有工作將整個編碼器-解碼器共享;文獻[20]中使用了共享的編碼器-解碼器學習不同摘要風格的平均風格,這給予了本文啟發。

本文模型將不同關系分而治之,不同關系共享整個編碼器-解碼器模型;模型根據輸入的關系自適應輸出相應的實體對,使解碼階段更專注于對應關系的實體生成,并且模型通過共享機制充分利用不同關系之間的交互信息。

2 本文模型

實體關系三元組是由頭實體、尾實體、關系組成,實體關系抽取的目標是從句子中抽取出所有的實體關系三元組。在本文的模型中,以句子、關系作為輸入,輸出為對應關系的實體對(頭實體,尾實體),實體對之間隱含了輸入的關系。如圖1 所示,模型輸出的實體對,根據輸入的關系擴展為實體關系三元組,所有關系擴展的三元組經過整合得到句子關系抽取最終的結果。

在模型實際輸出中,跟翻譯模型類似,會有幾個特殊字符的存在,例如“<sos>頭實體1;尾實體2 | 頭實體1;尾實體3<eos>”;其中<sos>和<eos>表示輸出結果的開始和結束。在測試階段,解碼階段輸出<eos>表示解碼的結束,輸出結果只有<sos>和<eos>表示該關系下沒有實體對,例如圖1 的null。“;”分割實體對中的頭實體和尾實體,“|”分割不同的實體對。

其中,RAD(Relation-Adaptive Decoding)為關系自適應解碼模型,s為輸入句子,rj表示關系j,|R|表示關系的數量,T為s中所有的關系三元組,其中一些關系三元組可能為空。

模型的詳細結構如圖2 所示,圖2 僅展示了contains 關系的模型結構,其他關系共享同一模型結構,訓練時,所有關系聯合共享學習,所以其他關系不再進行展示。模型由編碼器和解碼器構成,句子在編碼器階段輸入,關系在解碼器階段輸入,對應的關系實體對在解碼器映射層輸出。本章將對編碼器、解碼器、損失函數分別進行介紹。

圖2 本文模型框架Fig.2 Architecture of the proposed model

2.1 編碼器

輸入的句子s通過編碼器得到句子的上下文隱向量表示其中為第i個單詞的隱含向量表示,n為句子長度。編碼器由嵌入層和編碼層構成。

2.1.1 嵌入層

句子s={w1,w2,…,wn}經過嵌入層得到單詞向量表示X={x1,x2,…,xn},其中wi表示第i個單詞,xi表示第i單詞的向量表示。單詞的向量表示X的計算過程如下:

單詞的向量表示X由單詞嵌入和單詞的字符特征表示Cw={c1,c2,…,cn}連接而成,||表示向量的連接。表示第i個單詞的嵌入表示,ci表示第i個單詞的字符特征向量。單詞和字符的嵌入通過維護查找表,根據索引對嵌入表示查詢,查找表隨著訓練不斷地更新。根據文獻[21],本文模型使用帶有最大池化的卷積網絡提取單詞的字符特征向量,如式(3)所示,MaxPool(ConV())表示帶有最大池化的卷積網絡。為字符的嵌入表示。其中

2.1.2 編碼層

雙向長短期記憶(Bi-directional Long Short-Term Memory,Bi-LSTM)考慮了當前時間步的輸出不僅和之前的狀態有關,還可能和未來的狀態有關,雙向LSTM 在自然語言處理的各個領域展現出了它的優勢。為了更好地對輸入句子進行編碼,本文使用雙向LSTM作為編碼層。單詞的向量表示X通過雙向LSTM得到編碼層隱含向量表示HE:

2.2 解碼器

在解碼器中,本文使用單向的LSTM 從左到右在每一個時間步t對相應的實體或特殊字符進行預測。解碼單元以關系嵌入,上下文向量et,上一時間步的結果yj,t-1作為輸入,通過解碼層和映射層得到最終的結果。其中,關系嵌入類似于詞嵌入,根據關系索引rj查詢查找表得到關系的向量表示,查找表隨機初始化,隨著訓練不斷地更新。

2.2.1 注意力層

注意力機制[22]最早應用在圖像領域,在自然語言處理領域中,通過注意機制動態獲取編碼器隱向量的不同權重,從而得到基于解碼器隱向量的動態上下文向量。本文通過注意力機制獲取上下文向量et:

其中,注意力機制Attention具體計算過程如下。

其中:Wu、Wq、bq、Va為訓練參數;at表示t時刻對第i個單詞的注意力分數。

2.2.2 解碼層

本文模型的解碼層輸入不僅僅要考慮上一步的輸出結果,也考慮了上一步的注意力信息。通過解碼層得到每個時間步的隱含向量表示:

其中:yj,t-1表示上一時間步結果的嵌入表示為時間步t的解碼器隱含向量表示,et-1為上一時刻的上下文向量表示,LSTMD為解碼器LSTM 計算單元。在訓練階段,yj,t-1使用上一個時間步真實的結果,在測試階段本文模型使用上一時間步預測的結果。

2.2.3 映射層

以往的關系抽取模型[8-10],映射層僅僅考慮當前時刻的隱向量,本文認為當前時刻的注意力信息有助于映射層的推斷,并且對于未登錄詞的推斷,使用當前時間步的注意力信息更加合理。在映射層,本文同時考慮了當前時刻的上下文向量、關系嵌入、上一時刻的隱向量,映射層將解碼信息映射到預先在訓練集構建的詞典中:

2.3 損失函數

對于輸出結果Tj={vj,1,vj,2,…,vj,m},其中:m表示輸出序列的長度;vj,t表示關系j下t時刻的輸出結果;v:,1和v:,m分別為<sos>、<eos>,表示輸出結果的開始和結束。

本文使用負對數似然函數作為損失函數:

其中:Lossj是關系j的損失函數,sb為訓練批次中第b個句子,Θ為模型所有的參數。

在目標域關系訓練的場景中,損失函數如下所示:

其中:rt是目標域關系,此時模型的損失為關系rt的損失函數;模型初始參數Θrt為源域關系訓練過的參數,關系rt的嵌入表示隨機初始化。

3 實驗結果與分析

3.1 數據集

本文使用紐約時報(NYT)數據集作為實驗數據集。NYT數據集有多個版本,本文使用NYT24、NYT29作為本文的實驗數據集。兩個數據集的統計信息如表1 所示,其中NYT24 中有24種關系,NYT29中有29種關系。數據集中訓練集占原始數據的90%,其中驗證集從訓練集劃分出10%。為了具有可比較性,基線模型使用同樣的訓練集、測試集劃分。

表1 兩個數據集的統計信息Tab.1 Statistics of two datasets

3.2 實驗設置

與基線模型相同,本文使用word2vec[23]得到的單詞向量表示初始化模型的單詞嵌入。對于模型的關系嵌入,本文模型進行隨機初始化。其中,單詞嵌入維度大小dw為300,單詞的字符特征表示維度dcf為50,單詞的字符嵌入表示dc維度大小為50,關系嵌入維度dr為100,隱含層向量維度dh為300。本文使用Dropout[24]來預防模型過擬合,其中Dropout 的大小為0.3,本文使用了EarlyStoping 機制,即模型效果在驗證集上5 次沒有提高,則停止模型訓練。本文使用Adam[25]作為模型的優化器。驗證集用于獲取最優結果的模型,獲取的模型用于測試集上測試。

3.3 基線模型和評價指標

Tagging[16]:此模型使用序列標注機制對每一個單詞打標簽。此模型考慮了實體和關系之間的交互信息。

CopyR(using Copy mechanism for Relation extracting)[8]:此模型首次使用了帶有copy 機制的編碼器-解碼器模型,但是它每次只復制實體的其中一個單詞。本文使用它具有最好表現的多解碼器模型作為基線模型。

GraphR(using relational Graphs for Relation extracting)[17]:此模型將句子中的所有單詞作為圖中的節點,依存關系作為圖中的邊,使用圖卷積網絡對圖中節點關系預測。

HRL(Hierarchical Reinforcement Learning)[18]:此模型使用兩層強化學習的方法對實體關系進行聯合抽取,第一層抽取實體,第二層抽取關系。但是此模型不能保證每次都能抽取出兩個實體。

CopyMTL(Copy mechanism with Multi-Task Learning)[9]:此模型是對CopyR 模型的改進,模型使用多任務學習的方法抽取實體和關系,解決了CopyR不能抽取多單詞實體的問題。

WDec(Word Decoding)[10]和PNDec(Pointer Networkbased Decoding)[10]:兩個模型是文獻[10]提出的,WDec 使用帶掩碼機制編碼器-解碼器對實體關系抽取,PNDec每一個時間步輸出一個三元組。目前WDec 是NYT 兩個數據集上最先進的模型。

其中Tagging 是首次以聯合的方式進行實體關系抽取的模型,CopyR、CopyMTL、WDec、PNDec 模型是基于編碼器-解碼器的模型。其他基線模型都是近兩年實體關系抽取任務中優秀的模型。

本文使用實體關系聯合抽取通用的評估指標:精確率(Precision)、召回率(Recall)和F1 值,F1 值能夠反映模型的整體效果。對于每個關系的提取的實體對,如圖1 所示,本文先進行去重,最終整合所有關系的三元組,整合結果和測試集中的三元組進行比較。三元組(頭實體,尾實體,關系)的所有元素和順序全部正確,本文才認為該三元組的結果是正確的。

3.4 實驗結果

3.4.1 總體效果

在基線模型中,HRL模型使用文獻[10]的實驗結果,其他基線模型使用模型對應文獻報告的實驗結果。與HRL 和WDec 相同,本文的模型運行5 次,取所有結果的中位數。本文在復現WDec 模型時發現,WDec 實際結果中會比文獻報告的效果要差一些,但是本文仍然使用文獻中報告的結果作為模型的結果。

表2 中列出了所有模型的效果,其中“—”表示該模型未在該數據集上進行驗證。從表2 中可以看出WDec 模型在所有的基線模型中各項指標中效果最好。本文模型在NYT 兩個數據集上的F1 值分別比WDec 模型提高了2.5 個百分點和2.2個百分點。特別是在召回率上,本文模型分別比WDec 提高了4.5 個百分點和3.4 個百分點。對比經典的Tagging 模型,本文模型F1值分別提高了42.2個百分點和24個百分點。對比基于copy 機制的編碼器-解碼器模型CopyMTL,本文模型F1 值在NTY24 上提高了12.2 個百分點。本文模型相比其他基線模型各評估指標都有比較大的提升。本文模型在保證精確率的同時,較大幅度地提升了召回率,最終提高了模型的F1值。隨后,本文進行了模型融合[10],即5次模型訓練的測試結果進行融合,抽取出現3 次及其以上的三元組作為模型融合的結果。

表2 NYT數據集的結果Tab.2 Results on NYT datasets

如表2 中的模型融合結果所示,相比WDec,本文模型的融合結果在NYT24 數據集上F1 值提升了2.4 個百分點,在NYT29數據集F1值上提升了0.7個百分點。

3.4.2 消融研究

此部分實驗研究編碼器-解碼器模型的共享機制和改進的解碼器對模型的影響。

S_ensemble 模型是指不同關系不再共享同一編碼器-解碼器模型,而是每個關系獨立對應一個編碼器-解碼器單獨訓練,最終也是由多個關系進行聚合得到所有的三元組結果。如表3 所示,本文模型相比S_ensemble 模型的F1 值在兩個數據集上分別提升了3.7 個百分點和6.3 個百分點。結果表明了本文提出的共享機制考慮了不同關系之間的交互信息,有效地提高了實體關系抽取的效果。同樣是多個關系的結果聚合,本文模型在F1值上能夠具有明顯提升。

表3 模型消融結果Tab.3 Ablation results of models

N_Decoder 模型是在WDec 模型中將解碼器替換成本文改進的解碼器。從表3 中可以看出,N_Decoder 模型比WDec模型在兩個數據集上F1值分別提升了0.8個百分點和1.3個百分點。解碼階段考慮當前時間步的注意力信息以及未登錄詞的推測使用當前時間步的上下文信息,使解碼階段更加準確地提取實體和關系。

3.4.3 結果分析

基于編碼器-解碼器模型的實體關系抽取任務主要是由實體生成任務和關系抽取任務組成。實體生成任務本文只關注三元組中的實體,關系生成任務本文只考慮三元組中的關系。如表4 所示,本文模型在實體生成任務中F1 值在兩個數據集上分別提升了2.2個百分點和3.1個百分點,特別在召回率上分別提升了4 個百分點和5.3 個百分點。在關系抽取任務中F1 值分別提升了3 個百分點和3.5 個百分點,召回率提升了5.8 個百分點和6.7 個百分點。本文模型根據不同關系自適應輸出相應的實體對,使模型輸出階段更加關注實體的生成,提高了實體生成的召回率,提升了模型在兩個任務的效果,最終綜合提高了模型的整體效果。

表4 實體生成和關系生成的結果Tab.4 Results of entity generation and relation generation

3.4.4 關系向量可視化

本文將模型學習到的部分關系嵌入表示進行可視化,關系嵌入兩兩之間做余弦相似度,其結果作為熱圖展示,其中,顏色越深表示相似度越大。如圖3 所示,語義之間具有聯系的關系之間相似度也會大,例如people 和ethnicity、majorshare-holder-of 和major-shareholders 具有較強的語義關系,其嵌入的相似度也較高。數據集中有一些關系數據量特別少,關系之間區分與聯系不如數據豐富的其他關系,但是本文模型依然能夠通過共享的模型在少量數據關系上表現不錯的效果。從統計意義上講,關系嵌入能夠通過共享的模型學習到全局的語義信息,表明共享模型機制能夠到學習不同關系交互信息。

圖3 關系相似度熱圖Fig.3 Heatmap of relation similarity

3.4.5 遷移實驗

在實際的場景中,往往隨著需求的變化,會有抽取目標域關系的需求,以往的模型需要重新將目標域關系加入源域關系數據中,重新進行訓練;而本文的關系自適應模型能夠適應此場景,能夠將先驗信息和不同關系的共性信息遷移到目標關系上,提升目標域關系的訓練效果。

本文將數據量在100以上的關系分為3組,用任意兩組關系數據作為源域關系進行預訓練,剩下的一組關系作為目標域關系中分別進行模型微調。如圖4所示,本文將3次實驗的目標域關系結果進行整合,single_model 是指模型在目標域關系上從零開始訓練,不使用先驗的模型進行微調,fine_tune_model 是目標域關系經過源域關系模型微調之后的模型結果。圖4 中橫坐標為目標域關系,圖中的各個拐點表示不同關系的結果,縱坐標為F1 值。從圖4 中可以看出幾乎所有的目標域關系經過微調的效果都比從零訓練的F1值高,而且實驗發現,fine_tune_model 模型訓練速度要快,能夠在很少的epoch 上達到驗證集上的最好效果。結果不僅表明本文模型適應目標域關系加入的場景,而且能夠學習到不同關系之間以及實體與關系之間的交互信息,這些先驗的交互信息能夠幫助目標域關系的訓練和推斷。

圖4 目標域關系微調結果Fig.4 Fine-tuning results of target domain relations

4 結語

本文提出的基于關系自適應解碼的實體關系聯合抽取模型,將抽取任務轉化為不同關系的實體對生成任務,模型根據不同的關系自適應輸出相應的實體對。模型不僅能夠在解碼階段更加注重實體的生成,而且模型的參數共享能夠利用到不同關系之間的交互信息。本文模型可以在目標域關系上遷移,能夠適用于動態關系抽取的需求。本文的模型也在各項實驗中表現了出色的成績。

同時,本文的模型也具有非常大的潛力,關系嵌入可以看作模型的一個插件,我們的未來工作是能夠實現終身學習,在只訓練插件的情況下實現實體關系的抽取。本文模型學習到的關系嵌入表示具有關系語義信息,此嵌入表示可以輔助其他任務,例如知識圖譜關系預測等。

猜你喜歡
單詞模型
What’s This?
Exercise 1
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
單詞連一連
看圖填單詞
看完這些單詞的翻譯,整個人都不好了
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 一级毛片免费不卡在线视频| 麻豆国产精品一二三在线观看| 国产18在线播放| 91亚洲视频下载| 亚洲综合久久成人AV| 毛片免费高清免费| 九九久久精品国产av片囯产区| 国产视频入口| 1769国产精品视频免费观看| 精品亚洲国产成人AV| 美女内射视频WWW网站午夜| 国产美女精品在线| 亚洲第一成年网| 在线免费看黄的网站| 永久在线精品免费视频观看| 亚洲无码不卡网| 日韩国产高清无码| 亚洲最大在线观看| 美女国内精品自产拍在线播放| 中文成人在线| 日韩欧美高清视频| 国产精品片在线观看手机版 | 国产三级毛片| 欧美成a人片在线观看| 男女男精品视频| 青青青国产免费线在| 国国产a国产片免费麻豆| 欧美精品v| 国产亚洲精品在天天在线麻豆| 亚洲 欧美 日韩综合一区| 久久黄色一级视频| 国产91全国探花系列在线播放| 亚洲第一天堂无码专区| 精品欧美日韩国产日漫一区不卡| 福利一区在线| 色窝窝免费一区二区三区| 国产地址二永久伊甸园| 国产成人精品日本亚洲| 中文字幕在线不卡视频| 91精品视频网站| 激情乱人伦| 深夜福利视频一区二区| 在线国产你懂的| 欧美日韩综合网| 亚洲无码精品在线播放| 伊人五月丁香综合AⅤ| 四虎国产精品永久一区| 国产精品亚洲日韩AⅤ在线观看| 一本二本三本不卡无码| 国产剧情伊人| 2021精品国产自在现线看| 日本日韩欧美| 精品小视频在线观看| 国产91在线|日本| 人人看人人鲁狠狠高清| 国产jizz| 茄子视频毛片免费观看| 美女毛片在线| 欧美精品v| 99热这里只有免费国产精品| 国产欧美日韩综合在线第一| 欧美自慰一级看片免费| 国产青青操| 欧美成在线视频| 国产精品吹潮在线观看中文| 国产第一色| 成人无码一区二区三区视频在线观看| 亚洲乱伦视频| 国产精品人莉莉成在线播放| 激情综合网址| 成人一级免费视频| www.亚洲色图.com| 精品国产亚洲人成在线| 亚洲综合在线网| 国产大片黄在线观看| 国产成人精品午夜视频'| aa级毛片毛片免费观看久| 爱爱影院18禁免费| 污污网站在线观看| 98超碰在线观看| 澳门av无码| lhav亚洲精品|