999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合全局—局部特征的多粒度關系檢測模型

2023-01-01 00:00:00邱婉春徐建
計算機應用研究 2023年2期

摘 要:面向知識庫問答的關系檢測旨在從知識庫的候選關系中選出與自然語言問題最匹配的關系路徑,從而檢索得到問題的正確答案。針對現有關系檢測方法中存在的語義信息丟失和注意力交互不充分的問題,提出了一種融合全局—局部特征的多粒度關系檢測模型。該模型首先使用雙向長短期記憶網絡對問題和關系進行編碼,從單詞級和關系級多種粒度對關系建模;然后使用雙向注意力機制實現問題和關系的注意力交互;最后通過聚合操作提取全局特征,通過詞級交互提取局部特征,計算問題和候選關系的語義相似度。實驗表明,該模型在SimpleQuestions和WebQuestionsSP數據集上分別取得了93.5%和84.13%的精確度,提升了關系檢測的效果。

關鍵詞:關系檢測;注意力機制;雙向長短期記憶網絡;知識庫問答

中圖分類號:TP391.1 文獻標志碼:A 文章編號:1001-3695(2023)02-027-0476-05

doi: 10.19734/j.issn.1001-3695.2022.07.0330

Multi-granularity relation detection incorporating global-local features

Qiu Wanchun, Xu Jian

(School of Computer Science amp; Engineering, Nanjing University of Science amp; Technology, Nanjing 210094, China)

Abstract:Relation detection for knowledge base question answering (KBQA) aims to select the best relation path that matches the question expressed by natural language from the candidate relations in the knowledge base and retrieve the answer to the question. To solve the problem of semantic information loss and inadequate attention interaction in existing relation detection methods, this paper proposed a multi-granularity relation detection model incorporating global-local features. The model firstly used bi-directional long short-term memory (Bi-LSTM) networks to encode the question and relation and modeled relations from multiple granularity, such as word-level and relation-level representation. Then, the model introduced a bi-directional attention mechanism to implement attentive interaction of the question and relation. Finally, it extracted global and local features by the aggregation operation and word-level interaction, respectively, to calculate the semantic similarity of the question and candidate relation. Experiments show that the proposed model achieves 93.5% and 84.13% accuracy on SimpleQuestions and WebQuestionsSP datasets, respectively, improving the effect of relation detection.

Key words:relation detection; attention mechanism; Bi-LSTM; KBQA

0 引言

信息爆炸式增長是當今互聯網時代的一大特點,面對網上海量的數據,人們往往難以快速準確地獲取自己需要的信息。為了充分利用繁雜的網絡信息,人們構建了許多大型知識庫(knowledge base,KB)[1~3],包括面向開放領域的通用知識庫和面向垂直領域的專業知識庫,這些知識庫將非結構化信息轉換為結構化信息,便于信息的管理和使用。知識庫中的信息通常使用三元組來表示,形如〈S,R,O〉,其中S表示主體,O表示客體,R表示主體和客體之間的關系,其中主體和客體均為知識庫中的實體。

知識庫問答(knowledge base question answering,KBQA)[4,5]是指利用知識庫中豐富的關聯信息,對用戶提出的問題給出準確的答案。具體而言,知識庫問答系統首先對自然語言問題進行解析,將其映射成知識庫能夠理解的邏輯查詢,然后在知識庫中執行該查詢得到問題的答案,最后將答案返回給用戶。將用戶提出的自然語言問題轉換為知識庫可以識別的邏輯查詢,是知識庫問答的核心任務,其實現過程主要由實體鏈接和關系檢測兩個子任務組成。實體鏈接是指將問題中提及的實體名稱映射到知識庫中對應的實體節點,其結果作為問題的候選實體,是知識庫查詢的起點;關系檢測是指在知識庫中選出與問題匹配的關系路徑,該路徑從候選實體出發,指向問題的答案節點。

本文主要研究面向知識庫問答的關系檢測任務,在得到實體鏈接結果的基礎上,從候選實體的單跳或兩跳關系路徑中選出與問題匹配程度最高的關系路徑,作為知識庫查詢的候選關系。為了實現自然語言問題到知識庫關系的映射,首先要確定的是問題和關系的表示粒度,即語義編碼的基本單位。問題一般采用單詞序列進行表示,關系可以使用多粒度表示,本文從單詞級和關系級多種粒度進行關系表示,單詞級表示是將關系路徑上的所有關系名切分成單詞序列,采用單詞序列表示關系,即一個單詞作為一個標記(token),關系級表示則利用關系路徑上的所有關系名構成的序列表示關系,一個關系名整體作為一個標記。例如,兩跳關系路徑{education,start_date}的單詞級表示為{education,start,date},關系級表示為{education,start_date},多粒度關系表示即為兩者的并集{education,start,date,start_date}。

目前的研究方法通常將關系檢測任務視為文本序列匹配[6]和排序問題,即分別對問題和候選關系進行語義抽象,計算兩者的相似度并排序。一種方法是直接將問題和關系分別編碼成向量,再計算向量之間的相似度,這種方法忽略了問題和關系之間的信息交互,且向量聚合容易損失原始語義信息,難以處理未見關系和復雜問題對應的關系鏈。另一種方法是在編碼的過程中引入注意力機制,實現問題和關系的信息交互,這種方法在一定程度上緩解了語義丟失問題,但往往只是利用關系的全局表示對問題施加注意力,使用注意力的粒度過大,信息交互不夠充分,對關系檢測的效果提升仍不理想。為了克服以上關系檢測模型的缺陷,本文提出了一種融合全局—局部特征的多粒度關系檢測模型(記作MGRD),使用單詞級和關系級兩種粒度表征關系,并利用注意力機制實現問題和關系之間細粒度的信息交互,同時綜合考慮問題和關系的全局特征與局部特征,使模型充分捕捉問題與關系匹配所需要的信息。

1 相關工作

關系檢測作為知識庫問答的關鍵步驟,其結果直接體現了關系路徑與問題的匹配程度,進而決定最終返回答案的準確性。相關研究表明,相比于傳統基于特征工程的方法[7,8],基于深度學習的方法能夠自動提取文本特征,避免了人工干預,有效解決了語言表達多樣性帶來的問題,逐漸成為關系檢測的主流方法。這類方法通常遵循編碼—比較框架,該框架通過將問題和候選關系表示成向量來比較它們的語義相似度,首先將問題和關系分別編碼成向量序列,然后使用聚合操作將向量序列壓縮成單個向量,最后使用某種距離計算公式計算問題表示向量和關系表示向量的相似度。Yih等人[9]首先提出使用神經網絡進行端到端匹配,他們使用3-gram表示問題和關系,通過卷積神經網絡(convolutional neural network,CNN)進行編碼,使用最大池化(max pooling)完成聚合操作并計算問題和關系的相似度。Yin等人[10]同樣使用CNN模型對問題和關系進行編碼,不同的是他們從詞級粒度進行建模,將問題和關系看做是由單詞組成的序列。由于單詞具有實際意義,這種詞級表示的關系有利于局部語義信息的提取,同時提高了模型對未見關系處理的魯棒性。Yu等人[11]提出了一種分層殘差模型HR-Bi-LSTM,他們結合關系級和詞級兩種粒度表征關系,使用雙向長短期記憶網絡(bi-directional long short-term memory,Bi-LSTM)對不同粒度表示的關系進行編碼,同時使用兩層Bi-LSTM對詞級表示的問題編碼,并引入殘差連接,最后比較了問題和關系的相似度。

為了進一步獲取問題和關系的交互信息,提高模型的匹配能力,人們在關系檢測的網絡模型中引入注意力機制,使模型更關注問題中與關系相關的部分。He等人[12]將問題和關系看做由字符組成的序列,分別使用長短期記憶網絡(LSTM)和卷積神經網絡作為問題和關系的編碼器,并使用帶有注意力機制的LSTM進行解碼。Chen等人[13]提出的DAM模型使用Transformer架構對問題和關系分別編碼,并使用多頭注意力機制計算關系中的每個單詞相對于問題的注意力權重,利用余弦相似度計算問題與關系的匹配程度。Zhang等人[14]認為在比較前將向量序列壓縮為固定維度的向量會丟失語義相似度度量的關鍵信息,因此他們提出的ABWIM模型基于注意力機制學習問題和關系向量序列的詞級交互,從而在聚合操作之前進行低層表示的比較。王勇超等人[15]針對知識庫中的未見關系提出了一種關系檢測模型,使用對抗學習強化關系表示并融合全局知識信息進行模型聯合訓練。Qiu等人[16]提出了一種全局—局部注意力關系檢測模型(GLAR),該模型利用局部模塊學習詞級交互的特征,并利用全局模塊獲取問題與候選關系之間的非線性關系。

2 MGRD模型

2.1 任務定義

給定知識庫K和用戶提出的自然語言問題q,假設已經完成了實體鏈接任務,即得到了問題q中的實體提及在知識庫中對應的實體節點,記做候選實體集E={e1,e2,…,e|E|},其中ei表示第i個候選實體。對于每個候選實體ei∈E,在知識庫中檢索從ei出發 2跳內的關系路徑作為ei的候選關系,記做Ri={ri1,ri2,…,ri|Ri|},其中rij表示第i個候選實體對應的第j條候選關系路徑,本文對簡單問題選取1跳關系路徑,對復雜問題選取2跳內的關系路徑,所有候選實體對應的候選關系構成問題q的候選關系集,記做R=∪i=|E|i=1Ri={r1,r2,…,r|R|},其中ri表示第i條候選關系。關系檢測的任務就是從候選關系集R中選出與問題匹配程度最高的關系,作為知識庫查詢的關系路徑,具體做法為,對于每條候選關系ri∈R,利用關系檢測模型計算ri與問題q的語義相似度得分s(q,ri),選擇得分最高的候選關系作為結果輸出,即

2.2 模型結構

本文提出的多粒度關系檢測模型MGRD基于Bi-LSTM和注意力機制,模型結構如圖1所示,主要由五個模塊組成,分別是問題編碼模塊、關系編碼模塊、雙向注意力模塊、全局比較模塊和局部交互模塊。問題編碼模塊和關系編碼模塊分別使用Bi-LSTM網絡將問題與候選關系映射成向量序列;雙向注意力模塊通過注意力機制計算在問題的關注下關系的抽象表示以及在關系的關注下問題的抽象表示;全局比較模塊對聚合操作得到的問題向量和關系向量計算余弦相似度,作為全局比較得分;局部交互模塊將問題和關系對應的詞向量拼接在一起,使用Bi-LSTM提取局部交互特征,計算局部交互得分;最后將全局比較得分和局部交互得分相加得到問題和候選關系匹配的語義相似度總得分。

2.3 問題編碼模塊

2.4 關系編碼模塊

在關系檢測的研究中,一般由字符級、單詞級和關系級三種關系表示粒度。字符級表示由于字符數量有限,能有效減少模型的參數量,且有利于對未見單詞的處理,然而單個字符缺乏實際意義,割裂了單詞的語義信息;單詞級表示保留了單詞的語義信息,有利于局部特征的提取和未見關系的處理,但忽略了關系名稱作為整體標識所具有的語義信息;關系級表示將關系名稱作為單個標記處理,有利于提取關系的全局特征,但存在數據稀疏性問題。為了全面獲取關系的全局特征和局部特征,緩解數據稀疏問題,本文采用單詞級和關系級多粒度聯合表示關系,假設候選關系r是一條由k個關系構成的關系路徑,記做r={rel1,rel2,…,relk},則將r表示成Wr=relw∪relr,其中relw={relw1,…,relwk}是關系路徑中各個關系的單詞構成的集合,relr={relr1,…,relrk}是關系路徑中各個關系的關系名稱構成的集合。

3 實驗及分析

3.1 數據集和參數設置

本文在SimpleQuestions(SimpleQ)和WebQuestionsSP (WebQSP)兩個數據集上進行關系檢測實驗,完成模型的訓練和驗證工作。SimpleQuestions[18]是一個簡單問答數據集,該數據集中的每個問題只涉及長度為1的關系路徑,對應知識庫中的一個三元組事實。WebQuestionsSP[19]是一個復雜問答數據集,其中每個問題涉及的關系路徑長度為1或2,對應知識庫中的一個或多個三元組事實。這兩個數據集均以Freebase[1]為背景知識庫,其中訓練集、驗證集和測試集的劃分如表1所示。

模型訓練的超參數設置如表2所示。在模型訓練過程中,使用預訓練的300維GloVe[20]詞向量對詞嵌入層的所有單詞進行初始化,對關系名稱和不在表中的單詞從[-0.25,0.25]均勻分布中隨機取值進行初始化,在訓練過程中更新詞嵌入層的參數值。為了防止模型發生過擬合,訓練時在Bi-LSTM層、雙向注意力層和前饋神經網絡層之后分別加入dropout。

3.2 評估指標

為了評估關系檢測模型的效果,便于和之前的工作對比,本文采用精確度作為評估指標,衡量模型在關系檢測任務上的性能。

Acc=NcN(19)

其中:N為測試集中的問題總數;Nc為正確預測出知識庫中關系路徑的問題數。

3.3 實驗結果分析

3.3.1 與基線模型對比

在SimpleQuestions和WebQuestionsSP數據集上對本文提出的關系檢測模型MGRD進行實驗,檢驗模型的實驗效果,并與幾個基線模型進行對比,這些模型都是將問題和候選關系進行匹配,以精確度為評估指標,比較結果如表3所示。

CNN和LSTM是關系檢測任務中的常用網絡模型,通常用做問題和關系的編碼器。Bi-CNN使用3-gram表示問題和候選關系,并用CNN編碼。APMCNN采用單詞級關系表示,用CNN進行編碼,同時使用帶有注意力的最大池化操作,對問題中和關系相關的詞賦予更大的權重。Bi-LSTM使用兩個雙向長短期記憶網絡分別對單詞表示的問題和關系編碼,再比較相似度,是基于編碼—比較框架的基本模型。HR-Bi-LSTM使用單詞級和關系級不同抽象級別的關系表示,并利用兩層Bi-LSTM和殘差連接獲得問題的抽象表示。DAM擯棄了傳統的CNN與LSTM模型,使用多頭注意力機制對問題和關系編碼并比較相似度。

本文提出的MGRD模型從單詞級和關系級不同粒度對關系進行建模,使用雙向注意力機制實現問題和關系的軟對齊,同時提取問題和候選關系匹配的全局特征和局部交互特征,從而計算語義相似度。實驗結果表明,MGRD模型在關系檢測任務上取得了不錯的效果。在SimpleQuestions數據集上,MGRD模型的精確度比最好的基線模型高0.2%。在WebQuestionsSP數據集上,與使用CNN和LSTM作為編碼器的基線模型相比,MGRD模型的精確度比最好的基線模型HR-Bi-LSTM高1.6%,與DAM相比,MGRD模型取得了與該模型相近的精確度,原因在于DAM使用的多頭注意力機制不受序列長度的約束,更有利于處理 WebQuestionsSP數據集中多關系構成的長序列。

3.3.2 消融實驗

為了探究MGRD模型中各組件對模型性能的影響,本節進行消融實驗,從模型中分別去掉部分模塊,比較實驗結果,如表4所示。

1)全局比較模塊和局部交互模塊對模型的影響

為了分析全局比較模塊和局部交互模塊對模型性能的貢獻,本實驗分別從MGRD模型中去除局部交互模塊和全局比較模塊,并將剩余部分稱為全局模塊和局部模塊。從表4第1~3行的實驗結果可以看出,與擁有全部模塊的MGRD模型相比,全局模塊和局部模塊的精確度均有所下降。在SimpleQuestions數據集上,全局模塊和局部模塊的精確度損失不大,分別降低了0.41%和0.11%,說明對于只涉及單個關系的簡單問題,僅使用全局模塊或局部模塊也能取得不錯的關系檢測效果,但兩者結合效果更好。在WebQuestionsSP數據集上,全局模塊的精確度略有下降,降低了0.60%,局部模塊的精確度下降幅度較大,降低了8.81%,可見在處理包含多個關系的復雜問題時,僅提取局部交互特征難以實現問題和關系的準確匹配,必須結合全局特征才能更好地完成關系檢測任務。

2)注意力機制對模型的影響

為了研究注意力機制對模型性能的影響,將雙向注意力模塊中問題和關系單詞間的相關性全部置為1,使各單詞的注意力權重相等,以此消除模型中注意力機制的作用。本實驗分別從MGRD模型、全局模塊和局部模塊中去掉注意力機制,進行關系檢測,實驗結果如表4第4~6行所示。去掉注意力機制后,在SimpleQuestions數據集上,三個模型的精確度略有下降,分別降低了0.39%、0.10%和1.17%,表明注意力機制在處理簡單問題的關系匹配時能夠關注重要信息,對模型性能的提升起到了積極作用。在WebQuestionsSP數據集上,三個模型的精確度下降更為明顯,分別降低了7.17%、6.02%和2.74%,證明注意力機制在復雜問題的關系匹配任務中起到更為重要的作用。由于復雜問題關聯知識庫中的多個關系,所以無論是問題還是候選關系,均由更長的序列組成,一方面增加了干擾信息,另一方面增大了模型處理長序列的難度,而注意力機制能夠從長序列中快速找到語義匹配最相關的部分,減小無關信息的影響,使模型性能大幅度提升。

3.3.3 案例分析

為了進一步闡明本文提出的MGRD模型性能的優越性,本節給出具體案例的實驗結果,比較不同模型對同一個自然語言問題預測的匹配關系,即從候選關系中選出與問題語義相似度得分最高的關系。例如,對于問題“Who did Carlos Boozer play for?”,其對應的候選關系集中共有106條候選關系,其中指向問題答案的標準關系為basketball.basketball_player.player_statistics..basketball.basketball_player_stats.team。在MGRD模型中,得分最高的關系是標準關系,準確預測到與問題最為匹配的關系。在全局模塊中,得分最高的關系是sports.pro_athlete.teams..basketball.basketball_roster_position.team,標準關系排名第5,預測的關系與標準關系均與“籃球運動員”相關,全局模塊難以區分兩者的微小差別,而MGRD模型能夠捕捉它們的差異,可見局部交互模塊起到了提取局部差異性特征的作用。在局部模塊中,得分最高的關系是people.person.height_meters,標準關系排名第26,預測的關系為單跳關系,與標準關系差異較大,且標準關系排名比較靠后,所以局部模塊提取的語義信息相對有限,關系檢測效果較差。

從以上實驗結果可以看出,MGRD模型不僅能夠捕獲全局語義特征,對局部特征的提取也具有明顯優勢,因此能夠更好地完成關系檢測任務。

4 結束語

針對知識庫問答中的關系檢測任務,本文提出了一種融合全局—局部特征的多粒度關系檢測模型,從單詞級和關系級兩種粒度抽象表示關系,使用Bi-LSTM對問題和候選關系編碼,利用雙向注意力機制實現問題和關系單詞間的軟對齊,同時融合全局特征和局部特征,計算問題和候選關系的語義相似度。在SimpleQuestions和WebQuestionsSP數據集上進行實驗,證明了該模型在關系檢測任務上的有效性。

參考文獻:

[1]Bollacker K,Evans C,Paritosh P,et al. Freebase: a collaboratively created graph database for structuring human knowledge [C]// Proc of ACM SIGMOD International Conference on Management of Data. New York: ACM Press,2008: 1247-1250.

[2]Lehmann J,Isele R,Jakob M,et al. DBpedia-a large-scale,multilingual knowledge base extracted from Wikipedia [J]. Semantic Web,2015,6(2): 167-195.

[3]Xu Bo,Xu Yong,Liang Jiaqiang,et al. CN-DBpedia: a never-ending Chinese knowledge extraction system [C]// Proc of the 30th International Conference on Industrial,Engineering and Other Applications of Applied Intelligent Systems. Cham: Springer,2017: 428-438.

[4]Wu Peiyun,Zhang Xiaowang,Feng Zhiyong. A survey of question answering over knowledge base [C]// Proc of the 4th China Conference on Knowledge Graph and Semantic Computing. Singapore: Springer,2019: 86-97.

[5]劉月峰,張麗娜,楊宇慧,等. 基于實體排序和聯合事實選擇的知識庫問答 [J]. 計算機應用研究,2020,37(11): 3321-3325. (Liu Yuefeng,Zhang Lina,Yang Yuhui,et al. Simple question answering with entity ranking and joint fact selection [J]. Application Research of Computers,2020,37(11): 3321-3325.)

[6]Wang Xiaowei,Han Jungang,Pan Xiaoying. Text matching model that fuse position-encoding with multiple attentional mechanisms [C]// Proc of the 4th International Conference on Artificial Intelligence and Pattern Recognition. New York: ACM Press,2021: 669-676.

[7]Yao Xuchen. Lean question answering over freebase from scratch [C]// Proc of Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations. Stroudsburg,PA: ACL Press,2015: 66-70.

[8]Bast H,Haussmann E. More accurate question answering on freebase [C]// Proc of the 24th ACM International on Conference on Information and Knowledge Management.New York:ACM Press,2015:1431-1440.

[9]Yih W T,Chang M W,He Xiaodong,et al. Semantic parsing via staged query graph generation: question answering with knowledge base [C]// Proc of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Stroudsburg,PA: ACL Press,2015: 1321-1331.

[10]Yin Wenpeng,Yu Mo,Xiang Bing,et al. Simple question answering by attentive convolutional neural network [C]// Proc of the 26th International Conference on Computational Linguistics. [S.l.]: The COLING 2016 Organizing Committee,2016: 1746-1756.

[11]Yu Mo,Yin Wenpeng,Hasan K S,et al. Improved neural relation detection for knowledge base question answering [C]// Proc of the 55th Annual Meeting of the Association for Computational Linguistics. Strou-dsburg,PA:ACL Press,2017:571-581.

[12]He Xiaodong,Golub D. Character-level question answering with attention [C]// Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg,PA: ACL Press,2016: 1598-1607.

[13]Chen Yongrui,Li Huiying. DAM: transformer-based relation detection for question answering over knowledge base [J]. Knowledge-Based Systems,2020,201-202: 106077.

[14]Zhang Hongzhi,Xu Guandong,Liang Xiao,et al. An attention-based word-level interaction model for knowledge base relation detection [J]. IEEE Access,2018,6: 75429-75441.

[15]王勇超,楊英寶,曹鈺,等. 基于對抗學習和全局知識信息的關系檢測技術研究 [J]. 計算機應用研究,2021,38(5): 1327-1330,1343. (Wang Yongchao,Yang Yingbao,Cao Yu,et al. Research on relation detection based on adversarial learning and global knowledge information [J]. Application Research of Computers,2021,38(5): 1327-1330,1343.)

[16]Qiu Chen,Zhou Guangyou,Cai Zhihua,et al. A global-local attentive relation detection model for knowledge-based question answering [J]. IEEE Trans on Artificial Intelligence,2021,2: 200-212.

[17]Kingma D P,Ba J. Adam: a method for stochastic optimization [C]// Proc of the 3rd International Conference for Learning Representations. 2017.

[18]Bordes A,Usunier N,Chopra S,et al. Large-scale simple question answering with memory networks [EB/OL]. (2015-06-05) [2022-06-23]. https://arxiv.org/abs/1506.02075.

[19]Yih W T,Richardson M,Meek C,et al. The value of semantic parse labeling for knowledge base question answering [C]// Proc of the 54th Annual Meeting of the Association for Computational Linguistics.Strou-dsburg,PA: ACL Press,2016:201-206.

[20]Pennington J,Socher R,Manning C. GloVe: global vectors for word representation [C]// Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg,PA: ACL Press,2014: 1532-1543.

收稿日期:2022-07-04;修回日期:2022-08-22 基金項目:國家自然科學基金面上項目(61872186)

作者簡介:邱婉春(1996-),女,江蘇徐州人,碩士研究生,主要研究方向為自然語言處理、知識庫問答;徐建(1979-),男(通信作者),江蘇江陰人,教授,博導,博士,主要研究方向為知識圖譜、數據挖掘(dolphin.xu@njust.edu.cn).

主站蜘蛛池模板: 2021国产精品自产拍在线观看| 国产精品自在拍首页视频8| 奇米精品一区二区三区在线观看| 国产精品久久久精品三级| 无码专区在线观看| 久久青草免费91线频观看不卡| 国产毛片基地| 无码中文字幕乱码免费2| 亚洲无码视频一区二区三区| 亚洲乱码在线视频| 国产激情无码一区二区APP| 91免费观看视频| 久爱午夜精品免费视频| 男人的天堂久久精品激情| 欧美中文字幕一区二区三区| 狼友av永久网站免费观看| 97se亚洲| 久草中文网| 亚洲av日韩av制服丝袜| 国内熟女少妇一线天| 99久久亚洲综合精品TS| 人妻精品全国免费视频| 国产成人a在线观看视频| 亚洲福利网址| 中日无码在线观看| 国产精品太粉嫩高中在线观看| 国产新AV天堂| 91视频首页| 色国产视频| 亚洲一区毛片| 91精品免费久久久| 国产高清在线丝袜精品一区| 国产美女自慰在线观看| 最新亚洲人成无码网站欣赏网| 亚洲精品无码AⅤ片青青在线观看| 久久伊人操| 精品视频一区在线观看| 欧美日韩精品一区二区在线线| 久久永久精品免费视频| 国产精品jizz在线观看软件| 亚洲人成网18禁| 91精品小视频| 美女国内精品自产拍在线播放 | 国产91丝袜| 久久国产成人精品国产成人亚洲| 精品天海翼一区二区| 精品综合久久久久久97超人| 一区二区理伦视频| 国产免费黄| 免费欧美一级| 免费人成黄页在线观看国产| 国产成人高精品免费视频| 亚洲精品欧美重口| 成人在线第一页| 国产精品视频系列专区| 亚洲swag精品自拍一区| a天堂视频在线| 手机在线免费不卡一区二| 日韩精品专区免费无码aⅴ | 无码高清专区| 99热这里只有免费国产精品 | 第九色区aⅴ天堂久久香| 亚洲成A人V欧美综合天堂| 91精品免费高清在线| 国产香蕉在线| 久久久波多野结衣av一区二区| 欧美色伊人| 国产网站免费看| 夜夜拍夜夜爽| 久久永久视频| 全部毛片免费看| 无码人中文字幕| 精品亚洲欧美中文字幕在线看| 免费国产福利| 免费jizz在线播放| 国产成人91精品| 欧美性色综合网| 午夜国产在线观看| 国产内射在线观看| 国产一区二区人大臿蕉香蕉| 国产精品香蕉| 日本91在线|