999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于最長名詞短語分治策略的神經機器翻譯

2018-05-04 07:26:15張學強蔡東風
中文信息學報 2018年3期
關鍵詞:方法系統

張學強,蔡東風,葉 娜,吳 闖

(沈陽航空航天大學 人機智能研究中心,遼寧 沈陽 110136)

0 引言

神經機器翻譯(neural machine translation,NMT)作為一種全新的機器翻譯方法,近年來獲得迅速發展。然而,神經機器翻譯僅僅使用一個非線性的神經網絡實現自然語言之間的轉換[1],相比統計機器翻譯,譯文質量對句子長度更為敏感[2]。如何在神經機器翻譯中將一個句子在盡量不損失語義信息的前提下,進行長度上的縮減和結構上的簡化是一個值得探究的方向。

一般認為,自然語言中語義的基本單位是短語。因此,將句子級別的對齊和翻譯進行到亞句子(sub-sentence)的短語一級顯得尤為重要。句子中的實體和概念通常可由名詞短語(noun phrase,NP)來描述,其捆綁了一個相對完整的語義信息,具有豐富的句法功能,可在句中充當主語和賓語等成分。最長名詞短語[3](maximal-length noun phrase,MNP)指不被其他任何名詞短語嵌套的名詞短語。與一般名詞短語相比,MNP具有更大的粒度,邊界特征較為明顯,有利于句子的整體結構分析。采用分治策略處理MNP,既能在亞句子一級上獲得更精準的翻譯,也在一定程度上將句子縮短為包含主干信息的句子框架。因此,準確識別和翻譯MNP,是利用分治策略提升機器翻譯性能的一個有力手段。

針對神經機器翻譯在長句翻譯任務上的不足,考慮到MNP的處理可以在一定程度上簡化句子結構,本文提出一種基于MNP分治策略的神經機器翻譯方法。該方法基于一個“抽取—翻譯—重組”的MNP處理框架,旨在將MNP獨立處理帶來更高質量的MNP和句子框架譯文的優勢,與神經機器翻譯學習能力強、譯文具有較高準確度和流暢度等優勢相結合,以達到提升譯文整體質量的目的。

1 相關研究

1.1 短語知識在機器翻譯中的應用

在自然語言中,短語作為語義的基本單位,具有重要的意義。將雙語短語等語言學知識融入機器翻譯中,一直是研究人員孜孜追求的目標。

針對基于短語的統計機器翻譯方法未充分利用語言學知識、長距離調序效果不好的問題,丁鵬[4]等提出一種基于雙語句法短語的統計機器翻譯方法。首先,采用一種基于期望最大化(expectation maximization,EM)的算法來抽取雙語句法短語。然后,通過三種方法將短語應用到統計機器翻譯系統中: (1)將雙語句法短語加入訓練語料中,訓練翻譯模型; (2)將其加入短語表中,計算短語的特征值; (3)增加一個句法短語特征到短語表中,表征其是否為句法短語。實驗結果表明,這三種方法得到的譯文BLEU分值分別比基線系統提升了0.23、0.41和0.64。丁鵬等人的方法盡管利用了雙語句法短語,但整體框架仍然是基于短語的統計機器翻譯方法,長距離調序效果不佳。

針對上述問題,Ren X等[5]提出一種簡化專利句子結構以提高翻譯性能和后處理效率的方法。首先,采用一種基于統計方法的識別器,對句中的MNP進行識別。在中文樹庫CTB 5.1的專利語料上識別結果的F值達到62.28%。然后,對MNP進行分析,在識別正確與錯誤的MNP中,分別有97.92%和38.94%,有利于后續的翻譯過程。最后,在統計機器翻譯方法上分別使用自動方法和人工方法對系統進行評價。與基線系統相比,該系統得到的譯文BLEU分值提升了0.62;語義準確度和流暢度分別提升0.18和0.17,翻譯效率提升了約100字/小時。該方法的不足在于,沒有使用雙語MNP擴展語料,以訓練短語表、翻譯模型和調序模型。MNP作為句子的一部分,翻譯規則卻與句子不盡相同。導致訓練得到的模型能較好地翻譯簡化后的句子,卻不能準確翻譯MNP。

1.2 神經機器翻譯

統計機器翻譯(statistical machine translation,SMT)主要存在三個挑戰[10]*實際上,引文中作者給出了六個挑戰,這里只列舉其三。: (1)線性不可分; (2)缺乏合適的語義表示; (3)難以設計特征。而深度學習可以較好地緩解上述問題,因此完全基于深度學習的端到端神經機器翻譯應運而生,并獲得迅速發展。

研究人員通過將現有的方法和策略引入端到端的神經網絡,以實現翻譯性能的不斷提升。Sutskever等[11]首次將長短期記憶[12](long short-term memory,LSTM)引入到神經機器翻譯,以緩解遞歸神經網絡(recurrent neural network,RNN)訓練時“梯度消失”的問題,并且在“編碼—解碼”(encoder-decoder)框架兩端同時采用遞歸神經網絡。圖1給出了Sutskever等人提出的神經機器翻譯模型。

圖1 端到端神經機器翻譯,隱狀態e3作為句子向量c

在源端,對于句子X={x0,x1,x2,x3},編碼器遞歸地依據前一時刻隱狀態et-1和詞xt計算當前時刻隱狀態et。直到掃描尾詞xn隨即完成了編碼過程,并將最后一個隱狀態en作為表示源語言句子的向量c,指導并約束后續解碼過程。et的計算如式(1)所示。

et=g(et-1,xt)

(1)

在目標端,解碼器遞歸地依據向量c和已生成的目標詞yt-1以及上一時刻隱狀態dt-1共同作用于當前時刻隱狀態dt,如式(2)所示。

dt=h(dt-1,yt-1,c)

(2)

得到解碼器隱狀態dt后,目標詞yt的概率分布可由式(3)得到。

p(yt|y

(3)

其中,g、h和f為非線性函數。通過解碼器遞歸地從左至右逐一生成目標詞,最終得到完整譯文Y={y0,y1,y2,y3}。盡管引入長短期記憶的神經機器翻譯在性能上獲得大幅提升,卻面臨著實現準確編碼的挑戰。因為不論句子長短,編碼器都要將其映射為一個固定維度的向量。

針對上述問題,Bengio等[13]提出了基于注意力(attention)的神經機器翻譯。解碼器在生成目標詞yi時,動態地注意源語言句中與之相關的上下文ci,而不再關注整個源語言句子。圖2給出了引入注意力機制的神經機器翻譯模型。

圖2 基于注意力機制的神經機器翻譯,動態生成上下文向量c

引入注意力的神經機器翻譯的關鍵在于基于注意力的上下文向量c的生成。當前時刻待生成詞yt在源端對應的上下文向量ct由源語言隱狀態序列e={e0,e1,e2,e3}和注意力權重at加權求和得到,而注意力權重at由上一時刻解碼器隱狀態dt-1和源端隱狀態ej共同作用產生。如式(4)~(6)所示。

其中,m為非線性函數。得到當前時刻上下文向量ct后,當前時刻解碼器隱狀態dt與待生成詞yi的條件概率分布分別可由式(2)和式(3)求解。

盡管長短期記憶和注意力機制的引入能夠更好地處理長距離依賴,從而提升神經機器翻譯的性能。然而,自然語言中句子長短不一、結構復雜,通過單一神經網絡學習翻譯知識的方法受到限制。如何利用語言學知識結合分治策略對句子的各部分進行分治與整合,是一個值得研究的問題。

2 基于MNP分治策略的神經機器翻譯

盡管神經機器翻譯近年來獲得了迅速發展,但目前的方法主要是從數據中自動學習翻譯知識,沒有充分利用語言學知識顯式地指導翻譯過程。并且,神經機器翻譯使用固定維度的向量表示變化長度的詞句,造成結構復雜的長句翻譯效果不佳。

針對上述問題,本文提出一種基于MNP分治策略的神經機器翻譯。該方法主要基于分治法的思想,采用一個“抽取—翻譯—重組”的MNP處理框架,將單個復雜長句的翻譯問題,轉化為一個或多個攜帶子句信息的MNP和維系主干信息的句子框架的翻譯問題,以實現翻譯性能的整體提升。

2.1 “抽取—翻譯—重組”框架

在分治策略中,通常將單個復雜問題轉化為多個相對簡單的問題,并分而治之。鑒于MNP在句中使用頻率高、句法功能豐富以及邊界易于識別等事實,本文主要基于 “抽取—翻譯—重組”的MNP處理框架以實現分治策略的神經機器翻譯。表1給出了該方法的完整示例。

表1 “抽取—翻譯—重組”框架示例

在示例中,抽取MNP時在句子框架中保留特殊標識“MNPi”(i=1,2,)。作為對比,本文還使用了在句子框架中保留MNP核心詞的方法。將在2.3節、2.4節和2.5節中逐一說明“抽取—翻譯—重組”框架的三個步驟,并對抽取MNP時保留特殊標識或MNP核心詞的方法作出詳細論述。

2.2 雙語MNP語料庫的構建

本文采用神經機器翻譯系統分別對MNP和句子框架進行翻譯。因此,雙語MNP語料庫的構建是其中重要的一個環節。為保證訓練和測試過程中MNP的抽取規則一致,本文沒有采用雙語MNP對齊算法進行抽取,而是采用一個“抽取+查表”的方法。步驟描述如下:

(1) 使用分析器對源語言句子進行短語結構句法分析,依據標記匹配和括號對齊等規則抽取MNP。

(2) 訓練并查找短語表,匹配其中與源語言MNP對齊分值最高的目標語言MNP。

上述方法的優勢在于每一步都可以加入規則條件,以獲得較高質量的雙語MNP。本文在抽取源語言MNP以及查找短語表匹配其對應的目標語言MNP時,過濾掉長度小于2或包含符號、標點等特殊字符的MNP。得到雙語MNP后,神經機器翻譯系統的訓練和測試過程如下:

首先,將雙語MNP分別加入訓練數據集和開發數據集中,利用擴展后的數據集訓練神經機器翻譯模型。這一做法旨在得到能同時翻譯句子和MNP的神經機器翻譯模型。

其次,對測試數據集進行同樣的短語結構句法分析,抽取MNP的同時在句子框架中保留特殊標識或MNP核心詞。

最后,分別對句子框架和MNP進行翻譯,將譯文重新組合以得到原句的完整翻譯。

圖3給出了基于“抽取—翻譯—重組”框架的神經機器翻譯系統翻譯的過程。考慮到短句子譯文質量原本較高,本文只對長度超過閾值L且可成功抽取MNP的句子采用基于“抽取—翻譯—重組”框架的分治策略進行處理。

圖3 神經機器翻譯系統的“抽取—翻譯—重組”過程

2.3 抽取

抽取過程的核心任務是對句子進行短語結構句法分析。考慮到抽取較短的MNP對縮減句子長度、降低句子結構復雜度影響較小。因此,本文只對長度不小于2的MNP進行抽取。

抽取過程的另一個重要問題是,抽取MNP時在句子框架中保留何種標記以實現更好的分治效果。本文主要嘗試以下兩種保留標記的方法。

方法一采用“MNPi”(i=1,2,)作為句子框架中的特殊標識,以保留MNP與句子框架中標記的對齊關系。

方法二將MNP的核心詞保留在句子框架中。通常,MNP的尾詞為其核心詞。

兩種方法各有其優勢和不足: 方法一盡管可以保留MNP和句子框架譯文的對齊關系,為后續的譯文重組過程帶來積極影響,但是將“MNPi”保留在句子框架中破壞了句子的流暢度,甚至改變了原本含義。相反地,方法二在句子框架中保留核心詞,保證了流暢度和語義完整性,從而能夠獲得較好的句子框架譯文。然而,核心詞卻無法直接對齊到句子框架譯文中的相應位置。為此,需額外訓練詞對齊信息,以在句子框架譯文中匹配核心詞譯文,對其進行替換。

2.4 翻譯

采用雙語MNP擴展后的平行語料可訓練得到神經機器翻譯模型。圖4給出了神經機器翻譯模型采用分治策略,對句法樹中的句子框架和MNP進行“分治”翻譯的過程。其中,下側虛線方框表示神經機器翻譯模型對MNP“流離失所 家庭”與“現金 救助”的翻譯,上側虛線方框給出了對保留特殊標識或核心詞的句子框架的翻譯。

圖4 神經機器翻譯模型對MNP及句子框架的“分治”翻譯

2.5 重組

重組過程主要是對句子框架和MNP的譯文進行重新組合,即將MNP譯文替換到句子框架譯文中的相應位置,以獲得完整譯文。根據MNP抽取時保留的特殊標識不同,重組過程中也包含以下兩種方法。

方法一使用第i個MNP譯文替換句子框架譯文中的特殊標識“MNPi”;

方法二通過預先訓練得到的詞對齊信息查找MNP核心詞的可能譯文,當譯文出現在句子框架譯文中時,對其進行替換。

3 實驗

3.1 語料說明

本文實驗主要針對中英翻譯任務,語料來源于聯合國語料庫*https: //conferences.unite.un.org/UNCorpus中的中英雙語平行語料。其中,訓練數據集共15 886 041句,實驗過程只隨機抽取部分語料。官方開發數據集和測試數據集各4 000句。

針對雙語MNP語料庫的構建問題,本文隨機從訓練語料中抽取150 000句中英雙語平行句對。首先,采用Berkeley Parser*https: //github.com/slavpetrov/berkeleyparser對長度超過閾值L=15的中文句子進行句法分析,采用NiuTrans*http: //www.niutrans.com/niutrans/NiuTrans.html開源系統訓練短語表。然后,依據2.2節所述抽取方法和過濾規則,抽取中文MNP,并在短語表中查找其對應英文MNP,對不符合條件的雙語MNP進行過濾。最后,使用雙語MNP擴展訓練數據集和開發數據集。表2給出了實驗數據的相關信息。

表2 訓練數據集與開發數據集

針對測試語料,同樣采用Berkeley Parser對長度超過閾值L=15的句子進行句法分析,并使用標記匹配和括號對齊等規則的方法抽取MNP。表3給出了測試語料的相關信息。

表3 測試語料信息

從表3可以看出,相比于成功抽取出MNP的句子平均長度,MNP和句子框架的平均長度分別縮短了19.64和27.10。

3.2 參數設置

本文主要在深度學習框架Theano上采用DL4MT*https: //github.com/nyu-dl/dl4mt-tutorial/開源代碼,搭建基于注意力機制的神經機器翻譯系統。表4給出了實驗中神經網絡的主要參數設置及部分說明。

表4 網絡參數設置及說明

表4中,eos和UNK是置于詞表首位的特殊詞。將eos追加在句尾,表示句子結束。當編碼器掃描到eos時結束編碼,同樣地,當解碼器生成目標詞eos時,終止解碼過程。由于網絡訓練過程中softmax函數的計算復雜度較高,而其與詞表規模成正相關,因此詞表大小受到限制。考慮到集外詞對神經機器翻譯系統的性能影響較大[14],本文將集外詞統一替換為特殊詞UNK。

在網絡訓練過程中,采用隨機梯度下降(stochastic gradient descent,SGD)算法進行參數更新。模型測試時,本文采用束搜索(beam search)算法生成最終譯文,束大小設置為10。

3.3 結果與分析

3.3.1 MNP抽取

本文采用一種基于MNP分治策略的神經機器翻譯方法,因此,能否準確識別MNP直接影響到系統的翻譯性能。本文從成功抽取MNP的1 924個句子中隨機抽取200句,并對句中的MNP進行人工標注。通過比對系統的MNP抽取結果和人工標注結果,可計算得到系統MNP識別的準確率、召回率、F值,如表5所示。

表5 MNP識別結果

由表5可以看出,約27%的MNP識別存在錯誤。但邊界錯誤的MNP并不全都給后續的翻譯過程造成消極影響[5]。

3.3.2 句長敏感度

為驗證句子長度對于譯文質量的影響,本文分別在基線系統和MNP分治系統上,對測試數據集中的句子按照不同的長度分布進行測試。其中,基線系統指未采用“抽取—翻譯—重組”的MNP處理框架的神經機器翻譯系統。MNP分治系統包含兩種方法,即抽取MNP時在句子框架中保留特殊標識“MNPi”與保留MNP核心詞。

本文采用NiuTrans①開源系統中集成的大小寫不敏感的4-gram BLEU方法對譯文質量進行自動評價。如圖5所示,橫坐標表示不同句長分布,縱坐標表示譯文BLEU分值。

圖5 系統在不同句長分布上的翻譯性能

由圖5可以看出,隨著句子長度的增加,譯文質量呈明顯下降趨勢。特別地,當句子長度超過20后譯文質量顯著下降,基線系統的譯文BLEU分值下降了7.23,保留特殊標識“MNPi”方法和MNP核心詞方法的譯文BLEU分值分別下降了6.55和6.31。

具體來看,主要有三點結論: (1)當句長小于20時,基線系統略優于MNP分治系統。原因分析如下: 首先,神經機器翻譯方法原本在短句上翻譯性能較好。其次,MNP分治系統在“抽取—翻譯—重組”框架的三個步驟中都存在一定的損失,當這種損失與分治方法帶來的提升持平時,分治系統的優勢表現得并不明顯。(2)當句長超過20后,隨著句子長度的增大,MNP分治系統越來越表現出更優的翻譯性能。尤其當句長在80和100之間時,相比于基線系統,保留特殊標識“MNPi”和保留MNP核心詞的方法,譯文BLEU分值分別提升了3.10和5.75。(3)保留MNP核心詞的方法在翻譯性能上優于保留特殊標識“MNPi”的方法,且隨著句長的增大,優勢愈發明顯。

3.3.3 翻譯性能

本文采用“抽取—翻譯—重組”的MNP處理框架,對句子進行短語結構句法分析后抽取MNP,并保留特殊標識或MNP核心詞與其他部分組成句子框架。表6給出了基線系統、保留特殊標識“MNPi”以及保留MNP核心詞的三種神經機器翻譯系統的譯文質量。

表6 譯文質量對比

由表6可以看出,基于“抽取—翻譯—重組”的MNP處理框架,抽取MNP時保留特殊標識“MNPi”和保留MNP核心詞的方法在基線系統的基礎上,都獲得一定的提升。相比于基線系統,保留“MNPi”的方法BLEU分值提升了0.36,保留MNP核心詞的方法BLEU分值提升了0.89。

在分治系統中,由于抽取MNP時在句子框架中保留了MNP的核心詞,在一定程度上提高了句子框架的流暢度和語義完整性,從而相比于保留“MNPi”,表現出更好的性能,譯文的BLEU分值提升了0.53。

4 總結與展望

本文針對當前神經機器翻譯方法的譯文質量對句子長度敏感的問題,提出一種基于MNP分治策略的神經機器翻譯方法。依據組塊分析和分治法的思想,對長句進行MNP識別和抽取,進一步對MNP和句子框架進行獨立翻譯,從而在一定程度上緩解了神經機器翻譯對句子長度敏感的問題。

實驗結果表明,該方法通過對訓練數據的擴展、翻譯前對MNP的識別和抽取、翻譯中對MNP和句子框架的分而治之、翻譯后對譯文的重組等策略給神經機器翻譯帶來積極的影響。相對基線系統的方法,BLEU分值提升了0.89。

然而,該方法在MNP抽取,句子框架與MNP的譯文重組等方面都存在一定的損失,并且,諸如目標語言MNP的單復數等問題尚待解決。下一步研究工作的重心擬定在以下兩個方面: 首先,將該方法泛化到其他類型的短語結構,以對目前方法做進一步擴充;其次,因為過程中涉及對句子的拆分與整合,應更多地從語言學角度重新思考“抽取—翻譯—重組”的分治策略,以采取更優的方法。

[1] Zhang J, Zong C. Deep neural networks in machine translation: An overview[J]. IEEE Intelligent Systems, 2015, 30(5): 16-25.

[2] Cho K, Merrienboer B V, Bahdanau D, et al. On the properties of neural machine translation: Encoder-decoder approaches[J]//arXio: 1409.1259.2014.

[3] 蔡東風,趙奇猛,饒齊,等. 基于馬爾科夫邏輯網的中文專利最大名詞短語識別[J]. 中文信息學報, 2016, 30(4): 21-28.

[4] 丁鵬. 基于雙語句法短語的統計機器翻譯研究[D]. 大連: 大連理工大學碩士學位論文, 2013.

[5] Ren X, Wei Y, Hu R. Simplify sentence structure for improving human post-editing efficiency on Chinese-to-English patent machine translation[C]//Proceedings of 6th Workshp on Patent and Scientific Literature Translation (PSLT6) Miami, 2015: 33-43.

[6] Luong M T, Pham H, Manning C D. Effective Approaches to Attention-based Neural Machine Translation[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, Lisbon, Portugal, 2015: 1412-1421.

[7] Sennrich R, Haddow B, Birch A. Neural Machine Translation of Rare Words with Subword Units[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, Berlin, Germany, 2016: 1715-1725.

[8] Wu Y, Schuster M, Chen Z, et al. Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation[J]. arXiv: 1609.08144

[9] Zhang J, Zong C. Bridging Neural Machine Translation and Bilingual Dictionaries[J]. arXiv: 1610.07272

[10] 劉洋. 基于深度學習的機器翻譯研究進展[J]. 中國人工智能學會通訊, 2015: 28-32.

[11] Sutskever I, Vinyals O, Le Q V. Sequence to sequence learning with neural networks[J]. Advances in Neural Information Processing Systems, 2014(4): 3104-3112.

[12] Graves A. Long short-term memory[M]. Supervised Sequence Labelling with Recurrent Neural Networks. Springer Berlin Heidelberg, 2012: 1735-1780.

[13] Bahdanau D, Cho K, Bengio Y. Neural Machine Translation by Jointly Learning to Align and Translate[J]. arXiv: 1409.0473

[14] Li X, Zhang J, Zong C. Towards zero unknown word in neural machine translation[C]//Proceedings of the International Joint Conference on Artificial Intelligence. AAAI Press, 2016: 2852-2858.

猜你喜歡
方法系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
基于PowerPC+FPGA顯示系統
學習方法
半沸制皂系統(下)
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
主站蜘蛛池模板: 超碰91免费人妻| 呦女亚洲一区精品| 无码丝袜人妻| 国产午夜在线观看视频| 国内丰满少妇猛烈精品播| 国产精欧美一区二区三区| 久久国产精品影院| 国产乱子伦精品视频| 成年人国产网站| 欧美一级夜夜爽www| 日本亚洲成高清一区二区三区| 亚洲黄色高清| 久久成人国产精品免费软件 | 99久久国产综合精品女同| 免费一极毛片| 爆操波多野结衣| 亚洲欧美极品| 伊人久久大香线蕉影院| 亚洲欧美成人在线视频| 国产精选自拍| 91小视频在线播放| 欧美日韩成人在线观看| 91伊人国产| 狼友av永久网站免费观看| 青青操视频在线| 久久窝窝国产精品午夜看片| 国产在线观看成人91| 最新国产高清在线| 色欲国产一区二区日韩欧美| 国产视频久久久久| 天天摸夜夜操| 五月激情婷婷综合| 人妻少妇久久久久久97人妻| 18黑白丝水手服自慰喷水网站| 久久免费精品琪琪| 91精品国产福利| 97se亚洲综合在线天天| 亚洲综合中文字幕国产精品欧美| 午夜一区二区三区| 尤物精品视频一区二区三区| 久久亚洲美女精品国产精品| 亚洲无码不卡网| 精品夜恋影院亚洲欧洲| 狠狠色狠狠色综合久久第一次| 亚洲欧美日韩中文字幕在线一区| 国产精品第一区在线观看| 一级毛片在线直接观看| 国产免费精彩视频| 在线亚洲天堂| 先锋资源久久| 欧美成人A视频| 国产资源免费观看| 色偷偷综合网| 国模在线视频一区二区三区| 久热精品免费| 国产丝袜第一页| 狠狠操夜夜爽| 国产色网站| 毛片免费在线| 成AV人片一区二区三区久久| 免费无码又爽又黄又刺激网站 | 91国语视频| 91无码视频在线观看| 亚洲天堂伊人| 国产欧美自拍视频| 成人韩免费网站| 国产你懂得| 精品91视频| 亚洲日本一本dvd高清| 欧美激情视频一区| 91欧美亚洲国产五月天| 免费无遮挡AV| 精品一區二區久久久久久久網站| 狠狠色综合久久狠狠色综合| 视频二区国产精品职场同事| 亚洲欧美日韩中文字幕一区二区三区 | 欧美日本中文| 久久天天躁夜夜躁狠狠| 久久99国产精品成人欧美| 狠狠色噜噜狠狠狠狠色综合久| 色综合天天娱乐综合网| 中文成人在线视频|