999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于詞向量的維吾爾語詞項歸一化方法

2018-03-02 09:22:53羅延根蔣同海楊雅婷
計算機工程 2018年2期
關鍵詞:語言方法模型

羅延根,李 曉,蔣同海,楊雅婷,周 喜,王 磊

(1.中國科學院新疆理化技術研究所,烏魯木齊 830011;2.中國科學院新疆民族語音語言信息處理重點實驗室,烏魯木齊 830011; 3.中國科學院大學,北京 100049)

0 概述

詞匯歸一化是將看起來不完全一致的多個詞條歸納成一個等價類,是眾多自然語言處理方面前處理的一個重要步驟。大部分自然語言處理的工作都要求在一個限定的詞匯表上進行處理,這樣能夠降低模型的復雜度。例如機器翻譯、命名實體抽取、信息檢索等研究,它們處理的數據都是經過歸一化之后的“干凈”語料。

近年來,隨著互聯網的發展,社交媒體上的文本也呈爆炸式增長,但是社交媒體上用戶產生的文本并不是很正規的文本,它包含很多不合語法的句子、不正規拼寫的單詞等。對于這種文本進行自然語言處理的相關工作就顯得特別困難,因為有太多的未登錄詞。在對用戶產生的文本進行處理之前,詞匯歸一化就顯得特別重要。

本文提出將含有非正式維吾爾語用語的社交媒體語料與正規維吾爾語用語的新聞語料結合起來用于獲取一個詞的低維向量空間,將正規用語的語料中的詞匯當作候選詞,對于向量空間中的集外詞(OOV),首先找到向量空間中的k近鄰,再對k近鄰的正規詞進行相似度篩選,最后選出一個n-best的候選詞匯集。對于非正規語料句子中的集外詞(非正規詞),從候選詞匯集中選出一個最優的對應的詞,類似于機器翻譯的解碼過程,采用貪心解碼器,評估指標為綜合字符串相似度以及語言模型的一個評分。

1 相關工作

維吾爾語在形態結構上屬于粘著語類型,作為粘著語類型的語言,詞的詞匯變化和各種語法變化都是通過在實詞詞干上綴接各種附加成分的方式來表現的,習慣于詞干加上后綴去表達不同的含義,例如人稱、數量、詞態及語氣等。維吾爾語由阿拉伯字母組成,字母的錯寫、漏寫、縮寫以及詞干詞綴組合的多樣性也導致了維吾爾語中詞匯量過大的現象,從而造成嚴重的數據稀疏性。在大詞匯量的基礎上衍生出來的非正規詞的數量更是龐大,因此,日常用語(非新聞等官方用語)的機器翻譯所面臨的集外詞(Out of Vocabulary,OOV)數量更多,導致目前維漢機器翻譯的結果中有很多UNK(遇到OOV,一般的處理方法是在譯文中用UNK表示),所以對于維吾爾語口語用語的詞項歸一化很有必要[1-2]。

詞匯歸一化作為語料預處理的一個關鍵步驟,一直以來吸引了很多研究者的目光。最早的也是最簡單的可以用于詞匯歸一化的方法便是噪聲信道模型[3],對于非正規語料T與之對應的正規語料S,這個模型包含2個部分:語言模型P(S)和一個歸一化模型P(T|S)。如果將非正規用語的文本當作語言T,它對應的正規文本作為S,根據P(S|T)=P(T|S)×P(S)/P(T),P(T)是固定的,那么通過求解argmaxP(T|S)×P(S)來求解對應的S,從而求到argmaxP(S|T),S便是T歸一化后的結果。文獻[4]將噪聲信道模型運用到歸一化中,之后對噪聲信道模型進行擴展[5],將詞的發音作為特征加入模型中。但是這種模型都是有監督的模型,需要大量的標注語料對模型進行訓練。文獻[6]對噪聲信道模型進行無監督訓練擴展。

另一個比較主流的詞歸一化方法是基于統計機器翻譯的方法。文獻[7]提出一個編碼/解碼為字符級別的短語統計機器翻譯系統,使用非正規書寫的英語為源語言,對應的正規書寫的英語為目標語言,通過大量語料訓練出來的這個翻譯系統能很好地處理歸一化問題。跟噪聲信道模型類似,訓練階段需要大量的訓練數據,但是一一對應的非正規和正規的語料是很難大規模獲取的,對于維吾爾語這種語料匱乏的小語種難度更大。

近年來,類似于基于上下文的圖的無監督的隨機游走[8]算法用于社交媒體上的文本的歸一化,之后研究熱點已經轉向無監督的方法。文獻[9]把2個詞的上下文的相關性當作2個詞的相關性的依據,從而用來做歸一化。文獻[10]使用類似于文獻[9]的方法,利用深度神經網絡和word2vec進行未登錄詞與詞典內的正規詞進行相似度比較,最后使用語言模型來篩選。本文提出的方法與文獻[10]方法類似,將其提出的方法引入到維吾爾語的歸一化中,但是考慮由于一句話中可能包含多個非規則化的詞語,一次歸一化過程并不能完全將非正規詞歸一化,從而在文獻[10]方法的基礎上引入bootstrapping[11]重采樣策略[12-13],每一遍歸一化之后,重新采樣,迭代直到非規則化的詞替換次數未達到某個閾值停止;而且本文方法只是用于詞,由于維吾爾語的短語劃分不穩定,短語級別的歸一化將作為以后的研究方向。

2 維吾爾語無監督詞匯歸一化模型

本文使用貪心解碼器以及引入bootstrapping策略得到維吾爾語無監督詞匯歸一化模型,模型如圖1所示。首先是對網絡爬取的非正規用語語料進行初步的數據預處理,預處理操作只是最簡單的篩選,將一半以上單詞都是非正規詞的句子剔除,這主要是為了保證解碼過程的正確性;然后將正規用語語料和非正規用語語料放在一起,訓練出詞向量,再根據從正規用語的語料中抽取的正規用語詞典,在向量空間中找到每個非正規詞的k近鄰當作候選表,之后使用貪心解碼器對非規則化文本中每個句子依據語言模型和字符串相似度選擇非規則化詞的最優解,遍歷完了將替換之后的非正規用語文本跟正規用語文本一起重新訓練詞向量,一直遞歸執行直到滿足退出條件。

核心算法流程的偽代碼為:

輸入正規用語語料庫StdS={s1,s2,…,sn},非正規用語語料庫UStd={s1,s2,…,sn},評分閾值threhold

matchpair = {}

while匹配量大于閾值 do

UStd句子進行清洗

StdS與UStd一起訓練出word2vec模型model

StdS訓練出語言模型langModel

StdS抽取生成正規詞字典NormalDict,UStd抽取生成非正規詞字典UnNormalDict

for each word in UnNormalDict do

根據model找出cosine相似度最大的topn的candidates

for each line in UStd do

根據langModel計算line的困惑度perp1

計算line將word替換為candi之后句子的困惑度perp2

根據ratio和字符串相似度的綜合評分score重排序candidates

for each word in UnNormalDict do

從其candidates里面找到符合條件的匹配,加入到matchpair中

依據matchpair替換UStd中匹配到的非正規詞迭代

end

2.1 詞向量

對詞進行向量化表示一直是熱點,從最初的空間向量模型,到淺層語義分析(Latent Semantic Analysis)、PCA等,但這些向量都是基于詞共現來實現,并不能把握住語義信息。百度提出神經網絡搭建二元語言模型的方法[14],文獻[15]提出了基于神經網絡的語言模型之后,后續涌現出一批使用神經網絡生成詞向量的方法,比較具有代表性的有google提出的word2vec[16]和glove[17]。使用神經網絡訓練出來的詞向量,考慮到了上下文信息,所以對詞意的表現力比之前的向量表示更加強[18]。對于詞匯的歸一化便可以考慮使用詞向量作為一個特征,因為那些拼錯了或者不同形式的詞,它們的上下文還是比較相似的。

傳統的將詞向量化的方法都是將詞用一個one-hot的向量表示,但是這種方法遇到的問題就是數據的稀疏,而且向量除了表示詞以外,并沒有將詞的上下文、語義上表達出來。詞的分布式表示提出之后,由于這種向量能很好地表達出詞之間的相似性,很快為研究者所青睞。通過訓練將每個詞映射成K維實數向量(K一般為模型中的超參數),通過詞之間的距離(比如 cosine 相似度、歐氏距離等)來判斷它們之間的語義相似度。

詞的分布式表示是神經網絡語言模型的代產物,神經網絡語言思路與n-gram模型類似,使用wt-n+1,wt-n+2,…,wt-1來預測wt,C(w)是詞w對應的詞向量,神經網絡語言模型使用一套唯一的詞向量,存在矩陣C中,C的大小為|V|×m,|V|是詞表大小,m是向量的維度,從詞w到C(w)就是從矩陣C中取出對應的那一行。此模型如圖2所示,是一個三層的神經網絡,網絡的第1層是將窗口中的詞對應的詞向量C(wt-n+1),…,C(wt-2),C(wt-1)拼接起來,形成一個(n-1)m的向量,記為輸入x。

網絡的第2層就是對輸入進行一個非線性變換:

h=tanh(d+Hx)

(1)

網絡的輸出層一共有|V|個節點,每個節點yi表示下一個詞為i的未歸一化log概率。最后使用softmax將輸出值歸一化成概率。

y=b+Wx+Utanh(d+Hx)

(2)

此模型的目標函數如式(3)所示,通過最大化下一個詞的概率的訓練過程,矩陣C作為參數的一部分進行梯度下降調優,最后這個矩陣便是詞向量。這樣訓練出來的詞向量具有很好的語義表示能力。

(3)

實驗采用的是Word2Vec工具生成的詞向量。Word2Vec有2種方式:CBOW和skip-gram,采用skip-gram、skip-gram的目的是使用一個詞來預測窗口內的其他詞,最大化其他詞的概率。

由于通過word2vec可以將單詞投射到低維向量空間,本文采用2個詞的向量的cosine距離作為2個詞的相似度,用于候選詞的初級篩選,如圖3所示。

圖3 word2vec的2種方式

2個維度為D的向量e和f的cosine距離定義如下:

(4)

2.2 貪心解碼算法

在非正規詞聚類之后,每個非正規詞都有一個候選正規詞表,從這個詞表中選出該詞意思最近的正規詞作為此非正規詞的歸一化目標。對于包含非正規詞的句子,從候選詞表中選擇最優解可以類比為一個簡易的機器翻譯的解碼過程,只需要針對非正規詞進行部分解碼即可。

采用一個比較簡單的貪心策略的解碼器進行候選詞的篩選,貪心策略的評分價值采用句子的語言模型困惑度評分變化率以及非正規詞與其候選詞的字符串相似度的綜合考慮。選取得分超過閾值的詞。評分如式(5)所示,pp_ratio是語言模型困惑度變化率,lexicalsimilarity是2個詞的詞匯字符串相似度,λ1、λ2分別是模型的2個超參數,在實驗中使用手工調優得到,手動調參策略是固定一個threshold,將λ1、λ2均以0.5為初值,學習率為0.03,以正則化之后測試集的BLEU值作為評價指標,從而選取較優的比例;threshold的選取則是在λ1、λ2選取之后手動進行調整,策略與λ1、λ2調參類似。

score(word)=λ1pp_ratio+λ2lexicalsimilarity

(5)

語言模型的目的是建立一個能夠描述給定詞序列在語言中出現的概率的分布,使用一個采用Kneser-Nye平滑的n=5的n-gram語言模型對句子進行困惑度打分。困惑度評分如式(6)所示。

(6)

對于候選詞的困惑度pp_ratio打分為用此候選詞替換對應的非正規詞之后的句子的困惑度變化率,計算方式如式(7)所示。

(7)

對于字符串的相似度最常被采用的是編輯距離,編輯距離又叫Levenstein距離,是指2個字串之間,由一個轉成另一個所需的最少編輯操作次數。許可的編輯操作包括將一個字符替換成另一個字符,插入一個字符,刪除一個字符。一般來說,編輯距離越小,2個串的相似度越大。

但是編輯距離并不能特別適合這種場景,因為一般非正規書寫的單詞包括很大一部分是對單詞進行大面積的縮寫。采用文獻[6]所提出來的詞匯相似度值,2個單詞S1、S2的詞匯字符串相似度如式(8)所示,是2個字符串的最長公共子串率與編輯距離之除,這個相似度很好地適用于縮寫的情況。

(8)

2個單詞的最長公共子串率如式(9)所示,是2個字符串的最長公共子串與它們的最長長度之除。

(9)

解碼算法的偽代碼如下:

輸入非正規用語語料庫UStd={s1,s2,…,sn},評分閾值threshold

matchpairs={}

for sentence in UStd do:

計算sentence的語言模型評分pp1

for 非正規詞UFword in sentence do:

計算候選集中一個正規詞FWord替換后的句子語言模型評分PP2

計算score(FWord)

if max(score(FWord)) > threshold do:

將UFword替換為FWord繼續當前句子解碼

else do:

進行下一句子解碼

end

2.3 bootstrapping

解碼器使用的都是基于很多噪聲的語料訓練出來的向量空間以及上下文信息,會導致一些非正規詞對應的正規詞不能聚類到top-k的候選集中,從而不能在解碼中匹配出來。為了解決這個問題,引入了bootstrapping方法。bootstrapping是統計學中的重采樣,本文應用bootstrapping是帶更新的重采樣,在所有句子解碼完成后,將匹配到的非正規詞歸一化為其對應的正規詞,將修改過的語料與正規語料一起,再重采樣,進行遞歸來對之前歸一化過程中未能歸一化的詞進行進一步的歸一化。重采樣的策略采用.632自助法,對于包含d個樣本的數據集,有放回地抽樣d次,產生d個樣本的數據集,每次遞歸之后采取的重采樣操作一樣。

3 實驗結果與分析

本文主要研究對象為維吾爾語口語中非正規詞,首先實驗驗證詞歸一化模型的準確性,然后將歸一化的結果運用于維漢機器翻譯中驗證本文方法對機器翻譯系統的作用的有效性,作為對比對象,引入了文獻[10]提出的方法。

3.1 正確性分析

由于尚未有通用的維吾爾語詞歸一化方法,采用人工判定方式,使用的語料資源為:0.2 MB的新聞維漢雙語語料作為正規語料,0.2 MB的網絡文本作為非正規語料;使用的詞向量是word2vec,窗口大小為8,最小出現次數為10而訓練生成的200維的向量,語言模型為使用kenlm[19]對此正規語料訓練的N=5的N-gram語言模型。

使用本文方法能成功歸一化1 812次非正規詞,對歸一化成功的詞進行準確度、召回度和F1值評價,結果如表1所示。

表1 歸一化詞正確性分析 %

從實驗結果可以看出,本文方法與文獻[10]方法均能夠在此場景中有效地進行詞的歸一化。本文方法在遞歸的進行中,準確度逐步增加,并且在遞歸3次之后就優于文獻[10]方法,這說明本文方法引入的bootstrapping策略能有效地提高歸一化的準確性。在召回率上,本文方法隨著遞歸的進行,召回率逐步降低,主要是由于前序遞歸中為正確歸一化的詞引入的噪聲,最后召回率低于文獻[10]方法,但總體F1值也與文獻[10]方法相當。

3.2 機器翻譯實驗驗證

把本文提出的非正規詞歸一化方法應用于實際的機器翻譯系統中,來驗證該方法的有效性。

歸一化模塊的實驗設置:使用的語料資源為0.2 MB的新聞維漢雙語語料作為正規語料,0.2 MB的網絡文本作為非正規語料,使用的詞向量是word2vec生成的窗口大小為8的200維的向量,語言模型為使用此正規語料訓練的N=5的N-gram語言模型,超參數λ1、λ2經過多次實驗,采用0.43、0.57效果最優。

機器翻譯實驗設置:采用維漢新聞語料和未正規化的口語語料作為實驗對象,訓練集采用CWMT2015的維漢新聞語料,由于尚未有公開的維漢雙語口語語料集,實驗采用爬取以及標注的網頁論壇語料作為測試集,語料樣本規模如表2所示。

表2 機器翻譯語料

實驗的基線系統為moses3.0[20]訓練的基于短語的統計機器翻譯系統[21],該系統基于最小錯誤率訓練方法優化翻譯系統權重,最后采用BLEU值作為評價指標。本文設置如下3個翻譯實驗:

1)基線:利用新聞語料訓練的統計翻譯模型直接對測試集進行翻譯。

2)文獻[10]方法:對測試集使用文獻[10]方法進行歸一化之后利用基線進行翻譯。

3)本文方法:采用本文提出的歸一化方法進行歸一化之后利用基線進行翻譯,遞歸i表示本文方法進行重采樣遞歸i次之后進行歸一化的結果。

實驗結果如表3所示,利用本文方法進行歸一化之后的文檔的翻譯結果的BLEU值有了顯著的提升。在遞歸2次之后,本文方法的結果略優于進行一次解碼的文獻[10]提出的方法。

表3 機器翻譯實驗結果

圖4 包含非正規詞的句子實例

圖5 歸一化之后的句子實例

本文方法的效果隨著遞歸的進行,BLEU值逐步趨于收斂,這是由于本文方法每輪遞歸中未正確歸一化的詞所引入的噪聲導致后續的遞歸過程中能進行正確歸一化的詞數量減少所導致的。

4 結束語

本文提出了一種無監督的維吾爾語口語中非正規詞的歸一化方法,將該方法運用于維漢機器翻譯的待翻譯句子的前編輯歸一化之后,相比于基線系統,使用不同領域訓練的統計機器翻譯系統,在測試集上BLEU值提升了0.7。此外本文方法也是對文獻[10]方法的一種改進,引入了bootstrapping方法并且采用了另一個解碼器以及不同的打分機制,實驗結果也證明本文方法有一定的改進,在準確度上有了2.4個百分點的提高,由于引入重采樣策略,召回率降低了5個百分點,在機器翻譯上,本文方法也較之在BLEU值上提高了0.2。

由于本文未能引入更多的維吾爾語的語言學特性,因此后續將在解碼器中加入部分語言學方面的規則,進一步提高歸一化的召回率。

[1] 年 梅,張蘭芳.維吾爾文網絡查詢擴展詞的構建研究[J].計算機工程,2015,41(4):187-189,194.

[2] MI Chenggang,YANG Yating,ZHOU Xi,et al.A Phrase Table Filtering Model Based on Binary Classification for Uyghur-Chinese Machine Translation[J].Journal of Computers,2014,9(12):2780-2786.

[3] SHANNON C E.Communication Theory of Secrecy Systems[J].Bell System Technical Journal,1949,28(4):656-715.

[4] BRILL E,MOORE R C.An Improved Error Model for Noisy Channel Spelling Correction[C]//Proceedings of the 38th Annual Meeting on Association for Computational Linguistics.[S.l.]:Association for Computational Linguistics,2000:286-293.

[5] TOUTANOVA K,MOORE R C.Pronunciation Modeling for Improved Spelling Correction[C]//Pro-ceedings of the 40th Annual Meeting on Association for Computational Linguistics.[S.l.]:Association for Computational Linguistics,2002:144-151.

[6] COOK P,STEVENSON S.An Unsupervised Model for Text Message Normalization[C]//Proceedings of Workshop on Computational Approaches to Linguistic Creativity.[S.l.]:Association for Computational Linguistics,2009:71-78.

[7] AW A T,ZHANG Min,XIAO Juan,et al.A Phrase-based Statistical Model for SMS Text Normalization[C]//Proceedings of COLING/ACL on Main Conference Poster Sessions.[S.l.]:Association for Computational Linguis-tics,2006:33-40.

[8] HASSAN H,MENEZES A.Social Text Normalization Using Contextual Graph Random Walks[C]//Proceedings of the 51st Annual Meeting Computational Linguistics Meeting.[S.l.]:Association for Computational Linguis-tics,2013:1577-1586.

[9] HAN Bo,COOK P,BALDWIN T.Automatically Con-structing a Normalisation Dictionary for Microblogs[C]//Proceedings of Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning.[S.l.]:Association for Computational Linguistics,2012:421-432.

[10] SRIDHAR V K R.Unsupervised Text Normalization Using Distributed Representations of Words and Phrases[C]// Proceedings of Workshop on Vector Space Modeling for Natural Language Processing.New York,USA:ACM Press,2015:8-16

[11] MOONEY C Z,DUVAL R D,DUVAL R.Bootstrapping:A Nonparametric Approach to Statistical Inference[J].Technometrics,1993,36 (4):435-436

[12] 羅 軍,高 琦,王 翊.基于Bootstrapping的本體標注方法[J].計算機工程,2010,36(23):85-87.

[13] 何婷婷,徐 超,李 晶,等.基于種子自擴展的命名實體關系抽取方法[J].計算機工程,2006,32(21):183-184.

[14] XU W,RUDNICKY A I.Can Artificial Neural Networks Learn Language Models?[D].Pittsburgh,USA:Carnegie Mellon University,2000.

[15] BENGIO Y,DUCHARME R,VINCENT P,et al.A Neural Probabilistic Language Model[J].Journal of Machine Learning Research,2003,3(2):1137-1155.

[16] MIKOLOV T,KARAFIT M,BURGET L,et al.Recurrent Neural Network Based Language Model[C]//Proceedings of Conference of the International Speech Communication Association.Berlin,Germany:Springer,2010:1045-1048.

[17] PENNINGTON J,SOCHER R,MANNING C D.Glove:Global Vectors for Word Representation[C]//Proceedings of Conference on Empirical Methods in Natural Language Processing.Berlin,Germany:Springer,2014:1532-1543.

[18] 張為泰.基于詞向量模型特征空間優化的同義詞擴展研究與應用[D].北京:北京郵電大學,2014.

[19] HEAFIELD K.KEN L M:Faster and Smaller Language Model Queries[C]//Proceedings of the 6th Workshop on Statistical Machine Translation.[S.l.]:Association for Computational Linguistics,2011:187-197.

[20] KOEHN P,HOANG H,BIRCH A,et al.Moses:Open Source Toolkit for Statistical Machine Translation[C]//Proceedings of the 45th Annual Meeting of the ACL on Interactive Poster and Demonstration Sessions.[S.l.]:Association for Computational Linguistics,2007:177-180.

[21] CHIANG D.Hierarchical Phrase-based Translation[M].[S.l.]:Association for Computational Linguistics,2007.

猜你喜歡
語言方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言是刀
文苑(2020年4期)2020-05-30 12:35:30
讓語言描寫搖曳多姿
累積動態分析下的同聲傳譯語言壓縮
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
我有我語言
主站蜘蛛池模板: 国产免费久久精品99re不卡| 国产一级妓女av网站| 欧美精品在线视频观看| 日韩免费视频播播| 亚洲精品无码不卡在线播放| 波多野吉衣一区二区三区av| 国产美女无遮挡免费视频网站 | 亚洲精品无码AⅤ片青青在线观看| 黄色不卡视频| 精品国产自在在线在线观看| 欧美亚洲中文精品三区| 九九视频免费在线观看| 丝袜高跟美脚国产1区| 国产麻豆aⅴ精品无码| 成人精品午夜福利在线播放| 韩日无码在线不卡| 久久久亚洲国产美女国产盗摄| 亚洲第一区欧美国产综合| 超清无码熟妇人妻AV在线绿巨人 | 国产欧美日韩综合一区在线播放| 欧洲成人免费视频| 激情六月丁香婷婷| 久爱午夜精品免费视频| 国模极品一区二区三区| 欧美乱妇高清无乱码免费| 国产高清无码麻豆精品| 尤物亚洲最大AV无码网站| 国产精品视频猛进猛出| 国产亚洲美日韩AV中文字幕无码成人| 亚洲中文字幕国产av| 国产精品男人的天堂| 六月婷婷精品视频在线观看| 五月天在线网站| 日韩精品一区二区三区免费在线观看| 日本一区二区不卡视频| 71pao成人国产永久免费视频| 国产黄在线免费观看| www中文字幕在线观看| 国产精品v欧美| 国产精品xxx| 88av在线| 色天堂无毒不卡| 伊人大杳蕉中文无码| 亚洲精品动漫在线观看| 91精品国产91久久久久久三级| 老色鬼欧美精品| 日韩小视频在线播放| 国产精品亚洲片在线va| 狠狠色狠狠色综合久久第一次| 伊人网址在线| 一边摸一边做爽的视频17国产| 中文字幕在线一区二区在线| 91麻豆精品国产高清在线| 亚洲黄色网站视频| 国产成人91精品免费网址在线| 国产主播在线观看| 亚洲黄网在线| 欧美五月婷婷| 视频一区亚洲| 久久国产高清视频| 国产精品亚欧美一区二区| 2021精品国产自在现线看| 欧美精品在线免费| 国产一区二区人大臿蕉香蕉| 亚洲免费成人网| 亚洲国产成人无码AV在线影院L| 丁香五月婷婷激情基地| 毛片大全免费观看| 国内精品一区二区在线观看| 热re99久久精品国99热| 亚洲AV无码精品无码久久蜜桃| 国产精选小视频在线观看| 久久无码高潮喷水| 亚洲天堂精品视频| 亚洲国产亚洲综合在线尤物| 亚瑟天堂久久一区二区影院| 国产网站免费| 99精品视频九九精品| www.youjizz.com久久| 欧美精品xx| 国产SUV精品一区二区6| 情侣午夜国产在线一区无码|