999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向單一雙語網(wǎng)頁的雙語資源挖掘方法

2011-06-14 02:33:30張桂平王瑩瑩
中文信息學(xué)報 2011年1期
關(guān)鍵詞:頁面規(guī)則分類

羅 陽,季 鐸,張桂平,王瑩瑩

(沈陽航空航天大學(xué) 知識工程中心,遼寧 沈陽 110136)

1 引言

雙語平行語料庫是由原文文本及其平行對應(yīng)的譯文文本構(gòu)成的語料庫,在翻譯知識的獲取、雙語詞典的建立、機器翻譯和跨語言信息檢索等自然語言處理領(lǐng)域有重要的應(yīng)用價值。隨著互聯(lián)網(wǎng)的普及和國際化的需要,越來越多的信息以多種語言的形式在網(wǎng)絡(luò)上發(fā)布,使互聯(lián)網(wǎng)成為一個取之不盡,日益增長的信息資源庫,其中包含大量的雙語甚至多語語料資源。本文所要介紹的是一種如何從浩如煙海的、復(fù)雜的網(wǎng)絡(luò)數(shù)據(jù)中挖掘雙語資源的方法。根據(jù)雙語資源的存在形式可將Web資源分為兩大類[1],即雙語平行網(wǎng)頁和單一雙語網(wǎng)頁(下文稱雙語網(wǎng)頁): 前者是兩個單語的平行網(wǎng)頁,兩種語言的平行文本分別存在于這兩個單語的平行網(wǎng)頁中;后者是一個雙語網(wǎng)頁,平行文本存在于這個網(wǎng)頁內(nèi)。具體來說,雙語平行頁面中對應(yīng)位置的內(nèi)容可以作為雙語平行句對。以往的系統(tǒng)都主要集中于對這類頁面的研究。并主要通過平行頁面的URL進行關(guān)聯(lián)的分析和挖掘,在具體應(yīng)用中都獲得了較好的效果[2-4]。

雙語網(wǎng)頁可能是對商品的介紹、對專業(yè)術(shù)語的解釋或外語學(xué)習(xí)網(wǎng)站。雙語頁面中包含大量雙語資源,并且這些雙語資源大部分遵循一定的規(guī)則和模式。一個日漢雙語頁面中包含格式一致的雙語信息(日漢翻譯對),如“3 ベリファイ 檢驗,證實,核實 verify”等,且都遵循相同的格式規(guī)則,如圖1所示。據(jù)估算[1],在中文網(wǎng)站中至少有數(shù)以千萬計的雙語頁面,每個頁面中都包含有大量的雙語資源,如果能通過人工整理將此類有章可循的雙語網(wǎng)頁從互聯(lián)網(wǎng)眾多的頁面中篩選出來,然后按照既有的模式對其內(nèi)部雙語翻譯對進行挖掘,即可得到對齊的雙語資源。這種方案在雙語對齊分析后期語料細加工上具有優(yōu)勢;另外雙語網(wǎng)頁往往具有領(lǐng)域性知識,可以進行不同領(lǐng)域的雙語資源挖掘。因此本文主要研究此類網(wǎng)頁的雙語資源挖掘。

圖2 方法框架

本文深入研究中日雙語網(wǎng)頁的結(jié)構(gòu)特點,在進行網(wǎng)頁篩選時不采用傳統(tǒng)的詞作為特征,而是利用網(wǎng)頁中頻繁出現(xiàn)的包含雙語信息的模式判別雙語網(wǎng)頁。本文提出了一種基于頻繁序列模式(Frequent Sequence Pattern, FSP)的網(wǎng)頁分類算法來對互聯(lián)網(wǎng)中的頁面進行分類,篩選出符合要求的中日雙語頁面,從中抽取雙語資源。實驗結(jié)果表明,本方法能夠有效地進行網(wǎng)頁分類,篩選出的網(wǎng)頁具有90%以上的正確率。在此基礎(chǔ)之上,使用FSP對雙語頁面中的資源進行挖掘可得到92.5%的正確率。本文以日漢兩種語言為例,討論了日漢雙語網(wǎng)頁分類方法,該方法同樣適用于英漢、英日等編碼區(qū)分度大,和日韓、中韓等較難區(qū)分編碼的雙語網(wǎng)頁分類。方法框架如圖2所示。

2 相關(guān)工作

在從單一雙語網(wǎng)頁中挖掘雙語資源方面,2007年Cao[5]、2008年Lin[6]提出兩種不同的方法,都是基于括號的模式,如“北京大學(xué) (パキンだいがく)”,括號中的日語為括號前漢語的翻譯。該方法適用于網(wǎng)站頁面中出現(xiàn)諸如人名、地名、書籍名及動植物名等專有名詞,和專業(yè)領(lǐng)域里的專業(yè)術(shù)語,作者為了方便讀者以及提高頁面的可閱讀性,在其母語后用括號將其外語翻譯標(biāo)注出來的頁面,這樣的頁面有很多潛在的雙語翻譯對。2008年郭稷[7]等還就這種形式中,母語術(shù)語邊界劃分問題進行分析,例如“足球教練佐夫(Zolf)”中Zolf對應(yīng)翻譯的確定,提出使用多特征判別模型進行邊界劃分。這種通過括號來提取術(shù)語翻譯的思想在大量頁面中做過測試,并且取得了預(yù)期的結(jié)果,然而,并不是所有的雙語頁面都遵循括號模式,所以這類思想可能會錯失Web上的很多翻譯資源。2007年Cao[8]訓(xùn)練了一個音譯對齊判別模型用于音譯對的抽取,然后訓(xùn)練一個翻譯判別模型,利用此模型進行翻譯對的抽取。不過利用音譯抽取具有一定的局限性,因為很多雙語翻譯對的讀音并不相同,對于漢—日翻譯對來說,出現(xiàn)讀音類似的翻譯對的幾率非常低。2009年Jiang[1]同樣將雙語頁面建立成DOM樹,使用音譯模型發(fā)掘種子,然后用模式匹配的方法在每一個節(jié)點的內(nèi)部文本中挖掘潛在的英漢雙語翻譯對,并采用了分類器給候選模式打分。

網(wǎng)頁分類技術(shù)借鑒了文本分類中的一些方法,但是Web頁面資源與普通文本資源相比又有以下特點: (1)Web頁面為半結(jié)構(gòu)化資源,除了頁面內(nèi)容外還有許多其他信息,如HTML標(biāo)簽、JavaScript等腳本語言內(nèi)容等;(2)格式非常靈活,一個頁面可能包含不同的格式并且每個格式有不同的標(biāo)準(zhǔn);(3)不同Web頁面的風(fēng)格與內(nèi)容有很大差異。除了Web頁面自身的特點外,作為中日雙語頁面中的一種語言,日文的結(jié)構(gòu)具有很大復(fù)雜性,導(dǎo)致對日文的判定有一定難度。這些特點決定網(wǎng)頁分類算法分成三類,基于內(nèi)容的分類方法,基于鏈接的分類方法和組合分類的方法。

基于內(nèi)容的網(wǎng)頁方法即將Web頁面用純文本的形式表示出來,然后使用文本分類技術(shù),例如K-NN算法和基于SVM的方法從訓(xùn)練集中篩選特征詞,然后計算訓(xùn)練集和測試集的相似度進行分類。Sung[9]提出了一種基于標(biāo)簽區(qū)域的逐步分析算法(TAgger-Reigon Progressive Analysis, TARPA),Haruechaiyasak[10]提出一種基于特征詞模糊聯(lián)系(Fuzzy Association)的網(wǎng)頁分類方法。基于鏈接的分類方法即如果頁面A中有一個超鏈接至頁面B,那么就認為頁面A和頁面B是相關(guān)的,可以利用分類方法對相關(guān)的頁面進行分類。這種網(wǎng)頁分類方法的弊端是這種頁面鏈接關(guān)系往往不能正確反映頁面的語義聯(lián)系,即擁有鏈接關(guān)系的兩個頁面可能在內(nèi)容方面沒有任何聯(lián)系;而沒有鏈接關(guān)系的頁面之間可能聯(lián)系緊密,這兩種情況都會影響到分類的效果。Tai[11]提出的基于鏈接頁面的PageRank值的方法提出一種鄰居頁面的過濾方法(Neighbor Text Percolation),通過計算鏈接頁面的PageRank值來篩選出符合要求的鄰居頁面,然后將這些鄰居頁面和原頁面一起進行分類,能夠有效改善上述弊端。使用組合分類的方法進行網(wǎng)頁分類即使用兩種分類器,一種是借助于鏈接分類的結(jié)果來進行內(nèi)容分類,另一種是利用內(nèi)容分類的結(jié)果來進行鏈接分類。范炎[12]提出使用樸素貝葉斯協(xié)調(diào)分類器的方法進行組合分類器網(wǎng)頁分類。使用組合分類的方法可以綜合前兩種方法的優(yōu)勢,也能充分利用網(wǎng)頁的特征,但是不同的分類器性能不同,采用哪種分類器組合策略可以達到較好的效果很難確定。

3 基于支持向量機的雙語網(wǎng)頁獲取

可能包含雙語資源的網(wǎng)頁有多種獲取方法: 可以通過在搜索引擎上進行啟發(fā)式搜索(如輸入啟發(fā)條件“日語專業(yè)詞匯”);可以收集相關(guān)主題網(wǎng)站,根據(jù)鏈接遞歸下載[13];也可以利用種子翻譯對來搜索相關(guān)網(wǎng)頁。在得到候選雙語網(wǎng)頁后,我們使用支持向量機來判別雙語網(wǎng)頁。

3.1 支持向量機模型

支持向量機(SVM)由Vapnik[14]在結(jié)構(gòu)風(fēng)險最小化與VC維理論的理論基礎(chǔ)上提出,根據(jù)有限樣本信息,綜合考慮機器學(xué)習(xí)的能力與問題模型的復(fù)雜程度,平衡二者的優(yōu)劣利弊以獲得預(yù)期效果,能夠有效解決有限樣本集的機器學(xué)習(xí)問題。設(shè)樣本(x1,y1),…,(xi,yi),…,(xn,yn),xi∈Rn,xi和yi均為樣本中的向量,其中yi可能是樣本集中經(jīng)過特征提取后的特征構(gòu)成的向量,也可能是經(jīng)由核函數(shù)將特征向量映射至高維空間后的映射向量。若yi的取值為+1和-1,則SVM模型稱之為二分類SVM。

若樣本集是線性可分的,在d維特征空間中判別函數(shù)的一般形式為

f(x)=w·x+b

(1)

特征空間的分類平面方程為

w·x+b=0

(2)

若有存在權(quán)重向量w*,使得‖w*‖最小,并且滿足

(3)

yi(w*·xi+b)≥1

(4)

則w*稱為支持向量,分類平面w*·xi+b=0為最優(yōu)分類平面,并且對所有樣本正確分類。此問題可以利用Lagrange方法轉(zhuǎn)化為其對偶模型,即找出函數(shù)

(5)

約束條件為

(6)

這是一個二次函數(shù)尋求最優(yōu)解的問題,存在唯一解。最優(yōu)解中不為零的αi即為支持向量。解此問題得到的最優(yōu)分類函數(shù)為

(7)

3.2 基于頻繁序列模式的特征選擇

本文使用數(shù)據(jù)挖掘中“頻繁序列模式”[15]的概念,即: 令I(lǐng)={i1,i2,…,im}是一個項集,是項目的非空集合,其中ij是項目。一個序列(Sequence)s=是項集的有序集合,其中sj是項集。一個事務(wù)T是一個序列,一個事務(wù)數(shù)據(jù)庫D是一個事務(wù)集。令X代表一個序列。事務(wù)T支持X,當(dāng)且僅當(dāng)T包含X。D中支持X的事務(wù)的數(shù)目稱為X的支持度,記為support(X),如果support(X)不低于預(yù)先設(shè)定的最小支持度σmin,則稱X為頻繁序列。據(jù)此本文定義:

定義1頻繁序列模式(Frequent Sequential Pattern, FSP): 查找DOM樹Treedom中的所有葉子節(jié)點Leafi,將Leafi中的內(nèi)容對應(yīng)成文本元素序列S=,若S在事務(wù)集中出現(xiàn)的次數(shù)超過閾值Tr,則認為S為頻繁序列模式。

Web頁面屬于半結(jié)構(gòu)化資源,本方法對Web頁面進行預(yù)處理,將HTML文本轉(zhuǎn)化為DOM樹,取不同的文本元素(數(shù)字、空白、日文、中文、英文等)為項目;取DOM樹中葉子內(nèi)容對應(yīng)的文本元素序列為事務(wù),一篇HTML文本即為一個事務(wù)集。葉子內(nèi)容所對應(yīng)的文本元素序列在事務(wù)集中的支持度大于最小支持度,即為頻繁序列模式。本文將不同的文本元素使用不同的標(biāo)示符替代,其對應(yīng)關(guān)系如表1所示,可將頻繁序列模式形式化。例如模式“1 かさ(傘) 〔名〕 傘”即形式化為“NSJ(J)S〔C〕SC”。

表1 文本類型與對應(yīng)標(biāo)識符

一個雙語頁面中的雙語資源會遵循一定的模式,這種模式可以看作是FSP。本文規(guī)定FSP的判定條件為: 對于模式Pi,若Pi中同時包含中文和日文,并且support(Pi)>Tr,其中support(Pi)為P在一個Web頁面中出現(xiàn)的次數(shù),則認為Pi是一個雙語FSP。Web頁面中若包含數(shù)量可觀的FSP,也就意味著頁面中包含大量雙語資源(日漢翻譯對),那么可以將其看作候選雙語頁面。例如圖1所示的頁面中包含 “8 テーパー 尖錐 taper”,形式化后的模式為“NSJSCSE”,其同時包含中文和日文,若定義Tr=5,則此模式為FSP。很顯然:

(1) “NSJSCSE”包含的信息“8 テーパー 尖錐 taper”為有效的雙語信息;

(2) 此頁面中雙語資源的形式大多為“NSJSCSE”。

基于上述兩點可以很容易判斷出頁面為雙語頁面。所以,判斷一個Web頁面中是否為雙語頁面可以通過判斷頁面中是否包含有雙語信息的頻繁模式來實現(xiàn)。

從Web頁面中提取頻繁序列模式過程的算法:

For i=1 to 總網(wǎng)頁數(shù)Do

轉(zhuǎn)化第i 個網(wǎng)頁為 DOM 樹

形式化DOM 葉子節(jié)點的內(nèi)容

If (葉子節(jié)點內(nèi)容的長度<自然行的長度)

Then 選擇葉子節(jié)點做為模式片段

Else 選擇自然行作為模式片段

Endif

For j=1 to 第i個網(wǎng)頁中的總模式片段數(shù)Do

If (支持度(第j個模式片段)>Tr&& 第j個片段中包含“C”和“J”)

Then 將第j個模式片段加入候選FSP集中

Endif

Endfor

Endfor

提取出頻繁模式作為特征后,考慮到日漢兩種語言有使用相同文字的特點,去掉僅有日語、日漢通用文字和常用標(biāo)點的特征。本文采用TF-IDF的特征權(quán)重計算方法[16]:

(8)

tfi(d)表示特征ti在文本d中出現(xiàn)的頻率,N為文本集中的總文本數(shù),ni為出現(xiàn)特征ti的文本總數(shù)。

4 基于頻繁序列匹配的雙語資源挖掘

在網(wǎng)頁分類的基礎(chǔ)上,本文同樣使用3.2節(jié)得到的頻繁序列模式對已經(jīng)判定為雙語網(wǎng)頁的頁面進行雙語資源的挖掘。即把特征選擇得到的FSP放入規(guī)則庫,將網(wǎng)頁DOM樹的葉子節(jié)點內(nèi)容按照文本元素形式化為模式片段,若某模式片段與規(guī)則庫中的規(guī)則相同,則提取該葉子節(jié)點中的內(nèi)容為雙語資源。

利用頻繁序列模式對網(wǎng)頁信息進行匹配處理能得到可觀的雙語信息,但是頻繁序列模式未必包括Web頁面中的所有有用信息的規(guī)則,例如人為操作時將最大頻繁模式中的“.”寫為“。”,無法在規(guī)則庫中找到,可以利用機器學(xué)習(xí)的方式將這些有用的模式形式化為規(guī)則然后加入規(guī)則庫中。

首先定義非規(guī)則文本歸屬度:

定義2文本信息歸屬度AD: 對于非規(guī)則的文本信息Ii,令m為緊鄰Ii之前連續(xù)出現(xiàn)規(guī)則的數(shù)目;令n為緊鄰Ii之后連續(xù)出現(xiàn)的規(guī)則數(shù)目,即若Ii-1…Ii-m均為規(guī)則,Ii-m-1不是規(guī)則,則緊鄰Ii之前連續(xù)出現(xiàn)規(guī)則的數(shù)目為m,若Ii+1…Ii+n均為規(guī)則,Ii+n+1不是規(guī)則,則緊鄰Ii之后連續(xù)出現(xiàn)規(guī)則的數(shù)目為n。定義Ii的非規(guī)則文本歸屬度

(9)

對于不能和規(guī)則庫中規(guī)則匹配的文本信息,計算其AD值,若為0則直接舍棄;若不為0,根據(jù)AD值選取閾值,若文本信息AD值大于閾值,則將此文本信息形式化的規(guī)則擴充至規(guī)則庫。

定義非規(guī)則文本歸屬度,可以使本方案能自動地挖掘文本中潛在的、非頻繁序列模式的規(guī)則。默認AD值為1,實驗表明閾值越大,機器學(xué)習(xí)得到的規(guī)則庫具有較高的正確率。

5 實驗與結(jié)果

5.1 實驗數(shù)據(jù)集

本文使用《標(biāo)準(zhǔn)日本語》中單詞和機械專業(yè)術(shù)語共458個詞條為搜索項,通過百度搜索得到6 060個網(wǎng)頁,經(jīng)過人工標(biāo)注,雙語網(wǎng)頁3 023篇,非雙語網(wǎng)頁3 037篇。實驗隨機選取三批測試數(shù)據(jù)集,每批選取200篇雙語網(wǎng)頁,200篇非雙語網(wǎng)頁,共400篇作為測試數(shù)據(jù)集,其余作為訓(xùn)練數(shù)據(jù)集,規(guī)定網(wǎng)頁中含有5條以上雙語資源的網(wǎng)頁為雙語網(wǎng)頁。

5.2 實驗設(shè)置及評價指標(biāo)

本文解決的是二分類問題,所以實驗使用SVMlight作為SVM的實現(xiàn),用SVMlight的默認參數(shù),構(gòu)造了一個線性SVM。

同樣由于二分類問題,在本文實驗中,以文本分類的準(zhǔn)確率來衡量基于頻繁序列模式的雙語網(wǎng)頁分類的性能,定義如下:

雙語資源挖掘采用正確率(precision,簡記為P)來衡量系統(tǒng)性能,定義如下:

5.3 實驗結(jié)果及分析

本實驗通過在訓(xùn)練語料中提取FSP,得到499個特征,加上每篇網(wǎng)頁中權(quán)重最大的FSP作為附加特征,共得到500個特征。實驗選取的三批測試數(shù)據(jù)集經(jīng)過SVM分類得到的結(jié)果如表2所示,實驗證明本方法具有較好的準(zhǔn)確性和穩(wěn)定性。然而,實驗中是按網(wǎng)頁中的自然行和DOM樹的葉子節(jié)點(由HTML標(biāo)簽分割的內(nèi)容)為單位提取頻繁序列模式的,對于雙語對不在同一行或被標(biāo)簽分開的網(wǎng)頁(如雙語翻譯對存在與表格中)就無法提取到正確的FSP,甚至提取不到FSP,則在分類時會將這類網(wǎng)頁分到非雙語網(wǎng)頁中去,從而對分類的準(zhǔn)確率有一部分影響。

表2 網(wǎng)頁判別實驗結(jié)果

通過有雙語網(wǎng)頁判別和直接用頻繁序列模式提取雙語資源的對比實驗可以看出,在雙語網(wǎng)頁判別的基礎(chǔ)上挖掘雙語資源具有較高的準(zhǔn)確性,這對于收集雙語資源,建立高質(zhì)量的雙語資源庫是有意義的,實驗結(jié)果如表3所示。

表3 雙語資源挖掘?qū)嶒灲Y(jié)果

6 總結(jié)與未來工作

本文描述了一種基于頻繁序列模式的Web雙語資源挖掘方法,該方法首先使用網(wǎng)頁中頻繁出現(xiàn)的含有兩種語言特征的序列模式為分類特征,用SVM實現(xiàn)網(wǎng)頁分類,然后在確定為雙語頁面的網(wǎng)頁中使用頻繁模式挖掘出雙語資源。實驗證明該方法在雙語網(wǎng)頁分類和雙語資源挖掘的任務(wù)上有較好的性能。

未來工作中,我們將進行非自然行中頻繁模式提取的工作,考慮將模式疊加,以解決表格和非自然行雙語頁面分類的問題。并在雙語網(wǎng)頁分類的基礎(chǔ)上進行雙語資源的挖掘,根據(jù)頻繁模式提取出高質(zhì)量對齊的雙語翻譯對,建立雙語語料庫。

[1] L. Jiang, S. Yang, M. Zhou, et. al. Mining Bilingual Data from the Web with Adaptively Learnt Patterns[C]//Proceedings of 47th Annual Meeting of the Association for Computational Linguistics. ACL, 2009: 870-878.

[2] Jisong Chen,Rowena Chau,and Chung-Hsing Yeh.Discovering parallel text from the World Wide Web[C]//Proceedings of the second workshop on Australasian information security, Data Mining and Web Intelligence, and Software Interllationalization.Australia, 2004: 157-161.

[3] Philip Resnik and Noah A.Smith.The web as a parallel corpus[J].Computational Linguistics,29: 349-380.

[4] Ying Zhang, Ke.Wu, Jianfeng Gao, et. al.Automatic acquisition of chinese-english parallel corpus from the web[C]//Proceedings of ECIR-06,28th European Conference on Information Retrieval. 2006.

[5] G.H. Cao, J.F. Gao and J.Y. Nie. A system tomine large-scale bilingual dictionaries from monolingualweb pages[C]//Proceedings of MT summit XI: 57-64.

[6] D. Lin, S. Zhao, B. Durme, et. al. Mining Parenthetical Translations from the Web by Word Alignment[C]//ACL 08, 2008: 994-1002.

[7] 郭稷,呂雅娟,劉群.一種有效的基于Web的雙語翻譯對獲取方法[J].中文信息學(xué)報,2008,22(6): 103-109.

[8] G.H.Cao,J.F.Gao and J.Y.Nie. A System to Mine Large-Scale Bilingual Dictionaries from Monolingual web Pages[C]//Proceedings of MT Summit XI, 2007.

[9] Lichun Sun, Mengchang Chen, et.al. Web Document Classification based on Tagged-Region Progressive Analysis[C]//Proceedings of the International Computer Symposium (ICS), 2004.

[10] Choochart Haruechaiyasak, Meiling Shyu. Web Document Classification Based on Fuzzy Association[C]//Proceedings of the 26th International Computer Software and Applications Conference, 2002: 487-492.

[11] Shyhming Tai, Chengzen Yang and Ingxian Chen. Improved Automatic Web-page Classification by Neighbor Text Percolation[C]//Proceedings of the 8th CSIM Conference on Information Management Research and Practice, 2002: 289-296.

[12] 范焱,鄭誠,王清毅,等. 用Naive Bayes方法協(xié)調(diào)分類Web網(wǎng)頁[J]. 軟件學(xué)報, 2001, 12 (9): 1386-1392.

[13] 林政,呂雅娟,劉群,等. 基于雙語混和網(wǎng)頁的平行語料挖掘[C]//第十屆全國計算語言學(xué)學(xué)術(shù)會議,2009.

[14] Cortes C, Vapnik V. Support vector networks [J]. Machine Learning, 1995, 20 (3): 273-297.

[15] Agrawal R Srikant. Mining sequential patterns[C]//Proceedings of the 95 Int’1 Conf Data Engineering, Taipei, Taiwan, 1995: 73-98

[16] 徐鳳亞, 羅振聲. 文本自動分類中特征權(quán)重算法的改進研究[J].計算機工程與應(yīng)用, 2005, 41(1): 181-184.

猜你喜歡
頁面規(guī)則分類
大狗熊在睡覺
刷新生活的頁面
撐竿跳規(guī)則的制定
數(shù)獨的規(guī)則和演變
分類算一算
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
讓規(guī)則不規(guī)則
Coco薇(2017年11期)2018-01-03 20:59:57
教你一招:數(shù)的分類
TPP反腐敗規(guī)則對我國的啟示
主站蜘蛛池模板: 视频在线观看一区二区| 国产精品真实对白精彩久久| 免费无码AV片在线观看国产| 都市激情亚洲综合久久| 综合人妻久久一区二区精品| 四虎国产精品永久在线网址| 欧美精品伊人久久| 麻豆国产精品视频| 成人免费一级片| 欧洲极品无码一区二区三区| 国产人免费人成免费视频| 美臀人妻中出中文字幕在线| 免费国产黄线在线观看| 91久久天天躁狠狠躁夜夜| 国产亚洲精品97在线观看| jizz亚洲高清在线观看| 欧美一级黄片一区2区| 国产尤物在线播放| 成人在线不卡| 亚洲一区网站| 天天色综网| 午夜欧美理论2019理论| 亚洲一级无毛片无码在线免费视频 | 一区二区无码在线视频| 91精品网站| 91精品综合| 亚洲国产成人综合精品2020| 欧美日韩国产在线人| 免费又爽又刺激高潮网址 | 亚洲综合狠狠| 囯产av无码片毛片一级| 天堂av高清一区二区三区| 91热爆在线| 精品免费在线视频| 亚洲六月丁香六月婷婷蜜芽| 美女裸体18禁网站| 中文字幕色在线| 亚洲精品中文字幕无乱码| 国产亚洲欧美在线中文bt天堂 | 日本a级免费| 国产丝袜啪啪| 国产又粗又猛又爽视频| 中文无码影院| 综合五月天网| 69国产精品视频免费| 亚洲天堂精品视频| 中文字幕啪啪| 女人毛片a级大学毛片免费| 国产99热| 国产精品v欧美| 国产精品无码制服丝袜| 国产午夜在线观看视频| 欧美日本不卡| 欧美一级专区免费大片| 美美女高清毛片视频免费观看| 亚洲欧美不卡视频| 91青青草视频在线观看的| 一级一级一片免费| 日本欧美一二三区色视频| 中文成人在线视频| 亚洲色欲色欲www在线观看| 国内精品久久九九国产精品 | 福利片91| 毛片一级在线| 久久综合AV免费观看| 国产亚洲精品yxsp| 国产三级视频网站| 国产午夜人做人免费视频中文 | 欧美福利在线观看| 人妻中文久热无码丝袜| 国产一区二区精品福利| 成人毛片在线播放| 国产特级毛片| 精品久久综合1区2区3区激情| 91黄视频在线观看| 亚洲国模精品一区| 国产青榴视频在线观看网站| 欧美成一级| 超薄丝袜足j国产在线视频| 好吊日免费视频| 国产精品女熟高潮视频| 69视频国产|