999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)的TextRank多文檔文摘自動抽取模型

2023-05-29 10:19:36曾曼玲
軟件導(dǎo)刊 2023年5期
關(guān)鍵詞:文本信息方法

王 楠,曾曼玲

(1.吉林財經(jīng)大學(xué) 管理科學(xué)與信息工程學(xué)院;2.吉林財經(jīng)大學(xué) 經(jīng)濟(jì)信息管理研究所,吉林 長春 130117)

0 引言

當(dāng)用戶通過搜索引擎查詢某個主題信息時,會有數(shù)以千計的文章涌入,導(dǎo)致人們無法從不同媒體的同質(zhì)文章中快速甄別與提煉有價值的信息。人的精力及對信息的處理能力有限,因此,如何迅速而準(zhǔn)確地獲取領(lǐng)域知識信息變得尤為重要。多文檔自動文摘抽取是利用自然語言處理技術(shù)壓縮和提煉多篇同一個主題信息的方法,這種方法不僅可以幫助人們快速理解文本中心內(nèi)容,還能使人們擺脫繁雜和無用的信息,有效降低用戶的信息負(fù)載,對提高信息資源利用率有著重要的現(xiàn)實意義。

目前,對自動文摘的研究以英文語料庫為主,較少涉及中文文本,因此本文針對中文文本特點,基于TextRank算法構(gòu)建了一個多文檔文摘自動抽取模型。為解決傳統(tǒng)圖模型文本語義上的不足,在對語句間的相似性進(jìn)行度量時,打破以往TextRank 基于句子間共現(xiàn)詞頻率的方法,引入基于平滑逆頻率(Smooth Inverse Frequency,SIF)的句向量表示,計算句向量間的余弦相似度,在提高TextRank 算法邊值精確性的同時,使模型性能得到進(jìn)一步提升。

1 相關(guān)研究

1.1 自動文摘提取

目前,自動文摘技術(shù)可大致分為抽取式文摘和生成式文摘兩大類。抽取式文摘模型主要包括以下4 種方法:①基于統(tǒng)計特征的文摘提取方法[1-2]。該類方法根據(jù)文本的統(tǒng)計信息特征對句子進(jìn)行抽取,簡單易于實現(xiàn),但是對于詞句的研究大多停留在字面,缺乏對實際語義的深層考慮;②基于圖模型的文摘提取方法。這類方法將文本表示成一個圖,在全局上確定文本單元的重要度,對詞句進(jìn)行排序。例如,Mihalcea 等[3]提出的TextRank 算法將文本中的語句視為圖中的頂點,用語句間的相似度來表示無向有權(quán)邊,不斷迭代節(jié)點值直到收斂,最后選擇分?jǐn)?shù)最高的N 個節(jié)點作為文摘句;③基于主題模型的文摘提取方法。該方法通過潛在語義挖掘詞句隱藏信息,例如張明慧等[4]在傳統(tǒng)特征組合的框架下引入隱含狄利克雷分布(Latent Dirichlet Allocation,LDA)主題特征,對句子聯(lián)合打分,最后按照句子的分值抽取文摘句;④基于神經(jīng)網(wǎng)絡(luò)的文摘提取方法。例如,Liu[5]提出了一個簡單的BERT(Bidirectional Encoder Representation from Transformers)變 體——BERT-SUM 模型,通過修改BERT 模型的輸入序列和嵌入,微調(diào)摘要層實現(xiàn)文摘句提取。

抽取式文摘按照原文單元進(jìn)行提取,在語法上有一定保障,但也面臨著不夠連貫、靈活性差等問題。生成式文摘可以在句子中產(chǎn)生新的詞匯,使句子更加靈活。近年來隨著深度學(xué)習(xí)的發(fā)展,Seq2Seq 模型在生成式文摘中得到廣泛應(yīng)用。例如,Rush 等[6]提出一種將神經(jīng)語言模型與編碼器相結(jié)合的生成式文摘模型,其編碼中加入了Attention機(jī)制,解碼時用集束搜索來尋找概率最大的句子;王瑋[7]對深度學(xué)習(xí)模型進(jìn)行研究,提出一種復(fù)合文摘模型C-R,該模型將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)與循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)編碼器結(jié)合生成中間向量,RNN 解碼器提取向量重要信息,以實現(xiàn)生成式文摘的抽取。

抽取式和生成式自動文摘技術(shù)的交叉使用已成為一種新的研究趨勢。例如,張樂等[8]對中文專利文本提出了一種STNLTP 文摘模型,其借鑒集成策略,運用3 種抽取方法對專利說明書抽取關(guān)鍵句,然后將去重的最優(yōu)關(guān)鍵句送入基于Transformer 的指針生成網(wǎng)絡(luò)得到生成文摘;郭繼峰等[9]通過LDA 主題模型融合生成對抗網(wǎng)絡(luò)和指針生成網(wǎng)絡(luò),對生成式文摘模型進(jìn)行改進(jìn),提升了句子的可讀性和準(zhǔn)確性。

1.2 多文檔文摘提取

多文檔自動文摘與單文檔自動文摘具有相同的特點,均需對文本特征進(jìn)行分析,但二者之間還存在一些差異。與從單篇文檔中提取關(guān)鍵信息不同,多文檔文摘需從同一主題的若干文件中提取信息,因此多文檔文摘的難點在于文本之間的冗余過濾和信息之間的組織排序。自動文摘在日常生活中有著廣泛應(yīng)用,如單文檔文摘在問答、會議紀(jì)要、語音播報等方面有著重要表現(xiàn),而多文檔文摘可以看作單文檔文摘技術(shù)的延伸,其不僅能面向新聞查詢,還可以跟蹤熱點專題,生成事件的線索報告。

從目前研究成果來看,多文檔自動文摘技術(shù)還不夠成熟,但仍有許多學(xué)者加入到這一研究領(lǐng)域。例如,張波飛[10]在TextRank 算法計算圖節(jié)點的權(quán)重時加入基于LDA主題模型的主題詞概率分布,與單一算法相比準(zhǔn)確率明顯提高;龔永罡等[11]在傳統(tǒng)統(tǒng)計特征模型的基礎(chǔ)上加入兩個長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)計算文本相似度,并采用去除停用詞的方法改進(jìn)模型以提升效率;唐曉波等[12]針對復(fù)雜長文本與多文檔文摘信息的冗余和不全面特點,提出混合機(jī)器學(xué)習(xí)模型,使用聚類方法劃分句群減低冗余度,句子重組過程采用基于改進(jìn)的PageRank 算法對句子重要性打分;曾昭霖等[13]在研究面向查詢的多文檔文摘過程中提出了一種基于層級BiGRU+Attention 的模型,通過融合基于神經(jīng)網(wǎng)絡(luò)的句子打分模型和文本表面特征對句子的重要性進(jìn)行計算,最后利用最大邊緣相關(guān)(Maximal Marginal Relevance,MMR)算法選擇文摘句。

在多文檔文摘中,句子相似度的計算是其關(guān)鍵技術(shù)之一,也是最重要和最基本的步驟[14],其在文摘句抽取時具有重要作用。例如,仇麗青等[15]利用高頻詞的作用,計算測試集合所包含詞匯的頻率,根據(jù)詞頻對句子賦予權(quán)重。采用詞頻統(tǒng)計確定句子之間的相似度方法,較少考慮句子中語義信息,句子間的聯(lián)系較弱,缺乏對句子的真正理解,有一定的局限性。為克服文本特征表達(dá)上的不足,吳世鑫等[16]將句子的詞匯、相對位置、長度和基于SIF 句嵌入的句間相似度4個特征引入到自動文摘模型中,構(gòu)建特征加權(quán)函數(shù)進(jìn)行文摘句抽取,提高了抽取的質(zhì)量;羅飛雄[17]圍繞經(jīng)典的TextRank 算法進(jìn)行自動文摘分析時,發(fā)現(xiàn)傳統(tǒng)算法只是簡單的利用文本間的共現(xiàn)詞次數(shù)來度量句子相似度,諸多語義方面的重要信息被忽略。為了改進(jìn)傳統(tǒng)的圖算法,事先訓(xùn)練詞向量,然后對每個句子的詞向量求和平均,以求出相應(yīng)的句子向量,并計算句子向量的相似度,此方法提高了詞向量語義上的準(zhǔn)確度,從而提高句子的表達(dá)。但使用詞向量直接累加求平均值的方法不能很好地表示句子,其缺陷是把所有詞在傳達(dá)句子含義中的重要性同等對待;黃波等[18]將Word2Vec 融入TextRank 算法,構(gòu)建高維詞庫集合R,將文本信息映射到高維詞庫中,計算句子之間的相似度,此方法改善了傳統(tǒng)稀疏矩陣的維數(shù)災(zāi)難和傳統(tǒng)圖模型共同詞頻率對句子權(quán)重的影響,但削弱了共現(xiàn)詞的加權(quán)作用。

可以看出,目前在與自動文摘相關(guān)的句子相似度研究中大多是對句子表層特征統(tǒng)計分析,并且傳統(tǒng)圖模型只側(cè)重詞語之間的關(guān)聯(lián),忽視了語義方面的問題,缺少對文本特征的深入研究。基于SIF 的方法在提取文本數(shù)據(jù)特征、進(jìn)行跨模態(tài)相似性度量中展現(xiàn)出優(yōu)越性[19],因此本文在多文檔文摘研究中引入SIF 句嵌入方法,提出一種改進(jìn)的基于TextRank 算法的多文檔文摘抽取模型,模型可以獲得更加精準(zhǔn)的文本特征和更高的句子間相似度,進(jìn)而提取更高質(zhì)量的多文檔文摘。

2 模型構(gòu)建

本文構(gòu)建的多文檔文摘模型主要涉及文本預(yù)處理、文本向量化和文摘句抽取3 個方面。模型首先對多篇相同主題的新聞文本合并進(jìn)行文本預(yù)處理;然后運用Word2Vec 算法在中文維基百科語料庫中訓(xùn)練詞向量,在此基礎(chǔ)上引入SIF 算法將句子向量化,將語句特征轉(zhuǎn)化成向量之間的聯(lián)系;接著利用余弦相似度算法衡量向量之間的相似程度,以表示TextRank 關(guān)聯(lián)圖的邊值;再次,通過TextRank 算法抽取候選文摘句;最后,為了確保句子的全面性和多樣化,采用MMR 算法作冗余處理,提高最終文摘的質(zhì)量。模型流程如圖1所示。

2.1 文本預(yù)處理

文摘句是由文檔中選取多個能夠概括文本主題的句子而得到的,因此根據(jù)中文的文本特點,以分隔符列表[“。”,“!”,“;”,“?”]作為句子結(jié)尾的標(biāo)記,依次識別文中的分隔符,對文章語句進(jìn)行分句形成句群,并且對文檔進(jìn)行分詞和去停用詞操作。

2.2 文本向量化

2.2.1 基于Word2Vec的詞向量訓(xùn)練

Word2Vec 是由Mikolov 等[20]提出的一種通過語境學(xué)習(xí)語義信息的神經(jīng)網(wǎng)絡(luò)模型,其通過對海量語料庫的訓(xùn)練獲得低維向量映射詞匯之間的語義關(guān)系,結(jié)構(gòu)如圖2 所示。該模型只包含輸入層、映射層和輸出層,依據(jù)輸入和輸出的不同,模型框架分為連續(xù)詞袋模型(Continuous Bagof-Words,CBOW)和Skip-gram 模型兩種。CBOW 根據(jù)詞wt的上下文wt-2、wt-1、wt+1、wt+2來預(yù)測當(dāng)前詞wt;而Skip-gram則是在已知詞wt的情況下對詞wt的上下文wt-2、wt-1、wt+1、wt+2進(jìn)行預(yù)測。本文利用Word2vec 在中文維基百科語料庫上進(jìn)行訓(xùn)練得到預(yù)訓(xùn)練的詞向量,便于后續(xù)句向量的生成。

Fig.1 Automatic extraction model process of multi-document summarization圖1 多文檔文摘自動抽取模型流程

Fig.2 Word2Vec model structure圖2 Word2Vec模型結(jié)構(gòu)

2.2.2 基于SIF的句向量表示方法

SIF 是由Arora 等[21]提出的一種完全無監(jiān)督的句向量生成方法,該算法首先對句子的詞向量加權(quán)平均,然后找出第一奇異向量,減去由詞向量組合而成的句向量矩陣的第一主向量上的投影,即去除共有部分中的詞向量,保留每個詞向量所具有的特性。每個詞的權(quán)重表示為:

式中,a為超參數(shù),p(w)表示詞w對應(yīng)的詞頻。

句子表示方法如式(2)所示,其中∣s∣為句中詞的數(shù)量,vw為詞w的詞向量。對于文本中所有句子組成的矩陣X,采用主成分分析法求出第一主成分上平均向量的投影,并采用式(3)對句向量進(jìn)行修正,其中u為第一奇異向量。

本文使用上述訓(xùn)練的Word2Vec 模型獲得句子中對應(yīng)的詞向量,然后根據(jù)SIF 句向量生成方法,應(yīng)用單句詞嵌入將包含詞向量的句子列表轉(zhuǎn)換為一組句子向量。

2.3 文摘句抽取

2.3.1 TextRank算法

TextRank 算法是一種適用于文本的圖排序方法[22],該算法受到知名PageRank 的啟迪,用于無監(jiān)督地抽取關(guān)鍵詞與文摘句。TextRank 算法與PageRank 有相似之處,其以文本中的詞句作為圖的頂點,將詞句之間的邊值作為權(quán)值,從而評估詞句的重要程度。

TextRank 算法常用帶邊權(quán)的圖G=(V,E)描述,其中V為圖的頂點集合,E為邊的集合,E為V×V的一個子集,wij為圖中兩點Vi和Vj的邊權(quán)值,對于指定點Vi,In(Vi)表示指向該點的集合,Out(Vi)為點Vi指向的集合,點Vi的計算公式為:

式中,d為阻尼系數(shù),表示圖中任意兩點的指向概率,其取值在0~1 之間,通常取0.85。在對圖模型的每個頂點求分?jǐn)?shù)時,首先要給各點賦予任意初值,然后進(jìn)行迭代直至收斂,即當(dāng)圖中任何一個點的誤差率低于某個極限值時達(dá)到收斂,便可得到每個節(jié)點的最終得分,極限值通常取0.000 1。

傳統(tǒng)TextRank 只是簡單地利用文本之間的共現(xiàn)詞次數(shù)來表示句子相似度。為提升模型性能,在傳統(tǒng)邊的權(quán)值上進(jìn)行改進(jìn),本文引入SIF 句嵌入方法對句子向量化,將句子作為圖的頂點,以各語句間的相似關(guān)系作為邊,構(gòu)建TextRank 模型。采用余弦相似度對句子邊值進(jìn)行計算,由式(5)所示。通過迭代式(4)計算句子在圖中的最終權(quán)值,最后按得分值大小進(jìn)行排序。

2.3.2 候選句群的冗余處理

在不去除冗余的情況下,得分較高的幾個句子之間的相似度也較高。MMR 算法采用關(guān)聯(lián)度與新穎度的線性結(jié)合進(jìn)行度量,本文將這一原理運用到文摘句的抽取中,使所選擇的文摘句之間的相似性最小化,從而達(dá)到文摘的相關(guān)性和多樣化。該計算方法表示為:

式中,i表示候選文摘句;score(i)表示候選文摘句得分;j表示選定的文摘句;sim(i,j)表示候選語句i和所選擇文摘句j之間的相似性;λ×score(i)表示候選語句與主題內(nèi)容的關(guān)聯(lián)程度,在負(fù)號右側(cè)的因式是指候選語句和所有被選中的文摘句的相似度最大值,公式中的第一個負(fù)號表示兩個句子的相似度盡可能小。score(i)為TextRank 算法之后的句子得分,在第一輪中將得分最高的句子作為被選擇的文摘句,其余句子按照式(6)計算對應(yīng)的值,i從2 開始,相似度sim(i,j)仍然使用余弦相似度進(jìn)行計算。在抽取時,每一輪添加一個句子,直至完成所需文摘句數(shù)量。

3 實驗分析

3.1 數(shù)據(jù)集

目前,中文多文檔自動文摘缺乏大量實驗語料用于研究,而微博的信息量非常龐大,是用戶獲取信息資訊的重要媒介,因此本文從微博中爬取了相關(guān)新聞報道,構(gòu)建了中文多文檔自動文摘的實驗語料。該語料共包含30 個國內(nèi)外的熱點事件,主題涵蓋時事、軍事、社會、政治、衛(wèi)生及突發(fā)新聞方面,每個事件下有5~10 篇來自各大主流媒體對同一新聞的不同報道。以數(shù)據(jù)集中“巴黎圣母院遭遇火災(zāi)”事件為例,分別從修復(fù)工程、安全隱患、后期處理、事故原因方面列舉其中4 家媒體對該主題事件進(jìn)行的不同角度的新聞報道,如表1所示。

3.2 模型參數(shù)設(shè)置

在詞向量訓(xùn)練中,Word2vec 的相關(guān)參數(shù)如表2 所示,其中size 為輸出的詞向量維度;sg 為模型框架,0 即對應(yīng)CBOW 算法;min_count 表示對字典作截斷,即一個單詞在文本中的頻率低于閾值,那么這個單詞就會被刪除;windows 表示訓(xùn)練窗口。在去除文摘句冗余MMR 算法中,閾值λ設(shè)置為0.8。

3.3 評價指標(biāo)與結(jié)果分析

ROUGE 是由Chin-Yew Lin[23]提出的一種評估自動文摘方法,是當(dāng)前衡量自動文摘生成中最普遍的一種。其將計算機(jī)自動生成的文摘與人工編寫的參考文摘進(jìn)行比對,并根據(jù)它們之間的重疊基本單元(n 元語法、詞序列和詞對)數(shù)量進(jìn)行統(tǒng)計。ROUGE 的計算為:

式中,N表示元詞的長度;分子表示抽取的文摘與參考文摘共現(xiàn)的n-gram數(shù)量,分母表示標(biāo)準(zhǔn)參考文摘中共包含的n-gram數(shù)量。本文以ROUGE-1、ROUGE-2、ROUGE-L 作為評價多文檔文摘模型的指標(biāo),其中ROUGE-L 是基于最長公共子串的統(tǒng)計。

本文實驗結(jié)果按原文檔句子15%的比例對文摘句進(jìn)行抽取。為確保評價的準(zhǔn)確性,使用多個對照組對實驗數(shù)據(jù)進(jìn)行文摘句提取,比較結(jié)果如表3 所示,各模型在示例主題中所獲取的最終文摘如圖3 所示。其中TextRank 模型采用textrank4zh 庫對目標(biāo)文檔抽取;Word2vec+TextRank+MMR 模型采用實驗樣本語料訓(xùn)練詞向量,通過對詞向量求平均值獲得句子的向量表示,然后利用余弦相似度計算句間的相似性,使用TextRank 算法對文摘句抽取,并融合MMR 算法去除冗余。

Table 1 Example data set表1 數(shù)據(jù)集示例

Table 2 Word2vec model parameter setting表2 Word2vec模型參數(shù)設(shè)置

Table 3 Comparison of experimental results表 3 實驗結(jié)果比較

由表3 可以看出,與傳統(tǒng)TextRank 模型和基于實驗樣本語料的TextRank 融合模型相比,本文模型在3 個評價指標(biāo)上均有所提升,這是由于本文模型是在大規(guī)模語料庫上訓(xùn)練詞向量,同時引入SIF 句向量方法更好地表示向量空間中的信息,可以進(jìn)一步深入挖掘文本的語義特征。而單一的TextRank 算法與小規(guī)模實驗樣本語料的Word2Vec 詞向量對文本特征提取能力非常有限。此外,本文模型考慮到多文檔文摘在語義重復(fù)上的問題,加入了MMR 算法,在保證全面性的同時降低冗余度,提高了最終文摘句的質(zhì)量。

由圖3 可以看出,使用傳統(tǒng)TextRank 模型雖然可以很好地提煉事件主旨內(nèi)容,但是模型本身側(cè)重將得分高的句子作為文摘輸出,使得最終文摘句子間具有相似性,存在語義重復(fù)問題;基于實驗樣本語料的TextRank 融合模型有效降低了語句的冗余,然而由于語料庫的局限性對句中詞訓(xùn)練造成一定的影響,最終文摘達(dá)不到好的效果;本文模型所得到的文摘既含有圖3(a)中鉛污染和火災(zāi)損毀信息又包括圖3(b)中健康安全隱患和修復(fù)信息,文摘內(nèi)容更加完整多樣。

Fig.3 Example of summarization results from different models圖3 不同模型所得示例文摘結(jié)果

4 結(jié)語

針對文本語義上的不足,本文通過結(jié)合SIF 句嵌入方法對句子語義特征進(jìn)行向量化表示,提出一種基于TextRank 改進(jìn)的多文檔文摘自動抽取模型,并將其用于中文多文檔文摘的自動生成。通過與對照組的比較,驗證了所提模型的有效性。然而,該模型在抽取過程中仍然存在一些缺陷,需要進(jìn)一步完善:①Word2Vec 模型對特征的提取能力有限,無法解決多義詞的問題,未來會嘗試采用更多算法進(jìn)行提取效果對比,如BERT;②由于抽取式自動文摘是從原文中提取文章主題的中心句,在追求準(zhǔn)確率的同時忽略了文摘句之間的銜接、連貫性。后續(xù)工作將重點考慮文摘句排序部分,以及最終文摘語句的連貫性和可閱讀性;③本文研究的文摘以抽取式為基礎(chǔ),今后可將其與生成式文摘相結(jié)合,從而提高文摘質(zhì)量,拓展文摘模型。

猜你喜歡
文本信息方法
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
如何快速走進(jìn)文本
語文知識(2014年1期)2014-02-28 21:59:13
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: AV不卡在线永久免费观看| 成人国产精品一级毛片天堂| 91久久偷偷做嫩草影院精品| 亚洲综合在线最大成人| 国产原创自拍不卡第一页| 久久综合色视频| 中文字幕伦视频| 欧美日本激情| 国产麻豆福利av在线播放| 美女无遮挡被啪啪到高潮免费| 婷婷五月在线视频| 欧美精品亚洲精品日韩专区| 亚洲综合亚洲国产尤物| 日韩欧美中文| 人妻少妇乱子伦精品无码专区毛片| 人人妻人人澡人人爽欧美一区| 996免费视频国产在线播放| 美女啪啪无遮挡| 欧美综合一区二区三区| 91国内在线观看| 999精品视频在线| 免费日韩在线视频| 欧亚日韩Av| 91亚洲精选| 亚洲成人播放| 国产一区二区三区在线观看免费| 国产女人在线观看| www.亚洲天堂| 国产欧美日韩在线在线不卡视频| 伊人久久婷婷| 婷五月综合| 国产综合另类小说色区色噜噜| 亚洲国产午夜精华无码福利| 国产浮力第一页永久地址| 超清无码熟妇人妻AV在线绿巨人| 无码精油按摩潮喷在线播放| 亚洲国产精品一区二区第一页免 | 久久不卡精品| 国产不卡网| 亚洲中文字幕日产无码2021| 一级毛片在线播放免费观看| 97人妻精品专区久久久久| 久久综合AV免费观看| 久久精品人人做人人爽电影蜜月| 日日拍夜夜嗷嗷叫国产| 成人免费视频一区| 2021亚洲精品不卡a| 美女扒开下面流白浆在线试听| 91在线高清视频| 午夜毛片福利| 91福利一区二区三区| 欧美日本在线观看| 国产又爽又黄无遮挡免费观看| 狠狠v日韩v欧美v| 亚洲精品国产成人7777| 国产精品视频a| 日韩欧美中文在线| 亚洲无码高清免费视频亚洲| 免费看的一级毛片| 中文字幕欧美日韩| 日韩成人在线网站| 国产91丝袜在线观看| 无码福利视频| 亚洲最大福利视频网| 久久亚洲天堂| 老熟妇喷水一区二区三区| 国产一在线| 波多野结衣一区二区三区AV| 青青草一区| 成人精品免费视频| 久久免费看片| 精品久久久久久中文字幕女| 日韩在线永久免费播放| 亚洲精品无码在线播放网站| 色天天综合久久久久综合片| 国产精品久久久久无码网站| 天堂成人在线视频| 久草视频精品| 伊人色天堂| 午夜精品福利影院| 丝袜亚洲综合| 久久中文字幕av不卡一区二区|