999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Seq2Seq 模型的自定義古詩(shī)生成*

2020-06-11 01:03:22王樂(lè)為張應(yīng)龍
計(jì)算機(jī)與生活 2020年6期
關(guān)鍵詞:模型

王樂(lè)為,余 鷹,張應(yīng)龍

華東交通大學(xué) 軟件學(xué)院,南昌330013

1 引言

在文本生成領(lǐng)域,古詩(shī)生成一直是專(zhuān)家學(xué)者們關(guān)注與研究的熱點(diǎn)內(nèi)容之一,其中常用的模型包括:基于給定規(guī)則的生成模型[1-2]、基于文本生成算法的生成模型[3-4]、自動(dòng)摘要模型[5]和基于統(tǒng)計(jì)的機(jī)器翻譯模型[6-7]等。近年來(lái),伴隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN),如長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(long short-term memory,LSTM)、門(mén)控循環(huán)單元(gated recurrent unit,GRU)等[8],也被廣泛應(yīng)用于古詩(shī)生成,并取得了一定的效果。

在進(jìn)行古詩(shī)生成時(shí),人們往往希望能得到一段與某種意境相符的詩(shī)句,為此會(huì)提前輸入幾個(gè)表達(dá)意境的關(guān)鍵字或詞,對(duì)古詩(shī)的生成進(jìn)行控制指導(dǎo)。當(dāng)采用經(jīng)典RNN 模型生成詩(shī)句時(shí),首先預(yù)先給定一個(gè)關(guān)鍵字,然后系統(tǒng)會(huì)生成以該關(guān)鍵字為起始的詩(shī)句,隨機(jī)性較大,詩(shī)句所蘊(yùn)含的意境一般很難達(dá)到要求。例如,要生成一句能表達(dá)在船中把酒言歡意境的詩(shī)句,若采用經(jīng)典RNN 模型,則只能分別給定“船”或“酒”作為起始字來(lái)生成詩(shī)句,很難將二者同時(shí)融合在一句詩(shī)中,從而達(dá)不到一種既有“船”又有“酒”的意境效果。這是因?yàn)?,?jīng)典RNN 模型雖然在訓(xùn)練階段采用了N-N模式,即輸入N個(gè)文字,輸出N個(gè)文字,但在預(yù)測(cè)階段則采用了1-N模式,即輸入1 個(gè)關(guān)鍵字,生成N個(gè)文字。由于只能控制起始字符,使得生成的詩(shī)句隨機(jī)性較大,最終的生成效果無(wú)法控制。

經(jīng)典RNN 模型要求輸入和輸出序列等長(zhǎng),但現(xiàn)實(shí)中大部分問(wèn)題序列是不等長(zhǎng)的,序列到序列模型(sequence to sequence,Seq2Seq)對(duì)此進(jìn)行了改進(jìn)。Seq2Seq 模型又稱(chēng)Encoder-Decoder 模型,它突破了輸入與輸出序列必須等長(zhǎng)的限制,在Encoder 端輸入N個(gè)文字,在經(jīng)編碼后傳給Decoder 端,再解碼成M個(gè)文字。文獻(xiàn)[9-10]基于Seq2Seq 模型,實(shí)現(xiàn)了基于多個(gè)文字的古詩(shī)生成,但其缺點(diǎn)在于僅對(duì)第一句詩(shī)的輸出產(chǎn)生影響,無(wú)法將輸入的關(guān)鍵字信息體現(xiàn)在整首古詩(shī)中。Attention 機(jī)制將Encoder 端傳給Decoder端的編碼進(jìn)行了針對(duì)性加權(quán)合成,在不同時(shí)刻賦予Decoder端不同的Encoder編碼,即它能夠在不同的時(shí)刻考慮不同的輸入信息,然后根據(jù)每個(gè)輸入文字生成包含該文字的詩(shī)句。加入Attention 機(jī)制[11]的Seq2Seq模型結(jié)構(gòu)在機(jī)器翻譯上已取得非常好的效果,在機(jī)器翻譯任務(wù)上,輸入端的每個(gè)詞在輸出端往往都有其對(duì)應(yīng)的翻譯詞。

因此,本文基于Seq2Seq 模型構(gòu)建古詩(shī)生成模型,將關(guān)鍵字作為源語(yǔ)言,包含關(guān)鍵字的古詩(shī)句作為目標(biāo)語(yǔ)言,并引入Attention 機(jī)制對(duì)其進(jìn)行訓(xùn)練,克服了文獻(xiàn)[8-10]所提算法的缺點(diǎn),使得最終生成的古詩(shī)每一句內(nèi)容可控。在預(yù)測(cè)階段,如果從描述性信息中提取的關(guān)鍵字不足,則通過(guò)word2vec[12]方法,尋找相似的關(guān)鍵字對(duì)輸入信息進(jìn)行補(bǔ)充。此外,針對(duì)已有的古詩(shī)生成模型在生成五言或七言古詩(shī)時(shí)隨意性較大的問(wèn)題,通過(guò)加入格式控制符,結(jié)合Attention 機(jī)制,有效地控制了古詩(shī)的體裁。

2 相關(guān)工作

2.1 Seq2Seq 模型

Seq2Seq 模型又稱(chēng)作Encoder-Decoder 模型[13],設(shè)有一組輸入序列集合XN和輸出序列集合YN,N表示樣本總數(shù),第i個(gè)樣本的輸入和輸出序列分別為xi1,xi2,…,xis和yi1,yi2,…,yip。s和p分別代表第i個(gè)樣本的輸入和輸出序列的字符個(gè)數(shù)。該模型可以計(jì)算出在某輸入序列樣本xi發(fā)生的情況下,輸出序列樣本yi發(fā)生的概率,其中vi表示第i個(gè)樣本的輸入序列xi1,xi2,…,xis經(jīng)Encoder 端得到的隱含狀態(tài)向量。

Decoder 端在t時(shí)刻第i個(gè)樣本的概率分布為P(yit|vi,yi1,yi2,…,yi(t-1))=f(hi(t-1),yi(t-1),vi),其與Decoder端上一時(shí)刻的隱含狀態(tài)hi(t-1)以及輸出yi(t-1)還有Encoder 端的狀態(tài)向量vi相關(guān),其中f(?)是Decoder端中的LSTM 的輸出。因此Seq2Seq 模型需使輸入訓(xùn)練樣本的輸入序列能得到對(duì)應(yīng)輸出序列的概率之和最 大,對(duì) 應(yīng) 的對(duì)數(shù)似然條件概率函數(shù)為,使之最大化,θ是待確定的模型參數(shù)。

2.2 Attention 機(jī)制

最基本的Seq2Seq 模型包含一個(gè)Encoder 和一個(gè)Decoder,通常的做法是將一個(gè)輸入的句子編碼成一個(gè)固定大小的狀態(tài)信息,然后作為Decoder 的初始狀態(tài),但這個(gè)狀態(tài)對(duì)于Decoder 中所有時(shí)刻都相同。隨著序列的不斷增長(zhǎng),Decoder 端的解碼過(guò)程將表現(xiàn)越來(lái)越差。

加入Attention 機(jī)制后,Encoder 端可賦予輸入序列不同時(shí)刻的隱層特征不同的權(quán)重,在Decoder 端解碼的不同時(shí)刻,都會(huì)接受來(lái)自Encoder 端經(jīng)不同加權(quán)組合的信息,從而達(dá)到在不同解碼階段有著不同的輸入信息。

假設(shè)x1,x2,…,xs為輸入序列,在Encoder 端的隱層向量為h1,h2,…,hs,另外zo為Decoder 端的初始狀態(tài)向量,計(jì)算每個(gè)隱層向量與zo的相似度a1,a2,…,as,使用softmax函數(shù)將其轉(zhuǎn)化成,傳入給Decoder 端作為輸入,根據(jù)zo和c0計(jì)算得到Decoder 端新的隱狀態(tài)向量z1,再計(jì)算Encoder 端的隱層向量與z1相似度,再得到c1,如此循環(huán),直到解碼過(guò)程全部結(jié)束。

3 基于Seq2Seq 模型的古詩(shī)生成模型

使用引入Attention 機(jī)制的Seq2Seq 模型進(jìn)行古詩(shī)生成時(shí),將整個(gè)過(guò)程劃分為訓(xùn)練和預(yù)測(cè)兩個(gè)階段。在訓(xùn)練階段,首先創(chuàng)建訓(xùn)練數(shù)據(jù)集,每條訓(xùn)練數(shù)據(jù)的Encoder 輸入部分包含四個(gè)關(guān)鍵字及一個(gè)格式控制符。格式控制符主要用來(lái)控制古詩(shī)的體裁,例如五言或七言。Decoder 輸出部分則為每句都包含對(duì)應(yīng)關(guān)鍵字的一首古詩(shī)。在預(yù)測(cè)階段,用戶輸入一段描述性文字,系統(tǒng)從中提取出關(guān)鍵字并傳給模型的Encoder 端,若Encoder 端的輸入不足四個(gè)關(guān)鍵字,則通過(guò)word2vec方法進(jìn)行關(guān)鍵字補(bǔ)全。

3.1 模型結(jié)構(gòu)

圖1 給出了t時(shí)刻古詩(shī)生成模型的結(jié)構(gòu)圖,Encoder 端和Decoder 端均使用LSTM 模型,Encoder數(shù)據(jù)集中存放了關(guān)鍵字。在訓(xùn)練時(shí),輸入5 個(gè)關(guān)鍵字符,用x1、x2、x3、x4、x5表示,其中x5是格式控制符,在“A”和“B”間選擇,“A”表示生成五言古詩(shī),“B”表示生成七言古詩(shī)。h1、h2、h3、h4、h5表示在不同時(shí)刻輸入信息在Encoder 端中經(jīng)LSTM 處理輸出的對(duì)應(yīng)隱狀態(tài)。

Fig.1 Model structure圖1 模型結(jié)構(gòu)

首先計(jì)算在t時(shí)刻輸入Decoder 端的隱藏層狀態(tài)st-1對(duì)Encoder 每一個(gè)隱含層狀態(tài)hi的權(quán)重wt(i),如式(1)所示。

其中,score表示st-1和hi的相似度,使用余弦相似度進(jìn)行度量,如式(2)所示。

接著利用權(quán)重wt(i)計(jì)算Encoder 端所有隱藏層狀態(tài)hi加權(quán)之和ct,即在t時(shí)刻整個(gè)Encoder 端最終輸出的狀態(tài)向量,計(jì)算方法如式(3)所示。

在訓(xùn)練階段,需將ct和Decoder 隱藏層的t時(shí)刻狀態(tài)st-1以及t-1 時(shí)刻的真實(shí)標(biāo)簽lt-1作為t時(shí)刻Decoder 的輸入,經(jīng)LSTM 處理得到y(tǒng)t。在預(yù)測(cè)階段,則將lt-1換成t-1 時(shí)刻的實(shí)際輸出yt-1,yt的計(jì)算如式(4)所示。

為了減少計(jì)算量,在訓(xùn)練階段,采用Sampled Softmax 作為輸出層,對(duì)應(yīng)的全連接層矩陣為,在預(yù)測(cè)階段使用普通的Softmax 作為輸出層,全連接層矩陣用Wout表示。其中f(?) 是Decoder 端中的LSTM,Wout是Decoder 端中連接LSTM 輸出的全連接層,另外st-1和ct每次都需要更新,其中ct隨著st-1的更新而更新,st的更新方法如式(5)所示。

3.2 關(guān)鍵字補(bǔ)全

為了生成一首古詩(shī),需要先輸入一段表達(dá)需求的描述性語(yǔ)言,然后從這段描述性語(yǔ)言中提取出關(guān)鍵字作為輸入信息。當(dāng)提取的關(guān)鍵字?jǐn)?shù)量不足時(shí),需對(duì)關(guān)鍵字進(jìn)行補(bǔ)充,但是所補(bǔ)充的關(guān)鍵字應(yīng)與已提取的關(guān)鍵字具有較高的相關(guān)度。因此,首先采用word2vec 方法獲取Encoder 詞庫(kù)中每個(gè)關(guān)鍵字的詞向量kwm,然后利用余弦相似度度量詞庫(kù)中的關(guān)鍵字kwm與已提取關(guān)鍵字kwn之間的相似度sim(m,n)=。

為了簡(jiǎn)化計(jì)算,在使用word2vec 方法時(shí),每首古詩(shī)僅保留關(guān)鍵字部分,并將其作為word2vec方法的上下文,而不是將整首詩(shī)作為上下文。同時(shí),將word2vec中的窗口大小設(shè)置為7,詞向量維度設(shè)置為200,選取skip-gram 模型進(jìn)行處理,具體過(guò)程如圖2 所示。

此外,在進(jìn)行關(guān)鍵字補(bǔ)充時(shí),如果在描述內(nèi)容中僅提取出一個(gè)關(guān)鍵字,則選取與該關(guān)鍵字相關(guān)度最高的三個(gè)作為補(bǔ)充;如果提取出兩個(gè)關(guān)鍵字,則隨機(jī)從與每個(gè)關(guān)鍵字相關(guān)度最高的前三個(gè)中分別選取一個(gè)作為另外兩個(gè)關(guān)鍵字;如果提取三個(gè)關(guān)鍵字,則分別計(jì)算與每個(gè)關(guān)鍵字相似度最高的前三個(gè),取其交集作為第四個(gè)關(guān)鍵字,如果交集為空,則隨機(jī)選取三個(gè)關(guān)鍵字中的一個(gè),再隨機(jī)選取與其相似度最高的前三個(gè)中的一個(gè)作為第四個(gè)關(guān)鍵字,具體過(guò)程如圖3所示,其中括號(hào)里的值表示相似度大小。

Fig.2 Use word2vec to turn keywords into vectors圖2 使用word2vec將關(guān)鍵字轉(zhuǎn)化為向量

Fig.3 Keyword completion operation圖3 關(guān)鍵字補(bǔ)全操作

4 實(shí)驗(yàn)與分析

4.1 數(shù)據(jù)集構(gòu)建

為了完成實(shí)驗(yàn),人工收集整理了四萬(wàn)多首唐詩(shī),用于構(gòu)建實(shí)驗(yàn)數(shù)據(jù)集。首先將原唐詩(shī)中的八句詩(shī)轉(zhuǎn)換成兩首四句詩(shī),并統(tǒng)計(jì)所有字的字頻,取出頻率最高的前200 個(gè)字作為Encoder 的詞庫(kù),然后遍歷每首唐詩(shī)中存在于該詞庫(kù)中的字,用排列組合的方式分別對(duì)關(guān)鍵字進(jìn)行匹配,先對(duì)前兩句和后兩句進(jìn)行部分排列組合,再進(jìn)行整體排列組合,所有關(guān)鍵字的組合作為Encoder數(shù)據(jù)集部分,對(duì)應(yīng)詩(shī)句則作為Decoder數(shù)據(jù)集部分。此外,如果是五言詩(shī),則在Encoder 數(shù)據(jù)集中的每一個(gè)關(guān)鍵字組合后加上格式控制符“A”,如果是七言詩(shī),則加上“B”。經(jīng)過(guò)處理,最終得到27萬(wàn)對(duì)信息,將其中的23 萬(wàn)對(duì)作為訓(xùn)練集,另外4 萬(wàn)對(duì)作為測(cè)試集。數(shù)據(jù)集的構(gòu)建過(guò)程如圖4 所示,具體數(shù)據(jù)集樣本展示如圖5 所示。

4.2 模型參數(shù)

本文Encoder 和Decoder 都使用了LSTM 模型,隱層數(shù)量都為三層,每層神經(jīng)元個(gè)數(shù)為256 個(gè)。每個(gè)字的Embedding Size 大小為256,為了使模型更快地收斂,在訓(xùn)練階段,Decoder 端每個(gè)時(shí)刻的輸入沒(méi)有采用上個(gè)時(shí)刻的輸出,而是使用真實(shí)樣本作為輸入,且使用了Sampled SoftMax[14],采樣個(gè)數(shù)為512。batch size 設(shè)置為64,優(yōu)化過(guò)程選擇隨機(jī)梯度下降算法,初始學(xué)習(xí)率(learning rate)設(shè)置為0.5,學(xué)習(xí)率衰減(learning rate decay)設(shè)置為0.9。

Fig.4 Data set construction process圖4 數(shù)據(jù)集構(gòu)建過(guò)程

4.3 評(píng)價(jià)指標(biāo)

由于古詩(shī)的評(píng)價(jià)涉及到多個(gè)方面,就目前而言還沒(méi)有具體的古詩(shī)生成評(píng)價(jià)指標(biāo),雖然有不少學(xué)者借助機(jī)器翻譯中的BLEU(bilingual evaluation understudy)評(píng)價(jià)指標(biāo)[15],但并不能真實(shí)反映古詩(shī)的生成效果,其主要問(wèn)題在于古詩(shī)中的韻律、意義等方面無(wú)法用具體的指標(biāo)表達(dá),但古詩(shī)的流暢度是可以通過(guò)語(yǔ)言模型的方法進(jìn)行一定的評(píng)價(jià),故本文首先選擇了困惑度指標(biāo)Perplexity,該指標(biāo)表示在逐字生成語(yǔ)句時(shí),每個(gè)字生成的可選擇性大小。該指標(biāo)越小,說(shuō)明在每個(gè)字生成時(shí)的可選擇性越少越具體,最終的句子出現(xiàn)的概率越大,句子質(zhì)量也越高,模型生成效果越好,Perplexity 的計(jì)算如式(6)所示。

Fig.5 Data set samples display圖5 數(shù)據(jù)集樣本展示

此外,由于僅使用Perplexity 評(píng)價(jià)指標(biāo)并不能充分體現(xiàn)出所生成詩(shī)句的好壞,因此額外選擇了主觀的人工評(píng)價(jià)指標(biāo),即選取了30 位碩士學(xué)歷以上的文學(xué)專(zhuān)業(yè)的學(xué)者從流暢度、韻律、意義三方面對(duì)本文的方法和一些基準(zhǔn)方法進(jìn)行了打分和比較。

4.4 實(shí)驗(yàn)分析

Fig.6 Perplexity values圖6 Perplexity 指標(biāo)

本文每間隔300 步在訓(xùn)練集和測(cè)試集上分別使用困惑度指標(biāo)Perplexity 對(duì)五言古詩(shī)和七言古詩(shī)進(jìn)行評(píng)價(jià),如圖6 所示。實(shí)驗(yàn)結(jié)果表明在訓(xùn)練集上,不論五言還是七言古詩(shī)困惑度都會(huì)隨著訓(xùn)練步數(shù)的增加而降低,模型具有較好的收斂效果。而在測(cè)試集上,當(dāng)訓(xùn)練到20 000 步左右時(shí),五言和七言古詩(shī)的困惑度指標(biāo)都開(kāi)始上升,模型出現(xiàn)了過(guò)擬合現(xiàn)象。另外一點(diǎn)是,相比七言古詩(shī)而言,五言古詩(shī)有著更低的Perplexity值。

分別選取五言和七言Perplexity最低時(shí)的模型用來(lái)生成古詩(shī),采用人工評(píng)價(jià)的方法,本文對(duì)比了三種基準(zhǔn)方法:SMT(statistical machine translation models)、RNNPG(recurrent neural networks for poetry generation)、ANMT(attention-based neural machine translation)。其中SMT 模型使用了統(tǒng)計(jì)機(jī)器翻譯的方法,RNNPG模型整合了CNN(convolutional neural network)、句子級(jí)別的RNN、字符級(jí)別的RNN,ANMT 使用了基于神經(jīng)網(wǎng)絡(luò)的機(jī)器翻譯模型,結(jié)果如表1 所示。

相比基準(zhǔn)模型,本文模型在流暢度、韻律、意義上都取得較好效果,其中五言詩(shī)的效果在三方面都取得一定提升,而七言詩(shī)在流暢度及韻律上較ANMT模型略顯不足,但在意義上不論五言還是七言詩(shī)的生成效果都得到提升,這源于本文使用了基于注意力機(jī)制的編碼方法,在不同時(shí)刻生成詩(shī)句時(shí)考慮到不同的關(guān)鍵字信息,從而生成更有意義的詩(shī)句。本文的模型較SMT 和RNNPG 都顯得有很大提升,這在一定程度上也說(shuō)明了Seq2Seq 模型相比于傳統(tǒng)的基于語(yǔ)言模型的生成方法有著更好的效果。

為了展示本文模型的生成效果,表2 分別給出了一首五言和七言古詩(shī)的示例展示。在五言詩(shī)的生成中,先從描述內(nèi)容中提取出“月”“風(fēng)”“葉”“孤”這四個(gè)關(guān)鍵字,最后生成的詩(shī)句中也都體現(xiàn)了這四個(gè)關(guān)鍵字的信息,且整體上表現(xiàn)出了“一個(gè)人寂寞和孤獨(dú)”的意境效果。在七言詩(shī)的生成中,同樣也從描述中提取出了“夜”“酒”“雨”“愁”四個(gè)關(guān)鍵字,最后所生成的詩(shī)句不僅體現(xiàn)出關(guān)鍵字信息,還創(chuàng)造出一種“在船上送別友人,充滿了離愁之情”的畫(huà)面效果。

Table 1 Manual evaluation表1 人工評(píng)價(jià)結(jié)果

Table 2 Poetry generation examples表2 古詩(shī)生成示例

5 結(jié)束語(yǔ)

本文基于Seq2Seq 模型構(gòu)建了古詩(shī)生成模型,將編碼、解碼和Attention 機(jī)制運(yùn)用到了古詩(shī)生成上。設(shè)計(jì)和構(gòu)建了相應(yīng)的古詩(shī)生成數(shù)據(jù)集,并加入了關(guān)鍵字控制符的概念,在關(guān)鍵字不足時(shí),可進(jìn)行關(guān)鍵字補(bǔ)全,與傳統(tǒng)的古詩(shī)生成任務(wù)相比,顯得更加靈活可控,能夠生成與大致意境相符的詩(shī)句。在接下來(lái)的工作中,將加入生成對(duì)抗和強(qiáng)化學(xué)習(xí)的思想,讓古詩(shī)的生成更加豐富,更加符合人們的審美。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲免费人成影院| 国产精品网址你懂的| 久久性视频| 亚洲人妖在线| 欧美福利在线观看| 亚洲精品桃花岛av在线| 久久久久人妻精品一区三寸蜜桃| 免费黄色国产视频| 日本五区在线不卡精品| 久久精品无码中文字幕| 欧美无专区| 动漫精品中文字幕无码| 国产欧美日韩va另类在线播放| AV无码国产在线看岛国岛| 欧美三级自拍| 亚洲无码高清视频在线观看 | h视频在线播放| 四虎永久在线| 成人一级黄色毛片| 国产噜噜噜视频在线观看| 成人精品亚洲| 欧美翘臀一区二区三区| 日韩精品一区二区三区中文无码| 国产精品一线天| 毛片网站观看| 国产欧美日本在线观看| 大乳丰满人妻中文字幕日本| 99久久精品美女高潮喷水| 秋霞午夜国产精品成人片| 成人国产免费| 亚洲欧美成人网| 国产成人一区免费观看| 欧美成人免费一区在线播放| 尤物国产在线| 精品国产美女福到在线直播| 国内精品免费| 在线中文字幕网| 99ri国产在线| 国产欧美视频一区二区三区| 成人午夜视频在线| 国产成人精品视频一区视频二区| 免费毛片a| 无码精油按摩潮喷在线播放| 国产探花在线视频| 91亚瑟视频| 国产激情在线视频| 天天综合色天天综合网| 福利小视频在线播放| 美女裸体18禁网站| 男人天堂伊人网| 狠狠色婷婷丁香综合久久韩国| 日本精品中文字幕在线不卡| 啪啪永久免费av| 国产精品短篇二区| 欧美a在线| 亚洲一级无毛片无码在线免费视频| 日韩精品无码免费一区二区三区| 日本道综合一本久久久88| 69精品在线观看| 久久综合成人| 91无码国产视频| 国产精品va| 91久久夜色精品| YW尤物AV无码国产在线观看| 国产精品白浆在线播放| 在线观看欧美国产| 色婷婷丁香| 久久这里只有精品66| 国产幂在线无码精品| 色吊丝av中文字幕| 亚洲男人的天堂网| 欧美劲爆第一页| 九九热视频在线免费观看| 国产成人亚洲精品无码电影| 在线视频97| 2024av在线无码中文最新| 亚洲伦理一区二区| 无码AV高清毛片中国一级毛片 | 亚洲欧美激情另类| 日本色综合网| 亚洲欧美精品日韩欧美| 亚洲人成人无码www|