999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于微調(diào)原型網(wǎng)絡的小樣本敏感信息識別方法

2024-03-26 02:39:32余正濤黃于欣張思琦趙慶玨
中文信息學報 2024年1期
關鍵詞:文本模型

余正濤,關 昕,黃于欣,張思琦,趙慶玨

(1. 昆明理工大學 信息工程與自動化學院,云南 昆明 650500;2. 昆明理工大學 云南省人工智能重點實驗室,云南 昆明 650500)

0 引言

隨著互聯(lián)網(wǎng)的發(fā)展,網(wǎng)絡治理的問題也逐漸突出,對色情、毒品、邪教、暴力類型的敏感文本進行識別成為一項重要任務。

可以將敏感文本識別看作一種特定領域的分類任務,針對該任務,目前國內(nèi)外主要的研究方法有兩類: 基于敏感詞典和基于深度學習的研究方法。基于敏感詞典的方法通過制定規(guī)則與匹配算法利用敏感詞表中關鍵詞對文本進行過濾。但是敏感詞表需要人工維護,由于網(wǎng)絡新詞、術語、敏感詞變形體更新迭代速度快,構(gòu)建維護敏感詞表不僅易錯漏,而且耗費較大。近年來,基于深度學習模型自動提取語義特征的文本分類方法取得了很好的效果。但是深度學習方法依賴于大量數(shù)據(jù)和計算能力,對于敏感信息識別任務來講,目前沒有公開的數(shù)據(jù)集,人工構(gòu)建的敏感文本數(shù)據(jù)集規(guī)模較小,不足以支持深度學習大規(guī)模參數(shù)的訓練。

針對標注數(shù)據(jù)稀缺的問題,目前有效的方法是利用小樣本學習的思路,通過在元訓練階段使用的通用數(shù)據(jù)集上的大量學習任務對模型進行訓練,使得元測試階段新的小樣本分類任務出現(xiàn)時,模型能夠利用學到的元知識調(diào)整模型參數(shù),通過較少的樣本支撐獲得好的分類效果,能夠很好地應用于敏感信息識別任務中數(shù)據(jù)規(guī)模不足的場景。然而現(xiàn)有的小樣本學習方法通常建立在元訓練和元測試階段的數(shù)據(jù)集具有相同分布的假設上,針對敏感信息識別任務,元訓練和元測試階段的數(shù)據(jù)差異較大。在元訓練階段通常選擇使用通用的新聞領域數(shù)據(jù)集獲取元知識,在元測試階段應用構(gòu)建的包含色情、毒品、暴恐、邪教等敏感分類的敏感文本數(shù)據(jù)集進行識別,如圖 1所示,小樣本學習方法會因領域特征分布的巨大差異而在沒見過的敏感領域類中失去泛化性。

圖1 小樣本學習中的領域分布差異

針對以上問題,解決元訓練和元測試階段的數(shù)據(jù)領域差異問題可以有效提升小樣本方法在測試階段的泛化性能,提升在敏感識別新任務上的分類效果,因此考慮在元測試階段進行微調(diào)。元測試階段進行微調(diào)時,既要使新的敏感識別任務少量樣本能夠產(chǎn)生良好的泛化性能,又需要考慮對整個模型的大量參數(shù)進行調(diào)整時避免模型底層學習到的元知識產(chǎn)生災難性的遺忘。因此,本文構(gòu)建了基于微調(diào)原型網(wǎng)絡的敏感信息識別模型,在采用了小樣本學習方法應對敏感信息類別樣本數(shù)量不足的問題的基礎上,在元訓練階段中運用了快速適應思想[1],使模型學習到一組易于微調(diào)的初始模型參數(shù),使模型在元測試階段能夠通過少量敏感樣本的微調(diào)策略取得良好泛化性能。在微調(diào)過程中,模型通過凍結(jié)部分底層參數(shù)來避免可能造成的過擬合現(xiàn)象。

1 相關工作

早期的敏感信息識別方法是通過敏感詞典對互聯(lián)網(wǎng)上文本進行詞匹配,包括基于BM(Boyer-Moore)算法[2]、WM(Wu-Manber)算法[3]、決策樹算法[4]等方法。基于敏感詞典的方法是最基礎的方法,但是網(wǎng)絡上敏感詞層出不窮,人工維護詞表難以及時更新。

近幾年,隨著深度學習框架的流行與發(fā)展,基于深度學習模型的敏感信息識別方法取得了很好的效果。Xu等人[5]使用Text-CNN[6]獲取文本表示,構(gòu)建文本敏感內(nèi)容檢測模型,提高了檢測效率。Xu等人[7]通過Word2Vec模型[8]獲得敏感詞嵌入,通過余弦距離計算相似度實現(xiàn)敏感詞拓展,并將拓展敏感詞匯嵌入到潛在狄利克雷分配(Latent Dirichlet Allocation,LDA)模型[9]進行加權(quán)進行敏感主題識別。近年來,以Transformer[10]編碼器為基礎的Bert(Bidirectional Encoder Representation from Transformers)[11]、RoBERTa[12]模型等預訓練語言模型,通過大規(guī)模無標注語料庫進行自監(jiān)督訓練來獲得先驗知識和文本表征,使得模型在下游任務上能夠通過微調(diào)取得很好的表現(xiàn)。李等人[13]使用預訓練Bert模型針對新聞文本分段提取語義特征,結(jié)合抽取的敏感關鍵詞對每段語義向量加權(quán)求和,獲得新聞文本的語義編碼,用于敏感信息多分類。深度學習方法能夠自動提取文本語義特征,但需要大規(guī)模數(shù)據(jù)對深度學習模型進行訓練。

在小樣本學習方面,小樣本學習方法最早提出于圖像領域,近年來在基于小樣本的文本分類方面也有相關研究。Dopierre等人[14]嘗試將基于Transformer的文本編碼器結(jié)合入多個小樣本學習方法中,通過實驗證明了其應用于自然語言處理領域的有效性。Wei等人[15]結(jié)合了課程學習、數(shù)據(jù)增強和三重損失方法,通過課程指導的噪聲水平漸進的數(shù)據(jù)增強方法對小樣本模型進行訓練,解決了相對于圖像而言文本數(shù)據(jù)增強方法使增強數(shù)據(jù)與原始數(shù)據(jù)差異性更大、噪聲數(shù)據(jù)難以學習的問題。

在解決小樣本學習領域差異大的方面,針對圖像分類任務,Chen等人[16]設置了領域遷移場景下的小樣本實驗,證明元訓練階段和元測試階段領域差異過大時對新類領域適應步驟的重要性。之后,Tseng等人[17]通過在特征提取器加入仿射變換層模擬不同域中的特征分布、Li等人[18]通過輔助網(wǎng)絡學習從特定任務支持集中學習特征權(quán)重,對跨域小樣本學習任務進行了探索。在文本分類任務上也有相關的研究,Li等人[19]結(jié)合了SMLMT方法[20]和大型預訓練語言模型,通過半監(jiān)督的訓練方法使元學習器掌握泛化到模型沒見過領域的能力。Olah等人[21]提出融入外部知識的方法進行情感分類,通過實驗證明了在兩種不同標簽分類的情感數(shù)據(jù)集中跨域知識遷移的實現(xiàn)。

2 基于微調(diào)原型網(wǎng)絡的敏感信息識別模型

為了識別小樣本敏感信息并解決領域差異問題,本文建立了基于微調(diào)原型網(wǎng)絡的敏感信息識別模型,即在原型網(wǎng)絡的基礎上,運用了微調(diào)方法和快速適應思想。在下文對模型的描述中,把原型網(wǎng)絡元訓練過程的每次迭代表示為一個episode,可以將其看作一個單獨的學習任務。為保留元訓練集和測試集共同的部分,微調(diào)差異的部分,在小樣本學習每個episode的微調(diào)模塊中凍結(jié)文本特征提取器的一部分參數(shù),使用支持集樣本對未凍結(jié)的部分參數(shù)進行微調(diào),避免災難性的遺忘問題。在元訓練階段,微調(diào)部分結(jié)束后,使用查詢集計算更新后的特征提取器損失所產(chǎn)生的梯度,使用該梯度對初始參數(shù)進行優(yōu)化,使模型向易于快速適應新任務的方向調(diào)整。每個episode訓練過程如圖2所示。

圖2 基于微調(diào)原型網(wǎng)絡的敏感信息識別模型

2.1 原型網(wǎng)絡

本文采用的原型網(wǎng)絡由文本編碼器和度量模塊構(gòu)成,文本編碼器Encoder表示為E,從數(shù)據(jù)集中抽取N個類別構(gòu)建支持集S與查詢集Q,從支持集和查詢集的輸入文本中提取特征,得到文本特征向量矩陣VS、VQ如式(1)所示。

VS=E(Xs),VQ=E(Xq)

(1)

(2)

具體來說,將支持集樣本Xs特征表示Vs中,對每個相同類中樣本的特征向量{vn,1,vn,2,…,vn,k}做平均作為該類的原型,計算如式(3)所示。

(3)

其中,n表示支持集中的第n個類,K表示支持集中每個類中包含K個樣本。

(4)

其中scorei,n表示查詢集中第i個樣本與第n個類原型之間的評分。

(5)

2.2 基于快速適應思想的微調(diào)模塊

在原型網(wǎng)絡的基礎上,在episode中加入對模型進行微調(diào)的步驟,并基于快速適應思想在元訓練階段通過大量學習任務對模型進行訓練,獲得一組好的初始學習參數(shù),可以在元測試階段的學習任務上迅速調(diào)整適應。

算法1. 基于快速適應思想的微調(diào)算法對文本特征提取器E進行參數(shù)初始化得到θE數(shù)據(jù)集生成N-way K-shot學習任務1.While do: 2. 凍結(jié)前L層參數(shù)θE(L)3. 對支持集S劃分mini_batch4. While mini_batch do: 5. 使用線性分類器計算損失Loss_si6. 使用Loss_si更新后l層參數(shù)θE(l),得到θ~E(l)7. End while8. 使用結(jié)合θE(L)與θ~E(l)得到的E~_ft計算查詢集Q上的損失Loss_ft9. 使用Loss_ft計算參數(shù)梯度gE~_ft(L)、gE~_ft(l)10. 更新初始參數(shù)θE: θ~E(L)=θE(L)-lrgE~_ft(L) θ~E(l)=θE(l)-lrgE~_ft(l)11.End while

具體過程如下:

在每個小批次中,將si輸入E進行特征提取得到文本特征向量Vsi。使用一個線性分類器C對Vsi進行預測并計算這一批次的損失Loss_si,如式(6)、式(7)所示。

3 實驗結(jié)果與分析

3.1 數(shù)據(jù)集選取與構(gòu)建

元訓練階段使用的數(shù)據(jù)集有兩類,第一類是來自Zhou等人的中文新聞標題數(shù)據(jù)[22],包含32個類別,共63 800個樣本,平均樣本長度為18。第二類是復旦大學計算機信息與技術系國際數(shù)據(jù)庫中心自然語言處理小組提供的復旦大學中文文本分類語料庫,包含20個類別,共19 637個樣本,平均樣本長度為259。

元測試階段由于沒有公開的敏感文本數(shù)據(jù)集,從新浪微博上爬取文本并進行標注,構(gòu)建敏感文本數(shù)據(jù)集,包含色情、毒品、邪教、暴力和正常五種類型。文本中包含鏈接、特殊符號等多種干擾,因此采用預處理方式對爬取到的文本進行清洗。敏感文本數(shù)據(jù)集具體類別對應數(shù)據(jù)量如表1所示。

表1 敏感文本數(shù)據(jù)集分布

3.2 實驗設置

3.2.1 參數(shù)設置

對所有小樣本模型,使用Hugging Face提供的兩類中文BERT、RoBERTa[23-24]預訓練模型作為文本編碼器進行實驗。預訓練模型在大規(guī)模語料庫上進行無監(jiān)督訓練來獲取先驗知識,其中,RoBERTa預訓練模型相比起B(yǎng)ERT,在數(shù)據(jù)量、訓練步、批數(shù)量、優(yōu)化器和訓練任務上都有了改進,在自然語言處理多種任務上都取得了更好的效果。在以下實驗訓練過程中,文本截取最大長度為64,優(yōu)化算法為Adam[25],對元訓練階段小樣本模型訓練10 000個Episode,每個Episode的支持集中選取每類5、10、20個樣本作為支持集,每類10個樣本作為查詢集。

3.2.2 評價指標

本文通過計算宏平均(Macro Average)下的精確率(Pre)、召回率(Re)、F1值作為評價指標,計算過程如式(12)~式(14)所示。

式中涉及基于混淆矩陣的判誤指標,對某一類n而言,以“真、假”表示真實值是否屬于該類,以“正、負”表示預測值是否屬于該類,則其中TP表示真正例,FP表示假正例,TN表示真負例,FN表示假負例。

3.2.3 基線模型

選取了當前最優(yōu)的小樣本學習網(wǎng)絡作為基線模型進行對比實驗,基線模型的選取如下所示:

Vinyals等人提出的匹配網(wǎng)絡[26](Matching network): 計算查詢集樣本與支持集樣本間的相似度,通過注意力核函數(shù)計算查詢集與支持集特征向量間的距離并歸一化,得到預測值。

Geng等人提出的歸納網(wǎng)絡[27](Induction network): 將支持集各類樣本特征向量送入歸納模塊,通過動態(tài)路由算法得到各類別特征映射,通過關系模塊得到查詢集與各類別向量的相似度評分,獲得預測值。

Snell等人提出的原型網(wǎng)絡[28](Prototype network): 是本文的基礎模型,計算支持集中各類樣本特征向量的平均值得到各個類原型,計算查詢集特征向量與各類原型間的距離,得到預測值。

Sung等人提出的關系網(wǎng)絡[29](Relation network): 將支持集各類特征向量相加作為類的特征映射,將支持集中樣本與類映射連接進入關系模塊進行相似度比較,得到相似度評分,獲得預測值。

3.3 實驗結(jié)果3.3.1 基線模型對比實驗

當使用中文新聞標題數(shù)據(jù)集20個類別作為訓練集,選擇微調(diào)層數(shù)為BERT模型中頂層起1層線性層與2層Transformer Encoder層包含的層數(shù),使用N-wayK-shot分別表示每個Episode中支持集的類別數(shù)與每個類別選取的樣本數(shù),支持集設置為5-wayk-shot(k=5,10,20)。為了更充分地驗證模型性能,使用BERT、RoBERTa兩類預訓練模型作為特征提取器進行實驗,與其他基線小樣本模型在不同支持集規(guī)模下進行對比實驗,實驗結(jié)果如表2所示,其中“微調(diào)原型網(wǎng)絡”表示本文提出的模型,“+BERT”“+RoBERTa”分別表示采用不同的文本特征提取器。

表2 基線模型對比實驗 (單位: %)

從表2兩組實驗中可以看出,基線模型中原型網(wǎng)絡取得了最好的效果,同時,微調(diào)原型網(wǎng)絡相比所有基線模型都有了很大的提升,實驗證明了本文提出的快速適應的微調(diào)原型網(wǎng)絡在敏感信息識別任務的有效性。首先,由于實驗中在元訓練階段使用通用的新聞標題數(shù)據(jù)集,元測試階段使用敏感文本數(shù)據(jù)集,在面臨巨大領域差異的情況下,只包含了文本編碼器與計算查詢集樣本與支持集原型間歐氏距離的度量模塊兩部分的簡單原型網(wǎng)絡,即本文的基礎模型,相比較于其他基線模型取得了較好的效果,由于原型網(wǎng)絡僅通過文本編碼器完成了上游通用知識的學習而不需要依賴額外的權(quán)重參數(shù),使得預訓練模型發(fā)揮了巨大的作用,通過上下兩組BERT與RoBERTa實驗可以看出,與其他基線模型對比,RoBERTa預訓練模型在簡單原型網(wǎng)絡上性能提升最為明顯。而本文提出的快速適應微調(diào)策略的原型網(wǎng)絡在簡單原型網(wǎng)絡的基礎上,在訓練階段獲得易于快速適應的初始參數(shù),并使用測試階段敏感任務支持集中的樣本對模型進行小批次的微調(diào)實現(xiàn)對敏感領域的泛化性,相較于原型網(wǎng)絡,在兩組不同預訓練模型的對比實驗中都實現(xiàn)了更進一步的性能提升。相比之下,較為先進的歸納網(wǎng)絡在得到支持集樣本的表示后,使用動態(tài)路由算法歸納類別特征來獲取類的表示,但在面對巨大領域差異的敏感信息分類任務時沒有取得預期的效果。

使用BERT與RoBERTa預訓練模型作為文本特征提取器的兩組實驗間進行對比可以看出,總體來說RoBERTa組的性能相比BERT組有所提升,同時兩組實驗中采用不同預訓練模型后產(chǎn)生的性能趨勢基本相同。首先,在基線模型中,使用RoBERTa預訓練模型組相比BERT組在模型性能上有一定提升,尤其匹配網(wǎng)絡與原型網(wǎng)絡中相比BERT組性能有了很大提升,在支持集規(guī)模較小時性能提升更為明顯,k=5時模型性能提升約10%;而在微調(diào)原型網(wǎng)絡即本文模型中,隨著支持集的規(guī)模擴大,RoBERTa預訓練模型的優(yōu)勢逐漸被彌補。同時,在兩組實驗中均可看出,隨著支持集規(guī)模擴大,小樣本模型的效果基本都有所提升,整體性能趨勢相同,而相比之下微調(diào)原型網(wǎng)絡效果的提升最為明顯,證明了快速適應微調(diào)策略的有效性。由于兩種預訓練模型對本文提出的快速適應微調(diào)原型網(wǎng)絡的性能影響趨勢總體相同,以下均采用BERT預訓練模型作為文本特征提取器進行試驗。

3.3.2 消融實驗

為證明快速適應微調(diào)原型網(wǎng)絡的有效性,設計了消融實驗。使用中文新聞標題數(shù)據(jù)集20個類別作為訓練集,支持集大小為20-shot,(-)快速適應微調(diào)策略指不進行微調(diào),僅使用單純的原型網(wǎng)絡; (-)凍結(jié)參數(shù)指微調(diào)原型網(wǎng)絡在微調(diào)過程中對所有參數(shù)進行更新,不凍結(jié)底層參數(shù); (-)快速適應方法指當微調(diào)原型網(wǎng)絡設置參數(shù)微調(diào)層數(shù)為頂層起1層線性層與2層Transformer Encoder層所包含的參數(shù),在元訓練過程每個episode中使用微調(diào)后的文本特征提取器直接計算損失,不使用快速適應方法尋找對少數(shù)樣本敏感的初始參數(shù)。實驗結(jié)果如表3所示。

表3 消融實驗 (單位: %)

從表3可以看出,模型每個模塊都產(chǎn)生一定的效果,其中凍結(jié)參數(shù)的操作起到了關鍵的效用。當不進行凍結(jié)底層參數(shù)操作,僅使用支持集少量樣本對所有參數(shù)進行微調(diào)時,模型的效果甚至比簡單的原型網(wǎng)絡降低約6%,少量數(shù)據(jù)對底層參數(shù)的調(diào)整使模型產(chǎn)生了災難性的遺忘;當微調(diào)原型網(wǎng)絡使用快速適應方法時,整體效果相比(-)快速適應方法提升了1%左右,說明一組好的初始參數(shù)能夠使模型在使用少量樣本進行簡單微調(diào)后取得更好的效果。

3.3.3 不同微調(diào)層數(shù)實驗

當中文新聞標題數(shù)據(jù)集20個類別作為訓練集,支持集大小選擇為20-shot,對微調(diào)模塊選擇不同層數(shù)的參數(shù)進行實驗,實驗設置選取特征提取器頂層1層線性層分別加1、2、3、4層Transformer Encoder層所包含的參數(shù)進行微調(diào),觀察不同微調(diào)層數(shù)對快速適應微調(diào)策略性能的影響。實驗結(jié)果如圖3所示。

圖3 不同微調(diào)層數(shù)對實驗結(jié)果的影響

通過圖3可以看出,當微調(diào)參數(shù)為兩個Transformer Encoder層時,模型取得了最好的效果,但當微調(diào)參數(shù)繼續(xù)增加至3層、4層Transformer Encoder層時,性能反而呈現(xiàn)下降趨勢。分析表中結(jié)果,推測當微調(diào)層數(shù)過大時,模型通過元學習階段獲得的底層通用知識也被一并調(diào)整,而僅使用支持集的少量樣本對參數(shù)進行微調(diào)使模型產(chǎn)生了過擬合現(xiàn)象。

3.3.4 不同數(shù)據(jù)集規(guī)模實驗

當支持集大小選擇為20-shot,微調(diào)層數(shù)選擇頂層起1層線性層與1層Transformer Encoder層所包含的參數(shù),對元學習階段使用不同數(shù)據(jù)集進行實驗。分別使用從新聞標題數(shù)據(jù)集中選取20個類別、使用新聞標題數(shù)據(jù)集全部32個類別、使用復旦大學中文文本分類語料庫20個類別作為元訓練階段數(shù)據(jù)集,使用敏感文本數(shù)據(jù)集作為元測試階段數(shù)據(jù)集。實驗結(jié)果如表4所示。

表4 不同數(shù)據(jù)集規(guī)模對實驗結(jié)果的影響 (單位: %)

分析表中的結(jié)果可以看出,當元訓練階段數(shù)據(jù)規(guī)模擴大時,模型性能有了一定的提升,而相對于原型網(wǎng)絡,微調(diào)策略縮小了數(shù)據(jù)規(guī)模差異帶來的性能差距。在選擇元訓練階段數(shù)據(jù)集時,使用樣本平均長度較小的新聞標題數(shù)據(jù)集的不同類別數(shù)量作為對比,當元訓練階段訓練的類別增加時,原型網(wǎng)絡與微調(diào)原型網(wǎng)絡的性能均增加了不到1%,模型的性能提升較為有限。當選取使用等同類別數(shù)量(20類)的不同數(shù)據(jù)集做對比時,樣本平均長度更長的復旦大學中文文本語料庫在原型網(wǎng)絡中提升了5%,而在微調(diào)原型網(wǎng)絡中提升了1%,可以看出,元訓練階段隨著數(shù)據(jù)規(guī)模的擴大,模型在元訓練階段獲得的元知識增加,模型的性能會相應上升,而微調(diào)原型網(wǎng)絡減小了對元訓練階段數(shù)據(jù)規(guī)模的需求,使得較小的元訓練數(shù)據(jù)集也能起到很好的效果。

4 結(jié)論

本文提出了基于微調(diào)原型網(wǎng)絡的小樣本敏感信息識別方法,通過小樣本學習框架解決敏感文本數(shù)據(jù)類別樣本不足的問題,并提出了快速適應的微調(diào)方法,在元訓練階段獲得易于調(diào)整的初始參數(shù),在元測試階段對特征提取器凍結(jié)一部分參數(shù)并進行微調(diào),來解決元訓練階段通用領域數(shù)據(jù)集和元測試階段敏感文本數(shù)據(jù)集領域分布差異大、跨域不適應的問題。通過實驗,證明了模型在解決敏感信息識別任務的有效性。

猜你喜歡
文本模型
一半模型
重要模型『一線三等角』
初中群文閱讀的文本選擇及組織
甘肅教育(2020年8期)2020-06-11 06:10:02
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
3D打印中的模型分割與打包
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
論《柳毅傳》對前代文本的繼承與轉(zhuǎn)化
人間(2015年20期)2016-01-04 12:47:10
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 精品无码一区二区三区电影| 欧美亚洲第一页| 国产美女在线免费观看| 国产最新无码专区在线| 亚洲第一区欧美国产综合| 国产喷水视频| 波多野结衣久久高清免费| 亚洲人成网站18禁动漫无码| 国产成人亚洲精品色欲AV| 99久久国产自偷自偷免费一区| 日韩黄色在线| 日韩A∨精品日韩精品无码| 国产成人福利在线视老湿机| 99久久精品国产综合婷婷| 91视频青青草| 亚洲一区无码在线| 天天躁狠狠躁| 久久黄色视频影| 色135综合网| 91精品久久久久久无码人妻| 91欧美亚洲国产五月天| 亚洲精品手机在线| 免费啪啪网址| 亚洲第一成年网| 欧美国产另类| 最新加勒比隔壁人妻| 在线观看亚洲精品福利片| 中文字幕无码电影| 亚洲看片网| 尤物精品视频一区二区三区| 国产在线一区视频| 午夜a级毛片| 久久99国产精品成人欧美| 国产福利免费视频| 亚洲最猛黑人xxxx黑人猛交| 欧美在线天堂| 国产在线一区视频| 国产乱码精品一区二区三区中文| 国产伦片中文免费观看| 久草视频精品| 色哟哟国产精品| 国产精品高清国产三级囯产AV| 国产又大又粗又猛又爽的视频| 亚洲AV无码精品无码久久蜜桃| 日本成人一区| 亚洲日本一本dvd高清| 国产自在线拍| 亚洲天堂日韩在线| 亚洲男女天堂| 中文字幕在线欧美| 国产精品第页| 91九色最新地址| 国产在线高清一级毛片| 99久久人妻精品免费二区| 5388国产亚洲欧美在线观看| 亚洲精品无码AⅤ片青青在线观看| 色一情一乱一伦一区二区三区小说| 秋霞国产在线| 找国产毛片看| 亚洲无码在线午夜电影| 伊人久久青草青青综合| 亚洲人成网站观看在线观看| 999国内精品久久免费视频| 亚洲国产第一区二区香蕉| 欧美日本中文| 国产91丝袜| 欧美在线综合视频| 久久夜色精品国产嚕嚕亚洲av| 亚洲精品国产精品乱码不卞| 国产一线在线| 免费高清a毛片| 在线色综合| 国产91导航| 97影院午夜在线观看视频| 国产91在线|日本| 国产人成午夜免费看| 伊人久久久久久久| 亚洲精品视频网| 精品伊人久久大香线蕉网站| 久久午夜夜伦鲁鲁片不卡| 67194在线午夜亚洲| 激情六月丁香婷婷四房播|