999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合語義特征的加權(quán)樸素貝葉斯分類算法

2020-09-29 08:08:10邱寧佳賀金彪薛麗嬌趙建平
計算機工程與設(shè)計 2020年9期
關(guān)鍵詞:語義分類特征

邱寧佳,賀金彪,薛麗嬌,王 鵬,趙建平

(長春理工大學(xué) 計算機科學(xué)技術(shù)學(xué)院,吉林 長春 130022)

0 引 言

數(shù)據(jù)分析和挖掘已成為文本分類領(lǐng)域內(nèi)研究的重點。樸素貝葉斯算法進行分類既簡單又高效,但由于算法本身的屬性條件獨立性假設(shè)回避了關(guān)聯(lián)關(guān)系,使得算法的分類效果有所降低,因此在提高樸素貝葉斯的分類性能問題上大多數(shù)學(xué)者做了廣泛的研究和改進。目前特征處理方面的改進主要有選出最優(yōu)特征集[1-3]、結(jié)合特征選擇方法修改權(quán)重[4-6]等方法,以提高算法的分類精確度;羅慧欽等在隱樸素貝葉斯模型中加入文本屬性的依賴性和獨立性約束條件,從而提高了文本情感分類的準(zhǔn)確性[7]。此外,針對提取的不同關(guān)鍵特征重要程度的判定問題,一些學(xué)者通過構(gòu)建相應(yīng)的加權(quán)函數(shù)計算各特征的不同權(quán)值[8-10],用于區(qū)分不同特征類別的貢獻度來改善樸素貝葉斯模型的性能。Jiang等提出根據(jù)不同類中屬性分配特定權(quán)重的細(xì)粒度加權(quán)方法,使模型在分類性能上具有一定優(yōu)勢[11];Yu和Lee分別使用屬性值之間差異計算和KL測度方法,對特征項的權(quán)值分配相應(yīng)權(quán)重,顯著提高了樸素貝葉斯的性能[12,13]。

上述研究均在不同程度上提高了樸素貝葉斯算法的分類性能,但缺少語義關(guān)聯(lián)性研究方面的探討,在此基礎(chǔ)上本文綜合考慮特征處理和屬性加權(quán),提出一種融合語義特征的加權(quán)樸素貝葉斯分類算法。首先在傳統(tǒng)TextRank算法(圖模型排序算法)的基礎(chǔ)上,將特征間的語義相關(guān)性引入到圖模型中,通過Google距離求解節(jié)點的初始權(quán)重。然后使用特征加權(quán)的方法來降低獨立性假設(shè)的影響,最后利用改進的加權(quán)樸素貝葉斯模型進行分類。

1 特征提取

基于圖模型的TextRank算法在計算時單純的設(shè)定所有分詞初始權(quán)值均等,忽略了分詞本身的屬性,直接影響分類的效果。本文利用詞語間語義相關(guān)性重新計算節(jié)點權(quán)值,實現(xiàn)TextRank算法的改進工作。

1.1 TextRank算法原理

傳統(tǒng)的TextRank算法是由PageRank改進而來,將每個詞語作為網(wǎng)頁節(jié)點根據(jù)重要程度進行連接構(gòu)造帶權(quán)網(wǎng)絡(luò)圖模型,并利用投票機制對節(jié)點進行排序,最終選擇TOP-K個詞語作為候選關(guān)鍵詞。TextRank是一種有向帶權(quán)圖模型,表示為G=(V,E), 其中V是圖模型構(gòu)成的節(jié)點集合,E是圖模型構(gòu)成的邊集合,具體的圖模型如圖1所示。

圖1 TextRank關(guān)鍵詞圖模型

圖中wji為任意兩節(jié)點Vi與Vj之間邊的權(quán)重,對于給定的任意節(jié)點Vi,In(Vi) 表示Vi節(jié)點的所有入度節(jié)點集合,Out(Vj) 表示Vi節(jié)點的所有出度節(jié)點集合,δ為阻尼系數(shù),表示當(dāng)前節(jié)點能夠跳轉(zhuǎn)到其它任意節(jié)點的概率,節(jié)點S(Vi) 的權(quán)重計算公式為

(1)

1.2 NGD-TextRank特征提取算法

在TextRank算法中認(rèn)為任意兩個節(jié)點之間的聯(lián)系是相同的,設(shè)定初始權(quán)重均等,忽略了節(jié)點間語義關(guān)聯(lián)性對節(jié)點自身產(chǎn)生的影響。針對上述問題本文采用節(jié)點間的語義相關(guān)性來表示節(jié)點間的權(quán)重,Google距離通過衡量語義相關(guān)性,應(yīng)用于搜索引擎的結(jié)果匹配程度上具有較高的精確度,在處理分析文本概念間相關(guān)性和語義標(biāo)注領(lǐng)域能取得較好的效果。本文使用Google距離計算節(jié)點間語義相關(guān)性作為節(jié)點間的初始權(quán)值,通過TextRank模型迭代訓(xùn)練至收斂得到各節(jié)點的最終權(quán)重值,再根據(jù)最終結(jié)果進行TOP-K排序提取關(guān)鍵特征。

設(shè)定存在文檔集合D={d1,d2…,dn}, 第n個文檔內(nèi)特征集合V={v1,v2,…,vi,…,vj}, 利用Google距離計算詞語vi,vj在當(dāng)前文檔中出現(xiàn)頻率的高低來測量概念間的語義距離,分析語義層面上的聯(lián)系程度。詞語間的語義距離越小,表明相關(guān)聯(lián)系越緊密,反之越疏遠(yuǎn)。因此,使用Google距離計算兩個不同特征間的語義相關(guān)性來表示權(quán)重wji, 其任意兩個特征的語義相關(guān)性可表示為

(2)

式中:df(vi) 代表包含了詞語vi的文檔數(shù)量,df(vj) 代表包含了詞語vj的文檔數(shù)量,df(vi,vj) 代表同時包含了詞語vi和詞語vj的文檔數(shù)量,N代表文檔集的總數(shù)。

最終的權(quán)重計算公式為

wji=(wNGD(vi,vj)+1)-1

(3)

與傳統(tǒng)算法相比,上述wNGD計算方法從語義層面上反映了詞語之間的聯(lián)系程度,引入語義聯(lián)系計算節(jié)間點的權(quán)值不僅能彌補設(shè)定初始權(quán)值相等的不足,還能在一定程度上減少不相關(guān)冗余特征的出現(xiàn),而具有高相關(guān)性的詞語能夠獲得更高的權(quán)值。使用改進的NGD-TextRank算法得到的關(guān)鍵特征相較于原算法質(zhì)量更高,更適用于分類。下面給出特征提取的算法流程:

算法1: NGD-TextRank算法

輸入: 數(shù)據(jù)文檔集合D={d1,d2…,dn}, 關(guān)鍵特征集合T, 關(guān)鍵特征個數(shù)K

輸出: 更新后的關(guān)鍵特征詞集合T={t1,t2…,ti}

(1) 預(yù)處理得到詞語集合V={v1,v2,…,vi,…,vj}

(2) setT=? //設(shè)定初始關(guān)鍵特征詞集合為空

(3) setK//設(shè)定取前K個關(guān)鍵特征詞

(4) for eachD

(5) for eachvi,vjinV

(6) 通過式(2)計算詞語間語義相關(guān)性wNGD(i,j)

(7) end for

(8) end for

(9) 根據(jù)式(3)計算初始權(quán)重wji

(10) for eachviinV

(11) 計算S(Vi)

(12) end for

(13) 對vi按S(Vi) 值降序排序

(14) 取TOP-K特征加入特征集合T

(15) 輸出更新后的關(guān)鍵特征詞集合T={t1,t2…,ti}

2 特征加權(quán)樸素貝葉斯算法

2.1 樸素貝葉斯算法

樸素貝葉斯算法是假設(shè)各特征相互獨立的分類方法,求解特征項ti在相互獨立出現(xiàn)的條件下屬于各個類別cj的概率P(cj|ti), 則將歸屬類別的最大概率結(jié)果作為待分類文檔的真正類別,具體的樸素貝葉斯公式為

(4)

然而,樸素貝葉斯公式在分類過程中屬性之間相互獨立在現(xiàn)實生活中往往很難滿足。在文本分類中,各特征項之間必然會存在一定的聯(lián)系,忽視樸素貝葉斯算法特征獨立的假設(shè)會降低算法的分類性能。

2.2 加權(quán)樸素貝葉斯算法

Hellinger距離具有對稱性可以衡量兩個概率之間的距離,因此能夠作為兩個分布之間差異的適當(dāng)度量函數(shù)。本文采用該距離函數(shù)對某個特征項在分類過程中所含信息量的多少進行度量,表示為文本類別在某個特征詞出現(xiàn)前后時概率之間的差異,具體的計算公式為

(5)

式中:p(cj|ti) 表示含有特征詞ti的cj類文本在整個文本集中的概率,p(cj) 表示cj類文本在整個文本集中的概率,n表示類別總數(shù)。

上述Ht衡量了同一特征在不同類別間的影響程度,其值越大代表該特征攜帶的信息量越大,越具有類別代表性,說明該特征在劃分類別能力上的貢獻度越大。然而上述加權(quán)過程忽略了特征詞在某一類別內(nèi)的集中情況,即詞頻集中度對特征權(quán)重的影響;同時沒有體現(xiàn)該類包含特征項的文檔分布,以及文檔空間內(nèi)不同特征個數(shù)對特征詞類別代表性的影響,因此應(yīng)該從文檔差分度上考慮特征詞在分類過程中的重要性。

本文考慮詞頻集中程度對特征詞權(quán)重的影響去構(gòu)建加權(quán)函數(shù),以類別cj中特征詞ti的數(shù)量占總特征詞的比例表示特征詞ti在類別cj中出現(xiàn)的可能性,并根據(jù)特征詞ti在待分類文本中的詞頻,定義了詞頻集中度加權(quán)函數(shù),具體公式表示為

(6)

式中:cj_tf(ti) 表示在類別cj中特征詞ti的詞頻,cj_tf表示類別cj中的特征詞總數(shù),d_tf(ti) 表示在當(dāng)前文檔中特征詞ti的詞頻。從詞頻集中度可以量化該特征詞在某一類中的分布情況,如果特征詞的詞頻集中度較高,說明此特征詞具有較均勻的類內(nèi)分布,就越能代表該類別。

在某個給定的類別中,包含特征項的文檔出現(xiàn)頻率以及文檔中含有的不同特征詞數(shù)量的差異,在很大程度上體現(xiàn)特征詞分類能力的高低。在考慮類內(nèi)文檔分布情況時,本文關(guān)注了含有特征詞ti的文檔空間內(nèi)不同特征的個數(shù),即文檔特征空間大小,以此為依據(jù)定義了文檔差分度加權(quán)函數(shù),具體公式表示為

(7)

式中:cj_df(ti) 表示在類別cj中含有特征詞ti的文檔數(shù),cj_df表示類別cj中的文檔總數(shù),cj_d(tfavg) 表示類別cj的各文檔中不同特征詞的平均數(shù),即文檔特征空間的大小。分類能力強的特征詞應(yīng)該分布在該類的多數(shù)文檔中,也就是該類中包含特征詞ti的文檔占文檔總數(shù)的比例越高,特征詞越具有類別代表性;同時該類各文檔中不同特征詞的數(shù)量越少,說明該類文檔的特征空間越小,此時特征詞分類的貢獻程度越強。

結(jié)合上述思想,本文提出特征加權(quán)樸素貝葉斯公式,考慮特征詞在類別間的信息量大小,并分析詞頻集中度和文檔差分度對特征詞重要性的影響,綜合計算特征項的權(quán)重值,最終得到改進的加權(quán)樸素貝葉斯公式和權(quán)重計算公式如下

(8)

w(i,j)=Ht×TCF×TDS

(9)

其中,w(i,j) 值越大,特征詞獲得的權(quán)重越高,對分類的貢獻程度越大;反之,w(i,j) 值越小,特征詞獲得的權(quán)重越低,對分類的貢獻程度越小。使用上述特征加權(quán)方法是對每個特征項約束條件的放寬處理,通過對每個特征項重新估量分配不同的權(quán)值,能夠彌補傳統(tǒng)樸素貝葉斯算法在分類過程中各屬性相互獨立假設(shè)的不足,以提高分類器性能。

3 NTWNB算法

屬性獨立性假設(shè)一直是樸素貝葉斯分類算法面臨的問題,解決屬性獨立假設(shè)問題對最終的分類結(jié)果影響較大。本文提出一種融合語義特征的加權(quán)樸素貝葉斯分類算法(NTWNB),首先對分類文本進行數(shù)據(jù)預(yù)處理,并使用Google距離重新計算詞語間相互關(guān)聯(lián)程度來代替原始權(quán)重改進TextRank算法進行特征提取,然后以提取的關(guān)鍵特征詞集合構(gòu)建向量模型,并從特征詞信息量、詞頻集中度和文檔差分度3個方面分析特征詞的綜合權(quán)重,使用改進的加權(quán)樸素貝葉斯分類算法進行分類,整體解決方案如下:

(1)數(shù)據(jù)預(yù)處理。將訓(xùn)練文本經(jīng)過數(shù)據(jù)解析、進行分詞、過濾停用詞等操作后得到初始詞語集合。

(2)關(guān)鍵特征選取。依次對初始集合中詞語使用Google距離計算語義相關(guān)性得到新的權(quán)重,將新的權(quán)重值帶入到TextRank中重新計算,根據(jù)計算結(jié)果進行排序選取前TOP-K作為關(guān)鍵特征集合。

(3)向量模型構(gòu)建。使用(2)中的NGD-TextRank算法提取出的關(guān)鍵特征進行向量化表示,構(gòu)建特征向量模型。

(4)綜合權(quán)重計算。分別使用Ht,TCF和TDS表示特征信息量、詞頻集中度、文檔差分度,綜合分析得到特征項的權(quán)重表示w(i,j), 并計算每個特征項的權(quán)重值。

(5)特征加權(quán)改進。根據(jù)(4)中的計算權(quán)重方法改進傳統(tǒng)樸素貝葉斯公式,得到加權(quán)樸素貝葉斯算法。

(6)文本類別輸出。對待分類文本使用(5)中分類器模型進行類別預(yù)測。以輸出結(jié)果作為該文本類別。

完整的算法結(jié)構(gòu)如圖2所示。

圖2 算法結(jié)構(gòu)

4 實驗及結(jié)果分析

4.1 實驗環(huán)境和數(shù)據(jù)

實驗在Pycharm平臺上使用Python3.6語言開發(fā),實驗配置為IntelCore i5-7500 @3.40 GHz四核,16 GB內(nèi)存,windows10操作系統(tǒng)。為了驗證本文提出的算法可行性,本研究采用的熱線咨詢數(shù)據(jù)來自于某運營商客服熱線平臺數(shù)據(jù)庫,該平臺每月統(tǒng)計的用戶咨詢文本數(shù)量在 5-10 萬條不等,便于研究選取訓(xùn)練集30 000條文本、測試集6000條文本作為數(shù)據(jù)集對象,每條文本中記錄了用戶整個通話過程的全部內(nèi)容。設(shè)計實驗時具體的數(shù)據(jù)集特征見表1。

表1 數(shù)據(jù)集特征內(nèi)容

4.2 評價指標(biāo)

本文使用上述實驗數(shù)據(jù)進行二分類,為了對上述算法的優(yōu)劣性進行評估,選取ROC(receive operating characte-ristic)曲線及曲線下面積AUC(area under curve)值作為本文提出的算法評估標(biāo)準(zhǔn),由式(10)、式(11)可以看出使用偽正率(FPR)和真正率(TPR)分別作為橫縱坐標(biāo)繪制曲線并計算AUC值,可以得出數(shù)值越大算法分類性能越好。

以用戶查號意向監(jiān)測為例,設(shè)TP表示用戶意向為查號且被分類為查號的情況,F(xiàn)P表示為用戶意向為非查號但被分類為查號的情況,F(xiàn)N表示為用戶意向為查號但被分類為非查號的情況,TN表示為用戶意向為非查號且被分類為非查號的情況。則偽正率表示為在所有實際意向為非查號的樣本中被錯誤地預(yù)測為查號的比例,公式為

(10)

真正率表示為在所有實際意向為查號的樣本中被正確預(yù)測為查號的比例,公式為

(11)

4.3 改進算法實驗驗證

實驗1:特征提取效果對比分析。

本文分別使用改進前后的特征提取算法對同一數(shù)據(jù)集30 000文檔數(shù)據(jù)做特征提取分析,表2列出了兩種算法選用特征詞數(shù)量50為間隔進行對比,分析特征數(shù)量變化時因提取的特征詞不同造成的覆蓋文檔數(shù)和準(zhǔn)確率變化對比。

表2 2種特征提取算法對比

通過表2可以發(fā)現(xiàn)兩種算法都能夠有效地利用詞之間的關(guān)聯(lián)性取得較好的效果,而在相同維度下改進的NGD-TextRank算法與傳統(tǒng)算法相比提取到的關(guān)鍵特征文檔覆蓋率更高,這是因為基于語義距離計算的特征權(quán)重充分體現(xiàn)詞之間在文檔中相關(guān)聯(lián)系的重要性,引入語義距離對相關(guān)特征節(jié)點圖邊權(quán)重進行重新計算能夠獲得更重要關(guān)鍵特征,表明在特征提取時融入語義相關(guān)性具有更好的特征提取效果。從不同特征維度分析,可以看出改進后的算法隨著特征詞數(shù)量的增加整體呈現(xiàn)上升的趨勢,而原始算法則隨著特征詞的增加準(zhǔn)確率上升到某一最高點后逐漸開始下降,這種現(xiàn)象是因為特征詞中含有部分關(guān)聯(lián)性弱、代表性差的冗余特征造成。當(dāng)特征詞維度為400時傳統(tǒng)算法準(zhǔn)確率達到最高值,而改進后的算法在特征維度為250時已經(jīng)實現(xiàn)原始實驗的分類效果并在后期持續(xù)上升,說明改進后的算法可以篩選出具有高分類能力的代表特征,剔除冗余屬性。上述對比可以看出改進后的算法具有降維的作用,用更少的語義特征可以得到更準(zhǔn)確的分類效果。

實驗2:加權(quán)效果驗證。

為了驗證權(quán)重前后變化的合理性,表3展示了部分特征詞以及它們在權(quán)重計算前后的對比結(jié)果。同時考慮本文改進算法的有效性,設(shè)計實驗使用傳統(tǒng)TextRank-NB算法以及其加權(quán)形式和融合形式進行ROC曲線分析和AUC值比較結(jié)果如圖3所示。

表3 加權(quán)前后特征權(quán)重對比

圖3 改進算法ROC曲線和AUC值對比

由表3可以看出選取的特征詞通過使用Hellinger距離衡量了特征詞的信息量大小,信息量越大說明其分類貢獻度越大,并根據(jù)特征詞在某一類別中集中度的提高來提升類別代表能力,以及分類貢獻度高的特征詞其文檔差分度越高來體現(xiàn)特征詞分類貢獻程度的差異。綜合考慮上述因素共同作用下得到的最終權(quán)重可以看出改進后的“想查”、“查下”等權(quán)重提升較大,更能反映出類別的代表能力,反之“電話”、“醫(yī)院”等權(quán)值相應(yīng)降低,由此可以看出對類別代表能力弱的特征詞經(jīng)過重新計算后權(quán)重都有相應(yīng)下降變化,說明了特征詞權(quán)重變化的合理性。通過圖3可以看出,在使用NB或WNB相同分類模型時,結(jié)合改進的NGD-TextRank特征提取算法得到的ROC曲線要優(yōu)于傳統(tǒng)TextRank算法,對應(yīng)的AUC值也提高了2%,這主要是因為改進算法考慮語義重新計算后提取的特征詞更能發(fā)揮分類作用,明顯提高算法的分類性能。在使用TextRank或NGD-TextRank相同特征提取算法時,使用改進的加權(quán)樸素貝葉斯分類器要比傳統(tǒng)的分類器ROC曲線效果更突出,改進分類器的AUC值相應(yīng)提高了7%,說明了傳統(tǒng)樸素貝葉斯算法由于其條件獨立假設(shè)限制了特征詞的作用而影響了分類的性能,通過特征詞的信息量、特征分布情況和文檔特征數(shù)量的加權(quán)實現(xiàn)了分類器綜合考慮特征的權(quán)重,增強了分類過程中特征詞之間的差異性以提高分類性能。NGD-TextRank-WNB算法的ROC曲線和AUC值均高于其它算法表現(xiàn),表明本文算法能夠保證提取特征詞的優(yōu)越性時,同樣也解決了傳統(tǒng)樸素貝葉斯方法沒有根據(jù)不同特征詞其重要程度進行衡量影響分類準(zhǔn)確率的問題,因此在進行分類時具有優(yōu)勢,是一種較好的分類算法。

實驗3:多數(shù)據(jù)集普適性驗證。

為了更好地體現(xiàn)本文提出的NTWNB算法的分類效果,通過對比各算法在不同數(shù)據(jù)集上的實驗結(jié)果進一步分析。實驗選取了表1中4個具有代表性的數(shù)據(jù)集,其中前兩個數(shù)據(jù)集為二分類不平衡數(shù)據(jù)集;選取的數(shù)據(jù)集3和數(shù)據(jù)集4分別是二分類和多分類平衡數(shù)據(jù)集,同時數(shù)據(jù)集的樣本存在明顯差異。在各類型數(shù)據(jù)集上設(shè)計實驗與文獻中提到的LAWNB[14]和TWNB[15]以及傳統(tǒng)NB算法進行對比,表4記錄了算法在各數(shù)據(jù)集上的分類性能對比結(jié)果,4種算法的F值綜合評價指標(biāo)如圖4所示。

表4 4種分類算法性能對比

圖4 不同數(shù)據(jù)集各算法F值對比

通過表4可以看出,4種算法在不同數(shù)據(jù)集上的分類性能具有明顯的不同,這主要因為數(shù)據(jù)集分布情況對分類結(jié)果具有較大影響,但是本文改進的NTWNB算法在各數(shù)據(jù)集上表現(xiàn)最優(yōu),使用特征詞的信息量、特征分布情況和文檔特征數(shù)量的加權(quán)改進處理相應(yīng)數(shù)據(jù)集得到的準(zhǔn)確率、召回率都高于其它算法,說明本文提出的特征加權(quán)算法是提高樸素貝葉斯分類性能的一種有效方法。由圖4可以看出,在4個不同數(shù)據(jù)集中傳統(tǒng)的樸素貝葉斯算法F值皆為最低,經(jīng)過相應(yīng)改進的算法均有所提高。在不平衡數(shù)據(jù)集上,其它改進的算法性能提升到85%,而本文提出的分類算法性能提升更為明顯達到了92%,充分驗證了針對數(shù)據(jù)集樣本差異考慮詞頻集中度和文本差分度進行特征加權(quán)的重要性。在二分類和多分類平衡數(shù)據(jù)集中,本文改進的算法在分類表現(xiàn)上提升幅度相近,從而體現(xiàn)出本文提出的算法既適用于二分類又適用于多分類。綜合對比本文提出的算法具有更好的分類效果。

5 結(jié)束語

本文針對傳統(tǒng)特征提取算法忽略語義相關(guān)性以及傳統(tǒng)樸素貝葉斯算法的條件獨立假設(shè)性而引起的分類準(zhǔn)確率降低問題,提出一種改進的NTWNB算法。首先融入詞語間語義相關(guān)性對TextRank算法節(jié)點初始權(quán)重進行重新計算,提取出具有相關(guān)代表性的關(guān)鍵特征;然后在分類過程中以特征詞的Hellinger信息量作為初始權(quán)重,結(jié)合特征和文檔分布情況求解最優(yōu)的加權(quán)函數(shù)組合;最后使用加權(quán)函數(shù)改進樸素貝葉斯分類模型。采用ROC和AUC作為本文算法的評價指標(biāo),通過與其它算法在不同數(shù)據(jù)集上的實驗對比,最終得到本文改進的算法具有更高的分類效果。但是本文的方法在多分類數(shù)據(jù)集上的表現(xiàn)仍有待提升,下一步將針對多分類問題進一步研究,擴大本文算法的普適性。

猜你喜歡
語義分類特征
分類算一算
語言與語義
如何表達“特征”
不忠誠的四個特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語義模糊
主站蜘蛛池模板: 岛国精品一区免费视频在线观看| 国产制服丝袜无码视频| 亚洲日韩久久综合中文字幕| 国产幂在线无码精品| 免费无码AV片在线观看国产| 黄色不卡视频| 秋霞国产在线| 一本大道香蕉久中文在线播放| 久久婷婷五月综合色一区二区| 亚洲国产欧美目韩成人综合| 免费毛片a| 国产青榴视频在线观看网站| 婷婷中文在线| 国产va欧美va在线观看| 亚洲午夜天堂| 国产精品漂亮美女在线观看| 在线人成精品免费视频| 免费网站成人亚洲| 国产成人精品一区二区| 国产成人91精品| 色偷偷一区二区三区| 国产超碰在线观看| 91伊人国产| 免费jjzz在在线播放国产| 国产综合精品一区二区| 无码专区第一页| 国国产a国产片免费麻豆| 99热这里只有精品免费| 亚洲无码精彩视频在线观看| 成人精品在线观看| 久久久久久午夜精品| 婷婷色一二三区波多野衣| 国产精品三级专区| 中文无码精品A∨在线观看不卡| 国产精品v欧美| 国产自在自线午夜精品视频| 亚洲国产系列| 老色鬼欧美精品| 全部免费毛片免费播放| 亚洲天堂在线视频| 亚洲成人动漫在线| 一级一毛片a级毛片| 孕妇高潮太爽了在线观看免费| 国产小视频a在线观看| 99久久亚洲精品影院| 欧美日韩成人在线观看| 欧美午夜视频| 色综合中文字幕| 福利一区三区| 亚洲欧美精品一中文字幕| 国产欧美日韩视频怡春院| 亚洲一级毛片免费看| 日韩毛片免费视频| 免费一级毛片不卡在线播放| 欧美三级视频网站| 青青操视频在线| 国产精品美女免费视频大全 | 成年免费在线观看| 国产成人1024精品| 国产精品久久久久久久伊一| 91亚洲精品第一| 毛片在线播放网址| 日本一本在线视频| 免费国产在线精品一区| 成人噜噜噜视频在线观看| 91无码人妻精品一区二区蜜桃| 国产精品亚洲片在线va| 免费啪啪网址| 日本一区中文字幕最新在线| 天堂va亚洲va欧美va国产| 99精品福利视频| 在线视频一区二区三区不卡| 欧美一区精品| av大片在线无码免费| 在线看AV天堂| 国产爽爽视频| 欧美成一级| 国产精品欧美日本韩免费一区二区三区不卡 | 亚洲综合天堂网| 91欧美在线| 日本91在线| 中文字幕精品一区二区三区视频|