999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進的基于奇異值分解的圖卷積網絡防御方法

2023-05-24 03:18:54金柯君于洪濤吳翼騰李邵梅張建朋鄭洪浩
計算機應用 2023年5期
關鍵詞:特征方法模型

金柯君,于洪濤,吳翼騰,李邵梅,張建朋,鄭洪浩

(信息工程大學,鄭州 450001)

0 引言

圖(Graph)在表示現實中的各類關系中具有獨特的優勢,已經成為數據挖掘和機器學習領域的重要研究對象。圖神經網絡(Graph Neural Network,GNN)是獲取圖節點和關系特征的有效工具之一[1],具有良好的性能,被廣泛應用于各項圖分析任務,例如:節點分類[2]、鏈路預測[3]、圖分類[4]、社區檢測[5]等,圖神經網絡在圖表示學習領域取得了較大成功。然而研究表明:圖神經網絡在面對專門設計的對抗性攻擊時存在魯棒性差的問題[6]。攻擊者可以通過操縱圖結構或節點屬性“欺騙”圖神經網絡,從而生成圖對抗性攻擊。在金融系統和風險管理等安全攸關的領域應用中,圖神經網絡的這一安全缺陷引發了研究者的高度關注。例如,在信用評分系統中,欺詐者可以偽造出與一些高信用客戶的連接,從而逃避基于圖神經網絡的反欺詐模型的檢測。因此需要針對圖神經網絡對抗性攻擊問題研究行之有效的圖神經網絡防御方法。

對抗性攻擊根據攻擊階段不同分為污染測試數據的逃逸攻擊和污染訓練數據的投毒攻擊[7-9]。本文主要研究針對圖卷積網絡(Graph Convolutional Network,GCN)投毒攻擊的防御方法。在投毒攻擊場景下,圖數據在模型訓練之前已被擾動,因此針對圖投毒攻擊常用的防御方法是在模型訓練之前對圖數據作凈化處理,清洗污染后的訓練數據以降低攻擊的影響,從而保證訓練得到模型的準確性。防御方法的關鍵問題是如何凈化被污染圖的訓練數據。

研究表明,現實世界中的圖具有一些共同性質[10]。首先,這些圖都具有低秩性和稀疏性,例如,在社交網絡中大多數人只與少數節點連接,并且影響用戶之間連接的因素較少[11];其次,圖中相連接的節點往往具有相似的特征或屬性(稱之為特征平滑性)[12],例如,在引文網絡中,具有引用關系的兩個出版物通常具有相似的主題[13]。實驗研究表明,對抗性投毒攻擊中修改邊的有效性強于修改特征,且增加邊的攻擊性強于刪除邊,增加連邊會增大鄰接矩陣的秩[14],破壞原圖的低秩性和稀疏性;并且對抗性攻擊傾向于在節點特征明顯不同的節點之間添加連邊[8],破壞原圖的特征平滑性。

為了凈化攻擊后的圖數據,Entezari 等[14]提出了奇異值分解(Singular Value Decomposition,SVD)的預處理方法,對擾動后的圖進行奇異值分解和低秩近似處理,保證低秩性以抵御攻擊。然而該預處理方法只考慮圖的低秩性,忽略了圖的特征平滑性等其他規律,對精心設計的對抗性攻擊的防御效果有待提升。本文提出了一種改進的基于奇異值分解的圖卷積網絡防御方法ISVDatt,使圖卷積網絡保持低秩性和特征平滑性等性質。具體而言,在SVD 之前,先進行一輪預處理,篩選出節點特征明顯不同的節點之間的邊并刪除;再進行奇異值分解和低秩近似等操作,實現對污染圖數據的凈化,之后再用于圖卷積網絡模型的訓練。在圖深度學習常用的數據集上進行了大量實驗,結果表明ISVDatt 能夠有效地防御針對圖結構的投毒攻擊,相較于基于SVD 的防御方法,具有更佳的防御效果,并且復雜度較低,具有較高的實用價值。

1 相關工作

1.1 圖和圖卷積網絡的定義

圖是一種關系型結構數據,定義為G(V,E),其中:V={v1,v2,…,vN}表示節點集合,E={e1,e2,…,eM}表示連邊集合,N和M分別表示圖中節點和邊的數量。圖中節點之間的連接關系通過鄰接矩陣A表示,在無權無向圖中,A={0,1}N×N,AT=A;當節點vi和節點vj存在直 接連邊 時,Ai,j=1,否則Ai,j=0。特征圖中每個節點有d維的特征向量,節點特征矩陣用X∈{0,1}N×d表示。節點分類任務是圖上的基準測試任務之一[15]。假設每個節點vi有特征向量xi和標簽yi相關聯,節點分類的目的是利用圖G(V,E)和有標簽節點的信息訓練一個節點分類模型,并利用該模型正確預測無標簽節點的類別。

傳統深度學習模型難以直接處理圖數據,以圖卷積網絡(GCN)為代表的圖神經網絡應運而生。Kpif 等[13]于2016 年提出了GCN,它為圖數據的處理提供了一個嶄新的思路,將深度學習中常用于圖像的卷積神經網絡應用到圖數據上。GCN 通過圖卷積層聚合周圍節點的特征以更新自身節點。節點特征更新函數為:

1.2 圖對抗性攻擊

圖對抗性攻擊指的是攻擊者通過對圖數據的結構或節點特征進行微小的擾動,達到損害目標模型性能的目的[16]。在圖對抗學習中,未被攻擊的圖稱為原始圖G,被攻擊后的圖稱為擾動圖,攻擊算法添加或刪除的邊稱為擾動邊,修改圖中的邊會改變圖的鄰接矩陣,擾動圖的鄰接矩陣表示為,改變鄰接矩陣的攻擊算法稱為拓撲攻擊;如果攻擊算法修改了圖的特征矩陣,則擾動圖的特征矩陣表示為,改變特征矩陣的攻擊算法稱為特征攻擊。圖對抗性攻擊根據攻擊的時機可以分為污染測試數據的逃逸攻擊和污染訓練數據的投毒攻擊[7]。圖對抗性攻擊由Zügner 等[6]首次提出,他們提出了Nettack 算法,選擇圖中的單個節點,通過修改該節點的結構或特征改變模型對該節點的預測,采用貪婪算法逐節點進行擾動得到擾動圖。之后,面向圖神經網絡的對抗攻擊方法的研究相繼展開,出現了快速梯度攻擊(Fast Gradient Attack,FGA)[17]、Metattack[18]、GF-Attack(Graph Filter Attack)[19]、ReWatt[20]等多種圖對抗性攻擊方法。

1.3 圖對抗性防御

隨著圖對抗性攻擊帶來的各種安全問題,提高GNN 的魯棒性顯得愈加重要,圖對抗性防御工作已經開始得到關注和研究。圖對抗性防御是指通過一定的策略,使GNN 模型即使受到對抗攻擊,依舊能夠得到正確的輸出結果,從而保證模型魯棒性[9]。當前,已經有多種防御算法用于提高GNN模型的魯棒性[21],如Dai 等[16]發現在訓練中隨機丟棄一些連邊可提高應對攻擊的魯棒性。針對逃逸攻擊,增強GNN 魯棒性的方法主要包括攻擊檢測和對抗訓練等,例如Feng等[22]提出了圖對抗訓練(Graph Adversarial Training,GAT)方法以及虛擬圖對抗訓練(Virtual Graph Adversarial Training,GATV)。而針對投毒攻擊,目前多數防御算法采用修改模型的策略,出現了SVD[14]、魯棒圖卷積網絡(Robust Graph Convolutional Network,RGCN)[23]、Pro-GNN[24]等防御策略。這些方法可以有效防御針對模型訓練階段的投毒攻擊。

表1 列舉了上文提到的常見的圖對抗性攻擊與防御方法,本文主要研究針對投毒攻擊的圖對抗性防御,投毒攻擊將擾動樣本添加到訓練數據中,一個自然的想法便是采用圖凈化處理,清洗過濾掉圖中被污染的數據。基于此,本文提出了ISVDatt。

表1 常見圖對抗性攻擊與防御方法Tab.1 Common graph adversarial attacks and defense methods

2 本文方法

2.1 研究動機

Entezari 等[14]研究發現對抗性攻擊會擾動圖結構,從而增加鄰接矩陣的秩,并提出了基于奇異值分解(SVD)的預處理方法以消除加入圖結構的對抗性擾動(該防御方法簡記為SVD)。盡管該方法在一定程度上可以達到防御效果,但基于SVD 的預處理方法僅考慮到原始圖的低秩性遭到破壞,防御效果仍有改進空間。

根據1.1 節分析,GCN 模型基于特征平滑性假設而設計,如式(1)所示,模型的主要原理是圖卷積層的特征聚合操作匯聚了與某節點關聯的其他節點特征,使得經GCN 處理的節點特征也具備特征平滑性。本文認為,GCN 模型的脆弱性也表現在圖卷積層的特征聚合操作:對抗性攻擊通過增加虛假連邊得到擾動圖,擾動圖破壞了原始圖中節點的特征平滑性;GCN 模型會被擾動圖干擾,使得經圖卷積層聚合的節點特征不再具備原始圖的特征平滑性,導致預測錯誤。因此,保持圖中節點之間的特征平滑性可有效提高GCN 的魯棒性。

基于這個假設,本文提出一種針對圖卷積網絡投毒攻擊的凈化防御方法ISVDatt,旨在對圖數據進行凈化處理,使圖保持節點特征平滑性和低秩性。先篩選擾動圖特征明顯不同節點之間的邊并刪除,保證特征平滑性;再進行奇異值分解和低秩近似處理,保證鄰接矩陣的低秩性,處理后的圖可用于GCN 模型的訓練。

2.2 目標模型

研究表明,2 層的GCN 模型在節點分類中性能表現較好。為了說明本文提出的防御方法的有效性,以2 層GCN 模型完成節點分類任務為例,公式表達如下:

其中:A為鄰接矩陣;X為節點特征矩陣;W1和W2分別為輸入層到隱藏層、隱藏層到輸出層的訓練參數矩陣;為模型輸出;Y為節點的真實標簽;使用交叉熵損失函數,可得到損失函數計算公式。GCN 模型訓練階段損失函數如下:

2.3 算法框架

ISVDatt 的框架如圖1 所示,在模型遭受投毒攻擊以后,該方法對擾動后的鄰接矩陣進行圖凈化處理,處理后再用于GCN 模型的訓練。具體而言,ISVDatt 方法主要分為2 個步驟:

圖1 ISVDatt方法框架Fig.1 Framework of ISVDatt method

1)刪除特征差異較大連邊。采用杰卡德相似系數[25]作為評分函數對擾動后的鄰接矩陣的節點特征之間的相似度進行度量,并刪除特征相似度較低的連邊,即具有明顯不同特征的節點之間的連邊,再進行下一步處理。

2)奇異值分解、低秩近似處理。對第一步處理后的鄰接矩陣進行奇異值分解,再使用最大的k個奇異值重組矩陣實現低秩近似處理。完成了對污染圖數據的凈化后,再使用處理后的圖訓練GCN 模型。

2.3.1 刪除特征差異較大連邊處理

Dai 等[16]簡要介紹了一種低成本的防御方法,該方法通過刪除部分連邊,能略微提高模型應對攻擊的魯棒性。對抗性攻擊傾向于在節點特征明顯不同的節點之間添加邊,除去這類邊就可有效凈化污染數據。基于這個假設,本文提出的ISVDatt 在擾動后的鄰接矩陣中,篩選出特征差異較大的節點之間的邊并移除。

本文研究的GCN 中,每個節點具有d維二元特征,特征為0 或1,采用杰卡德相似系數來評估節點之間的特征相似度,可得到特征相似度矩陣J。根據文獻[26],在二元離散條件下,節點vi和節點vj的杰卡德相似系數定義如下:

其中:M11表示節點vi的特征為1、節點vj的特征也為1 的數量;M01表示節點vi的特征為0、節點vj中特征為1 的數量;M10表示節點vi的特征為1、節點vj的特征為0 的數量。Ji,j∈[0,1],Ji,j值越大說明節點vi和節點vj的相似度越高。

在式(4)特征相似度計算的基礎上,對擾動后的鄰接矩陣進行預處理,篩選出特征差異較大的節點之間的邊并移除。盡管干凈的圖也可能有少量這樣的邊,但數量極少,刪除這些邊對目標節點的預測幾乎沒有影響,甚至能改善結果。定義Di,j為刪除連邊矩陣操作:

其中:τ為界定特征相似度的閾值,將受到攻擊后模型的鄰接矩陣記為={0,1}N×N,經過該處理后的鄰接矩陣可以過濾部分擾動數據,記為A'={0,1}N×N。

2.3.2 奇異值分解和低秩近似處理

奇異值分解(SVD)是在機器學習領域廣泛應用的算法,它不光可以用于降維算法中的特征分解,還可以用于推薦系統、自然語言處理等領域,是很多機器學習算法的基石[27]。在上述刪除特征差異較大連邊的處理后,再對處理后的鄰接矩陣進行奇異值分解和低秩近似處理,使其保持圖的低秩性。奇異值分解定義如下:

其中:Σ為N階對角矩陣,它的對角線上的元素σi為奇異值,并且σ1>σ2>… >σmin,σi可由A'TA'的特征值λi取平方根求得,矩陣A'的秩即為非零奇異值的個數;矩陣U和V都為N階正交矩陣,U的列元素稱為左奇異向量,由A'A'T的特征向量組成,V的列元素稱為右奇異向量,由A'TA'的特征向量組成,本文研究無向圖,A'T=A'。式(7)可以寫成:

經過奇異值分解后,再對矩陣A'進行低秩近似操作,先在矩陣Σ中保留最大的k個奇異值,將剩余奇異值置0,再結合對應的左右奇異向量便可近似描述矩陣A',即

經過式(9)低秩近似處理后的鄰接矩陣記為A″,為N階矩陣,它的秩為k。至此,攻擊后的鄰接矩陣已過濾大量雜質,可直接用于GCN 模型的訓練。

2.4 ISVDatt的實現

ISVDatt的主要步驟為:

1)根據式(4)計算特征相似度矩陣J;

2)根據式(5)獲得過濾圖鄰接矩陣;

3)根據式(8)進行奇異值分解處理;

4)根據式(9)進行低秩近似,采用前k個奇異值重構矩陣A″。

具體算法偽代碼如下所示:

算法 改進的基于SVD 的圖卷積網絡防御方法ISVDatt。

3 實驗與結果分析

3.1 實驗設置

3.1.1 實驗環境

本文實驗環境為:型號為TITAN Xp 的GPU 顯卡,運行環境 ubuntu16.04 系 統,CUDA10.0,Python3.7 以 及PyTorch1.2.0。

3.1.2 數據集及評價指標

本實驗采用圖深度學習常用的具有節點特征的Citeseer[28]、Cora[29]、Pubmed[30]數據集,表2 列出了這些數據集的統計特征。數據集隨機劃分為標記節點和未標記節點兩部分,其中:標記節點全部用于訓練(占比10%);在未標記的節點中,一部分用于測試(占比80%),另一部分用于驗證(占比10%)。

表2 數據集統計特征Tab.2 Statistical characteristics of datasets

本章每輪實驗均進行10 次并記錄平均值,使用模型的分類準確率作為評價指標,評估防御方法的有效性主要對比2 項內容:

1)在原始圖上,需要保持GCN 原模型的性能;

2)在擾動圖上,盡可能地提高對對抗性攻擊的防御效果。

3.1.3 攻擊方法

本實驗采用經典的對抗性攻擊算法:Metattack 算法[18]和DICE(Delete Internally,Connect Externally)啟發式算法[31],攻擊方法對圖卷積網絡的連邊進行擾動,將擾動連邊數與連邊總數的比值稱作擾動比例。下面對這兩種攻擊算法進行簡要介紹:

1)Metattack 攻擊使用元學習中的元梯度方法解決投毒攻擊的雙層優化問題,先計算元梯度以指導攻擊行為,之后采用貪婪算法對鄰接矩陣遍歷擾動以實現攻擊。

2)DICE 啟發式算法則根據“從同類節點中刪除連邊,在不同類節點間增加連邊”這一規則,利用啟發式算法,刪除部分連邊,隨后通過添加連邊恢復其影響力。

3.2 消融實驗

3.2.1 防御模型構建

本文的防御方法ISVDatt 在SVD 的基礎上增加了刪除特征差異較大連邊的操作,使圖同時保持低秩性和特征平滑性,因此防御模型主要由刪除特征差異較大連邊、奇異值分解和低秩近似兩部分組成,按照操作順序不同分別建模如下:

1)先進行奇異值分解和低秩近似,再刪除特征差異較大連邊,模型記為ISVD_0。

2)先刪除特征差異較大連邊,再進行奇異值分解和低秩近似,即本文方法,模型記為ISVDatt。

以Cora 數據集為例(其他數據集上均能得到相似結果),分別在原始圖和擾動圖上進行實驗,擾動圖選擇Metattack 攻擊5%至25%的連邊,節點特征相似度閾值τ和低秩近似后的矩陣秩k分別取為0.05 和10。分別記錄不采用防御方法(GCN)和采用ISVD_0 與ISVDatt 的2 種防御模型后的分類準確率,結果如表3 所示。

表3 不同模型配置在Cora數據集上的分類準確率Tab.3 Classification accuracy of different models under different settings on Cora dataset

如表3 所示,對于原始圖(擾動比例為0),采用模型ISVDatt 和ISVD_0 后,分類準確率均下降,ISVD_0 下降幅度較大,ISVDatt 幅度較小,說明這2 種模型對于未受干擾的原始圖的性能均有影響,但ISVDatt 模型對原始圖影響較小。對于Metattack 攻擊下的擾動圖,采取ISVDatt 模型防御后,分類準確率提升明顯,達到了一定的防御效果;而采用ISVD_0模型后,在擾動比例較小時,模型的分類準確率不升反降,擾動比例為20%時,才有所提升,但幅度較小。綜上,ISVD_0模型防御效果不如ISVDatt。究其原因,ISVD_0 模型先采用奇異值分解和低秩近似,后刪除特征差異較大連邊,奇異值分解和低秩近似本質是對鄰接矩陣進行降秩,對其蘊含的連邊信息進行了壓縮處理,常應用于圖像處理方面,然而圖數據的節點之間存在聯系,該操作會在一定程度上破壞節點的連邊情況,處理后的鄰接矩陣未必能反映原圖真實的連接情況,影響下步操作中杰卡德相似系數對特征差異較大連邊的判定,導致刪除連邊操作隨機性較大。因此ISVD_0 模型防御效果較差。

反觀ISVDatt 模型,先采用刪除特征差異較大連邊操作,該操作過濾明顯的可疑連邊,幾乎不會誤刪正常連邊,為下一步操作作了鋪墊,提高了奇異值分解的準確性,取得了更好的防御效果。故最終本文提出的防御方法采取先刪除特征差異較大連邊、后奇異值分解的模型框架(如圖1 所示)。

3.2.2 防御參數選擇

本文防御方法的性能與參數設置相關,防御過程主要由刪除特征差異較大連邊與奇異值分解與低秩近似2 個階段組成,這2 階段的關鍵參數(即節點特征相似度閾值τ和低秩近似后的矩陣秩k)具有一定實際意義,其中節點特征相似度閾值τ決定刪除連邊的數量,凈化后矩陣秩k則衡量低秩近似的程度。本節對ISVDatt 的這2 個階段的關鍵參數設置進行分析。通過控制變量法,以Cora 數據集為例進行實驗。

本節實驗分別在擾動圖和原始圖上分別進行測試,其中擾動圖選擇Metattack 攻擊方法擾動10%的連邊。節點特征相似度閾值τ設置為:0~0.25,步長為0.05;低秩近似后的矩陣秩k設置為5~25,步長為5。結果如表4 所示。

由表4 可知,隨著節點特征相似度閾值τ增大,刪除連邊增多,同時對原始圖的影響也增大;凈化后矩陣秩k若過大則過濾污染數據較少,若k過小則對原始圖影響較大。為提高模型的分類準確率,參數需要選擇合適的值。根據上圖結果,綜合考慮參數變化在擾動圖和原始圖上的影響,力求在擾動圖上獲得較好的防御效果和對原始圖影響較小,最終設置τ為0.05,k為10,可以在保持原矩陣特性的基礎上消除大部分擾動數據。

3.3 防御效果實驗

為了驗證ISVDatt 的有效性,本文將它與針對GCN 投毒攻擊的其他三種防御方法進行比較,分別為:

1)Pro_GNN[24]:按照圖的特性,從受擾動的圖和模型參數中學習原始圖拓撲結構和魯棒性,迭代地重構1 個新圖以防御對抗性攻擊。

2)RGCN[23]:利用高斯分布對擾動的容忍性,將圖卷積層的隱層節點表示為高斯分布以吸收對抗攻擊帶來的影響;此外還利用方差為鄰居節點分配注意力權重,具有高方差的節點將受到懲罰。

3)SVD[14]:將受擾動的圖進行SVD,低秩近似對圖數據重組。

3.3.1 在原始圖上的分類性能

本節在GCN 模型上對各防御方法進行測試,結果如表5所示。由表5 可知,在未受擾動的原始圖上采用以上4 種防御方法后,模型的分類準確率變化較小,仍能保持原本的性能。

表5 不同防御方法在原始圖上的分類準確率Tab.5 Classification accuracy of different defense methods on original graph

3.3.2 在擾動圖上的分類性能

本節分別采用了Metattack 和DICE 對GCN 進行攻擊,擾動比例從0 增至25%,分別記錄不采用防御方法和采用防御方法后模型的節點分類準確率。實驗的結果如表6 所示。由表6 實驗結果可知,相較于RGCN 和SVD,本文提出的ISVDatt 多數情況下分類準確率更高,具有更好的防御效果。原因是RGCN 采用高斯分布作為GCN 層間節點的潛在表示,因此當圖中具有較多擾動邊時防御性能不佳;SVD 對圖進行了簡單的凈化處理,具有局限性,比如在DICE 攻擊下,SVD防御效果較差,原因是DICE 攻擊具有較高的隨機性,SVD 操作過于簡單,因此防御效果一般;ISVDatt 在SVD 基礎上增加了刪除特征差異較大連邊的操作,進一步凈化污染數據,提高了模型應對對抗性攻擊的魯棒性。但ISVDatt 防御性能不如Pro_GNN,因為Pro_GNN 方法將圖視作超參數,反復迭代調優。盡管Pro_GNN 具有較好的防御效果,但需要同時滿足圖的多項特性指標,模型性能對超參數的改進較為敏感,計算過程較復雜,計算資源消耗較大;而ISVDatt 相較于Pro_GNN 復雜度較低,時間開銷可以忽略不計,在3 個數據集的GCN 模型上啟用防御僅使訓練運行時間增加了不到20 s。綜合考慮到時間成本和運算復雜度,ISVDatt 比Pro_GNN 更具優勢。ISVDatt 作為一種對擾動圖進行凈化的方法,可以應用于多種場景,具有較高的防御通用性。

表6 Metattack和DICE攻擊下的分類準確率Tab.6 Classification accuracies under Metattack and DICE attacks

4 結語

圖對抗性攻擊傾向于在特征明顯不同的節點之間添加連邊,以破壞圖的稀疏性和特征平滑性等特性。根據該結論,本文提出了一種改進的基于奇異值分解的圖卷積網絡防御方法ISVDatt。該方法可以在模型遭受投毒攻擊后對中毒數據進行預處理,達到數據凈化的效果,從而提高GCN 模型應對對抗性攻擊的魯棒性。本文在圖深度學習常用的3 個開源數據集Citeseer、Cora 和Pubmed 上進行大量實驗,驗證了本方法具有較好的防御效果。但是在實驗中發現,該方法對訓練數據進行了凈化處理,改變了圖結構,在未受投毒攻擊的原始圖上采取該防御方法會略微降低GCN 模型的分類準確率。因此在未來的工作中,我們將致力于改善運用本方法在原始圖上的性能,并進一步降低對抗性攻擊帶來的影響,提高GCN 模型應對對抗性攻擊的防御能力。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 蝌蚪国产精品视频第一页| 久久精品国产91久久综合麻豆自制| 无码专区在线观看| 精品福利一区二区免费视频| 国产亚洲精品97在线观看| 婷婷色一区二区三区| 久久青草免费91观看| 国产福利小视频高清在线观看| 手机精品视频在线观看免费| 欲色天天综合网| 亚欧成人无码AV在线播放| 亚洲成a人片77777在线播放| 亚洲swag精品自拍一区| 无码电影在线观看| 国产成人乱无码视频| jijzzizz老师出水喷水喷出| 国产精品久久久久鬼色| 色九九视频| 久草视频中文| 视频二区国产精品职场同事| 亚洲天堂免费| 在线观看欧美国产| 精品成人一区二区三区电影| 日韩AV无码一区| 午夜a级毛片| 精品久久人人爽人人玩人人妻| 农村乱人伦一区二区| 国产在线第二页| 亚洲伦理一区二区| 国产精品冒白浆免费视频| 综合网天天| a天堂视频| 无码中文字幕精品推荐| 久久青草免费91观看| 在线亚洲小视频| 日韩无码一二三区| 亚洲一级毛片在线观| …亚洲 欧洲 另类 春色| 91毛片网| 在线观看的黄网| 大学生久久香蕉国产线观看| 亚洲色成人www在线观看| 国产精品视频第一专区| 色婷婷综合激情视频免费看| 欧美不卡视频在线| 无码福利日韩神码福利片| 毛片一区二区在线看| 国产成+人+综合+亚洲欧美| 成年av福利永久免费观看| 国产在线日本| 欧美亚洲一二三区| 国产91视频免费观看| 92午夜福利影院一区二区三区| 亚洲区第一页| 天堂久久久久久中文字幕| 亚洲国产日韩在线观看| 亚洲午夜国产精品无卡| 亚洲国产日韩在线观看| 亚洲人成网7777777国产| 欧美区日韩区| 欧美亚洲一区二区三区在线| 丁香五月婷婷激情基地| 亚洲精品777| 久久毛片网| 亚洲人成影视在线观看| 日韩欧美中文| 91亚洲免费| 欧美中文字幕在线二区| 无码啪啪精品天堂浪潮av| 国产精品久久久久鬼色| 国产精品午夜福利麻豆| 99热这里只有免费国产精品| 97超爽成人免费视频在线播放| 中文纯内无码H| 国产99精品久久| 亚洲综合狠狠| 亚洲精品黄| 69视频国产| 精品亚洲欧美中文字幕在线看| 一级毛片在线播放| 久久久噜噜噜久久中文字幕色伊伊| 日本国产精品一区久久久|