999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

聚焦圖像對抗攻擊算法PS-MIFGSM

2020-06-07 07:06:38吳立人劉政浩岑悅亮
計算機應用 2020年5期
關鍵詞:分類區(qū)域模型

吳立人,劉政浩,張 浩,岑悅亮,周 維*

(1.云南大學軟件學院,昆明650091; 2.昆明理工大學信息工程與自動化學院,昆明650500)

(?通信作者電子郵箱zwei@ynu.edu.cn)

0 引言

深度學習近年來在各個領域的貢獻頗為顯著,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)在自動駕駛汽車[1-2]、監(jiān)視[3]、惡意代碼檢測[4]、無人機[5]等領域已經(jīng)成功得以應用,并且在其應用中都扮演著關鍵性角色,因此保證網(wǎng)絡模型的安全運行尤為重要。雖然深度學習網(wǎng)絡模型精確度越來越高,但是仍然存在被對抗樣本攻擊的安全隱患,因此,深度學習網(wǎng)絡模型安全的研究具有很強的現(xiàn)實意義。

對抗攻擊[6]是深度學習模型攻擊中最常用的攻擊方法,其目的是通過給輸入樣本添加微小的噪聲擾動,使模型的預測結(jié)果為錯誤結(jié)果,甚至能根據(jù)特定的噪聲擾動輸出攻擊者所需的預測結(jié)果。具體來說,對抗攻擊方法通過限制擾動的L∞或L2范數(shù)的值以使對抗樣本中的擾動無法被人察覺。如圖1所示:以最常用的圖片分類模型為例,對于訓練好的深度學習模型在給定原始圖片x(x表示未加上擾動的原始圖片)時能準確識別出圖片內(nèi)容為“雨靴”,然而當圖片x加入特定的擾動μ后生成圖片x*,將x*輸入到同樣的模型其預測結(jié)果變成了“抹布”,也就是說通過添加擾動μ后輸入x*成功地騙過了模型,但對于人類而言這兩個輸入x和x*卻很容易被判斷為同一種分類。想象一下,如果這種攻擊被應用到自動駕駛領域,神經(jīng)網(wǎng)絡模型可能會出現(xiàn)誤判,導致嚴重的后果。

其實采用限制性擾動L0范數(shù)對神經(jīng)網(wǎng)絡模型進行攻擊的JSMA(Jacobian-based Saliency Map Attack)方法已經(jīng)在2015年被Papernot等[7]提出,但是其方法只修改圖像中的幾個像素,而沒有考慮通過擾亂整個圖像來欺騙分類器。Moosavi-Dezfooli等[8]通過迭代計算的方法生成最小規(guī)范對抗擾動,該算法通過一個小的向量來擾動圖像,將位于分類邊界內(nèi)的圖像逐步推到邊界外,直到出現(xiàn)錯誤分類。

然而目前的攻擊算法中仍然存在通過像素級別擾動來實現(xiàn)攻擊,這種方法導致要想達到預期的目的會損失對抗樣本與原樣本之間產(chǎn)生極大的差異,通過分析發(fā)現(xiàn),對于深度神經(jīng)網(wǎng)絡提取任務需要的特征時,更關注包含特定信息區(qū)域[9-10],本文針對這一啟發(fā)提出一種聚焦圖像攻擊算法——PSMIFGSM(Perceptual-Sensitive Momentum Iterative Fast Gradient Sign Method):通過Grad-CAM[9]提取卷積神經(jīng)網(wǎng)絡對圖像的重點關注區(qū)域,然后再對這些區(qū)域采用MI-FGSM(Momentum Iterative Fast Gradient Sign Method)[11]攻擊算法進行攻擊,保持圖像其他區(qū)域不變。

圖1 生成對抗攻擊樣本Fig.1 Generation of adversarial attack sample

1 相關工作

盡管深度神經(jīng)網(wǎng)絡在很多研究和應用領域都表現(xiàn)出色,然而Szegedy等[12]于2014年第一次提出神經(jīng)網(wǎng)絡存在安全性漏洞,通過在一張圖片上做微小的擾動,就能讓圖片以很高的置信度被網(wǎng)絡模型錯誤分類,甚至可以讓圖片被分類成一個指定的標簽。從此學術(shù)界展開了對圖像對抗攻擊的進一步研究。GoodFellow等[13]于2015年提出了產(chǎn)生對抗攻擊根本原因的猜測:深度神經(jīng)網(wǎng)絡在高維空間中的線性特性已經(jīng)足以產(chǎn)生這種攻擊行為,而非之前人們猜測的神經(jīng)網(wǎng)絡的復雜性,同時在這個假設前提下提出了一種高效生成對抗樣本的算法FGSM(Fast Gradient Sign Method),并通過實驗加以驗證。實驗結(jié)論表明:一個測試效果良好的分類器,其實并不像人類一樣學習到了所分類樣本的真正底層意義,只不過剛好構(gòu)建了一個在訓練數(shù)據(jù)上運行相當良好的模型,而這個模型實際上就像是一個富麗堂皇的假象,當遇到一些空間中不太可能出現(xiàn)的點時,模型能力的有限性就會隨之暴露出來。當深度神經(jīng)網(wǎng)絡應用于需要極高安全性的領域時,對抗樣本必將對其帶來不小的安全隱患。

2017年Madry等[14]提出的I-FGSM(Iterative-Fast Gradient Sign Method)算法是對FGSM算法的改進,I-FGSM在FGSM算法基礎上增加了多次迭代攻擊,其效果更加顯著。Dong等[11]于2018年提出MI-FGSM攻擊,MI-FGSM在迭代攻擊的基礎下添加了動量因子使得實驗中攻擊效果更好。上述方法中的攻擊方式都覆蓋了整張圖像,雖然取得了良好的效果,但是這種方式會增大對抗樣本和真實樣本的差異。Su等[15]在2017年提出一種極端的對抗攻擊方法,使用差分進化算法對每個像素迭代地修改生成對抗樣本,并與真實樣本對比,根據(jù)一定標準選擇保留攻擊效果最好的對抗樣本,實現(xiàn)對抗攻擊。這種對抗攻擊不需要知道網(wǎng)絡參數(shù)或梯度的任何信息,僅改變圖像中的一個像素值就可以實現(xiàn)對抗攻擊。

另一方面,CNN最早由LeCun等[16]提出并在手寫數(shù)字識別應用中取得了突破性的進展,之后被廣泛應用于圖像識別[17]、語音檢測[18]、生物信息學[19-20]等多個領域。因為CNN在圖像處理中可以直接作用于圖像中像素值,能夠提取更廣泛、更深層次和更有區(qū)別度的特征信息。Selvaraju等[9]提出Grad-CAM直接尋找圖像中對分類貢獻最大的區(qū)域,因為卷積層包含了豐富的語義信息,而這些語義信息經(jīng)過池化操作后,會使人類不可理解。故Grad-CAM[9]利用池化前最后一個卷積層的特征圖進行可視化,以此解釋CNN是根據(jù)圖像中的哪些區(qū)域作出相應的預測。上述研究表明:深度神經(jīng)網(wǎng)絡模型在處理圖像信息過程并非是對整張圖像的信息獲取量都相等,對某些特定的區(qū)域關注度更高,并且可以通過上述方法得到這些關注度高的區(qū)域。

本文受MI-FGSM和Grad-CAM的啟發(fā),提出一種新型的聚焦圖像攻擊算法PS-MIFGSM。本文的工作主要包括:1)提出PS-MIFGSM圖像攻擊算法,在MI-FGSM中引入Grad-CAM,提取出網(wǎng)絡對圖像的重點關注區(qū)域,針對重點關注區(qū)域進行基于動量的梯度迭代攻擊,以盡可能少地添加擾動。2)探究PS-MIFGSM在攻擊單模型和集合模型時的不同效果。

2 PS-MIFGSM攻擊方法

2.1 MI-FGSM攻擊

MI-FGSM方法是Dong等[11]在2018年提出來的圖像攻擊算法,該算法是一種基于動量的梯度迭代攻擊算法。FGSM[13]通過最大化損失函數(shù)J(x,y)來生成對抗樣本,其中J(x,y)通常是交叉熵損失,生成的對抗樣本滿足L2范數(shù)約束≤μ,μ為擾動大小。對抗樣本x*迭代公式如下:

與FGSM算法相比,MI-FGSM中加入了動量因子,每一輪迭代的梯度方向會影響下一輪的迭代,這種方式可以讓攻擊在損失函數(shù)的梯度方向快速迭代,穩(wěn)定更新,有效地避免了局部最優(yōu)。MI-FGSM算法具體描述如下。

算法1 MI-FGSM。

輸入 分類模型f的損失函數(shù)J,真實樣本x,真實類別y,擾動大小μ,迭代次數(shù)T,衰減系數(shù)u;

輸出 對抗樣本x*。

1)a=μ/T;

2.2 Grad-CAM方法

Grad-CAM是Selvaraju等[9]在2017年提出的用來解決卷積神經(jīng)網(wǎng)絡可解釋性問題的方法。Grad-CAM利用神經(jīng)網(wǎng)絡中最后一層卷積層來獲取特征激活圖,因為深層卷積神經(jīng)網(wǎng)絡中,最后一層卷積層包含了最豐富的分類信息,也是最容易可視化出來的。首先用類別輸出結(jié)果對最后一層卷積層求導其中yc是分類結(jié)果,Akij是第k個特征圖的(i,j)位置的值。然后通過如下公式計算出權(quán)重ack。

其中Z是特征圖的大小。然后通過下式得到Grad-CAM的可視化結(jié)果,計算出的權(quán)重信息就是特征圖中決定分類結(jié)果的重要區(qū)域。Relu函數(shù)是為了去除負值的影響,只關注特征圖中的正值對分類結(jié)果的影響。

使用 Grad-CAM[9]對 Vgg_16[20]分類模型的分類結(jié)果做可視化實驗,結(jié)果如圖2,從圖中可以看出,Vgg_16將圖片正確分類的原因是重點關注了圖中的亮點區(qū)域。

圖2 Grad-CAM結(jié)果Fig.2 Result of Grad-CAM

2.3 PS-MIFGSM方法

目前主流攻擊算法 FGSM、MI-FGSM、DeepFool[8]都是將對抗擾動作用于圖像所有區(qū)域,雖然攻擊成功率高,但是對原始圖像的擾動和改變范圍較大,使得攻擊隱蔽性降低。如果能夠準確定位出卷積神經(jīng)網(wǎng)絡在分類任務中的重點關注區(qū)域,那么就可以只對這些重點關注區(qū)域做攻擊,以降低對圖像中非關鍵區(qū)域的影響。該方法一方面可以使得圖像攻擊變得更加細微,以增加攻擊隱蔽性;另一方面又能確保攻擊的成功率。

為了在保證攻擊成功率的前提下降低對原圖的擾動大小,本文提出了PS-MIFGSM算法,具體架構(gòu)如圖3所示,從圖中可以看出PS-MIFGSM主要分為三個主要部分:第一部分主要是借助Grad-CAM算法得到樣本的關注區(qū)域,后續(xù)處理中根據(jù)Grad-CAM生成的結(jié)果區(qū)域即可將樣本分為攻擊區(qū)域和非攻擊區(qū)域;第二部分主要是通過MI-FGSM算法計算得到攻擊干擾信息;第三部分則是根據(jù)攻擊區(qū)域和非攻擊區(qū)域?qū)⒏蓴_信息作用于原樣本圖像上,最終得到攻擊樣本。

圖3 PS-MIFGSM算法架構(gòu)Fig.3 Architectureof PS-MIFGSMalgorithm

PS-MIFGSM算法的目的在于在保證攻擊準確率不變的前提下,盡量減小擾動對原圖像的影響,以達到更好的隱蔽效果。公式如下:

算法偽代碼如下:

算法1 PS-MIFGSM(單一模型)。

輸入 分類模型f的損失函數(shù)J,真實樣本x,真實類別y,擾動大小μ,迭代次數(shù)T,衰減系數(shù)u,攻擊的前q個位點。

輸出 對抗樣本x*。

算法2 PS-MIFGSM(集合模型)。

輸 入n種 分 類 模 型f(f1,f2,…,fn)的 損 失 函 數(shù)J(J1,J2,…,Jn),真實樣本x,真實類別y,擾動大小μ,迭代次數(shù)T,衰減系數(shù)u,攻擊的前q個位點。

輸出 對抗樣本x*。

首先利用Grad-CAM獲取到對應分類網(wǎng)絡在圖像分類任務中所重點關注的圖像區(qū)域,分類網(wǎng)絡對圖像的重點關注區(qū)域就是本文算法要對圖像進行攻擊的區(qū)域。然后通過MIFGSM算法[11]獲取到整張圖像對抗攻擊的對抗擾動,將對抗擾動加到相同圖像對應的攻擊區(qū)域,并且保持其他區(qū)域信息不變。

3 實驗結(jié)果與分析

實驗中本文所提出的PS-MIFGSM算法以及對比實驗均基于Linux(Ubuntu 16.04LTS)下python3.5以及Tensorflow1.2深度學習框架實現(xiàn),具體硬件參數(shù)為CPU Inter Core i7-6700K,32 GB內(nèi)存,為了加快訓練過程,實驗中大部分過程選用NVIDIA GTX1080GPU加速完成。

3.1 數(shù)據(jù)集

本文的數(shù)據(jù)集采用天池IJCAI-19阿里巴巴人工智能對抗算法競賽的官方數(shù)據(jù)集,包括110個種類的11萬張商品圖片的訓練集,這些商品圖片均來自阿里巴巴的電商平臺,每個圖片對應一個種類ID。實驗中還有三種基礎分類模型Inception_v1[22]、Resnet_v1[23]、Vgg_16[21]為本次實驗的攻擊對象,三種基礎分類模型均加載訓練好的權(quán)值參數(shù),其在本實驗數(shù)據(jù)集的測試集上的top1正確率均在70%以上。

本次實驗的側(cè)重點在于生成可以干擾分類模型進行分類的對抗樣本,實驗本文選取110張在三個基礎模型中識別率均為100%的圖片作為真實樣本,以這110張真實樣本為輸入數(shù)據(jù)集,用PS-MIFGSM算法和MI-FGSM算法生成對抗樣本來評估這兩種攻擊算法的結(jié)果。

3.2 評價指標

實驗中使用MI-FGSM和PS-MIFGSM兩種攻擊算法對輸入數(shù)據(jù)集的110張圖片做攻擊訓練,生成對抗樣本,然后使用模型對每個對抗樣本進行分類識別,如果模型識別錯誤的對抗樣本數(shù)量越多,同時對抗樣本相對于真實樣本的擾動越小,那么攻擊算法越有效。

實驗采用如下距離度量公式來評估攻擊算法:其中:I表示真實樣本,I a表示生成的對抗樣本,M表示分類模型,y表示真實樣本I的真是標簽。如果模型對對抗樣本I a的種類識別正確,那么此次攻擊不成功,擾動量計算為上限64,如果模型對對抗樣本I a的種類識別錯誤,那么就是對抗樣本攻擊成功,采用L2距離來計算對抗樣本I a和真實樣本I的擾動量。

同時本文也會計算不同攻擊算法生成的對抗樣本和真實樣本在不同模型上的分類準確率,作為更為直觀的攻擊算法評價指標,模型對對抗樣本的分類準確率越低,說明對抗樣本越具有欺詐性,攻擊算法更有效。

3.3 攻擊單一模型的結(jié)果分析

攻擊單一模型是指在攻擊算法中只針對一個單獨的分類模型進行攻擊。本文將所提方法PS-MIFGSM與MI-FGSM[11]攻擊方法做了攻擊單一模型的對比實驗,用兩種方法生成的110個對抗樣本分別對三種圖像分類模型進行攻擊,這三種圖像分類模型分別是Inception_v1、Resnet_v1、Vgg_16。實驗中,輸入圖像大小為224×224。整個圖像的像素點一共是50 176。本文只選擇在Grad-CAM輸出的權(quán)重特征圖中權(quán)重最大的25 000個像素點上進行攻擊,其他像素點不變,其中,單個像素值的最大擾動設置為20,攻擊迭代的衰減系數(shù)μ為0.04,像素值攻擊迭代的數(shù)量是3次。用兩種方法生成的對抗樣本交叉攻擊三種模型,評估其分類準確率和原樣本與對抗樣本的L2距離。

從表1中可以看出當白盒攻擊時,PS-MIFGSM和MIFGSM的攻擊成功率很高,模型對對抗樣本的分類準確率幾乎為0%:一方面,PS-MIFGSM保持了和MI-FGSM同等的攻擊成功率;另一方面,PS-MIFGSM有效降低了原樣本和對抗樣本的差異化。這也說明本文使用Grad-CAM提取的卷積神經(jīng)網(wǎng)絡關注區(qū)域是正確有效的,對這些區(qū)域進行攻擊確實能達到對整張圖像進行攻擊的效果。但是PS-MIFGSM在黑盒攻擊時,攻擊成功率稍低于MI-FGSM[11]算法,因為攻擊失敗的圖片的D(I,I a)值會是設定的最大值 64,所以總D(I,Ia)值也會偏高一些。由于不同模型在圖像分類任務上所提取到的特征圖不同,所以PS-MIFGSM在單模型攻擊時,它只會在本模型的重點關注區(qū)域加上對抗擾動。但是MI-FGSM[11]是對整張圖所有像素點增加對抗擾動,所以它在單模型攻擊中的黑盒攻擊效果要好一些。

表1 攻擊單模型的結(jié)果比較Tab.1 Result comparison of singlemodel attack

從表1中也可以看出,PS-MIFGSM方法和FGSM以及DeepFool相比,攻擊成功率提高很多,并且原樣本和對抗樣本的差異也降低很多。DeepFool方法著重尋找最小擾動來作攻擊,但是它在攻擊成功率方面表現(xiàn)很差;PS-MIFGSM同樣也是著重于尋找最小擾動來作攻擊,但是在攻擊成功率和擾動量上都優(yōu)于DeepFool和FGSM,所以PS-MIFGSM方法在能夠保證優(yōu)秀的攻擊成功率的前提下,可以降低攻擊樣本和原始樣本的差異化。在對關鍵區(qū)域有針對性的圖像攻擊方法中,PS-MIFGSM做出了創(chuàng)新性的工作。

目前工業(yè)界采用的分類模型種類繁多,但是圖像攻擊算法的本質(zhì)就是對神經(jīng)網(wǎng)絡做攻擊,需要考慮到不同神經(jīng)網(wǎng)絡模型在圖像分類任務上的損失等信息。為了提高PSMIFGSM算法在黑盒攻擊中的成功率,本文提出攻擊集合模型的方式。

3.4 攻擊集合模型的結(jié)果分析

攻擊集合模型是指在攻擊算法中,融合了多種分類模型的分類結(jié)果。在迭代生成對抗干擾量時,實驗融合三種分類模型(Inception_v1、Resnet_v1、Vgg_16)的logits來計算目標函數(shù)J(x,y),公式如下:其中:k代表第k個模型;K是模型數(shù)量;wk代表了第k個模型logits的權(quán)重值,在實驗中,設置三個模型的wk相同。

使用MI-FGSM和PS-MIFGSM兩種方法對集合模型進行攻擊,實驗參數(shù)設置和單模型攻擊相同,實驗結(jié)果如表2所示。從表2中可以看出使用以集合模型攻擊生成的對抗樣本攻擊成功率很高,對于三種基礎模型的攻擊成功率都接近100%,這說明攻擊集合模型的對抗樣本具有良好的魯棒性。并且還可以觀察到,PS-MIFGSM 算法的D(I,I a)值比 MIFGSM小,這是因為攻擊集合模型時,融合了多種圖像分類模型的logits來計算目標函數(shù)J(x,y),使用Grad-CAM提取的卷積神經(jīng)網(wǎng)絡關注區(qū)域也是融合了多種分類模型對圖像的共同關注區(qū)域,所以它在生成的對抗干擾信息時,會考慮多種分類模型對圖像的損失信息,而不是像在單模型攻擊中,只考慮單一分類模型的損失信息,所以攻擊集合模型的方法更為魯棒,它能以更高的效率和成功率來攻擊大部分的分類模型。同時,由于PS-MIFGSM方法需要提取神經(jīng)網(wǎng)絡對圖像在分類任務中的關注區(qū)域,所以和MI-FGSM相比,它在時間復雜度上略差。說明,在攻擊集合模型時,PS-MIFGSM可以在確保攻擊成功率的同時,降低對抗樣本的干擾信息量,具有比MIFGSM具有更好的攻擊效率。

表2 攻擊集合模型的結(jié)果比較Tab.2 Result comparison of attack set model

3.5 對抗樣本可視化結(jié)果

實驗通過直觀的方式對比了MI-FGSM和PS-MIFGSM兩種方法生成的對抗樣本,如圖4所示。

圖4 不同算法對抗攻擊樣本展示Fig.4 Adversarial attack samplesof different algorithms

從圖4可以看出,PS-MIFGSM只在圖中的部分關注區(qū)域加上了對抗擾動,而其他區(qū)域仍然保持原圖不變。同時,也輸出了Grad-CAM的結(jié)果來和兩種方法的對抗樣本進行對比觀察,發(fā)現(xiàn)PS-MIFGSM是在Grad-CAM的關注區(qū)域加上了對抗擾動。

4 結(jié)語

本文提出的PS-MIFGSM算法是一種高效的聚焦圖像攻擊算法,引入 Grad-CAM[9]算法對 MI-FGSM[11]算法進行改進,只在卷積神經(jīng)網(wǎng)絡對圖像重點關注的區(qū)域進行攻擊,而其他區(qū)域保持不變。在攻擊單模型實驗中,該算法生成的對抗樣本在白盒攻擊中能夠保證很高的攻擊成功率,并且對原始樣本的改動量最少;在黑盒攻擊中,該算法性能只差于MIFGSM,但是優(yōu)于其他算法。為了提高算法在黑盒攻擊中的攻擊性能,本文提出了攻擊集合模型的方法,融合多種分類模型的損失信息進行攻擊,實驗結(jié)果與MI-FGSM[11]算法相比,對抗樣本的攻擊成功率不變,但對抗攻擊樣本與原始樣本的差異較小。

采用PS-MIFGSM算法進行圖像攻擊時,可以在保證較高攻擊成功率的同時,使對抗攻擊樣本更接近于真實樣本。這種帶有針對性的只對圖像極少區(qū)域進行攻擊的方法,讓對抗攻擊樣本具有更好的偽裝效果。除此之外,PS-MIFGSM算法也有一些待優(yōu)化之處,如在單模型的黑盒攻擊時,攻擊性能低于MI-FGSM;如何應對不同的卷積神經(jīng)網(wǎng)絡關注區(qū)域的不同,這也將是我們下一步深入研究的內(nèi)容。

猜你喜歡
分類區(qū)域模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
關于四色猜想
分區(qū)域
主站蜘蛛池模板: 国产一区二区网站| 午夜福利无码一区二区| 亚洲第一成网站| 中文字幕人妻无码系列第三区| 国内精自视频品线一二区| 在线观看热码亚洲av每日更新| 91麻豆精品国产91久久久久| 一本大道香蕉中文日本不卡高清二区| 亚洲精品视频免费| 国产精品刺激对白在线| 中日韩一区二区三区中文免费视频| 91亚洲影院| AV片亚洲国产男人的天堂| 国产哺乳奶水91在线播放| 久久久久亚洲av成人网人人软件| 亚洲最猛黑人xxxx黑人猛交| 亚洲av无码久久无遮挡| 人人爽人人爽人人片| 欧美19综合中文字幕| 国产综合在线观看视频| 国产噜噜噜视频在线观看 | 国产在线无码一区二区三区| 伊人激情综合网| 无码啪啪精品天堂浪潮av| 国产福利大秀91| JIZZ亚洲国产| 日韩二区三区| 国产午夜精品鲁丝片| 国产呦精品一区二区三区网站| 播五月综合| 露脸国产精品自产在线播| 婷婷色婷婷| 99在线免费播放| 啊嗯不日本网站| 亚洲一本大道在线| 亚洲有无码中文网| 在线观看国产精品一区| 久久综合五月婷婷| 自拍偷拍一区| 国产激情无码一区二区三区免费| 国产精品成人免费视频99| 五月天天天色| 亚洲va视频| 人人妻人人澡人人爽欧美一区| 日韩国产黄色网站| 国产无码精品在线播放| 丁香亚洲综合五月天婷婷| 亚洲精品无码高潮喷水A| 伊人中文网| 永久毛片在线播| 婷婷六月在线| 精品国产免费观看| 91精品亚洲| 一级毛片网| 亚洲色图另类| 91亚洲视频下载| 91国内外精品自在线播放| 国产a网站| 一级爱做片免费观看久久| 国产精鲁鲁网在线视频| 亚洲一区二区三区在线视频| 爱色欧美亚洲综合图区| 免费国产黄线在线观看| 亚洲性色永久网址| 国产精品极品美女自在线| 狠狠亚洲五月天| 欧美亚洲香蕉| 国模极品一区二区三区| 2021国产乱人伦在线播放| 国产主播福利在线观看| 精品人妻系列无码专区久久| 波多野结衣第一页| 亚亚洲乱码一二三四区| 欧美爱爱网| 四虎成人精品| 亚洲av无码人妻| 日韩专区欧美| 四虎精品黑人视频| 国产熟睡乱子伦视频网站| 国产国产人成免费视频77777 | 青青草国产免费国产| 日韩精品成人网页视频在线|