999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

側信道多層感知器攻擊中基于貝葉斯優化的超參數尋優

2021-05-14 04:26:18杜之波
計算機應用與軟件 2021年5期
關鍵詞:優化實驗

楊 歡 吳 震* 王 燚 杜之波 王 敏 習 偉 顏 偉

1(成都信息工程大學網絡空間安全學院 四川 成都 610225) 2(南方電網科學研究院有限公司 廣東 廣州 510080) 3(振芯科技有限公司 四川 成都 640041)

0 引 言

在密碼學中,側信道攻擊常用于提取(尋找)加密設備的密鑰。在密碼算法實際運行時,硬件電路會泄漏出相關的電磁輻射、功耗等側信道信息。側信道攻擊就是指利用這些泄露出來的側信道信息,以及密碼學、統計學原理相關知識,來分析和破譯密鑰信息[1-4]。通常側信道攻擊分為有學習攻擊和無學習攻擊兩類,由于有學習攻擊與機器學習技術原理類似,也包括訓練與測試兩個階段,所以有學習攻擊又被稱為基于機器學習的攻擊。有學習攻擊是指利用一臺可以被攻擊人員所控制的、與攻擊目標設備相似或相同的設備(稱為實驗設備[5]),來建立泄露信息的能耗模型(稱為模板),這樣就能對這一類型設備進行攻擊。正是由于有學習攻擊與機器學習原理類似,使得采用機器學習方法實現有學習攻擊成為可能[6]。Backes等[5]使用機器學習技術對打印機成功進行了聲學側通道攻擊;Maghrebi等[4]分別使用隨機森林、支持向量機、深度網絡等機器算法在DPAContest比賽數據中進行了側信道模板分析,實驗結果表明基于深度網絡的模板攻擊在匹配成功率方面要優于其他方法。

有學習攻擊中的模板攻擊[5]是目前眾多攻擊方法中研究得最深入也是最成功的一種,常用多元高斯分布表示模板。為提高模板攻擊效率,目前的部分研究著眼于改進多元高斯分布中的協方差矩陣。這些研究分別嘗試了單位協方差、共享協方差、池化協方差等方法,這些改進能在一定程度上降低計算成本、提高攻擊效果[6-10]。其他提高模板攻擊效率方法包括:利用相位相關性消除構架模板中的數據干擾,以構建高質量的模板;采用主成分分析(Principal Component Analysis,PCA)方法對能耗數據進行降維處理,該方法能有效降低協方差矩陣的計算復雜度并在一定程度上提高攻擊效率[11-12]。

模板攻擊另一種研究思路是采用機器學習中分類算法代替傳統多元高斯分布模板,例如,利用多類支持向量機作為模板實施模板攻擊[13-14],采用神經網絡作為模板進行模板攻擊等[15-16]。在傳統模板攻擊中,首先使用多元高斯分布對旁路信號軌跡特征進行刻畫;然后用極大似然方法對功率跟蹤進行分類。

眾多研究表明,基于神經網絡的模板攻擊是機器學習算法與側信道攻擊結合中的最優方案,而對于神經網絡而言超參數是至關重要的因素,它往往決定了該神經網絡學習性能與效率。對于某一個神經網絡至少必須指定控制學習速度或底層模型容量等參數,比如學習率、神經網絡層數等。因為不同模型在不同場景下需要不同的超參數,而且每個超參數的意義又各不相同,這就需要技術人員擁有豐富的調參經驗以及投入大量工作時間。基于此,如果沒有一個成熟的自動化的調參方案,算法開發人員也很難在有限時間和計算量情況下解決這一問題。在不同實際場景中對于眾多訓練數據集,很難事先知道什么方案是合適的,盡管是擁有豐富機器學習算法開發經驗的人員也只有通過不斷地嘗試和更新迭代來找到合適的解決辦法。因此,實現自動調參功能是十分必要的。時至今日,非參數學習研究正在幫助深度學習更加自動的優化模型中所需的超參數選擇[17],比如常用的幾種尋優方法:網格尋優、隨機尋優[18]以及貝葉斯尋優[19]。其中貝葉斯尋優已經被證明在許多具有挑戰性的優化基準函數上優于其他全局優化算法。對于連續函數,貝葉斯優化的工作原理通常是假設未知函數是從高斯過程中采樣的,并在進行觀察時保持該函數的后驗分布[20]。目前尚未有將貝葉斯優化方法運用于側信道攻擊中的研究。為了使得基于神經網絡的模板攻擊效果更佳,本文嘗試將基于貝葉斯的超參數自動優化方法應用在側信道攻擊神經網絡結構尋優中,幫助我們更好地借助神經網絡方法實現側信道攻擊。

基于前人的研究成果,本文借鑒了基于神經網絡側信道攻擊的模型,實現了將多層感知器用于模板攻擊,而且首次將貝葉斯優化方法運用在基于多層感知器的模板攻擊中,為多層感知器尋找合適的超參數使其用于模板攻擊時攻擊效果最佳;其次,在原有的貝葉斯更新先驗分布理論基礎上發展出對離散值超參數的特殊處理方法,將超參數設置的經驗結合到尋優算法中,更進一步地提高尋優效率。為與貝葉斯尋優算法作對比,本文還實現了人工尋優算法,分析了兩種算法的優劣。

1 有學習攻擊與多層感知器

1.1 側信道攻擊

1996年,Kocher[20]提出了側信道攻擊概念,它是利用設備功耗等側信道泄露的相關信息來提取密鑰。側信道攻擊可以分為以下兩類:

(1) 有學習攻擊,比如模板攻擊、隨機攻擊[21]或被稱為基于機器學習的攻擊。

(2) 無學習攻擊,比如差分能量分析攻擊[22]、相關性能量分析[23]或被稱為相互信息分析。

想要實現有學習側信道攻擊,首先需要擁有兩臺幾乎相同的設備。其中一臺接近于目標設備,而且技術人員應該對其具有一定的控制權,然后在上面運行一個具有固定密鑰值k∈K的加密操作,K是所有可能的密鑰值的集合。對于一個有學習能力的設備,應該對其輸入和密鑰具有充分的認識和控制權。在這種情況下,有學習的攻擊分為以下兩步執行:

(1) 分析階段,同時使用從有學習能力的設備收集到的側信道能跡與目標設備執行加密操作的能量泄露來分析所有可能的密鑰值k∈K。

(2) 攻擊階段,對從目標設備泄露收集到的能跡進行分析與分類,以恢復密鑰值k。

在分析階段,為每個可能的鍵值k∈K收集一組側信道能跡。通常情況下,應該采用分而治之的策略。例如,K=0,1,…,255意味著收集256組能跡來執行分析。在攻擊階段,選擇從目標設備收集最合適的側信道能跡模型來揭示正確鍵值k。有學習攻擊被認為是最強大的側信道攻擊形式,因為攻擊者能夠在攻擊前描述設備的側信道泄露信息[24]。

1.2 模板攻擊

(1)

1.3 多層感知器

由于模板實際上就是一個分類器,自然可以將其應用于分類神經網絡實現攻擊。同時神經網絡是研究深度學習的基礎,其中的深度神經網絡技術已被應用于多個領域,如圖像分類、語音識別等[24]。而多層感知器可以稱得上是神經網絡中一個里程碑的發展,它克服了單層感知器不能解決非線性可分的問題,為整個神經網絡后續發展提供了可能。

圖1 多層感知器

將f記為激活函數,網絡中任意一層輸出可以表示為:

(2)

可以發現,隱含層每個神經元均是由輸入特征X的線性組合構成。然而僅僅是線性組合,那么無論這個神經網絡有多少層,結果都將與特征線性相關。于是在每個神經元計算結果之后,添加一個激活函數(Activation Function),從而改變線性規則。常用的激活函數有修正線性函數(ReLU)、雙曲正切函數(tanh)、Sigmod函數等。

2 貝葉斯優化原理

2.1 超參數優化

超參數是指模型定義和訓練中事先需要設置的參數。如神經網絡層數、類型、層寬、激活函數、學習率、學習的批大小、L2正則化項大小等。又例如機器學習算法中的支持向量機(Support Vector Machine,SVM)就有gamma、kernel、ceof等超參數需要調整。對于機器學習而言幾乎所有算法都需要設置超參數。這些超參數直接決定了模型性能訓練是否能夠成功或達到最優。然而針對不同模型找到最合適該模型的超參數組合(即超參數優化)確實是一項復雜的工作,如今越來越多調參工作使用了自動優化方法,這些方法旨在使用帶有策略的啟發式搜索在更短時間內找到最優超參數,除了少量初始設置之外,并不需要額外人工干預[16-17]。目前為止,已有多種較為成熟的自動調參算法,其中貝葉斯優化算法已被證明是目前最佳自動調參算法[15],本文正是通過運用這一算法對自動尋優進行研究。

2.2 貝葉斯優化算法

網格搜索和隨機搜索在計算資源有限情況下推薦的結果不一定比建模工程師個人經驗表現要好,而貝葉斯優化就是“很可能”比普通開發者或建模工程師調參能力更好的算法。

貝葉斯優化是貝葉斯回歸的一種應用。貝葉斯回歸是一種無參數函數回歸方法。它利用高斯隨機過程,根據觀察到的函數輸入和輸出,使用貝葉斯定義,將假設的先驗概率分布轉換為后驗分布。隨著觀察數據增加,函數的后驗概率越來越準確。貝葉斯優化是根據擬合出的后驗概率分布和一定策略,發現下一個尋優的位置。該策略稱為acquisition[19]。我們的目標是選擇下一個觀察位置,以便盡快發現該數據范圍內的最大函數值。其策略需要考慮兩個可能:一是開發(exploit),即在當前觀察的最大值附近尋找,這是一種保守策略;二是探索(explore),即在方差最大的位置尋找,這是一種激進策略,方差最大地方可能帶來意外的驚喜,而方差小的地方已經沒有探索的價值了。根據這兩種策略可以得到多種選擇函數。典型的有PI(Probability of Improvement)、EI(Expected Improvement)、GP-UCB(GP Upper Confidence Bound)等。

3 多層感知器的模板與貝葉斯優化

3.1 基于多層感知器的模板攻擊

模板攻擊是有學習攻擊中研究得最深入也是有效率的一種攻擊方式,而其中模板最基本形式是多元高斯分布。為進一步提高模板攻擊效率,研究人員提出了多種改進方法。一種研究思路是采用機器學習中的部分算法代替傳統多元高斯分布模板。例如,采用支持向量機作為模板進行模板攻擊,采用神經網絡作為模板進行攻擊,將隨機森林算法運用到模板攻擊中等。本文就采用了結合多層感知器模板攻擊方法。若攻擊時使用m條攻擊能跡,則密鑰為:

(3)

式中:K*代表正確密鑰;ej代表能量曲線;comb(x,k)代表無掩碼中間組合值;MLP(ej|comb(xj,k))表示訓練過程中學習到的分類器概率模型。在該攻擊方式中,多層感知器訓練結果起著關鍵作用。若通過學習得到模型本身分類效果就不好,那么攻擊效果肯定也會不理想。

為成功實現基于多層感知器的模板攻擊,本次實驗使用的是無抖動防御的公開能跡集ACAD。該能跡集是基于AES加掩碼算法實現的一種電磁信號泄露數據,包含60 000條能跡數據,其中:50 000條作為訓練數據,10 000條作為攻擊數據[24]。采用模型訓練的驗證精度作為模型好壞的衡量指標。其中驗證精度是機器學習中常用指標,反映了模型對數據的分類能力。模型訓練驗證精度定義為:

(4)

式中:Dtest表示驗證集能跡;ei表示能跡;K*表示正確密鑰;Pr(K|ei)表示猜測密鑰。簡而言之,驗證精度就是當猜測密鑰與正確密鑰相等時的能跡數與驗證集能跡數之比。

有了數據集以及衡量指標作為前提,基于多層感知器的模板攻擊具體實現步驟分為訓練與攻擊兩個階段,其中訓練階段主要步驟如下。

(1) 采用PCA對加掩AES算法能跡數據集進行降維處理。

(2) 針對降維后的能跡數據,建立相應多層感知器(MLP)模板。

(3) 利用數據集中的50 000條能跡數據對預測網絡進行訓練。

攻擊階段的主要步驟如下:

(1) 利用訓練的多層感知器模板,對驗證集能跡Dtest進行分類。

(2) 根據分類結果計算正確密鑰對應的能跡數與驗證集能跡數之比也就是最大驗證精度。

3.2 基于貝葉斯尋優先驗分布的更新

貝葉斯優化與其他優化方法的不同之處在于,它首先為f(x)構造一個概率模型(即先驗分布),然后利用這個模型來決定下一步x取什么數值來計算函數值(更新先驗分布)。其基本思想是利用以前對f(x)評估所獲得的所有信息,而不是簡單地依賴于局部梯度和海森近似。

在使用貝葉斯優化時,首先通過樣本點對高斯過程進行估計與更新,然后通過選擇函數來確定新的采樣點。自然對貝葉斯尋優的研究重點就放在了高斯過程與選擇函數上。

3.2.1高斯過程

貝葉斯優化過程中使用高斯過程作為先驗函數,它是一種強大、方便的先驗分布函數,能有效擬合現實中的分布[20]。一個完整的高斯過程由且僅由均值函數m(x)與協方差函數k(x,x′)確定,其中均值函數為一個向量,而協方差函數為矩陣。如此一來高斯過程gp就可以表示為:

f~gp(m,k)

(5)

現假設有一組樣本點D={(x1:t,y1:t)},其協方差矩陣為:

(6)

一個新樣本xt+1加入會更新上述協方差矩陣K,假設有k=[k(xt+1,x1),k(xt+1,x2),…,k(xt+1,xt)]那么更新后的協方差可表示為:

(7)

有了更新后協方差矩陣就可以通過前t個樣本估計出ft+1的后驗概率分布:

P(ft+1|D1:t,xt+1)}~N(u,σ2)

(8)

u=kTK-1f1:t

(9)

σ2=k(xt+1,xt+1)-kTK-1k

(10)

上述公式的詳細推導過程以及核函數與均值函數的選擇詳見文獻[18]。

可以根據新加入的樣本點對先驗中高斯過程進行更新,使其能更好擬合現實情況。

3.2.2選擇函數

有了先驗概率分布,接下來就需要通過選擇函數確定用于更新先驗的采樣點。它是決定貝葉斯優化能否成功的另一重要因素。通過該采樣點獲得后驗分布,使該分布更貼切模擬現實情況。雖然目前已有多種選擇函數可供使用但它們主要思想都是平衡上面提到的兩種策略即explore與exploit。本文使用EI準則作為選擇函數,經驗證EI準則比PI表現得更好[19],而且與GP_UCB不同的是它自己不再需要確定額外參數。EI準則a(·)如下:

a(x|D)=Ey~f(x|D)[max(0,y-fbest)]=

(11)

4 實 驗

為驗證提出的基于多層感知器的攻擊方法,本文對AES加掩數據集進行了攻擊實驗;同時為了驗證貝葉斯尋優算法,在攻擊模型基礎上使用了兩種不同尋優方法:人工尋優與貝葉斯尋優,并對這兩種尋優方式進行了比較。為了進一步提高貝葉斯尋優算法效率,根據貝葉斯尋優理論知識分析了離散值超參數與連續值超參數的處理方式,并進行了改進。

4.1 實驗環境

本文實驗使用了ASCAD公開數據集作為實驗數據,采用最大精度衡量優化算法好壞的指標。本文針對MLP神經網絡所需超參數的搜索空間如表1所示。

表1 多層感知器的超參數及其范圍

4.2 實驗實施

4.2.1離散值與連續值

(1) 離散超參數尋優。根據3.2節中描述的高斯過程中計算后驗概率步驟,將離散型超參數看作枚舉型(enum)處理。如需要推薦超參數中的Layer_size與L2,它們的可能取值分別為[16,32,48,64]與[0.0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0],而后在處理這些數據時將每一個可能取值都當作單獨一維,根據sobol序列函數產生的隨機矩陣中最大的某一位置的原矩陣(存儲的是需要優化超參數所有可能取值)值為本次推薦超參數。這樣推薦參數的隨機性較大,每個超參數成為推薦值概率都一樣;但由于新采樣點是由EI準則所確定,若下一個采樣點不存在該離散超參數取值范圍內,就只能取最靠近計算出來采樣點存在于取值范圍內的值作為新的采樣點,這樣就不能使更新后的后驗分布更好模擬真實情況。

(2) 連續超參數尋優。連續超參數尋優與離散超參數處理類似,唯一不同是將連續超參數看作整型(int)處理。在配置文件中存的是它的取值范圍,而不是具體值;在后面處理該類型數據時將每一種連續超參數視為一維,同樣根據sobol序列函數產生的隨機矩陣中最大的某一位置對應原矩陣中的值為本次推薦超參數。連續值超參數尋優較離散值超參數尋優的優點為:根據EI準則得到下一個采樣點可以精確用于更新先驗分布,能最大程度模擬真實情況中的分布。

由于離散型超參數不能取到兩個數之間的值,本文借鑒了對連續超參數的處理方式對離散超參數進行優化:將一個離散超參數當且僅當作一維,通過一系列的處理,將應推薦超參數對應位置的值置為最大,從而得到推薦值。根據以上所述的兩種處理方式,本文做了一個針對離散超參數尋優不同處理方式的對比實驗,實驗結果如圖2所示。

圖2 離散超參數尋優不同處理方式對結果的影響

由對比實驗可知對離散值采取類似連續值處理方式要優于離散值原本處理方式。為進一步提高貝葉斯尋優效率,在后面實驗過程中對離散值均采取了類似連續值的處理方式。

4.2.2貝葉斯尋優與人工尋優

對比了采用貝葉斯優化算法進行自動尋優與人工尋優得到超參數所構建的多層感知器(MLP)網絡結構運用于模板攻擊中的兩種結果。

(1) 貝葉斯自動尋優算法。針對上面需要尋優的5種超參數共進行了5輪貝葉斯自動尋優,將每輪尋優結果用于構建MLP,將該MLP用于模板攻擊,最終得到了每一輪攻擊結果的最大精度,如圖3所示。

圖3 貝葉斯尋優算法在不同推薦次數下實驗對比

在5輪推薦中,第4輪18次推薦次數使得攻擊結果最大精度達到0.025 8。其次,可以看出推薦次數與最大精度并不嚴格形成正比關系,但若是推薦次數過小,想要得到較好的結果則不太可能。

由圖3和表2可知第四輪推薦結果最佳。當隱含層、神經元大小、PCA、L2分別取1、64、94、0.0時,激活函數為Sigmoid構成的MLP用于模板攻擊結果最佳。

(2) 人工尋優。在該部分中,實驗對MLP需要的超參數進行了人工調整,得到了一個相對較好的結果。在此過程中針對5個超參數共進行了40次實驗。實驗采用了排列組合方式,即針對每個超參數可能取值都進行了測試。出于時間與人工成本考慮,實驗過程中首先固定其他4個超參數取值再對剩下超參數所有可能取值進行測試,找到該超參數使得實驗結果表現最佳的值。在接下來的實驗中固定該超參數值,依次改變其他超參數,最終得到一個在所有實驗中使得模板攻擊在最大準確度與最小損失衡量下均表現為最佳的組合。對于上面的實驗描述,得到實驗結果如圖4所示。

圖4 人工調參實驗結果

在40次實驗中表現最好為第37次實驗,它最大精準度與最小損失分別為0.016 9與5.369 38;而表現最差為第2次實驗,最大精度僅有0.004 5,如表3所示。

表3 人工調參中實驗結果表現最好與最差超參數

4.3 實驗結果

經過上面兩種不同尋優算法實驗,得到了兩種算法各自對應的最佳結果,現就兩種算法得到結果進行對比并分析它們各自優缺點。將上面進行的5輪貝葉斯超參數優化實驗中使得攻擊結果表現得最好與最差的第1輪和第4輪分別從最大精度與最小損失以及所耗費的時間三個方面與使用人工尋優算法的攻擊結果進行了對比,結果如圖5所示。具體分析兩種算法每次訓練結果對實驗的影響,結果如圖6所示。

圖5 貝葉斯尋優算法與人工尋優的結果對比

圖6 貝葉斯尋優與人工尋優每次尋優結果對比

可以看到,使用貝葉斯尋優算法時若推薦(訓練)次數過小會使得實驗結果表現遠不如訓練次數多的人工尋優算法。可當貝葉斯尋優算法訓練次數達到一定值時,不管是最大精度還是最小損失均優于人工尋優,且此時貝葉斯尋優算法推薦次數還不到人工尋優的一半,與之對應時間是使用人工尋優算法的二分之一。

4.4 實驗分析

貝葉斯自動尋優算法與人工尋優算法各自的優缺點如下:貝葉斯自動尋優算法不用人為干預,只要確定需要訓練的超參數就可以得到該輪訓練最佳結果;達到相同實驗結果貝葉斯自動調參算法效率更高。但貝葉斯算法存在偶然性,若是本輪訓練次數少那么它的結果大概率會表現得很糟糕。由圖6可以看到貝葉斯尋優明顯存在冷啟動問題,而人工尋優算法尋找組合更為全面,但是效率低下,需要大量重復勞動力。

5 結 語

本文基于現有的側信道攻擊神經網絡調參技術,提出貝葉斯自動尋優算法,該方法利用高斯過程建立先驗分布模型,通過選擇函數確定采樣點得到后驗分布,繼而根據后驗更新先驗分布。實驗結果表明,貝葉斯尋優算法相對人工尋優具有高效性以及獨立性,它能提供比其他尋優算法更好的學習效率,有利于減少訓練次數,攻擊質量取得了明顯提高。在今后研究中,我們將致力于探索如何消除貝葉斯自動尋優算法冷啟動的問題,以便于進一步提高貝葉斯尋優算法效率。

猜你喜歡
優化實驗
記一次有趣的實驗
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
微型實驗里看“燃燒”
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
由“形”啟“數”優化運算——以2021年解析幾何高考題為例
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 欧美另类精品一区二区三区| 亚洲天堂伊人| 青草精品视频| 五月六月伊人狠狠丁香网| 国产在线小视频| 日韩免费视频播播| 亚洲视频欧美不卡| 日韩免费视频播播| 亚洲国产午夜精华无码福利| 国产无遮挡猛进猛出免费软件| 亚洲91精品视频| 午夜影院a级片| 18禁黄无遮挡网站| 国产一级片网址| 伊人久久大香线蕉影院| 国产丰满大乳无码免费播放| 国产亚洲视频免费播放| 亚洲V日韩V无码一区二区| 欧美日韩国产一级| 亚洲欧美日韩成人在线| 亚洲天堂免费在线视频| 亚洲三级视频在线观看| 日韩欧美中文字幕在线精品| 国产AV毛片| www精品久久| 2021国产精品自拍| 无码av免费不卡在线观看| 亚洲中文精品人人永久免费| 色欲综合久久中文字幕网| 欧美曰批视频免费播放免费| 国产精品尤物在线| 激情无码字幕综合| 99视频在线免费| 九九热精品免费视频| 97国产在线视频| 在线免费观看AV| 亚洲免费毛片| 亚洲人成在线精品| 99re这里只有国产中文精品国产精品 | 亚洲女同欧美在线| 久久国产精品影院| 一本大道无码日韩精品影视| 亚洲国产天堂在线观看| 狂欢视频在线观看不卡| 国产手机在线观看| 亚洲精品中文字幕无乱码| 精品无码人妻一区二区| 国产jizzjizz视频| 久草视频精品| 色首页AV在线| 久久精品人人做人人| a级毛片在线免费观看| 99久久精品免费看国产免费软件| 欧美a在线看| 日韩国产一区二区三区无码| 91无码视频在线观看| 国产精品无码AV中文| 成人午夜免费观看| 伊人婷婷色香五月综合缴缴情| 成年人福利视频| 在线观看的黄网| 亚洲成人高清无码| 精品少妇人妻av无码久久| 国产免费高清无需播放器| 欧美在线黄| 午夜国产不卡在线观看视频| 免费国产无遮挡又黄又爽| 99热国产这里只有精品9九 | 国产精品亚洲一区二区三区在线观看| 亚洲无码高清免费视频亚洲| 亚洲一区二区成人| 国产日韩欧美黄色片免费观看| 天堂在线视频精品| 成人午夜天| 国产精品一区在线观看你懂的| 国产激情影院| 中文字幕人成乱码熟女免费| 国产99在线| 国产免费精彩视频| 亚洲AV无码乱码在线观看裸奔 | 在线另类稀缺国产呦| 国产一区二区丝袜高跟鞋|