999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖神經網絡的門級硬件木馬檢測方法

2023-10-17 01:15:12史江義劉鴻瑾王澤坤張紹林馬佩軍
電子與信息學報 2023年9期
關鍵詞:特征檢測模型

史江義 溫 聰 劉鴻瑾 王澤坤 張紹林 馬佩軍* 李 康

①(西安電子科技大學 西安 710000)

②(北京軒宇空間科技有限公司 北京 100190)

1 引言

隨著現代集成電路設計的規模和復雜度快速增加,芯片供應商在芯片設計、制造和測試方面面臨著日益增長的成本壓力、緊迫的上市時間壓力以及資源限制。由于使用第三方知識產權(Third-Party Intellectual Property, 3PIP)具有可重用性和高的成本效益,設計者可以將資源專注于應對新的市場需求。然而,這樣增大了產品通過3PIP的形式被植入硬件木馬的風險。硬件木馬(Hardware Trojan, HT)是指故意或惡意修改集成電路(Integrated Circuit, IC)的設計,通常具有信息泄露、功能更改、降低芯片性能或拒絕芯片服務等危害[1]。由于集成電路在軍事系統、關鍵基礎設施、醫療設備等領域的廣泛應用,硬件木馬引發的安全事故將非常致命。而隨著集成電路的市場連年增長,不可信的3PIP將成為國家信息安全、消費電子領域的巨大隱患。

3PIP很難獲取其黃金IC模型(黃金IC模型,經驗證沒有硬件木馬植入的IC),因此需要黃金模型的方式具有很大的局限性。同時在物理實現前找出硬件木馬是非常關鍵的,因為在項目后期移除硬件木馬的成本將成倍增加。在一個大規模工業級3PIP中檢測僅有幾十個乃至幾個門構成的硬件木馬邏輯是一項極具挑戰性的工作,因為現有通過邏輯驗證[2]、形式驗證[3]、手動的代碼檢查等硬件木馬檢測方式非常耗時,而且不具備拓展性[4]。因此,目前迫切需要一種可拓展且不需要黃金模型的方案來提高硬件木馬的檢測效率。

鑒于上述挑戰,本文提出一種應用圖神經網絡(Graph Neural Network, GNN)的硅前硬件木馬檢測方式,本方法可以在沒有黃金參考電路的情況下準確定位網表級電路中植入的硬件木馬。由于門級網表是一種非歐的圖結構,因此本文應用更適用的圖神經網絡來學習門級電路行為,用于檢測網表中的異常存在。本文提供了一個全自動的硬件木馬檢測流程,通過自動解析網表構建圖結構、自動提取網表中門的本征特征以及相關圖特征用于節點表征,用于圖神經網絡的訓練及硬件木馬檢測。本文使用兩個數據集[5](基于新思90 nm通用庫(Synopsys 90 nm generic library, SAED)以及基于系統250 nm庫(LEDA))來評估檢測模型,在SAED中實現了92.9%的平均召回率以及86.2%的平均F1分數,相比目前最先進的學習模型F1分數提高了8.4%。而在基于LEDA的數據集上,分別在組合邏輯類型硬件木馬檢測中獲得平均83.6%的召回率、70.8%的F1,在時序邏輯類型硬件木馬檢測工作中獲得平均95.0%的召回率以及92.8%的F1分數。

1.1 貢獻

本文實現了一種無需黃金參考模型的門硬件木馬檢測方式,應用先進的有監督圖神經網絡構建檢測模型,具有魯棒的硬件木馬和正常電路的區分能力。由于將硬件木馬檢測問題轉換成圖節點二分類問題,因此不需要和IC的黃金模型進行對比。并通過兩個數據集來評估模型檢測能力,在數據量較小的SAED上進行方法的調優,并在大數據量上的LEDA數據集上進行模型有效性的評估。主要貢獻如下:

(1) 本模型不依賴IC設計的黃金參考模型,不需要生成高覆蓋率的測試向量,可以顯著提高檢測效率。

(2) 本文應用節點特征為節點本征特征以及圖結構特征,不涉及硬件木馬的啟發式特征,具有更高的靈活性、拓展性和更強的模型泛化能力。

(3) 構建了一個全自動的硅前硬件木馬檢測流程,其中包括門級網表的解析、門級圖結構的生成、門特征提取以及圖神經網絡訓練和檢測。

1.2 相關工作

近年來,深度學習在計算機視覺、自然語言處理等領域具有廣泛應用,并逐漸應用于硬件木馬檢測的問題上。電路的結構和功能特征為深度學習模型提供了重要數據[6]。Shen等人[7,8]使用基于自然語言處理的方法,使用統計門序列的方式獲取節點嵌入,之后采用循環神經網絡(Recurrent Neural Network, RNN)進行檢測模型的訓練,結果顯示[8]獲得82%的平均召回率以及96%的真負類率(True Negative Rate, TNR)。文獻[9]建立多維度的硬件木馬特征庫,并使用最近鄰不平衡數據分類算法均衡硬件木馬特征分布,最終通過支持向量機訓練檢測模型獲得97.02%的硬件木馬檢測準確率。文獻[10]使用極度梯度提升樹(eXtreme Gradient Boosting,XGBoost)的混合模式,結合硬件木馬靜態特征、結構特征以及動態特征,實現了94.0%的平均召回率。這些特征相關的工作都極度依賴啟發式特征來表征硬件木馬的特性,雖然在已有的數據集中有效,但隨著硬件木馬設計的對抗升級[11],檢測模型極有可能失去當前的檢測精度。此外硬件木馬邊緣節點的特征與正常節點特征相近[12,13],導致檢測模型很容易將其識別為正常節點。在傳統的機器學習范式中,特征一旦提取就不會改變,這也是它在硬件木馬檢測工作上的天然劣勢。

門級網表是非歐圖結構,可以被圖神經網絡天然兼容,因此圖神經網絡也被應用到硬件木馬相關工作中。由于圖神經網絡具有消息傳遞機制以及能夠聚合圖結構特征和節點自身特征,因此基于圖學習的硬件木馬檢測方式對特征的依賴大大減小。文獻[14]是一項應用于寄存器傳輸級硬件木馬檢測的工作,該模型能夠判斷代碼中是否植入硬件木馬。該方法將寄存器傳輸級代碼轉換成數據流圖,并建立圖神經網絡模型對數據流圖進行圖分類。不過該工作只能識別設計中是否植入HT,可以用于鎖定硬件木馬的檢測范圍,但無法找到硬件木馬節點。文獻[15]通過對比學習和圖卷積神經網絡結合的方式構建硬件木馬觸發器的檢測模型,能準確識別硬件木馬觸發器。文獻[16]是一種采用圖神經網絡尋找狀態寄存器的工作可以協助硬件木馬檢測工作。

1.3 威脅模型

本文的威脅模型是在假設不可信的第三方IP供應商在布局布線前的階段植入硬件木馬的前提下進行的。威脅模型的對象是可以綜合成門級網表的軟核或者是門級網表級IP,并被最終的電路設計使用。而硬件木馬的植入方式可以有以下場景:

(1) 可信的第三方通過不可信的電子設計自動化工具(Electronic Design Automation, EDA)無意插入HT;

(2) 不可信的第三方直接在交付設計上植入硬件木馬;

(3) 在掃描鏈上植入硬件木馬;

(4) 外包設計的不可信第三方設計師或者團隊中潛在的惡意設計師。

2 預備工作

本節概述一些用于全文的背景知識。

2.1 圖的基本表示

圖是一種非歐幾里得數據結構,圖論(graph theory)中的圖是通過若干個點及連接兩點之間的線所構成的。其中的點代表某個實體,而其中連接點之間的線代表兩個點(即這兩個實體)之間所具有的特定關系。類似地,硬件設計根據電路元件及其連接來描述電路。

在圖神經網絡中,圖數據結構通常表示為G={V,E,A}, 其中,V代表節點的集合,即點集,E代表兩點之間的線的集合,即邊集,A代表節點屬性的集合。

2.2 圖神經網絡原理

圖神經網絡(GNN)是非歐圖學習范式,其實質是迭代集合鄰居特征的過程,而從計算機數學視角來看則是某個空間結構上的映射過程[17]。GNN擅長于將復雜的高維圖信息解碼成低維特征嵌入。特征嵌入將結合節點的圖上位置信息、節點自身屬性、相鄰節點信息以及結構信息。為此,GNN設計了消息傳遞機制,可以實現消息在圖上節點的傳播,并通過神經網絡完成消息的更新。下面將通過公式來了解GNN的細節。

在第k層圖神經網絡消息傳遞階段,節點u將接受其相鄰節點N(u)的信息并進行自身特征的更新,可以表達為

其中,AGG和UP均屬于可微的函數,可用于反向傳播算法更新權重矩陣。m(u)為消息傳遞函數,它實現了將周圍節點特征聚合的功能。h是將消息傳遞和自身上一層GNN合成的節點特征h-1進行更新。總之,GNN就是通過上述消息傳遞范式實現了將圖上特征和自身節點特征的聚合更新。一旦得到節點特征嵌入,則可以使用端到端的方式應用于一系列學習任務中,例如節點分類、圖分類、機器視覺等工作。在這項工作中,本文將門級網表中的邏輯門作為圖節點,使用有監督的方式訓練GNN對硬件木馬門和正常邏輯門進行二分類,將問題轉化為節點分類。

3 基于GraphSAGE的硬件木馬檢測方法

圖1闡釋了本文門級硬件木馬檢測方法全自動流程的框架。主要思路是使用基準訓練集訓練圖神經網絡模型,之后用已經訓練好的模型對待測網表進行推理。第1步是對網表進行格式化并解析,之后構建有向無環圖用于圖神經網絡的輸入,自動提取相關特征并與節點進行關聯。第3步是將特征和圖輸送給3層GraphSAGE管道生成節點嵌入,最后經過多層感知機和Softmax激活函數輸出預測結果,即該嵌入對應的節點是否為硬件木馬。接下來將具體介紹上述內容。

圖1 基于GraphSAGE的硬件木馬檢測框架

3.1 節點特征提取

本文將門級網表轉化為一種通用的圖數據結構,其中包含著網表中存在的所有邏輯門的連接關系以及對應門的相應特征向量,其中邏輯門是節點,而連接線為邊。本文將門的類型進行模糊處理,僅對門邏輯功能進行大體分類,不在意邏輯門扇入、扇出大小的差異,盡可能避免過多門類型對特征的稀釋。同時將圖中的環進行拆解,生成有向無環圖。圖2中將顯示特征的具體表現。本文采用的節點特征向量包含以下信息:節點類型的獨熱碼、節點入度、節點出度、節點與主輸入的最小距離PI、節點與主輸出的最小距離PO。

圖2 本文特征向量表示以及GNN模型架構

如上所述,節點的類型由獨熱碼構成,由于對門類型進行處理,本文從Trusthub測試集中歸納出18種基本門類型,因此獨熱碼的維度為18。節點入度是對應節點輸入端連接節點的數量,該特征補充所在門的扇入大小信息。出度則是對應節點輸出端連接節點的個數。節點與主輸入與主輸出的最小距離將揭示節點在組合邏輯鏈上的位置信息(由于圖神經網絡限定了深度,因此無法應對于長的組合邏輯鏈)。上述特征都可以根據節點信息和圖上連接關系快速得到,提取所需要的算法復雜度低,與硬件木馬相關的先驗特性耦合度小,極大提高了檢測模型的泛化能力。

3.2 GraphSAGE圖學習

在網表的圖結構、圖上節點特征以及標簽得到后,將歸一化后的節點特征放入圖采樣聚合算法(Graph Sample and AGgrEgate, GraphSAGE)模型中進行節點嵌入生成及模型訓練。本文使用的GraphSAGE[17]是一個基于空域卷積算法的歸納式(Inductive)圖神經網絡。GraphSAGE能實現批次訓練方案,不僅使訓練過程更高效,也能很好地泛化到推理中,在大規模圖的準確性、泛化能力和可擴展性方面展示出極大的優勢。實驗中的GraphSAGE算法流程如圖3所示:

圖3 GraphSAGE算法流程

(1) 對節點圖中的每一個頂點的鄰居節點進行采樣;

(2) 通過模型的聚合函數聚合各鄰居節點的信息;

(3) 將各節點的信息轉換為模型訓練所需的圖向量;

其中,Wk為第k層神經網絡可訓練的權重矩陣,σ為非線性激活函數,例如常用的ReLU。N(v)是采樣到節點v相鄰節點的集合。AGG是Graph-SAGE的聚合方式,一般有3種形式:平均聚合(mean)、池化聚合(pool)以及長短期記憶(Long Short-Term Memory, LSTM)聚合。本文對這3種聚合方式都進行了實驗,并采用效果最好的聚合方式作為最終檢測模型的方案。在通過GNN的管道后,使用多層感知機(MultiLayer Perceptron,MLP)和Softmax函數輸出2維概率向量,分別表示為硬件木馬和正常邏輯門的概率,最終完成分類任務。

4 實驗和評估

本節將對本檢測模型性能進行一個詳細的評估,介紹本次評估的平臺集測試集信息,并與基于支持向量機(Support Vector Machine, SVM)的基準測試和目前最新的3種方法進行比較:Grams-Det[8]、隨機森林[18]和對抗訓練[19]。最后應用于基于LEDA的大數據集來驗證本方法的有效性。

4.1 測試集

本實驗從Trust-Hub[5,20]中選取了兩組使用不同標準單元庫的網表,其中之一采用SAED庫,另外一組采用LEDA系統250 nm庫。數據集信息如表1所示。由于SAED數據集相對較小,并且現有工作大部分在SAED數據集上實現,因此本文將通過SAED數據集進行模型尋優以及結果比對。而LEDA數據集包含大量網表,本文隨機選取其中80個網表進行本方法有效性的驗證。

表1 Trust-Hub數據集

4.2 實驗評價指標

對于實驗的檢測結果,在本文中選用以下3個指標作為評價實驗結果的指標,它們分別是:TPR(recall), TNR, F1。其中F1可以綜合評估檢測模型的分類能力,對于硬件木馬檢測這種數據集極端不平衡的任務來說是嚴苛的指標。這3個評價指標的公式以及相關含義如表2所示。

表2 實驗評價指標

4.3 實驗流程

本實驗的模型算法由pytorch以及深度圖學習庫(Deep Graph Library, DGL)[21]搭建,其中DGL是面向圖神經網絡的開源框架,幫助用戶更容易在現有深度學習框架的基礎上高效地執行相應的圖算法。實驗運行的硬件為NVIDIA GeForce RTX 2080ti, Intel(R) Xeon(R) W-2123 CPU @3.60 GHz和16 GB運行內存。

在GraphSAGE模型的聚合算法中,本文分別采用了3層GraphSAGE以及1個MLP用于分類。本文將調查mean, pool, lstm這3種不同聚合方式對硬件木馬檢測結果的影響。相關模型參數以及訓練參數如表3所示。

表3 圖神經網絡配置參數以及訓練參數

同時,由于硬件木馬檢測屬于極端不平衡的分類任務,本文采用帶權重的交叉熵作為模型的損失函數來平衡數據,權重為網表中正常邏輯門數量與硬件木馬數量的比值,具體表達式為

4.4 SAED實驗

本節通過SAED數據集和留一法的交叉驗證來訓練模型并研究不同優化方法對模型檢測能力影響,最后使用最佳方案的結果與現有文獻進行對比。通過將提取出的待測電路特征數據放入到GraphSAGE模型中,統計計算得出對應網表的TPR, TNR和F1-score。

表4展示了SAED數據集中網表的部分信息。該數據集為基于6個宿主電路的10個組合邏輯硬件木馬嵌入網表以及11個時序邏輯硬件木馬嵌入網表。其中硬件木馬種類比較全面,從組合邏輯到時序邏輯乃至環形振蕩器都有涉及。硬件木馬的門數相對于整個網表的比例低至0.24%,屬于極端非平衡的數據集。

表4 SAED數據集門級木馬電路信息

4.4.1 權重以及聚合方式的研究

在該實驗中,主要研究損失添加權重以及不同聚合方式對檢測結果的影響。為了能夠對各個方式提供一個公平的評估,訓練方式、超參數設置以及訓練輪數都固定。最終結果如圖4所示。

圖4 權重平衡方式結果對比

從F1分數圖可知,采用平均聚合以及權重平衡的方式在SAED數據集上得到了最佳的檢測結果,而使用權重平衡的方式都比同聚合方式的普通方法高。從TPR和TNR圖來看,使用帶權重的損失函數相比于不帶權重的方式,能夠在小幅降低TNR(小于0.3%)的情況下大幅提高(大于10%)檢測模型的TPR,從而提高檢測模型的F1分數。

考慮在同時使用權重平衡的方式的情況下,對比不同聚合方式對結果的影響。可以發現采用mean的聚合方式在F1分數和TPR都獲得最好效果,而pool聚合方式在TNR上獲得最好結果,但LSTM的方式結果是最差的。

4.4.2 比較

最后采用平均聚合以及權重平衡的方式在SAED數據集上得到了最佳的檢測結果,測結果如表5所示。本文為了比較圖神經網絡與傳統機器學習的硬件木馬檢測能力,添加了基于SVM的硬件木馬檢測方法作為基準,具體實施方式是將上述節點特征放入SVM中進行訓練獲得硬件木馬檢測模型并得到基于SVM的硬件木馬檢測結果。

表5 SAED采用MEAN聚合的檢測結果

由表5可知,對于RS232系列網表來說,本模型成功實現了100%識別。而對于其他大網表來說,除了s15850-T100, s38417-T100和s38584-T100的F1不高,其余網表的F1都能到達85%以上。同時針對EthernetMAC10GE這類10 000門的大網表,本方案同樣獲得了96.2%的平均Recall和98%的平均F1,具有對大型網表的硬件木馬檢測能力。總體來看,本方案可以實現92.9%的平均Recall以及99.8%的平均TNR,整體的F1也到達了86.2%,可以說本模型能夠精確地分別出基本上所有硬件木馬和正常邏輯門。不過存在少數正常邏輯門被錯誤識別,但這對于硬件木馬檢測來說是完全可以接受的,因為硬件木馬檢測的目的是盡可能找全所有硬件木馬,出現遺漏的情況比將正常門識別為硬件木馬影響更嚴重。最后是將兩種聚合方式的模型檢測結果與SVM基準測試以及現有先進的硬件木馬檢測方式進行對比。結果如表6所示。

表6 本文結果與文獻對比(%)

從實驗結果可以看出,圖神經網絡的方式TPR和F1都要高于SVM基準中的檢測結果,TNR都接近100%,說明在使用相同特征的情況下,圖神經網絡的非線性表達能力大幅度強于傳統機器學習方法。下文都以結果最好的平均聚合方式與現有文獻進行對比。對比采用自然語言處理技術的Grams-Det,本文TPR提高10.8%,TNR提高2.8%,F1更是提升多達40.1%。文獻[18]則是一種基于隨機森林的硬件木馬檢測方式,能夠識別出硬件木馬的情況下不誤識別正常邏輯門,因此其F1分數較高。不過隨機森林的TPR僅為63.6%,限制了其F1分數,而本文能夠在犧牲0.2%TNR的情況下提高接近29.3%的TPR, F1分數也提高了8.4%,進一步體現了圖神經網絡模型在處理節點分類的優勢。文獻[19]是一種引入對抗訓練來提高模型魯棒性的硬件木馬檢測方法,該方法以犧牲TNR的方式提升TPR,因此TPR較高而F1低至59.9%,意味著大量正常邏輯門被誤認為硬件木馬,與本文的F1相比落后26.3%。總之,基于特征的深度學習方法檢測上限被特征的選取所約束,相對地,基于圖神經網絡的檢測方式可以在訓練過程中將節點信息根據圖上結構進行傳遞更新,不斷增強所在節點的相應特征,極大緩解特征選取帶來的低檢測精度問題。

4.5 LEDA實驗結果

基于上述實驗,聚合方式以及權重平衡的方式對本文硬件木馬檢測模型的影響已經調查清楚。盡管目前大部分論文的工作都是針對SAED數據集,但該數據集的宿主電路的數量以及硬件木馬的類型都非常有限,無法提供一個綜合的實驗結果以及評估標準。同時由于數據集的規模小,無法提供足夠的樣本訓練一個魯棒的檢測模型。因此本節將采用LEDA庫的網表對檢測模型的性能進行更嚴苛的評估。

為了能夠實現一個公平的評估,上述超參數都不變,且對應的聚合方式以及平衡方式都以上文最佳的方式進行。本節將采用40個組合邏輯硬件木馬植入網表以及40個時序邏輯硬件木馬植入網表作為數據集,其中80個網表都隨機選擇LEDA庫的914個網表。對于訓練以及測試來說,本實驗將組合邏輯硬件木馬以及時序邏輯硬件木馬分別當作兩組數據集,對于這兩組數據集都采用2折交叉驗證(即20個網表作為訓練集,剩下20個網表作為數據集)的方式評估實驗結果。

表7展示了采用上述設置的硬件木馬檢測結果。表7中提供了各個網表的TP, FN, TN以及FP,最下面一欄提供了最終平均后的TPR, TNR以及F1。通過結果可以知道,本方案對于組合邏輯硬件木馬來說達到了平均83.6%的TPR以及70.8%的F1分數,而對于時序邏輯的硬件木馬數據集中則是獲得了平均95.0%的TPR以及92.8%的F1。因此,本方案對于組合邏輯硬件木馬的檢測能力是低于時序邏輯硬件木馬的,這與文獻[22]中的結果相符。總體來看,本模型在基于LEDA庫的數據集上以較低的誤識率實現了接近90%的硬件木馬識別率。

表7 LEDA數據集結果

5 結束語

本文提出一種基于GraphSAGE的門級硬件木馬檢測方法,用于實現門級硬件木馬的精確定位。本文實現了一個全自動化的硬件木馬檢測流程,包括門級網表解析、門級特征提取以及圖神經網絡的訓練預測,能夠實現高精度的硬件木馬檢測,在大網表中的硬件木馬檢測中依舊能夠有較高的識別能力。使用的GNN模型能夠快速更新迭代,無需從頭訓練。本文針對3種基于不同聚合函數、不同數據平衡方式進行研究,其中最佳配置結果與目前先進的硬件木馬檢測模型相比具有更高的F1精度以及更強的硬件木馬檢測能力。最后,將本文方案應用于基于LEDA庫的大數據量數據集時,分別在組合邏輯類型硬件木馬檢測中獲得平均83.6%的TPR、70.8%的F1,在時序邏輯類型硬件木馬檢測工作中獲得平均95.0%的TPR以及92.8%的F1分數。今后的工作將圍繞解決有向圖對GNN的兼容性以及圖神經網絡中的數據增強兩個方向進行。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美精品在线免费| 日韩不卡免费视频| 亚洲成人手机在线| 成人毛片免费观看| www.日韩三级| 亚洲男人天堂2018| 国产高潮流白浆视频| 国模视频一区二区| 国产成人喷潮在线观看| 国产美女一级毛片| 在线免费观看a视频| 欧美精品色视频| 久久久精品国产SM调教网站| 最新亚洲人成无码网站欣赏网| 欧美一级爱操视频| 毛片久久久| 欧美日韩精品一区二区在线线| 久久美女精品国产精品亚洲| 国语少妇高潮| 成人福利免费在线观看| 中文字幕无码中文字幕有码在线 | 午夜精品久久久久久久2023| 91黄色在线观看| 国产成年女人特黄特色毛片免 | 日韩一级毛一欧美一国产| 免费av一区二区三区在线| 欧美精品亚洲精品日韩专区| 99re视频在线| 青青草原国产| 亚洲成av人无码综合在线观看| 白浆免费视频国产精品视频| 亚洲一级毛片在线播放| 亚洲大尺度在线| 久久亚洲美女精品国产精品| 欧美三级日韩三级| 99久久这里只精品麻豆| 片在线无码观看| 成人在线综合| 在线国产毛片手机小视频| 欧美精品1区| 精品国产中文一级毛片在线看| 最新国产你懂的在线网址| 亚洲精品成人7777在线观看| 精品国产福利在线| 亚洲bt欧美bt精品| 91亚洲视频下载| 国产无套粉嫩白浆| 婷婷综合在线观看丁香| 四虎亚洲国产成人久久精品| 免费国产黄线在线观看| 99偷拍视频精品一区二区| 91人人妻人人做人人爽男同| 久久精品国产免费观看频道| 午夜在线不卡| 亚洲综合专区| 亚洲高清无码精品| 成人在线天堂| 91国语视频| 日韩精品高清自在线| 欧美a在线看| 国产成人一二三| 在线日韩日本国产亚洲| 欧美午夜在线观看| 久久黄色一级视频| 欧美一区二区三区不卡免费| 精品無碼一區在線觀看 | 国产91丝袜在线播放动漫| 毛片免费在线视频| 四虎国产永久在线观看| 国产精品久久久久鬼色| 又爽又大又光又色的午夜视频| 91精品国产情侣高潮露脸| 久久精品娱乐亚洲领先| 午夜天堂视频| 国产乱人乱偷精品视频a人人澡| 久久一色本道亚洲| 一级不卡毛片| 青青青国产视频| 国产va欧美va在线观看| 丰满人妻久久中文字幕| 一级毛片视频免费| 澳门av无码|