999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于聯邦學習的多技術融合數據交易方法

2024-03-21 08:15:38劉少杰文斌王澤旭
計算機工程 2024年3期
關鍵詞:模型

劉少杰,文斌?,王澤旭

(1.海南師范大學數據科學與智慧教育教育部重點實驗室,海南 海口 571158;2.海南師范大學信息科學技術學院,海南 ???571158;3.中山大學軟件工程學院,廣東 珠海 519082)

0 引言

數據保護的約束使得數據被限制在不同企業和組織之間,形成了眾多“數據孤島”,難以發揮其蘊含的重要價值,而傳統的數據交易方式往往存在數據所有權混亂以及缺乏透明性等問題[1]。聯邦學習(FL)的模型訓練機制有效地實現了“數據不出門,可用不可見”,在打破“數據孤島”的同時滿足了數據隱私和安全性規約[2],使得數據被合規交易和共享成為可能。聯邦學習對未來人工智能等技術的發展和數據安全保護有著重要的推動作用,但缺乏獎勵分配機制、存在惡意攻擊、網絡通信開銷大等問題對聯邦學習應用于數據交易場景有著顯著的影響[3]。因此,對聯邦學習框架的設計和完善成為學術界和工業界亟待解決的熱點問題,其研究需求也應運而生。

當聯邦學習實際應用在數據交易場景中時,需要模型聚合服務端與各個數據供給方訓練端間進行不間斷的模型權重數據同步,這帶來了巨大的通信開銷[4-6],并隨著數據供給方的數量和迭代次數增加而陡增,不適用于多方參與的復雜數據交易場景。此外,聯邦學習中缺少用于數據供給方貢獻度評估的方法,存在各方利益分配策略不明確、缺少有效的激勵機制的問題[7-8]。同時,利益分配數據依賴中心化的存儲或任務需求的發布者,缺少透明性和可信性,從而降低了參與方的積極性[9]。

數據交易場景中僅僅依靠聯邦學習技術將面臨眾多的挑戰,為此,本文提出一種基于聯邦學習的多技術融合數據交易方法(MTFDT)。該方法能夠在縮短通信時間損耗和增強激勵機制可靠性的同時,使得交易過程數據可溯源和不可篡改,提高服務質量。本文主要貢獻總結如下:

1)以可信執行環境(TEE)技術為依托,結合沙普利值提出一種用于數據供給方貢獻評估的有效機制,解決模型評價數據集來源問題,使得數據交易過程中貢獻度量和利益分配更加公平。

2)將樹型網絡拓撲結構應用于聯邦學習模型數據同步過程,提出一種并行化模型權重參數同步算法,降低訓練過程中的通信開銷,從而提高可擴展性,使得聯邦學習可應用于包含更多參與方的復雜數據交易或共享場景。

3)引入聯盟鏈技術并通過設計智能合約進行貢獻數據和訓練數據存儲,利用其不可篡改和去中心化特性保證過程數據的安全性,使得數據交易過程透明、可信任。同時,結合星際文件系統(IPFS)實現模型數據存儲,避免大數據上鏈造成存儲和通信負擔,提高數據交易效率。

1 相關工作

數據安全保護政策、法律法規的頒布和實施使得隱私計算成為了當下研究的熱點,聯邦學習作為隱私計算中的代表性方案也受到了廣泛的關注,但對于聯邦學習應用于數據交易場景中的利益分配機制、模型訓練效率和安全性等方面的研究仍處于初期階段。文獻[10]針對傳統聯邦學習存在的激勵機制不明確和依賴于單點服務器的問題,創新性地將區塊鏈技術引入到聯邦學習過程中,以區塊鏈網絡代替中央節點,加入了相應的驗證和獎勵機制,并對加入區塊鏈所帶來的延遲問題和分叉現象進行了優化。雖然該方法一定程度解決了現存的部分問題,但其基于挖礦的獎勵分配策略和模型同步方案也極大地提高了訓練成本。為了進一步優化獎勵策略并提高可靠性,文獻[11]提出一種基于反復競爭思想的利益分配方案,并通過以太坊進行實現。該方案以投票的方式來體現前輪各參與方對模型優化的貢獻,同時參與者各自選擇前輪較優的k個模型權重進行聚合作為新一輪的本地模型初始狀態。該方案雖然使得利益的分配變得具體化,但增加了參與方的計算和通信成本。文獻[12]提出一種帶有訓練評價指標的聯邦學習激勵機制模塊,通過對提交模型進行測試并與初始狀態對比來反映參與方的貢獻度,一定程度上提高了數據交易中利益分配的合理性,但其評估方法僅考慮模型相對初始狀態的提升,并未考慮模型為全局模型聚合帶來的整體效益。文獻[13]在增加模型評價指標的基礎上進一步引入沙普利值以從整體上度量參與方模型的貢獻度,提高報酬分配的公平性。然而,文獻[12-13]均缺少對于模型評價過程中所使用數據集來源的研究和分析。文獻[14]對模型評估所需要的數據集來源問題進行了討論,提出一種新的聯邦學習算法Fed-PCA,以達到在沒有測試數據集的情況下完成貢獻度評估的目的。

對于聯邦學習應用于數據交易場景時的通信成本,文獻[15]提出一種基于群體劃分的策略,通過將所有參與者進行群體劃分逐步完成模型聚合,但該策略增加了訓練過程的復雜度。為解決這一問題,文獻[16]提出一種具有委員會共識的聯邦學習框架,通過動態地選舉委員會成員作為模型的驗證方和評價方,達到k倍交叉驗證的效果,同時也避免了全部節點都參與驗證帶來的通信開銷。然而,該方案為了故障驗證和回退,將模型數據存儲在區塊鏈中,降低了鏈節點交易同步的效率,不利于實際的應用。為了提高聯邦學習過程的效率,文獻[17]將許可鏈融入框架中,在避免依靠公鏈造成資源浪費的同時,利用差分隱私來進一步提高訓練中數據的安全性,但未能考慮區塊鏈在大型數據存儲中的不適用性。優化網絡拓撲結構是提高聯邦學習通信效率的有效方式[18],分散的節點部署往往比星型拓撲具有更好的效果[19]。文獻[20]引入邊緣聚合服務器來緩解星型拓撲結構中央聚合服務器的帶寬壓力。文獻[21]使用Gossip 協議來并行分段傳輸權重參數,從而提高訓練節點間模型權重數據的同步效率,但為了保證聚合效果,增加了整體的通信次數且訓練效果不夠穩定。目前,較多研究工作的框架設計缺乏對于存儲成本的考慮,不具備較高的可行性。

MTFDT 與現有方法的綜合對比如表1 所示。

表1 MTFDT 與現有方法的綜合對比Table 1 Comprehensive comparison among MTFDT and existing methods

2 多技術融合的數據交易方法

數據交易流程中利益分配的公平性、合理性將直接影響數據需求方和數據供應方參與數據交易或共享服務的積極性。本文以聯邦學習技術作為服務基礎,結合聯盟鏈、星際文件系統和可信執行環境等多種技術,構建MTFDT 框架。

2.1 整體介紹

MTFDT 整體工作流程如圖1 所示。其中:假設所有參與數據交易任務的數據供給方為P,Pi為第i個供給方,n為參與數據交易任務的供給方總數;每個供給方Pi擁有本地數據集Di;數據需求方為R,其發布的數據交易任務為E;第r輪全局模型為Gr;供給方本地訓練得到的模型為。

圖1 MTFDT 工作流程Fig.1 Workflow of MTFDT

在數據交易過程中,數據需求方根據自身的需求構建聯邦學習任務請求,任務請求包括模型結構、評估指標和目標以及預算信息,該任務請求通過數據需求方調用服務接口的方式發送到區塊鏈中并由數據交易服務智能合約處理;隨后數據供給方查詢鏈上數據交易任務,并結合本地數據集屬性提交選擇參與訓練任務的請求;之后數據需求方確定參與聯邦學習任務的數據供給方,通過可信執行環境密鑰協商方式收集數據供給方測試數據集(用于貢獻量化評估和利益分配計算);模型聚合服務器根據數據參與方信息構建樹型拓撲交互節點樹,并并行同步分發聯邦學習模型數據,進入聯邦學習訓練階段;模型聚合服務器收集數據供給方訓練結果,并進行貢獻量化評估,利用聯盟鏈完成獎勵分配和過程模型等數據存儲。

2.2 利益分配策略模塊設計

利益分配策略的公平公正是促進數據交易可持續進行的重要基礎和維護參與方利益的保障,但目前缺少對于數據交易過程中所使用效果評價數據集來源的研究。為此,本文在MTFDT 中基于可信執行環境和沙普利值設計一種新的貢獻度量化與利益分配機制,具體工作流程如圖2 所示。

圖2 MTFDT 中貢獻評估與利益分配流程Fig.2 Contribution evaluation and benefit distribution process in MTFDT

在數據交易任務訓練前,參與任務的數據供給方Pi與模型聚合服務器的可信安全區中的程序進行遠程認證并完成密鑰協商[25],得到加密密鑰Ki,Pi將本地測試數據使用Ki進行加密得到測試數據密文,并將發送給模型聚合服務器存儲;當Pi在本地完成計算后,將新的梯度信息發送給模型聚合服務器中非可信區域運行的模型梯度收集服務;收集服務發起可信服務調用,并完成所有的梯度信息傳輸;可信安全區中的貢獻計算服務通過排列聚合得到當前輪的聚合模型集合,同時使用協商密鑰Ki解密測試數據,并使用測試數據與數據需求方數據交易任務中預設的評估方法完成模型效用評估;在得到聚合模型集合評估結果后,使用沙普利值對數據供給方Pi的貢獻值進行計算[26]。

在現有的使用聯邦學習進行數據交易的研究中,多以數據供給方訓練所得新模型的評價指標值f相對初始模型fg的提升作為效用評估Q的主要依據[12],計算過程如式(1)所示:

然而該方式在數據規模不均衡的情況下,利益分配存在不公平的可能性。當以準確率作為評價指標時:1)數據供給方訓練數據集的增大與其訓練所得模型準確度的提升不成等比例關系,反之亦然;2)數據供給方訓練數據集的增大與其訓練模型所耗費的資源即代價成等比例關系,反之亦然。由此可知,在使用聯邦學習進行數據交易的過程中,單純基于評價指標相對初始模型的提升來進行效用評估繼而完成貢獻度計算的方式并不完全合理,在數據集質量相當的情況下,使用更多數據進行訓練的參與方并不能獲得等比例的收益。由于在訓練過程中,數據供給方用于訓練的數據量是不可知的,因此訓練成本難以得到可信且有效的計算。

綜上,本文所提出的模型訓練效用評價方法在考慮相對初始模型提升的前提下,綜合考慮了模型在所有新模型中的綜合水平,計算方式如式(2)所示:

其中:a為獎懲調節系數,按式(3)動態調整和分別為當前輪所有聚合模型評價指標的均值、最大值和最小值。

當數據供給方訓練得到的新模型性能低于全局平均模型時,將受到懲罰,反之則獲得獎勵,獎懲調節系數則能夠在模型訓練后期性能提升較小時放大差異,使得提供較多數據集的供給方能夠得到更高的評估。

由于聯邦學習過程具有新模型由所有本地模型聚合得到的特性,因此通常會存在以下情況,即第r輪訓練得到的所有本地模型效果都比當前輪初始模型差,但其聚合所得到的新模型效果優于初始模型。在這種情況下,傳統的貢獻計算方法將不再適用,缺失了對本地模型在聚合時對全局模型效果提升所起作用的評估。由此,本文引入沙普利值來計算本地模型在全局模型聚合時所做的貢獻,從而提高利益分配的可靠性。

數據供給方Pi在某輪次訓練中的貢獻值計算方式如下:

其中:S為參與數據交易任務供給方集合P在當前輪產生的聚合模型集合的任意子集;PPi為不包含Pi訓練所得到模型的聚合子集。在交易任務完成后,數據供給方Pi獲得的收益計算公式如下:

其中:C為達到目標精度進行的訓練總次數;B為數據需求方發布交易任務時的預算總額。

2.3 模型同步模塊設計

聯邦學習中的通信網絡拓撲結構通常是星型結構,即存在一個中心模型聚合服務器和成百上千個訓練端(數據供給方),如圖3 所示。對于同步聯邦學習,模型聚合服務器需要等待所有的訓練端返回新一輪的模型更新參數,并聚合得到新的全局模型權重,之后將新的全局模型權重一次性分發給所有的訓練端[27]。模型權重參數文件分發將為服務端帶來巨大的帶寬壓力。同時,由于大多數數據交易中所要訓練的神經網絡模型往往擁有巨大的參數量,模型同步帶來了較高的通信成本[28],因此也限制了訓練端節點的數量,降低了可拓展性。

圖3 星型拓撲結構聯邦學習模型數據同步Fig.3 Data synchronization of federated learning model with star topology structure

假設模型權重文件大小為msize,各個節點帶寬為d,參與訓練的節點數量為n,2 個節點間建立通信的時間損耗為l1,則星型拓撲結構下聯邦學習每輪模型同步所需要的時間Tstar為:

為了減緩模型分發給模型聚合服務端所帶來的帶寬壓力,降低同步時間對聯邦學習訓練造成的影響,進而提高數據交易效率,本文在MTFDT 中設計一種新的權重數據同步算法。該算法通過切割權重文件和構建交互節點樹的方式實現參數數據并行傳輸,其中模型聚合服務端與訓練端關聯關系如圖4所示。

圖4 樹型拓撲結構聯邦學習模型數據同步Fig.4 Data synchronization of federated learning model with tree topology structure

2.3.1 算法流程

模型同步模塊的算法流程具體如下:

步驟1模型聚合服務端P0將第r輪模型參數權重文件Gr切割為均等的k份并計算整體權重文件哈希值hr和所有子文件哈希值集合

步驟2聚合服務端選擇當前迭代輪次的訓練節點集合Pr,Pr={P1,P2,…,Pn},利用n個訓練節點信息和聚合服務端信息構建多叉樹Tr,Tr={P0,P1,…,Pn},其中,將P0作為多叉樹的根節點。

步驟3將Tr、hr和Hr合并得到第r輪次迭代配置信息cr,其中,cr={hr,Tr,Hr},并將cr發送給集合P中所有訓練節點。

步驟4聚合服務端按序將k份模型權重子文件根據Tr中的結構信息發送給其子節點,子節點在收到文件wi后立即向后續子節點發送并同時接收父節點發送的下一份模型權重子文件wi+1。

步驟5重復步驟4,計算各個子文件哈希值與cr中對應子文件哈希值進行對比,若不相同或父節點無響應,則根據cr向其他祖父節點請求,直至所有訓練端接收到全部正確的權重文件集合

步驟6所有訓練端合并子文件集合得到新一輪的模型權重參數文件,模型同步結束。

同步過程中節點間文件傳輸流如圖5所示。在t時刻,根節點向第1 層訓練節點發送權重模型子文件w1,在2t時刻,第1 層訓練節點在接收根節點發送的子文件w2的同時向第2 層節點發送子文件w1,從而實現模型參數文件同步的并行數據傳輸,極大地提高了效率,降低了時間消耗。

圖5 樹型拓撲結構聯邦學習模型同步過程Fig.5 Synchronization process of federated learning model with tree topology structure

2.3.2 算法復雜度分析

假設模型權重文件切割后得到的子文件個數為k,構建的節點樹T中非葉子節點出度為o,迭代配置文件分發所需時間為l2,則所提出的聯邦學習模型權重同步算法完成每輪權重參數分發所需要的時間Ttree為:

通過分析式(6)和式(7)可知,星型拓撲結構下傳輸伴隨節點數的增加,聯邦訓練過程中的模型同步時間消耗也將呈線性增加。由于節點間建立鏈接的時間l1和發送迭代配置數據所需的時間l2占比很小,因此本文所提出的同步方法伴隨訓練端數量的增多同步所需的時間將以對數的形式增加,更加適用于大規模的聯邦學習數據交易場景。此外,所提出的方法對于模型聚合端的帶寬要求更低。

2.4 交易過程數據存儲模塊設計

區塊鏈通過點對點傳輸和共識算法等技術來實現分布式賬本,具有去中心化、不可篡改、記錄可追溯等特點,適用于金融、溯源等多種應用場景。在數據交易過程中,參與方之間互不信任,為了保證數據交易過程中利益分配數據和模型數據的可信性和存儲的安全性,本文在MTFDT 中設計一種基于區塊鏈與IPFS 相結合的交易過程數據存儲機制。

2.4.1 利益分配與追責溯源智能合約

依據數據交易服務的需求對合約功能進行抽取,劃分為權限層、數據層、服務層等3 個部分,如圖6 所示。其中,權限層通過地址映射來實現賬戶的權限約束,從而達到數據交易服務訪問的細粒度控制。

圖6 數據交易場景智能合約設計Fig.6 Smart contracts design for data transaction scenario

通過將數據存儲與數據操作進行分離的方法來提高合約的可拓展性和易維護性,在頂層服務需求發生變化時,只需要對服務層中的功能函數進行新增或修改,從而避免了對底層數據的影響。為了滿足數據交易利益分配計算和模型數據溯源需求,智能合約中的主要函數設計如表2 所示。

表2 智能合約函數設計Table 2 Smart contract function design

2.4.2 數據存儲設計

區塊鏈中交易的大小是影響系統運行效率的一個重要因素。數據交易場景中往往包含了大量的模型權重信息,具有較大的數據量,若將其全部存儲于鏈中,將會對系統的運行效率造成影響,從而降低數據交易服務質量。為了緩解數據量對區塊鏈網絡的壓力,本文在MTFDT 中進行數據存儲機制優化,如圖7 所示。

圖7 數據存儲設計Fig.7 Data storage design

在數據交易過程中,交易服務模塊在收集數據供給方發送的最新模型數據后,將模型數據通過IPFS 接口完成上傳,之后通過調用區塊鏈智能合約把返回的地址信息與對應的數據供給方信息以及所屬的數據交易任務信息一同存儲于鏈上;在數據交易任務模型訓練過程結束后,數據需求方向數據交易服務模塊發送模型申請請求,在鏈上完成地址信息查詢后通過IPFS 接口完成下載?;谠摯鎯C制,在引入區塊鏈技術提高數據交易過程去中心化和保證數據交易過程模型數據可溯源的同時,避免較高的服務成本,提高可拓展性和效率。

2.5 方案復雜度分析

MTFDT 數據交易方案相比直接使用傳統的聯邦學習進行數據交易整合了多個模塊,因而增加一定的復雜度。為了能夠更好地說明方案設計中對復雜度的考量以及額外計算量的必要性,對其分析如下:1)利益分配策略模塊中為了實現對數據供給方貢獻度的精確計算,增加了評估過程,其時間消耗與數據交易任務參與方數量正相關;2)模型同步模塊在維護拓撲關系過程中帶來了一定的復雜度,但整體時間消耗低于原有數據同步方法;3)數據存儲模塊中引入了區塊鏈服務,相比直接使用數據庫進行數據存儲增加了復雜度,在設計上進一步引入了分布式存儲來進行優化。綜上,MTFDT 方案的整體計算量相對可控,能夠以較低的復雜度增加來提高數據交易的安全性和可靠性。

3 實驗設計與性能評估

本文基于CIFAR-10 公開數據集進行了仿真實驗,并通過調整變量參數對所提方案中利益分配合理性以及模型同步效率進行對比分析。

3.1 利益分配策略效果評估

為了更好地證明本文所提激勵機制的公平性和有效性,基于CIFAR-10 數據集使用卷積神經網絡(CNN)模型進行了實驗驗證。使用3個數據供給方節點(命名為A、B、C)參與數據交易過程,將數據集進行等比例劃分,各個節點的數據之間符合獨立同分布。模型訓練效果評估及貢獻度占比如表3、表4所示。

表3 模型訓練效果評估對比Table 3 Evaluation and comparison of model training effects

表4 模型訓練貢獻度對比Table 4 Comparison of model training contribution %

表3 列出了某輪數據交易過程中的聯邦學習訓練數據,該模型訓練中以準確率(ACC)作為評估依據。根據該輪數據分別使用文獻[12]所提出的評估機制和本文所提出的訓練效果評估機制進行計算,并進一步得到貢獻度數據,如表4 所示。從結果中能夠看出,文獻[12]評估機制并不能適用于該情況,而本文MTFDT 中的模型訓練效果評估機制由于綜合考慮了模型在聚合過程中所做出的貢獻,從而能夠有效地對訓練效果進行評估,提高了數據交易中利益分配的可靠性。

為了進一步分析本文所提出利益分配策略的有效性,使用多個模型和公開數據集進行仿真評估,實驗結果如表5 所示??梢钥闯?,在獨立同分布且數據集等比例劃分的情況下,本文所提出的評估機制貢獻評估結果更加符合實際情況。

表5 多場景下數據交易貢獻度計算綜合對比Table 5 Comprehensive comparison of data transaction contribution calculation in multiple scenarios %

為了分析所提出的評估機制在數據集規模不均衡時的表現,進一步驗證其應用于數據交易過程中利益分配的公平性。將數據集分別按照1∶1∶1、5∶3∶2和7∶2∶1 進行劃分,各個節點的數據之間符合獨立同分布。在不同比例數據劃分情況下,模型訓練達到收斂時各節點的貢獻度計算結果如圖8 所示??梢钥闯?,貢獻度占比與數據集規模比例相近,說明本文所提出的貢獻度量方法能夠保證收益與成本成比例變化,更好地激勵供給方使用更多的數據參與到數據交易過程中。實驗結果驗證了本文所提激勵機制的可行性。

圖8 不同規模數據集分布下貢獻度占比結果Fig.8 Contribution ratio results under different size dataset distributions

3.2 模型數據同步性能對比

基于CIFAR-10 數據集,使用VGG16 模型對星型拓撲結構模型同步與本文所提出的模型同步方案進行效率對比,其實驗中涉及的參數設置如表6所示。

表6 實驗參數設置Table 6 Experimental parameter settings

在表6 的設置下對比不同參與方數量下模型同步所消耗的時間情況,實驗結果如圖9 所示??梢钥闯?,隨著參與方節點數量的增多,模型同步過程所消耗的時間也在增加。在相同情況下,本文所提出方案相比星型拓撲結構數據同步時間消耗最多減少了34%,并隨著節點數量的增加效果更為顯著。

圖9 不同節點數目條件下模型同步時間消耗對比Fig.9 Comparison of model synchronization time consumption under different number of nodes

為了進一步分析方案的有效性,通過調整聚合服務端帶寬大小對比不同方案模型同步時間消耗情況,實驗結果如圖10 所示??梢钥闯?,隨著帶寬變小,同步時間逐步增加,但本文所提出的模型同步方案相對星型拓撲的增加趨勢更加緩和,在同等情況下,時間消耗最大減少了36%。由此可以證明,本文所提方案對參與數據交易節點的帶寬要求更低,實驗結果與理論分析一致。

圖10 不同帶寬條件下模型同步時間消耗對比Fig.10 Comparison of model synchronization time consumption under different bandwidth conditions

上文通過5 組實驗對所提出的MTFDT 數據交易方法中的貢獻計算和模型同步效果進行了評估,實驗結果表明,MTFDT 能夠滿足數據交易場景的綜合需求。

4 結束語

針對聯邦學習在數據交易和共享場景應用中存在的利益分配、同步開銷和中心化問題,本文深入剖析其關鍵流程和機理,提出一種多技術融合的數據交易方法,有效地增強了數據交易過程中參與方貢獻評估的公平性,減少了模型同步過程時間消耗,并結合區塊鏈和星際文件系統等技術提高了可靠性和安全性。最后,通過設計對比仿真實驗驗證了所提方案在數據交易場景中的有效性。未來工作中將進一步探索異步聯邦學習場景下的模型同步方法和適用于非獨立同分布數據集的激勵機制。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲AⅤ永久无码精品毛片| 2020国产免费久久精品99| 精品在线免费播放| 欧美97欧美综合色伦图| 亚洲IV视频免费在线光看| 国外欧美一区另类中文字幕| 99免费在线观看视频| 中美日韩在线网免费毛片视频| 美女免费精品高清毛片在线视| 亚洲精品自拍区在线观看| 国产鲁鲁视频在线观看| 一级黄色片网| www.99在线观看| 国产激爽大片在线播放| 欧美色99| 一级不卡毛片| 国产精品冒白浆免费视频| 久久精品国产在热久久2019| 亚洲天堂成人| 天堂网亚洲综合在线| 亚洲一级毛片免费看| 国产精品久久久久久久久| 欧美成人精品在线| 欧美在线一二区| 亚洲网综合| 国产AV毛片| 日本一本正道综合久久dvd| 日本www在线视频| 亚洲电影天堂在线国语对白| 精品91自产拍在线| 热久久国产| 欧美中文字幕一区| 国内黄色精品| 免费日韩在线视频| 国产美女视频黄a视频全免费网站| 亚洲a级毛片| 精品人妻一区无码视频| 欧美精品1区| 东京热高清无码精品| 亚洲人视频在线观看| 亚洲另类色| 国产丝袜第一页| 国产激爽大片在线播放| 狠狠做深爱婷婷久久一区| 欧美日韩动态图| 国产夜色视频| 国产在线97| 亚洲aaa视频| 欧美日韩在线第一页| 伊人久久综在合线亚洲2019| 香蕉精品在线| 人人看人人鲁狠狠高清| 欧美一区二区人人喊爽| 国产精品林美惠子在线观看| 暴力调教一区二区三区| 毛片三级在线观看| 免费无码网站| 亚洲日韩Av中文字幕无码| www.av男人.com| 久久福利网| 夜夜高潮夜夜爽国产伦精品| 亚洲精品第五页| 黄片一区二区三区| 亚洲视屏在线观看| 国产精品va| 免费A级毛片无码免费视频| 超碰91免费人妻| 欧美亚洲第一页| 精品自拍视频在线观看| 亚洲中文字幕无码mv| 久久久久人妻精品一区三寸蜜桃| 亚洲欧美自拍一区| 欧美97色| 超碰免费91| 人妻出轨无码中文一区二区| 亚洲免费毛片| 久久影院一区二区h| 国产成人8x视频一区二区| 国产哺乳奶水91在线播放| 超清无码熟妇人妻AV在线绿巨人| 国产成人高清亚洲一区久久| 乱色熟女综合一区二区|