999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

不平衡數據下預算限制的聯邦學習激勵機制

2022-12-31 00:00:00顧永跟鐘浩天吳小紅陶杰張艷瓊
計算機應用研究 2022年11期

摘 要:聯邦學習的提出解決了在隱私保護下完成多客戶合作的機器學習問題,而激勵客戶參與聯邦學習是模型性能提高的一個重要前提。針對客戶數據非獨立同分布特征會導致聯邦學習性能下降這一問題,考慮預算約束下,設計了基于單位數據成本和數據特征—EMD距離的客戶端篩選方式,提出一種有效的聯邦學習激勵機制(EMD-FLIM),從理論上證明了機制具有誠實性,即每個客戶會誠實披露數據成本和數據分布信息,同時機制具有預算可行性、個人理性及計算有效性。實驗結果顯示,提出的激勵機制在數據分布不平衡情況下模型精度至少能達到數據量最優選擇(不考慮激勵)下的 94%以上,與不考慮數據分布特征的激勵機制相比較,模型精度平均可提高5%以上。

關鍵詞:聯邦學習;激勵機制;EMD距離

中圖分類號:TP391 文獻標志碼:A

文章編號:1001-3695(2022)11-029-3385-05

doi:10.19734/j.issn.1001-3695.2022.04.0182

Incentive mechanism for federated learning with budget constraints under unbalanced data

Gu Yonggen1,Zhong Haotian1,Wu Xiaohong1,Tao Jie1,Zhang Yanqiong2

(1.School of Information" Engineering,Huzhou" University,Huzhou" Zhejiang 313000,China;2.School of Science amp; Engineering,Huzhou" College,Huzhou" Zhejiang 313000,China)

Abstract:Federal learning solves the problem of completing multi-customer cooperative machine learning under privacy protection,and incentivizing customers to participate in federated learning is an important prerequisite for model performance improvement.To address the impact of non-independent identically distribution of customer data on the performance of federated learning,this paper designed a client selection method based on unit data cost and data characteristics-EMD distance conside-ring budget constraints,which theoretically proved that the mechanism had honesty,i.e.,each customer would honestly disclose data cost and data distribution information,while the mechanism had budget feasibility,personal rationality and computational validity.The experimental results show that the accuracy of the model under the proposed incentive mechanism can reach at least 94% of that under the optimal choice of data volume (without considering the incentive) on average,and improve the model accuracy by more than 5% on average compared with the incentive mechanism without considering the data distribution characteristics.

Key words:federated learning;incentive mechanism;EMD distance

基金項目:國家自然科學基金資助項目(61906066)

作者簡介:顧永跟(1968-),男,浙江湖州人,教授,碩導,博士,主要研究方向為網絡安全、算法博弈論;鐘浩天(1998-),男,江蘇鎮江人,碩士研究生,主要研究方向為聯邦學習、算法機制設計;吳小紅(1974-),女(通信作者),浙江湖州人,副教授,碩導,博士,主要研究方向為網絡資源管理、算法博弈論(xhwu@zjhu.edu.cn).

0 引言

基于人工神經網絡的機器學習在各領域取得了顯著性的成果,包括計算機視覺、語音識別等[1。傳統的機器學習依賴于大量的訓練數據并且需要將各方數據聚合到一個中央服務器上,這樣不僅需要大量數據的傳輸,更會造成隱私泄露的風險2。近年來隱私保護問題廣受關注,從不同客戶端收集數據集中訓練模型已經愈發困難。為了解決上述問題,Google[3提出了聯邦學習(federated learning,FL)的概念。聯邦學習可以使多個客戶端在中央服務器協調下訓練全局模型。客戶端不需要將私有數據上傳到中央服務器,而是先在本地客戶端進行模型訓練,訓練完成后再將模型發送到中央服務器以更新全局模型,從而達到隱私保護的目的。

聯邦學習由于其對隱私保護方面的顯著優勢已引起了研究者和開發者的廣泛關注。Google [4通過聯邦學習為手機輸入法預測用戶下一單詞的輸入。微眾銀行AI團隊[5提出FATE(federated AI technology enabler)框架將聯邦學習從理論落實到實際。Liu等人[6提出在局部的步長更新中使用動量梯度下降的動量聯邦學習算法,從而顯著加快聯邦學習的收斂速度。王惜民等人7從客戶端選擇的角度提出了一種基于組合式多臂老虎機的在線聯邦學習算法框架來進行優化。

上述研究主要是針對聯邦學習應用和算法性能改進方面,這都是假定客戶端自愿參與到聯邦學習中來[8,9。然而事實上聯邦學習框架依賴于客戶端本地訓練的模型質量,客戶端在本地訓練模型時會產生較高的訓練成本10,11,包括計算、通信等。如果沒有足夠的經濟補償,客戶端可能會不愿意參與到聯邦學習中來并共享其訓練的模型12。因此,需要在聯邦學習的系統中引入激勵機制以獎勵客戶端的加入。

一般來說,在激勵機制中需要根據參與者的報價以及一些其他的信息來決定任務的分配和報酬以達到某些目標,如最大化社會福利、最大化效用等。因此在聯邦學習激勵機制中如何根據參與者的一些信息有效衡量客戶端提供的模型質量顯得十分重要。

由于在機器學習中模型質量與數據量呈正相關[13,14,所以很容易想到將數據量作為模型質量的一個參考。Zhan等人[13為聯邦學習設計了基于完全信息博弈的激勵機制,將參與訓練的數據集大小作為移動設備的策略集,建立非合作博弈,以實現納什均衡。Cong等人[15提出了一種基于VCG的聯邦學習激勵機制,以激勵數據擁有者報告真實的成本和數據量。也有一些研究利用聲譽來間接反映數據所有者的質量。Zhang等人[16提出了基于聲譽和反向拍賣的聯邦學習激勵機制,在預算有限的情況下,結合參與者的聲譽和報價來決定支付的報酬。

上述機制采用數據量和聲譽來衡量模型質量。然而,模型質量還受到客戶端本地數據分布的影響[17。尤其在聯邦學習應用的現實場景中,數據的來源途徑可能多種多樣,各個數據集完全獨立同分布的概率很小,最常見的情況是各方的數據集分布是不平衡的,即非獨立同分布的。因此考慮數據不平衡情況下的聯邦學習激勵機制是很有必要的。Zeng等人[18提出了一種FMore激勵機制,在仿真實驗中,考慮類別不平衡的情況,將每個客戶端的數據大小和數據類別作為預估貢獻值,再根據預估貢獻值選擇客戶,但找到合理的貢獻值預估函數是困難的。而本文在篩選客戶端時將客戶端數據分布和總體分布之間的L2范數距離(EMD距離)作為重要參數以解決數據分布不平衡情況下聯邦學習模型精度顯著下降的問題。

1 系統模型

1.1 問題描述

考慮如圖1所示的一個聯邦學習交易系統,該系統由一個任務發布者、一個聯邦學習中心以及若干客戶端組成。一開始,任務發布者通過聯邦學習中心向所有客戶端發布聯邦學習任務的描述[19,其中包括:a)任務的目標O,例如圖像分類任務;b)任務所需要的數據的類別C,例如相關分類任務的圖像;c)訓練模型時的批處理大小B,每個客戶端用于訓練模型的數據量Q(為了控制數據質量,任務發布者可能希望客戶端有選擇地選取部分數據參與聯邦學習); d)客戶端在本地訓練輪次E;e)訓練模型時要使用的損失函數l;f)任務發布者的預算 R。上述發布的任務對所有參與的客戶端來說均相同。

假設有一組客戶端?={1,2,…,n}有任務相關的數據并且對發布的任務描述感興趣,為激勵它們的加入,任務發布者理應向參與的客戶端支付一定的報酬。考慮到任務發布者的預算有限,因此聯邦學習中心需要相關算法來為任務發布者篩選出一部分客戶端參與任務,篩選結果用分配向量X表示,X={xi,i∈? },xi可以取值0或1,0表示未被選中,1表示選中。接下來被挑選的客戶端先在本地完成模型訓練,再上傳到聯邦學習中心進行模型聚合,如此循環T輪后聯邦學習中心得到聯邦學習的最終模型并交付給任務發布者,再由任務發布者向參與的客戶端i∈?支付報酬pi

客戶端采用Google在文獻[3]中提出的聯邦學習框架聯合訓練模型,采用FedAvg算法。在算法開始時,首先初始化全局模型wt(初始t=0),然后迭代T輪完成模型訓練。每次迭代過程t={1,2,…,T}由全部客戶端參與訓練,具體步驟如下:

a)系統將全局模型wt分發給參與聯邦學習的客戶端。

b)客戶端i下載全局模型,并利用其本地數據集對全局模型執行E輪更新,然后將更新后的模型 wt+1上傳回系統。客戶端i在其本地更新模型時采用梯度下降的方法:

其中:η 表示步長;l(xi,yi;wti)表示基于本地數據集目標函數的梯度。

c)在系統收到所有客戶端的模型后,對所有模型進行模型平均,以此來更新全局模型wt。 FedAvg算法在聚合模型時用客戶端本地參與訓練的數據量作為權重,加權平均來更新全局模型。由于系統在發布任務時規定每個參與任務的客戶端都挑選數據量大小為Q的數據參與聯邦學習,所以模型平均的公式如下所示。

在上述聯邦學習的框架下,本文目標是如何在預算限制的約束下提高聯邦學習模型的性能。主要存在的困難如下:a) 如何在眾多客戶端中選取有效的客戶端以提升聯邦學習的模型性能;b)如何使眾多客戶端自愿參與聯邦學習,并向聯邦學習中心誠實披露真實的私有信息。為解決上述問題,本文提出聯邦學習的激勵機制。

1.2 激勵機制問題定義

任務發布者在預算有限的條件下,期望獲得一個高性能的模型。因此在設計激勵機制的時候需要綜合考慮客戶端提交的模型質量相關信息以及其報價。從以前的研究中得知,模型精度與數據量相關[19,除此之外,還受到客戶端數據分布到任務發布者測試集數據分布的EMD距離[17以及數據類別的數量18影響。

假設Di為客戶端i用于參加聯邦學習數據的分布信息,聯邦學習任務相關的數據有k類(一般來說統計各客戶端數據分布時,只關心與聯邦學習任務相關的那部分),則Di=(D1i,D2i,…,Dki)。任務發布者測試集數據分布為Dtask=(D1task,D2task,…,Dktask)。本文用EMDi來表示客戶端i到任務發布者測試集數據分布的EMD距離。EMDi的具體定義為

聯邦學習激勵機制定義如下。

定義1 聯邦學習激勵機制(federated learning incentive mechanism,FILM)。

a)存在一組可供選擇的客戶端? ={1,2,…,n},每個客戶端i∈?具有一個信息組bi=(ci,ζi)。信息ζi指的是客戶端i的數據集相關私有信息。信息ci指的是客戶端i因參與訓練模型期望得到的最低報酬(一般可用客戶端本地的訓練成本表示)。其中向量ζ=(ζ1,ζ2,…,ζn),報價信息向量c=(c1,c2,…,cn),信息組b=(b1,b2,…,bn)。

從個人理性的角度考慮,客戶端效用應該是非負的:

其中:pi是支付給客戶端i的報酬;ui為客戶端i的效用。

b)系統收到客戶端提交的信息后,通過計算并向它們公布參與的客戶端,用向量X(b)=(xi(b),i∈?)表示(如果xi=1則表示該客戶端參與聯邦學習任務),以及向客戶端支付的報酬,用向量P(b)=(pi(b),i∈?)表示。因此,任務發布者的效用函數為

其中:g(ε*)為任務發布者的收益函數,其定義為最終模型在測試集上的準確率ε*的相關函數(g取決于任務發布者通過最終模型從市場中獲得的收入)。

c)在預算限制下除了需要盡可能獲得最優的ε*值還需要滿足以下性質:

(a)個人理性。對于每一個客戶端來說,個人理性表現在客戶端的效用ui始終大于等于0。

(b)誠實性。當某個客戶i提交虛假信息b′i,并不能獲得更高的報酬,即ui(bi,b′-i)≥ui(b′i,b′-i)。

(c)預算可行性。向客戶端累計支付的報酬不能超過預算,即∑ni=1p(b)xi(b)≤R。

2 激勵機制設計

本章首先考慮一種基本的客戶端選擇機制,包括如何篩選客戶端以及其支付規則。接著在此基礎上加入EMD 距離的篩選方式,提出了一種有效的聯邦學習激勵機制以此來適應數據不平衡的情況。最后給出該機制的性質以及相關證明。

2.1 不考慮數據分布的聯邦學習激勵機制(FLIM)

由于聯邦學習精度與參與聯邦學習的數據量大小有關,并且數據量越大,學習精度越高[14。那么通常來說,在預算有限的情況下,篩選到盡可能多的數據參與聯邦學習任務是任務發布者所期望的。即先不考慮客戶端本身與模型精度相關的信息。各客戶端數據量相等的情況下,只優先選擇報價低的客戶。具體的機制算法如下所示。

算法1 不考慮客戶端數據分布的選擇機制

輸入:訓練成本c; 預算R。

輸出:分配向量X;支付向量P。

1 X=0;//初始化

2 按照c1≤c2≤…≤cn排序;

3 for j=1 to n do

4 if cjgt;R/j then

5 for i=1 to j-1 do

6 pi=min R(j-1),cj

7 end for

8 break;

9 end if

10 xj=1;

11 end for

12 return分配向量X,支付向量P.

每個客戶端i提交的信息僅為其本地訓練的成本ci,然后按照成本報價從小到大進行排序,即c1≤c2≤…≤cn。一旦找到滿足cjgt;R/j的最小索引j,則選擇{1,2,…,j-1}參與聯邦學習任務,同時支付給參與的客戶端i的報酬為pi=min{R/(j-1),cj}。

2.2 基于數據特征—EMD的聯邦學習激勵機制(EMD-FLIM)

在上一節中本文考慮了在預算有限的情況下盡可能地選擇更多的客戶端參與聯邦學習任務,即希望整個聯邦學習系統中擁有更多的訓練數據。但是在FedAvg算法下聯邦學習的精度并不是完全由數據量決定的,并且數據量增長到一定程度,隨著數據量的增加,模型精度的改善并不明顯。因此,本文考慮在機制中加入基于數據特征-EMD 距離的客戶端篩選方式。

于是,需要客戶端提交的信息ζi為客戶端本地數據分布情況Di,等客戶端提交完成后再根據式(3)計算出其對應的EMD距離。接著本文將模型精度相關信息定義為

其中:δi為系統對客戶端i本地數據分布的一個評價指標,該指標越大意味著該客戶端的本地數據分布越好,具體的機制如算法2所示。

算法2 基于數據特征EMD的聯邦學習激勵機制(EMD-FLIM)

輸入:信息b;預算R。

輸出:分配向量X;支付向量P。

1 X=0;//初始化

2 根據式(6)計算δ向量;

3 按照c11≤c22≤…≤cnn排序;

4 for j=1 to n do

5 if cjjgt;R/∑ji=1δi then

6 for i=1 to j-1 do

7 pii·min{R/∑j-1i=1δi,cjj};

8 end for

9 break;

10 end if

11 xj=1;

12 end for

13 return分配向量X,支付向量P.

a)首先,每個客戶端i∈?向交易系統提交信息bi=(ci,Di)。

b)接下來,系統通過計算并向它們公布參與的客戶端,用向量X(b)=(xi,i∈?)表示,以及向客戶端支付的報酬,用向量P(b)=(pi,i∈?)表示。可以看出,算法首先按照式(6)計算出每個客戶端模型精度相關信息δi。然后按照c11≤c22≤…≤cnn對客戶端進行排序。此時EMD距離越大且報價越高的客戶端排名就越靠后。如算法4~11行所示,本文將滿足cjjgt;R/∑ji=1δi條件的客戶端j作為關鍵客戶,選擇{1,2,…,j-1}參與聯邦學習任務,即對于i∈{1,2,…,j-1},xi=1,同時支付給參與的客戶端i的報酬為pii·min{R/∑j-1i=1δi,cjj}。

2.3 EMD-FLIM的性質分析

本節將分析EMD-FLIM的性質,證明EMD-FLIM具有真實性、個人理性和預算可行性。

定理1 EMD-FLIM具有誠實性。

證明 從算法2中可以看出,支付給客戶端i的報酬pi隨著δi單調遞增,即更優的EMDi意味著可以得到更高的報酬,那么在不用選取全部數據參與聯邦學習的情況下,每個客戶端都會選擇擁有最優EMDi的一批數據D*i來參與聯邦學習,因此接下來只需證明客戶端無法通過虛報成本來獲得更高的利益即可。

假設客戶端i虛假報價c′i,而對于自己本地數據分布都會選擇最優的D*i,于是令bi=(ci,D*i),b′i=(c′i,D*i)。

先考慮b′igt;bi的情況:

情形1 假設b′i和bi最終都可以得到分配,而由于支付閾值min{R/∑j-1i=1δi,cjj}與客戶端i的成本報價無關,所以按照真實成本報價的效用ui等于虛假成本報價的效用u′i

情形2 假設b′i得到分配,而bi未得到分配,這意味著c′iilt;cii,即b′ilt;bi,這與先前假設相悖,因此不存在此情形。

情形3 假設bi得到分配,而b′i未得到分配,那么uigt;u′i=0。

情形4 bi和b′i均為得到分配,則ui=u′i=0。

接下來,考慮b′ilt;bi 的情況:

情形1 假設b′i和bi最終都可以得到分配,而由于支付閾值min{R/∑j-1i=1δi,cjj}與客戶端i的成本報價無關,所以按照真實成本報價的效用ui等于虛假成本報價的效用u′i

情形2 假設b′i得到分配,而i未得到分配,由于b′ilt;bi,所以u′i=pi-c′ilt;pi-ci=ui=0。

情形3 假設bi得到分配,而b′i未得到分配,這意味著ciilt;c′ii,即bi lt;b′i 與先前假設相悖,因此不存在此情形。

情形4 bi和b′i均為得到分配,則ui=u′i=0。

綜上,不論在何種情況下,提交虛假的b′i并不能提高自己的效用,因此對于客戶端i來說總會誠實地提交自己的信息bi

定理2 EMD-FLIM具有預算可行性和個人理性。

證明 對于任意一個參與聯邦學習任務的客戶端i的效用 ui=pi-ci=min{R/∑j-1i=1δi,cjj}·δi-ci。由算法2可知對于i∈{1,2,…,j-1}有cii≤cj-1/δj-1≤R/∑j-1i=1δi,因此R·δi/∑j-1i=1δi≥cii·δi= ci,又cjj·δi≥cii·δi=ci ,因此min{R/∑j-1i=1δi,cjj}· δi ≥ci,即pi-ci≥0。因此該機制始終滿足個人理性。

任務發布者支付給客戶端的報酬之和為∑ji=1pi ·xi=∑j-1i=0 min{(R·δi)/∑j-1i=1δi,cj·δjj}≤∑j-1i=1(R·δi)/∑j-1i=1δi=R。因此,機制同時也滿足預算可行性。

定理3 EMD-FLIM滿足計算有效性。

假設有n個參與者,那么將參與者進行排序(第3行)的時間復雜度為O(n log2n)。選擇參與者的時間復雜度為O(m)。因此算法2的總體時間復雜度為O(n log2n)+O(m)。

3 實驗分析

3.1 相關參數設置

本文在Anaconda創建的虛擬環境下使用TensorFlow_GPU-2.3.1評估所提出的激勵機制的性能。其中,數據集采用MNIST [20和 CIFAR-10 [21。這兩個數據集是具有10個輸出類別的圖像分類任務相關的數據集。其中 MNIST 數據集包含60 000個訓練樣本和10 000個測試樣本。而CIFAR-10數據集包含了50 000個訓練樣本和10 000個測試樣本。

本文將這兩個訓練集分成20個客戶端,每個客戶端的報價在[4δi,6δi]隨機生成,本地的數據分布也隨機生成(具體的生成方式見4.2節)。為了方便起見,本文將每個客戶端的數據量固定為1 000。此外,本文使用與文獻[3]相同的卷積神經網絡(CNN)架構作為客戶端本地的模型。該CNN架構由兩個5×5 的卷積層組成(第一個擁有32個通道,第二個擁有64個通道,每個卷積層后都有2×2的最大池化層),接著有一個512個單元和ReLU激活的全連接層,以及最終的softmax 輸出層。

對于全局模型的更新,本文也采用文獻[3]中的FedAvg聯邦平均算法。相關參數如表1所示,η表示學習率。

3.2 不平衡數據集劃分

為了體現本文機制在數據分布不平衡情況下的性能,期望每個客戶端本地數據分布的EMD距離盡可能不同。

因此,首先本文為每個客戶端生成其本地數據擁有的類別個數(比如擁有1類數據,2類數據等)。再根據每個類別有或者無的情況隨機生成其具體數量,每個客戶端總的數量均需滿足為1 000。這樣可以盡量讓各客戶端的EMD距離不相同,保證數據分布的不平衡性。

為了充分體現本文提出機制的性能,從多次隨機劃分的數據中選出具有代表性的以下三種類型來進行模擬實驗:

a)20個客戶端的EMD距離離散程度很大,一半的客戶端EMD距離大于0.5,另一半則低于0.5,聯邦學習系統中整體數據分布不平衡。

b)有5個客戶端EMD距離較大,EMD距離大于0.5。剩下15個客戶端的EMD距離集中分布在0.5以下。

c)20個客戶端的EMD距離全都分布在0.5以下,全部客戶端的EMD距離情況較好,數據分布較為均衡。

3.3 實驗結果

首先按照3.2節所示,為MNIST和CIFAR-10數據集都設置了三種類型的數據集劃分,并且每個客戶端也都相應地擁有自己的成本報價 c。

然后設置10個預算,從100到1 000等差遞增。在預算限制下,進行客戶端選擇。對于客戶端選擇本文設置了多種基準:a)FMore激勵機制[18,該機制選擇客戶端時考慮了數據大小和數據類別,為了方便與它比較,本文將其從n個客戶端中選取K個客戶端改為預算限制下選擇客戶;b)算法1所示的FLIM,考慮了機制的真實性;c)EMD-Greedy,與算法2一樣優先選擇EMD低且報價低的客戶端,但是支付給客戶端的價格為其報價。那么在相同預算下,EMD-Greedy可能比EMD-FLIM選擇更多的客戶端,即為算法2的最優情形,但理性的客戶端在該機制下無法誠實報價,因此現實無法達到該情形。

需要說明的是,由于機器學習本身的特性,即使兩次訓練都選擇相同的數據集和客戶端,訓練出的模型精度也有略微差異。所以預算限制下,如果不考慮誠實性的機制和誠實的機制恰好選擇相同客戶端,也會出現誠實機制的模型精度更高的情況。

本文將上述三種基準以及本文EMD-FLIM在不同預算下進行客戶端選擇,然后完成聯邦學習訓練,得到以下幾個結論:

a)當預算增加時,聯邦學習的模型精度也會提升。因為隨著預算的增加,聯邦學習系統中將擁有更多的客戶端參與進來,即擁有更多的數據量,在一定程度上來說可以提高模型的精度,即提高模型在任務發布者測試集上的準確率。

b)如圖2~4所示,本文所提出的EMD-FLIM在數據集分布不平衡時,要明顯優于算法1所示的FLIM機制。本文將10個預算下的結果進行了平均,如表2所示,在MNIST數據集上模型精度 平均提高了7.8%,CIFAR-10數據集上提高了11.7%。與FMore提出的激勵機制相比,MNIST上也提高了4.5%,CIFAR-10上提高了6.2%,平均提高5%以上。

c)在EMD-FLIM下,聯邦學習模型精度與EMD-Greedy下相差不大,最低能達到最優數據量選擇下的94%以上。在保證機制真實情況下的同時,本文所提出的激勵機制的客戶端選擇接近最優選擇。

4 結束語

本文考慮了預算限制下的客戶端選擇和支付分配的問題,提出了一種基于客戶端本地數據分布的聯邦學習激勵機制,并且從理論上證明了上述機制具有誠實性、個人理性和預算可行性。激勵機制可使擁有數據的客戶端自愿加入聯邦學習,并誠實披露私有的相關信息。

本文對提出的機制測試了不同數據分布下的模型性能。實驗結果顯示,與其他同類型的聯邦學習激勵機制相比較,本文提出的機制在數據分布不平衡情況下,模型精度更高,能達到數據量最優選擇(不考慮誠實性問題)下的94%以上。

未來本文將考慮更多影響模型精度的因素, 將本文的激勵方案擴展到多維度以適應更多場景。

參考文獻:

[1]LeCun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.

[2]魏立斐,陳聰聰,張蕾,等.機器學習的安全問題及隱私保護[J].計算機研究與發展,2020,57(10):2066-2085.(Wei Lifei,Chen Congcong,Zhang Lei,et al.Security issues and preserving in machine learning[J].Journal of Computer Research and Development,2020,57(10):2066-2085.)

[3]McMahan B,Moore E,Ramage D,et al.Communication-efficient learning of deep networks from decentralized data[C]//Proc of the 20th International Conference on Artificial Intelligence and Statistics.New York:PMLR Press,2017:1273-1282.

[4]Hard A,Rao K,Mathews R,et al.Federated learning for mobile keyboard prediction[EB/OL].(2018)[2021-11-04].https://arxiv.org/pdf/1811.03604.pdf.

[5]Liu Yang,Fan Tao,Chen Tianjian,et al.FATE:an industrial grade platform for collaborative learning with data protection[J].Journal of Machine Learning Research,2021,22(226):1-6.

[6]Liu Wei,Chen Li,Chen Yunfei,et al.Accelerating federated learning via momentum gradient descent[J].IEEE Trans on Parallel and Distributed Systems,2020,31(8):1754-1766.

[7]王惜民,范睿.基于類別不平衡數據聯邦學習的設備選擇算法[J].計算機應用研究,2021,38(10):2968-2973.(Wang Ximin,Fan Rui.Device selection in federated learning under class imbalance[J].Application Research of Computers,2021,38(10):2968-2973.

[8]Shayan M,Fung C,Yoon C J M,et al.Biscotti:a ledger for private and secure peer-to-peer machine learning[EB/OL].(2019-12-12).https://arxiv.org/abs/1811.09904.

[9]Kim H,Park J,Bennis M,et al.Blockchained on-device federated learning[J].IEEE Communications Letters,2019,24(6):1279-1283.

[10]Kang Jiawen,Xiong Zehui,Niyato D,et al.Incentive design for efficient federated learning in mobile networks:a contract theory approach[C]//Proc of IEEE VTS APWCS.Piscataway,NJ:IEEE Press,2019:1-5.

[11]Pandey S R,Tran N H,Bennis M,et al.A crowdsourcing framework for on-device federated learning[J].IEEE Trans on Wireless Communications,2020,19(5):3241-3256.

[12]Li Yunpeng,Courcoubetis C,Duan Lingjie.Recommending paths:follow or not follow?[C]//Proc of IEEE Conference on Computer Communications.Piscataway,NJ:IEEE Press,2019:928-936.

[13]Zhan Yufeng,Li Peng,Wang Kun,et al.Big data analytics by crowdlear-ning:architecture and mechanism design[J].IEEE Network,2020,34(3):143-147.

[14]Gu Baohua,Hu Feifang,Liu Huan.Modelling classification perfor-mance for large data sets[C]//Proc of the 2nd International Confe-rence on Web-Age Information Management.Berlin:Springer,2001:317-328.

[15]Cong Mingshu,Yu Han,Weng Xi,et al.A VCG-based fair incentive mechanism for federated learning[EB/OL].(2020-08-15).https://arxiv.org/abs/2008.06680.

[16]Zhang Jingwen,Wu Yuezhou,Pan Rong.Incentive mechanism for ho-rivzontal federated learning based on reputation and reverse auction[C]//Proc of the Web Conference.2021:947-956.

[17]Zhao Yue,Li Meng,Lai Liangzhen,et al.Federated learning with non-IID data[EB/OL].(2022-07-21).https://arxiv.org/abs/1806.00582.

[18]Zeng Rongfei,Zhang Shixun,Wang Jiaqi,et al.FMore:an incentive scheme of multi-dimensional auction for federated learning in MEC[C]//Proc of the 40th International Conference on Distributed Computing Systems.Piscataway,NJ:IEEE Press,2020:278-288.

[19]Hu Rui,Gong Yanmin.Trading data for learning:incentive mechanism for on-device federated learning[C]//Proc of IEEE Global Communications Conference.Piscataway,NJ:IEEE Press,2020:1-6.

[20]LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

[21]Krizhevsky A,Hinton G.Learning multiple layers of features from tiny images[J].Handbook of Systemic Autoimmune Diseases,2009,1(4):1-58.

主站蜘蛛池模板: 日韩毛片免费观看| 日日拍夜夜嗷嗷叫国产| 久草热视频在线| 毛片视频网址| 国产地址二永久伊甸园| 欧美色综合网站| 欧美日韩高清在线| 一级香蕉视频在线观看| 色综合中文综合网| 91热爆在线| 2024av在线无码中文最新| 四虎国产精品永久一区| 久久五月天国产自| 亚洲有无码中文网| 国产精品性| 国产丝袜第一页| av尤物免费在线观看| 看你懂的巨臀中文字幕一区二区| 欧美成人精品在线| 国产成人综合日韩精品无码不卡| 亚洲视频黄| 亚洲侵犯无码网址在线观看| jizz亚洲高清在线观看| 日本午夜视频在线观看| 欧美成人午夜视频免看| 国产福利大秀91| 免费一级全黄少妇性色生活片| 国产精品尤物在线| 国产欧美综合在线观看第七页| 国产成人亚洲无吗淙合青草| 毛片在线播放网址| 国产精品亚洲综合久久小说| 激情影院内射美女| av一区二区人妻无码| 日韩精品成人在线| 毛片在线播放a| 国产无遮挡猛进猛出免费软件| 亚洲国产天堂久久综合226114| 欧美激情首页| 熟女成人国产精品视频| 亚洲综合18p| 欧美成人午夜影院| 日本爱爱精品一区二区| 亚洲精品免费网站| 97人妻精品专区久久久久| 天天色综合4| 毛片一级在线| 亚洲AV无码乱码在线观看代蜜桃| 99久久精品国产麻豆婷婷| 久久6免费视频| 欧美在线伊人| 亚洲美女一区二区三区| 91久久国产综合精品女同我| 免费人欧美成又黄又爽的视频| 国产在线八区| 亚洲人成网站色7799在线播放| 天天色天天操综合网| 四虎精品免费久久| 亚洲欧洲日韩综合色天使| 综合色88| 99精品视频播放| 国产视频大全| 色综合五月| 亚洲视频免费在线| 色窝窝免费一区二区三区| 欧美丝袜高跟鞋一区二区| av天堂最新版在线| 午夜综合网| 最近最新中文字幕在线第一页 | 亚洲水蜜桃久久综合网站| 成人久久精品一区二区三区| 在线国产欧美| 第一区免费在线观看| 日韩一区二区在线电影| 色综合狠狠操| 欧美日本激情| 欧美www在线观看| 成人精品视频一区二区在线| 国产成人亚洲精品蜜芽影院| 97精品国产高清久久久久蜜芽| 丰满少妇αⅴ无码区| 青青久久91|