999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于合作博弈和知識(shí)蒸餾的個(gè)性化聯(lián)邦學(xué)習(xí)算法

2023-11-18 08:50:18孫艷華史亞會(huì)楊睿哲司鵬搏
電子與信息學(xué)報(bào) 2023年10期
關(guān)鍵詞:模型

孫艷華史亞會(huì) 李 萌 楊睿哲 司鵬搏

(北京工業(yè)大學(xué)信息學(xué)部 北京 100124)(北京工業(yè)大學(xué)先進(jìn)信息網(wǎng)絡(luò)北京實(shí)驗(yàn)室 北京 100124)

1 引言

聯(lián)邦學(xué)習(xí)(Federated Learning,FL)是一種去中心化、保護(hù)數(shù)據(jù)隱私的分布式機(jī)器學(xué)習(xí)[1],由中心服務(wù)器調(diào)控,多個(gè)客戶(hù)端相互協(xié)作共同訓(xùn)練得到一個(gè)共享模型,并且不需要直接訪問(wèn)客戶(hù)端的私有數(shù)據(jù),從而在一定程度上避免了隱私泄露。

但是FL的有效實(shí)現(xiàn)很大程度上依賴(lài)于客戶(hù)端之間相似的數(shù)據(jù)分布以及完全相同的模型架構(gòu),而在絕大多數(shù)實(shí)際場(chǎng)景中客戶(hù)端數(shù)據(jù)往往是非獨(dú)立同分布(Non-Independent Identically Distributed,Non-IID)的[2],這導(dǎo)致FL訓(xùn)練的共享模型不能滿(mǎn)足每一個(gè)客戶(hù)端的需求。另外,在醫(yī)療保健、人工智能等領(lǐng)域,每個(gè)客戶(hù)端需獨(dú)立設(shè)計(jì)模型來(lái)滿(mǎn)足自身的需求。而個(gè)性化聯(lián)邦學(xué)習(xí)(Personalized Federated Learning,PFL)則充分考慮了FL的異構(gòu)性影響。

為了解決FL中客戶(hù)端隱私數(shù)據(jù)Non-IID的問(wèn)題,文獻(xiàn)[3]提出了一種聯(lián)邦遷移學(xué)習(xí)方法,將本地模型視為“基礎(chǔ)層+個(gè)性化層”,基礎(chǔ)層負(fù)責(zé)共享,個(gè)性化層進(jìn)行本地訓(xùn)練。文獻(xiàn)[4]則混合本地模型和全局模型,采用正則函數(shù)在兩種模型之間找到一個(gè)折中,從而提高本地精度。文獻(xiàn)[5]利用元學(xué)習(xí)找到一個(gè)初始的共享模型,使客戶(hù)端能只進(jìn)行1步或者幾步梯度下降便能快速適應(yīng)本地?cái)?shù)據(jù)集。文獻(xiàn)[6]在每次全局迭代中確定聚類(lèi)簇,并在簇內(nèi)進(jìn)行個(gè)性化訓(xùn)練來(lái)提高客戶(hù)端的個(gè)性化精度。文獻(xiàn)[7]在客戶(hù)端隱私數(shù)據(jù)集上用夏普利值來(lái)衡量客戶(hù)端數(shù)據(jù)相似度并進(jìn)行FL。然而上述方法僅針對(duì)客戶(hù)端數(shù)據(jù)Non-IID問(wèn)題,且需要客戶(hù)端模型結(jié)構(gòu)和大小相同。

受知識(shí)蒸餾(Know ledge Distillation,KD)可以通過(guò)交換軟預(yù)測(cè)而不是整個(gè)模型參數(shù)來(lái)將知識(shí)從一個(gè)神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)移到另一個(gè)神經(jīng)網(wǎng)絡(luò)的思想的啟發(fā)[8],文獻(xiàn)[9]提出了聯(lián)邦模型蒸餾(Federated learning w ith M odel Distillation,FedMD)算法,以保護(hù)隱私的方式協(xié)同訓(xùn)練異構(gòu)模型。文獻(xiàn)[10]采用集成蒸餾,在每次全局迭代中將所有異構(gòu)客戶(hù)端模型的知識(shí)遷移到全局模型。然而這些算法忽略了參與訓(xùn)練的客戶(hù)端進(jìn)一步的個(gè)性化需求。文獻(xiàn)[11]提出了知識(shí)遷移個(gè)性化聯(lián)邦學(xué)習(xí)(Know ledge T ransfer for personalized Federated Learning,KT-pFL)算法,將成對(duì)客戶(hù)端相似度進(jìn)行參數(shù)化,并采用KD將個(gè)性化軟預(yù)測(cè)的知識(shí)遷移到本地。文獻(xiàn)[12]采用集群共蒸餾將具有相似數(shù)據(jù)分布的客戶(hù)端的知識(shí)遷移到本地。然而這些算法都是通過(guò)成對(duì)客戶(hù)端的相似性來(lái)進(jìn)行個(gè)性化知識(shí)遷移的,而最近一些研究發(fā)現(xiàn)模型聚合本質(zhì)上是一種合作博弈[13],客戶(hù)端之間的影響是多重的,僅僅依靠1對(duì)1的模型相似性來(lái)衡量客戶(hù)端之間數(shù)據(jù)以及模型的相似度并確定模型聚合系數(shù)的方法往往忽略了這一點(diǎn)。

綜上所述,目前大多數(shù)的個(gè)性化聯(lián)邦學(xué)習(xí)研究都建立在同構(gòu)模型的基礎(chǔ)上,或者只考慮了成對(duì)客戶(hù)端協(xié)作時(shí)的相似度。本文提出的基于合作博弈和知識(shí)蒸餾的個(gè)性化聯(lián)邦學(xué)習(xí)(personalized Federated learning w ith Collation gam e and Knowledge distillation,pFedCK)算法不僅打破了FL中客戶(hù)端數(shù)據(jù)獨(dú)立同分布和模型架構(gòu)相同的局限,而且利用合作博弈論中的夏普利值(Shap ley Value,SV)[14]來(lái)評(píng)估合作聯(lián)盟中的每個(gè)客戶(hù)對(duì)其他客戶(hù)端的個(gè)性化學(xué)習(xí)過(guò)程的累計(jì)貢獻(xiàn)值,并以此確定聯(lián)盟中每個(gè)客戶(hù)端局部軟預(yù)測(cè)的聚合系數(shù),最后利用KD將聚合的個(gè)性化軟預(yù)測(cè)的知識(shí)遷移到本地模型,并在本地的隱私數(shù)據(jù)集上進(jìn)行個(gè)性化訓(xùn)練,提高個(gè)性化精度。

2 相關(guān)工作

2.1 合作博弈

博弈論既可以用來(lái)競(jìng)爭(zhēng)也可以用來(lái)合作,并據(jù)此可以分為合作博弈和非合作博弈,其中合作博弈是指參與者以同盟、合作的方式進(jìn)行不同聯(lián)盟之間的對(duì)抗,關(guān)注的是達(dá)成合作時(shí)如何分配合作得到的收益[15]。

合作博弈中的SV用來(lái)計(jì)算累計(jì)貢獻(xiàn)的均值,是一種分配方式,往往貢獻(xiàn)越大,收益就相對(duì)越多。將SV引入PFL可以通過(guò)分析聯(lián)盟聚合時(shí)的多重影響來(lái)評(píng)估每個(gè)客戶(hù)端對(duì)其他客戶(hù)端個(gè)性化學(xué)習(xí)的累計(jì)貢獻(xiàn)。FL中的每個(gè)客戶(hù)端相當(dāng)于合作博弈中的一個(gè)玩家,其中N={1,2,...,n}為所有客戶(hù)端的集合,C為集合N的任意子集,可用來(lái)表示一個(gè)聯(lián)盟,v(C)為 聯(lián)盟C中所有元素合作產(chǎn)生的整體效益,一般定義v(?)=0,采用SV可以將聯(lián)盟的整體效益進(jìn)行分配,收益φj(v)(j ∈C)表示客戶(hù)端j在集合N的所有子集中產(chǎn)生的貢獻(xiàn)的累計(jì)均值

2.2 知識(shí)蒸餾

知識(shí)蒸餾是一種基于“教師-學(xué)生”思想的模型壓縮方法,一般用于將復(fù)雜模型的知識(shí)壓縮到較為簡(jiǎn)單的模型中。通常先訓(xùn)練好一個(gè)教師網(wǎng)絡(luò),然后將教師網(wǎng)絡(luò)的輸出結(jié)果作為學(xué)生網(wǎng)絡(luò)學(xué)習(xí)的目標(biāo),從而訓(xùn)練學(xué)生網(wǎng)絡(luò)使其輸出不斷接近教師網(wǎng)絡(luò)。因此KD損失包含兩部分,一部分為軟損失,另一部分為本地訓(xùn)練損失。

然而在軟損失中,直接使用教師網(wǎng)絡(luò)中softmax層的輸出結(jié)果會(huì)過(guò)濾掉大量的有用信息,因此一般采用溫度參數(shù)T(T >0)來(lái)平滑各個(gè)類(lèi)別對(duì)應(yīng)的概率分布,softmax函數(shù)就是T=1時(shí)的特例,T的值越大,softmax層的輸出概率分布就越趨于平滑,負(fù)標(biāo)簽攜帶的信息會(huì)被相對(duì)地放大

其中,x表 示學(xué)生網(wǎng)絡(luò)的數(shù)據(jù)集,Mstu表示學(xué)生模型,Mtea表示教師模型,并且采用KL(Ku llback-Leible)散度衡量?jī)蓚€(gè)模型之間的差距。則KD的總損失可以表示為

其中,λ∈(0,1)為加權(quán)系數(shù),用于控制學(xué)生學(xué)習(xí)教師的程度,Lcro為交叉熵?fù)p失函數(shù),y是學(xué)生端數(shù)據(jù)的標(biāo)簽。

3 基于合作博弈和知識(shí)蒸餾的個(gè)性化聯(lián)邦學(xué)習(xí)算法

3.1 訓(xùn)練目標(biāo)

本文的訓(xùn)練目標(biāo)在于為一組在FL中數(shù)據(jù)Non-IID并且模型架構(gòu)不同的客戶(hù)端協(xié)作訓(xùn)練個(gè)性化模型。假設(shè)客戶(hù)端N={1,2,...,n},每個(gè)客戶(hù)端i只能訪問(wèn)隱私數(shù)據(jù)集D i。在傳統(tǒng)的FL中,學(xué)習(xí)目標(biāo)為得到一個(gè)全局模型ω使所有客戶(hù)端的總經(jīng)驗(yàn)損失最小

其中,L i(ω,D i)是客戶(hù)端i的本地?fù)p失函數(shù)。然而式(4)要求所有客戶(hù)端有統(tǒng)一的模型架構(gòu),且在本地?cái)?shù)據(jù)Non-IID時(shí)訓(xùn)練效果明顯下降。因此本文在此基礎(chǔ)上將客戶(hù)端i的本地?fù)p失函數(shù)定義為

其中,Dp表示公共數(shù)據(jù)集,每個(gè)參與訓(xùn)練的客戶(hù)端均可訪問(wèn),為經(jīng)過(guò)合作博弈后聚合得到的客戶(hù)端i的個(gè)性化軟預(yù)測(cè),l ogiti為客戶(hù)端i的局部軟預(yù)測(cè),進(jìn)而pFedCK算法的訓(xùn)練目標(biāo)可以表示為

3.2 pFedCK算法

pFedCK算法的具體過(guò)程如算法1所示。

遷移學(xué)習(xí):為避免客戶(hù)端私有數(shù)據(jù)稀缺對(duì)訓(xùn)練結(jié)果造成影響,在FL訓(xùn)練之前,采用遷移學(xué)習(xí)使客戶(hù)端先在Dp上 訓(xùn)練至收斂,然后在Di上進(jìn)行微調(diào)。

然后根據(jù)SV將合作聯(lián)盟的整體效益分配給聯(lián)盟中的每個(gè)客戶(hù),表示它在的所有子集X中對(duì)當(dāng)前客戶(hù)端i個(gè)性化學(xué)習(xí)的貢獻(xiàn)的累計(jì)均值

然后將下載的k個(gè)軟預(yù)測(cè)以及客戶(hù)端i的局部軟預(yù)測(cè)進(jìn)行聚合得到個(gè)性化軟預(yù)測(cè)

其中,p,q分別為客戶(hù)端i的本地軟預(yù)測(cè)和聚合的個(gè)性化軟預(yù)測(cè)的比例系數(shù)。

其中,ωi為客戶(hù)端i的模型參數(shù),η1,η2為學(xué)習(xí)率,L i(ω,D i)則 為客戶(hù)端i在隱私數(shù)據(jù)集Di上 的損失函數(shù)。

4 實(shí)驗(yàn)仿真

4.1 仿真設(shè)置

實(shí)驗(yàn)基于Tensorflow進(jìn)行,并與FedMD算法、首k聯(lián)邦學(xué)習(xí)(Top k-Federated Learning,Topk-FL)算法以及KT-pFed算法進(jìn)行比較,其中Topk-FL算法僅根據(jù)余弦相似度從服務(wù)器端下載k個(gè)軟預(yù)測(cè)進(jìn)行平均,進(jìn)而在本地進(jìn)行學(xué)習(xí)。所有算法的性能都通過(guò)所有客戶(hù)端的平均測(cè)試精度來(lái)評(píng)估。

數(shù)據(jù)集:在兩種數(shù)據(jù)場(chǎng)景下進(jìn)行實(shí)驗(yàn)。

(1)公共數(shù)據(jù)集是國(guó)家技術(shù)與標(biāo)準(zhǔn)混合研究所(M ixed National Institute of Standards and Technology,MN IST)數(shù)據(jù)集,隱私數(shù)據(jù)集是擴(kuò)展MN IST(anExtension of MNIST,EMNIST)數(shù)據(jù)集。對(duì)于隱私數(shù)據(jù)集采用IID和兩種Non-IID情況,在Non-IID 1中,每個(gè)客戶(hù)端只有EMNIST中一類(lèi)作者的字,且樣本數(shù)量相同,在Non-IID 2中每個(gè)客戶(hù)端有EMNIST中所有作者的字,但是樣本總量不同。兩種情況下都要求在測(cè)試時(shí)對(duì)所有作者的字進(jìn)行分類(lèi)。

算法1 pFedCK算法

(2)公共數(shù)據(jù)集是CIFAR 10,隱私數(shù)據(jù)集是CIFAR100。CIAR100數(shù)據(jù)集有20個(gè)超類(lèi),每個(gè)超類(lèi)包含5個(gè)子類(lèi),每個(gè)類(lèi)有600張大小為32× 32的彩色圖像。同樣地,對(duì)于隱私數(shù)據(jù)集同樣采用IID和兩種Non-IID情況,在Non-IID 1中,訓(xùn)練時(shí)每個(gè)客戶(hù)端只包含1個(gè)大類(lèi)中的1個(gè)子類(lèi),且樣本數(shù)量相同,在Non-IID 2中每個(gè)客戶(hù)端包含所有的類(lèi),但是每個(gè)類(lèi)的樣本數(shù)不同,即每個(gè)客戶(hù)端的樣本總數(shù)不同,兩種情況下測(cè)試時(shí)都需要將通用的測(cè)試數(shù)據(jù)集分類(lèi)為正確的大類(lèi)。

模型架構(gòu):實(shí)驗(yàn)采用了3種不同的模型結(jié)構(gòu),包括2層卷積神經(jīng)網(wǎng)絡(luò),3層卷積神經(jīng)網(wǎng)絡(luò)以及A lexNet,并將這3種模型分配給10個(gè)客戶(hù)端,每個(gè)客戶(hù)端的模型參數(shù)均不同。

實(shí)驗(yàn)細(xì)節(jié):本文設(shè)置全局迭代20次,本地迭代20次,本地蒸餾3次,且每次全局迭代中客戶(hù)端根據(jù)余弦相似度下載7個(gè)軟預(yù)測(cè)(即k=7),學(xué)習(xí)率η1,η2均為0.001,公共數(shù)據(jù)集為5000,p-q為0.3–0.7,λ為0.5,其余參數(shù)均按照各個(gè)算法的最優(yōu)設(shè)置。

4.2 仿真結(jié)果

本節(jié)展示了p Fed CK算法與FedM D算法、Topk-FL算法以及KT-p Fed算法的訓(xùn)練效果比較,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了詳細(xì)分析。

表1總結(jié)了4種算法的訓(xùn)練精度。在表1中,pFedCK算法能在隱私數(shù)據(jù)IID的情況下,將個(gè)性化精度在KT-p Fed算法的基礎(chǔ)上提高約7%,且在Topk-FL算法的基礎(chǔ)上提高約8%,在FedMD算法的基礎(chǔ)上提高約15%;在隱私數(shù)據(jù)集Non-IID 1的情況下,將個(gè)性化精度在KT-pFed算法的基礎(chǔ)上提高約3%,在Topk-FL算法的基礎(chǔ)上提高約5%,在FedMD算法的基礎(chǔ)上提高約10%;在隱私數(shù)據(jù)集Non-IID 2的情況下將個(gè)性化精度在KT-p Fed算法的基礎(chǔ)上提高約2%,在Topk-FL算法的基礎(chǔ)上提高約4%,在FedMD算法的基礎(chǔ)上提高約8%。這是因?yàn)镕edMD算法沒(méi)有考慮不同客戶(hù)端的個(gè)性化需求,TopK-FL算法沒(méi)有考慮客戶(hù)端之間相互協(xié)作的影響,KT-pFed算法只根據(jù)成對(duì)客戶(hù)端的相似性來(lái)決定其參數(shù)矩陣中的值并進(jìn)行個(gè)性化,而本文的pFedCK算法則采用合作博弈的思想考慮到了客戶(hù)端模型聚合時(shí)的多重影響,以此確定聚合系數(shù)來(lái)提高個(gè)性化。

表1 4種算法在不同數(shù)據(jù)集下的個(gè)性化精度

圖1和圖2分別展示了4種算法中10個(gè)客戶(hù)端在不同數(shù)據(jù)集訓(xùn)練過(guò)程中的平均訓(xùn)練精度曲線。由圖1可知,EMNIST數(shù)據(jù)集IID時(shí)pFedCK算法的訓(xùn)練精度能在其他3種算法的基礎(chǔ)上實(shí)現(xiàn)較高程度的提升,且訓(xùn)練速度明顯快于其他3種,而KT-pFed算法與Topk-FL算法的訓(xùn)練速度以及精度提升效果基本相當(dāng),均明顯遜色于pFedCK算法,F(xiàn)edMD算法則會(huì)在第10次全局迭代左右出現(xiàn)較明顯的浮動(dòng),相對(duì)不穩(wěn)定。隱私數(shù)據(jù)Non-IID1時(shí),客戶(hù)端數(shù)據(jù)異構(gòu),訓(xùn)練難度增大,pFedCK算法的訓(xùn)練精度同樣明顯優(yōu)于其他3種算法。TopK-FL算法的訓(xùn)練速度較快,在訓(xùn)練后半程訓(xùn)練精度和KT-pFed算法精度水平基本相當(dāng),而FedMD算法的訓(xùn)練精度則最低。隱私數(shù)據(jù)Non-IID2時(shí),數(shù)據(jù)異構(gòu)程度進(jìn)一步提高,4種算法的訓(xùn)練精度都有所下降,此時(shí)pFedCK算法相對(duì)于其他3種算法依然有較明顯的提升,而KT-pFed算法和Top-KL算法相對(duì)于FedMD算法的提升效果則相對(duì)較差。

圖1 MNIST-EMNIST中4種算法的平均精度

圖2 CIFAR10-CIFAR100中4種算法的平均精度

由圖2可知,由于CIFAR10-CIFAR100的數(shù)據(jù)復(fù)雜度相對(duì)較高,這種場(chǎng)景下4種算法實(shí)現(xiàn)的數(shù)據(jù)精度均低于MNIST-EMNIST數(shù)據(jù)場(chǎng)景,且浮動(dòng)較大,較為頻繁。CIFAR100數(shù)據(jù)集IID時(shí),pFedCK算法訓(xùn)練最快,且訓(xùn)練精度相對(duì)于其他3種算法能實(shí)現(xiàn)明顯的提升,而KT-pFed算法和Topk-FL算法的訓(xùn)練精度的提升幅度較低,且訓(xùn)練速度基本與FedMD算法持平,F(xiàn)edMD算法的訓(xùn)練精度則最低。CIFAR100數(shù)據(jù)集Non-IID1時(shí),由于本地?cái)?shù)據(jù)分布異構(gòu),訓(xùn)練過(guò)程中4種算法均出現(xiàn)較為頻繁的浮動(dòng),但pFedCK算法仍然能實(shí)現(xiàn)較快的訓(xùn)練速度以及最大幅度精度提升,而KT-pFed算法的訓(xùn)練速度較快,訓(xùn)練效果與Topk-FL算法基本持平且相對(duì)較差。CIFAR 100數(shù)據(jù)集Non-IID 2時(shí),4種算法的訓(xùn)練精度均進(jìn)一步降低,此時(shí)Topk-FL算法的訓(xùn)練效果提升幅度相對(duì)較差,KT-pFed算法在訓(xùn)練后半段出現(xiàn)較明顯的提升,而pFedCK算法此時(shí)仍然比其他3種算法的訓(xùn)練精度要高,并且訓(xùn)練穩(wěn)定性也較好。

綜上所述,客戶(hù)端模型異構(gòu)時(shí),pFedCK算法在不同數(shù)據(jù)集以及不同數(shù)據(jù)分布下均能獲得在同樣設(shè)置下優(yōu)于其他算法的效果。

4.3 超參數(shù)的影響

為了了解不同的訓(xùn)練參數(shù)對(duì)pFedCK算法效果的影響,本文在學(xué)習(xí)率η1,η2均為0.001的情況下在兩種不同的數(shù)據(jù)場(chǎng)景下進(jìn)行了各種實(shí)驗(yàn)。

本地迭代次數(shù):表2展示了不同本地迭代次數(shù)下pFedCK算法的平均精度。可以看出,在MNISTEMNIST數(shù)據(jù)場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)本地迭代次數(shù)為10的時(shí)候個(gè)性化精度最高,隱私數(shù)據(jù)Non-IID1和Non-IID2時(shí)本地迭代次數(shù)為20的時(shí)候個(gè)性化精度最高。在CIFAR10-CIFAR100場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)本地迭代次數(shù)為15的時(shí)候個(gè)性化精度最高,隱私數(shù)據(jù)Non-IID1和Non-IID 2時(shí)本地迭代次數(shù)為20的時(shí)候精度最高。可以看出,數(shù)據(jù)復(fù)雜程度越高,在本地訓(xùn)練的次數(shù)也越多。

表2 不同本地迭代次數(shù)下pFedCK算法的個(gè)性化精度

本地蒸餾次數(shù):表3展示了不同本地蒸餾次數(shù)下pFedCK算法的平均精度。可以看出,在MNISTEMNIST場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)本地蒸餾次數(shù)為5的時(shí)候個(gè)性化精度最高,隱私數(shù)據(jù)Non-IID 1和Non-IID 2時(shí)本地蒸餾次數(shù)為3時(shí)個(gè)性化精度最高。在CIFAR10-CIFAR100數(shù)據(jù)場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)本地蒸餾次數(shù)為3時(shí)個(gè)性化精度最高,而隱私數(shù)據(jù)Non-IID1和Non-IID2時(shí)本地蒸餾次數(shù)為2時(shí)個(gè)性化精度最高。由此可知數(shù)據(jù)復(fù)雜程度越高時(shí),本地蒸餾次數(shù)越低,越有利于本地個(gè)性化訓(xùn)練。

表3 不同本地蒸餾次數(shù)下pFedCK算法的個(gè)性化精度

p,q:表4展示了不同p,q下pFedCK算法的平均精度變化。可以看出在MNIST-EMNIST數(shù)據(jù)場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)p,q為0.1,0.9時(shí)個(gè)性化精度最高,隱私數(shù)據(jù)Non-IID1時(shí)p,q為0.4,0.6時(shí)個(gè)性化精度最高,隱私數(shù)據(jù)Non-IID2時(shí)p,q為0.3,0.7時(shí)個(gè)性化精度最高。而在CIFAR10-CIFAR100數(shù)據(jù)場(chǎng)景下,隱私數(shù)據(jù)IID,Non-IID1時(shí)p,q為0.3,0.7時(shí)個(gè)性化精度最高,隱私數(shù)據(jù)Non-IID 2時(shí)p,q為0.4,0.6時(shí)個(gè)性化精度最高。由此不難發(fā)現(xiàn),本地?cái)?shù)據(jù)復(fù)雜程度越高時(shí),往往本地軟預(yù)測(cè)所占的比例越高,越有助于本地客戶(hù)端的個(gè)性化訓(xùn)練。

表4 不同p-q下pFedCK算法的個(gè)性化精度

加權(quán)系數(shù)λ:表5展示了不同加權(quán)系數(shù)λ下pFedCK算法的平均精度的變化,可以看出在MNIST-EMNIST數(shù)據(jù)場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)λ為0.1時(shí)效果最好,隱私數(shù)據(jù)Non-IID 1和Non-IID 2時(shí)λ等于0.3時(shí)效果最好,而在CIFAR10-CIFAR100數(shù)據(jù)場(chǎng)景下,隱私數(shù)據(jù)IID時(shí)在λ為0.5時(shí)效果最好,隱私數(shù)據(jù)Non-IID 1和Non-IID 2時(shí)λ為0.8時(shí)效果最好。由此可以看出數(shù)據(jù)復(fù)雜程度越高時(shí),要學(xué)習(xí)的知識(shí)更多,因此往往在知識(shí)蒸餾過(guò)程中教師模型所占據(jù)的比重更大。

表5 不同λ下pFedCK算法的個(gè)性化精度

綜上所述,對(duì)于客戶(hù)端本地?cái)?shù)據(jù)的不同異構(gòu)情況,數(shù)據(jù)異構(gòu)程度越高時(shí),為了獲得更好的訓(xùn)練效果,往往需要本地迭代次數(shù)相對(duì)較多,本地蒸餾次數(shù)相對(duì)較少,并且p,q的比例相對(duì)較大,λ的值也相對(duì)較大。

5 結(jié)束語(yǔ)

針對(duì)FL中客戶(hù)端數(shù)據(jù)異構(gòu)時(shí)影響訓(xùn)練速度以及訓(xùn)練精度,客戶(hù)端模型異構(gòu)無(wú)法進(jìn)行訓(xùn)練的問(wèn)題,本文提出了基于合作博弈和知識(shí)蒸餾的pFedCK算法,將合作博弈論中的SV引入到個(gè)性化聯(lián)邦學(xué)習(xí)中,以分析客戶(hù)端之間協(xié)作時(shí)的多重影響,并且將其對(duì)其他客戶(hù)端個(gè)性化的累計(jì)貢獻(xiàn)以平均值的形式量化,進(jìn)行個(gè)性化聚合,然后在本地引用知識(shí)蒸餾克服模型異構(gòu)的影響并將個(gè)性化軟預(yù)測(cè)的知識(shí)遷移到本地。實(shí)驗(yàn)結(jié)果證明,pFedCK算法能明顯地提高客戶(hù)端的訓(xùn)練精度。除數(shù)據(jù)和模型異構(gòu)之外,F(xiàn)L還存在系統(tǒng)異構(gòu)性問(wèn)題,如本地資源,通信能耗等,下一步研究工作將綜合考慮解決兩種異構(gòu)性問(wèn)題。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 成人在线不卡视频| 激情亚洲天堂| 国产精品高清国产三级囯产AV| 国产永久在线视频| 成人免费视频一区| 97在线碰| 精品欧美一区二区三区久久久| 91福利免费| 欧美日本在线| 国产视频一二三区| 国产免费高清无需播放器| 91蝌蚪视频在线观看| 日日碰狠狠添天天爽| 国产视频资源在线观看| 成年免费在线观看| 91探花国产综合在线精品| 91精品伊人久久大香线蕉| 国产又色又爽又黄| 99热这里只有精品在线播放| 国产美女自慰在线观看| 全午夜免费一级毛片| 爆乳熟妇一区二区三区| 国产精品亚洲专区一区| 欧美一区二区三区国产精品| 久久公开视频| 国产手机在线ΑⅤ片无码观看| 国产成人凹凸视频在线| 99热最新网址| 91成人在线免费视频| 伊大人香蕉久久网欧美| 狠狠做深爱婷婷久久一区| 日本影院一区| 伊人国产无码高清视频| 日韩天堂视频| 国产夜色视频| 国产成人精品三级| 日本高清视频在线www色| 丁香六月综合网| 亚洲码一区二区三区| 久久人人97超碰人人澡爱香蕉| 青青热久免费精品视频6| 91精品aⅴ无码中文字字幕蜜桃| 欧美成人综合视频| 国产va在线观看免费| 国产精品一老牛影视频| 免费人欧美成又黄又爽的视频| 欧美另类精品一区二区三区 | 免费视频在线2021入口| 欧美爱爱网| 狠狠干综合| 亚洲不卡网| 日韩精品无码免费一区二区三区 | 欧美色视频日本| 91在线无码精品秘九色APP| 国产综合精品日本亚洲777| 亚洲欧洲天堂色AV| 国产成人精品亚洲日本对白优播| 国产凹凸视频在线观看| aⅴ免费在线观看| 97视频免费看| 曰韩免费无码AV一区二区| 激情综合图区| 高清无码一本到东京热| 在线欧美一区| 国产区在线看| 精品成人一区二区三区电影 | 中文字幕色在线| 国产日韩AV高潮在线| 好久久免费视频高清| 欧美一级片在线| 日韩黄色在线| 国产高潮视频在线观看| 国产麻豆精品手机在线观看| 91在线免费公开视频| 日本欧美视频在线观看| 99这里只有精品免费视频| 国产精品久久精品| 99久久国产自偷自偷免费一区| 黄色网址手机国内免费在线观看| 中文字幕1区2区| 日韩一二三区视频精品| 四虎影视8848永久精品|