999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能物聯(lián)網(wǎng)中高效安全的自適應(yīng)量化聯(lián)邦學(xué)習(xí)

2025-09-02 00:00:00馬海英沈金宇楊天玲仇健王占君
計算機應(yīng)用研究 2025年8期

中圖分類號:TP309 文獻標(biāo)志碼:A 文章編號:1001-3695(2025)08-034-2503-08

doi:10.19734/j.issn.1001-3695.2024.11.0504

Efficient and secure adaptive quantization federated learning in AIoT

Ma Haiyinga,Shen Jinyua,Yang Tianlinga,Qiu Jiana,Wang Zhanjunbt (a.SchooloficellgeeoueclfaStatics,oUesitgJ1 China)

Abstract:Forthe problemofparticipants’privateleakageonthemodelparameters intheexistingadaptivequantizationfederatedlearning schemes,this paper proposedan eficientandsecureadaptivequantization federated learning scheme suitable for artificialinteligenceof things(AIoT).Thisschemeutilizedadaptivequantization technologytoreducethecommunication overhead forparticipants.Iconstructedascureagregationprotocolintwoaggregationserverstoprotecttheprivacyoflocal modelparametersbycombiningtheDifie-Helmankeyexchangeprotocol,secretsharingshemesandoblivious trasferprotocols.This paper proved the proposed scheme was secureunder reasonable assumptions.The experimental results show that the scheme notonlycanachieveaglobal modelwithhighaccuracy,butalsocansignificantlyreducecommunicationoverheadand computationcosts forprotectingparticipants’privacy.Thisscheme issuitableforresource-constrained,suchaslightweightIT devices in AIoT.

Key Words:federatedlearning(FL);privacyprotection;adaptivequantization;secret sharing;oblivious transfer protocol

0 引言

智能物聯(lián)網(wǎng)(AIoT)[]利用人工智能技術(shù)分析物聯(lián)網(wǎng)數(shù)據(jù),使得物聯(lián)網(wǎng)設(shè)備具備感知與識別能力,促使產(chǎn)業(yè)升級和體驗優(yōu)化,實現(xiàn)萬物智能互聯(lián)。而智能家居作為智能物聯(lián)網(wǎng)中典型的應(yīng)用場景,家居設(shè)備能夠相互連接、自動化操作并根據(jù)環(huán)境變化或用戶需求做出智能決策,從而提升居民的生活便利性與舒適性。機器學(xué)習(xí)作為實現(xiàn)人工智能的關(guān)鍵技術(shù),極大地推動了人工智能的發(fā)展和應(yīng)用。傳統(tǒng)的集中式機器學(xué)習(xí)需要上傳和存儲大量用戶的私有數(shù)據(jù),產(chǎn)生大量的通信和存儲開銷,且會造成用戶敏感數(shù)據(jù)的隱私泄露。為了保護機器學(xué)習(xí)中用戶隱私信息,McMahan等人[2]提出了聯(lián)邦學(xué)習(xí)(FL)架構(gòu)。其作為一種分布式機器學(xué)習(xí)的框架,在每一輪訓(xùn)練中,每個參與者利用本地數(shù)據(jù)集訓(xùn)練一個本地模型,然后將本地模型上傳給服務(wù)器,服務(wù)器聚合所有本地模型生成全局模型并分發(fā)給所有參與者。由于FL在一定程度上保護了用戶原始數(shù)據(jù)的隱私,且能夠高效處理資源,受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。然而,攻擊者只需獲取部分模型參數(shù),利用推理攻擊或模型反演攻擊等方法就可以重建用戶的原始數(shù)據(jù),或者構(gòu)造一個類似模型[3.4],在智能家居系統(tǒng)中則會暴露用戶的個人身份信息與活動數(shù)據(jù)。因此,F(xiàn)L仍然存在隱私泄露的風(fēng)險。

為了保護參與者本地模型參數(shù)的隱私安全,研究人員利用差分隱私[5.6]同態(tài)加密[7.8]和安全多方計算[9.10]等隱私保護技術(shù),構(gòu)造出大量FL中的安全聚合協(xié)議。文獻[5,6]利用差分隱私將噪聲添加到模型參數(shù)中,一定程度上保護了用戶隱私,然而會降低全局模型準(zhǔn)確率。文獻[7,8]利用同態(tài)加密技術(shù)加密模型參數(shù),服務(wù)器在其密文狀態(tài)下聚合所有參與者的本地模型參數(shù),確保數(shù)據(jù)在傳輸和處理過程中不泄露其隱私信息,但會增加大量的計算和通信開銷。基于安全多方計算的FL方案[9.10]利用密文交互、秘密分享、同態(tài)加密等技術(shù)手段,確保這些中間計算結(jié)果在傳輸和計算過程中不被泄露,但參與方之間交互增加了大量的計算和傳輸開銷。因此,上述隱私保護FL方案[5~10]計算開銷和通信開銷很大,很難將其部署在輕量級物聯(lián)網(wǎng)設(shè)備上。

隨著FL模型參數(shù)個數(shù)的持續(xù)增長,參與者的通信成本和傳輸時延會大大增加,而智能家居中的智能設(shè)備(如傳感器、微型控制器、智能插座等),通常又是計算能力弱、存儲容量有限、通信帶寬受限、電池壽命短的輕量級物聯(lián)網(wǎng)設(shè)備,這類設(shè)備會很難參與FL的模型訓(xùn)練。因此,學(xué)者們提出了許多模型壓縮技術(shù),比如通過剪枝[1]、量化[12~14]和知識蒸餾[15]等技術(shù)來減少模型大小和計算復(fù)雜度。為了減少模型的存儲和傳輸開銷,研究人員將自適應(yīng)量化技術(shù)應(yīng)用于FL的模型參數(shù)更新過程中,提出一系列自適應(yīng)量化FL方案[16~18],實現(xiàn)更高效的模型更新。然而,現(xiàn)有的自適應(yīng)量化聯(lián)邦學(xué)習(xí)方案沒有考慮參與者模型更新過程的隱私泄露問題,即聚合服務(wù)器可以根據(jù)模型更新過程推理參與者的隱私信息。盡管現(xiàn)有 FL[19,20] 致力于減少參與者的通信開銷和保護參與者的隱私安全,但是其通信開銷和隱私保護計算開銷依然很大,例如基于 SecAgg[3] 的安全聚合方法需要參與者之間進行交互,沒有考慮參與者掉線的問題,很難部署在輕量級物聯(lián)網(wǎng)設(shè)備上。

本文提出一種適用于智能物聯(lián)網(wǎng)的高效安全自適應(yīng)量化聯(lián)邦學(xué)習(xí)方案,利用自適應(yīng)量化技術(shù)減少參與者模型更新向量的大小,通過布爾共享和Diffie-Hellman密鑰交換協(xié)議,將參與者量化后的模型更新向量秘密共享給兩臺服務(wù)器,這兩臺服務(wù)器構(gòu)成了分布式聚合器[21]。該隱私保護方法沒有增加額外的通信開銷,并且參與者進行的隱私保護計算也是輕量級的。此外,服務(wù)器利用不經(jīng)意傳輸技術(shù)實現(xiàn)布爾到算術(shù)共享的轉(zhuǎn)換協(xié)議,完成對參與者秘密共享值的聚合,得到更新后的全局模型。這種分布式聚合模型無需參與者進行交互設(shè)置,能夠有效處理參與者掉線問題。大量研究表明,當(dāng)聚合服務(wù)器損壞時,單服務(wù)器聚合方法容易受到隱私泄露攻擊[22.23]和單點故障攻擊,而本文方案只要有一臺服務(wù)器未受到損壞就能夠有效保護參與者模型參數(shù)的隱私信息。

本文方案支持自適應(yīng)量化和安全聚合的聯(lián)邦學(xué)習(xí)。假設(shè)兩臺服務(wù)器和參與者是半誠實的,在任意一臺服務(wù)器和其他實體不共謀的前提下,能夠有效保護參與者模型參數(shù)的隱私安全,且能夠得到滿足模型準(zhǔn)確率需求的全局模型。與傳統(tǒng)的密碼學(xué)隱私保護方案相比,本文隱私保護方法僅需要增加少量的計算開銷。實驗結(jié)果表明,本文方案參數(shù)的壓縮率約為0.19,能夠極大地減少通信開銷,與相關(guān)方案 HeteroSAg 相比,通信開銷減少了 41.5% 。此外,本文量化方案在非獨立同分布數(shù)據(jù)集上具有很高的模型準(zhǔn)確率,而在獨立同分布數(shù)據(jù)集上模型準(zhǔn)確率僅有微小的損失。因此,本文方案能夠有效減少通信開銷和隱私保護的計算開銷,非常適用于智能家居系統(tǒng)中資源受限的輕量級物聯(lián)網(wǎng)設(shè)備。

1相關(guān)技術(shù)

1.1 Diffie-Hellman密鑰交換協(xié)議

Diffie-Hellman密鑰交換協(xié)議(Diffie-Hellmankeyexchangeprotocol)[24]是一種用于在不安全通信信道上安全交換密鑰的方法。該協(xié)議允許兩方在不需要預(yù)先共享秘密信息的情況下協(xié)商出一個共享的密鑰,這個密鑰可以用于后續(xù)的加密通信。其安全性依賴于Diffie-Hellman問題和離散對數(shù)的計算,密鑰交換的兩方會進行如下操作:

a)系統(tǒng)選擇一個大的素數(shù) p 和一個隨機數(shù) g∈Zp* ,并將其作為系統(tǒng)公共參數(shù)發(fā)布在公告欄中。b)一方選擇一個隨機數(shù) r1∈Zp* 作為其私鑰 sk1=r1 ,計算公鑰 pk1=gr1 mod p ,將其發(fā)送給對方。另一方選擇一個隨機數(shù) r2∈Zp* ,作為其私鑰 sk2=r2 ,計算公鑰 pk2=gr2 mod p ,將其發(fā)送給對方。c)兩方接收到對方的公鑰后,使用自己的私鑰計算共享密鑰。一方計算共享密鑰 ,另一方計算共享密鑰 r2,1=(gr1r2modp 由于 (gr2r1=(gr1r2 ,所以兩方擁有一個相同的共享密鑰 r1,2=r2,1

1.2秘密共享方案

秘密共享(secretsharing)是一種密碼學(xué)技術(shù),旨在將一個秘密分割成若干份額,并將這些份額分發(fā)給參與方。只有當(dāng)參與者收集到一定數(shù)量的份額時才能夠重構(gòu)出原始秘密。秘密共享的目的是增強數(shù)據(jù)的安全性,保護個人隱私,防止秘密過于集中,提高系統(tǒng)容錯性。

本文利用布爾秘密共享和算術(shù)秘密共享兩種秘密共享方法[25]。布爾秘密共享主要用于處理布爾運算(如邏輯與、或、非等)的秘密共享方案,每個份額是一個固定比特長度的二進制串,所有份額通過異或操作可以重構(gòu)出原始秘密值。算術(shù)秘密共享主要用于處理數(shù)值運算的秘密共享方案,每個份額是一個數(shù)值,所有份額通過加法運算可以重構(gòu)出原始秘密值。

1.3 量化技術(shù)

量化技術(shù)是將模型中的參數(shù)和激活值映射到較小的值域,通常是有限的整數(shù)或低位的浮點數(shù)。根據(jù)量化輸出的結(jié)果是否唯一,量化又能分為確定量化(deterministicquantiza-tion)[26.27]和隨機量化(stochastic quantization)[12.28]。確定量化是一種在量化過程中總是產(chǎn)生相同輸出的策略,對于給定的輸入和量化參數(shù)(如量化步長、量化范圍等),量化輸出一個確定的量化值。確定量化的特征為可預(yù)測性和一致性,即相同的輸入在任何情況下都會被量化到相同的輸出值。隨機量化是一種在量化過程中引入隨機性的策略,量化輸出可能不是唯一的,而是具有一定概率分布的。這種量化方式通常用于處理不確定性或噪聲的隱私保護應(yīng)用場景。

為了加速量化操作下模型的收斂速度,學(xué)者們提出了許多自適應(yīng)量化策略[16,17],以提高模型的準(zhǔn)確率。Jhunjhunwala 等人[18]提出了一種自適應(yīng)量化聯(lián)邦學(xué)習(xí)方案,根據(jù)固定通信間隔的比特數(shù)來限制訓(xùn)練誤差的收斂過程,并調(diào)整每輪通信的比特數(shù),計算出每輪次最優(yōu)的量化等級。該方法在保證模型準(zhǔn)確率損失較小的前提下極大地減少了參與者的通信開銷。該方案定義函數(shù) f(wt) 為神經(jīng)網(wǎng)絡(luò)模型 wt 的非凸目標(biāo)函數(shù),推導(dǎo)出最優(yōu)量化等級 st+1 ,并將其近似為

1.41-out-of-2不經(jīng)意傳輸協(xié)議

1-out-of-2不經(jīng)意傳輸協(xié)議[29]是一種兩方協(xié)議,其中一方作為發(fā)送者,擁有兩個等長的秘密 m0 和 m1 ;另一方作為接收者,希望從這兩個秘密中選擇一個,但又不希望發(fā)送者知道他選擇了哪一個。因此,1-out-of-2不經(jīng)意傳輸協(xié)議允許接收者在保護隱私的前提下從發(fā)送者的兩個秘密中選擇一個,即接收者能夠安全地獲得他選擇的秘密,而發(fā)送者則無法得知接收者選擇了哪一個秘密。本文中涉及的1-out-of-2不經(jīng)意傳輸協(xié)議主要包括以下幾個步驟:

a)消息的生成。發(fā)送方生成兩個消息 m0 和 m1 。b)公鑰的生成與公布。接收方根據(jù)自己的選擇位 b∈{0

1生成一對公鑰,發(fā)送給發(fā)送方。c)加密與傳輸。發(fā)送方利用這對公鑰,將兩個消息 m0 和m1 經(jīng)過加密變換后發(fā)送給接收方。d)解密與獲取秘密。接收方利用自己的選擇位和預(yù)先準(zhǔn)備的私鑰解密出所選消息 mb ,但不能獲知另一個消息 m1-b

2 系統(tǒng)模型和安全性假設(shè)

2.1 系統(tǒng)模型

本文提出一種智能物聯(lián)網(wǎng)中高效安全的自適應(yīng)量化聯(lián)邦學(xué)習(xí)方案,該方案包括系統(tǒng)管理員 sM 參與者 Ui 、服務(wù)器 S1 和服務(wù)器 S2 四種實體,其中,SM為智能家居制造商的系統(tǒng)開發(fā)人員, Ui 主要為一些輕量級智能家居設(shè)備, S1 和 S2 為兩個不同的聚合服務(wù)器提供商。該方案的系統(tǒng)架構(gòu)如圖1所示。

圖1系統(tǒng)架構(gòu)Fig.1Systemarchitecture

系統(tǒng)管理員 sM 負(fù)責(zé)構(gòu)建平臺,生成系統(tǒng)的公開參數(shù),發(fā)布聯(lián)邦學(xué)習(xí)的任務(wù)列表。參與者 Ui 在本地進行模型訓(xùn)練,對模型更新向量進行量化編碼以及隱私保護,將隱私保護后的數(shù)據(jù)發(fā)送給服務(wù)器 S1 。服務(wù)器 S1 驗證參與者 Ui 所發(fā)送的數(shù)據(jù),利用Diffie-Hellman密鑰交換協(xié)議生成相應(yīng)的布爾共享值,發(fā)送驗證通過的數(shù)據(jù)給服務(wù)器 S2 S2 利用Diffie-Hellman密鑰交換協(xié)議生成相應(yīng)的布爾共享值;接著 S1 和 S2 執(zhí)行從布爾到算術(shù)共享的轉(zhuǎn)換,由算術(shù)共享矩陣計算出各自的聚合向量, S2 將其聚合向量發(fā)送給 S1 ;服務(wù)器 S1 最后計算出總的聚合向量,得到全局模型參數(shù)和量化等級。參與者 Ui 可以下載全局模型和量化等級,進行新一輪的模型訓(xùn)練,當(dāng)訓(xùn)練輪次達到指定輪次后,參與者結(jié)束該聯(lián)邦學(xué)習(xí)任務(wù)。此時,系統(tǒng)管理員和所有參與者得到最終模型參數(shù)。

2.2安全性假設(shè)和系統(tǒng)威脅模型

本文方案的系統(tǒng)模型主要由系統(tǒng)管理員SM、參與者 Ui 、服務(wù)器 S1 和 S2 四種實體組成。假設(shè)系統(tǒng)管理員SM是一個可信實體,會正確執(zhí)行系統(tǒng)初始化過程且維護系統(tǒng)正常運行;服務(wù)器 S1,S2 和參與者 Ui 都是半誠實的,能夠遵循協(xié)議規(guī)范,但可能會嘗試從接收到的協(xié)議消息中推理參與者的隱私信息。上述實體可能造成潛在的威脅:

a)推理攻擊。如果參與者直接上傳量化更新向量會泄露自己的隱私信息,因此本文方案利用Diffie-Hellman密鑰交換協(xié)議生成隨機布爾共享值,并用其盲化本地量化更新向量。聚合服務(wù)器 S1 和 S2 只能得到秘密共享的值和聚合的結(jié)果,而不能得到參與者模型參數(shù)的隱私信息。

b)共謀攻擊。參與者和服務(wù)器可能會進行共謀來推斷其他參與者的隱私數(shù)據(jù)。本文方案假定兩臺服務(wù)器和參與者是半誠實的,在任意一臺服務(wù)器和其他實體不共謀的前提下,能夠有效防止參與者模型參數(shù)的隱私泄露,且能夠得到滿足模型準(zhǔn)確率需求的全局模型。

3智能物聯(lián)網(wǎng)中高效安全的自適應(yīng)量化聯(lián)邦學(xué)習(xí)

智能物聯(lián)網(wǎng)中高效安全的自適應(yīng)量化聯(lián)邦學(xué)習(xí)方案由系統(tǒng)初始化、本地模型參數(shù)的量化編碼、量化更新向量的隱私保護、全局模型的生成、量化等級自適應(yīng)更新和本地模型更新六個階段組成。表1給出了本文方案涉及的符號及其對應(yīng)的含義。

表1符號及含義 Tab.1Symbols and meanings

3.1 系統(tǒng)初始化階段

系統(tǒng)管理員 sM 首先構(gòu)建平臺,所有參與者和聚合服務(wù)器可以在平臺上進行注冊。 sM 選擇一個大素數(shù) p 和一個隨機數(shù)g∈Zp* ,設(shè)置 d 維的初始模型參數(shù) w0 ,選擇一個控制精度的正整數(shù)縮放因子 λ ,選擇一個偽隨機數(shù)生成器PRG(·),并發(fā)布聯(lián)邦學(xué)習(xí)的任務(wù)列表和全局模型訓(xùn)練的最大輪次 T sM 根據(jù)模型的準(zhǔn)確率和參與者的通信開銷,使用網(wǎng)格搜索法[30]從候選的量化值中找到最優(yōu)值作為系統(tǒng)的初始量化等級 s1 。然后,服務(wù)器 S1 根據(jù)固定大小的通信間隔限制訓(xùn)練誤差的收斂過程,近似計算下一個輪次的最優(yōu)量化等級 st,2?t?T

令 Ui 代表第 i 個參與者,參與者 Ui 申請參與某個聯(lián)邦學(xué)習(xí)任務(wù),選擇一個隨機數(shù) ri∈Zp* 作為其私鑰 ski 并秘密保存,計算公鑰 pki=gni mod p ,生成一對公私鑰 。本系統(tǒng)有兩個聚合服務(wù)器 S1 和 S2 ,服務(wù)器 S1 選擇一個隨機數(shù) r1∈ Zp* 作為其私鑰 ssk1 ,計算公鑰 ,組成一對公私鑰 (ssk1,spk1) 。服務(wù)器 S2 選擇一個隨機數(shù) r2∈Zp? 作為其私鑰 ssk2 ,計算公鑰 spk2=gr2′ mod p ,生成一對公私鑰( ssk2 ,spk2 )。服務(wù)器和參與者可以利用其公私鑰對為它們之間的數(shù)據(jù)傳輸構(gòu)建認(rèn)證信道。

3.2本地模型參數(shù)的量化編碼階段

假定參與者 Ui 執(zhí)行第 χt 個輪次的模型訓(xùn)練, 1?t?T ,當(dāng)t=1 時,參與者 Ui 從系統(tǒng)管理員 sM 獲得全局模型參數(shù) wt-1= w0 和量化等級 st=s1 。當(dāng) tgt;1 時,參與者 Ui 從服務(wù)器 S1 獲得全局模型參數(shù) wt-1 和量化等級 st ,在本地數(shù)據(jù)集上訓(xùn)練得到本地模型參數(shù) wt,i ,計算本地模型更新向量 νi=wt,i-wt-1 ,對向量 νi 的量化編碼過程如圖2所示。令 vi,j 是向量 νi 的第 j 個分量 (1?j?d) , 為向量 νi 的二范數(shù),都為32bit的實數(shù)。令符號函數(shù) sgn(x)∈Z2 ,當(dāng) x?0 時, sgn(x)=0 ,當(dāng) xlt;0 時,sgn(x)=1 ,即當(dāng) x 是負(fù)數(shù)時,該函數(shù)輸出一個值為1的二進制位,當(dāng) x 是非負(fù)數(shù)時,該函數(shù)輸出一個值為0的二進制位。

圖2模型更新向量的量化編碼 Fig.2Quantization encoding of model update vector

參與者 Ui 利用符號函數(shù) sgn(x) 對向量 νi 中的每個分量計算相應(yīng)的符號值 σi,j=sgn(vi,j) ,得到 νi 的符號向量 σi= ( σi,1 , σi,2 ,…, σi,d ),計算 ,得到 32bit 的非負(fù)整數(shù)向量

由于 ,量化等級 st 的二進制數(shù)的有效長度 Lt= ?log2(st+1)? ,且通常量化等級 st?255 ,上述量化方法可以將一個 32bit 的非負(fù)整數(shù)轉(zhuǎn)換成不大于 8bit 的二進制數(shù)。因此,參與者 Ui 最低的 比特有效位,將其壓縮為 bit的 ,得到量化更新向量 ,構(gòu)成一個三元組(

3.3量化更新向量的隱私保護階段

為了保護模型參數(shù)的隱私安全,參與者 Ui 根據(jù)Diffie-Hellman密鑰交換協(xié)議,利用其私鑰 ski 、服務(wù)器 S1 的公鑰 ?spk1 和 S2 的公鑰 spk2 ,計算隨機種子ri,1=(gr1′ri mod p,ri,2= ;然后, Ui 運行偽隨機數(shù)生成器 PRG(???) 生成長度為 Lt 的兩個二進制隨機數(shù) si,1=PRG ( ri,1 )和 si,2= PRG(ri,2) ;對量化更新向量 的每一個分量 進行盲化,計算 ,構(gòu)成一個盲化后的量化更新向量w "i * "= ( w" i , 1 *" , w" i , 2 *" ,w" i , d * ")",得到一個三元組( 并將其發(fā)送給服務(wù)器 S1

3.4 全局模型的生成階段

服務(wù)器 S1 和 S2 生成全局模型的交互過程如圖3所示,全局模型的生成主要包括服務(wù)器生成布爾共享、布爾到算術(shù)共享的轉(zhuǎn)換和算術(shù)共享矩陣的聚合三個階段。

圖3服務(wù)器生成全局模型的交互過程 Fig.3Interaction process for server generating the global model

3.4.1服務(wù)器 S1 和 S2 布爾共享的生成

服務(wù)器 S1 接收到三元組( ),根據(jù)量化等級 st 計算 ,驗證向量 的二進制長度是否為 d?Lt ,||v i||2 "是否大于零。如果 的二進制長度等于d?Lt 大于零,服務(wù)器 S1 發(fā)送給服務(wù)器 S2 ,否則丟棄這個三元組。

服務(wù)器 S1 根據(jù)Diffie-Hellman密鑰交換協(xié)議,利用其私鑰ssk1 和參與者 Ui 的公鑰 pki 計算隨機種子 ri,1=(grir1′modp 運行偽隨機數(shù)生成器 PRG(θ?θ) ,生成一個長度為 Lt 的二進制隨機數(shù) si,1=PRG(ri,1) ,對于盲化向量 的每一個分量 ( 1?j?d, ,計算" w" i , j'=" i , j* +"s" i , 1 ",得到一個布爾共享向量

服務(wù)器 S2 接收到 ,根據(jù)Diffie-Hellman密鑰交換協(xié)議,利用其私鑰 ssk2 和參與者 Ui 的公鑰 pki 計算隨機種子 ri,2=(grir2′modp ,運行偽隨機數(shù)生成器 PRG(?) ,生成一個長度為 Lt 的二進制隨機數(shù) si,2=PRG(ri,2) ,得到一個布爾共享值si,20

3.4.2布爾共享到算術(shù)共享的轉(zhuǎn)換

為了在服務(wù)器 S1 和 S2 之間生成一個雙重驗證位,服務(wù)器S1 和 S2 需要執(zhí)行不經(jīng)意傳輸協(xié)議1-out-of-2OT,如協(xié)議1所示。

協(xié)議11-out-of-2 OT

輸人: S1 輸入一個隨機比特 b1∈{0,1} 和一個隨機整數(shù) z∈Zp* ,S2 輸人比特 b2∈{0,1} 。 ξ//S1 作為發(fā)送方, S2 作為接收方

輸出: z+b1b2(modp) 0

a) S1 選擇一個隨機數(shù) C∈Zp* ,并將其發(fā)送給 S2 :b)S2 生成一對公私鑰 (sk,pk) ,計算 pk=C-pk c)S2 將公鑰對 (pk0?,pk1?) 發(fā)送給 S1

當(dāng) b2=0 時 ,pk0*=pk,pk1*=pk 當(dāng) b2=1 時 ,pk0*=pk,pk1*=pk

d)S1 接收 (pk0?,pk1?) ,向 S2 發(fā)送密文 (e0,e1)=(Enc(pk0* z), Enc(pk1*,z+b1) );

e) S2 接收 (e0,e1) ,計算 Dec(eb2,sk) ,輸出 z+b1b2(modp) U

服務(wù)器 S1 選取一個隨機比特 b1∈{0,1} 和兩個隨機數(shù) z C∈Zp* ,并將隨機數(shù) c 發(fā)送給 S2 。服務(wù)器 S2 選取一個隨機比特 b2∈{0,1} ,并選擇一個隨機的公私鑰對 (sk,pk) ,計算 pk= C-pk ,發(fā)送一個公鑰對 (pk0?,pk1?) 給 S1 。其中,當(dāng) b2=0 時,pk0*=pk,pk1*=pk ;當(dāng) b2=1 時 ,pk0*=pk,pk1*=pk0

隨后 S1 接收 (pk0*,pk1* ),計算密文 (2pk0* ), Enc(z+b1,pk1?) ),并將該密文 (e0,e1) 發(fā)送給 S2oS2 接收 (e0,e1) ,如果 b2=0 ,用 sk 解密 e0

Dec(e0,sk)=

Dec(Enc(z,pk0*),sk)=Dec(Enc(z,pk),sk)=z

否則用 sk 解密 e1

S2 利用上述不經(jīng)意傳輸1-out-of-2OT協(xié)議僅能得到 z 和z+b1 中的一個值,該值可以表示為 z+b1b2(modp) ,令 a=z+ b1b2(modp) 。

服務(wù)器 S1 計算 b1=b1+2z(modp) ,可以將布爾共享 b1 轉(zhuǎn)換成相應(yīng)的算術(shù)共享 b1 ,生成一個雙重驗證位 (b1,b1) 。服務(wù)器 S2 計算 可以將布爾共享 b2 轉(zhuǎn)換成相應(yīng)的算術(shù)共享 b2 ,生成一個雙重驗證位 (b2,b2) 。由于 ,服務(wù)器 S1 和 S2 利用上述1-out-of-2OT協(xié)議,實現(xiàn)將布爾共享 b1 和 b2 轉(zhuǎn)換成相應(yīng)的算術(shù)共享 b1 和 b2

由于 是向量 的第 j 個分量,為了將長度為 Lt bit的布爾共享值 轉(zhuǎn)換成相應(yīng)的算術(shù)共享值,服務(wù)器 S1 需要 Lt 個雙重驗證位。令 (b1,k,b1,k) 是服務(wù)器 S1 布爾共享值 的第 k 個雙重驗證位( 1?k?Lt ),服務(wù)器 S1 運行協(xié)議1,能夠?qū)⒉紶柟蚕?b1,k 轉(zhuǎn)換成相應(yīng)的算術(shù)共享 b1,k 。為了將長度為 Lt bit 的布爾共享值 si,2 轉(zhuǎn)換成相應(yīng)的算術(shù)共享值,服務(wù)器 S2 需要 Lt 個雙重驗證位,令 (b2,k,b2,k) 是服務(wù)器 S2 布爾共享值 si,2 的第 k 個雙重驗證位( 1?k?Lt ),服務(wù)器 S2 運行協(xié)議1,能夠?qū)⒉紶柟蚕?b2,k 轉(zhuǎn)換成相應(yīng)的算術(shù)共享 b2,k

算法1單比特布爾共享轉(zhuǎn)換為算術(shù)共享

輸人:雙重驗證位( b1,k b1,k) 和 (b2,k,b2,k) ;布爾共享值 (2 si,2,k∈{0,1} 。

輸出:算術(shù)共享值

S1 計算 ,并發(fā)送給 S2 ;S2 計算 v2=si,2,k⊕b2,k ,并發(fā)送給 S1 :S1 和 S2 計算 v=v1?v2 :S1 計算 S2 計算

是分量 的第 k 個二進制位, si,2,k 是二進制數(shù)si,2 的第 k 個二進制位( 1?k?Lt )。在算法1中,服務(wù)器 S1 和S2 輸入各自的雙重驗證位( b1,k , b1,k) 和 (b2,k,b2,k) ,布爾共享值 , si,2,k∈{0,1} 。由于 b1,k+b2,k(modp)=b1,k⊕ (2 (mod(號 ,k'+(2 。算法1實現(xiàn)了對單比特布爾共享到算術(shù)共享的轉(zhuǎn)換。

服務(wù)器 S1 利用每個算術(shù)共享的值 ( 1?k?Lt ),計算 mod p ,得到參與者 Ui(1?i?m) 的算術(shù)共享向量 ,將 ?m 個參與者的算術(shù)共享向量組成一個 m 行 d 列的算術(shù)共享矩陣 Vm×d 。服務(wù)器 S2 利用每一個算術(shù)共享的值 ( 1?k?Lt. ,計算 mod p ,得到參與者 Ui ( 1?i?m} 的算術(shù)共享向量 ,將 m 個參與者的算術(shù)共享向量組成一個 m 行 d 列的算術(shù)共享矩陣Wmxd。

3.4.3算術(shù)共享矩陣的聚合

服務(wù)器 S1 利用縮放因子 λ 、量化等級 st 和參與者 Ui(1? i?m 的 |?νi|2 ,計算 ,定義函數(shù) φ(xi) ,將實數(shù)xi 轉(zhuǎn)換成 Zp* 上的整數(shù)。

服務(wù)器 S1 計算 xi=φ(xi) ,構(gòu)成一個向量 xi=(x1,x2,… xm) ,符號向量 σi=(σi,1,σi,2,…, σi,d, 構(gòu)成一個 ?m 行 d 列的矩陣 Fm×d ,令 Fj 表示矩陣 Fm×d 的第 j 列, Vj 表示矩陣 Vm×d 的第 j 列。

算法2服務(wù)器 S1 的行聚合操作

得到兩個向量 q+=(q1+,q2+,…,qd+) 和 ,計算并更新全局模型參數(shù):

3.5量化等級自適應(yīng)更新階段

為了提高全局模型的準(zhǔn)確率,借鑒文獻[18]中提出的自適應(yīng)量化方法,服務(wù)器 S1 計算出本輪次全局模型 wt 的非凸目標(biāo)函數(shù) f(wt) ,計算下一個輪次的近似量化等級 st+1

通過這個自適應(yīng)迭代過程確保參與者找到最優(yōu)的量化等級。

3.6本地模型更新階段

當(dāng)模型訓(xùn)練輪次數(shù) t?T ,參與者 Ui 重復(fù)執(zhí)行上述步驟階段3.2~3.5,否則,參與者結(jié)束該聯(lián)邦學(xué)習(xí)任務(wù)。此時,系統(tǒng)管理員和所有參與者得到最終模型參數(shù) wT

4安全性分析

4.1 正確性

定理1假設(shè)兩臺服務(wù)器和參與者是半誠實的,本文方案就可以獲得一個正確的全局模型。

證明參與者 Ui 通過布爾共享和Diffie-Hellman密鑰交換協(xié)議盲化量化更新向量 ,在兩個服務(wù)器之間生成布爾共享值,服務(wù)器 S1 擁有的布爾共享為向量 ),服務(wù)器 S2 擁有的布爾共享為一個長度為 Lt 的二進制隨機數(shù) si,2 。此時參與者 Ui 的秘密值

為了將長度為 Lt bit的布爾共享值 和 si,2 轉(zhuǎn)換成相應(yīng)的算術(shù)共享值,服務(wù)器 S1 和 S2 通過1-out-of-2不經(jīng)意傳輸協(xié)議生成 Lt 個雙重驗證位,( b1,k , b1,k) 是服務(wù)器 S1 布爾共享值 的第 k 個雙重驗證位( 1?k?Lt ), (b2,k,b2,k) 是服務(wù)器 S2 布爾共享值 si,2 的第 k 個雙重驗證位( 1?k?Lt ),雙重驗證位滿足 b1,k+b2,k(modp)=b1,k⊕b2,k?

服務(wù)器 S1 由分量 的第 k 個二進制位 "w" i , j , k ' 和第 k 個雙重驗證位( b1,k , b1,k) 計算出第 k 位的算術(shù)共享值 。服務(wù)器 S2 由二進制數(shù) si,2 的第 k 個二進制位 si,2,k 和第 k 個雙重驗證位 (b2,k , b2,k 計算出第 k 位的算術(shù)共享值 。此時滿足 。然后服務(wù)器 S1 使用單比特的算術(shù)共享計算出秘密值 的算術(shù)共享 ,同理,服務(wù)器 S2 計算出算術(shù)共享 。因為 mod ,所以 是秘密值 的算術(shù)共享。于是服務(wù)器 S1 和S2 可以對 m 個參與者的算術(shù)共享進行求和操作,從而聚合出正確的全局模型。

4.2 隱私保護

定理2假設(shè)兩臺服務(wù)器是半誠實的,在任意一臺服務(wù)器和其他實體不共謀的前提下,本文方案能夠有效保護參與者模型參數(shù)的隱私。

證明當(dāng)服務(wù)器 S1 和 n 個參與者 Um-n+1,…,Um 共謀時,其中 n?m 。底層的布爾到算術(shù)共享轉(zhuǎn)換協(xié)議是私有的,共謀方只知道布爾到算術(shù)共享轉(zhuǎn)換的輸出,而無法獲得每個參與者模型參數(shù)的隱私。因此共謀方實際知道的(不包括共謀參與者的輸人)真實視圖 ,q1-,q2+,q2-} 。其中 為服務(wù)器 S1 擁有的布爾共享值, 為服務(wù)器 S1 擁有的算術(shù)共享值,q1+,q1- 為 S1 計算出的聚合值, q2+q2- 為 S2 發(fā)送給服務(wù)器S1 的聚合值。

基于布爾和算術(shù)共享方案的隱藏特性,這兩種共享方案的單個份額都不能揭示底層秘密,因此無法與相應(yīng)的隨機元素區(qū)分。通過采樣適當(dāng)長度的隨機元素來模擬 S1 看到的非共謀參與者的布爾共享、算術(shù)共享和聚合向量。因此模擬視圖 E*= {r1,…,rm-n,r1,…,rm-n,r1,r1,r2,r2,…} ,其中 ri(1? i?m-n) 為 d 維的向量,向量 ri 的每個分量為長度 L? 的二進制隨機數(shù), ri(1?i?m-n) 和 r1+,r1-,r2+,r2- 為 d 維的向量,其中每個分量為集合 Zp* 上的隨機值。該視圖與服務(wù)器 S1 和 n 個參與者 Um-n+1,…,Um 共謀時所擁有的真實視圖 E 在計算上無法區(qū)分。

同理,當(dāng)服務(wù)器 S2 和 n 個參與者 Um-n+1,…,Um 共謀時,共謀方對于所擁有的真實視圖和模擬視圖在計算上也無法區(qū)分。因此當(dāng)兩臺服務(wù)器是半誠實的,在任意一臺服務(wù)器和其他實體不共謀的前提下,不會泄露參與者模型參數(shù)的隱私。

5性能分析

5.1 實驗參數(shù)設(shè)置

本節(jié)通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)在MNIST數(shù)據(jù)集上執(zhí)行圖像分類任務(wù),以驗證所提出的自適應(yīng)量化聯(lián)邦學(xué)習(xí)的性能,主要從模型準(zhǔn)確率、通信開銷和計算開銷三個角度來評估方案的整體性能。本實驗利用Python3.8和Torch1.8.0構(gòu)建編程環(huán)境,并將其部署在AMDRyzen76800H,16GBRAM和NVIDIAGeForceRTX3060的計算機上。

本實驗構(gòu)建了一個聯(lián)邦學(xué)習(xí)系統(tǒng),卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)總數(shù) d=28 938 ,學(xué)習(xí)率設(shè)置為0.001,每一輪聯(lián)邦學(xué)習(xí)參與者個數(shù) m=20 。本實驗設(shè)置參與者本地迭代次數(shù)為5,本地的訓(xùn)練數(shù)據(jù)集大小為128,每輪訓(xùn)練的本地批量大小為16,模擬輕量級智能家居設(shè)備存儲和計算資源有限的情況,縮放因子 λ=5 ,測試數(shù)據(jù)集的大小為256,全局訓(xùn)練輪數(shù) T=50 。本文使用機器學(xué)習(xí)的網(wǎng)格搜索法[30],系統(tǒng)地遍歷預(yù)定義的超參數(shù)組合,發(fā)現(xiàn)當(dāng) s1=10 時,是一個較優(yōu)的初始量化等級。

將本文方案與標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)[31]、 HeteroSAg[32] CKKS[33]和FedDPA[34]在模型準(zhǔn)確率、通信開銷和計算開銷方面進行對比。表2列出了本文方案與相關(guān)隱私保護聯(lián)邦學(xué)習(xí)方案在功能和性能方面的描述。HeteroSAg需要參與者之間進行大量的信息交互,xMK-CKKS和FedDPA都沒有壓縮模型參數(shù),且這些方案容易遭受單點故障攻擊。本文方案能夠有效減少參與者的通信開銷,保護參與者的隱私,且能夠抵制單點故障攻擊。

表2不同方案的高層次比較

Tab.2High-level comparison of different schemes

5.2 模型準(zhǔn)確率

通過CNN模型來訓(xùn)練MNIST數(shù)據(jù)集,分別在獨立同分布和非獨立同分布的數(shù)據(jù)集上進行模型準(zhǔn)確率實驗,比較得出本文方案和標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)[31]訓(xùn)練出的模型準(zhǔn)確率的差異。

圖4展示了在獨立同分布的MNIST數(shù)據(jù)集上,模型準(zhǔn)確率隨全局訓(xùn)練輪數(shù)的變化。可以看出,標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)的模型準(zhǔn)確率約為 97.9% ,本文自適應(yīng)量化方案最終模型準(zhǔn)確率約為96% ,自適應(yīng)量化算法在保證高模型準(zhǔn)確率的前提下,進一步提高了通信效率,最終僅比標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)的模型準(zhǔn)確率低1.9百分點,模型準(zhǔn)確率在可接受的范圍。

圖4在獨立同分布數(shù)據(jù)集上訓(xùn)練模型的準(zhǔn)確率Fig.4Accuracy oftrainingmodelson IID datasets

圖5展示了在非獨立同分布的MNIST數(shù)據(jù)集上,模型準(zhǔn)確率隨全局訓(xùn)練輪數(shù)的變化。可以看出,標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)的模型準(zhǔn)確率約為 95.8% ,本文自適應(yīng)量化方案最終模型準(zhǔn)確率約為 96.7% 。在非獨立同分布的數(shù)據(jù)集上,本文方案的模型準(zhǔn)確率比標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)的模型準(zhǔn)確率甚至還提高了0.9百分點。這是因為在非獨立同分布的數(shù)據(jù)集上進行模型訓(xùn)練時,由于數(shù)據(jù)點之間的依賴關(guān)系,訓(xùn)練出的模型可能會過度擬合,而量化可以看作零均值噪聲的來源,防止了訓(xùn)練的過擬合,所以會略微提升模型準(zhǔn)確率。

5.3 通信開銷

每個參與者需要發(fā)送三元組( )給服務(wù)器S1 ,其中 為 32bit 的二范數(shù), σi 為 d 維的符號向量,每個分量為1bit的符號值, 為 d 維盲化后的量化更新向量,其每個分量的大小取決于當(dāng)前輪次的量化等級 st ,因此參與者的通信開銷可以表示成 log2(st+1)?+d+32 ,通信開銷的復(fù)雜度為 O(d) 。

圖5在非獨立同分布數(shù)據(jù)集上訓(xùn)練模型的準(zhǔn)確率 Fig.5Accuracy of training models on Non-ID data sets

參與者 Ui 訓(xùn)練得出模型更新向量 νi ,原始數(shù)據(jù) νi 的大小為 113.04KB 。參與者 Ui 對向量 νi 執(zhí)行量化操作后得出三元組( ,該三元組的平均大小為 21.2KB 。參與者Ui 對量化更新向量 進行盲化,生成盲化后的量化更新向量 ,得到三元組( ||vi|| 2 ",σ i ", ),該三元組的平均大小為21.2KB ,這個處理操作沒有增加額外的通信開銷。因此本文方案能夠?qū)⒛P蛥?shù)從113.04KB壓縮為 21.2KB ,參與者的通信開銷約減少了 81.2% ,有效地減少了模型參數(shù)的存儲和通信開銷。

表3列出了本文方案和相關(guān)方案參與者通信開銷的對比。可以看出,本文方案的自適應(yīng)量化方法對數(shù)據(jù)的壓縮率為0.19,比 的通信開銷減少了 41.5% ,比xMK-CKKS的通信開銷減少了 99.4% ,比FedDPA的通信開銷減少了81.2% 。因此本文方案具有最小的壓縮率,更適用于通信資源受限的智能家居聯(lián)邦學(xué)習(xí)場景。

表3不同方案參與者的通信開銷對比

Tab.3 Comparison of communication costs of participants in different scheme

5.4計算開銷

每個參與者的計算開銷可以分解成兩個部分:a)生成量化后的三元組( ,計算時間取決于模型向量的大小 d;b) 對向量 進行隱私保護后生成向量 ,該步驟包含生成長度為 Lt 的兩個二進制隨機數(shù) si,1 和 si,2 的時間,以及通過異或操作盲化得到向量 的時間,計算開銷很小。因此對于每個參與者,計算開銷的復(fù)雜度為 O(d) 。

表4列出了本文方案和相關(guān)方案參與者計算開銷的對比。可以看出,本文方案量化得到三元組( 的時間約為 0.93s ,隱私保護得到向量 的時間約為 0.005ms ,參與者總計算時間約為 0.94s 。本文方案的隱私保護計算為輕量級的布爾運算,隱私保護所需時間遠(yuǎn)小于相關(guān)方案[32~34],隱私保護的計算開銷最小。對于總計算時間,本文方案比HeteroSAg的計算開銷減少了 49.7% ,比xMK-CKKS的計算開銷減少了87.1% ,僅比FedDPA的大,但FedDPA有實現(xiàn)模型壓縮,差分隱私技術(shù)對模型準(zhǔn)確率也會有較大的損失,不適用于需要高模型準(zhǔn)確率的場景。因此本文方案的計算開銷很小,更適用于計算資源受限的智能家居物聯(lián)網(wǎng)設(shè)備上。

表4不同方案參與者的計算開銷對比Tab.4Comparison of computational costs of participants in diferent schemes

6結(jié)束語

基于文獻[18]的自適應(yīng)量化算法,本文提出了一種適合智能物聯(lián)網(wǎng)的高效安全自適應(yīng)量化聯(lián)邦學(xué)習(xí)機制,利用自適應(yīng)量化技術(shù)減少參與者的通信開銷,將不經(jīng)意傳輸技術(shù)和秘密共享技術(shù)相結(jié)合,構(gòu)造一種保護參與者隱私的安全聚合協(xié)議,并對該協(xié)議的安全性進行證明。在MNIST數(shù)據(jù)集上測試該協(xié)議的執(zhí)行過程,實驗結(jié)果表明本文方案能夠獲得較高的模型準(zhǔn)確率,極大地減少參與者的通信開銷和隱私保護計算開銷,非常適合部署在資源受限的智能家居物聯(lián)網(wǎng)設(shè)備上。未來將探索如何讓本文方案拓展到三臺及以上的分布式聚合服務(wù)器上,以進一步增強方案的安全性和可擴展性。

參考文獻:

[1]Nguyen D C,Ding Ming,Pathirana P N,et al. Federated learning for Internet of Things:a comprehensive survey[J]. IEEE Communications Surveysamp; Tutorials,23(3):1622-1658.

[2]McMahan HB,MooreE,RamageD,etal.Communication-efficient learning of deep networks from decentralized data[EB/OL].(2016- 02-17).https://arxiv.org/abs/1602.05629.

[3]Bonawitz K,Ivanov V,Kreuter B,et al.Practical secure aggregation for privacy-preserving machine learning[C]//Proc of ACM SIGSAC Conference on Computer and Communications Security. New York: ACM Press,2017:1175-1191.

[4]MelisL,Song Congzheng,DeCristofaro E,et al.Exploiting unintended feature leakage in collaborative learning[C]//Proc of IEEE Symposium on Security and Privacy.Piscataway,NJ: IEEE Press,2019:691- 706.

[5]Wei Kang,Li Jun,Ding Ming,et al. Federated learning with differential privacy :algorithms and performance analysis[J]. IEEE Trans on InformationForensicsandSecurity,2020,15:3454-3469.

[6]KimM,GunluO,SchaeferRF.Federated learning with local differentialprivacy:trade-offsbetweenprivacy,utility,and communication [C]//Proc of IEEE International Conference on Acoustics,Speech andSignal Processing.Piscataway,NJ:IEEE Press,2021:2650-2654.

[7]Liu Yang,Ma Zhuo,Liu Ximeng,etal.Boosting privately:federated extreme gradient boostingfor mobile crowdsensing[C]//Proc of the 40th International Conference on Distributed Computing Systems.Piscataway,NJ:IEEE Press,2020:1-11.

[8]XuR,BaracaldoN,ZhouY,etal.FedV:privacy-preservingfederated learning oververticallypartitioned data[C]//Proc of the14th ACM Workshop onArtificial Intelligenceand Security.New York:ACM Press,2021:181-192.

[9]He L,Karimireddy S P,Jaggi M. Secure Byzantine-robust machine learning[EB/OL].(2020-07-08). https://arxiv.org/abs/2006. 04747.

[10]Sotthiwat E,Zhen Liangli,Li Zengxiang,etal.Partially encrypted multi-partycomputation for federated learning[C]//Proc of the 21st International Symposium on Cluster,Cloud and Internet Computing. Piscataway,NJ:IEEE Press,2021:828-835.

[11]Zhu M,Gupta S.To prune,or not to prune:exploring the efficacy of pruning for model compression[EB/OL]. (2017-10-05). https :// arxiv. org/abs/1710.01878.

[12]Alistarh D,Grubic D,Li J,et al. QSGD:communication-efficient SGD via gradient quantization and encoding[EB/OL].(2016-10-07). https://arxiv.org/abs/1610.02132.

[13]Ji Yu,Chen Lan. FedQNN:acomputation-communication-efficient federated learningframework forIoTwith low-bitwidth neural network quantization[J]. IEEE Intermet of Things Journal,2023,10(3): 2494-2507.

[14]Lan Muhang,Ling Qing,Xiao Song,et al. Quantization bits alocation forwireless federated learning[J].IEEE Trans on Wireless Communications,2023,22(11) :8336-8351.

[15]Gou Jianping,Yu Baosheng,Maybank SJ,et al.Knowledge distillation;a survey[J]. International Journal of Computer Vision, 2021,129(6):1789-1819.

[16]Oland A,Raj B. Reducing communication overhead in distributed learningbyanorderofmagnitude(almost)[C]//Proc ofIEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2015:2219-2223.

[17] Guo Jinrong,Liu Wantao,Wang Wang,et al. Accelerating distributed deep learning by adaptive gradient quantization[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing. Piscataway,NJ:IEEEPress,2020:1603-1607.

[18]JhunjhunwalaD,GadhikarA,JoshiG,et al.Adaptive quantization of modelupdates forcommunication-efficientfederated learning[C]// Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2021:3110-3114.

[19]ChenWeining,Choquette-Choo CA,Kairouz P,etal.The fundamental priceof secure aggregation in differentiallyprivate federated learning[EB/OL].(2022-03-07). https://arxiv.org/abs/2203.03761.

[20]Bonawitz K,SalehiF,KonecnyJ,et al.Federated learning with autotuned communication-efficient secure aggregation[C]//Proc of the 53rdAsilomar Conferenceon Signals,Systems,and Computers.Piscataway,NJ:IEEE Press,2019:1222-1226.

[21]Fereidoni H,Marchal S,Miettinen M,et al.SAFELearn;secure aggregation for private federated learning[C]//Proc of IEEE Security andPrivacyWorkshops.Piscataway,NJ:IEEEPress,2O21:56-62.

[22]Pasquini D,F(xiàn)rancati D,Ateniese G.Eluding secure aggregation in federated learning via model inconsistency[C]//Proc of ACM SIGSAC Conference on Computer and Communications Security. New York : ACMPress,2022:2429-2443.

[23]FowlL,Geiping J,Czaja W,et al.Robbing the fed:directly obtaining private data in federated learning with modified models[EB/OL]. (2021-10-25). https://arxiv.org/abs/2110.13057.

[24]Yusfrizal Y,Meizar A, Kurniawan H,et al. Key management using combination of Diffie-Hellman key exchange with AES encryption [C]//Proc of the 6th International Conference on Cyber and IT Service Management.Piscataway,NJ:IEEE Press,2O18:1-6.

[25]Addanki S,GarbeK,JaffeE,et al.Prio + : privacy preserving aggregate statistics via Boolean shares[EB/OL].(2021-05-03).https:// ia.cr/2021/576.

[26] Courbariaux M,Bengio Y.BinaryNet: training deep neural networks withweights and activations constrained to +1 or-1[EB/OL]. (2016-02-09).https://arxiv.org/abs/1602.02830.

[27]Xu Jinjin,Du Wenli,Jin Yaochu,etal.Ternary compression for communication-efficient federated learning[J].IEEE Trans on Neural Networks and Learning Systems,2022,33(3):1162-1176.

[28]Suresh A T,YuFX,Kumar S,et al.Distributed mean estimation with limited communication[C]//Proc of the 34th International Conference on Machine Learning.New York:ACM Press,2017:3329-3337.

[29]Amiri R,Stárek R,Reichmuth D,et al. Imperfect 1-out-of-2 quantum oblivious transfer:bounds,a protocol,anditsexperimental implementation[J].PRX Quantum,2021,2(1):010335.

[30]Won J,Shin J,KimJH,et al.A survey on hyperparameter optimization in machine learning[J].The Journal of Korean Institute of Communications and Information Sciences,2023,48(6):733- 747.

[31]McMahan HB,Moore E,Ramage D,et al.Federated learning of deep networks using model averaging[EB/OL].(2016-02-17).https:// arxiv.org/abs/1602.05629.

[32]Elkordy AR,Avestimehr A S.HeteroSAg:secure aggregation with heterogeneous quantizationin federated learning[J]. IEEE Transon Communications,2022,70(4) :2372-2386.

[33]Ma Jing,Naas SA,Sigg S,et al. Privacy-preserving federated learning based on multi-key homomorphic encryption[J].International Journalof Intelligent Systems,2022,37(9) :5880-5901.

[34]YangXiyuan,HuangWenke,YeMang.Dynamicpersonalized federatedlearningwithadaptive differentialprivacy[C]//Proc of the 37th International Conference on Neural Information Processing Systems. RedHook,NY:Curran AssociatesInc.,2023:72181-72192.

主站蜘蛛池模板: 性色生活片在线观看| 午夜视频免费一区二区在线看| 国产精品免费p区| 扒开粉嫩的小缝隙喷白浆视频| 精品小视频在线观看| 国产主播福利在线观看| 在线观看91香蕉国产免费| 国产一区三区二区中文在线| 国产91丝袜在线播放动漫| 色婷婷在线播放| 99re在线视频观看| 99精品免费在线| 91青青在线视频| 国产无码在线调教| 伊伊人成亚洲综合人网7777| 国产亚洲精品无码专| 午夜性爽视频男人的天堂| 久久久久中文字幕精品视频| 国产精品刺激对白在线 | 91视频日本| 狠狠做深爱婷婷久久一区| 国产精品永久免费嫩草研究院| 国产精品欧美激情| 在线观看视频一区二区| 51国产偷自视频区视频手机观看 | 一个色综合久久| 免费人成又黄又爽的视频网站| 97免费在线观看视频| 久久国产亚洲偷自| 真实国产精品vr专区| 欧美人与牲动交a欧美精品| 色天天综合| 好紧太爽了视频免费无码| 欧美另类一区| 亚洲精品无码高潮喷水A| 国产亚洲精品资源在线26u| 久久精品最新免费国产成人| 亚洲男女在线| 欧美日韩午夜| 丝袜高跟美脚国产1区| a级毛片免费看| 精品人妻一区无码视频| 亚洲国产天堂久久综合226114| 99re热精品视频中文字幕不卡| 婷婷午夜影院| 亚洲嫩模喷白浆| 欧美全免费aaaaaa特黄在线| 波多野结衣中文字幕久久| 在线精品亚洲一区二区古装| 国产成人亚洲精品色欲AV| 国产精品.com| 中文字幕在线视频免费| 欧美a网站| 欲色天天综合网| 日本在线亚洲| 久久精品丝袜| 91丝袜在线观看| 久久综合成人| 99手机在线视频| 九九视频免费看| 91精品久久久无码中文字幕vr| 成人字幕网视频在线观看| 日韩不卡高清视频| 亚洲91精品视频| 国产精品视频3p| 有专无码视频| 久久亚洲天堂| 毛片免费试看| 国产精品成人一区二区不卡 | 亚洲国产精品国自产拍A| av一区二区三区在线观看| 福利视频99| www.亚洲国产| 日韩在线成年视频人网站观看| 欧美午夜网| 久久国产香蕉| 亚洲免费黄色网| 久久国产精品国产自线拍| 亚洲狠狠婷婷综合久久久久| 无码日韩精品91超碰| 欧美性久久久久| 精品国产免费人成在线观看|