999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向高效通信聯邦學習的設備故障診斷方法

2025-07-14 00:00:00劉晶趙益晨劉興華武優西季海鵬
哈爾濱理工大學學報 2025年2期
關鍵詞:故障實驗模型

Abstract:Federated learning achieves joint trairung modeling of fauh data from various factories while protecting privacy.However, due to the high heterogeneity of factory equipment operation data, traditional federated learning has low communicationefficiency. To address the above /ssues, an equ/pment fault diagnosis method based on high-efficiency communication federatedlearning was proposed. Firstly, a federated dynamic weighted balancing model was proposecl, which dynamically adjusts the trainingfrequency and uploaded parameter amount of the factory sub end, and improves communication efficiency by reducing communicationtime-. Secondly, a dual jump gate, cyclic unit diagnostic ruode,l with an attention mechanism was proposecl, which assigns differentweights to diffe,rent features to quickly extract fault features, effectively shortening communication rounds and improving communicationeffic,iency. Finally, experimental validation was conducted using the bearing failure datasets of Case Western Reserve University andPaderborn University. The experimental results show that compared with the federated average algorithm, this method achieves a faultdiagnosis accuracy of 92. 20% , while reducing communication time by 56. 88%" and shortening communic,ation rounds by 47. 37% ,effectively improving communication efficiency.

Keywords:fault diagnosis; federated learning; data heterogeneity; corrununication efficiency; dynamic weighting

0" 引" 言

聯邦學習作為分布式機器學習新范式,在保護數據隱私的基礎上實現聯合多參與方共同建模,進而有效解決數據孤島問題。將聯邦學習應用在設備故障診斷領域,可以解決單一工廠數據量不足的問題,進一步提高設備故障診斷的準確率。但是傳統聯邦學習頻繁進行模型參數交換導致巨大的通信開銷,而參與訓練的各工廠子端往往因擁有受限的通信資源而不能承受過高的通信成本,因此如何在聯合訓練時降低通信開銷、提升通信效率成為關鍵問題。

有學者針對上述問題進行了研究,如Ye等提出了一種邊緣聯邦學習,通過對設備端輸出信息進行量化,分離局部模型訓練,增加一定的本地計算時間,降低全局通信頻率從而減少通信時長,提升通信效率。Reisizadeh等 選擇將算法優化與壓縮的思路結合起來,其提出的FedPAQ算法要求服務器只選擇一小部分客戶端參與訓練,同時客戶端減少上傳局部模型次數,并在上傳之前進行量化更新操作,有效減少通信中的參數量。Wang等[10]提出了一種經驗驅動的控制框架與深度Q學習機制,它智能地選擇客戶端設備參與每一輪聯合學習,加快收斂速度的同時有效降低通信輪數。上述方法通過對信息量化壓縮或選擇優質客戶端減少通信時間以及通信輪次,從而有效提升了通信效率,但上述方法忽略了不同客戶端診斷性能和設備運行數據的相異性。為了解決上述問題,諶明等提出一種面向推薦系統的聯邦學習蒸餾方法,通過知識遷移降低模型復雜度,有效提升用戶差異環境下模型訓練效率,并減少傳輸的數據量提升通信效率。王惜民等[12]提出一種基于數據不平衡和類別不平衡分布下聯邦學習的設備選擇算法,通過組合式多壁老虎機學習算法框架進行設備選擇與類別估計,使全局模型更加平衡,有效減少通信輪次提升通信效率。賀文晨等,考慮非獨立同分布數據對聯邦學習性能的影響,提出基于深度強化學習的聯邦學習節點選擇方法,提升聯邦學習模型準確率的同時優化訓練時延。上述方法能夠在異質數據下有效提高通信效率,但代價是在一定程度上降低了模型準確性,難以兼顧通信效率以及聯合訓練效果。

針對上述問題,本文基于高效通信動態聯邦學習的設備故障診斷方法主要貢獻如下:

1)提出聯邦動態加權平衡模型。該模型在每輪通信中,根據上一輪次的通信結果,動態加權調整各工廠子端模型的訓練次數和子端向中心端上傳的模型參數量,兼顧聯合訓練效率的同時進一步減少通信時長。

2)提出帶注意力機制的雙跳門循環單元診斷模型。該模型為不同特征賦予不同權重,快速提取故障的隱性特征,提升各工廠子端故障診斷準確率的同時兼顧聯合訓練效率,進一步減少通信輪次。

1" 方法框架

針對因各工廠子端間故障數據異質性強,導致傳統聯邦學習通信效率低的問題,提出一種基于高效通信聯邦學習的設備故障診斷方法,方法框架如圖1所示。

各工廠子端在中心服務器的協調下實現聯合訓練建模。首先,各工廠子端利用本地的故障數據,通

過帶注意力機制的雙跳門循環單元( skip attentionconnection-bidirectional gate recurrent unit,SAC-BiG-RU)診斷模型完成本地訓練。隨后將訓練完成的局部模型參數上傳,通過聯邦動態加權平衡( federa-ted-dynamic weighted balance,Fed-DWB)模型動態調整參與通信的各工廠子端的傳參比例系數,加權計算得出最終參與中心聚合的參數量;其次,將其上傳到中心服務器,完成中心聚合得到全局模型,根據全局模型的訓練結果,通過Fed - DWB模型加權計算得出下一輪通信中各工廠子端的平衡系數,根據其大小動態調整各工廠子端的本地訓練次數;最后,將全局模型參數下發給各工廠子端完成本輪次的通信并進入下一輪次,直至滿足聯合訓練的故障診斷準確率為止。

針對因各工廠子端間故障數據異質性大,導致聯合訓練建模通信時間過長的問題,提出Fed-DWB模型,其模型結構如圖2所示,

圖2Fed-DWB模型結構圖Fig.2Structure diagram of Fed-DWB model

假設共有 N 個工廠子端,每個工廠子端有本地數據集Data\", n=(1,2,…,N) xn 表示 Datan 的特征樣本, yn 表示 Datan 的標簽樣本,則梯度 Gn

式中: Ln(xn,yn;τ) 表示在給定模型參數 χt 上對樣本(xn,yn) 進行預測所得到的損失結果。在每一輪通信中,各工廠子端基于梯度信息以及全局模型參數更新局部模型參數,則工廠子端 n 在第 k+1 輪次進行多次局部更新之后得到的局部模型參數 hnk+1

hnk+1Hnk-θGn

式中: Hnk 為全局模型參數; θ 為模型學習率。

隨后引入平衡系數 ωnk 的概念,在第一個通信輪次中將各子端的 ωn1 都初始化為默認值 p

p(ω11,ω21,…,ωn1

則工廠子端 n 在第 k 輪通信的 ωnk

式中: ωnk 由信準率、準確率差值以及工廠子端與中心端的模型距離三部分值動態加權求和得出; η?μ 、λ 為不同的權重系數; φnk/TK 為信準率; Tk 為第 k 次通信的通信時長; φnk 為第 n 個工廠子端第 k 輪通信的診斷準確率; Dnk 為被選工廠子端的局部模型與全局模型間的距離。 Dnk 具體計算式根據歐式距離計算公式得出,設第 k 輪工廠子端 n 完成本地更新后局部模型參數為 hnk=(a11,a12,…,a1n) ,第 k-1 輪的全局模型參數為 Hnk-1=(b21,b22,…,b2n) ,將標準化歐式距離[14]記為 Dnk

式中: hnk 和 Hnk-1 包含相同維度和數量的張量,樣本(hnk,Hnk-1) )方差為 Sk ,結合式(5)則有

隨后被選工廠子端會根據其 ωnk 動態加權調整上傳參數比例, ωnk 越高上傳局部模型參數比重越大,反之上傳模型參數比重越小,如式(7)\~(8):

L=c{ω1k,ω2k,…,ωnk}

ωn-L+1k?,…,?ωn-1knk

在聯合訓練過程中,每輪通信都會隨機選擇固定百分比 ∣c∣ 的 L 個工廠子端參與本輪訓練。隨后將L 個工廠子端的 ωnk 按大小排列,按照其大小,動態調整參與通信工廠子端的上傳模型參數比例 ζnk

ζnk←(ωn-L+1k,…,ωn-1kωnk

則第 n 個工廠子端在第 k 輪通信中實際上傳的參數量

式中:STC {} 為稀疏三元壓縮函數[15]; Gnk 為第 k 輪通信中工廠子端 n 的梯度信息; ek 為調整傳參量后的誤差。各工廠子端將局部模型參數上傳至中心服務器,進行中心聚合并更新全局模型。利用聯邦平均算法(federated averaging algorithm,FedAvg)[16],全局更新過程可表示為

式中: Hnk+1 為第 k 輪更新后的全局模型參數; N 為聚合的工廠子端數; un 為參與通信第 n 個工廠子端的數據樣本量; U 為所有工廠子端數據樣本總量。完成中心聚合后進行下發過程。根據式(5)通過動態加權計算得出下一通信輪次的 wnk+1 ,隨著通信輪次的增加 ωnk 會隨之改變,比較前后兩個通信輪次各子端的 wnk ,進而動態調整子端訓練次數,如式(14)\~(16):

式中: En 為第 Ωn 個子端模型的訓練次數; E,e 分別為訓練次數的上下限; ε 為常量值。若參與本輪通信子端的 wnk 比上一通信輪次的 wnk-1 大,通信子端的訓練次數自適應增加一次,反之,則自適應減少一次。本輪通信未被選中子端的 wnk 保持不變。

通過平衡系數動態調整每個通信輪次的上傳參數比例和各工廠子端模型的訓練次數,在減少傳遞參數量的同時,保證更優質的子端模型得到更多的訓練次數,進而降低聯邦學習的通信時長,提升全局的通信效率。

1.2 SAC-BiGRU診斷模型

針對因各工廠子端間故障數據異質性大,導致聯合訓練建模達到指定模型精度的通信輪次過多的問題,本節提出在工廠子端搭建SAC-BiGRU診斷模型,分為輸人層、特征提取層、分類層。該診斷模型如圖3所示。

圖3 SAC-BiGRU診斷模型圖

將原始故障振動信號數據輸入兩層雙向跳躍門 循環單元(bidirectional gate recurrent unit,BiG

RU)[17-18]中 代表數據在門循環單元中的流向。通過調整BiGRU的記憶單元數目以及網絡的層數,實現對不同維度信號特征的充分提取,利用雙向特性充分提取故障數據中的隱性特征。隨后通過concat函數將兩個流向的數據進行拼接,通過BN層進行歸一化,再通過ReLu函數進行激活。之后加入改進的卷積塊注意模塊(improvedconvolu-tionalblockattentionmodule,ICBAM),對主通道上的數據進行權重計算,為不同數據特征賦予不同權重,快速提取故障數據特征。同時在原有模型結構中融人帶注意力機制的跳躍連接(skipattentioncon-nect,SAC)結構,即在BiGRU層外加人了融合IC-BAM模塊的跳躍連接,可以更好的降低模型復雜度并且加快模型收斂速度的同時達到理想的故障診斷率。

1.2.1 SAC結構

深層神經網絡構建的診斷模型隨網絡層數的增加診斷率會隨之提升,但在數據傳遞過程中存在信息丟失和損耗過大的問題,進而會影響模型精度[19]。傳統跳躍連接結構雖然有效降低模型復雜度以減少過擬合和梯度消失的問題[20],但忽略了將原始信號輸入和輸入的非線性變化疊加時對故障數據不同特征的權重分配,會導致部分重要故障特征未被充分學習,難以降低由于數據數量不同和數據質量不同對模型精度的影響以及聯合訓練的通信輪次。針對上述問題,在跳躍連線上加入了ICBAM模塊,對數據特征進行權重提取,隨后將ICBAM模塊中的通道注意力模塊進一步改進,選擇一維全局平均池化代替用于處理圖片分類任務的二維全局平局池化,用一維最大池化代替二維最大池化,使其更適合處理一維故障特征。SAC結構如圖4所示。

圖4SAC結構圖Fig.4SAC structure diagram

圖中: xinput 為數據輸入; 為中間變量; xoutput 為數據輸出; f 為ReLU激活函數; F 為殘差函數;h 為shortcut函數; W,Wi?Ws 代表殘差函數與之相對應的權重參數。通過shortcut進行同等映射如下:

F=Wih(W,xinput

輸入數據在主通道中進行權重計算的同時,部分數據進行一維平均池化操作和一維最大池化操作得到兩個標量,接著通過兩層全連接神經網絡,將從最大池化與平均池化提取的不同維度特征實現轉換融合。將原先不同維度的特征轉化為可疊加的特征進行拼接,得到新的特征池。最后,通過Sigmoid激活函數得到權重系數,將權重系數和原來的特征相乘即可得到縮放后的新特征。其計算過程見式(19)\~(21):

pM=Mp{xinput}

pA=Ap{xinput}

sxinput=fSigmod(p?MΔqΔqP?A

其中: $M _ { p } \left\{ \begin{array} { l l } \right\} \end{array}$ 代表最大池化操作; Ap{} 代表平均池化操作; 表示池化后的特征矢量; s,l 分別為跳躍連線和主通道上的權重。最后將兩個部分的數據輸入進行殘差計算,其計算如式(22)~(23)所示:

通過上述改進,即分別在原始信號輸入和輸入的非線性變化中加入注意力模塊對其進行加權特征提取[21]。進一步融合特征通道和特征空間兩個維度的注意力機制,并對神經網絡中的兩個維度方向進行權重分配,加快模型擬合故障數據的速度,同時進一步提升診斷模型的精度。將上述SAC結構融入BiGRU網絡中,可以有效解決由于數據數量和數據質量的差異造成模型訓練準確率不佳的問題,可以進一步減少到達指定模型精度的通信輪次,提升通信效率。

2 實驗結果及分析

本節以美國凱斯西儲大學軸承故障數據與德國帕德博恩軸承數據為實驗數據,驗證本文方法的優越性與魯棒性。

2.1 實驗環境與數據

實驗運行環境:Intel(R)Core(TM)i7-6700HQ處理器,頻率 2.60GHz ,內存16 GB,Windows10,64位操作系統的計算機,程序開發環境為Python3.7。

數據集1:美國凱斯西儲大學(casewestern re-serveuniversity,CWRU)電氣工程實驗室的軸承故障數據,軸承型號為6205-2RSJEMSKF深溝球軸承。利用電火花加工方式分別在軸承上對內圈(in-nerraceway,IR)外圈(outerraceway,OR)和滾動體(Ball,BO)設置了3個等級的單點故障,故障直徑分別為 0.007,0.014,0.021 英寸。本實驗選取采樣頻率為 12kHz 狀態下,電機驅動端(driverend)在負載為 0HP 時的數據進行仿真實驗,劃分為10類故障類型,每種類型包含20000條數據,每條數據采樣長度為2048個數據點。將數據集打亂后按照7:3比例劃分訓練集與測試集,樣本信息如表1所示。

數據集2:德國帕德博恩大學(paderbornuniversity,PU)電氣工程實驗室的軸承故障數據,測試軸承型號均為6203型號滾動軸承。本實驗選取采樣頻率為 64kHz 狀態下加速壽命試驗數據進行仿真實驗,軸承故障分為單點損傷(singledamage,S)和多點損傷(multipledamage,M);故障發生的位置分為軸承的內圈和外圈;故障類型分為疲勞點蝕(fa-tiguepitting,FP)和壓痕(indentation,IN),劃分為7類故障類型,每種類型包含5000個樣本,每個樣本長度為2048個數據點。將數據集打亂后按照7:3比例劃分訓練集與測試集。樣本信息如表2所示。

表1CWRU實驗數據信息Tab.1 CWRUexperimental datainformation
表2PU實驗數據信息Tab.2PUexperimental data information

2.2 實驗結果對比分析

為驗證本文方法對通信效率的優化效果,將對比實驗分為兩部分:設置Fed-DWB模型對比實驗,驗證對通信時長的優化效果;設置Fed-DWB模型結合SAC-BiGRU模型對比實驗,驗證SAC-BiGRU對通信輪次的優化效果以及二者結合后的優化效果。實驗中SAC-BiGRU模型具體參數見表3。

表3模型參數Tab.3 model parameter

2.2.1 Fed-DWB模型對比實驗

為驗證Fed-DWB模型對聯邦學習中通信時長和通信效率的優化效果,利用上述數據集分別進行實驗驗證,將兩組數據集按照預設數據量占比(1:2:3,,10)對實驗數據集進行隨機采樣,并隨機分配給10個不同的工廠子端模擬其不同的本地故障數據。隨機采樣以及分配不同比例的數據量可以滿足數據異質性的需求,同時滿足交叉驗證的合理性。首先驗證聯邦學習的有效性并確定好后續實驗基本實驗參數。實驗結果如表4所示。

表4不同比例系數下訓練效果對比表

由表4可知,在相同通信輪次和訓練次數下,不同 Ψc 值(即參與通信的工廠子端比例)對聯合訓練準確率和時間的影響,隨著 c 值的增加,準確率隨之升高,但通信時長也呈上升趨勢。基于本文對于通信優化的需求,以下實驗將固定通信輪次 =10… 0.3、傳參比例 =1 ,記錄工廠子端利用FedAvg在不同訓練次數(E)以及利用聯邦近端算法(federatedproximal,FedProx)[22]、Fed-DWB 模型動態調整工廠子端訓練次數(Ep)下的準確率、通信時長和信準率的變化情況,如表5所示。

表5工廠子端不同訓練次數的效果對比表

由表5可知,在兩個數據集中,利用FedAvg,當E=1 時,通信時長最短但準確率最低。兩個數據集中分別當 E=3,E=4 的時候準確率最高,為93.38% 和 93.16% 。通過對比,利用Fed-DWB準確率達到 93.17% 與 93.03% 的同時通信時長接近最短。相較于FedAvg, E=5 時分別縮短了 0.29min 和 0.69min ,信準率分別提高了 4.19% 與 7.56% :相較于FedProx準確率分別提高了 0.26% 與1.16% ,通信時長均縮短 0.05min ,可見在通信上的優化效果。由此可以說明,利用Fed-DWB模型動態調整工廠子端訓練次數可以充分利用各工廠資源,使反饋效果更好的子端獲得更多的訓練次數,達到更好的訓練效果。

進一步驗證利用Fed-DWB模型僅動態調整傳參比例的優化效果,固定通信輪次 Fe-dAvg 中 E=3 ,記錄不同傳參比例以及動態調整上傳參數比例( ?sp? 下的準確率、通信時長和信準率的變化情況,如表6所示,

表6不同傳參比例的效果對比表

由表6可知,FedAvg與FedProx隨上傳參數比例增大準確率穩步提升,但通信時長也隨之增加。

Fed-DWB相比于FedAvg傳參比例為1時,通信時長分別縮短了 0.50min 與 0.51min ;相比于Fed-Prox,分別縮短了 0.37min 與 0.34min ,準確率接近于最高值分別為 93.05% 93.13% ,同時信準率達到最高的 45.39% 與 42.98% ,由此可以說明,利用Fed-DWB模型動態調整工廠子端上傳參數比例可以減少通信參數量,有效縮短數據交互的通信時長,使模型更快的達到較好的診斷效果。

基于上述實驗,以CWRU為例,利用Fed-DWB模型同時動態加權調整工廠子端訓練次數以及上傳參數比例,利用FedAvg,固定傳參比例 =1 ,分別設計 E=1 和4;以及固定 E=3 ,傳參比例 =0.5 和0.8;同時利用FedProx,設計 E=Ep ,傳參比例為0.3和0.7與之對比,其實驗結果如圖5所示。

由圖5可知,Fed-DWB相比于FedAvg與Fed-Prox,在準確率達到最高的 93.05% 的同時信準率也有較為明顯的優勢,達到 45.39% ,較最低準確率和信準率分別提高了 15.76% 與 8.64% 。從通信優化的角度出發,Fed-DWB優化效果明顯。由此可以說明,利用Fed-DWB模型動態調整訓練次數和傳參量有效降低了數據異質性對通信效率的影響,降低通信過程中數據交互量的同時,保證優質子端獲得更多的訓練資源,有效解決了由于故障數據異質性大導致的聯合訓練建模通信時間過長的問題。

2.2.2 Fed-DWB結合SAC-BiGRU的對比實驗

為進一步驗證SAC-BiGRU診斷模型對聯合訓練通信輪次的優化效果以及Fed-DWB結合SAC-BiGRU對通信的進一步優化,以下實驗利用Fe-dAvg、FedProx以及Fed-DWB分別設置GRU、BiGRU和SAC-BiGRU三種診斷模型,記錄聯合訓練準確率達到 92.20% 的通信時長和通信輪次的變化情況,如表7所示。

表7不同組合方式下的效果對比表

由表7可知,在兩個數據集中,使用FedAvg、FedProx以及Fed-DWB搭配GRU診斷模型時,達到指定聯合訓練準確率所用的通信時長與通信輪次均是最多的,而用SAC-BiGRU診斷模型的通信時長最短,同時所用的通信輪次最少。由此可以說明,利用SAC-BiGRU診斷模型在有限的訓練次數中可以充分提取故障特征,使全局模型更快達到指定的準確率,有效減少所需的通信輪次以及通信時長。通過縱向對比發現Fed-DWB結合SAC-BiGRU所需通信時長最短、通信輪次最少,在通信時長上分別較最長的通信時長縮短了 6.42min 與 6.89min ,通信輪次分別縮短了9輪與10輪,可見Fed-DWB結合SAC-BiGRU具有更好的通信優化效果。

基于上述實驗,以CWRU 為例,利用 FedAvg、FedProx與Fed-DWB搭配不同的診斷模型,設置通信輪次為5、10、15和20,對比不同方法所需要的通信時長,其實驗結果如圖6所示。進一步,聯合訓練達到指定準確率 92.20% 時,對比不同方法的通信輪次的實驗結果如圖7所示。

由圖6可知,本文所提出的Fed-DWB模型結合SAC-BiGRU診斷模型在不同通信輪次下通信時長均是最短的。在通信10輪時相較于FedAvg通信時長降低了 56.88% ,相較于FedProx通信時長降低了53.19% ,證明了其對通信時長的顯著優化效果。

圖6不同通信輪次下通信時長的變化柱狀圖Fig.6Histogram of changes in communication duration under different communication rounds

由圖7可知,達到指定準確率時,Fed-DWB結合SAC-BiGRU相較于FedAvg結合GRU在通信輪次上減少了9輪,降低了 47.37% ,相較于FedProx結合GRU減少了7輪,降低了 41.18% ,同時證明了其在通信輪次上的顯著優化效果。由此可見本文所提方法通過動態調整工廠子端訓練次數和中心聚合時的傳參比例來減少通信時長,并充分提取故障特征提升各子端模型精度,從而縮短聯合訓練達到指定準確率的通信輪次,在保證故障診斷準確率的同時,充分利用各子端計算資源,快速聚合優質子端的模型參數,提高通信效率。

3結論

針對各工廠子端數據異質性大,導致傳統聯邦學習通信效率低的問題,本文提出了一種基于高效通信聯邦學習的設備故障診斷方法。首先,提出Fed-DWB模型,有效減少通信中參數量的同時,保證優質工廠子端獲得更多本地訓練次數,進而減少通信時長:其次,提出SAC-BiGRU診斷模型,在有限的訓練次數中充分提取故障特征,提升各子端故障診斷準確率的同時保證聯合訓練效率,有效減少通信輪次。實驗表明,本文方法相較于FedAvg結合GRU的方法,在故障診斷準確率到達 92.20% 的同時,通信時長降低了 56.88% ,通信輪次縮短了47.37% ;相較于FedProx結合GRU的方法,在故障診斷準確率到達 92.20% 的同時,通信時長降低了53.19% ,通信輪次縮短了 41.18% 。實現典型故障精準診斷分類的同時,減少了聯合訓練建模的通信時長以及通信輪次,兼顧診斷準確率的同時有效提升了通信效率,解決了異質數據下傳統聯邦學習通信效率低的問題。

參考文獻:

[1]TYAGI S,RAJPUT I S,PANDEY R. Federated Learning:Applications,Security Hazards and Defense Measures[C] //2O23 International Conference on Device Intellgence,Computing and Communication Technologies, (DICCT). IEEE,2023:477.

[2]李少波,楊磊,李傳江,等.聯邦學習概述:技術、應 用及未來[J].計算機集成制造系統,2022,28 (7) : 2119. LI S B,YANG L,LI C J,et al. Overview of Federated Learning: Technology,Applications,and the Future[J]. Computer Integrated Manufacturing System,2022,28 (7): 2119.

[3]HUANG G Y,LEE C H. Federated Learning Architecture for Bearing Fault Diagnosis[C]//2O21 International Conference on System Science and Engineering (ICSSE) . IEEE,2021:408.

[4]GENG D Q,HE H W,LAN X C,et al. Bearing Fault Diagnosis Based on Improved Federated Learning Algorithm[J].Computing,2022, 104(1):1 :

[5]DU J,QIN N,HUANG D, et al. An Efficient Federated Learning Framework for Machinery Fault Diagnosis With Improved Model Aggregation and Local Model Training [J]. IEEE Transactions on Neural Networks and Learning Systems,2023,35:10086.

[6]GUERRA E,WILHELMI F,MIOZZO M,et al. The Cost of Training Machine Learning Models over Distributed Data Sources[J]. IEEE Open Journal of the Communications Society,2023,4: 1111.

[7]邱鑫源,葉澤聰,崔翛龍,等.聯邦學習通信開銷研 究綜述[J].計算機應用,2022,42(2):333. QIU XY,YE Z C,CUI X L,et al. A Review of Research on Communication Costs in Federated Learning[J] Computer Applications,2022, 42 (2) : 333.

[8]YEY,LI S,LIU F,et al. EdgeFed:Optimized Federated Learning Based on Edge Computing[J]. IEEE Access,,2020,8: 209191.

[9]REISIZADEH A,MOKHTARI A,HASSANI H,et al. Fedpaq: a Communication-efficient Federated Learning Method with Periodic Averaging and Quantization[C]// International Conference on Artificial Intelligence and Statistics, 2020:2021.

[10] WANG H, KAPLAN Z, NIU D,et al. Optimizing Federated Learning on Non-iid Data with Reinforcement Learning[C]//IEEE INFOCOM 2020 - IEEE Conference on Computer Communications. IEEE,2020:1698.

[11]諶明,張蕾,馬天翼.一種基于注意力聯邦蒸餾的推 薦方法[J].軟件學報,2021,32(12):3852. CHEN M,ZHANG L,MA TY.A Recommendation Method Based on Attention Federated Distillation[J] Journal of Software Science,2021,32(12) : 3852.

[12]王惜民,范睿.基于類別不平衡數據聯邦學習的設備 選擇算法[J].計算機應用研究,2021,38 (10): 2968. WANG X M,FAN R. Device Selection Algorithm Based on Class Unbalanced Data Federated Learning[J]. Computer Application Research,2021,38(10): 2968.

[13]賀文晨,郭少勇,邱雪松,等.基于DRL的聯邦學習 節點選擇方法[J].通信學報,2021,42(6):62. HE WC,GUO SY,QIUXS,et al. DRL Based Federated Learning Node Selection Method[J].Journal of Communications,2021,42(6) : 62.

[14]YIFENG D,ANQIL,KAI M,et al. Research on Optimal Strategy of Residential Buildings Energy Based on Standardized Euclidean Distance Measure Similarity Search Method[J].IOP Conference Series:Earth and Environmental Science,2021,651(2):22052.

[15]GARCIA-ARIAS AL,OKOSHI Y,HASHIMOTO M,et al. Recurrent Residual Networks Contain Stronger Lottery Tickets[J]. IEEE Access,2023,11:16588.

[16]MCMAHAN HB,MOORE E,RAMAGE D, et al. Communication Efcient Learning of Deep Networks from Decentralized Data[J]. Artificial Intelligence and Statistics, Florida,2017:1273.

[17]TONG W,LIYUE F,YUHU Z,et al. Service Price Forecasting of Urban Charging Infrastructure by Using Deep Stacked CNN-BiGRU Network [J]. Engineering Applicationsof Artificial Intelligence,2022,116:105445.

[18]陰艷超,洪志敏,顧文娟,等.融合多通道CNN-BiGRU與時間模式注意力機制的多工序工藝質量預測方 法[J].計算機集成制造系統,2024:1. YIN Y C,HONG Z M,GU W J,et al. A Multi Process Process Quality Prediction Method Based on the Fusion of Multichannel CNN BiGRU and Time Pattern Attention Mechanism[J] Computer Integrated Manufacturing System,2024:1.

[19]李峰,陳皖皖,楊義.基于稀疏自適應S變換和深度殘 差網絡的軸承故障診斷方法[J].電機與控制學報, 2022,26(8) :112. LIF,CHENWW,YANGY.Research onBearing Fault Diagnosis Based on Sparse Adaptive S-transform and Deep Residual Network[J]. ELECTRIC MACHINES AND CONTROL, 2022,26(8) :112.

[20]DUAN Y,LI H,HE M,et al. A BiGRU Autoencoder RemainingUseful Life Prediction Scheme with Attention Mechanism and Skip Connection[J]. IEEE Sensors Journal,2021,21(9):10905.

[21]柳秀,馬善濤,謝怡寧,等.面向軸承故障診斷的深 度學習方法[J].哈爾濱理工大學學報,2022,27 (4):118. LIU X,MA S T, XIE Y N,et al. A Deep Learning Method for Bearing Fault Diagnosis[J]. Journal of Harbin Institute of Technology,2022,27(4): 118.

[22]LIT,SAHUAK,ZAHEERM,etal.Federated Optimization in Heterogeneous Networks [J]. Proceedings of Machine learning and systems, 2020,2:429.

(編輯:溫澤宇)

猜你喜歡
故障實驗模型
一半模型
記一次有趣的實驗
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
故障一點通
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
奔馳R320車ABS、ESP故障燈異常點亮
主站蜘蛛池模板: 国产青榴视频| 日韩A∨精品日韩精品无码| 免费无码网站| 国产精品成人观看视频国产| 国产乱人伦AV在线A| 国产亚洲高清视频| 亚洲综合亚洲国产尤物| 九九线精品视频在线观看| 免费人成视频在线观看网站| 72种姿势欧美久久久久大黄蕉| 久久久久久午夜精品| 亚洲一道AV无码午夜福利| 国产乱子伦无码精品小说| 国内精品久久久久久久久久影视| 久久不卡国产精品无码| 亚洲天堂视频在线观看免费| 亚洲精品无码av中文字幕| 伊人AV天堂| 欧美黄色网站在线看| 国产精品网曝门免费视频| 日韩在线1| 亚洲天堂日韩av电影| 99久久精品免费观看国产| 日本高清有码人妻| 精品视频第一页| 成人国产精品视频频| 热这里只有精品国产热门精品| 精品久久香蕉国产线看观看gif | 色偷偷男人的天堂亚洲av| 国产欧美日韩综合一区在线播放| 思思99思思久久最新精品| 乱人伦99久久| 亚洲免费福利视频| 国产丝袜91| 九九九九热精品视频| 亚洲成人在线网| 日本一区高清| 欧美精品亚洲精品日韩专区| 好紧好深好大乳无码中文字幕| 最新国产高清在线| 成人午夜视频免费看欧美| 色婷婷视频在线| 亚洲日韩精品综合在线一区二区 | 久久久噜噜噜| 在线综合亚洲欧美网站| 国产剧情一区二区| 亚洲午夜综合网| 亚州AV秘 一区二区三区| 欧美亚洲中文精品三区| 伊人成色综合网| 国产成人凹凸视频在线| 成人福利在线免费观看| 国产日韩欧美精品区性色| 国产SUV精品一区二区| 国产成人精品男人的天堂| 青青国产视频| 亚洲成aⅴ人在线观看| 色综合久久久久8天国| 国产微拍精品| 九月婷婷亚洲综合在线| 91精品啪在线观看国产60岁| 热99re99首页精品亚洲五月天| 日韩资源站| 国产凹凸一区在线观看视频| 丰满人妻一区二区三区视频| 黄色免费在线网址| 天天做天天爱天天爽综合区| 久久99国产综合精品1| 欧美日韩国产成人高清视频| 中文字幕第4页| 国产网友愉拍精品| aaa国产一级毛片| 国产在线无码一区二区三区| 57pao国产成视频免费播放| 色婷婷成人| 久久黄色影院| 欧美在线伊人| 99热精品久久| 国产精品亚洲va在线观看| 青青久视频| 免费观看国产小粉嫩喷水| 97在线国产视频|