朱瑞琪 陸佳敏 陸佳艷 李梓滔



摘 要:作為智能電網(wǎng)發(fā)展的分支,非侵入式負(fù)荷監(jiān)測技術(shù)在促進用戶用電行為信息細粒化、提高電能資源利用效率、推動智能電力可持續(xù)發(fā)展等方面起著重要作用。為提高用電設(shè)備特征提取的有效性以及負(fù)荷分解的精確度,提出了一種基于自注意力機制的CNN-BiLSTM非侵入式負(fù)荷分解方法。首先,采集用電設(shè)備端智能電表的總負(fù)荷功率,對原始數(shù)據(jù)進行歸一化處理,缺失值填充后劃分為訓(xùn)練集與測試集。其次,對卷積神經(jīng)網(wǎng)絡(luò)(CNN)與雙向長短期記憶網(wǎng)絡(luò)(BiLSTM)的混合模型進行訓(xùn)練與優(yōu)化,同時引入自注意力機制,決定輸出權(quán)重值,從而提高網(wǎng)絡(luò)預(yù)測精度和表征能力。最后,將測試集中的總功率送入網(wǎng)絡(luò)進行負(fù)荷分解,結(jié)果表明,在研究神經(jīng)網(wǎng)絡(luò)后提出的模型能充分挖掘數(shù)據(jù)的空間與時序特征,同時對重要特征進行有效提取,提高了負(fù)荷分解的能力。
關(guān)鍵詞:非侵入式負(fù)荷分解;自注意力機制;卷積神經(jīng)網(wǎng)絡(luò);雙向長短期記憶網(wǎng)絡(luò)
中圖分類號:TM714? ? 文獻標(biāo)志碼:A? ? 文章編號:1671-0797(2023)16-0077-05
DOI:10.19514/j.cnki.cn32-1628/tm.2023.16.020
0? ? 引言
非侵入式負(fù)荷監(jiān)測,又稱“負(fù)荷分解”,是一種電力系統(tǒng)監(jiān)測技術(shù),通過數(shù)學(xué)模型從總負(fù)荷的電氣量中分解出特定用電設(shè)備的電氣量,用以預(yù)測各電氣設(shè)備的具體耗能情況及用電規(guī)律。根據(jù)技術(shù)的不同實現(xiàn)方式,負(fù)荷監(jiān)測分為兩大類:侵入式負(fù)荷監(jiān)測(NILM)和非侵入式負(fù)荷監(jiān)測與分解(ILM)。在ILM中,傳感器需要安裝到每一個待測設(shè)備上,這種方式雖然可以獲得各設(shè)備的精確耗能信息,但其高昂的投資和維護成本限制了其應(yīng)用范圍。相比之下,NILM將智能電表裝設(shè)在主電路處,通過監(jiān)測主電路的功率變化,識別出各設(shè)備的負(fù)荷信息,具有成本投入低、實用性強的特點。除了實現(xiàn)供給側(cè)能源的優(yōu)化配置與管理,NILM還提高了用戶節(jié)能環(huán)保的意識,并為用戶與電網(wǎng)之間的良性互動提供了基礎(chǔ)支撐。
非侵入式負(fù)荷監(jiān)測技術(shù)由20世紀(jì)90年代發(fā)展至今,已有多位專業(yè)學(xué)者開展了大量研究。文獻[1]提出了一種利用功率簽名與狀態(tài)機技術(shù)的負(fù)載分解方法,可以準(zhǔn)確記錄設(shè)備的開關(guān)信息,并輔以機器學(xué)習(xí)對設(shè)備進行識別,但在使用前須做好負(fù)荷信息收集工作。文獻[2]利用隱馬爾可夫模型將復(fù)雜的功率信息劃分為幾種有限的運行狀態(tài),實現(xiàn)電器狀態(tài)自動辨識與分類,但該模型在捕捉長期依賴關(guān)系方面有所欠缺。文獻[3]根據(jù)奇次諧波電流幅值為負(fù)載特性的敏感指標(biāo),使用其作為負(fù)荷的辨識特征,利用綜合k-NN的簡捷性與核Fisher判別的非線性分類能力,針對相近設(shè)備進行有效識別,但同時需要考慮電網(wǎng)中可能產(chǎn)生的干擾和噪聲對分解精度的影響。文獻[4]采用遺傳算法與基于近鄰傳播聚類的方法來構(gòu)建負(fù)荷特征數(shù)據(jù)集,用穩(wěn)態(tài)功率來區(qū)分不同負(fù)荷,但需要占用大量的計算資源。
如今,越來越多的學(xué)者開始投入這一領(lǐng)域的研究,這得益于深度學(xué)習(xí)的廣泛應(yīng)用和不斷取得的研究進展。神經(jīng)網(wǎng)絡(luò)因其優(yōu)異的特征學(xué)習(xí)能力與良好的泛化特性,逐漸被應(yīng)用于負(fù)荷監(jiān)測與分解中,成效斐然。文獻[5]提出基于注意力時序網(wǎng)絡(luò)實現(xiàn)對于信息重要級別的劃分。文獻[6]通過搭建編碼器和解碼器的seq2seq框架并引入殘差網(wǎng)絡(luò),降低了模型訓(xùn)練難度。文獻[7]利用一維卷積神經(jīng)網(wǎng)絡(luò)與注意力機制相結(jié)合,相對提高了負(fù)荷分解的精確度。文獻[8]采用基于批量規(guī)范化和爬山算法的卷積神經(jīng)網(wǎng)絡(luò),減少了過擬合現(xiàn)象的發(fā)生,同時提高了網(wǎng)絡(luò)的泛化能力。
為了完善CNN模型,本文提出了一種混合深度學(xué)習(xí)模型,將CNN與BiLSTM相結(jié)合,以充分挖掘用戶數(shù)據(jù)的時空特征,并通過自注意力機制優(yōu)化網(wǎng)絡(luò),提高重要特征的注意力權(quán)重并抑制非重要特征,確保有用數(shù)據(jù)的優(yōu)先級。該模型不僅能有效減少訓(xùn)練時間,同時在非侵入式負(fù)荷分解精度方面也有顯著提高。另外,該模型在降低參數(shù)數(shù)量、提高穩(wěn)定性的同時,還能充分發(fā)揮深度學(xué)習(xí)的優(yōu)勢。
1? ? 網(wǎng)絡(luò)介紹
1.1? ? CNN
如圖1所示,CNN(卷積神經(jīng)網(wǎng)絡(luò))[9]屬于典型的前饋神經(jīng)網(wǎng)絡(luò),具有從空間維度逐層提取數(shù)據(jù)特征的能力,是深度學(xué)習(xí)的代表之一。CNN一般由輸入層、卷積層、池化層、全連接層、輸出層組成。其中卷積層根據(jù)卷積核滑動對一個范圍內(nèi)的數(shù)據(jù)提取特征值;池化層通過對卷積層輸出的特征映射進行降維操作,來保留重要特征,剔除冗余特征,其中最大值池化(Max Pooling)是常用的池化方法。多層卷積層與池化層交疊處理后,將輸出數(shù)據(jù)通過全連接層進行整合和歸一化處理,輸出層采用softmax函數(shù)進行多負(fù)荷識別。
1.2? ? LSTM
LSTM(長短期記憶網(wǎng)絡(luò))[10]是RNN的一種特殊類型,擁有三種類型的門結(jié)構(gòu),分別為遺忘門、輸入門和輸出門。
遺忘門通過讀取上一個時刻的短期記憶ht-1和當(dāng)前時刻輸入xt,做Sigmoid激活函數(shù)的非線性映射,然后輸出過去記憶衡量因子ft,如式(1)所示:
ft=σ(Wf·[ht-1,xt]+bf)? ? (1)
輸入門用于更新信息記憶。it控制對當(dāng)前時刻信息的記憶程度,通過tach激活函數(shù)縮放當(dāng)前時刻單元記憶值ct,再加上遺忘門與記憶門調(diào)節(jié)上一個時刻的舊信息ct,便可獲得更新后的信息,如式(2)(3)(4)所示:
it=σ(Wi·[ht-1,xt]+bi) (2)
(3)
(4)
輸出門用于確定下一個隱藏層的值。ot控制當(dāng)前時刻單元狀態(tài)輸出給隱藏層的狀態(tài)ht并作為LSTM的輸出,如式(5)(6)所示:
ot=σ(Wo·[ht-1,xt]+bo) (5)
ht=ot×tanh(ct)? ?(6)
式中:Wf、Wi、Wc、Wo分別為遺忘門、輸入門、tach層、輸出門的權(quán)重向量;bf、bi、bc、bo分別為其對應(yīng)的偏移量;σ為Sigmoid激活函數(shù);ht為輸出的負(fù)荷狀態(tài)特征。
LSTM能在時序資料中捕捉到長期的依賴關(guān)系,有效地解決了RNN在反向傳播中出現(xiàn)的梯度彌散問題。LSTM的基本結(jié)構(gòu)如圖2所示。
1.3? ? BiLSTM
BiLSTM由兩個并行的正向和反向標(biāo)準(zhǔn)LSTM通道構(gòu)成,能兼顧前后時刻的信息對當(dāng)前狀態(tài)的影響,相比于LSTM提高了特征提取效率與性能,如式(7)(8)(9)所示:
(7)
(8)
(9)
的權(quán)重向量;bt為該時刻隱藏狀態(tài)的偏移量。
BiLSTM的基本結(jié)構(gòu)如圖3所示。
1.4? ? 自注意力機制
注意力機制通過對上級網(wǎng)絡(luò)所輸出的狀態(tài)信息序列進行權(quán)重分配,自動篩選重要信息,舍棄干擾信息,以全面掌握輸入內(nèi)容的核心。而自注意力機制(self-attention mechanism)是注意力機制的一種變體,能夠捕捉同一序列中兩個不同位置信息的相互作用,更加注重數(shù)據(jù)本身的特征和數(shù)據(jù)之間的內(nèi)部交互,減少了對外部信息的依賴程度,提高了信息的利用率。自注意力機制的基本結(jié)構(gòu)如圖4所示。
自注意力機制包括縮放點積注意力(SDA)機制和多頭注意力(MHA)機制兩部分,本文重點關(guān)注SDA部分。SDA是對輸入序列X做線性映射,過程如式(10)(11)(12)所示,得到矩陣Q、K和V:
Q=WqX? (10)
K=WkX? (11)
V=WvX (12)
通過Q和K矩陣的點積除以 進行相似度計算,以防止計算所得值過大,再通過softmax函數(shù)進行歸一化處理,最后通過加權(quán)求和法得到最終數(shù)據(jù),如式(13)所示:
(13)
式中:Q,K,V為同一輸入矩陣做線性映射所得到的矩陣;Dk為穩(wěn)定訓(xùn)練梯度的矩陣;softmax(·)為具有歸一化功能的激活函數(shù)。
1.5? ? 基于自注意力機制的CNN-BiLSTM網(wǎng)絡(luò)結(jié)構(gòu)
本文提出的基于自注意力機制的CNN-BiLSTM網(wǎng)絡(luò)結(jié)構(gòu)整體由兩層CNN網(wǎng)絡(luò)、一層BiLSTM、兩層全連接層構(gòu)成,如圖5所示。
首先,將包含L個時刻信息的總有功功率時間序列輸入兩層卷積層,用于提取更深層次的負(fù)荷特征,得到特征矩陣B×CH1×W1與B×CH2×W2。其中W1=W2=L為兩卷積層輸出矩陣的特征長度,B表示模型的批處理個數(shù),CH1、CH2表示各層網(wǎng)絡(luò)中卷積核個數(shù)(特征通道)。第一層卷積層的卷積核個數(shù)為16,尺寸為3;第二層卷積層的卷積核個數(shù)為32,尺寸為3;兩層激活函數(shù)均選擇ReLU。池化層和Flatten層分別用于數(shù)據(jù)降維和扁平化處理。
其次,CNN網(wǎng)絡(luò)把提取到的特征輸入神經(jīng)元個數(shù)為32的BiLSTM網(wǎng)絡(luò)。由于BiLSTM網(wǎng)絡(luò)所產(chǎn)生的隱藏層狀態(tài)ht= t是由相反的兩個隱藏層狀態(tài)拼接而成,所以其維度相對于普通LSTM網(wǎng)絡(luò)增加一倍,輸出神經(jīng)元個數(shù)翻倍為2HD,最終BiLSTM輸出特征矩陣維度為B×W2×2HD。
為使模型的最終輸出為設(shè)備概率分布向量,利用兩層全連接層分別將W2轉(zhuǎn)變?yōu)樾璺纸獾脑O(shè)備個數(shù)n,2HD轉(zhuǎn)變?yōu)樗蟹纸庠O(shè)備的最大狀態(tài)個數(shù)kmax,并通過兩個全連接層計算注意力機制得分對網(wǎng)絡(luò)進行優(yōu)化,使用softmax函數(shù)計算各隱層狀態(tài)權(quán)重,與對應(yīng)隱層狀態(tài)按權(quán)相加得到動態(tài)時序向量ct,如式(14)所示:
(14)
式中:αi表示各隱層權(quán)重;hi表示BiLSTM層所得的第i個ht。
2? ? 基于自注意力機制的CNN-BiLSTM的非侵入式負(fù)荷分解
2.1? ? 分解原理
有功功率是電器耗電特性中最常用的指標(biāo)之一,可直接從智能電表中準(zhǔn)確讀出,本文以有功功率作為研究對象,以用電設(shè)備的開啟和關(guān)閉狀態(tài)作為標(biāo)簽,其中開啟狀態(tài)為1,關(guān)閉狀態(tài)為0。在只有N個簡單投切二狀態(tài)且投入時沒有功率畸變的負(fù)載與智能電表相連的情況下,t時刻總表功率可表示為公式(15):
P(t)= t)Pm+e(t)? ?(15)
式中:am(t)為負(fù)荷m在t時刻的狀態(tài),數(shù)值為1或0分別代表負(fù)荷的開啟或關(guān)閉;Pm為負(fù)荷m所消耗的有功功率;e(t)為噪聲干擾或誤差。
2.2? ? 負(fù)荷分解流程
如圖6所示,具體負(fù)荷分解流程如下:
1)數(shù)據(jù)輸入提取:數(shù)據(jù)在輸入神經(jīng)網(wǎng)絡(luò)之前需要進行重疊滑動窗口處理,即將原始數(shù)據(jù)劃分為恒等長度的向量序列,再進行缺失值填充。
2)數(shù)據(jù)歸一化處理:將數(shù)據(jù)以8:2比例劃分為訓(xùn)練集與測試集,分別用于網(wǎng)絡(luò)模型的訓(xùn)練與預(yù)測結(jié)果輸出。在數(shù)據(jù)輸入模型訓(xùn)練前,將輸入與輸出數(shù)據(jù)進行歸一化處理,即通過線性變化將取值固定于[-1,1]的區(qū)間內(nèi),如公式(16)所示:
(16)
式中:xi為功率的真實值;xmin、xmax分別為有功功率的最小值和最大值;xi′為歸一化的結(jié)果。
3)模型訓(xùn)練:將訓(xùn)練集的數(shù)據(jù)輸入模型進行訓(xùn)練,由CNN層在空間維度上進行負(fù)荷特征提取,BiLSTM層聯(lián)系上下層向量,在時間維度上提取特征。
4)結(jié)果輸出:Attention層分配權(quán)重值,突出重要特征,得到負(fù)荷預(yù)測輸出。
3? ? 分解結(jié)果
圖7為真實的總有功功率運行曲線。圖8為采用本文模型得到的各用電設(shè)備功率分解結(jié)果,其中實線為設(shè)備真實功率,虛線為本文模型的分解結(jié)果。由圖可得,所得分解結(jié)果與設(shè)備真實運行曲線基本擬合,本文模型具有良好的分解性能。
4? ? 結(jié)束語
本文所述模型通過構(gòu)建CNN逐層在空間維度上抽象數(shù)據(jù)特征,進一步引入BiLSTM提取其時間特性,并對重要特征進行更大的權(quán)重分配,從而提高了負(fù)荷分解的準(zhǔn)確率。由實驗分解結(jié)果可得,該模型具有良好的負(fù)荷分解性能。
[參考文獻]
[1] ZHU Y,LEE S G,CHUNG K S,et al.Investigation of Auxiliary Poles Design Criteria on Reduction of End Effect of Detent Force for PMLSM[J].IEEE Transactions on Magnetics,2009,45(6):2863-2866.
[2] JI T Y,LIU L,WANG T S,et al.Non-Intrusive Load Monitoring Using Additive Factorial Approximate Maximum a Posteriori Based on Iterative Fuzzy c-Means[J].IEEE Transactions on Smart Grid,2019, 10(6):6667-6677.
[3] 宋旭帆,周明,涂京,等.基于k-NN結(jié)合核Fisher判別的非侵入式負(fù)荷監(jiān)測方法[J].電力系統(tǒng)自動化,2018,42(6):73-80.
[4] 徐青山,婁藕蝶,鄭愛霞,等.基于近鄰傳播聚類和遺傳優(yōu)化的非侵入式負(fù)荷分解方法[J].電工技術(shù)學(xué)報,2018,33(16):3868-3878.
[5] 沙建峰,席樂,馮亞杰,等.基于注意力時序網(wǎng)絡(luò)的非侵入式負(fù)荷分解[J].南京信息工程大學(xué)學(xué)報(自然科學(xué)版),2023,15(4):448-459.
[6] 何健明,李夢詩,張祿亮,等.基于Attention和殘差網(wǎng)絡(luò)的非侵入式負(fù)荷監(jiān)測[J/OL].電測與儀表:1-9.(2021-08-06)[2023-04-20].https://kns.cnki.net/kcms2/article/abstract?v=3uoqIhG8C45S0n9fL2suRadTyEVl2-pW9UrhTDCdPD64iLFH7p67cuPgOSGeusRoUT9AI2ej7O8j8 -LOJCqArNsGNSYiTLE1dL&uniplatform=NZKPT.
[7] 蒙亮,于超,張希翔,等.基于一維卷積神經(jīng)網(wǎng)絡(luò)和自注意力機制的非侵入式負(fù)荷分解[J].電力大數(shù)據(jù),2020,23(10):1-8.
[8] CHEN H,WANG Y H,F(xiàn)AN C H.A Convolutional Autoencoder-based Approach with Batch Normalization for Energy Disaggregation[J].Journal of Supercompu-ting,2021,77(3):2961-2978.
[9] LECUN Y,BOTTOU L,BENGIO Y,et al.Gradient-based Learning Applied to Document Recognition[J]. Proceedings of the IEEE,1998,86(11):2278-2324.
[10] HOCHREITER S,SCHMIDHUBER J.Long Short-term Memory[J].Neural Computation,1997,9(8):1735-1780.
收稿日期:2023-04-26
作者簡介:朱瑞琪(2002—),女,安徽界首人,研究方向:非侵入式負(fù)荷監(jiān)測。