薛太林,耿杰
(山西大學 電力工程系,山西 太原 030013)
電力系統配電網故障分為單相接地故障、相間短路故障和接地相間短路故障,其中80%~90%的配電網故障為單相接地故障[1-3]。雖然小電流接地系統在單相接地故障后仍然可以保持正常工作時間,但是隨著電力系統配電網規模增大,單相接地短路故障造成的影響也隨之增大。不僅影響了用戶的正常供電,而且可能產生過電壓,燒壞設備,如果其他線路也具有金屬性短路,則同時會發生相間短路,這是更嚴重的短路事故。為了避免造成更大的事故,應迅速識別故障線路和正常線路[4]。
針對配電網單相接地故障,國內外專家做了許多研究。文獻[5]對比了人工神經網絡、分類決策樹、貝葉斯網絡和支持向量機等不同算法對配網選線的精確度的影響,但是只是對比了傳統的算法并沒有對算法進行改進優化。文獻[6]提出了采用小波頻熵和熵權作為深度神經網絡訓練的特征值,但是存在激活函數梯度消失的問題。文獻[7]提出采用遺傳算法優化BP神經網絡,克服BP神經網絡對權值不敏感的問題,雖然提高了神經網絡的收斂速度,但是在提高故障辨識精度方面仍需改進。
為了解決上述問題,提出了采用交叉熵損失函數和改進學習率優化的深度神經網絡對故障進行辨別的方法。通過MATLAB/Simulink搭建的小電流接地系統單相接地故障模型,分析了五種故障特征,并計算故障特征值,構建了深度神經網絡模型。結果表明:優化后的深度神經網絡比未優化的深度神經網絡有效地減少了迭代次數,提高了學習效率,解決了Logistic sigmoid函數在訓練中存在梯度消失的問題。在測試樣本中加入少量的干擾信號對故障進行判斷時,判斷結果表明:優化后的深度神經網絡比未優化的神經網絡故障判斷更精確,準確率更高,抗干擾性好。
在我國,66 kV及以下配電網系統采用小電流接地方式,本文選取10 kV小電流系統為研究對象[8]。在MATLAB中搭建具有五條支路的小電流系統模擬故障,設置故障初相角從0~π、間隔0.02π,設置接地電阻從0~1 000 Ω、間隔10 Ω,設置故障點從線路始端、間隔0.5 km。通過MATLAB/Simulink仿真獲得大量故障數據,為之后深度網絡的研究奠定基礎。
1.1.1 零序電流基波故障特征
在中性點經消弧線圈接地系統中,基波的幅值與方向取決于消弧線圈的補償程度,此方法無法判斷故障;在中性點不接地系統中,故障線路基波分量為各非故障線路分量之和,且與非故障線路流向相反,選擇零序電流基波的幅值與相角作為所提取特征量,選取故障后第三個周期的波形提取特征值。使用傅里葉分解零序基波電流計算如式(1)所示。
(1)
式中:Re[I0]為實軸分量;Im[I0]為虛軸分量;Ts=1/fs;fs為采樣頻率;ωTs=2π/N;N為所取周期內采樣點個數。由于對基波進行傅里葉分解,因此n=1。
零序基波電流幅值I0、相角θ1計算如式(2)所示。
(2)
1.1.2 零序電流五次諧波故障特征
故障線路五次諧波分量是各非故障線路分量之和,且與非故障線路流向相反,故選擇五次諧波的幅值與相角作為所提取的特征量。同理對零序電流五次諧波進行傅里葉分解,計算過程如式(1)、式(2)所示,n=5。
1.1.3 零序電流有功分量故障特征
故障線路零序有功分量,在中性點不接地時,是各非故障線路有功之和,且方向相反;中性點經消弧線圈接地時,各非故障線路有功之和等于故障線路與消弧線圈支路有功之和,故選擇有功的大小、符號作為所提取特征量。首先選取故障后第三個周期的基波零序電流、電壓波形,通過傅里葉分解對基波零序電流、電壓進行分解,根據式(1)計算出基波零序電流、電壓的實軸分量Re[I0]、Re[U0]和虛軸分量Im[I0]、Im[U0]。根據式(2)計算出基波零序電壓幅值U0、基波零序電壓相位θU、基波零序電流幅值I0和基波零序電流相位θ1。
基波零序有功分量的計算如式(3)所示,|I0P|與其符號作為所提取的特征值。
I0P=I0cos(|θU-θ1|)
(3)
1.2.1 故障線路首半波故障特征
故障線路的故障信號首半波大小大于非故障線路,極性與非故障線路相反,故選擇故障后首半波的幅值與極性作為所提取特征量。選取故障發生后第一個周期內的零序電流為所采集信號,幅值計算如式(4)所示。
Imax=|I0|
(4)
式中:I0為故障發生后第一個周期的零序電流。若零序電流在前半個周期為正,則極性設為1,反之設極性為-1。
1.2.2 小波包能量故障特征
在特定的頻帶中,故障線路小波包能量大于非故障線路,故選擇小波包能量作為特征量。選取故障后第一個周期內的信號,使用db15小波基函數進行5層分解,計算第4尺度內的小波包能量作為特征值。
隨著云計算、大數據時代到來,計算機的計算能力大幅提升,緩解了過去對復雜模型訓練的低效性,訓練數據規模的擴大降低了數據過擬合的風險,因此深度學習得到了人們的青睞[9]。
圖1所示為三層隱含層的深度神經網絡,輸入層輸入值為所提取的m個故障特征值,記作列向量{xm}。每個激活函數的輸入值為前一層每個神經元的輸入值與相對應的權重值w乘積的和加誤差值b,激活函數的輸出值為下一層神經元的輸入值。

圖1 深度神經網絡結構圖
以第1個隱含層為例:xi為深度神經網絡的輸入值;wip為輸入值的權重系數;bip為誤差值;i為第1個隱含層輸入個數;p為第1個隱含層輸出個數;1為第1個隱含層。第1個隱含層激活函數的輸入z1p如式(5)所示。
(5)
σ為深度神經網絡激活函數,第1個隱含層激活函數的輸出值a1p為第2個隱含層的輸入值,如式(6)所示。
a1p=σ(z1p)
(6)
同理可得第2個隱含層的輸出a2e和激活函數的輸入z2e,如式(7)所示。
(7)
式中:2為第2個隱含層;e為第2個隱含層輸出個數。
第3個隱含層的輸出值yn為深度網絡的輸出值,第3個隱含層的輸入值為z3n,如式(8)所示。
(8)
式中:3為第3個隱含層;n為深度網絡輸出個數。

(9)
通過對深度網絡的訓練求取合適的網絡參數權重值w、誤差值b,使ε有最小值。
本文針對深度網絡損失函數和學習率對深度網絡進行優化。給定w、b初始值,采用梯度下降優化損失函數J,計算目標函數曲線每一個所取w在曲線上的斜率,η為學習率,第n+1次迭代w、b更新如式(10)所示。
(10)
2.2.1 損失函數的優化
(11)
設輸出層為L層,該層權重值wL和誤差值bL的梯度如式(12)所示。
(12)

輸出層L層的梯度情況用δL表示,如式(13)所示。
(13)
式中:⊙為Hadamard積。
而sigmoid激活函數表達式為:
(14)
由式(14)可知,當激活函數輸入值z的取值逐漸增大,函數曲線變得越來越平緩,意味著此時的導數σ′(z)也越來越小。同樣的,當z的取值越來越小時,也有這個問題。僅僅在z取值為0附近時,導數σ′(z)的取值較大。方差損失函數與sigmoid激活函數的反向傳播算法中,每一層向前遞推都要乘以σ′(z),得到梯度變化值。sigmoid函數的曲線在大多數時候,梯度變化值很小,導致w、b更新到極值的速度較慢,意味著算法收斂速度較慢。

(15)
則輸出層的梯度情況δL計算公式如式(16)所示。
(16)
式中:aL為輸出層的輸入值。
由式(12)和式(16),對比兩者在輸出層L層的δL梯度表達式,就可以看出使用交叉熵得到的梯度表達式δL沒有了σ′(z),梯度為預測值和真實值的差距,這樣求得的權重值wL和誤差值bL的梯度也不包含σ′(z),因此避免了反向傳播收斂速度慢的問題。
2.2.2 學習率的優化
深度神經網絡需要設置合適的學習率,如果學習率設置得過大,訓練誤差ε在每次更新后可能并不會減小;如果學習率設置得過小,訓練會變得很慢。因此在剛開始訓練時離最終結果遠,將學習率設置的大一點,當訓練了幾次后接近最終結果,將學習率調小,gi為訓練損失函數J對權值w的偏導數,t為迭代次數,改進學習率ηw設置如式(17)所示。
(17)
式中:η為固定值。導數gi越小學習率越大,反之亦然,學習率隨著迭代次數的增加越來越小。
深度網絡的輸入層節點數為9,輸出層節點數為5,每一個輸入代表一種所提取的特征值,每一個輸出代表一條線路,五個輸出節點輸出值最大的節點為本次判斷的結果即故障所在線路。選擇的深度神經網絡具有三個隱藏層,設定網絡的迭代次數為1 000,誤差界值設置為0.001,設置優化后的深度網絡初始的學習率η為0.01,根據式(17)設置改進的學習率ηw,每次迭代學習率根據梯度的下降而減小,設置未優化的深度網絡學習率η為0.001。
將前文所提的三種穩態特征量:零序電流基波幅值與極性特征,零序電流五次諧波幅值與極性特征,以及零序電流有功分量幅值與極性特征。故障首半波幅值與極性特征、小波包能量特征,作為深度網絡的輸入值對深度神經網絡進行訓練。
深度網絡的辨識精度通常會隨著網絡迭代次數的增加而提高。當訓練誤差ε的值達到所設定值0.001時,訓練停止。為了方便對比,當兩種深度網絡模型的訓練誤差都達到所設定值時,訓練停止。訓練誤差如圖2所示。

圖2 優化后的深度神經網絡和未優化的深度神經網絡訓練誤差
由圖2可知:采用交叉熵損失函數和改進學習率的優化的深度網絡誤差在21次迭代后降低至0.009 60,在55次迭代后降低至0.000 99;而采用方差損失函數和未改進學習率的深度網絡誤差在33次迭代后降低至0.010 00,在86次迭代后降低至0.000 95。優化深度網絡的訓練迭代次數比未優化深度網絡減少了36%,因此經過交叉熵損失函數和改進學習率的優化的深度網絡具有更高的訓練效率。
選取誤差函數ε的值0.1、0.05、0.01、0.005、0.001為參考點,采用交叉熵損失函數和改進學習率優化后的深度神經網絡與采用方差損失函數和未改進學習率的深度網絡相比較,迭代次數增加量如圖3所示。

圖3 兩種深度神經網絡的迭代次數增加量
由圖2和圖3可知:在訓練開始時,ε∈[0.05,0.10]時,由于優化后的深度網絡初始學習率大,因此深度網絡訓練效率高,誤差減少速度快,迭代次數增加變少;ε∈[0.01,0.05]時,隨著迭代次數增加,由誤差曲線表明,梯度逐漸減小,優化后深度網絡學習率逐漸降低,誤差變化越來越慢;ε∈[0.005,0.01]時,未優化的深度網絡出現梯度消失,誤差降低速度減小,網絡訓練效率降低,迭代次數增幅大;ε∈[0.001,0.005]時,優化深度網絡的學習率低于未優化深度網絡,誤差降低速度進一步變緩,迭代次數增加量高于之前的節點。雖然ε∈[0.001,0.005]時優化深度網絡迭代次數增加了25次,但是總的迭代次數比未優化深度網絡少31次,優化后的深度網絡在訓練效率方面更有優勢。
將所提取的測試數據中,隨機加入特征值模的±1.5%作為干擾信號,輸入到優化后的深度網絡與未優化的深度網絡中進行故障辨識,辨識結果如表1所示。優化后的深度網絡總的正確率為99.62%,未優化的深度網絡正確率為98.28%,前者的錯誤率是后者的4.53倍,優化后的深度網絡具有更好的抗干擾性。

表1 優化后深度網絡與未優化深度網絡故障辨識正確率
針對小電流接地系統單相接地故障,提出基于優化深度網絡,并將暫態、穩態故障特征相結合的故障辨別方法。結果表明,采用改進學習率和交叉熵損失函數優化的深度網絡減少了31次迭代,訓練效率提高了36%,避免了sigmoid激活函數在訓練過程中存在梯度消失的問題。在測試樣本中加入少量干擾信號后,未優化的深度網絡故障辨別錯誤率是優化后的深度網絡的4.53倍,綜上所述所提方法更加有效。