王新穎,宋興帥,楊泰旺
(常州大學環境與安全工程學院,江蘇 常州 213164)
由于油氣管道在不同輸運狀態時產生的聲發射信號不同,所以利用聲發射信號對管道進行檢測成為無損監測中的一種有效方法[1-2]。近些年,隨著人工智能技術和計算機的迅速發展,國內外專家基于已采集的聲發射信號提出了反向傳播神經網絡(BPNN)[3-5]、DS融合[6-7]和支持向量機(Support Vector Machine,SVM)[8-10]等方法對管道故障進行智能診斷。然而BPNN方法存在收斂速度過慢的問題,并且容易陷入局部最優;DS融合方法通常在識別過程中無法獲得大量的樣本數據;SVM方法其實是一個針對二分類問題的分類器,而針對多分類問題,其存在參數和核函數不容易確定等缺點,并且分類器的構造比較困難,最終的分類效果也不佳。此外,以上幾種方法大多是淺層機器學習方法,其學習能力都受到了一定限制,而且特征的提取和選擇也大多都是根據人工經驗來完成,其診斷結果不能令人滿意;而且,以上方法對數據樣本的完整性要求較高,因此無法充分利用聲發射檢測系統中的大量無標簽數據。
深度機器學習是由Hinton教授等[11]在2006年提出的,深度學習神經網絡就是其中之一,較強的自動學習能力是它的最大特點,主要體現在可以對輸入數據進行逐層的特征學習,并能夠轉換重構新的特征,避免了特征的人工選擇和提取,所以其漸漸成為了近幾年國內外的研究熱點之一[12-14]。深度學習神經網絡是用無監督的方式對樣本數據進行訓練,將采集到的聲發射無標簽樣本數據對深度學習神經網絡分類模型進行預訓練和參數優化,從而使分類模型的辨識率有一定的提升。如今,這種方法已成功地應用于文字識別、圖片識別、人臉識別等方面[15-17],但是在油氣管道故障診斷方面的應用研究才剛開始。
本文在深度學習神經網絡的基礎上,建立了深度學習神經網絡分類模型,并以4個經典機器學習分類數據集為樣本進行分類性能測試,同時根據管道聲發射檢測系統中已采集的數據樣本與故障狀態,提出了一種基于深度學習神經網絡的管道故障診斷方法。該方法以半監督的方式進行特征學習,以其較強的特征學習能力可以得出管道不同運行狀況的出現概率,能夠為工作人員判斷搶修和檢修管道提供依據。為了驗證該方法的有效性,本文將該方法應用于實驗室油氣儲運管道檢測系統中,并在相同的條件下與BPNN方法和SVM方法進行了分析比較。
深度學習神經網絡(Deep Learning Neural Network,DLNN)是一種通常含有3個或3個以上隱含層的機器學習神經網絡,能夠對特征進行提取和轉換,并以這種方式實現了機器自動學習、數據本質屬性的挖掘,從而更有利于樣本的分類,也使辨識準確率在一定程度上有所提升。DLNN常用的方法有:卷積神經網絡(Convolutional Neural Network,CNN)、自動編碼器(Auto-Encoder,AE)、深度信念網絡(Deep Belief Network,DBN)和限制波爾茲曼機(Restricted Boltzmann Machine,RBM)。其中,CNN大多數情況下用于圖像、語音等方面的識別,而RBM和DBN對數據樣本要求過高,這里選取自動編碼器(AE)作為深度神經網絡分類的基本模型。
由美國斯坦福大學Andrew教授的課程筆記[18]可知,自動編碼器(AE)是一種以輸出信號來代替輸入信號的神經網絡。為了實現輸出信號和輸入信號盡可能的一致,AE就必須提取出具有原數據本質成分的特征來代表輸入信號。具體的實現過程如下:首先,以非/半監督方式來學習無標簽數據的本質特征;其次,由編碼器輸出特征來訓練下一層,并這樣循環逐層訓練;最后,進行有監督的微調。
對于一般情況,最基本的AE是一個三層的神經網絡,如圖1所示,x為輸入層,h為隱含層,y為輸出層,x和y一般有相同的節點。將樣本從x到h轉換的過程叫作編碼,而將h到y轉換的過程叫作解碼,如圖2所示。假設f為編碼函數,g為解碼函數,則兩個函數的表達式如下:
h=f(x)=Sf(Wx+p)
(1)
y=g(h)=Sg(WT+q)
(2)
式中:Sf和Sg一般取Sigmoid函數;Wx為x和h之間的權值矩陣;WT為h和y之間的權值矩陣;p為h的偏置向量;q為y的偏置向量。

圖1 自動編碼器網絡圖Fig.1 Network diagram of AE

圖2 自動編碼器機理圖Fig.2 Mechanism diagram of AE
為了更加準確地將特征表示出來,AE參數W、p和q簡記為θ。
假設訓練樣本集S={x1,x2,…,xn},對AE進行預訓練實際上是通過S對參數θ進行訓練。因此,通常先把訓練后的目標定義出來,即解碼后輸出的y應該與輸入x盡最大限度地逼近,重構誤差函數L(X,Y)可以用來表示這種逼近程度,L(x,y)可定義為
L(x,y)=∑ni=1[xiln(yi)+(1-xi)ln(1-yi)]
(3)
基于上式關于訓練樣本集S的損失函數可表示為
JAE(θ)=1N∑x∈SL[x,g(f(x))]
(4)
式中:JAE(θ)為關于參數θ的損失函數;N為訓練樣本集中輸入樣本的個數。
每層AE的參數θ就是將式(4)進行最小化處理得到的。但是,對于大多數的實際應用,假如僅僅將損失函數做極小化處理,很多時候或許會獲得一個恒等函數。為了避免這種情況的出現,使用AE的一種變體——稀疏自動編碼器進行處理。
一般情況下,自動編碼器有兩種變體:稀疏自動編碼器(Sparse Auto-Encoder)和降噪自動編碼器(Denosing Auto-Encoder)。為了避免恒等式的出現,這里選擇稀疏自動編碼器對損失函數進行處理。稀疏自動編碼器就是在AE的基礎上加上一些規則限制條件,以便使獲得的編碼盡可能稀疏,其中稀疏的表達方式是各種表達方式中最好的一種。針對以上損失函數容易出現恒等的問題,能夠通過對其進行稀疏性限制來解決,又稱作稀疏自編碼。這里選用一種基于相對熵的方法來實現,下式表示具體的損失函數:
JAE+sp(θ)=∑x∈SL[x,g(f(x))]+β∑mj=1KL(ρ·ρ∧j)
(5)
式中:β為權重系數;ρ為稀疏性參數;ρ∧j為xi在隱含層上第j個神經元的平均激活度。
其中,KL(ρ·ρ∧j)的表達式為
KL(ρ·ρ∧j)=ρlnρρ∧j+(1-ρ)ln1-ρρ∧j
(6)
從公式(6)中可以看出,ρ∧與ρ差值的增大可以使KL(ρ·ρ∧j)漸漸減小,只有兩者的值相等時才能獲得最小值0。因此,ρ∧j與ρ的差值逼近于0的過程能夠通過最小化函數來實現。
本文建立了深度學習神經網絡分類(Classification Deep Learning Neural Network,CDLNN)模型,它是由輸入層、若干個AE層、分類層、輸出層組合而成,其中若干個AE層是以堆疊的形式存在的。CDLNN模型的框架見圖3。為了解決多分類的問題,選擇SOFTMAX作為分類器,由于該分類器能夠輸出分類結果的概率,而且可以與AE較好地結合,通常能夠得到較佳的分類效果[19-20]。

圖3 深度學習神經網絡分類模型Fig.3 The CDLNN model
CDLNN模型解決多分類問題的訓練過程通常有預訓練和微調兩個過程:預訓練的第一步就是選取無標簽數據或者去標簽數據構建輸入樣本,然后利用BP算法使一系列AE參數完成初始化;微調就是利用帶有標簽的樣本對整個網絡參數進行調整,使輸出特征與輸入數據樣本的誤差最小,從而使CDLNN模型的識別性能達到最佳。
本文利用所建立的CDLNN模型對Iris、Adult、Wine、Car Evaluation這4個經典機器學習數據集進行分類性能測試,初始學習速率值設置為0.1,網絡參數θ初始化遵從高斯分布的隨機較小值,參數更新速率值設置為0.01。表1為CDLNN模型對4個數據集的分類性能測試結果。

表1 CDLNN模型對4個數據集的分類性能測試結果
由表1可見,CDLNN模型對各個數據集的分類效果均達到了令人滿意的結果,平均分類正確率均達到96%以上,這表明建立的CDLNN模型能夠用來解決多分類的問題。
為了使樣本集不至于太偏斜,又確保能夠獲得充足的數據樣本,本次研究選用近期實驗室多次管道泄漏試驗所采集的聲發射數據,由于這些數據沒有標簽,因此可以作為預訓練樣本。實驗室進行燃氣管道泄漏試驗時,用斷鉛來模擬管道斷裂時管道發出的聲發射信號,用紗布摩擦來模擬管道發生裂紋時管道發出的聲發射信號,打開泄漏閥模擬燃氣管道泄漏狀態時管道發出的聲發射信號,并采集正常輸運情況下管道發出的聲發射信號。由于微調需要用少量的帶標簽樣本,所以本次研究將模擬管道故障時獲得的數據作為微調所需樣本。
參照聲發射檢測系統采集到的數據,并根據CDLNN模型的自動學習、轉換特征和分類的能力,選取幅值、絕對能量、振鈴計數、上升時間、持續時間、平均信號電平、有效值電壓和事件計數這8個反映管道運行狀態的特征變量,為了使各特征變量之間的差異盡可能縮小,也為了使計算更加精確,利用下式對各個特征變量進行標準化處理:
xnew=x-xmeanxstd
(7)
式中:xnew為特征參數標準化后的值;x為特征參數原來的值;xmean為各樣本集中此特征參數的均值;xstd為樣本集中此特征參數的標準差值。
參照管道實際輸運過程中容易出現的故障,將故障的診斷結果歸納為4種類型,并將各種故障類型進行了編碼,見表2。

表2 管道運行狀態編碼
圖4為管道故障診斷CDLNN模型的結構。輸入模型中是已標準化處理的8個特征參數值,輸出模型中則是管道各輸運狀態的概率值,其中最大概率所對應的運行狀態就是管道故障診斷的結果。

圖4 管道故障診斷CDLNN模型的結構Fig.4 Structure of the pipeline fault diagnosis model based on CDLNN model
管道故障診斷CDLNN模型的訓練過程與CDLNN模型相似,主要分為預訓練和微調兩個過程。首先將已標準化處理的8個特征參數輸入模型,并利用大量的訓練樣本對一系列AE參數進行初始化;然后對參數進行微調,利用少量帶有標簽的數據樣本對整個網絡進行調整,從而使CDLNN模型的故障診斷效果獲得最佳;最后輸出管道各輸運狀態的概率,其中最大的概率所對應的管道運行狀態即為診斷結果。
基于CDLNN模型的管道故障診斷流程如下(見圖5):

圖5 基于CDLNN模型的管道故障診斷流程Fig.5 Flowchart of pipeline fault diagnosis based on CDLNN model
(1) 采集管道故障數據:對被測管道加以斷鉛、紗布摩擦、打開泄漏閥等激勵措施,在聲發射采集系統中采集不同故障狀態下的聲發射信號。
(2) 數據預處理:將采集到不同類型故障數據標準化,并劃分為訓練樣本和測試樣本。
(3) 編碼及CDLNN模型的建立:針對管道不同的故障狀態進行編碼,并構建CDLNN模型。
(4) 初始化網絡:將網絡的結構和相關參數進行初始化,一般包括AE網絡層數、學習率、特征向量維數和迭代次數等。
(5) AE預訓練:輸入管道故障聲發射信號的訓練樣本集逐層訓練堆疊自動編碼器,直到達到收斂標準才結束訓練。
(6) 全局微調:使用BP算法或CD算法輸入堆疊自動編碼器的特征輸出和相應的類別標簽來訓練整個網絡。
(7) 診斷性能測試:將已訓練好的網絡保存,并用選取的測試樣本進行故障診斷測試。
(8) 輸出診斷結果。
為了驗證該方法的有效性,本試驗設計了實驗室管道泄漏聲發射檢測系統,并在該系統中模擬管道故障點兩側放置2個聲發射傳感器,分別采集若干周期的管道運行正常、管道泄漏、管道斷裂、管道裂紋的信號數據。圖6為實驗室管道泄漏聲發射檢測系統,該系統是由數據采集及處理、管道儲運和測量儀器儀表3個單元組成,測量儀器為PCI-Ⅱ聲發射卡、S/N2462026504放大器、R15單端寬頻帶聲發射傳感器。圖7為兩個R15單端寬頻帶聲發射傳感器,這兩個聲發射傳感器放置在管道故障點的兩側。

圖6 實驗室管道泄漏聲發射檢測系統Fig.6 Acoustic emission detection system in laboratory

圖7 故障點兩側的兩個聲發射傳感器Fig.7 Two acoustic emission sensors on two sides of the point of failure
試驗數據采集過程如下:由空氣壓縮機為管道提供空氣模擬燃氣管道,對被測管道進行斷鉛、紗布摩擦、打開泄漏閥等操作以模擬管道斷裂、管道裂紋、管道泄漏,并且不對管道進行任何操作以模擬管道正常運行;通過圖7中的兩個R15單端寬頻帶聲發射傳感器進行聲發射數據的采集,繼而采用小波分析法對兩個傳感器信號數據進行特征提取,選擇幅值、絕對能量、振鈴計數、上升時間、持續時間、平均信號電平、有效值電壓和事件計數這8個特征參數作為輸入模型的原始數據。
本試驗選取正常、故障和近似故障樣本去標簽數據共2 500組作為預訓練集,將故障、正常狀態帶標簽數據共600組作為微調集和測試集,其比例為2∶1,利用已建立的CDLNN模型對管道故障診斷進行測試。
4.2.1 不同AE層數時CDLNN模型的管道故障診斷效果
在實際情況中,AE的層數并不是固定不變的,而是要根據當前解決的問題進行不斷嘗試后選取的,因此本試驗依次選取0~10的AE層數對CDLNN模型的管道故障診斷效果進行了測試,其測試結果見圖8。

圖8 AE層數為0~10時CDLNN模型的管道故障診斷效果Fig.8 Effect of CDLNN based pipeline fault diagnosis when the layer number of AE is 0 to 10
由圖8可見,當AE層數達到4層時,CDLNN模型的管道故障平均診斷正確率已經非常高,但隨著AE層數的逐漸增加,其平均診斷正確率的增長急劇變緩,并且CDLNN模型的訓練時間也會變長,因此為了以最少的訓練時間得到最佳的診斷效果,本試驗中將AE的層數設置為4層。
4.2.2 不同預訓練集樣本數量時CDLNN模型的管道故障診斷效果
針對不同預訓練集樣本數量時CDLNN模型的管道故障診斷效果測試結果,見表3。

表3 不同預訓練集樣本數量時CDLNN模型的管道故障 診斷效果測試結果
由表3可見,CDLNN模型的管道故障平均診斷正確率隨著預訓練集樣本數量的增加而不斷提升,當預訓練集樣本數量達到2 500組時,管道故障平均診斷正確率已經達到了90%以上,這表明CDLNN模型有較優的故障診斷性能,并且可以適用于不同管道故障情況的診斷。
目前應用于管道故障診斷的方法較多,其他常用的方法還有BPNN方法和SVM方法,本文將這兩種方法在相同的試驗條件下進行了管道故障診斷效果測試,并與本文方法進行了對照比較,其測試結果見表4。其中,BPNN方法的最大訓練迭代次數cepochs取1 500,學習速率vIr取0.01;SVM方法的規則化系數C取2 048,核函數參數γ取0.03,向量機核函數選用RBF函數。

表4 不同訓練集樣本數量時SVM方法和BPNN方法的 管道故障診斷效果測試結果
通過比較表3和表4中的管道故障診斷效果測試結果可知:本文研究方法對管道故障的平均診斷正確率最高,SVM方法次之,其診斷效果相比傳統的BPNN方法要好,但SVM方法一般適用于二分類問題,對于多分類問題,則在尋找最優參數方面存在不足,而且必須依靠多次試驗才能獲得理想的判別效果;而本文研究方法的管道故障診斷效果更優于SVM方法,且避免了BPNN方法和SVM方法人工提取和選擇特征的過程,該方法從輸入數據中自動地逐層學習特征,提取重構出代表故障信號本質的特征,并輸入到適用于多分類問題的分類器SOFTMAX中進行分類。因此,本文的研究方法相比于BPNN方法、SVM方法在管道故障診斷上具有更優的診斷效果,能夠為搶、檢修人員判斷管道是否故障提供更科學的參考依據。此外,在試驗中發現,CDLNN模型的管道故障平均診斷準確率會隨著訓練集樣本數量的增加而提高,當訓練集樣本數量達到一定程度時,其準確率提高的速度會明顯變慢;而SVM方法和BPNN方法在對訓練集樣本數量達到400組時,管道故障平均診斷準確率就基本保持不變了,這說明采用半監督式學習的CDLNN方法比采用監督式學習的SVM方法和BPNN方法具有更強的學習能力和擴展能力。
本文針對管道故障模式識別方法中存在的識別率低、人工選取特征復雜等弊端,提出了一種基于深度學習神經網絡的管道故障診斷方法,并將該方法應用于實驗室油氣儲運管道泄漏檢測系統中,試驗結果表明:該方法能夠較好地應用于管道故障檢測領域,管道故障平均診斷準確率達92.86%,顯著提高了管道故障診斷的準確率和可操作性。
[1] 于蕊.泄漏聲發射信號特征提取與識別方法研究[D].昆明:昆明理工大學,2016.
[2] 孫立瑛,李一博,曲志剛,等.EMD信號分析方法的聲發射管道泄漏檢測研究[J].振動與沖擊,2007,26(10):161-163.
[3] 楊宏宇.基于小波分析與BP神經網絡的管道泄漏診斷方法的研究[D].沈陽:東北大學,2009.
[4] 孫曉松,譚興強.基于小波分解的管道泄漏神經網絡檢測與定位[J].石油機械,2006,34(8):56-58.
[5] 李群燕,幸福堂,桂瞬豐,等.基于BP神經網絡的機械系統故障診斷[J].安全與環境工程,2015,22(6):116-119.
[6] 王新穎,江志偉,于永亮,等.多信息融合的城市燃氣管道泄漏診斷技術研究[J].中國安全科學學報,2014,24(6):165-171.
[7] Ai L M,Wang J,Wang X L.Multi-features fusion diagnosis of tremor based on artificial neural network and D-S evidence theory[J].SignalProcessing,2008,88(12):2927-2934.
[8] 駱正山,畢傲睿,王小完.基于PCA-SVM的高含硫油氣混輸管道腐蝕預測[J].中國安全科學學報,2016,26(2):85-89.
[9] 姚琦,牛瑞卿,趙金童,等.基于經驗模態分解-支持向量機的滑坡位移預測方法研究[J].安全與環境工程,2017,24(1):26-31.
[10]Guyon I,Weston J,Barnhill S,et al.Gene selection for cancer classification using support vector machines[J].MachineLearning,2006,12(3):222-225.
[11]Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks [J].Science,2006,313 (5786):504-506.
[12]Bengio Y.Learning deep architectures for AI[J].FoundationsandTrendsinMachineLearning,2009,2(1):1-127.
[13]Hinton G E,Osindero S,Teh Y W. A fast learning algorithm for deep belief nets[J].NeuralComputation,2006,18 (7):1527-1554.
[14]Hinton G E.UMTLTR2010-003APracticalGuidetoTrainingRestrictedBoltzmannMachines[R/OL].(2011-08-02)[2011-11-09]. https://www.cs.toronto.edu/~hinton/absps/guideTR.pdf.
[15]Baker J,Deng L,Glass J,et al. Developments and directions in speech recognition and understanding,Part 1[J].IEEESignalProcessingMagazine,2009,26(3):76-80.
[16]Yu D,Deng L. Deep learning and its applications to signal and information processing [J].IEEESignalProcessingMagazine,2011,28( 1) :146-153.
[17]Kalal Z,Mikolajczyk K,Matas J. Face-TLD:Tracking-learning-detection applied to faces[C]//2010InternationalConferenceonImageProcessing(ICIP),September 26-29,2010,Hong Kong.[S.l.]:IEEE,2010:3789-3792.
[18]Bengio S,Dean T,Ng A.UFLDLTutorial[EB/OL].[2011-11-09].http://openclassroom.stanford.edu/MainFolder/CoursePage. php?course=DeepLearning.
[19]孫勁光,蔣金葉,孟祥福,等.一種數值屬性的深度置信網絡分類方法[J]. 計算機工程與應用,2014,50(2):113-114.
[20]馬勇,鮑長春,夏丙寅. 基于辨別性深度信念網絡的說話人分割[J]. 清華大學學報(自然科學版),2013,53(6):805-807.