潘海洋 楊 宇, 李永國, 程軍圣
(1.湖南大學汽車車身先進設計制造國家重點實驗室, 湖南 長沙 410082;2.安徽工業大學機械工程學院, 安徽 馬鞍山 243032))
對于滾動軸承故障診斷來說,其振動信號往往表現出非平穩和非線性特征,若直接提取原信號的特征值會影響診斷精度,因此,必須先對原始振動信號進行處理。在非平穩信號的分析中,經驗模態分解(Empirical mode decomposition,簡稱EMD)、局域均值分解(Local mean decomposition,簡稱LMD)和本征時間尺度分解(Intrinsic time-scale decomposition,簡稱ITD)方法都是自適應的非平穩、非線性信號處理方法[1]。但上述方法在理論上都還存在或多或少的缺陷,如EMD的過包絡、欠包絡、端點效應和頻率混淆問題[2];LMD的信號突變和端點效應問題[3];ITD方法沒有對算法本身及固有旋轉分量的物理意義進行闡述。因此,在闡述ITD方法及其固有旋轉分量物理意義的基礎上,提出了改進的ITD算法——局部特征尺度分解算法(Local characteristic-scale decomposition,簡稱LCD)[4]。關于LCD算法的有效性及其在端點效應和分解時間方面均優于EMD的結論已在文獻[4]中詳細討論。
通過對振動信號LCD分解,得到若干內稟尺度分量并提取其特征,從而構成高維特征向量,這些高維數據的大量使用,給故障的識別帶來了很大的麻煩,許多有效的信息淹沒在高維數據中,難以被有效利用,且影響分類效率。目前對于高維數據,常采用降維方法提取能反映故障狀態有效信息的低維特征,降維方法一般可以分為兩種,即線性和非線性降維。線性降維方法是假設數據存在于全局線性中,即數據集中的各特征值之間是獨立的,主成分分析(Principle components analysis,簡稱PCA)就是一種比較常用的線性降維方法[5]。但是,在實際情況中,高維數據往往是具有非線性結構的,因此,主成分分析方法的使用具有局限性。流形學習是典型的非線性降維方法,旨在發現高維數據中的內在規律性,其思想是少數獨立變量在高維空間中共同作用形成了一個流形,如能夠有效地展開空間的流形或者挖掘內在的主要變量,就可以對該高維數據集進行壓縮降維。流形是在微分幾何學的基礎上形成的,實質上是局部可坐標化的拓撲空間,可以看成是在歐氏空間中的非線性推廣。因此,流形學習可以有效地對高維數據進行降維,拉普拉斯特征映射算法是一個常用的流形學習降維方法[6],它采用圖拉普拉斯算子的譜性質進行求解,尋求在某種意義上可以最佳地保持局部領域信息的低維表示,挖掘出高維數據中具有內在規律性的低維特征。
提取并挖掘出低維數組特征過后,隨之而來的就是模式識別,模式識別作為滾動軸承故障診斷的另一重點,目前常用于故障診斷的模式識別方法有神經網絡和支持向量機等,但它們都有一些無法克服的缺陷,且診斷結果受主觀影響較大。另外,上述模式識別方法都忽視了特征集中數據之間的內在關系。然而,在所提取的機械故障振動信號特征中,其特征值之間大都具有一定的內在關系,而且這種內在關系在不同的系統或類別(相同的系統在不同的工作狀態下)間具有明顯的不同。基于特征值之間的這種內在關系,提出了一種基于Kriging的多變量預測模型模式識別方法(kriging-variable predictive model based class discriminate,簡稱KVPMCD)。KVPMCD的實質就是通過特征值之間的相互內在關系建立數學模型,對于不同的類別可以得到不同的數學模型,從而可以采用這些數學模型對被測試樣本的特征值進行預測,把預測結果作為分類的依據,進一步進行模式識別。該方法克服了原多變量預測模型(Variable predictive model based class discriminate,簡稱VPMCD)中模型的單調性[7],VPMCD模式識別方法僅有4種回歸模型進行預測,當特征值之間關系較為復雜時將導致預測精度降低。Kriging函數是作為一種估計方差最小的無偏估計模型[8,9],通常是由3種回歸模型和7種相關模型組合而成,回歸模型構建了預測模型的主結構,相關模型是在全局基礎上創建的局部偏差,用來彌補單純采用回歸模型的缺陷,使得所建立的模型更加逼真,從而可以建立反映特征值之間復雜關系的KVPMCD模型。
將LCD,LE流形學習和KVPMCD方法引入滾動軸承故障診斷,首先經過LCD分解降低了振動信號非線性和非穩定性對故障特征提取的影響,接著通過LE算法特征壓縮,得到具有內在規律的低維特征,而KVPMCD的原理恰恰是基于特征值內在關系建立的預測模型。因此,最后把得到的低維特征向量輸入KVPMCD分類器進行診斷識別。從而實現了將LCD,LE流形學習算法和KVPMCD相結合應用于滾動軸承故障的全程連續診斷。
拉普拉斯特征映射算法作為一種典型且有效的流形學習方法,以保持局部空間結構領域信息不變為宗旨,在很大程度上保持了原空間中數據的局部最優分布情況。LE方法的基本原理是:數據在高維空間中距離比較近的點映射到低維空間中的點也應該離得比較近,其損失函數為兩點間的加權距離,然后借助圖拉普拉斯算子的譜性質進行求解,能夠挖掘出嵌入在高維數據中具有內在規律的低維幾何分布特征。LE算法具體步驟如下[6]:
(1)構造近鄰圖。設定一領域參數k,采用k近鄰或者ε領域的方法計算每一個樣本點xi的領域Γ(i),1≤i≤n。
(2)構造鄰接權值矩陣W。設定熱核方程參數t,使用熱核方式給每一條邊賦予權值Wij,從而構建矩陣W為
(1)
(3)特征映射。計算出圖拉普拉斯算子的廣義特征向量,求低維嵌入。求解廣義特征值問題Lf=λDf。其中D為對角矩陣,且Dii=∑Wij(i≠j),得到L的第2個至第d+1個特征值對應的特征向量,即為所得到的數據集對應d維嵌入坐標。
在機械故障診斷中,提取p個不同的特征值X=[X1,X2,…,Xp]來描述一個故障類別,由于特征值之間存在的內在關系,因此,在不同的故障類別中,會受到其他特征值的影響而產生不同的變化,在此類問題中,特征值之間可能存在一對一的關系:X1=f(X2);或者一對多的關系:X1=f(X2,X3,…)。為了識別系統的故障模式,需建立數學模型。原VPMCD方法中,為特征值定義的變量預測模型VPMi為一個線性或者非線性的回歸模型,文獻[7]中提出了4種數學模型。以p個特征值為例,對4種模型中任意一個模型采用特征值Xj(j≠i)對Xi進行預測,都可以得到
Xi=f(Xj,b0,bj,bjj,bjk)+e
(2)
式(2)稱為特征值Xi的變量預測模型VPMi。其中,特征值Xi稱為被預測變量;Xj(j≠i)稱為預測變量;e為預測誤差;b0,bj,bjj和bjk為模型參數。
Kriging模型假設系統的響應值與自變量之間的真實關系可以表示成如下的形式
f(x)=g(x)+z(x)
(3)
式中g(x)為確定性漂移,它是一個確定性部分,在Kriging模型中通常稱為回歸模型,回歸模型有3種形式:零階回歸模型(Zero order polynomial);一階回歸模型(One order polynomial);二階回歸模型(Two order polynomial)。它們是所建立Kriging模型的主要框架。z(x)稱為漲落,它提供對模擬局部偏差的近似,是和“相關模型”有關的一個函數,相關模型是傳統關系函數的一種變化形式,它可以用來描述變量之間的空間結構變化,也可以描述其隨機性變化[10],它是在全局模型基礎上創建的均值為零,但是方差不為零的局部偏差,只有選擇合適的相關函數,才能保證模型具有較高的準確性。利用不同的相關模型對采樣點的特征值進行建模,并計算不同測試條件下估計值的均方誤差,相關模型有7種:指數模型(Exponential);廣義指數模型(Generalized exponential);高斯模型(Gaussian);線性模型(Linear);球體模型(Spherical);立方模型(Cubic);樣條模型(Spline)。
假設一個二次交互模型函數z=3-x2-y2+7x+5y-xy,x∈[0.5,5],y∈[0.5,5],則可畫出一空間曲面。
為了比較兩種擬合方法的擬合效果,首先從曲面上任意選取50個點,則可組成一個50×3的矩陣,然后代入VPMCD中的二次交互回歸模型,通過最小二乘回歸擬合出參數,接著把矩陣回代建立的模型中,得到一個新的多項式函數,即最小二乘擬合出的曲面,如圖1(b)所示。用同樣的50個點,選定Kriging模型的回歸模型、相關模型及相關模型參數,然后通過所建立的Kriging模型插值得到一個擬合曲面,如圖1(c)所示。圖1中直觀地表達了兩種插值擬合方法的效果,下面從誤差檢驗上比較一下兩種方法的有效性,選用預測點的均方根差、經驗累積方差和平均相對誤差作為參考量[11],其比較結果如表1所示。

圖1 函數的原曲面圖和兩種擬合方法得到的曲面圖對比

表1 兩種擬合方法在三種誤差檢驗法下的誤差數值比較
分析比較圖1可知,由于隨機產生的數值較為復雜,通過VPMCD建立預測模型,擬合出的曲面出現失真,而Kriging插值得到的曲面由于存在相關函數的原因,對回歸模型進行了補充,使得擬合出的曲面和原曲面十分相似。而在表1中,列舉了兩種擬合方法的三種誤差檢驗值,無論是那種誤差檢驗法,Kriging插值擬合所得到的誤差值都很小,明顯優于VPMCD的最小二乘回歸擬合。因此,Kriging模型展示了比VPMCD現有模型的優越性,從而證明基于Kriging函數的KVPMCD比原VPMCD具有更強的適應性。
①對于g類分類問題,共收集n個訓練樣本,每一類樣本數分別為n1,n2,…,ng。對所有訓練樣本提取特征量X=[X1,X2,…,Xp],每一類樣本特征量的規模大小分別為n1×p,n2×p,…,ng×p。
②選擇第k(1≤k≤g)類訓練樣本的特征量Xj(i=1,2,…,p)作為被預測變量,選擇剩下的p-1個特征量Xj(j≠i)作為預測變量。
③令回歸模型類型m=1(1≤m≤M) (Zero order polynomial,One order polynomial,Two order polynomial三種模型分別用數值1,2,3標記),相關模型的模型類別r=1(1≤r≤R)(Exponential,Generalized exponential,Gaussian,Linear,Spherical,Cubic,Spline七種模型分別用數值1,2,3,4,5,6,7標記),建立一個數學模型。
④先后分別令r=r+1和m=m+1,直至r=R,m=M結束。預測變量的組合方式共有M×R種可能,因此對于特征量可建立nk=M×R個數學方程。
⑤對于每一個特征量Xi建立的nk個方程,然后把第k類訓練樣本的特征量進行回代,利用Kriging模型得到特征量Xi的預測值Xipred。


⑧將所有訓練樣本作為測試樣本分別對每一個VPM矩陣進行回代分類測試,選擇分類正確率最高的VPM矩陣所對應的回歸模型類型和相關模型類型作為最佳變量預測模型的類型。至此,各種類別下的所有特征量的最佳變量預測模型的類型、預測變量都得以確定。

拾取滾動軸承振動信號并經過LCD分解后,接著就要對得到的若干ISC分量提取包含故障有效信息的特征。特征提取作為故障診斷中的關鍵環節,只有選擇合適的特征才能準確區分滾動軸承的工作狀態和故障類型。用來描述系統非線性特性的參數較多,復雜度相對較為簡單;峭度和模糊熵也常用來處理非線性問題。因此,本文中采用組合的方法,即提取信號的復雜度、峭度和模糊熵。它們之間可相互補充、相互印證,更有利于識別故障信號,增強可靠性。提取每個分量的特征,組成特征向量矩陣。由于特征向量的維數較多,直接用分類器進行模式識別,不但影響分類效率,而且高維數據掩蓋了有效信息。因此,接著采用LE流形學習算法對特征向量矩陣進行降維,挖掘出具有內在規律的低維向量矩陣,然后用KVPMCD分類方法對滾動軸承的狀態進行識別。
基于LE流形學習和KVPMCD的滾動軸承故障診斷方法步驟如圖2所示。

圖2 滾動軸承故障診斷原理圖
①在一定轉速下以采樣率fs對滾動軸承正常、內圈故障、外圈故障和滾動體故障4種狀態進行采樣,每種狀態采集N組樣本。
②首先利用LCD方法對原始振動信號進行分解,得到若干ISC分量。然后提取包含信號主要信息的前幾個ISC分量的復雜度、峭度和模糊熵作為特征值,每個信號提取j個特征值,組成特征值向量,每種狀態下得到N×j階的特征值矩陣。
③用LE流形學習算法對特征值矩陣進行降維,設定好參數,通過特征壓縮,得到一個全新的壓縮特征集N×i。

⑤剩下的作為測試樣本,用訓練好的數學預測模型對測試樣本進行分類,根據KVPMCD分類器的輸出結果來確定滾動軸承的工作狀態和故障類型。
為了驗證本文所提方法的適用效果,選用美國凱斯西儲大學(Case Western Reserve University)電氣工程實驗室的實測滾動軸承振動加速度數據[12],數據源于6205-2RS型深溝球軸承,采樣頻率為48 kHz,轉速為1 772 r/min,電機負載為0.746 kw,損傷尺寸為0.018 mm,故障深度為0.028 mm。選取正常、內圈故障、外圈故障和滾動體故障4類狀態下的振動信號各200組數據作為樣本。內圈故障下的滾動軸承振動信號如圖3所示。

圖3 內圈故障狀態下滾動軸承振動信號時域波形

圖4 兩種算法壓縮三維的分布圖
首先對所采集的非平穩、非線性滾動軸承振動信號進行LCD分解,得到振動信號在時域和頻域的局部化信息,每個信號可以分解得到若干ISC分量,選取包含主要狀態信息的前3個ISC分量,然后提取每一個ISC分量的復雜度、峭度和模糊熵,因此一個信號可以提取9個特征。每種狀態的樣本信號提取9個特征參數,構成原始特征空間。采用LE方法對原始特征空間進行特征壓縮,通過計算和實驗優化選擇,取鄰域參數k=4,熱核方程的參數t=4,嵌入維數d=3。為了說明采用LE方法進行特征壓縮的可行性,同時將采用LE方法進行特征壓縮的樣本與采用PCA方法進行特征壓縮(同樣取嵌入維數d=2和d=3)的樣本進行比較,其壓縮后所得的樣本分布圖見圖4和5。從圖4可以發現,相比于PCA方法,采用LE方法進行特征壓縮后,雖然有個別混在一起,但總體來看4種狀態的樣本分得較開;PCA方法壓縮得到的低維特征難以分類識別。對于圖5中的二維壓縮,情況較為類似圖4,LE方法壓縮的各種類型可以明顯地分開;而PCA壓縮的特征,內圈故障和外圈故障混淆在一起,難以分辨。可見LE方法比PCA方法更能提取用于區分樣本的敏感特征。
上述對幾種降維方法進行了直觀的比較,驗證了LE方法的可行性,下面進一步把LE流形學習算法和KVPMCD相結合應用于滾動軸承故障診斷識別,證明基于LE算法的KVPMCD更加有效。滾動軸承的4種狀態各取200個樣本進行實驗,其中100組作為訓練樣本。首先設定LE 算法的參數,通過對訓練樣本的交叉驗證,選出最優LE參數,其選擇結果如圖6所示。

圖6 故障診斷正確率隨參數的變化
經過優化選擇,設定鄰域參數k=5,熱核方程的參數t=2,嵌入維數d=3,接著用LE算法對特征集進行壓縮,得到低維特征集。同樣采用PCA方法(嵌入維數d=3)對所構成的原始特征空間進行特征壓縮。然后采用KVPMCD進行訓練,通過優化選擇,對于LE算法壓縮后的數據,相關模型參數取theta=0.000 1,PCA算法壓縮后的數據,取theta=3.5,得到預測模型,預測模型包括回歸模型和相關模型,通過實驗,回歸模型都是Two order polynomial模型,相關模型都是Spherical模型,接著對測試樣本進行智能識別。本文引用K-fold cross-validati on(簡稱K-CV)檢驗對兩種方法進行驗證,取全部的200組數據進行驗證。其識別結果如表2所示。
從表2中可以看出,基于LE算法的KVPMCD準確識別率明顯高于基于PCA算法的KVPMCD識別率。LE流形學習通過對高維數據進行壓縮,能夠得到具有規律性的低維數組,從而滿足KVPMCD模式識別方法的建模原理,使得把LE算法和KVPMCD相結合應用于滾動軸承故障診斷,取得了較好的分類效果。

表2 兩種降維方法在10-CV檢驗法下的KVPMCD分類性能對比
綜上所述,基于LE的特征壓縮算法,把高維的故障樣本壓縮到低維空間,并且極大地保留了原信號的特征信息;另外,考慮到拾取的信號復雜性,原VPMCD建模不能充分反映特征值之間的真實信息,將Kriging函數應用于VPMCD得到KVPMCD,經過仿真數據的驗證,KVPMCD確實比原VPMCD具有較好的效果,因此,實驗證明,基于LE算法的KVPMCD是一種有效的滾動軸承故障診斷方法。
針對數據維數較高時給分類器帶來的麻煩,以及原VPMCD方法中模型的缺陷,本文將LE流形學習和KVPMCD相結合應用于滾動軸承的故障診斷中,經研究得出以下結論:
(1)對所提取的高維特征通過LE流形學習方法進行特征壓縮,得到具有內在規律性的低維特征,且保留了信息的本質特征,有利于故障的診斷。
(2)將Kriging函數應用于VPMCD中得到KVPMCD,當特征集中數據之間的關系較為復雜時,原VPMCD中4種回歸模型很難準確建立預測模型,而KVPMCD方法采用以回歸模型為主,相關模型為輔,從而建立更加真實的預測模型。
(3)針對LE流形學習算法壓縮高維數據后得到具有內在規律的低維數據,恰好滿足KVPMCD 的建模原理,將兩者結合起來,可以有效地提取特征和建立模型。
對仿真信號和滾動軸承各種狀態振動信號的分析結果表明,證明了KVPMCD比原VPMCD方法具有更好的建模效果,以及將LE算法和KVPMCD相結合的滾動軸承故障診斷方法可以準確、有效地對滾動軸承的工作狀態和故障類型進行分類,從而為滾動軸承的故障診斷提供了一種新的方法。
參考文獻:
[1] Mark G Frei, Ivan Osorio. Intrinsic time-scale decomposition: time-frequency-energy analysis and real-time filtering of non-stationary signals [J].Proceedings of the Royal Society, A, 2007, 463: 321—342.
[2] Cheng J S,Yu D J,Yang Y. Energy operator demodulating approach based on EMD and its application in mechanical fault diagnosis[J].Chinese Journal of Mechanical Engineering, 2004,40( 8):115—118.
[3] Lei Yaguo, He Zhengjia, Zi Yanyang.Application of the EEMD method to rotor fault diagnosis of rotating machinery [J]. Mechanical Systems and Signal Processing,2009, 23:1 327—1 338.
[4] 程軍圣,鄭近德,楊宇.一種新的非平穩信號分析方法——局部特征尺度分解[J].振動工程學報,2012, 25(2):215—220.Cheng Junsheng,Zheng Jinde,Yang Yu.A nonstationary signal analysis approach——the local characteristic-scale decomposition method[J].Journal of Vibration Engineering, 2012, 25(2): 215—220.
[5] TURK M, PENTLAND A.Eigenfaces for recognition [J].Journal of Cognitive Neuroscience, 1991, 3(1):71—86.
[6] Belkin M,Niyogi P.Laplacian eigenmaps for dimensionality reduction and data representation[J].Neural Computation,2003,15(6):1 373—1 396.
[7] Rao Raghuraj,Samavedham Lakshminarayanan. Variable predictive models—a new multivariate classification approach for pattern recognition applications [J]. Pattern Recognition, 2009, 42(1):7—16.
[8] Noel Cressie. The origins of Kriging[J]. Mathematical Geology, 1990, 22(3): 239—252.
[9] Gou Peng,Liu Wei,Cui Wei-cheng.A comparison of approximation methods for multidisciplinary design optimization of ship structures[J]. Journal of Ship Mechanics, 2007, 11(6):913—923.
[10] Rana A Moyeed,Andreas Papritz.An empirical comparison of Kriging methods or nonlinear spatial point prediction[J]. Mathematical Geology, 2002, 34(4):365—386.
[11] Zhang Renduo. Theory and Application of Spatial Variation[M].Beijing:Science Press,2005.
[12] Case Western Reserve University Bearing Data Center. Bearing Data Center Fault Test Data.[EB/OL].[2009-10-01].http:∥www.eecs.case.edu/laboratory/bearing.