陳 慶,肖 茜(.湖南鐵道職業技術學院,湖南 株洲 400; .株洲市工業中等專業學校,湖南 株洲 4008)
基于支持向量機方法的機車故障診斷的分析與研究
陳慶1,肖茜2
(1.湖南鐵道職業技術學院,湖南株洲412001;2.株洲市工業中等專業學校,湖南株洲412008)
本文介紹了機器學習的分類,主要討論了支持向量機的優點、SVM的故障分類原理,包括支持向量機的二值分類、線性規劃支持向量機的二次分類、多類分類問題等。為機車故障診斷提供參考。
機器學習;支持向量機;故障診斷
目前機車故障智能診斷方法一般依賴機器學習,所謂機器學習是指:從樣本數據中發現規律,然后利用所得規律預測未來數據和無法直接獲得的數據。機器學習大致分為三類:(1)參數統計估計方法。包括模式識別、神經網絡等,它們都基于傳統統計學。此方法有較大局限性,主要是要求已知樣本的分布形式,還需要數量極大的樣本。在實際中,能獲得的樣本數是有限的,因此這類方法的使用效果不佳;(2)經驗非線性方法。這類方法能夠利用已知樣本建立非線性模型,從而消除參數統計估計方法的一些不足。不過,這類方法沒有統一的數學理論作為支撐;(3)統計學習理論。是一種專門針對小樣本的機器學習理論,為解決小樣本統計問題提供了一種新的選擇。統計推理規則既考慮到漸近性能指標,又兼顧利用有限信息獲得最優結果。統計學習理論的理論基礎較為扎實而完備,為有限樣本學習問題提供了一個有效解決方案。在此基礎上,支持向量機作為一種新的學習方法迅速發展起來,已展示出許多優越性,是機器學習領域中的一個研究熱點。
支持向量機方法的主要理論依據是VC維理論和結構風險最小原理,根據有限的樣本信息追求最好的推廣能力。目前,SVM算法廣泛應用于模式識別、回歸估計、概率密度函數估計等方面。
2.1支持向量機方法的主要優點有
(1)專門針對有限樣本。能利用有限信息,尋求最優解,不苛求大樣本;
(2)本質是一個二次型尋優問題。從理論上說,它得到的是全局最優點,克服了一些方法存在的局部最優問題;
(3)通過非線性變換轉換,能將待解問題轉化到高維特征空間,然后構造線性判別函數間接解決原空間中的非線性判別問題。同時,它較好地解決了維數災難難題,算法的復雜度與樣本維數無關。
2.2SVM的故障分類原理
(1)支持向量機的二值分類。對于兩類問題,支持向量機尋找一個超平面將兩類樣本完全分開,從而完成樣本的分類。圖1展示了兩類的分類超平面情況,圖中的圓點、方點分別代表兩類不同樣本,紅圓點與藍色方點是支持向量,H平面是兩類樣本的分類超平面。

圖1 兩類樣本的分類超平面
wx+b≥+1yi=+1
wx+b≤-1yi=-1
即表示訓練樣本集線性可分。假設存在兩個超平面分別是:H1:wx+b=1H2:wx+b=-1,那么兩個超平面與原點的距離分別為和。那么兩個超平面的距離,是分類間隔,因此求間隔最大的實質是求最小。進一步考慮到VC維的上界最小要求最小,綜合考慮之后,問題轉化為如下二次規劃問題:

關于線性不可分問題,處理的思路是:先選用合適的映射函數,將低維空間的原始數據映射至高維空間,再進行線性分類,最后返回到原空間,完成分類。
考慮到可能存在少數樣本被錯誤分類,引入松弛變量,將優化問題改進為:

新的約束條件:yi(wΦ(xi)+b)≥1-ζi,i=1,2…,n ζi≥0
(2)線性規劃支持向量機的二次分類。二值分類、回歸算法把問題最終歸結為求解二次規劃,此法存在計算參數隨訓練樣本的增加而急劇增加的缺點。解決該問題可采用線性規劃方法。
引入松弛變量,目標函數修正為:

(3)多類分類問題。SVM可解決兩類分類問題,可視為一個兩類分類器。兩類分類器無法直接解決多類分類問題。簽于此,很多學者提出了多種多類分類算法,主要分為兩類:①在基本兩類分類器基礎上直接構造多類分類器。此種方法表面簡單、易懂,但是計算涉及過多參數、計算難度較大,分類精度也不高,應用效果不太理想。②采用多個兩類分類器依次串聯,組成一個多類分類器,多類分類逐步轉化為兩類分類。實際中一般采用此辦法解決多類分類問題。多個兩類分類器解決多類分類問題的方案有三種:一對一分類、一對多分類和決策樹分類。
[1]顧彬,鄭關勝,王建東.增量和減量式標準支持向量機的分析[J].軟件學報,2013(07).
[2]丁世飛,齊丙娟,譚紅艷.支持向量機理論與算法研究綜述[J].電子科技大學學報,2011(01).
[3]郭明瑋,趙宇宙,項俊平等.基于支持向量機的目標檢測算法綜述[J].控制與決策,2014(02).
成果:本論文是2015年度湖南省教育廳科學研究青年專項《列車制動及車輪失圓實時在線監測系統的研究與開發》(編號:15B155)的階段研究成果。
10.16640/j.cnki.37-1222/t.2016.10.219