徐培云 周兆璽 閔 陽 袁 輝 陳玉奇
(1. 中鐵第四勘察設計院集團有限公司, 湖北 武漢 430063;2. 中國地質大學(武漢)地理與信息工程學院, 湖北 武漢 430078;3. 武漢市勘察設計有限公司, 湖北 武漢 430022)
工程結構體的變形受多種因素影響,這個過程一般是一種非常復雜的非線性變化,用單一的模型、方法難以對這個變化的過程進行描述。傳統的數學回歸模型在對變形數據進行擬合和預測時,會因為數據的波動性導致擬合精度差,難以對施工現場提供高精度的預測數據支持和有效的安全保障[1]。近些年來,支持向量機(support vector machine, SVM)被有效應用于結構體的變形預測。國內外的學者對此展開了系列研究,在參數取值優化算法上,自Seyedali Mirjalili在2014年提出模擬灰狼捕獵和領導機制的灰狼算法(grey wolf optimizer, GWO)[2]后,文獻[3-4]通過不同的策略、算法改進經典的灰狼算法,有效解決了算法容易在局部最優處難以跳出迭代而過早收斂的問題,提高了灰狼算法的搜索效率;文獻[5]將GWO算法和粒子群算法(particle swarm optimization, PSO)結果結合,提出PSO-GWO-SVR模型,其中SVR是指支持向量回歸(support vector regression);文獻[6]將小波變換的方法和GWO-SVR方法結合,通過和現有方法的對比,顯示該方法更加有效。但是支持向量機預測模型中仍然存在一些問題: (1)核函數參數需要在算法外部定義,人為干擾過大;(2)每一種核函數特性單一,需要增強綜合性; (3)支持向量機的學習能力需要進一步加強。鑒于此,本文利用小波變換去噪的方法對數據進行預處理,并結合改進的灰狼算法優化的支持向量機構建組合預測模型,提高了對非線性變形觀測數據的預測精度。
支持向量機是機器學習領域廣泛使用做分類的機器學習模型[7],若將支持向量機的思想應用到回歸問題,求解支持向量到模型中超平面的距離最小值,從而找到一組數據的內在關系,實現回歸擬合。支持向量回歸(support vector regression, SVR)的應用拓寬了支持向量機的應用領域[8-9]。
支持向量回歸機可以將無法線性分類的問題,利用支持向量機中的核函數將數據映射到高維空間,在高維空間實現線性分類。核函數映射效果的好壞,關系到分類結果的準確性。核函數按分類特性可區分為全局特性和局部特性,對應效果為后期數據分類效果較好和前期數據分類效果較好。每一種核函數只具有單一的特性,文獻[10-11]對核函數進行的組合,提供了改善核函數特性的方法。根據Mercer定理,任何半正定的函數都可以當作核函數,按照矩陣的運算法則,核函數的乘積形式也可作為核函數。于是為綜合核函數的特性,本文結合具有不同特性的多項式核函數和柯西核函數,構建多核核函數,表達式為[12]
(1)
式中,Kmix為多核核函數簡表達式;KPoly為多項式核函數的簡易表達式;KCauchy為柯西核函數的簡易表達式。將多核核函數引入支持向量回歸的超平面f(x)=ωx+b中,構造多核支持向量回歸模型(簡稱為kSVR模型),對于訓練集S,超平面函數表達式為
(2)
式中,x表示訓練集中的向量;xi表示支持向量;ω表示回歸函數的代求系數;N表示樣本點數量;βi表示引入的拉格朗日乘子,利用算法求解;b是根據函數求解的常數,函數表達式展開可以寫作
(3)
式中,d為多項式核函數的多項式系數;σ為柯西核函數的參數。
在實際應用中,支持向量回歸機的學習泛化能力和預測能力十分依賴于核參數δ、懲罰參數C等參數的取值。本文利用灰狼算法來對參數進行算法尋優,減少外部的人為干擾,以達到提高預測的精度目的。模型的表達式如下
(4)
式中,t表示當前算法迭代的次數;tmax表示算法的最大迭代次數;XP(t)表示獵物的位置;X(t)表示算法迭代次數為t時灰狼當前位置;D為獵物與灰狼之間的距離;A和B分別為兩個協同因子,通過調整A和B這兩個向量能夠讓灰狼到達不同的位置;r1、r2∈[0,1]。
2.2.1收斂因子
收斂因子α在最初的定義上是在[0,2]區間里線性減小,但若讓收斂因子α在迭代前期大于1,全局的搜索能力變強;迭代后期小于1,局部的搜索能力變強,可以進一步提高算法的收斂效率。對于收斂因子的研究文獻[13]提出余弦變化的收斂因子;文獻[14]在非線性收斂因子α基礎上提出關于對數形式的改進;文獻[15]提出正弦變化的收斂因子。本文提出新的收斂因子,在迭代的前期,搜索能力強,讓α的值偏大,迭代后期收斂速度加快,提高收斂的效率,在迭代數滿足0≤t≤tmax時,令T=t/tmax有
(5)
對比現有的幾種收斂因子,本文提出收斂因子在收斂方式上和余弦變化類似,新的收斂方式能夠綜合迭代前期增強全局搜索能力和迭代后期增強局部搜索能力,以達到提高算法收斂效率的目的。
2.2.2算法擾動性
經典灰狼算法進行算法尋優時,容易陷入局部最優,無法跳出循環,導致過早收斂。為了改善算法的能力,增強其在局部最優位置的跳出能力,往往都是在經典算法中加入擾動算子,以改善算法陷入局部最優的問題。多項式變異[16]是Deb等人在1996年提出的變異算法,目前該算法被廣泛應用于研究多目標的參數優化問題。其表達式為
(6)
其中,
(7)
式中,μ表示一個隨機數,μ∈ [0,1];ηm是分布指數。其中:
(8)
式中,υk和υk+1分別表示群體中最優的個體位置和變異之后群體中的最優個體位置;μk和lk分別表示群體位置的上限和下限。
在經典灰狼算法中采用新的收斂因子,同時引入多項式變異算子,構造改進的灰狼算法(improved grey wolf optimization,IGWO)模型。
2.2.3 改進灰狼算法實驗及其非線性預測能力分析
為了測試IGWO算法的性能,驗證其非線性的預測能力,在文獻[2]中按照測試函數的類型,在每個類型中隨機抽取標準非線性函數模型,進行峰值預測的實驗分析。并與粒子群算法(PSO)、經典灰狼算法模算法(GWO)、基于差分進化的灰狼算法(hybrid Grey Wolf optimizer, HGWO)進行比較。為了保證實驗的合理性,對各算法參數作如表1設置,并分別對測試函數運行30次,利用平均值和標準差評價各模型,運算結果如表2所示。

表1 算法的參數設置

表2 幾種模型對12個非線性測試函數峰值的預測比較
通過分析得出以下結論:
(1)在單峰函數和多峰函數中,IGWO算法標準差指標最優,具有更好的搜索能力,對這幾種非線性函數峰值的預測精度更高。固定維度的多峰函數中,尋優能力也十分穩定、突出;
(2)收斂因子的加入,能夠有效提高GWO算法的預測效率,提高收斂能力;
(3)通過12個非線性測試函數的測試結果可知,IGWO算法的搜索能力大多數情況下優于其他幾種算法,尋優能力穩定,對非線性模型的預測能力更強。
結合kSVR模型和IGWO算法構建基于灰狼算法和支持向量回歸的組合模型(簡寫為IGWO-kSVR模型)。具體流程如下:
(1)初始定義模型中的算法參數及待尋優懲罰因子C和核函數參數δ;
(2)對初始群體中的灰狼個體的目標值進行排序,更新位置最優的Xα、Xβ、Xδ;
(3)利用灰狼數學模型算法,讓狼群靠近目標其中收斂因子使用公式(5)進行更新。對灰狼個體的目標函數值并進行排序,獲取最優位置Xα;
(4)引入多項式變異算子:比較本次迭代最優位置灰狼個體的函數值和上次迭代的最優位置灰狼個體的函數值,如果小于則保留目前最優個體位置Xα,不發生變異;如果大于則對目前最優個體進行多項式變異,得到更新后的Xα;
(5)判斷是否達到最大迭代數,未完成迭代,則回到第(2)步再次循環。完成迭代,則輸出最優位置Xα作為尋優結果,其不同維度下的結果分別為參數懲罰因子C和核函數參數δ的尋優值;
(6)將參數懲罰因子C和核函數參數δ的值帶入模型中進行回歸擬合,得到預測結果。
為了驗證本文提出算法的有效性,以武漢市某基坑監測項目變形監測的數據,時間序列間隔為1 d。進行粗差剔除后,該數據量共95期,將前90期數據作為學習樣本,后5期數據作為測試數據集用來比較分析。
首先對獲取到的監測數據預處理,使用Mallat小波去噪算法對變形監測序列進行處理。經過反復實驗,發現使用db5小波函數將形變位移序列分解為2層時,小波分解信噪比為30.084 2,均方誤差(mean square error,MSE)為0.093 3 mm2,可以獲得最優的去噪效果。
利用去噪后的工程實例數據,結合基于改進灰狼算法的多核SVR構建組合模型(IGWO-kSVR),與粒子群算法(PSO)、經典灰狼算法(GWO)、基于差分進化的灰狼算法(HGWO)優化的支持向量回歸模型進行預測對比,來驗證模型的有效性,并以絕對百分比誤差(mean absolute percentage error,MAPE)、均方根誤差(root mean squared error,RMSE)和平均絕對誤差(mean absolute error,MAE)作為評價指標,對模型精度進行評定[17]。預測結果如表3所示。

表3 各模型預測結果/mm

圖1 各模型預測結果對比

圖2 各模型殘差對比

表4 各模型精度對比
分析以上結果,對比指標平均絕對百分比誤差,可以得到以下結論:
(1)較WT-PSO-SVR模型,WT-IGWO-kSVR模型提高約6.4%,WT-HGWO-kSVR模型提高約3.2%,WT-GWO-kSVR模型提高約2.8%,綜合說明灰狼算法的尋優能力要強于粒子群算法。
(2)WT-IGWO-kSVR模型較WT-GWO-kSVR模型提高約3.7%,WT-IGWO-kSVR模型較WT-HGWO-kSVR模型提高約3.1%,綜合說明基于改進灰狼算法和支持向量回歸的預測模型,獲得最佳的效果,能夠驗證模型的有效性。
本文通過引入柯西核函數和多項式核函數的乘積,以平衡預測模型的局部擬合和整體擬合的能力。通過構造經典灰狼算法新的收斂因子,以提高算法的收斂效率。通過在灰狼算法中引入多項式變異算子,提高算法的局部擾動能力,以提高灰狼算法對支持向量機核函數參數尋優的精度?;谏鲜?種算法的改進,提出一種基于改進灰狼算法的支持向量回歸非線性預測組合模型,提高了向量機模型對預測數據集的整體預測精度。實驗采用基坑監測數據對模型預測能力進行檢驗,同時與PSO算法、GWO算法、HGWO算法優化的支持向量機預測模型進行對比實驗,結果表明,IGWO算法的收斂效率更高,對結構變形發展演化的非線性特征擬合精度更高,預測能力更強。