999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于隨機鄰域變異和趨優反向學習的差分進化算法

2023-12-31 00:00:00左汶鷺高岳林
計算機應用研究 2023年7期

摘 要:傳統差分進化(DE)算法在迭代過程中不能充分平衡全局勘探與局部開發,存在易陷入局部最優、求解精度低、收斂速度慢等缺點。為提升算法性能,提出一種基于隨機鄰域變異和趨優反向學習的差分進化(RNODE)算法并對其進行復雜度分析。首先,為種群中每個個體生成隨機鄰域,用全局最佳個體引導鄰域最佳個體生成復合基向量,結合控制參數自適應更新機制構成隨機鄰域變異策略,使算法在引導種群向最優方向趨近的同時保持一定的勘探能力;其次,為了進一步幫助算法跳出局部最優,對種群中較差個體執行趨優反向學習操作,擴大搜索區域;最后,將RNODE與九種算法進行對比以驗證RNODE的有效性和先進性。在23個Benchmark函數和兩個實際工程優化問題上的實驗結果表明,RNODE算法收斂精度更高、速度更快、穩定性更優。

關鍵詞:差分進化; 隨機鄰域變異; 趨優反向學習; 實際工程優化

中圖分類號:TP301.6

文獻標志碼:A

文章編號:1001-3695(2023)07-013-2003-10

doi:10.19734/j.issn.1001-3695.2022.11.0785

Differential evolution algorithm based on random neighborhood mutation andoptimal opposition-based learning

Zuo Wenlua,b, Gao Yuelina,b?

(a.School of Mathematics amp; Information Sciences, b.Ningxia Key Laboratory of Intelligent Information amp; Big Data Processing, North Minzu University, Yinchuan 750021, China)

Abstract:The traditional differential evolution(DE) algorithm balanced global exploration and local exploitation inadequately, and had problems with easily falling into local optimal solutions, low solution accuracy and slow convergence speed. Therefore, this paper proposed a differential evolution algorithm based on random neighborhood mutation and optimal opposition-based learning(RNODE) and analyzed for its complexity. Firstly, the algorithm generated a random neighborhood for each individual in the current population, and used the global best individual to guide the neighborhood best individual to generate a composite basis vector, combined with an adaptive update mechanism of the control parameters to constitute a random neighborhood mutation strategy, which enabled the algorithm maintained its exploration ability and guided the population towards the optimal direction. Secondly, to further help the algorithm jump out of the local optimum, the algorithm performed the optimal opposition-based learning strategy on the poorer individuals to expand the search area. Finally, this paper compared RNODE with 9 algorithms to verify the effectiveness and advancement of RNODE. The experimental results on 23 benchmark functions and 2 real-world engineering optimization problems show that the RNODE algorithm has a higher convergence accuracy, faster speed and a greater stability.

Key words:differential evolution; random neighborhood mutation; optimal opposition-based learning; real-word engineering optimization

0 引言

傳統優化算法,如線性規劃、整數規劃、動態規劃和分支定界等,通常需要給出待優化問題的精確數學模型,但實際工程領域提出的優化問題越來越復雜,難以建立精確的數學模型。傳統優化算法只適用于小規模問題,在求解問題變量維度大、階次高、目標函數多、約束條件復雜等大規模復雜優化問題時,這些算法的計算復雜度明顯增加,甚至無法求解,難以滿足工程需要。相比之下,啟發式優化算法通過啟發式搜索策略實現并行計算,對于問題的性質和規模沒有限制,致使其在實際問題中的適用性大大提升。近四十年來,人們對社會性群體和各種自然現象的研究已經產生了大量的啟發式優化算法并將它們應用于各種實際問題。

差分進化(differential evolution,DE)算法1是由美國學者在1995年提出的一種進化計算技術,具有原理簡單、參數設置少、易于編程實現且性能優越等優點。自該算法提出以來,已經被廣泛應用于工程、經濟等多個領域,如復雜調度2、神經網絡3、特征選擇4、網絡規劃5等。但是與其他啟發式算法類似,標準DE算法難以平衡對解空間的全局勘探能力與局部開發能力,在算法迭代后期仍然會出現搜索停滯等現象,無法保證收斂到全局最優。為了提升DE算法的全局尋優能力,國內外許多學者對其進行了不同層面的改進與研究,主要可分為以下兩個方面:

a)通過改進進化算子和控制參數設置方式來提升DE算法性能。Qin等人6提出了具有自適應特征的SaDE算法,通過學習前期生成優秀解的經驗,在不同進化階段自適應地調整實驗向量生成策略及其相關控制參數值,有效提高了傳統DE算法的性能。Zhang等人7對常見變異策略DE/current-to-best/1進行改進,提出了具有可選額外存檔和自適應更新控制參數的JADE算法,以優秀個體引導當前個體構成復合基向量,再從歷史較差信息的外部存檔中選擇個體構成差分向量的末端向量,結合自適應控制參數形成的變異策略DE/current-to-pbest/1使得種群更具多樣性且提升了算法的收斂性能。Tanabe等人8在文獻[7]的基礎上進行改進,提出了基于成功歷史信息的參數自適應差分進化(SHADE)算法,隨機選擇成功個體的歷史經驗來更新控制參數。隨后,通過對種群規模實施自適應線性減少機制進一步擴展了SHADE,提出了L-SHADE算法9。Gong等人10提出了一種基于排序的變異操作,其中參加變異的部分個體是根據它們在當前種群中的排序值依照概率被選擇的,個體獲得的排名越高,被選擇參與變異的機會就越高,該變異操作能夠集成到不同的DE變體中,提升算法的全局尋優能力。Tang等人11提出了具有個體依賴機制的IDE算法,在進化的不同階段將四個具有不同搜索特征的變異策略分別分配給優勢個體和劣勢個體,并依照個體適應度值進行參數設置。Tian等人12對IDE算法11進行改進,結合基于個體信息的參數設置方法和選擇策略提出了IDEI算法,該算法使用兩個帶有指定概率的混合變異策略,充分利用原始個體和引導個體的適應度值來指導參數設置,同時提出了結合個體適應度值和個體間位置信息的貪婪選擇策略,有效避免了搜索信息的浪費,維持了種群多樣性。Sun等人13提出了TVDE算法,使用三個具有時變特點的函數構造出新的變異算子DE/tvbase-to-rand/1,基向量為當前個體與種群最佳個體的動態組合,結合自適應參數設置方式進一步平衡了DE算法的勘探與開發能力。Meng等人14結合基于歷史群體的變異策略、自適應控制參數的分組策略和新的種群規模線性減少機制,提出了Hip-DE算法。吳文海等人15以隨機鄰域內的最佳個體作為基向量給出了一種新的變異策略DE/neighbor/1,控制參數以自適應方式動態調整,再結合廣義反向學習策略提高了DE算法的尋優速度和精度。Li等人16在進化過程中為種群中每個個體自適應生成跳躍概率,并據此選擇該個體是否進入子種群,通過特定的反向策略得到反向子種群,由此給出了基于子種群的反向學習策略,將其嵌入到DE中得到基于子種群的自適應反向差分進化算法(SPODE)。Yi等人17在變異操作中采用具有相同控制參數的DE/current-to-pbest/1和DE/rand-to-pbest/1策略生成雙變異向量,再結合兩種交叉操作生成雙實驗向量,更好地平衡勘探與開發之間的關系,在迭代過程中自適應調整pbest群體的大小及其他控制參數值得到EJADE算法,進一步提高了DE算法的尋優性能。

b)結合其他元啟發式算法的優點,得到不同的混合DE算法。王盈祥等人18將差分進化中變異、交叉、選擇等操作引入傳統狼群算法中,有效避免了算法陷入早熟,提高了算法的魯棒性和全局尋優能力。Wang等人19根據DE和粒子群優化不同變異算子的特點,在迭代過程中每個個體依據選擇概率自適應地選擇改進的DE/rand/1變異算子或粒子群變異算子。賈時等人20將算法的迭代過程分為兩個階段,利用DE和粒子群優化算法完成對種群的協同進化,結合雙種群策略提高了算法的全局尋優能力。Zhong等人21將獲得共享知識算法的兩階段分享策略、DE/rand/1和哈里斯鷹算法中的軟包圍策略組合構成四種變異策略,雙重保證了算法在勘探與開發之間的平衡。生龍等人22提出結合引力搜索算法的差分進化算法,并將其用于優化混合核ELM模型參數,提高了所提網絡異常檢測模型的性能。Hachana等人23將人工蜂群算法中的每只蜜蜂通過DE變異策略得到其搜索向量,并在優化過程中執行兩次DE變異策略,混合算法的性能得到了明顯提升,更有效地解決了PEM燃料電池的參數識別問題。

盡管上述文獻中的DE變體在一定程度上平衡了算法的勘探與開發能力,降低了算法陷入局部最優值并造成搜索停滯的概率,但隨著科技的快速發展,需要優化的實際問題對啟發式算法的性能有了更高要求,DE算法的收斂速度和解的精度仍然有待提升。針對DE算法易陷入局部最優、在迭代后期收斂速度慢、收斂精度不高的缺陷,提出了基于隨機鄰域變異和趨優反向學習的差分進化(RNODE)算法。該算法給出了一種新的隨機鄰域變異策略替代傳統變異方式,設置了鄰域大小和縮放因子的動態更新機制,盡可能保持算法勘探與開發能力之間的平衡,結合趨優反向學習策略,增加了種群多樣性,有利于種群跳出局部最優解,從而提高了DE算法的收斂精度。

1 標準差分進化算法

最小化優化問題可以描述為min{f(X)|X∈Ω},其中決策變量X=(x1,x2,…,xD),D和Ω分別表示待優化問題的維度和可行域。

使用標準DE算法求解上述單目標問題最小值時,首先生成初始種群,以種群中每個個體為父代個體,以向量差分的形式對基向量進行擾動,為父代生成相應的子代變異個體;然后在變異個體的分量與預先給定的父代個體分量之間進行交叉;最后遵循“適者生存,優勝劣汰”的貪婪原理選擇好的個體進入下一代。在迭代過程中,所有個體不斷向解空間中優秀個體移動,直至找到問題的最優解。主要包括以下四個步驟:

a)種群初始化。在可行域內隨機初始化NP個D維參數向量構成初始種群S0={X01,X02,X03,…,X0NP},其中個體X0i=(xi,1,xi,2,xi,3,…,xi,D),每一維分量通過式(1)得到。

其中:i=1,2,…,NP,j=1,2,3,…,D;rand(0,1)表示[0,1]的隨機數;xlj和xuj分別表示個體X第j個維度的下界和上界。

b)變異操作。在種群中隨機選擇三個向量XGr1、XGr2、XGr3參與第G代變異,以DE/rand/1為例,得到父代個體XGi對應的變異個體VGi如式(2)所示。

其中:F∈[0,1]為縮放因子。為了保證解的有效性,必須判斷變異個體各分量是否滿足邊界條件,如果不滿足邊界條件,就在解空間內重新隨機生成變異個體。

c)交叉操作。對父代個體和其對應的子代變異個體進行分量交叉,每個個體的每個分量按照一定的概率選擇變異個體(否則就選擇父代個體)來生成實驗個體UGi=(uGi,1,uGi,2,…,uGi,D),如式(3)所示。

其中:CR為交叉因子;jrand∈(1,2,…,D),為了確保交叉后的實驗個體至少有一維分量由變異個體提供。

d)選擇操作。選用貪婪選擇策略,根據個體適應度值來判斷進入下一代的是父代個體還是實驗個體,如式(4)所示。

綜上,標準DE算法的完整計算流程如圖1所示。

2 改進的差分進化算法及其復雜度分析

針對標準DE算法的大多數變異策略很難在迭代的各個階段都生成符合要求的變異向量,可能導致種群過早地陷入局部最優得到精度低的解,也可能導致在進化中后期收斂速度明顯下降,很難找到最優解。為了提升DE算法的全局尋優能力,主要從以下兩個方面對算法進行改進:a)使用全局最佳個體、動態鄰域最佳個體、動態鄰域最差個體的信息構造新的隨機鄰域變異策略,且隨迭代自適應更新鄰域大小和縮放因子進一步保證變異策略的全局尋優和快速收斂能力;b)為了進一步補足算法的全局勘探能力,對變異、交叉、選擇后的新種群依照適應度值升序排名,選擇排名靠后的部分較差個體對其執行趨優反向學習策略,提高種群中個體質量的同時擴大了算法的搜索區域,幫助種群跳出局部最優,從而提高算法的收斂精度。結合兩種策略的RNODE算法能夠有效平衡勘探與開發能力,有效提高了DE算法的收斂速度和精度。

2.1 隨機鄰域變異策略

在DE算法中,變異操作的基向量從本質上決定了產生變異向量的核心范圍,對種群多樣性、算法收斂性能有重要影響。其中,DE/rand/1在種群中隨機選擇互不相同的個體作為基向量和差分向量,具有較強的全局勘探能力,但基向量的隨機選擇可能會使已經在最優解附近的個體遠離最優解,造成收斂速度緩慢。DE/best/1以種群中最佳個體作為基向量,實現了對最佳個體的局部開發,但容易陷入局部最優,造成早熟收斂。DE/current/1的基向量是當前目標個體,實現了對每個目標個體的局部開發,種群具有較好的多樣性,但由于搜索過程中缺乏優秀個體的引導,導致收斂速度慢,甚至無法找到最優解。為了改進上述變異策略的缺陷,大量基于復合基向量的變異策略被提出,其中的基向量結合不同個體來共同生成,使用最為廣泛的是DE/current-to-best/1及其改進策略,該策略中最佳個體引導當前個體向有希望的方向進行搜索,其存在以下兩個缺點:a) 最佳個體的引導程度過大,會導致進化前期種群多樣性降低,算法陷入局部最優解;b) 若當前個體較差,在進化中后期該變異策略會使算法收斂速度明顯下降,很難找到最優解。為了改進以上缺陷,提出了一種新的隨機鄰域變異策略DE/nbest-to-gbest/1,如算法1所示。

算法1 DE/nbest-to-gbest/1

輸入:上一代種群;縮放因子F2;鄰域上界NL;鄰域下界NU。

輸出:變異種群。

for i=1 to NP do

根據式(6)為第i個個體設置隨機鄰域大小NGi;

隨機選擇種群中NGi個個體組成個體XGi的鄰域;

根據式(7)為第i個個體生成變異因子FG1i;

根據式(5)生成第i個個體對應的子代變異向量VGi;

end

在進化過程中為當前個體生成隨機鄰域,并找到鄰域最佳個體,讓全局最佳個體引導鄰域最佳個體生成復合基向量,將鄰域內除最差個體之外的隨機個體作為差分向量的前端、鄰域內最差個體作為差分向量的末端組成差分向量,結合自適應更新鄰域大小和縮放因子機制保證迭代前期的種群多樣性,降低迭代中后期由于當前個體較差造成收斂速度減慢的可能性,提高了算法在種群進化期間生成符合進化狀態的變異向量的概率。變異策略DE/nbest-to-gbest/1如式(5)所示。

其中:XGgbest是當前種群中全局最佳個體;XGnibest、XGniwrost分別是隨機鄰域中最佳、最差個體;XGni_r1是在鄰域內除最差個體外隨機選擇的剩余個體;FG1i和F2均為縮放因子。

在實施變異策略DE/nbest-to-gbest/1之前需要為目標個體隨機選擇種群中部分互不相同的個體構成其鄰域。設個體XGi鄰域內個體數為NGi,文獻[15]指出NGi的大小與算法的尋優能力有著密切聯系,較大的NGi使得鄰域中最佳、最差個體均趨向于當前種群中全局最佳、最差個體,能夠提高算法在優秀解周圍的開發能力;較小的NGi使得鄰域中最佳、最差個體均趨向于當前種群中的隨機個體,可以增強算法的勘探能力。本文采用文獻[15]中動態控制不同個體NGi值的策略,如式(6)所示。在迭代前期目標個體與全局最優個體的適應度值差異較大,鄰域內個體數量少,此時該變異策略的性能趨向于DE/rand-to-best/1策略,盡可能保持種群多樣性以搜索更多的區域。隨著迭代進行,種群個體間差異逐漸減少,鄰域內個體數量增加,此時變異策略更趨向于本文所提出的DE/nbest-to-gbest/1策略,能夠增強算法在優秀解附近的開發能力。

其中:NGi的下限Nl=4,上限Nu=4+0.1×NP;f(XGi)為第G代中個體Xi的適應度值;fGgbest為第G代最優個體的適應度值;設置ε為很小的常數以避免上式出現零分割誤差。

RNODE算法在變異策略中動態更新NGi值,一定程度上平衡了算法的勘探與開發能力,但迭代過程中鄰域個體隨機選擇,無法預測個體適應度的變化。縮放因子FG1i決定全局最佳個體的引導程度,優秀個體的引導程度過大易使算法陷入局部最優,反之則會降低算法的收斂速度。針對該問題,RNODE算法在每一代中根據所選鄰域最優個體的適應度值為每個個體自適應調整縮放因子FG1i,如式(7)所示。其中fgworst和fgbest分別為當前種群中最差個體和最優個體的適應度值,fnibest為鄰域最優個體的適應度值。

尤其在迭代后期種群中優秀個體占比變大,鄰域最佳個體的適應度值更有可能趨近于全局最佳個體的適應度值,此時變異向量會接受更多來自全局最佳個體的引導,提高了算法的收斂速度。此外,縮放因子F2控制的差分向量可以理解為是對基向量的擾動,根據文獻[1]本文設置F2=0.5來保持種群多樣性,維持變異策略的勘探能力。

2.2 趨優反向學習策略

Tizhoosh24為了改進強化學習以及神經網絡的訓練提出了反向學習(opposition-based learning,OBL)策略,并驗證了該方法能夠有效提升原有算法的性能。自反向學習提出以來,被用于改進各種優化算法。Rahnamayan等人25在2008年將反向學習策略引入到DE算法中,提出了反向差分進化(ODE)算法,該算法在種群初始化階段對初始種群求其反向種群;在世代跳躍階段,根據當前種群中個體各維度的邊界值動態地計算其反向種群;再從當前種群與反向種群的并集中選出最好的NP個個體共同進行下一次迭代,有效提升了DE算法的全局尋優能力。郭雨鑫等人26將精英反向學習機制引入到黏菌算法的種群初始化過程中,豐富了初始種群的多樣性,有利于提高算法的全局尋優能力;耿召里等人27將混合最佳和最差個體的反向學習策略引入鯨魚優化算法中,有效增強了種群多樣性,提高了算法的收斂精度。

為了進一步降低隨機鄰域變異策略中由于最佳個體的引導導致算法陷入局部最優解的可能性,在每次迭代生成的新種群中選擇部分較差個體對其執行趨優反向學習策略,提高種群質量的同時擴大算法的搜索區域,以補足算法的全局勘探能力。

首先對當前個體實施反向學習策略,得到反向個體:

其中:xlj和xuj分別為第j維分量的下界和上界。

文獻[24]指出反向個體優于當前個體的概率高于50%,考慮到仍有部分個體在反向學習之后個體質量有所降低,為了減少這種現象發生的概率并保持種群多樣性,將求得的反向個體和當前種群中最優個體進行凸組合,得到趨優反向個體:

其中:a為[0,1]的隨機數;xgbest,j是當前種群全局最佳個體的第j維分量。

通過實施該策略,即使最初求得的反向個體相較于當前個體有所退化,但與當前種群中最優個體進行凸組合后,反向解還會接受一部分來自最優個體的特征,進一步提升了反向個體的質量,同時也提高了算法的勘探能力、種群多樣性和算法的收斂精度。趨優反向學習策略如算法2所示。

算法2 趨優反向學習策略

輸入:rate。//需要反向學習的個體占比

輸出:下一代種群。

nrep=round·(rate·NP);//計算需要反向學習的個體數目

將種群依照適應度值排序,保留排名靠前的NP-nrep個個體組成集合K,排名靠后的nrep個個體組成集合Z;

for i=1 to nrep do

a=rand(0,1);

for j=1 to D do

根據式(8)求得當前解的反向個體;

根據式(9)求得趨優反向個體;

end

end //對集合Z中個體進行反向學習

判斷當前個體與趨優反向個體的適應度值,選擇適應度值低的個體存入集合Z,將K∪Z作為下一代種群。

2.3 算法具體描述

DE算法的進化過程在于通過個體間差異對基向量的位置進行修正來獲得變異向量,再利用交叉操作改變個體的部分元素,最終通過貪婪選擇得到下一代種群。針對前文所提變異策略DE/current-to-best/1的不足,選用提出的DE/nbest-to-gbest/1策略執行變異操作,用優秀個體的信息提高算法的收斂速度,進化過程中參數的自適應調整機制能夠有效控制最佳個體對搜索方向的引導程度,有效保持迭代前期種群的多樣性、避免算法陷入局部最優解,且能保持迭代后期算法的收斂速度。趨優反向學習策略使算法在能提高種群質量的同時盡可能擴大搜索范圍,有效實現了算法勘探與開發之間的平衡,最終收斂到最優解。RNODE算法的計算流程如圖2所示。

2.4 算法復雜度分析

本節對RNODE算法的計算復雜度進行分析。由文獻[28]可知,當種群中個體數為NP,每個個體都有D維分量,且規定標準DE算法在固定的迭代次數Gmax后終止,則該算法的計算復雜度為O(NP·D·Gmax)。對比圖1和2可知,DE和RNODE均通過相同的初始化策略、交叉和選擇方法進行種群進化,兩者的差異僅在于隨機鄰域變異和趨優反向學習策略。

在隨機鄰域變異操作中要對鄰域內個體依照適應度排序,其計算復雜度為O(NP·log NP·Gmax)。在選擇操作之后,需對種群中個體進行排序,選擇部分較差個體執行趨優反向學習策略,考慮最壞情況,即所有較差個體都被趨優反向個體替換,該過程總的計算復雜度可記為O(NP·D·Gmax),故RNODE的計算復雜度為O(NP·(log NP+2D)·Gmax)。可以看出,RNODE與標準DE的計算復雜度基本相同,這也表明了所提算法的計算有效性。

3 數值實驗與分析

為驗證RNODE算法的收斂能力和尋優性能,證明其有效性和先進性,本文選取23個benchmark函數進行數值實驗,如表1所示,其中f1~f12為單模態函數,f13~f23為多模態函數,且f5和f7為帶有噪聲的函數,所選基準函數能夠全面反映被測試算法的性能。

首先,驗證了RNODE所提兩種策略的有效性和必要性;其次,將RNODE分別與JADE11、rank-DE14、SaDE17三種優秀的經典DE變體,與EJADE17、SPODE16、TVDE13三種最近提出的先進DE變體,以及與灰狼優化(GWO)算法29、鯨魚優化算法(WOA)30、松鼠搜索算法(SSA)31三種近年來提出的競爭力較強的啟發式算法進行對比,分析不同算法的收斂精度和收斂速度;最后,使用Wilcoxon秩和檢驗進一步評估RNODE算法與對比算法之間的差異是否顯著性。

3.1 實驗設置

本文數值實驗在Windows 10操作系統中完成,實驗環境是Intel?"Xeon?"E-2224 CPU @ 3.40 GHz處理器,實驗平臺是MATLAB 2021b。其中,在rank-DE算法中縮放因子F=0.5,變異因子CR=0.5;在SaDE、JADE、EJADE、SPODE、TVDE、GWO、WOA和SSA算法中,控制參數與其對應的原始參考文獻一致;RNODE算法中縮放因子F2=0.5,交叉因子CR=0.5,執行趨優反向學習的較差個體占比rate=0.2,鄰域大小NGi和縮放因子F1i分別按式(6)(7)所示自適應動態選擇。所有算法的種群規模NP=50,取基準函數的維度D=50,最大迭代次數設置為Gmax=1 200。為避免偶然性,所有算法在每個函數上均獨立運行30次,記錄30次運行結果的平均最小誤差(誤差均值)和標準差,前者反映算法的收斂精度,后者反映算法的穩定性。

3.2 策略有效性驗證

RNODE算法中包含兩種改進策略,任意缺少一種改進策略形成兩個RNODE變體:a)RNODE.1,表示缺少隨機鄰域變異策略,選用DE/rand/1作為其變異方式,縮放因子F=0.5,并結合2.2節趨優反向學習的DE算法;b)RNODE.2,表示缺少趨優反向學習策略,僅采用2.1節隨機鄰域變異策略的DE算法。在23個基準函數上將RNODE算法及其兩種變體進行對比,實驗結果如表2所示,其中加粗數據表示最優結果。

可以看出,RNODE.1僅在f20和f21兩個函數上收斂性能優于RNODE;在七個基準函數上兩者都收斂到了最優解,具有相同的誤差均值和標準差;在f3、f7、f15三個函數上其收斂精度不如RNODE,但兩者的收斂精度處于同一指數級;在剩余11個函數上,RNODE.1的收斂精度都顯著劣于RNODE,說明隨機鄰域變異策略能夠有效提高算法的局部開發能力,提高算法的收斂精度。RNODE.2在23個基準函數上的性能均劣于RNODE,即只使用隨機鄰域變異策略的算法性能較差,說明趨優反向學習策略在提高種群中個體質量的同時,能夠進一步擴大種群的尋優范圍,維持種群多樣性,幫助算法跳出局部最優,找到其他可能存在優秀解的范圍,保持算法勘探與開發能力的平衡,提高RNODE算法的尋優性能。

3.3 RNODE與其他算法的對比

3.3.1 與經典DE變體對比

本節將RNODE與JADE、rank-DE、SaDE三種經典DE變體進行對比。實驗結果(誤差均值與標準差)如表3所示,加粗數據表示最優。在f1~f20、f22和f23這22個函數上,RNODE均獲得了最好結果,具有更好的性能。其中,在f2、f4和f16函數上RNODE獲得的誤差均值達到了-100次方以上,在f1、f6、f8和f11函數上的誤差均值達到了-220次方以上,遠超對比的三種算法。在f12上,RNODE、JADE和rank-DE均收斂到最優解,且性能超過SaDE。在f17上,RNODE與rank-DE收斂到最優解,性能超過其他兩種對比算法。在f21上,RNODE不能很好地找到最優解,其求得的誤差均值和標準差都沒能超過所對比的三種算法,但與對比算法至多相差兩個指數級。綜上,RNODE的尋優精度和穩定性僅在一個基準函數上同時劣于三種對比算法,在兩個基準函數上與部分算法同時收斂到了精確解,在其他20個基準函數上算法性能均優于對比的三種算法。

3.3.2 與先進DE變體對比

本節將RNODE與EJADE、SPODE、EJADE三種最近提出的先進DE變體進行對比,實驗結果(誤差均值與標準差)如表4所示,加粗數據表示最優結果。在f3上,雖然EJADE獲得了最佳尋優值,但其與RNODE得到的誤差均值具有相同的數量級,且RNODE擁有更小的標準差。在多模態函數f20和f21上,TVDE的性能明顯勝過RNODE;在f12上,四種算法中只有TVDE沒能收斂到最優值0。在其他剩余函數上,RNODE所得到的誤差均值均明顯小于對比算法。綜上,RNODE的尋優精度分別在1個和2個基準函數上劣于EJADE和TVDE,在1個基準函數上與部分算法同時收斂到了精確解,在其他19個基準函數上算法性能均優于對比的三種算法。

3.3.3 與其他先進算法對比

本節將RNODE與GWO、WOA、SSA三種近幾年提出競爭力較強的新型啟發式算法進行對比。實驗結果(誤差均值與標準差)如表5所示,加粗數據表示最優結果。在f1、f2、f4~f6、f8~f11、f15、f16、f18、f20和f2214個函數上,RNODE的性能均超過其他三種進化算法。在f3上,RNODE與GWO和WOA收斂到同一指數級,其尋優能力僅次于SSA。在f7上,四種算法的收斂性能類似,但最終SSA獲得了更小的誤差均值;在f12上,四種算法都找到了函數的精確解。此外,在f13、f14、f17和f19上,RNODE和WOA共同收斂到了精確解,優于其他兩種對比算法。在f21上,RNODE劣于SSA,優于其他兩種對比算法;在f23上,RNODE、GWO與WOA都找到最優解,優于SSA。綜上,RNODE的尋優精度僅在3個基準函數上劣于SSA,在6個基準函數上與部分對比算法同時收斂到了精確解,在其他14個基準函數上優于對比的三種算法。可以看出,即使與先進的進化算法對比,RNODE也表現出了更強的競爭力。

綜合以上三組對比實驗可知,在10個單模態函數f1、f2、f4~f6、f8~f12上,RNODE的尋優精度和穩定性均位列第一;11個多模態函數f13~f23中,有6個函數均能夠穩定地收斂到理論最優值,3個函數(f15、 f16和f22)的收斂誤差均值和標準差也均超過對比算法,其他2個函數(f20和f21)上的尋優性能也都有超過部分對比算法,這是因為RNODE中兩種策略的結合能夠進一步在全局勘探和局部開發之間保持平衡,從而提高了尋優能力。

整體來看,在23個基準函數下最小誤差均值RNODE占據了19個,表明該算法具有優秀的尋優性能。根據“沒有免費午餐”定理,算法不可能在所有問題上都表現出優越的性能。因此,無論是在單模態或是多模態函數上,RNODE的性能都非常具有競爭力,能夠有效抵抗算法陷入局部最優,提高種群收斂速度和精度,具有較好的全局尋優能力。

3.3.4 Wilcoxon秩和檢驗

僅從誤差均值和標準偏差這兩種指標出發衡量各算法的優化性能效果還遠遠不足,需要進一步進行統計檢驗以證明引入隨機鄰域變異和趨優反向學習策略改進后的RNODE算法比其他對比算法具有顯著的性能優勢。本文使用Wilcoxon秩和檢驗在5%的顯著性水平下對算法獨立運行30次的均值誤差進行比較,判斷RNODE是否與JADE、rank-DE、SaDE、EJADE、SPODE、TVDE、GWO、WOA和SSA九種對比算法的尋優結果顯著不同。其結果分析如表6所示,其中“p”表示檢驗結果,“h”表示顯著性判斷結果。當p<0.05時,h顯示為“1”,表示RNODE算法與其他對比算法有顯著性差異;當p>0.05時,h顯示為“0”,表示RNODE算法的優化性能與其他算法沒有明顯差異;當p顯示為“N/A”時,表示無法進行算法間的顯著性檢驗,所對比的兩種算法基本沒有差異。“1/0”表示RNODE與相應的對比算法有/無顯著差異;“+/≈/-”表示RNODE優于/近似于/劣于相應的對比算法。

從統計結果可以看出,大部分秩和檢驗的p值均小于0.05,h值為1,這表明RNODE與九種對比算法存在顯著差異,且RNODE的性能分別在20、20、20、21、20、20、18、16和19個基準函數上顯著優于上述九種對比算法;在2、2、2、1、3、1、5、7和2個基準函數上與相應對比算法獲得相似的結果;僅在1、1、1、1、0、2、0、0和2個基準函數上劣于相應對比算法。因此,RNODE在上述23個基準函數上具有整體更好的性能,說明所提兩種策略對DE算法的改進能夠有效平衡算法的勘探與開發能力,提升了算法的搜索性能。這可能是由于RNODE在進化過程中可以根據個體的適應度及種群全局勘探與局部開發的實際狀況為目標個體自適應地分配合理的控制參數值,以及在選擇操作之后仍能進一步改變種群個體并提升種群質量。因此RNODE是一個具備有效性和先進性的算法。

3.3.5 算法收斂速度分析

為了更加直觀地比較RNODE與上述九種對比算法在不同基準函數上的收斂精度和收斂速度,圖3繪制出不同算法在f1、f5、f7、f9、f10、f15、f18、f19和f23九個基準函數上的收斂曲線。其中,橫坐標為種群迭代次數,縱坐標為算法獨立運行30次后求得平均最小誤差再取對數值。

從繪制的部分函數收斂曲線圖中可以看出,在單模態函數f1上,其他算法收斂速度緩慢且精度不高,RNODE擁有優秀的收斂速度和精度。在f5、f9、f10和f18上,只有RNODE找到了精確解,其余對比算法均未求得精確解。其中在f10上,RNODE收斂到精確解時的迭代次數少于200代,且只有該算法的收斂精度和速度同時達到了最優水平;在f18上,RNODE在迭代初期與其他算法一樣易陷入局部最優值,但在迭代中后期RNODE可以有效跳出局部最優,并快速找到全局最優解。這主要是由于RNODE能夠使種群在每代進化結束后執行趨優反向學習策略,在提升種群質量、加速種群收斂的同時,也能夠在局部范圍內使種群成功跳出局部最優,擴大搜索范圍,幫助種群找到更有可能存在最優解的區域并快速收斂。在多模態函數f19和f23上,雖然有其他對比算法與RNODE都收斂到了精確解,但是RNODE在200次迭代內就已經找到了最優解,收斂速度明顯更快,說明RNODE算法有效提高了DE的收斂速度。在f7上,RNODE的收斂速度和精度與SSA無顯著差異,收斂性能優于其他對比算法。在f15上,RNODE具有更快的收斂速度和更高的收斂精度,可見RNODE具有先進性和有效性。

通過以上數值實驗的結果分析和收斂曲線圖可知,RNODE在所選基準函數上比其他九種對比算法具有更快的收斂速度、更高的尋優精度和穩定性,是一種值得采納的先進算法。

4 工程應用

本章選擇Lennard-Jones勢能最小化問題(LJ)和擴頻雷達相位編碼問題(spread spectrum radar polly phase code,SSRP)兩個實際工程優化問題來進一步測試RNODE算法的有效性。將RNODE與上述九種算法進行對比,為保證實驗公平,所有實驗均在同一電腦環境下進行。設種群規模NP=50;最大迭代次數Gmax=1200;各算法的其他參數設置均與3.1節一致,記錄每個算法獨立運行30次求得的最優值、最差值、平均值、標準差以及在5%顯著性水平下對平均值的Wilcoxon秩和檢驗結果,如表7所示,其中最優結果用黑體表示。

4.1 Lennard-Jones(LJ)勢能最小化問題

在藥物結構設計和納米器件等研究中,通常需要根據勢能函數找到粒子的全局最小能量結構,以便找到其穩定結構。其中Lennard-Jones勢函數具有廣泛的應用,該勢能函數是高度非線性函數且包含多個局部極小值,具有較高的尋優難度,可以檢測算法的全局尋優能力。Lennard-Jones勢能最小化問題數學表達如式(10)所示。

其中:rij=‖pj-pi‖;p={xi,yi,zi}(i=1,2,…,N)表示具有N個原子的LJ對勢的笛卡爾坐標;rij=‖pj-pi‖的梯度可表示為VN(p)=-12∑Ni=1,i≠j(r-14ij-r-8ij)(pj-pi)(j=1,…,N)。決策變量X=(x1,x2,…,xD),其中x1∈[0,4],x2∈[0,4],x3∈[0,4],其他xi∈[-4-(1/4)·∟(i-4)/3」,4+(1/4)·∟(i-4)/3」],該問題維度D=30,即N=10。

LJ對勢V(r)=r-12ij-2r-6ij隨距離r變化,對于特定的r值(=1),LJ勢能函數有min V(r)=-1。當r從最佳值減小時,V(r)迅速上升,在r接近0時趨近于無窮大,這種變化趨勢增加了其優化難度。

4.2 擴頻雷達相位碼設計問題

SSRP問題是一個連續型最小—最大非線性凸優化問題,屬于NP-hard問題,其約束為邊界約束。其數學表達式如式(11)所示,設置該問題維度為D=20。

由表7可知,對于LJ勢能最小化問題,RNODE和EJADE得到了相同的最優值,結合統計檢驗結果可知,RNODE的性能顯著優于四種對比算法,與四種對比算法具有相似的求解性能,僅次于EJADE,具有較高的求解精度。對于SSRP問題,RNODE的性能顯著優于八種對比算法,與EJADE具有相似的求解性能。綜上,RNODE在上述兩個實際工程問題上取得了較優秀的求解結果。該算法具有較強的尋優性能主要是因為其能夠有效平衡種群的全局勘探與局部開發能力,從而具有優秀的收斂精度和速度。

5 結束語

本文通過對標準DE算法及其相關改進算法進行分析和研究,提出了一種基于隨機鄰域變異和趨優反向學習的差分進化(RNODE)算法。在該算法中,提出DE/nbest-to-gbest/1變異策略,融合較差個體的趨優反向學習策略,提升了反向個體的質量,擴大了搜索范圍,提升了找到最優解所在區域的可能性,提高了算法的收斂速度和精度。通過在23個Benchmark函數以及兩個實際工程優化問題上的對比實驗及統計檢驗結果可知,該算法的整體性能優于所對比的九種算法。在算法復雜度不發生大變化的同時,RNODE進一步保持了DE算法勘探與開發能力之間的平衡,提高了收斂精度和尋優速度,擁有較好的全局尋優能力。

在個別函數上RNODE算法仍然存在求解精度不高的問題。未來將進一步研究RNODE算法的改進工作,改善其整體尋優能力,完善該算法的理論收斂性驗證,并將其更廣泛地應用于現實世界的復雜優化問題,例如工程設計、傳感器網絡節點覆蓋優化、光伏電池參數估計等。

參考文獻:

[1]Storn R, Price K. Differential evolution:a simple and efficient heuristic for global optimization over continuous spaces[J]. Journal of Global Optimization, 1997,11(12): 341-359.

[2]Zhang Qiang, Zou Dexuan, Duan Na, et al. An adaptive differential evolutionary algorithm incorporating multiple mutation strategies for the economic load dispatch problem[J]. Applied Soft Computing, 2019,78(5): 641-669.

[3]Son N N, Van K C, Anh H. Hysteresis compensation and adaptive control based evolutionary neural networks for piezoelectric actuator[J]. International Journal of Intelligent Systems, 2021,36(10): 5472-5492.

[4]Zhang Yong, Gong Dunwei W, Gao Xiaozhi, et al. Binary differential evolution with self-learning for multi-objective feature selection[J]. Information Sciences, 2020,507(1): 67-85.

[5]Okagbue H I, Adamu M O, Anake T A. Differential evolution in wireless communications[J]. International Journal of Online Engineering, 2019,15(11): 29-52.

[6]Qin A K, Huang V L, Suganthan P N. Differential evolution algorithm with strategy adaptation for global numerical optimization[J]. IEEE Trans on Evolutionary Computation, 2008,13(2): 398-417.

[7]Zhang Jingqiao, Sanderson A C. JADE: adaptive differential evolution with optional external archive[J]. IEEE Trans on Evolutionary Computation, 2009,13(5): 945-958.

[8]Tanabe R, Fukunaga A. Success-history based parameter adaptation for differential evolution[C]//Proc of IEEE Congress on Evolutionary Computation. Piscataway, NJ: IEEE Press, 2013: 71-78.

[9]Tanabe R, Fukunaga A. Improving the search performance of SHADE using linear population size reduction[C]//Proc of IEEE Congress on Evolutionary Computation. Piscataway, NJ: IEEE Press, 2014: 1658-1665.

[10]Gong Wenyin, Cai Zhihua. Differential evolution with ranking-based mutation operators[J]. IEEE Trans on Cybernetics, 2013,43(6): 2066-2081.

[11]Tang Lixin, Dong Yun, Liu Jiyin. Differential evolution with an individual-dependent mechanism[J]. IEEE Trans on Evolutionary Computation, 2014,19(4): 560-574.

[12]Tian Mengnan, Gao Xingbao, Dai Cai. Differential evolution with improved individual-based parameter setting and selection strategy[J]. Applied Soft Computing, 2017,56(7): 286-297.

[13]Sun Gaoji, Xu Geni, Nan Jiang. A simple differential evolution with time-varying strategy for continuous optimization[J]. Soft Computing, 2020,24(4): 2727-2747.

[14]Meng Zhenyu, Yang Cheng. Hip-DE:historical population based mutation strategy in differential evolution with parameter adaptive mechanism[J]. Information Sciences, 2021,562(7): 44-77.

[15]吳文海, 郭曉峰, 周思羽, 等. 基于隨機鄰域策略和廣義反向學習的自適應差分進化算法[J]. 系統工程與電子技術, 2021,43(7): 1928-1942. (Wu Wenhai, Guo Xiaofeng, Zhou Siyu, et al. Self-adaptive differential evolution algorithm with random neighborhood-based strategy and generalized opposition-based learning[J]. Systems Engineering and Electronics, 2021,43(7): 1928-1942.)

[16]Li Jiahang, Gao Yuelin, Zhang Hang, et al. Self-adaptive opposition-based differential evolution with subpopulation strategy for numerical and engineering optimization problems[J]. Complex amp; Intelligent Systems, 2022,8(3): 2051-2089.

[17]Yi Wenchao, Chen Yong, Pei Zhi, et al. Adaptive differential evolution with ensembling operators for continuous optimization problems[J]. Swarm and Evolutionary Computation, 2022,69(3): 100994.

[18]王盈祥, 陳民鈾, 程庭莉, 等. 基于差分進化的改進狼群算法研究[J]. 計算機應用研究, 2019,36(8): 2305-2310. (Wang Yingxiang, Chen Minyou, Cheng Tingli, et al. Research of improved wolf pack algorithm based on differential evolution[J]. Application Research of Computers, 2019,36(8): 2305-2310.)

[19]Wang Shihao, Li Yuzhen, Yang Hongyu. Self-adaptive mutation differential evolution algorithm based on particle swarm optimization[J]. Applied Soft Computing. 2019,81(8): 105496.

[20]賈時, 梁曉丹, 何茂偉, 等. 一種新的雙種群多變異差分與粒子群混合算法[J]. 計算機應用研究, 2020,37(S2): 44-46. (Jia Shi, Liang Xiaodan, He Maowei, et al. Novel hybrid algorithm based on particle swarm optimization and dual population multiple mutation differential evolution[J]. Application Research of Computers, 2020,37(S2): 44-46.)

[21]Zhong Xuxu, Duan Meijun, Zhang Xiao, et al. A hybrid differential evolution based on gaining-sharing knowledge algorithm and Harris hawks optimization[J]. PLoS One, 2021,16(4): e0250951.

[22]生龍, 袁麗娜, 武南南, 等. 基于GSA與DE優化混合核ELM的網絡異常檢測模型[J]. 計算機工程, 2022,48(6): 146-153. (Sheng Long, Yuan Lina, Wu Nannan, et al. Network anomaly detection model based on GSA and DE optimizing hybrid kernel ELM[J]. Computer Engineering, 2021,48(6): 146-153.)

[23]Hachana O, El-Fergany A A. Efficient PEM fuel cells parameters identification using hybrid artificial bee colony differential evolution optimizer[J]. Energy, 2022,250(7): 123830.

[24]Tizhoosh H R. Opposition-based learning: a new scheme for machine intelligence[C]//Proc of International Conference on Computational Intelligence for Modeling, Control and Automation. Piscataway, NJ: IEEE Press, 2005: 695-701.

[25]Rahnamayan S, Tizhoosh H R, Salama M M A. Opposition-based differential evolution[J]. IEEE Trans on Evolutionary Computation, 2008,12(1): 64-79.

[26]郭雨鑫, 劉升, 張磊, 等. 精英反向與二次插值改進的黏菌算法[J]. 計算機應用研究, 2021,38(12): 3651-3656. (Guo Yuxin, Liu Sheng, Zhang Lei, et al. Elite opposition-based learning quadra-tic interpolation slime mould algorithm[J]. Application Research of Computers, 2021,38(12): 3651-3656.)

[27]耿召里, 李目, 曹淑睿, 等. 基于混合反向學習策略的鯨魚優化算法[J]. 計算機工程與科學, 2022,44(2): 355-363. (Geng Zhaoli, Li Mu, Cao Shurui, et al. A whale optimization algorithm based on hybrid reverse learning strategy[J]. Computer Enginee-ring and Science, 2022,44(2): 355-363.)

[28]Das S, Abraham A, Chakraborty U K, et al. Differential evolution using a neighborhood-based mutation operator[J]. IEEE Trans on Evolutionary Computation, 2009,13(3): 526-553.

[29]Mirjalili S, Mirjalili S M, Lewis A. Grey wolf optimizer[J]. Advances in Engineering Software, 2014, 69(3): 46-61.

[30]Mirjalili S, Lewis A. The whale optimization algorithm[J]. Advances in Engineering Software, 2016,95(5): 51-67.

[31]Jain M, Singh V, Rani A. A novel nature-inspired algorithm for optimization: squirrel search algorithm[J]. Swarm and Evolutionary Computation, 2019,44(2):148-175.

主站蜘蛛池模板: 亚洲人成网18禁| 亚洲永久色| 国产aⅴ无码专区亚洲av综合网 | 久久久久国产一区二区| www欧美在线观看| 黄片在线永久| 久久精品国产精品青草app| 免费一级毛片在线观看| 99久久精品国产综合婷婷| 欧美午夜小视频| 久久精品国产免费观看频道| 九一九色国产| 青青热久免费精品视频6| 六月婷婷精品视频在线观看| 精品無碼一區在線觀看 | 日韩在线第三页| 国产一区三区二区中文在线| 国产成人啪视频一区二区三区| 91高清在线视频| 2020国产免费久久精品99| 久久久久久久久久国产精品| 欧美一级高清片久久99| 巨熟乳波霸若妻中文观看免费| 欧美激情第一欧美在线| 91啪在线| 亚洲欧美日本国产综合在线| 日韩毛片免费| 福利在线不卡| 免费毛片在线| 国产极品美女在线| 亚洲中文字幕av无码区| 99久久精品免费视频| 国产永久无码观看在线| 亚洲中文字幕在线观看| 国产男女免费视频| 日韩高清欧美| 色婷婷亚洲十月十月色天| 中国美女**毛片录像在线| 天天综合网在线| 无码'专区第一页| 91啦中文字幕| www.91中文字幕| 久久精品国产精品青草app| 97国内精品久久久久不卡| 一本色道久久88亚洲综合| 精品欧美一区二区三区久久久| 老司机精品99在线播放| 免费人成网站在线高清| 国产精品青青| 欧美人人干| 57pao国产成视频免费播放| 亚洲日本中文字幕天堂网| 九九久久精品国产av片囯产区| 久草青青在线视频| 黄片一区二区三区| 女人av社区男人的天堂| 亚洲国产欧洲精品路线久久| аⅴ资源中文在线天堂| 麻豆国产在线不卡一区二区| 成人亚洲天堂| 国产白浆视频| 欧美国产另类| 狠狠亚洲婷婷综合色香| 亚洲香蕉伊综合在人在线| 精品国产成人av免费| 二级特黄绝大片免费视频大片| 91色综合综合热五月激情| 日韩123欧美字幕| 午夜少妇精品视频小电影| 中文字幕资源站| 亚洲一区二区三区中文字幕5566| 伊人网址在线| 精品剧情v国产在线观看| 无码一区中文字幕| 999国内精品久久免费视频| 亚洲啪啪网| 国产91九色在线播放| 国产农村1级毛片| 伊人久久大香线蕉影院| 亚洲国产精品日韩av专区| 狠狠综合久久| 色偷偷男人的天堂亚洲av|