常耀華 韋根原



摘 要:針對獵人獵物優化算法尋優精度低和易陷入局部最優等問題,提出了一種基于領導者競爭策略的改進獵人獵物優化算法。首先將種群隨機分為三個亞群,采用不同的搜索策略,擴大搜索范圍;其次,采用精英組合突變策略,提升種群子代多樣性,規避局部最優值;最后,提出領導者競爭策略,利用個體間的信息交流,統合各個策略,篩選出最優變量。通過數值實驗以及在工程優化問題上的應用結果表明,所提算法相較于對比算法具有更為優異的尋優能力,驗證了改進策略的有效性和可靠性。
關鍵詞:獵人獵物優化算法;精英組合突變策略;領導者競爭策略;均值搜索策略;正余弦策略
中圖分類號:TP18?? 文獻標志碼:A?? 文章編號:1001-3695(2024)01-021-0142-08
doi:10.19734/j.issn.1001-3695.2023.05.0222
Improved hunter prey optimization algorithm based on leader competitive strategy
Abstract:Aiming at the problems of low optimization accuracy and easy to fall into local optimization of hunter prey optimization algorithm,this paper proposed an improved hunter prey optimization algorithm based on leader competitive strategy.Firstly,this paper randomly divided the population into three subgroups and adopted different search strategies to expand the search scope.Secondly,it adopted an elite combination mutation strategy to enhance the diversity of population offspring and avoid local optima.Finally,it proposed a leader competitive strategy,used the information exchange between individuals,integrated various strategies,and screened out the optimal variables.Through numerical experiments and application to engineering optimization problems,the results show that the proposed algorithm has better optimization ability than the comparison algorithm,veri-fying the effectiveness and reliability of the improved strategy.
Key words:hunter prey optimization algorithm;elite combination mutation strategy;leader competitive strategy;mean search strategy;sine cosine strategy
0 引言
許多工程應用和科學研究中出現的問題都可以直接轉換為優化問題[1],但由于這類問題存在許多決策變量和約束條件,同時需要在巨大而復雜的搜索空間尋找其最優解或可接受的解,所以傳統優化方法往往難以解決這些問題。因此,在過去幾年中,受自然現象或規律啟發的元啟發式算法得到了迅速的發展,并在許多復雜的優化問題上廣泛應用[2]。
盡管目前的智能優化算法種類繁多且性能優異,但是由NFL理論[3]可知,沒有一種算法可以適用于所有情況,因此學者們仍致力于開發算法,為全局優化問題提供新的可能。
獵人獵物優化(hunter-prey optimization,HPO)算法[4]于2022年底提出的一種全新的智能優化算法,具有調節參數少、收斂速度快等優點,在一些工程優化問題中有著出色的表現。許建偉等人[5]將HPO算法與小波包變換和極限學習機結合構成徑流多步預報模型,相較于其他算法,極大提高了預報準確性。高雨虹等人[6]將HPO算法與長短時記憶網絡結合構成組合模型,用于出車率預測,與經典算法相比,該模型具有更出色的表現。但根據算法的機理可知,HPO雖然具有較強的開發能力,但仍存在全局尋優能力較弱、收斂精度有限等問題。Fu等人[7]提出了IHPO算法,利用增強型SCA算法優秀的全局搜索能力彌補HPO算法的弱點,魯英達等人[8]提出一種LHPO算法,采用混沌策略對種群優化,增加初始種群的多樣性,并利用萊維飛行策略規避局部極值。
以上改進對HPO算法的搜索性能雖然有一定的提升,但面對高維復雜優化問題時,算法仍存在全局探索不充分,容易陷入局部極值導致搜索停滯等問題。對于這些問題的解決方案,目前優化算法的主流策略注重于對算法的運行行為邏輯和初始種群位置的改進,保留最優值并讓種群內的個體向最優值方向收斂[9,10]。這類改進策略一定程度上提升了算法的優化能力,但以全局最優值為中心,忽視了個體之間的信息交流。Li等人[11]提出了一種新型競爭策略,通過將變量分層分類進行競爭和學習,使每個變量都有自己的學習行為,增強種群的多樣性。但該種方法不可避免地會增加無用的計算成本。綜合以上,本文在發揮最優個體的領導優勢的基礎上,從優秀個體之間的協同學習和競爭的角度提出一種基于領導者競爭策略的改進獵人獵物優化算法(improved hunter prey optimization algorithm based on leader competitive strategy,LCIHPO)。首先采用不同的更新機制更新不同的亞群以此提升算法搜索范圍,提出一種精英組合變異策略,提升子代多樣性,規避局部最優值。最后,提出一種領導者競爭策略,通過最優個體間的競爭和交流,使用有限的計算成本統合各個策略優勢,提升算法的綜合性能。
1 獵人獵物優化算法
HPO算法是一種新穎的元啟發式算法,算法全程可以分為探索和開發兩個階段。獵人尋找獵物并追逐的行為便是算法的探索過程,對于獵人的搜索機制,如式(1)所示。
xi,j(t+1)=xi,j(t)+0.5[(2CZHpos(j)-xi,j(t))+
(2(1-C)Zμ(j)-xi,j(t))](1)
其中:t為迭代數;xi,j(t)是獵人當前所在位置;xi,j(t+1)是獵人下一個位置;Z是自適應調節參數;C是平衡算法探索和開發能力的參數,由1向0.02遞減;Hpos(j)是獵物所在位置。
相關參數的計算如式(2)所示。
其中:R1和R3是[0,1]的隨機向量;tmax是最大迭代數。
按照獵人捕殺獵物的行動準則,距離群體最遠的個體會被當作獵物,但為了避免選擇獵物而導致的延遲收斂問題,加入一種遞減機制,隨著獵物死亡,可選位置減少,從而得到一種新的獵物位置等式,如式(3)(4)所示。
其中:kbest是引入的遞減機制;N為種群數量;Deuc為每個變量與平均位置的歐幾里德距離;μj為平均距離。
獵物為了生存而逃跑的行為便是算法的開發階段,假設可以讓獵物安全逃跑的位置便是全局最優解,開發階段搜索機制如式(5)所示。
xi,j(t+1)=Gbest(j)+CZ cos(2πR4)×(Gbest(j)-xi,j(t))(5)
其中:xi,j(t)是獵物當前位置;xi,j(t+1)是獵物下次移動位置;Gbest(j)是全局最佳位置;R4是[-1,1]的隨機數。
綜合以上可以得出HPO算法的更新機制,如式(6)所示。
其中:R5是[0,1]的隨機數;B是一個協調參數,設置為0.1。當R5的值小于B時,代理搜索點被認為是獵人的位置,開展獵人搜素機制。反之,則認為代理搜索點是獵物的位置,開展獵物位置更新機制。
2 LCIHPO算法
2.1 HPO算法變體
1)基于均值搜索策略的獵人獵物算法(hunter prey optimization algorithm based on mean search strategy,MSHPO)
在HPO算法中,獵人的全局搜索機制受獵物所在位置以及所有可能獵物的平均位置的影響,若要提升尋得全局最優解的可能性,則必須擴大搜索區間。文獻[12]提出了一種基于均值搜索策略的MSPSO算法,利用均值策略平衡全局和局部尋優的能力,擴大了算法的搜索范圍。本文將均值搜索策略引入HPO算法中,使用決策變量的個體最優值和全局最優值的線性組合取代獵物位置和平均位置,引導變量更新,新的獵人搜索機制公式為
其中:Pbest為個體歷史最優值。
2)基于正余弦策略的獵人獵物算法(hunter prey optimization algorithm based on sine-cosine strategy,SCHPO)
受SCA算法[13]決策變量更新公式的啟發,本文通過引入正余弦模型震蕩特性對獵物行動模式產生的影響,維持獵物位置的多樣性,進而提升種群內個體的尋優能力,減少陷入局部最優的可能,改進獵物位置更新公式為
其中:r1,r2為[0,1]均勻分布的隨機數。
2.2 精英組合突變策略
HPO算法在解決高維多極值的復雜優化問題時,往往存在容易陷入局部最優值區和多樣性差等問題。在算法中引入突變算子,可以有效提高子代的隨機性,使算法避免過早陷入局部最優值導致探索停滯,從而提升算法的尋優效能。
Hu等人[14]采用單個突變算子策略,使用自適應策略選擇突變率,根據突變率在合適的階段采用突變算子。但面對現實中復雜的優化問題時,往往很難準確地判斷算法所處階段,若采用錯誤的突變算子便會影響算法對最優值的尋取效率。Wang等人[15]采用一種基于個體適應度值的突變算子選擇策略,通過對比變異前后個體的適應度值高低,判斷下一次迭代是否繼續采用該突變算子。這種方法平衡了突變算子的探索和開發能力,但該策略相對失去了一定的隨機性,降低了子代的多樣性。
綜上所述,本文提出一種精英組合突變策略:為了提高突變的隨機性,選用組合突變算子的形式;為了保證算子選擇的合理性,將基于個體適應度值的突變算子選擇策略作為組合突變算子的選擇機制;為了保證突變的有效性,構建精英池,采用精英池中的粒子作為突變變量。精英池中的粒子用于幫助提升種群的多樣性,因此精英粒子需要含有盡量多的優秀且多樣的信息,選用種群中每個粒子的個體歷史最優解存儲在精英池中,如式(9)所示。
其中:F為比例因子;x′(t)為變異個體;mr1、mr2、mr3、mr4、mr5為隨機整數,mr1≠mr2≠mr3≠mr4≠mr5≠i。
組合突變算子中,式(10)突變算子具有較強的探索能力,收斂速度較慢,不容易陷入局部最優,式(11)突變算子具有很強的開發能力,收斂速度快,但容易陷入局部最優。根據調節因子u選擇突變方式。
為了保證充分變異的同時兼顧計算效率,令突變因子p為[0,1]的隨機數,當p小于變異概率pm時進行變異,反之則不進行。經過多次實驗對比,當pm=0.7時,變異效果最好。
精英組合突變策略偽代碼為
輸入:更新后的種群。
輸出:變異種群的全局最優值Gbestmu;最優適應度值fitmu。
更新精英池
for i=1:N
if p if u=1 采用式(10)突變; 更新調節因子; end if u=0 采用式(11)突變; 更新調節因子; end else xi′=e(i) end 更新全局最優值和適應度值; end 2.3 領導者競爭策略 如前文所述,HPO算法的每種變體以及突變策略都有其獨有的優勢,為了更好地提升算法綜合效能,本文提出領導者競爭策略,將上文中執行不同搜索策略的三個亞群和突變種群的最優值帶入到領導者競爭策略中,領導者策略執行步驟為 a)將三個亞群和變異種群的最優值作為領導者。 b)將領導者按照適應度值排序,選取最優和次優領導者。 c)次優領導者向上一級領導者學習經驗,如式(13)所示。 leaderkrandj(t)←leaderk-1randj(13) 其中:k為次優領導者排序k=2,3,4;randj為隨機某個維度,randj∈(1,dim)。 d)最優領導者和次優領導者展開自學習。 e)重新進行領導者排序,選出最優領導者作為全局最優值。 2.3.1 次優領導者自學習 反向學習策略通常應用于初始化種群,可以得到很好的一組初始值,將反向學習策略應用于算法搜索策略中,也可以提升算法全局尋優能力,規避局部最優。但是通過反向學習得到解是固定的,若已經陷入局部最優,則很難跳出。透鏡成像策略[16]是一種基于凸透鏡成像規律的反向學習策略,該方法可以動態地調整反向解,進一步提升優化能力。將該方法以及思想引入,本文提出一種基于透鏡成像的動態反向搜索策略。 透鏡成像反向點計算公式如式(14)所示。 其中:L=1,2,3,4為領導者序號;r3為[0,1]的隨機數。 在實際搜索過程中,搜索空間往往是動態的,反向學習亦然,因此邊界為 lb=min(x(t)),ub=max(x(t))(16) 動態反向搜索策略具有不對稱性和動態變化特征,可以引導個體在搜索空間中向相反解學習,提高勘探能力,從而增加實現最優解決方案的可能性,計算公式為 leader′L=leaderL+r4(r5xnback-leaderL)(17) 其中:r4,r5為[0,1]的隨機數;leader′L為反向學習得到的新個體。 自學習后采用貪婪算法比較兩者適應度值,保留優勢個體,如式(18)所示。 其中:f(·)為適應度函數。 2.3.2 最優領導者自學習策略 最優領導者進行自學習以防止被替換,采用個體適應度值選擇機制,在算法迭代前期,最優領導者應當搜索盡可能大的區域,尋找全局最優值,采用上文提出的基于透鏡成像的動態反向搜索策略進行更新。在算法迭代后期,全局最優解很大概率在最優個體附近,因此采用融合萊維飛行的阿基米德螺旋機制[17]提高算法的局部開采收益,該機制借助阿基米德螺線的旋轉特征,以一定角度和步距探索個體的鄰域范圍,可最大限度保證開采的周密性。萊維飛行解計算公式如式(19)所示。 其中:α表示步長變量;xrand(t)表示隨機生成的個體;u,v為正態分布的隨機數;β=1。 融合萊維飛行設為阿基米德螺線更新機制公式為 leader′1(t)=leader1(t)+|leader1(t)-xlevy(t)|r6 cos(2πr6)(20) 其中:leader1(t)為最優領導者;leader′1(t)為更新后的最優領導者;r5為[-1,1]的隨機數。為了保證更新后的個體優于原個體,采用式(18)的貪婪算法進行判定。 2.4 LCIHPO算法流程 LCIHPO算法的偽代碼如下: 輸入:種群規模N;維度D;最大迭代次數tmax。 輸出:獵物安全位置xbest以及適應度fit。 for t=1:tmax 計算個體適應度值,得出當代最優個體以及個體歷史最優值 將種群隨機均分為三個亞群,分別為N1、N2、N3 for i=1:N1 按照式(6)更新種群; 對比全局最優值并進行擇優取代,得到Gbest1 ; end for i=1:N2 按照式(5)(7)更新種群 對比全局最優值并進行擇優取代,得到Gbest2; end for i=1:N3 按照式(1)(8)更新種群 對比全局最優值并進行擇優取代,得到Gbest3; end 采用精英組合變異策略,得到最優變異個體Gbestmu; 將Gbest1、Gbest2、Gbest3、Gbestmu帶入領導者競爭策略中,篩選出最優個體; 更新全局最優個體和其適應度值; end 2.5 時間復雜度分析 時間復雜度主要取決于算法結構的復雜程度,對于HPO算法,主要在于產生初始種群、獵人位置更新、獵物位置更新和適應度值評估四個階段。對于種群規模為N,決策變量維度為D,迭代數為T的解決方案,算法初始化時間復雜度O(N×D),獵人變量更新時間復雜度為O((1-B)×T×N×D),獵物位置更新的時間復雜度為O(B×T×N×D),參數B為協調參數,取值為0.1,全局最優值評定與更新的時間復雜度為O(T×N×D) ,從而可以得到HPO算法的時間復雜度。 O(HPO)=O(T×N×D)(21) LCIHPO算法的時間復雜度包括HPO和改進HPO算法更新三個亞群,分別進行擇優取代保留最優值,因此時間復雜度為O(N×D×T);精英池更新時間復雜度為O(N×T);組合變異策略時間復雜度為O(N×T);領導者競爭策略時間復雜度為O(4×T)綜合以上環節,處理高維優化問題時,時間復雜度可進行近似處理,由此可得LCIHPO算法的時間復雜度為 O(LCIHPO)=O(T×N×D)(22) 式(21)(22)相比相差不大,綜上可知改進算法并沒有增加過大的計算負擔。 3 數值仿真分析 3.1 實驗設計與參數設置 為了驗證本文LCIHPO算法的理論優化能力,設計五組理論仿真實驗,分別為:算法精度和搜索范圍分析;HPO算法和其改進算法的對比分析;與其他智能算法以及改進算法在不同維度下的對比和低維下的迭代趨勢分析;Wilcoxon秩和檢驗;CEC2014復雜測試函數的仿真。 本文選取12個基準測試函數。如表1所示,f1~f5為單峰測試函數,f6~f10為多峰測試函數,f11~f12為固定維度測試函數。本次仿真實驗的系統運行環境為Intel CoreTM 12th i5-12500H CPU@3.10 GHz,系統內存16 GB,軟件運行環境為MATLAB 2021b,種群規模N=30,維度D=30/100/300,最大迭代次數T=1000,每種算法獨立重復運行30次。 3.2 精度和搜索范圍分析 優化算法的目標是求取問題的最優值,而測試函數的理論最優值和最優解是已知的,因此可以通過對比每次迭代得出的實際最優解和理論解之間相應維度位置變化來分析算法在迭代過程中的搜索精度和范圍。距離表達式如式(23)所示。 dist(t)=|Gbest(j)′-Gbest(j)|(23) 其中:Gbest(j)′為維度j的理論最優解。選擇單峰測試函數f3和多峰測試函數f6進行測試,維度選為30,j為5,測試結果如圖1所示。 從圖1可以看出,在單峰函數f3中,HPO得到的距離值雖然隨著迭代逐步下降,但在有限迭代次數內未突破10-2,而LCIHPO的最終距離值達到了10-6。從距離值曲線來看, LCIHPO相比于HPO,其波動性更強,因此可以得知LCIHPO具有更強的優化性能以及多樣性。在多峰函數f6中,HPO的距離值近似為一條直線,而LCIHPO的距離曲線在迭代前中期大幅下降,突破10-4后下降速度降低。因此可以得知HPO陷入局部最優值且搜索停滯,而LCIHPO在探索前期規避了局部最優值,并持續突破最小值。以上證明了本文策略不僅提高了算法的收斂精度,同時提升了算法的波動性,從而擴大了算法的搜索范圍,提升了得到全局最優值的可能。 3.3 算法變體有效性分析 為了證明本文算法變體策略的有效性,將本文提出的HPO變體算法MSHPO、SCHPO與HPO算法進行測試,維度為30,具體結果如表2所示。 由表2可知,在單峰函數f1~f5中,SCHPO在f1中各項指標收斂至理論最優值,在f2~f5中盡管沒有收斂至最優值,但大部分指標優于HPO算法,由此可知,正余弦策略的震蕩特性有效提升了算法的局部開發能力。MSHPO在單峰函數測試中略遜于SCHPO,但仍優于HPO,在f5中最優值優于對比算法,表明該搜索策略仍保持一定優勢。在多峰測試函數f6~f10中,MSHPO相關指標相較于對比算法表現較為優異,表明均值搜索策略擴大了搜索空間,有效地規避局部極值問題。在固定維函數f11、f12中,三種策略均有一定的優點,評價指標數值差距并不明顯。綜合以上可知,HPO的兩種算法變體在不同測試函數中各有優勢,整體上優化性能較優于改進前算法。 3.4 與HPO算法及相關改進算法對比分析 為了證明本文算法相比其他文獻改進HPO算法具備更優的競爭力,將本文算法與HPO、IHPO、LHPO算法在D=30條件下進行對比分析,對比結果如表3所示。 分析表3可知,本文算法明顯優于HPO和對比改進算法,在f1、f2、f6、f7、f12中收斂至理論最優值,在其他測試函數中盡管沒有收斂至最優值,但最優值和平均值優于對比算法,搜索精度相比于其他算法最高。在單峰函數f3中,LCIHPO的標準差低于HPO,但最優值和平均值遠高于HPO。在多峰函數f6~f10中,LCIHPO各項指標均優于對比算法,在f10中,最優值更是高出HPO算法13個數量級,表明本文算法可以克服局部極值對尋優的影響。在固定維函數f11、f12中,LCIHPO尋優能力仍處于領先地位。總體來看,本文算法在不同函數上均值基本都是最好的表現,且優于其他算法,表明本文算法相對于先前改進HPO算法更具有競爭力。 3.5 不同維度下算法對比分析 為了驗證本文算法在不同維度下的求解優勢,選用粒子群算法(particle swarm optimization,PSO)[18]、SCA、鵜鶘算法(pelican optimization algorithm,POA)[19]、IPSOVP[20]、DSCA[21]與LCIHPO算法在12個不同維度的基準測試函數上進行對比分析,f11、f12為固定維度測試函數,維度設定如表1所示,相關參數按照對應文獻中設置。取平均值、標準差和最優值作為評定標準,具體測試結果如表4、5所示。 由表4、5可知,在不同維度下的單、多峰函數以及固定維度函數上,LCIHPO的尋優性能整體優于對比算法。首先,縱向來看,在維度為30的條件下,LCIHPO算法在f1、f3、f6、f7中收斂至全局最優值,在其余測試函數中未尋到全局最優值但搜索精度仍強于對比算法。在求解單峰函數f4中, LCIHPO算法平均值收斂精度和標準差方面比PSO算法高19個數量級,表明其具有優異的收斂精度和穩定性。在求解多峰函數中,LCIHPO的各項指標均優于對比算法,表明算法可以很好地克服局部極值的不利影響并以優異的態勢進行全局最優值探索。橫向來看,隨著維度的升高,可以看到所有算法的各項指標均發生不同程度的改變,而LCIHPO受維度上升的影響最小。在f1、f2、f6、f7中,LCIHPO算法不受維度上升的影響,平均值和最優值仍能收斂至全局最優值。在300維度時,LCIHPO在10個測試函數中平均值排行第一,標準差和最優值有9個排行第一,綜合可得LCIHPO對維度變化適應性較強。在固定維度函數中,LCIHPO在f12中平均值和最優值尋到理論最優值,且標準差較小,盡管在f11中沒有收斂至理論最優值,但各項指標優于對比算法,算法整體性能優異。總體來看,LCIHPO在不同維度條件下的不同函數中均展現了良好的尋優能力,證明了本文算法的優越性。為了更加直觀地展現算法迭代過程,在維度為30的條件下,各個算法在部分函數中的迭代尋優曲線如圖2所示。 通過圖2可以觀察到,LCIHPO能夠以較快的速度收斂到最優值,在圖2(a)(b)中,LCIHPO用了較少的迭代次數便收斂到了理論最優值。在圖2(c)中,在其他算法陷入搜索停滯時,LCIHPO仍能不斷探索突破最小值,反映了算法優異的收斂速度和精度。在圖2(f)~(h)中,可以看到LCIHPO以較快速度收斂至最優值,收斂速度優于其他算法,而在圖2(i)(j)中,可以看到當其他算法陷入局部極值時,LCIHPO仍能以較快的速度繼續向最優解靠攏,可以看出算法具有較強的規避局部極值陷阱的能力。通過迭代曲線對比,驗證了本文算法具有良好的收斂速度和精度,更加直觀地展示了算法規避局部極值的能力。 3.6 Wilcoxon秩和檢驗 為了探究本文算法的改進優越性,在顯著水平p=5%條件下,搜索維度為30,采用Wilcoxon秩和檢驗來驗證LCIHPO算法是否與上文中參與對比的算法存在顯著差異,驗證結果如表6所示。其中:N/A表示性能相近而無法比較;+、-、=分別表示LCIHPO性能優于、劣于、近似于對比算法。 通過表6可以得知,在12個測試函數中,絕大多數的p值小于5%,總體上反映了LCIHPO算法與對比算法具有顯著差異,且尋優性能優于對比算法。 3.7 CEC2014復雜函數分析 為了進一步驗證本文算法尋優的有效性,選取部分CEC2014復雜函數進行仿真分析。選取的函數類型分別為單峰(UN)、多峰(MN)、混合類型(HF)以及復合類型(CF),如表7所示。將本文算法與PSO、SCA、HPO、POA、IPSOVP、IHPO、DSCA、LHPO進行對比分析,以平均值與標準差作為評定指標,重復運行40次,測試結果如表8所示。 由表8可知,在單峰測試函數CEC01中,本文算法的各項指標均優于對比函數,表明其具有更佳的求解精度;在求解多峰測試函數時,雖然CEC16上IPSOVP的標準差領先其他算法,但LCIHPO的平均值更接近理論最優值;對于混合函數,本文算法在各個函數上均有優異的表現,表明了其具有良好的穩定性;在復合類型函數中,本文算法收斂到一定值并不再發生改變,且得到的平均值優于對比算法,反映其更善于解決此類問題。綜合以上可以得知,本文算法在復雜函數上仍能有優異的表現,驗證了本文算法優秀的魯棒性。 4 工程優化問題的應用 為了驗證本文算法在實際工程應用中的性能,選取了壓力容器設計這一經典的工程優化問題。在該設計問題中,壓力容器兩端均有封蓋,其中頭部一端為半球狀,包括四個決策變量,分別為容器壁厚度Ts、頭部厚度Th、圓柱內壁半徑R和圓柱截面長度L。該問題數學模型為 a)決策變量 x=[x1,x2,x3,x4]=[Ts,Th,R,L](24) b)目標函數 f(x)min=0.6224x1x3x4+1.7781x2x23+3.1661x21x4+19.84x21x3(25) c)約束條件 d)邊界約束 0≤x1≤99,0≤x2≤99 10≤x3≤200,10≤x4≤200(27) 將本文算法與HPO、PSO、POA、HHO、DSCA、LHPO以及IHPO算法進行對比,得到結果如表9所示。 由表9可知,本文算法在八種優化算法中取得了最優解決方案,最終得到的最小成本為5 884.311 71,證明了本文算法在工程案例中的適用性和可靠性。 5 結束語 本文提出一種基于領導者競爭策略的改進HPO算法。將初始種群分為三個亞群,采用不同的更新策略以此產生不同的步長,確保算法在不同階段的探索開發能力;引入精英組合變異策略,依據個體歷史最優值進行變異,減少算法陷入局部最優的概率;最終將亞群和變異種群產生的最優子代帶入領導者競爭策略中,通過最優個體間的信息交流和競爭,統合各個策略的優勢。數值仿真實驗的結果表明,本文算法比其他改進HPO算法更具有競爭力,在面對不同維度的不同函數時均具有較穩定的尋優能力以及優異的顯著性差異,而CEC2014函數的仿真則證明了算法的有效性和魯棒性。最后在壓力容器設計優化問題上分析驗證了LCIHPO在解決工程優化問題上的可靠性。未來可進一步將該算法應用到電力、熱工系統相關領域。 參考文獻: [1]Deng Wu,Shang Shifan,Cai Xing,et al.Quantum differential evolution with cooperative coevolution framework and hybrid mutation strategy for large scale optimization[J].Knowledge-Based Systems,2021,224:107080. [2]Wang Xi,Sheng Mengmeng,Ye Kangfei,et al.A multilevel sampling strategy based memetic differential evolution for multimodal optimization[J].Neurocomputing,2019,334:79-88. [3]Wolpert D H,MacReady W G.No free lunch theorems for optimization[J].IEEE Trans on Evolutionary Computation,1997,1(1):67-82. [4]Naruei I,Keynia F,Sabbagh M A.Hunter-prey optimization:algorithm and applications[J].Soft Computing,2022,26:1279-1314. [5]許建偉,崔東文.WPT-HPO-ELM徑流多步預報模型研究[J].水資源與水工程學報,2022,33(6):69-76.(Xu Jianwei,Cui Dongwen.Research on WPT-HPO-ELM multistep run off prediction model[J].Journal of Water Resources and Water Engineering,2022,33(6):69-76.) [6]高雨虹,曲昭偉,宋現敏.基于獵人獵物優化與雙向長短時記憶組合模型的汽車出車率預測[J].交通運輸系統工程與信息,2023,23(1):198-206,264.(Gao Yuhong,Qu Zhaowei,Song Xianmin.Prediction of car trip rate based on hunter hunt optimization and bidirectional long short term memory combination model[J].Transportation System Engineering and Information,2023,23(1):198-206,264.) [7]Fu Mingxin,Liu qiang.An improved hunter-prey optimization algorithm and its application[C]//Proc of IEEE International Conference on Networking,Sensing and Control.Piscataway,NJ:IEEE Press,2022:1-7. [8]魯英達,張菁.基于改進獵人獵物算法的VMD-KELM短期負荷預測[J/OL].電氣工程學報.(2023-04-04).http://kns.cnki.net/kcms/detail/10.1289.tm.20230403.1811.009.html.(Lu Yingda,Zhang Jing.VMD-KELM short-term load forecasting based on improved hunter prey algorithm[J/OL].Journal of Electrical Engineering.(2023-04-04).http://kns.cnki.net/kcms/detail/10.1289.tm.20230403.1811.009.html.) [9]王英聰,劉馳,王延峰.基于刺激-響應機制的改進雞群算法[J].控制與決策,2023,38(1):58-66.(Wang Yingcong,Liu Chi,Wang Yanfeng.Improved flock algorithm based on stimulus-response mechanism[J].Control and Decision,2023,38(1):58-66.) [10]周鵬,董朝軼,陳曉艷,等.基于Tent混沌和透鏡成像學習策略的平衡優化器算法[J].控制與決策,2023,38(6):1569-1576.(Zhou Peng,Dong Chaoyi,Chen Xiaoyan,et al.Balanced optimizer algorithm based on Tent chaos and lens imaging learning strategy[J].Control and Decision,2023,38(6):1569-1576.) [11]Li Taiyong,Shi Jiayi,Deng Wu,et al.Pyramid particle swarm optimization with novel strategies of competition and cooperation[J].Applied Soft Computing,2022,121:108731. [12]陸松建,司偉立,韓娟,等.逃逸均值簡化粒子群優化算法[J].計算機工程與設計,2020,41(9):2623-2629.(Lu Songjian,Si Weili,Han Juan,et al.Simplified particle swarm optimization algorithm for escape mean[J].Computer Engineering and Design,2020,41(9):2623-2629.) [13]Seyedali M.SCA:A sine cosine algorithm for solving optimization problems[J].Knowledge-Based Systems,2016,96:120-133. [14]Hu Gang,Du Bo,Wang Xiaofeng,et al.An enhanced black widow optimization algorithm for feature selection[J].Knowledge-Based Systems,2022,235,107638. [15]Wang Jiquan,Bei Jinling,Song Haohao,et al.A whale optimization algorithm with combined mutation and removing similarity for global optimization and multilevel thresholding image segmentation[J].Applied Soft Computing,2023,137:110130. [16]賈鶴鳴,陳麗珍,力尚龍,等.透鏡成像反向學習的精英池侏儒貓鼬優化算法[J].計算機工程與應用,2023,59(24):131-139.(Jia Heming,Chen Lizhen,Li Shanglong,et al.Elite pool dwarf mongoose optimization algorithm for lens imaging reverse learning[J].Computer Engineering and Application,2023,59(24):131-139.) [17]柴巖,任生.多策略協同優化的改進HHO算法[J].計算機應用研究,2022,39(12):3658-3666,3677.(Chai Yan,Ren Sheng.Improved HHO algorithm for multi strategy collaborative optimization[J].Application Research of Computers,2022,39(12):3658-3666,3677.) [18]Eberhart R,Kennedy J.A new optimizer using particle swarm theory [C]//Proc of the 6th International Symposium on Micro Machine and Human Science.Piscataway,NJ:IEEE Press,1995:39-43. [19]Trojovsky P,Dehghani M.Pelican optimization algorithm:a novel nature-inspired algorithm for engineering applications[J].Sensors,2022,22(3):855. [20]李二超,高振磊.改進粒子速度和位置更新公式的粒子群優化算法[J].南京師大學報:自然科學版,2022,45(1):118-126.(Li Erchao,Gao Zhenlei.Particle swarm optimization algorithm for improving particle velocity and position update formula[J].Journal of Nanjing Normal University:Natural Science Edition,2022,45(1):118-126.) [21]魏鋒濤,張洋洋,黎俊宇,等.基于動態分級策略的改進正余弦算法[J].系統工程與電子技術,2021,43(6):1596-1605.(Wei Fengtao,Zhang Yangyang,Li Junyu,et al.Improved sine and cosine algorithm based on dynamic grading strategy[J].Systems Enginee-ring and Electronic Technology,2021,43(6):1596-1605.)