摘 要:在自然計算方法中,為解決高維數據優化問題,需提高種群規模以獲得更高精度,但同時需要的時間復雜度較大,若種群規模降低又會因種群多樣性不足導致算法陷入局部最優。為解決優化過程中種群規模難以平衡、算法收斂速度慢及易陷入局部最優等問題,提出一種基于多元競爭淘汰(multiple competitive elimination,MCE)策略的自然計算方法,其適用于各類優化算法,而不依賴于算法進化的具體步驟,具有普適性。首先將原始解空間劃分為具有競爭關系的兩類大空間,每類大空間中細化分解為N元小空間;然后在兩類大空間中分別執行反向學習和混合變異兩種不同的淘汰方法,淘汰較差個體;最后選取N元小空間的部分較優個體跨兩類大空間進行競爭交換以保持整體種群的多樣性,提高了算法收斂速度和收斂精度。將該策略分別應用到粒子群算法和遺傳算法中,并與標準粒子群算法、遺傳算法及目前較先進的改進群智能優化算法對比,利用高維經典測試函數驗證其性能。實驗結果表明,多元競爭淘汰改進算法較其他對比算法表現出了更好的尋優能力,具有普適性。
關鍵詞:自然計算方法; 高維; 多元空間; 反向學習; 混合變異
中圖分類號:TP301 文獻標志碼:A
文章編號:1001-3695(2023)08-005-2274-07
doi:10.19734/j.issn.1001-3695.2023.01.0009
Natural calculation method based on multiple competition elimination
Hu Jianxuan, Ma Ning Fu Wei, Ji Weidong, Diao Yifei, Liu Cong, Huang Xinyu
(School of Computer Science amp; Information Engineering, Harbin Normal University, Harbin 150025, China)
Abstract:In the natural computation method, to solve the optimization problem of high-dimensional data, the population size needs to be increased to obtain higher accuracy, but at the same time, the time complexity is relatively large. If the population size is reduced, the algorithm will fall into local optimization due to the lack of population diversity. In order to solve the pro-blems such as difficult to balance population size, slow convergence rate and easy to fall into local optimum in optimization process, this paper proposed a natural calculation method based on MCE strategy, which was suitable for all kinds of optimization algorithms. It didn’t depend on the specific steps of algorithm evolution and had universality. Firstly, the original solution space was divided into two types of large spaces with competitive relations, and each type of large space was decomposed into N-dim small space. Then, two different elimination methods of reverse learning and mixed mutation were carried out respectively in the two types of large spaces to eliminate the poor individuals. Finally, some better individuals in N-dim small space were selected to carry out competitive exchange across the two types of large spaces to maintain the diversity of the whole population. Thus, it improved the convergence speed and accuracy of the algorithm. It applied the proposed strategy to particle swarm optimization and genetic algorithm respectively, and compared with standard particle swarm optimization, genetic algorithm and current advanced improved swarm intelligence optimization algorithms, and verified the performance by high-dimensional classical test function. The experimental results show that the improved algorithm of multiple competition elimination has better optimization ability than other comparison algorithms and has universality.
Key words:natural calculation method; high dimensional; multiple space; reverse learning; mixed variation
0 引言
自然計算(natural computation)是指研究自然界中蘊藏的計算能力以及受到自然界啟發而出現的計算方法的研究領域,主要涵蓋自然啟發的計算、自然仿真或模擬和利用自然物質計算[1]三個方面。通過仿真和模擬自然界中自然現象而抽離出不同的計算方法,其中對粒子群算法(particle swarm optimization,PSO)和遺傳算法(genetic algorithm,GA)研究最為活躍。PSO和GA都力圖能在自然特性的基礎上模擬個體種群的適應性,采用了一定的變換規則通過搜索規定解空間求得最優解。基于PSO又引申出了模擬動物行為的群智能優化算法,如鯨魚算法、灰狼算法等。上述算法在諸多領域中都表現出了各自生物種群的優點,但是其本質都是基于種群的優化方法。基于種群的自然計算在處理高維問題時會面臨種群規模的選擇問題。在處理高維問題時,此類算法往往都會遇到早熟及收斂性能差等問題,無法有效收斂至最優點。為提高高維搜索問題的搜索精度,可以通過加大種群規模以更有效地搜索解空間,提高尋找全局最優解的概率,但這會造成算法的時間空間復雜度較高導致種群收斂速度較慢;如果種群規模較小又會導致種群多樣性降低,尋優能力較弱,無法有效搜索全部解空間,搜索精度較差,對于多峰問題又易陷入局部最優解,導致算法早熟。因此如何能在高維問題中不受限于種群規模而平衡局部尋優和全局尋優能力成了自然計算的瓶頸問題。
目前,數據規模通常較為龐大且大多具有高維特性[2],為解決高維數據優化問題,近年來涌現了大量相關研究辦法。Yin等人[3]在分析粒子協同搜索網絡演化特征基礎上,建立多個互聯耦合的動態自適應進化網絡模型,提出一種多種群動態自適應協同進化策略,針對大規模高維問題有較高的優化精度和收斂速度。Sabar等人[4]在動態多種群粒子群算法基礎上,將維度和種群進行雙分組,提出了協同進化的動態粒子群優化算法。Niu等人[5]提出的IQGA算法(improved quantum genetic algorithm)將GA分為多個種群,并引入種群巨災策略處理種群早熟問題,利用遷移操作進行多空間信息交互,提高精英種群最優解收斂精度。劉彬等人[6]提出了一種多種群的遺傳算法,增加了GA的種群多樣性和局部搜索能力,降低了算法運行時間。Zhang等人[7]在解決算法處理大規模多目標優化性能較差的問題時,將解空間劃分為兩組亞種群,采用隨機插值策略對種群進行更新,有效改進了算法性能。Wei等人[8]提出一種具有全局檢測機制的動態多種群粒子群優化算法(DMS-PSO-GD),將種群劃分為全局子群和動態子群,利用隨機重組策略實現子種群間信息交互和共享行為。為了進一步提高算法收斂能力和避免局部最優,反向學習策略(opposition-based learning,OBL)在解決此類問題上表現出了明顯優勢。Tizhoosh[9]在2006年提出反向學習概念。Rahnamayan等人[10]提出融合OBL策略的差分進化算法并表現出了優秀性能,隨后諸多學者開始考慮和研究OBL對自然計算性能的提升。Ramalingam等人[11]使用了一種融合對立學習和灰狼優化算法的最優選擇框架改進無限傳感網絡。Li等人[12]為解決高維優化問題,提出了一種基于反向學習的自適應精英突變蝴蝶算法(OBOAEM),通過反向學習增加了種群多樣性,提高了發現最優解的概率。在改進算法收斂性能時,柯西算子和高斯算子也表現出了優秀性能,Alnowibet等人[13]采用了反向學習和柯西算子策略增強了鯨魚優化算法尋優能力。Wen等人[14]提出一種多機制結合的哈里斯鷹改進算法(CCCHHO),其中利用了柯西函數分布特性增強種群多樣性,并利用精英個體引導種群位置更新,加快了算法收斂速度。Wang等人[15]使用柯西變異算子改進了鴿子算法用于無人機群協同規劃,提高了算法魯棒性和路徑規劃能力。可以看出,柯西變異和高斯變異雖然側重方向不同,但兩種變異方式在不同階段具有提高算法尋優性能的能力。這些改進算法在全局探索能力、局部尋優能力和收斂精度上相較于原算法均有顯著提高,這表明分種群、反向學習以及變異策略等具備非常有效的改進能力。但是上述算法大多是針對某一種算法,依賴具體的尋優過程,普適性不強,且不能兼顧高維尋優速度和收斂能力。
受以上方法啟發,為了解決高維數據優化問題,本文提出了一種基于多元競爭淘汰(multiple competitive elimination,MCE)策略的自然計算方法,該方法與具體的進化算法無關,因而適用于各種搜索解空間的自然計算方法。MCE自然計算方法不受限于種群規模且與優化算法的進化方式無關,以切片式的方式融合到自然計算方法中,在不影響種群進化方式的情況下,顯著提高了收斂速度和收斂精度。本文方法將原始解空間劃分為A、B兩個大空間,兩類大空間內各有N元小空間,同大類空間的N元小空間種群個體以相同的策略進行淘汰更新。在A空間中的N元小空間內對適應度較高的粒子進行精英反向學習策略,隨后淘汰掉適應度較差的粒子并記錄最優的10個個體;在B空間中的N元小空間內對適應度較差的粒子,隨迭代次數以自適應的概率進行高斯柯西混合變異,淘汰較差個體并記錄最優的10個個體,最后從不同大空間的N元小空間內記錄的10個最優個體位置中隨機選擇部分最優個體進行跨A、B兩類大空間競爭交換,這種操作可以保證在算法尋優前期促進種群收斂并在后期增加種群多樣性。將MCE策略應用到四種不同的自然計算方法中,使用不同的高維標準測試函數來驗證該策略的普適性和有效性。
1 變異算子和反向學習
1.1 變異算子
以往的一些研究表明,自然計算中粒子個體通常在前一個最優粒子和當前代的全局最優個體之間振蕩[16],因此對粒子進行變異算子擾動能夠有效提高算法性能,變異算子包括高斯變異(Gaussian mutation)和柯西變異(Cauchy mutation),兩種變異算子的函數如圖1所示。
1.1.1 柯西變異
柯西變異是一個符合正態分布的函數,其函數特征為在原點處峰值較低并擁有較長的兩翼,即生成遠離原點的隨機數范圍更大。使用柯西變異算子處理個體點能夠有效跳出局部最優值,但如果只使用柯西變異帶來的缺陷就是對當前個體點附近的搜索力度較差、尋優精度較低且收斂速度較慢。
1.1.2 高斯變異
高斯變異也是一種符合正態分布的函數,其函數分布特性在原點處較為密集,但亦有幾率跳到離原點較遠的范圍去。使用高斯變異算子處理個體點時能夠有效搜索當前解附近空間,提高算法收斂精度,但面對多峰問題時會導致算法早熟,陷入局部最優解無法跳出。
1.2 反向學習
反向學習(opposition-based learning,OBL)是2006年提出的一種提高搜索性能的策略。其基本思想為如果當前個體適應度較差,那么考慮其在解空間內反向個體更優適應度的可能性,如果新粒子的適應度表現更好,則替換當前解。盡管反向學習概念簡單易懂,但在算法優化中卻表現出了很好的性能。Chen等人[17]利用OBL策略對種群進行初始化,提高算法種群多樣性,同時引入了正余弦加速系數策略以優化算法收斂速度。Xu等人[18]采用基于消元的反向學習策略改進魚類洄游算法,提高了消息傳輸效率。其證明了OBL具備良好的尋優能力,能夠有效提高收斂速度。
2 多元競爭淘汰自然計算方法
2.1 精英廣義反向學習
精英廣義反向學習(elite generalized opposiition-based learning,EGOBL)是針對基本反向學習策略產生的反向解不一定比當前搜索空間更容易搜索到全局最優解值這一問題提出的解決方案,已成功應用于多個自然計算方法改進研究。Yuan等人[21]為解決高度非線性優化問題,提出一種精英反向學習和混沌最佳引力搜索灰狼算法(EOCSGWO),采用精英反向學習充分利用了性能更高的粒子進行下一代優化。Liu等人[22]采用鏡墻概念對精英反向學習中跨界粒子進行處理,減少資源損失,增強了算法的優化能力。Amer等人[23]為實現云資源的高性能,對哈里斯鷹算法(Harris hawks optimizer,HHO)進行優化改進,采用精英反向學習改進HHO探索階段解的質量,表現出了更好性能。
2.2 混合變異
在不同的自然計算方法中,首要考慮的問題就是如何平衡全局探索能力和局部尋優能力,在算法前期要提高全局搜索能力,加快種群個體聚集在最優解候選位范圍的速度以及避免算法早熟,在算法后期要注意不能陷入局部最優解陷阱,注意增加種群多樣性,提高局部微小值探索能力和算法收斂精度。
前文提到高斯變異與柯西變異的優缺點,可以看出在種群個體更新過程中,如果使用單一變異算子會無可避免地陷入到局部最優陷阱中不易跳出和收斂性較差的兩難困境中。因此本文引入混合變異方式處理B類空間中適應度排名較后的種群個體,使用自適應的參數調節高斯變異與柯西變異的比例。在算法迭代前期使用較大柯西變異的比例以提高全局搜索能力,隨迭代次數增加提高高斯變異比例,在當前解個體附近進行小幅擾動,但仍保持較合適的柯西變異幾率以跳出局部最優值。
2.3 多元競爭淘汰策略
由上述兩種淘汰方法可知,精英廣義反向和末位混合變異都有著優秀的跳出局部最優能力與收斂能力,MCE融合兩種淘汰方法并增加多元空間個體交流能力,在不同大空間中劃分多個小空間,降低因種群規模過大造成的消極影響,在執行過淘汰操作后,取不同大空間中N元小空間中的隨機優秀個體競爭學習,當某一類空間中(假設為A空間)有著更優適應度個體時,通過兩空間個體的交流學習,A空間中更優的個體來到B空間,使得在下一次迭代中B種群的歷史最優適應度解得到提高,促進了B空間其他個體向此歷史更優點收斂,通過此種方法,A空間帶動了B空間的收斂性能;當某一空間個體陷入局部最優時,此時因為兩種空間采用了不同的淘汰策略,反向學習策略產生的新解在全局尋優能力貢獻較大,而混合變異方式隨迭代進行,在局部尋優上能力更突出,在算法前期反向學習空間生成的新解會帶動混合變異空間收斂,后期混合變異對收斂精度的提高也會增強整體種群的收斂精度,因此通過競爭學習可以幫助算法在尋優前后期擺脫局部最優陷阱,增加種群多樣性。
MCE策略與其他算法融合是采用切片式的方式加入到算法,通過在每一次迭代前后增加競爭淘汰操作而提高算法性能,對算法自身的參數設置和具體進化流程不做改變,通過競爭的過程保持了原有算法在不同搜索時期的優勢,使得MCE策略不會降低原有算法性能,再通過淘汰機制進一步保證了算法的收斂能力和種群多樣性。
基于多元競爭淘汰策略的自然計算算法步驟流程如下:
a)初始化種群初始化參數及算法相關參數,包括種群個數N,函數維度D,搜索空間上下界lb、ub等;
b)劃分種群size-a、size-b作為兩個競爭空間;
c)兩空間按原始算法公式進行迭代并計算適應度值fitness;
d)A空間中對各小空間執行精英反向學習,淘汰掉適應度較差的粒子,并記錄最優的10個個體;
e)B空間中對各小空間執行末位混合變異,并記錄最優的10個個體;
f)生成10以內的隨機數rand,跨類別隨機交換兩類大空間中各小空間中的10個優秀個體中的rand個;
g)判斷算法是否滿足結束條件,若結束則返回最優解,否則轉步驟c)。
基于多元競爭淘汰策略的算法流程如圖2所示。
3 算法時間復雜度與全局收斂性分析
針對不同的自然計算方法,時間復雜度與收斂性是判斷一個方法是否實用的重要依據,時間復雜度較低會帶來更低的開銷,并且只有在滿足收斂條件的前提下,算法才具有實際的工程應用意義。本章首先分析應用多元競爭淘汰策略的改進自然計算方法的時間復雜度,其次通過馬爾可夫鏈推論驗證改進算法具備漸進收斂性,在保持并提高原算法漸進收斂性上具有普適性。
3.1 時間復雜度
3.2 收斂性分析
4 仿真實驗與結果分析
4.1 MCE策略與標準算法的實驗結果分析
4.1.1 參數設置
4.1.2 實驗結果與分析
4.2 MCE策略與其他較新改進算法的實驗結果分析
MCE策略不僅在高維計算中有著獨到的優勢,在低維計算中仍有著較好的收斂性能,在被對比的幾個算法中,FPSO借鑒了頻率波特性以避免種群陷入局部最優陷阱,利用振幅、頻率和波長三個參數模擬波浪,在多峰函數中表現優異但是在單峰函數中收斂精度較低,CSOGA將余弦相似度反向學習與遺傳算法結合,提高遺傳算法的尋優能力。選取維度為50維,種群規模為100,迭代次數為1 000。實驗結果如表4所示,函數收斂圖像如圖5、6所示。由函數收斂圖可以很直觀地看到,MCE策略改進的PSO和GA有較好的收斂表現,同時可以與不同的改進算法結合進一步提高算法收斂能力,且解決了原改進算法后期尋優能力不足等問題。
從收斂圖5、6中可以看到,FPSO有效提高了在多峰函數中的尋優性能,但在單峰函數中表現一般,而結合了MCE策略 后的FPSO算法完善了FPSO在單峰函數中收斂精度不高的缺點,同時在多峰函數中進一步提高了其收斂能力,在保持了有效跳出局部最優的能力外,尋優精度也得到了大幅提升。CSOGA憑借有效的反向學習機制在單峰函數中表現突出,且能快速收斂。結合了MCE策略后保持并提高了其局部尋優能力,同時在CSOGA容易陷入局部最優的測試函數中能避免算法早熟,繼續向下收斂,提高了函數性能。通過對PSO和GA改進算法的實驗發現,MCE策略不僅自身對算法性能提高較好,同時能有效結合其他算法,彌補算法短板。
對于兩種算法的改進實驗中發現,FPSO在多峰函數中表現優異但單峰函數中表現一般,雖然融合了MCE策略后收斂精度和速度都得到了很大提升,但是較本就表現優秀的CSOGA仍有較大差異,由此在選擇不同質算法解決實際問題時,應明確原算法的優劣能力,在單峰函數中結合PSO類改進算法而在多峰函數中結合GA類改進算法。
5 結束語
本文提出一種普適性的基于多元競爭淘汰的尋優策略以提高自然計算處理多維問題時全局尋優的能力及跳出局部最優陷阱的能力。通過大量的理論分析與實驗結果表明,本文策略不僅可以在單峰函數中提高算法的收斂速度和收斂精度,同時還可以在多峰函數中尋優后期提高種群多樣性,避免種群陷入局部最優陷阱,且仍具備較好的局部尋優能力。將MCE策略與PSO、GA兩種自然計算方法以及近兩年提出的FPSO、CSOGA兩種改進算法相結合,與標準算法和原改進算法進行實驗性能比較,選取了包括單峰、多峰以及固定維多峰在內的10個測試函數驗證策略的普適性和有效性。實驗結果表明,本文MCE策略可以與其他算法有效結合,在高維測試函數中表現優異,有效降低因種群規模過大帶來的負面影響,不僅可以充分發揮原算法的搜索特性,對于原算法的尋優短板也可以進行有效的補齊。在高維測試函數中,結合而成的新算法相較于原算法具有更好的尋優性能,收斂曲線更為優秀。據此,該策略可應用于解決高維工程問題,提高尋優精度和速度,同時在處理路徑規劃問題時也能有效提高效率。但是本文策略在算法前期不能有效地加快收斂速度,因為要充分發揮原算法的搜索機制優點,避免因MCE策略導致算法早熟,在算法進入局部尋優過程后才會大幅提高局部探微能力,所以在不同自然計算的前期尋優階段,如何保證能夠在避免群體早熟的同時提高收斂速度仍缺乏一個行之有效的辦法。在后續的研究中,可以在不同的大空間中增加更多元的競爭方式,在多個大類空間的N元小空間中采用更隨機和更合理的自適應交換方式,使算法在前、中、后期都能有一個更好的表現。
參考文獻:
[1]de Castro L N. Fundamentals of natural computing:an overview[J].Physics of Life Reviews,2007,4(1):1-36.
[2]劉愛琴,張繼福,荀亞玲.基于大熵值變化區域和余弦相似度的離群迭代算法[J].小型微型計算機系統,2013,34(7):1518-1521.(Liu Aiqin, Zhang Jifu, Xun Yaling. Outlier iterative algorithm based on large entropy variation region and cosine similarity[J].Journal of Small and Microcomputer Systems,2013,34(7):1518-1521.)
[3]Yin Yanlei, Wang Lihua, Zhang Litong. A multipopulation dynamic adaptive coevolutionary strategy for large-scale complex optimization problems[J].Sensors,2022,22(5):1999-2020.
[4]Sabar N R, Abawajy J, Yearwood J. Heterogeneous cooperative co-evolution memetic differential evolution algorithm for big data optimization problems[J].IEEE Trans on Evolutionary Computation,2017,21(2):315-327.
[5]Niu Xufeng, Ma Wenping. An improved multiple populations quantum genetic algorithm[J].Laser Physics Letters,2022,19(9):1-7.
[6]劉彬,張春燃,孫超,等.多種群遺傳算法在篦冷機二次風溫預測中的應用[J].計量學報,2019,40(2):252-258.(Liu Bin, Zhang Chunran, Sun Chao, et al. Application of multi-population genetic algorithm in predicting secondary air temperature of grate cooler[J].Acta Metrologica Sinica,2019,40(2):252-258.)
[7]Zhang Kai, Shen Chaonan, Yen G G. Multipopulation-based diffe-rential evolution for large-scale many-objective optimization[J].IEEE Trans on Cybernetics,2022,1(1):2168-2267.
[8]Wei Bo, Tang Yichao, Jin Xiao, et al. A dynamic multi-swarm particle swarm optimization with global detection mechanism[J].International Journal of Cognitive Informatics and Natural Intelligence,2022,15(4):1-23.
[9]Tizhoosh H R. Opposition-based reinforcement learning[J].Journal of Advanced Computational Intelligence and Intelligent Informatics,2006,10(4):578-585.
[10]Rahnamayan S, Tizhoosh H R, Salama M M A. Opposition-based differential evolution[J].IEEE Trans on Evolutionary Computation,2008,12(1):64-79.
[11]Ramalingam R, Karunanidy D, Balakrishnan A, et al. OGWO-CH: hybrid opposition-based learning with gray wolf optimization based clustering technique in wireless sensor networks[J].Electronics,2022,11(16):2593-2615.
[12]Li Yu, Yu Xiaomei, Liu Jingsen. An opposition-based butterfly optimization algorithm with adaptive elite mutation in solving complex high-dimensional optimization problems[J].Mathematics and Computers in Simulation,2023,204(1):498-528.
[13]Alnowibet K A, Shekhawat S, Saxena A, et al. Development and applications of augmented whale optimization algorithm[J].Mathema-tics,2022,10(12):2076-2109.
[14]Wen Lei, Wang Guopeng, Yue Longwang, et al. Multistrategy Harris hawks optimization algorithm using chaotic method, Cauchy mutation, and elite individual guidance[J].Discrete Dynamics in Nature and Society,2022,1(1):1-12.
[15]Wang Bohang, Wang Daobo, Ali Z A. A Cauchy mutant pigeon-inspired optimization-based multi-unmanned aerial vehicle path planning method[J].Measurement and Control,2020,53(1-2):83-92.
[16]Wang Hui, Li Hui, Liu Yong, et al. Opposition-based particle swarm algorithm with Cauchy mutation[C]//Proc of IEEE Congress on Evolutionary Computation.Piscataway,NJ:IEEE Press,2007:4750-4756.
[17]Chen Ke, Zhou Fengyu, Yin Lei, et al. A hybrid particle swarm optimizer with sine cosine acceleration coefficients[J].Information Sciences,2018,422(1):218-241.
[18]Xu Xingwei, Pan J S, Mohamed A W, et al. Improved fish migration optimization with the opposition learning based on elimination principle for cluster head selection[J].Wireless Networks,2022,28(3):1017-1038.
[19]Rahnamayan S, Tizhoosh H R, Salama M M A. Opposition versus randomness in soft computing techniques[J].Applied Soft Computing,2008,8(2):906-918.
[20]Wang Zichen, Dou Zhenhai, Dong Jun, et al. Optimal dispatching of regional interconnection multi-microgrids based on multi-strategy improved whale optimization algorithm[J].IEEE Trans on Electrical and Electronic Engineering,2022,17(6):766-779.
[21]Yuan Yongliang, Mu Xiaokai, Shao Xiangyu, et al. Optimization of an auto drum fashioned brake using the elite opposition-based learning and chaotic k-best gravitational search strategy based grey wolf optimizer algorithm[J].Applied Soft Computing Journal,2022,123(1):1-18.
[22]Liu Cong, Liu Yunqing, Wu Tong, et al. An optimization algorithm for solving high-dimensional complex functions based on a multipopulation cooperative bare-bones particle swarm[J].Journal of Electrical Engineering amp; Technology,2022,17(1):2441-2456.
[23]Amer D A, Attiya G, Zeidan I, et al. Elite learning Harris hawks optimizer for multi-objective task scheduling in cloud computing[J].The Journal of Supercomputing,2021,78(2):2793-2818.
[24]潘峰,周倩,李位星,等.標準粒子群優化算法的馬爾可夫鏈分析[J].自動化學報,2013,39(4):381-389.(Pan Feng, Zhou Qian, Li Weixing, et al. Markov chain analysis of standard particle swarm optimization algorithm[J].Acta Automatica Sinica,2013,39(4):381-389.)
[25]Al Hwaitat A K, Al-Sayyed R M H, Salah I K M, et al. Frequencies wave sound particle swarm optimisation(FPSO)[J].Journal of Experimental amp; Theoretical Artificial Intelligence,2022,34(5):749-780.
[26]孫小琳,季偉東,王旭.基于余弦相似度反向策略的自然計算方法[J].信息與控制,2022,51(6):708-718.(Sun Xiaolin, Ji Weidong, Wang Xu. Natural computation method based on cosine similarity opposition[J].Information and Control,2022,51(6):708-718.)