999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于學習自動機的雷達干擾資源分配研究

2020-06-23 01:56:52顧榮軍盧俊道
航天電子對抗 2020年2期
關鍵詞:效益策略

韓 鵬,顧榮軍,盧俊道,張 鵬

(中國洛陽電子裝備試驗中心,河南孟州454750)

0 引言

電子對抗過程中雙方都會被多部雷達同時威脅,對抗雙方會設法利用先進的電子對抗技術削弱對方雷達系統的作戰性能。然而雷達干擾資源是有限的,如何將有限的雷達干擾資源進行合理分配,最終獲得最大整體干擾效益就成了現代電子對抗中一個決定勝敗的重要問題。

正是由于雷達干擾資源分配的重要性,相關專家學者們進行了大量研究,建立了諸多資源分配的方法模型,如基于貼近度的雷達干擾分配算法[1]、遺傳模擬退火算法[2]、基于多Agent分布協同拍賣的雷達干擾資源分配算法[3]、蟻群算法[4]等。近年來,博弈論[5]作為研究分布式最優化問題的一種有效理論工具被廣泛用于無線通信等領域,取得了很多研究成果,但是在雷達有源干擾資源分配方面研究的不多。本文基于博弈論探討干擾資源分配問題,并利用學習自動機設計分布式干擾資源分配算法,可以在收斂速度和干擾效果兩方面取得較好的平衡,使得對雷達干擾資源分配方案的制定更加穩定和高效。

1 干擾效果評估

雷達干擾資源分配首先需要對干擾機的干擾效果進行定量評估,進而通過運籌學的方法尋找某種最優的干擾目標分配方案。

1.1 評估指標[6-8]

1)干擾頻率。用干擾頻率效益因子Efij表示干擾機i對目標雷達j的頻率瞄準程度對干擾效果產生的影響。設雷達j的工作頻率范圍為fj1-fj2,干擾機的頻率覆蓋范圍為fi1-fi2,則:

2)干擾功率。用干擾功率壓制效益因子E pij表示干擾機i對雷達j的功率壓制的程度對干擾效果產生的影響。

式中,Pji表示雷達接收到的干擾功率,Pjs表示雷達接收到的目標回波信號功率,γj表示雷達j正常工作所必需的最小干信比。

3)干擾時機。用干擾時機效益因子E tij表示干擾機干擾實施時間對干擾效果的影響程度[6]。設雷達的威脅時間為t1-t2,開始干擾的時間為ti。

4)干擾樣式。用干擾樣式效益因子E mij表示干擾機i干擾樣式多少對干擾效果的影響程度。

樣式越多,匹配程度越高,干擾效果越好。

1.2 干擾資源分配模型

假定己方有N部干擾機,敵方有M個目標雷達。干擾機i最多可同時干擾K i部雷達,各雷達的威脅系數為λj。

影響干擾效果的4個因素是相互獨立的,只要其中一個因素無效,干擾就無效。所以在干擾效果綜合評價時,采用扎德算子“∧”進行取小運算。

根據電子戰的實際戰情分析配置權重,用Ω=[ω1,ω2,ω3,ω4]表 示 ,ω1+ω2+ω3+ω4=1。 則單對單雷達干擾效果為:

雷達j受到干擾機的干擾效益為:

則雷達總體干擾效益矩陣E為:

定義雷達干擾資源分配的目標函數:

2 干擾資源分配博弈模型

假設N個干擾機的集合為N={1,2,…,N},M個雷達的集合為M={1,2,…,M}。干擾機i的干擾策略為Ri,Ri為干擾機i的干擾策略集,R i∈ Ri。因為干擾機i最多同時對K i個雷達進行干擾,所以Ri=,其中a、b∈ M,因此干擾機i共表示干擾機i對雷達j進行干擾,)表示干擾機i對雷達a、雷達b等K i個雷達進行干擾。干擾機選擇不同的干擾策略,就會生成不同的決策矩陣X N×M。假設每一個干擾機都是理性的,只會選擇使自身收益最大的干擾策略。定義所有干擾機收益相同,為:

本文以最大化所有干擾機收益為目標,因此干擾策略選擇的競爭最優問題可以表示為:

式中,R-i表示除了干擾機i之外所有干擾機的干擾策略,Co1表示干擾機i同時最多干擾K i部雷達。

不滿足Co1限制的干擾策略不會被選擇,然而干擾機很難提前知道哪些干擾策略是不可行的,所以不能直接采用U作為干擾機的收益函數。為了確定干擾策略選擇的可行性,定義每個干擾機的收益函數為:

從博弈論的觀點來看,N個干擾機構成博弈參與者,干擾策略集構成純策略空間,干擾機的收益函數構成博弈參與者的收益函數,則干擾機干擾策略選擇行為可以被看作是一個博弈GE。

式中,N為干擾機的集合,Ri為干擾機的純策略空間,ui為干擾機i的收益。

3 基于學習自動機的干擾資源分配算法

學習自動機(LA)是一個能夠在隨機環境中通過重復地互動從行動集合中找出最佳行動的自適應決策者[9],學習自動機已經被應用于無線通信等領域。本文根據學習自動機的概念,設計一種分布式隨機學習算法,來自適應地更新干擾機的干擾策略。

為了更好地描述這個學習算法,本文把博弈GE擴展到混合策略形式。用p i={p i1,…,p iTi}表示干擾機i的混合策略,其中p ik表示干擾機i選擇純策略k的行動

如果混合策略的博弈是相繼輪流進行的,則可以將每個干擾機視為一個學習自動機,將博弈參與者的純策略視為學習自動機的行動,那么,這個混合策略博弈可以被視作一個由學習自動機構建成的隨機博弈。混合策略p i(t)={p i1(t),…,p iT i(t)}可以被當作在時刻t學習自動機i的行動的概率分布,而p ik(t)表示在t時刻,第i個學習機選擇第k個純策略的概率。干擾機i歸一化的收益則被視為第i個自動機的反應函數,即r i(t)=αui(t),其中0<α<1,能夠保證r i(t)的值落在[0,1)區間。因此可以得到,r1(t)=…=r N(t)=r(t)=αui(t)。

在學習自動機算法中,干擾機通過有限反饋信息,學習到關于干擾策略的概率分布,以便能夠最大化各自的收益。如果其中一個自動機即干擾機根據它當前的行動概率分布獨立地選擇一個行動時,就說這個博弈進行了一次。為了能夠獲取這個博弈的納什均衡,干擾機需要重復地進行這個博弈。該算法具體描述如下:

2)迭代重復以下過程:

①在每個時刻t(t>0),每個干擾機根據它當前的概率分布p i(t)選擇一個干擾策略R i,并上傳給指揮中心;

②指揮中心根據每個干擾機的干擾策略,更新決策矩陣,計算干擾機i的反應函數r i(t)=。需要說明的是,本文中所有干擾機都具有相同的反應函數,因此這個反應可以很方便的通過指揮中心廣播給每個干擾機;

③每個干擾機通過指揮中心的反饋,利用(13)式更新其行動概率分布,其中0<δ<1是一個步長參數,i=1,…,N;k=1,…T i。

式中Rik為干擾機i的第k個純策略。

直到p i(t)中存在一個元素近似等于1,比如0.99,算法停止。

分布式干擾資源分配算法,通過重復博弈,最終確定了每個干擾機的混合策略。在任一個時刻,每個干擾機所需要的信息,僅僅是進行了一次博弈后的歸一化收益,而不需要知道其它任何信息。所有干擾機只需要計算它們的行動概率,避免了復雜的運算。因此該算法能夠極大地降低運算復雜度。

由于GE是一個具有共同收益函數的博弈。由文獻[10]中的定理4.1可得,當步長δ足夠小時,分布式干擾資源分配算法會收斂到博弈的一個純策略納什均衡。當多個純策略納什均衡存在時,可以重復運行該算法,然后從中選出獲得最高收益的那個純策略納什均衡,這樣就能直接找到問題p.1的最優解或找到接近最優性能的策略組合。

在傳統的學習自動機當中,步長的大小對算法的收斂速度影響很大且是一個預先確定的常數。通常,δ越大,算法的收斂速度就越快。為了能夠在保證獲得接近問題p.1最優解的情況下,加快收斂速度,本文設計了一個能夠自適應調整步長的機制。具體設計如下:

定義一個時變的δ:

式中,t1<t2<…<tn-1是有序正整數,tn被定義為正無限,δ1<δ2<…<δn<1表示有序步長,n是一個有限正整數。

本文設計的自適應步長調整機制不會影響理論結果。但是,為了能夠適應實際需求,必須合理設計這些參數的值。由于自適應步長機制能夠把分布式算法的迭代次數自適應地限制在一個需要的數值上,所以這個機制非常適用于實際系統。

4 仿真分析

用仿真實驗驗證所提算法和模型以及實現方法的正確性。為了對所提算法進行簡單高效且全面的分析,首先假設戰場環境內有6部干擾機和7部目標雷達,雷達的威脅系數分別為 0.89、0.27、0.64、0.10、0.72、0.43、0.54,每個干擾機最多能同時干擾2部雷達,則每個干擾機的策略數T i=C17+C27=28。通過干擾決策分析,計算雷達干擾效益矩陣Q,計算結果如表1所示。

表1 算例干擾效益值

圖1表示干擾機1所選行動的概率值(也就是混合策略)的進化曲線。采用自適應步長機制時,n=2,t1=200,δ1=0.1,δ2=0.3。圖 1證明本文所設計的算法具有很好的收斂性。

當δ=0.1時,在459次迭代后,干擾機1收斂到策略 5,也就是p15=1,對應的決策矩陣X1=[x11,x12,…,x17]=[1 0 0 0 1 0 0],即干擾機 1選擇第 1個雷達和第5個雷達進行干擾;

當δ=0.3時,在65次迭代后,干擾機1收斂到策略 26,也就是p126=1,對應的決策矩陣X1=[0 0 0 0 0 1 0],即干擾機1選擇第6個雷達進行干擾;

當選擇自適應步長機制時,在220次迭代后,干擾機1收斂到策略5,也就是p15=1,對應的決策矩陣X1=[1 0 0 0 1 0 0],即干擾機1選擇第1個雷達和第5個雷達進行干擾。

當δ很大且策略數很小時,算法的收斂速度就會很快。此外,在相同狀態下,對于不同數值的δ,分布式干擾資源分配算法可能會收斂到不同的納什均衡。

圖1 干擾機1的所選行動概率(混合策略)進化曲線

圖2 給出了不同算法在不同干擾機數量情況下所獲得的干擾效益。圖2表明,不論干擾機數量是多少,分布式干擾資源分配算法都能夠獲得比隨機選擇算法大得多的干擾效益。如果在仿真中,運行分布式干擾資源分配算法2次并且從中選擇一個收益較大的納什均衡,分布式干擾資源分配算法獲得的干擾效益就會得到提升。如果分布式干擾資源分配算法被運行6次,則干擾效益性能會進一步增加。

從圖2還可以獲知,δ越小,分布式干擾資源分配算法的性能越好。這是由于通常有多個納什均衡存在,而當δ增大時,分布式干擾資源分配算法更有可能錯失最優的或者接近最優的納什均衡。

圖2 性能對比

圖1 和圖2表明自適應步長機制能夠在干擾效益性能和收斂速度之間獲得一個很好的平衡。這些仿真結果證明自適應步長機制是有效的。在實際系統中,可以根據系統需求,來調整步長δ的數值或者采用自適應步長機制來平衡性能與算法復雜度之間的關系。總的來說,分布式干擾資源分配算法靈活有效。

5 結束語

本文利用博弈論研究了雷達有源干擾資源分配問題,基于學習自動機原理提出了分布式干擾資源分配算法,為求解雷達干擾資源分配數學模型提供了新的思路。重復這個算法,可以提高干擾機干擾效益。設計了一個自適應步長機制,它能夠平衡算法性能和收斂速度之間的關系。與窮舉搜索算法相比,本文提出的算法能夠以很低的復雜度來獲取一個與之相當的干擾性能。

猜你喜歡
效益策略
草粉發酵 喂羊效益高
今日農業(2022年16期)2022-09-22 05:38:36
蓮魚混養 效益提高一倍
今日農業(2022年14期)2022-09-15 01:43:28
基于“選—練—評”一體化的二輪復習策略
求初相φ的常見策略
例談未知角三角函數值的求解策略
可再生能源可以產生數十億美元的健康效益
我說你做講策略
冬棚養蝦效益顯著,看技術達人如何手到“錢”來
當代水產(2019年1期)2019-05-16 02:42:02
果園有了“鵝幫工” 一舉多得效益好
今日農業(2019年14期)2019-01-04 08:57:40
高中數學復習的具體策略
數學大世界(2018年1期)2018-04-12 05:39:14
主站蜘蛛池模板: 国产成人亚洲综合a∨婷婷| 国产性生大片免费观看性欧美| 成人在线不卡| 欧美国产日产一区二区| 国产精品hd在线播放| 久久福利网| 欧美一区二区三区不卡免费| 综合五月天网| 老司国产精品视频| 欧美日韩中文国产va另类| 97国产在线播放| 国内丰满少妇猛烈精品播| 国产精品美女在线| 午夜精品影院| 青青青国产视频手机| 欧美亚洲国产日韩电影在线| 四虎成人免费毛片| 97视频免费在线观看| 久久永久视频| 欧美色99| 久久99国产综合精品1| 欧美午夜视频| 成人在线不卡视频| 成人一级黄色毛片| 国产美女人喷水在线观看| 怡春院欧美一区二区三区免费| 亚洲熟妇AV日韩熟妇在线| 国产精品亚欧美一区二区三区| 五月天在线网站| 无码啪啪精品天堂浪潮av| 99久久精品久久久久久婷婷| 亚洲中文精品人人永久免费| 国产乱子伦视频在线播放| 亚洲第一福利视频导航| 激情影院内射美女| 91口爆吞精国产对白第三集 | 成人免费一区二区三区| 99久久婷婷国产综合精| 91久久偷偷做嫩草影院| 国产成人精品一区二区不卡| 91国内视频在线观看| 又大又硬又爽免费视频| 凹凸国产分类在线观看| 最新国产麻豆aⅴ精品无| 国产成年无码AⅤ片在线| 国产综合在线观看视频| 黄色网址手机国内免费在线观看| 色欲国产一区二区日韩欧美| 亚洲 欧美 日韩综合一区| 波多野结衣爽到高潮漏水大喷| 综合色亚洲| 毛片在线看网站| 欧洲亚洲欧美国产日本高清| 欧美成人手机在线视频| 亚洲视频欧美不卡| 制服丝袜 91视频| 亚洲国内精品自在自线官| 日本久久网站| 亚洲国产在一区二区三区| 亚洲精品卡2卡3卡4卡5卡区| 91精品专区| 综合色婷婷| 国产91精品调教在线播放| 色综合中文综合网| 国产精品成人一区二区不卡| 国产一区在线观看无码| 国产18页| 日韩在线视频网站| 亚洲天堂777| 一级毛片在线免费视频| 精品综合久久久久久97超人| 色偷偷一区二区三区| 亚洲一区波多野结衣二区三区| 国产精品原创不卡在线| 狠狠亚洲五月天| 91区国产福利在线观看午夜| 国产精品第5页| 国产欧美视频在线| 久久久久久久久18禁秘| www.youjizz.com久久| 天堂成人在线| 精品乱码久久久久久久|