安 紅,楊 莉,張 朔,張雁平
(電子信息控制重點實驗室,四川 成都 610036)
以雷達、電子戰裝備為典型代表的電子信息裝備,信號處理與數據處理是其核心功能,因此圍繞電子信息裝備的信號發射與接收處理過程以及雷達與電子戰裝備間的信息交互關系,建立信號級的雷達電子戰數字仿真系統,通過設置典型作戰場景開展對抗仿真試驗,能夠比較真實地反映電子戰裝備在復雜電磁環境下對威脅雷達的干擾能力,以及雷達系統在干擾條件下的目標探測能力和抗干擾性能。但是在雷達電子戰信號級數字仿真中,由于裝備模型涉及大量的信號產生與處理過程的復雜運算,而且雷達模型與雷達對抗裝備模型之間存在大數據量的信號數據通信服務和具有因果關系的協同運行要求,所以仿真系統運算速度較慢,特別是在復雜對抗場景下,仿真系統運行效率急劇惡化。為了提高仿真系統運算速度,需要在不斷優化信號級模型算法性能的基礎上,引入并行計算技術,設計新的系統運行架構,構建雷達電子戰信號級并行仿真系統。
雷達電子戰信號級數字仿真系統目前通常采用基于客戶端/服務器(C/S)的分布式仿真結構[1-3],如圖1所示,每個雷達裝備模型和雷達對抗裝備模型均為一個獨立的進程,裝備模型之間通過高速以太網實現數據交互,并采用TCP/IP通信協議以保證網絡數據的可靠傳輸,運行每個裝備模型的計算機為商用PC機。
在如圖1所示的雷達電子戰信號級數字仿真系統中,制約仿真系統運算速度提升的主要因素包括網絡通信數據量、裝備信號級模型運算量、裝備仿真顯控界面等。

圖1 雷達電子戰信號級數字仿真系統分布式運行架構
以典型的系統采樣率40 MHz為例計算,只考慮大數據包(即中頻信號采樣數據包),其他小數據包忽略不計。“1對1”(即1部雷達對抗裝備對抗1部雷達的場景)仿真時,每個時間步長(以10 ms為典型值)內雷達模型與雷達對抗裝備模型之間交互的雷達信號和干擾信號中頻采樣數據包均為1.6 MByte,所以,每10 ms內雷達和雷達對抗裝備模型之間交互的數據量為3.2 MByte,也就是每秒需通過網絡傳輸的數據量為320 MByte。“4對4”(即4部雷達對抗裝備對抗4部雷達的場景)仿真時,每個雷達模型都需要發送雷達信號數據包給每個雷達對抗裝備模型,同樣雷達對抗裝備模型也需一一發送干擾信號數據包給雷達模型,也就是說“4對4”時的網絡通信數據量為“1對1”時的16倍,也即每秒需傳輸數據量為5 120 MByte。如果采用萬兆以太網(10 GBit/s)來傳輸數據,理論上極限傳輸速率為1.25 GByte/s,而實際應用基本達不到理論值,對于分散的小數據包,傳輸效率會更低。這里以1 GByte/s的傳輸速率來估算網絡傳輸耗時,“1對1”場景下的數據傳輸耗時理論值為0.32 s,“4對4”場景下的數據傳輸耗時理論值為5.12 s,從而可見僅僅是數據傳輸就需要很大的時間開銷,而且隨著仿真場景規模增大、裝備模型數量增多,網絡傳輸耗時會急劇增加。
為了降低裝備模型之間網絡通信數據量,參考文獻[3]提出在各計算節點間只傳遞雷達信號的特征值、而在信號接收端根據信號特征值重構雷達信號數據的方法,從而降低各計算節點間信號傳輸數據量。但該方法存在較大局限性,一是雷達信號重構精度受限于雷達信號特征值描述的細致度,對常規脈沖體制雷達尚且可行,但對噪聲雷達等復雜波形雷達則由于很難準確提取信號特征值,進而會嚴重影響雷達信號重構精度;二是該方法僅適用于雷達偵察仿真場景,因為這種應用場景下,只有雷達模型向雷達偵察裝備模型的單向數據傳輸需求,而在雷達對抗仿真場景下,雷達模型與雷達對抗裝備模型之間是雙向數據傳輸的,并且由于雷達對抗裝備的干擾樣式及其控制時序導致干擾信號比較復雜,很難用特征參數來描述各種干擾樣式信號,所以也就難以通過信號重構方式在接收端復現干擾信號。
為了逼真復現雷達對抗裝備與威脅雷達之間的信息對抗過程,需采用信號級建模技術,建立雷達對抗裝備和威脅雷達基于信號發射與接收處理的信號級細粒度仿真模型。信號級模型分為中頻信號級和基帶信號級2類,以雷達為例,兩者的差異在于是否進行了中放接收機仿真(含中放濾波和相干檢波)。但無論中頻還是基帶,都必須覆蓋完整的信號處理算法,若省略了信號處理而直接在恒虛警檢測(CFAR)進行仿真,則不是信號級仿真,因為從雷達干擾和抗干擾技術研究的角度,這種省略是不允許的,它無法反映干擾樣式信號進入到雷達信號處理模塊的影響效應,所以在CFAR處理的距離維和速度維上進行干擾分布的假設是不恰當的,尤其是面對復雜的雷達信號處理算法和復雜的干擾樣式控制時序,這種假設更是難以成立。基于中頻信號的仿真主要是考慮雷達在頻域上的一些抗干擾措施,例如掩護脈沖等,必須要有頻率信息,而且雷達接收機中放處理中包含了帶通濾波器,經過帶通濾波后的目標回波信號波形本身也會發生一些微小的變化,而且帶通濾波器可以濾除帶外的信號,當干擾信號帶寬大于雷達信號帶寬時,帶外部分的干擾信號被濾除。特別是當干擾信號波形比較復雜時,例如DDS噪聲+DRFM噪聲+假目標等組合干擾樣式信號,是無法在干擾仿真模型中等效雷達接收機帶通濾波的效果,所以當研究雷達干擾效果或雷達抗干擾效果時,都需要從中頻開始仿真,而不能直接從基帶開始仿真。
由于信號級仿真,特別是中頻信號級仿真涉及大量的信號產生與信號處理過程的復雜運算,而且電子信息裝備內部以串行處理方式為主的信號處理算法模型運算不但需要消耗大量的計算資源,而且計算資源的負載也不均衡,所以信號級模型解算速度較慢,很難做到實時仿真。為了提高信號級模型解算效率,有的論文[4]提出了信號處理簡化思路,有的論文[5]引入了并行計算思想。但是在面向雷達干擾或雷達抗干擾技術研究的裝備建模中,應盡可能采用實際裝備中的相應處理算法模型,盡量避免做大幅度的處理算法簡化,因為簡化往往是以犧牲逼真度為代價的;其次,采用的并行計算方法應考慮對復雜對抗場景的適用性問題,因為雷達干擾信號的產生具有因果性,人為地將多個雷達搜索波束并行執行,意味著將雷達干擾樣式及其控制時序打亂,無法反映真實的干擾效果或抗干擾效果。因此需要在保證模型逼真度的前提條件下,在不斷優化處理算法的基礎上,采用高性能計算技術,盡可能地提高模型解算效率。
在分布式仿真系統中,每個雷達模型和雷達對抗裝備模型均為一個獨立的進程,模型運算與模型顯示控制界面合為一體,由于模型運算結果的圖形化顯示也需要消耗CPU資源和大量的處理時間,因此每個裝備模型的運算速度也受到了影響。
針對上述3個制約信號級仿真系統運行速度提升的主要因素,本文提出“前臺分布式顯控+后臺集中式運算”的雷達電子戰信號級并行仿真系統架構設計思路,如圖2所示。圖中,前臺仿真顯控設備采用商用PC機,實現仿真系統分布式顯示及人機交互操作控制功能。后臺仿真運算設備采用共享內存的高性能計算設備,實現仿真模型的后臺集中式運算。前臺仿真顯控設備與后臺仿真運算設備通過高速以太網互聯,后臺仿真運算結果數據通過網絡傳輸給前臺設備用于圖形化顯示,前臺人機交互控制指令通過網絡下發給后臺設備用于對仿真進程的干預。

圖2 雷達電子戰信號級并行仿真系統運行架構
具體而言,主要從以下3個方面來提高仿真系統運行效率:
1)針對信號級仿真系統裝備模型間網絡通信數據量大的問題,在圖2所示的仿真系統架構中,將雷達模型、雷達對抗裝備模型和雷達輻射源信號環境模型都放在同一個計算節點上,模型之間的數據交互直接在計算節點的共享內存中進行,沒有額外的通信傳輸時間開銷。
2)針對裝備信號級模型運算量大的問題,在后臺模型運算設備硬件選擇上,既可以采用多CPU的服務器架構,也可以選擇CPU+GPU的異構并行計算平臺。目前高性能服務器的CPU核心數/線程數可以多達上百個,能很好地支持模型計算的并行化要求。而GPU在并行計算、浮點以及矩陣運算方面的強大性能,使其獲得了需要大量并行計算的深度學習等高性能運算市場的青睞,與傳統的CPU服務器相比,采用GPU加速的服務器在達到相同計算精度條件下,可將訓練速度提高幾十倍,因此CPU+GPU異構并行技術在高性能計算機體系結構中扮演越來越重要的角色。
3)針對裝備仿真顯控界面耗時問題,采用“前臺分布顯控+后臺集中運算”的系統架構,可以把裝備仿真顯控與裝備模型運算在物理上分離,將仿真顯控和模型運算分別在不同的計算資源上同時處理,這樣不僅可以使仿真顯控和模型運算在時間上并行起來,實現異步處理,也可以各自使用各自的計算資源,避免計算資源的爭奪,對于仿真系統整體運行效率來說,也就減小了很大一部分時間開銷。
在雷達電子戰信號級并行仿真系統構建過程中,需要重點研究裝備模型并行仿真方法和信號級模型高效解算方法。
裝備模型的并行仿真從兩個方面進行,一方面通過設計后臺模型調度策略,將雷達模型與雷達對抗裝備模型之間具有因果關系的串行處理流程進行并行化,則一個時間步長內的仿真處理時間理論上將由最耗時的模型運算時間決定;另一方面,采用OpenMP應用程序接口或線程池方法,根據后臺模型運算設備的計算資源,將各個模型分配到不同線程進行計算。線程池的方法是在仿真開始前先啟動一定數量(與裝備模型個數和CPU核心數有關)的計算線程,在每個仿真時間步長將各個裝備模型的計算任務發布到空閑的計算線程上。OpenMP在本質上也是采用多線程的方式來實現并行,其優點是編程簡單,只需一行代碼即可將多個任務進行并行,但是在計算任務較多的情況下,線程池方式的并行加速比優于OpenMP。
信號級模型涉及信號產生與處理的復雜運算,若后臺模型運算設備采用純CPU架構,則模型中最基礎的信號處理函數(如FFT、IFFT、FIR等)可以采用第三方貨架產品庫,例如美國Intel公司為其Intel?微處理器架構量身打造的一套擴展函數庫Intel IPP,這套函數庫經過32位和64位多核性能高度優化,在Intel多核處理器上執行效率很高,提供了濾波、卷積、變換、數組計算、邏輯運算、信號統計等基礎信號處理函數。在信號級模型中應用Intel IPP的優勢在于直接調用IPP中的信號處理函數就能大大提高模型運算性能。
若后臺模型運算設備采用CPU+GPU異構計算架構,則模型可以采用異構并行計算技術,以雷達模型為例,可以將雷達模型中系統控制調度、數據處理等計算量不大但邏輯運算較多的部分放在CPU上,而涉及大量數學運算的部分放到GPU上,包括目標回波信號生成、中放濾波、相干檢波、A/D變換、脈沖壓縮、雜波處理、多普勒濾波器組、恒虛警處理等。信號生成和信號處理由于計算量很大,例如用40 MHz采樣頻率,如果雷達CPI為10 ms,則一次處理的數據量為400 000點,特別適合在GPU上進行并行處理,能大大加快運算速度。而且由于從信號生成到信號處理都放到GPU上計算,只在處理完畢后輸出處理結果,避免了頻繁地在CPU與GPU之間傳輸數據,有效降低了數據傳輸耗時。
根據本文提出的“前臺分布式顯控+后臺集中式運算”仿真系統架構設計思路,構建了雷達電子戰信號級并行仿真原型系統,前臺仿真顯控設備采用普通商用PC機,后臺仿真運算設備采用兩種類型計算設備進行對比試驗,一種是CPU+GPU異構計算設備,另一種是具有多核CPU性能的商用PC機,通過設置典型仿真場景開展對抗仿真試驗,對系統仿真運算速度進行了測試。
并行仿真原型系統后臺仿真運算環境如表1所示。

表1 原型系統后臺仿真運算環境
仿真場景:機載自衛干擾吊艙對機載相控陣火控雷達進行干擾,分別設置“1對1”和“4對4”共2種仿真場景。
機載火控相控陣雷達仿真參數:雷達中頻信號采樣率為40 MHz,雷達信號為相參脈沖串信號,脈寬為10μs,脈內調制方式為線性調頻,信號調制帶寬為10 MHz,脈沖重復周期為67~127μs,重頻個數為8個,相參脈沖個數為128個,雷達A/D采樣率為10 MHz。
機載自衛干擾吊艙仿真參數:雷達干擾中頻信號采樣率為40 MHz,干擾樣式為DRFM假目標干擾+DRFM噪聲干擾,能同時干擾目標數量為4個。
仿真運算速度采用“用時比”指標進行表征,用時比是指仿真運行時間與真實物理時間之比。用時比等于1,表示是實時仿真;用時比小于1,表示是超實時仿真;用時比大于1,表示是欠實時仿真。用時比越大,表示仿真運算速度越慢,目前基于中頻信號采樣處理的雷達電子戰數字仿真系統很難實現實時仿真,用時比通常遠大于1。
在相同仿真場景下,設置相同仿真參數,在表1所示的硬件環境下分別運行新研的并行仿真原型系統和此前已完成研制的分布式仿真系統,分布式仿真系統運行采用表1中的運算設備3,2類仿真系統的用時比指標測試結果如表2所示。從表中可見,本文提出的“前臺分布式顯控+后臺集中式運算”系統架構較傳統的分布式系統架構,在仿真運行效率上有很大的提升,同時也可以看出,網絡通信數據量對仿真運行效率影響很大;其次,采用異構并行計算技術在CPU+GPU異構計算設備上的運算速度較純CPU計算設備有明顯提升,“1對1”場景下的仿真運算速度已接近實時;對比2款異構計算設備性能可見,“多對多”對抗場景下,異構計算設備性能對仿真運算速度有較大影響,因此盡可能選擇高性能異構計算設備有助于提升仿真運行效率。

表2 仿真運算速度指標測試結果
在基于中頻信號采樣處理的雷達電子戰數字仿真系統中,由于信號級裝備模型涉及信號產生與處理的復雜運算且運算量較大,而且在復雜對抗場景下多個裝備模型間存在大量的信號數據交互帶來的網絡通信傳輸耗時大的問題,導致系統運算速度較慢,因此需要采取綜合性技術手段來提高系統整體運行效率。本文提出“前臺分布式顯控+后臺集中式運算”的并行仿真系統設計與實現思路,通過前臺仿真顯控與后臺仿真運算在物理上的分離,解決模型顯控與模型運算的資源爭奪及人機界面顯示耗時問題。而在后臺的集中式仿真運算,一方面可通過共享內存的數據交互方式,解決網絡數據通信傳輸耗時問題;另一方面能充分利用現代高性能計算資源優勢,通過并行計算技術,解決信號級裝備模型運算耗時大的問題,特別是CPU+GPU異構并行計算技術,系統測試證明該技術能大幅度提升信號級仿真運行效率。■