









摘 要:隨著科學技術的發展和作戰方式的改變,對于敵方作戰意圖的推理開始進入戰場,防空作戰決策對于意圖識別的準確率有更高的要求,現有的知識圖譜、 專家網絡和深度神經網絡等方法在識別的精度上還存在差距,難以滿足防空作戰的需求。因此,本文結合卷積神經網絡和循環神經網絡的優點設計了一種用于空中目標意圖識別的深度學習模型FCN-BiGRU,全卷積網絡(FCN)可以提取空戰數據中的復雜局部特征,雙向門控循環單元(BiGRU)用來捕捉空戰意圖數據的時序特征,通過消融實驗和對比實驗證明,FCN-BiGRU模型的意圖識別準確率達到98.71%,超過現有空中目標意圖識別模型1.14%,為防空作戰決策提供了更有力的依據。
關鍵詞:深度學習; 空中目標; 意圖識別; 全卷積網絡; 雙向門控循環單元
中圖分類號:TJ760; TP183
文獻標識碼: A
文章編號:1673-5048(2023)05-0057-09
DOI: 10.12132/ISSN.1673-5048.2023.0002
0 引" 言
世界經濟水平的發展和科學技術的進步推動了現代戰爭體系的變革,作戰方式趨向智能化,對敵方意圖的推理在現代戰爭特別是現代空戰中的作用日益凸顯,越來越多的專家學者開展了大量意圖識別相關研究。在防空作戰中,對敵來襲空中作戰力量意圖的快速、 準確識別可以指導我方把握戰場先機,有效捍衛領空安全[1-3]。
現有的意圖識別方法主要包括專家系統[4]、 模板匹配[5-6]、 證據理論[7]、 貝葉斯網絡[8-9]和神經網絡[10-16]等。文獻[4]通過專家經驗構建知識庫,使用推理機得到推理結果,通過對專家系統進行分析,其主要依靠知識庫與完善的推理規則進行抽象處理,而戰場環境復雜多變,僅憑借推理規則的力量很難實現全面覆蓋; 文獻[5-6]根據戰場態勢數據和專家經驗構建態勢模板,通過模板匹配的方式進行意圖識別,這種方式沒有考慮戰場的復雜情況和戰場數據的時序性,在識別的準確率方面存在較大的誤差; 文獻[7]針對海上艦艇對空中目標的意圖識別特點,建立置信規則庫,結合戰場的態勢特征, 通過推理進行意圖識別; 文獻[8-9]通過專家知識構建貝葉斯網絡,通過概率論與圖論結合的方式實現意圖識別; 文獻[10-16]通過構建神經網絡,挖掘空戰意圖數據中的內部聯系,模擬人腦進行意圖識別,有效解決了傳統意圖識別方法的缺點,引入時序概念,將意圖識別看作一個連續的過程,通過前后時刻的相互聯系影響作戰意圖識別; 其中,文獻[10-13]基于卷積神經網絡(Convolutional Neural Networks, CNN)[14-15]和循環神經網絡(Recurrent Neural Networks,RNN)[16-17]構建時序意圖識別模型,取得了更高的準確率。
然而,現有的意圖識別方法在識別的精度上還存在差距,難以滿足防空作戰的需求。在防空作戰中,對于敵方意圖的誤判有可能造成我方的重大損失甚至整場戰斗的失敗,迫切需要新的意圖識別方法提高識別準確率。空戰意圖特征數據中不僅存在時序特征,同樣存在空間特征和局部特征,時序特征表達了作戰過程中前后時刻采取行動之間的聯系,空間特征主要表達位置、 速度等空間因素對于意圖識別的影響,局部特征則體現了影響意圖識別結果的關鍵局部因素。
針對上述問題,本文設計了一種基于FCN-BiGRU的空中目標意圖識別方法,結合全卷積網絡(Fully Convolutional Networks,FCN)[18-19]和雙向門控循環單元(Bidirectional Gated Recurrent Unit,BiGRU)[20-21]提高識別準確率。CNN廣泛應用于圖像和時間序列中,CNN內的層可以從很少甚至沒有預處理的情況下從數據中提取復雜的特征表示。FCN將CNN模型后面的全連接層替換為卷積層,可以較好地提取意圖樣本的空間特征,同時避免了CNN重復存儲和計算卷積的問題,使模型更加高效。BiGRU有著比長短期記憶(Long Short-Term Memory,LSTM)[22-23]網絡更小的塊結構,并顯示出與LSTM相當的性能,而且不需要額外的算法支持該模型,具有更少的訓練參數、 更少的內存需求、 更少的訓練時間、 更簡單的硬件實現,具備較強的提取長距離依賴信息的能力。通過將FCN和BiGRU模型相結合,可以充分考慮空中目標意圖樣本的時間特征、 空間特征和局部特征,進一步提升意圖識別的效果。通過消融實驗和對比實驗證明,FCN-BiGRU模型的意圖識別準確率遠遠超過了現有的空中目標意圖識別模型,取得更好的意圖識別效果。
1 空中目標意圖識別問題描述
空中目標意圖識別主要包括以下過程:
(1) 根據作戰類型、 戰場環境等因素,確定空中目標作戰意圖空間;
(2) 采集戰場時序數據,選取用于模型意圖識別的空中目標意圖特征空間;
(3) 進行數據預處理,形成空中目標意圖數據集,劃分訓練集和測試集;
(4) 輸入數據,進行模型訓練和測試。
1.1 作戰意圖類型選取
對于作戰意圖類型的選取,需要根據作戰類型、 戰場環境、 任務背景等因素綜合考慮。如空中目標的意圖類型就與海上目標的意圖類型存在很大差異。文獻[24]對于水下威脅目標建立的戰術意圖空間為{攻擊、 規避、 巡邏}; 文獻[10]根據敵方空中目標近岸空襲軍事建筑為研究背景,建立的敵方空中目標的意圖空間為{攻擊、 突防、 偵察、 佯攻、 電子干擾、 監視、 撤退},本文重點研究防空作戰中空中目標的意圖識別問題,因此,針對防空作戰的特點建立包含7種意圖類型的作戰空間,包括{攻擊、 偵察、 干擾、 佯攻、 突防、 監視、 撤退}。
由于7種意圖類型屬于非數值型數據,為了將其轉換為模型可以識別的數值型數據,分別對以上7種類型作編碼處理,{1,2,3,4,5,6,7}分別對應意圖空間{攻擊、 偵察、 干擾、 佯攻、 突防、 監視、 撤退},如圖1所示。如干擾意圖對應的編碼值為3,如果模型的輸出結果為3,即模型判斷空中目標作戰意圖為干擾。
1.2 作戰意圖特征選取
空中目標作戰意圖與其作戰任務和戰場環境情況密切相關。在考慮多方面因素的情況下,根據雷達、 傳感器等測得的敵空中作戰力量的時序數據判斷敵機的作戰意圖。在執行空中任務時,敵機同一種意圖類型往往表現出相同或相似的特征。如敵殲擊機在空戰攻擊時通常采用較高的飛行速度,甚至可達1 400 km/h,敵機在執行高空突防任務時飛行高度往往會超過10 km[8]。同樣,執行偵察任務時,通常會保持所有機載雷達處在開啟狀態,敵機在撤退時敵我距離逐漸增大且航向角朝向我方相反的方向。
綜上所述,本文選取12種由數值型數據和非數值型數據構成的空中目標意圖特征空間,表達敵機的作戰意圖,數據預處理后輸入FCN-BiGRU模型進行意圖識別。其中,數值型數據包括{敵我距離、 高度、 速度、 加速度、 航向角、 方位角、 雷達反射面積},非數值型數據包括{敵機類型、 對空雷達狀態、 對地雷達狀態、 機動類型、 干擾狀態},如表1所示。
對于數值型數據,高度指敵空中目標的海拔高度; 敵我距離指敵空中目標與我軍事中心的距離; 速度指敵空中目標的飛行速度; 加速度指敵空中目標的飛行加速度; 航向角為敵空中目標飛行方向(正北方向為0°,順時針方向一周分為360°); 方位角為我方軍事建筑到敵空中目標方向的方位角(正北方向為0×106" m,順時針方向一周分為6.4×106 m); 雷達反射面積指敵戰斗機的種類型號。數值型數據使用1個浮點型數據反映其大小,并對其進行Min-Max標準化。對于任意數值型數據x,標準化后的數據x′為
x′=x-min{X}max{X}-min{X}(1)
式中: X為數據x所屬的特征種類的數據集合; max{X}為數據集合X中的最大值; min{X}為數據集合X中的最小值。
對于非數值型數據,敵機類型指敵戰斗機的種類型號,對其進行編碼; 對空雷達狀態指敵機的對空雷達是否開啟; 對地雷達狀態指對地雷達是否開啟; 干擾狀態指敵機的干擾裝置是否開啟,以上數據編碼為1或0,1表示開啟,0表示關閉。機動類型指敵機主要采取的機動方式,以NASA學者根據空戰中最常用的機動方式提出的“基本操縱動作庫”[25]進行編碼,包括{最大加速、 最大減速、 最大過載爬升、 最大過載俯沖、 最大過載右轉、 最大過載左轉、 穩定分型}7種機動動作。
2 意圖識別模型描述
BiGRU可以在GRU捕捉樣本一系列時序依賴的同時,利用未來信息進行判斷和更新。FCN模型擅于提取時間序列數據的空間特征和細節變化規律,有效提高意圖識別的準確率。為了充分利用其優點,將其組合成一個新的混合模型,以進一步提高意圖識別精度,實驗證明該模型在當前空中目標意圖識別領域準確率、 召回率和損失值等評價指標上遠遠超越了其他現有模型。
2.1 全卷積網絡
全卷積網絡(FCN)是卷積神經網絡(CNN)的一種變體,通過將CNN中的全連接層替換為不同參數的卷積層實現全卷積。CNN是一種具有深度結構的前饋神經網絡,主要由卷積層、 池化層和全連接層組成,內部包含的卷積計算使其具有表征學習的能力,能夠按照階層結構對輸入的信息進行分類,卷積核之間的參數共享和各層間的稀疏性連接,使其可以通過較小的計算量、 較穩定的效果提取數據的復雜局部特征,具備較高的學習效率,被學者廣泛應用于圖像處理問題和時間序列問題。空中目標的意圖特征本質上是一種多維度時間序列,因此空中目標的意圖識別問題本質上是一種時間序列問題。CNN的多層卷積結構能夠自動學習到多個層次的空中目標意圖特征,當卷積層較淺感知域較小時可以學習到目標意圖的局部特征,當卷積層較深感知域較大時可以學習到對目標位置、 速度等敏感性更低的抽象特征,可以極大提高空中目標意圖識別的性能。FCN通過替換掉原有的全連接層,避免了CNN存在的重復存儲和計算卷積的問題,使模型更加高效地提取到空中目標意圖時序數據中的復雜局部特征,為防空作戰決策爭取了更多的寶貴時間。
FCN模塊由3個時序卷積(temporal convolutional)模塊組成,每個時序卷積模塊均包括1個一維卷積層、 1個batch normalization層(后接1個ReLU激活函數)和1個dropout層(丟棄率為0.3)組成。根據空中目標意圖特征數量,設置第1個卷積層的輸入通道數為12,輸出通道數為128; 第2個卷積層的輸入通道數為128,輸出通道數為256; 第3個卷積層的輸入通道數為256,輸出通道數為128; 3個卷積層的卷積核大小分別設置為8,5,3。由此,切片后的航跡數據特征從12維映射到128維,并通過連接層將FCN層的輸出與BiGRU層的輸出拼接,實現同時兼顧空間和時間特征的FCN-BiGRU網絡結構。
2.2 雙向門控循環單元
循環神經網絡(RNN)由于其內部循環單元的鏈式連接,使其在處理時間序列分類和預測等問題上應用廣泛,在處理時間序列數據方面其有兩個主要的變體,長短時記憶(LSTM)網絡和門控循環單元(GRU),LSTM在內部由3個門(輸入門、 遺忘門和輸出門)組成,GRU則由2個門(重置門和更新門)組成,在性能上GRU相較于LSTM相差無幾或者略有提升,但是GRU能夠有效緩解深度RNN訓練過程中可能出現的梯度消失和梯度爆炸的問題,同時采用了較LSTM更為簡單的結構,很大程度上減少了工作量,提高了訓練效率,更能滿足防空作戰對于時間緊迫性的要求。GRU的內部結構如圖2所示。
GRU分別使用上一時刻的輸出狀態ht-1和當前時刻的輸入序列值xt作為輸入,輸出為當前時刻的狀態ht。重置門rt主要決定了歷史狀態信息被遺忘的程度,使網絡能夠丟掉前面時刻中不重要的意圖特征,重置門的值越大說明遺忘的信息越少,反之越多。更新門zt控制前一時刻的狀態信息被帶入當前狀態之后在當前狀態中的比重,在空中目標的意圖識別中可以使網絡能夠記憶較長時間的意圖特征,更新門zt的值越小說明傳遞的信息越少; 反之則越多。在經過重置門rt和更新門zt后模型狀態得到不斷更新,GRU的內部計算公式如下:
rt=σ(Wrxt+Urht-1)
zt=σ(Wzxt+Uzht-1)
h~t=tanh(Wh~xt+Uh~(rt⊙ht-1))
ht=(1-zt)⊙ht-1+zt⊙h~t (2)
式中:σ為sigmoid激活函數,其作用是將中間狀態轉換到[0, 1]范圍內,如果其值接近于0,則表示沒有新的信息被記憶; ht-1," ht分別是t-1時刻和t時刻的輸出狀態; xt為t時刻的輸入序列值; h~t為候選輸出狀態; Wr," Wz," Wh~," Ur," Uz和Uh~為各部分相對應的權值系數矩陣; tanh為雙曲正切函數,在作為激活函數使用時可以有效地解決循環神經網絡中使用sigmoid函數普遍面臨的梯度消失問題; ⊙為矩陣的哈達馬積。
為了更好地捕獲前后時刻空戰意圖特征之間的聯系,同時為了增強模型的意圖識別穩定性,在原有的單向GRU的基礎上,將其擴展為雙向的BiGRU,使模型在獲取歷史意圖特征的同時可以獲取到未來的意圖特征,BiGRU的結構如圖3所示。
圖中, xt-1," xt," xt+1分別表示t-1," t," t+1時刻的輸入狀態; ht-1," ht," ht+1分別表示t-1," t," t+1時刻的輸出狀態; GRU1為前向傳播的GRU; GRU2為后向傳播的GRU; 當前時刻的輸入xt在經過GRU1和GRU2后分別獲得前向的輸出狀態ht和后向的輸出狀態h←t,共同決定模型在t時刻的輸出狀態ht。
2.3 模型整體框架
模型結構的主體包括1個FCN模塊和1個BiGRU模塊。BiGRU模塊負責學習時間序列數據的長期趨勢,通過重置門和更新門對之前時刻的特征數據進行記錄和傳遞,捕捉特征的變化情況,結合當前時刻的特征數據進行意圖識別。FCN模塊負責對切片后的時序數據進行特征提取,由于采用了全卷積網絡,模型能更好地捕捉到空戰意圖時序數據的局部信息。 FCN模塊與BiGRU模塊組合后,既能學習空戰意圖時序數據的長期變化趨勢,又能提取出數據內部的細節變化規律。圖4展示了模型的整體框架。
將包含不同空戰意圖特征的時間序列數據由1個BiGRU層進行處理,輸出為長度128的一維向量。同時,將相同的時間序列數據通過由濾波器大小為128," 256和128的一維卷積層實現的FCN網絡。這可以分3個步驟進行,每個步驟的全卷積網絡都涉及到ReLU激活和批處理規范化。應用全局平均池化,將轉換后的時間序列數據輸出包含目標類可靠性的特征圖,減少了網絡的參數數量,消除了過擬合的風險。池化層和BiGRU層的輸出結果通過連接層進行連接得到輸出值h。最后,應用softmax進行多類分類。此時的softmax層數等于輸出層數即空戰意圖標簽類別總數:
y′=softmax(wh+b)(3)
式中: y′為模型預測的意圖結果; w 為需要學習的權重矩陣; b 為偏置向量。
在訓練階段,FCN-BiGRU模型采用交叉熵損失 (Cross Entropy, CE)[26]函數計算損失值,網絡在整個訓練集上的損失函數為
H(p, q)=-1N∑Nn=1∑Mm=1p(xn, m)lnq(xn, m)(4)
式中: N 為訓練集中訓練樣本的總數; M 為訓練集中意圖標簽種類總數; p(xn, m)為訓練集中第 n 個樣本對應于第 m 個標簽類別的真實概率; q(xn, m)為網絡模型輸出值的第 n 個樣本對應于第 m 個類別的概率。
在測試階段,將測試集的數據輸入FCN-BiGRU模型,獲得敵空中目標的意圖識別結果。
3 實驗分析
3.1 實驗數據與環境
實驗數據來源于作戰仿真系統Air Combat Maneuvering Instrumentation (ACMI),由空戰領域專家對其標簽進行修訂。共10 500個樣本,包括8 400個訓練樣本和2 100個測試樣本,每類意圖占比為14.3%。時間步長為12,特征維度為12。數據集中部分樣本如圖5~6所示。
圖5展示了數據集中的其中1個樣本,縱坐標表示12個特征維度,橫坐標表示樣本的時間維度,顏色代表各特征維度在對應時刻的數值大小。為直觀顯示樣本數據,選取圖5樣本中箭頭所示的飛行高度特征與時間的變化關系制作折線圖,如圖6所示,縱坐標表示飛行高度,橫坐標表示對應的時刻。實驗設置的訓練輪次為200,批量大小為32。
3.2 性能評估指標
為驗證本文提出的FCN-BiGRU空中目標作戰意圖識別模型的性能,采用準確率和損失值來評估網絡的分類情況。計算公式為
Accuracy=∑Mi=1Ti/(∑Mi=1Ti+∑Mi=1∑Mj=1Fi, j, (i≠j))(5)
Loss=-1N∑Nn=1∑Mm=1p(xn, m)lnq(xn, m)(6)
式中: N 為訓練集中訓練樣本的總數; M 為訓練集中意圖標簽種類總數; Ti為數據集中真實標簽類別為 i 的樣本中被正確分類的總數; Fi, j為數據集中真實標簽類別為 i 的樣本中被錯誤分類到類別 j 的總數。干擾意圖的可能識別結果如圖7所示 。
3.3 實驗參數設置
模型中存在周期、 學習率等超參數,為了使模型達到較好的效果,本文通過實驗測試對比,選取能使模型達到滿意性能的超參數,如表2所示。
3.4 實驗結果與分析
3.4.1 FCN-BiGRU 結果分析
FCN-BiGRU空中目標意圖識別模型的實驗結果如圖8~9所示,圖8展示了模型訓練過程中準確率的變化曲線, 圖9展示了模型的損失值的變化曲線, 訓練集的準確率最高可達100%,測試集的準確率最高可達到98.71%,損失值最低可以降到0.033左右,模型在60輪左右達到收斂狀態。
為直觀顯示GRU-FCN提取意圖特征信息的效果,使用T-Distributed Stochastic Neighbor Embedding(T-SNE)[27]算法將其提取到的特征降維,映射為二維特征,作為橫縱坐標點,繪制特征投影圖,如圖10所示。
由圖10可以看出,模型的類內距離較近,類間距離較遠,說明FCN-BiGRU的特征提取效果較好,對于不同的意圖類型都進行了較好地分類。
為進一步觀測模型的意圖識別結果,制作了如圖11所示的混淆矩陣表示真實意圖與模型的各預測意圖之間的關系,主對角線表示識別正確的樣本個數,主對角線以外的其他位置表示該元素所在列的意圖被模型誤識別為所在行意圖的總數。從圖中可以看出,模型對于7種意圖識別的準確率都較高,其中撤退的意圖識別精度最高,可以達到100%,攻擊和佯攻的意圖識別精度低于平均水平,分別為96.0%和97.3%。根據文獻[28],作戰中敵空中目標的攻擊和佯攻、 監視和偵察意圖間因為較高的相似度和較強的欺騙性會出現部分識別混淆的情況。通過觀察本文所提模型的實驗結果可以發現,模型對于攻擊和佯攻意圖仍然存在相互識別錯誤的情況,但
是對于監視和偵察意圖的誤識別問題有了明顯的改善,對兩種意圖有了更好的區分,極大地提高了偵察和監視意圖的識別準確率。
綜合實驗結果,通過模型的準確率、 提取特征降維后的投影圖和意圖識別混淆矩陣可以發現,FCN-BiGRU在空中目標意圖識別上表現優異,且準確率遠遠超過了現有的識別方法,一定程度上達到了在戰時輔助指揮員作戰決策的要求。
3.4.2 模型消融實驗分析
為進一步論證本文所提的FCN-BiGRU模型中各組成部分的作用,通過消融實驗進行對比實驗分析,如表3所示。由表可見,僅使用FCN模型進行意圖識別時的準確率為94.29%,損失值為0.055,在僅使用BiGRU進行意圖識別時準確率為93.28%,損失值為0.067,而FCN-BiGRU的準確率為98.71%,損失值為0.033。對比發現,FCN-BiGRU模型的效果明顯優于其他2個模型,說明將FCN和BiGRU模型組合可以顯著提高意圖識別的準確率,降低損失值。
3.4.3 模型對比實驗分析
為驗證FCN-BiGRU模型的優越性,將其分別與使用LSTM替換本文BiGRU的FCN-LSTM模型、 文獻[12]所提的結合注意力機制的BiGRU-Attention模型、 文獻[29]所提的全景卷積長短期記憶網絡(PCLSTM)的空中目標意圖識別模型和基于常規GRU的模型等常用的表現優異的空中目標意圖識別模型進行對比實驗,實驗結果如表4、 圖 12~13所示。
通過圖12~13可以直觀地看出,加入Attention后模型的準確率有大幅度提升,融合FCN后進一步提高了模型的準確率。通過表4得出,所有模型的意圖識別準確率均超過了90%,且雙向的循環神經網絡表現優于單向的循環神經網絡,即FCN-BiGRU的準確率略高于FCN-LSTM模型,并且可以看出,本文所提模型的準確率最高,可以達到98.71%,同樣,本文所提模型的損失值也優于現有的表現較好的意圖識別模型,證明了FCN-BiGRU在空中目標意圖識別領域的出色表現。
為了更直觀地表現模型對于不同意圖的識別情況,表5統計了模型對各意圖類型的識別準確率。
表中,①、 ②、 ③、 ④、 ⑤分別代表FCN-BiGRU," FCN-LSTM," BiGRU-Attention," PCLSTM," GRU模型。通過分析表5結果發現,每個模型對于干擾、 突防和撤退意圖的識別準確率均較高,均可以達到90%; 模型②~⑤對于攻擊、 佯攻、 監視和偵察的識別存在準確率偏低的情況,遠遠低于各自模型的平均準確率,而本文所提的模型在監視和偵察意圖的識別上同樣表現較好,準確率分別為99.7%和99.0%,在攻擊和佯攻意圖的區分上也有了提升,達到了令人滿意的效果; 同時,FCN-BiGRU模型的性能在單個意圖的識別準確率上均高于其他模型,再次驗證了本文所提模型的優越性。
3.4.4 模型魯棒性分析
為驗證本文所提模型的魯棒性,對原有數據集按下式分別添加信噪比為10 dB," 5 dB," 0 dB," -5 dB," -10 dB的高斯白噪聲:
SNR=10log10PsignalPnoise=10log10∑x2∑n2(7)
n=∑x2N·10SNR10 (8)
noise=random(N)·n(9)
式中: x為原始信號; n為噪聲信號; N為原始信號長度; SNR為信噪比; noise為通過信噪比計算得到的噪聲信號。在不同信噪比下訓練測試FCN-BiGRU模型,并對比不同模型的意圖識別效果,結果如表6所示。
表中,①、 ②、 ③、 ④、 ⑤分別代表FCN-BiGRU," FCN-LSTM," BiGRU-Attention," PCLSTM," GRU模型。通過表6發現,隨著信噪比的降低,模型的準確率呈現下降趨勢,但是FCN-BiGRU模型的準確率仍高于其他模型,即使信噪比低至-10 dB時," 其準確率也接近90%,而GRU模型的準確率在信噪比低至0 dB后迅速下降,降幅達15.33%,證明本文所提的模型在應對環境噪聲時準確率變化波動較小,魯棒性較好。
4 結" 論
針對現有的空中目標意圖識別方法準確率難以滿足防空作戰需求的問題,本文設計了一種結合卷積神經網絡和循環神經網絡的FCN-BiGRU空中目標意圖識別方法,BiGRU主要負責提取空戰意圖數據的時序特征,FCN負責捕捉數據間的復雜局部特征和空間特征。模型首先通過空中意圖特征數據集選取包括數值型數據和非數值型數據在內的12維空戰意圖特征,將專家經驗封裝為標簽,將空戰意圖時序數據預處理后選取12幀的時間長度訓練FCN-BiGRU模型,提取數據內部特征,為戰時提高對敵意圖識別的準確率、 防止戰場不確定因素影響識別結果進而影響作戰決策提供保證。實驗證明,本文所提模型的訓練速度較快,且準確率遠遠超過了現有的空中目標意圖識別模型,達到了輔助作戰決策的要求。但是,模型對于相似程度過高意圖的區分還存在不足,對于不同的意圖誤識別情況造成的代價不均等問題還沒有充分考慮,這將是下一步研究的重點。
參考文獻:
[1] 姚慶鍇, 柳少軍, 賀筱媛, 等." 戰場目標作戰意圖識別問題研究與展望[J]." 指揮與控制學報, 2017, 3(2): 127-131.
Yao Qingkai, Liu Shaojun, He Xiaoyuan, et al." Research and Prospect of Battlefield Target Operational Intention Recognition[J]." Journal of Command and Control, 2017, 3(2):" 127-131. (in Chinese)
[2] Xia P C, Chen M, Zou J E, et al." Prediction of Air Target Intention Utilizing Incomplete Information[C]∥Chinese Intelligent Systems Conference, 2016:" 395-403.
[3] 劉鉆東, 陳謀, 吳慶憲, 等." 非完備信息下無人機空戰目標意圖預測[J]." 中國科學:" 信息科學, 2020, 50(5):" 704-717.
Liu Zuandong, Chen Mou, Wu Qingxian, et al." Prediction of Unmanned Aerial Vehicle Target Intention under Incomplete Information[J]." Scientia Sinica: Informationis, 2020, 50(5):" 704-717. (in Chinese)
[4] 尹翔, 張萌, 陳夢喬." 基于判別分析的空中目標作戰意圖識別[J]. 彈箭與制導學報, 2018, 38(3): 46-50.
Yin Xiang, Zhang Meng, Chen Mengqiao. Combat Intention Re-cognition of the Target in the Air Based onDiscriminant Analysis[J]." Journal of Projectiles, Rockets, Missiles and Guidance, 2018, 38(3):" 46-50. (in Chinese)
[5] Chen Y M, Li Y C." Simulation of Target Tactical Intention Recognition Based on Knowledge Map[J]." Computer Simulation, 2019, 36(8): 1-4.
[6] 李香亭." 態勢估計中目標意圖識別的研究與實現[D]." 太原:" 中北大學, 2012.
Li Xiangting." Research and Implementation of Target Intention Re-cognition in Situation Assessment[D]. Taiyuan:" North University of China, 2012." (in Chinese)
[7] 趙福均, 周志杰, 胡昌華, 等." 基于置信規則庫和證據推理的空中目標意圖識別方法[J]." 電光與控制, 2017, 24(8):" 15-19.
Zhao Fujun, Zhou Zhijie, Hu Changhua, et al." AerialTarget Intention Recognition Approach Based on Belief-Rule-Base and Evidential Reasoning[J]." Electronics Optics amp; Control, 2017, 24(8):" 15-19. (in Chinese)
[8] Xu Y H, Cheng S Y, Zhang H B, et al." Air Target Combat Intention Identification Based on IE-DSBN[C]∥International Workshop on Electronic Communication and Artificial Intelligence (IWECAI), 2020:" 36-40.
[9] Xu X M, Yang R N, Fu Y." Situation Assessment for Air Combat Based on Novel Semi-Supervised NaiveBayes[J]." Journal of Systems Engineering and Electronics, 2018, 29(4):" 768-779.
[10] Teng F, Song Y F, Guo X P." Attention-TCN-BiGRU: An Air Target Combat Intention Recognition Model [J]." Mathematics, 2021, 9(19):" 2412.
[11] Wang S Y, Wang G, Fu Q, et al." STABC-IR: An AirTarget Intention Recognition Method Based on Bidirectional Gated Recurrent Unit and Conditional Random Field with Space-Time Attention Mechanism[J]." Chinese Journal of Aeronautics, 2023, 36(3): 316-334.
[12] Teng F, Guo X P, Song Y F, et al." An Air Target Tactical Intention Recognition Model Based on Bidirectional GRU with Attention Mechanism[J]." IEEE Access, 2021, 9:" 169122-169134.
[13] Qu C X, Guo Z C, Xia S J, et al." Intention Recognition of Aerial Target Based on Deep Learning[J]." Evolutionary Intelligence, 2022:" 1-9.
[14] Zhou T L, Chen M, Wang Y H, et al." Information Entropy-Based Intention Prediction of Aerial Targets under Uncertain and Incomplete Information[J]." Entropy, 2020, 22(3):" 279.
[15] 周旺旺, 姚佩陽, 張杰勇, 等." 基于深度神經網絡的空中目標作戰意圖識別[J]." 航空學報, 2018, 39(11): 322476.
Zhou Wangwang, Yao Peiyang, Zhang Jieyong, et al." Combat Intention Recognition for Aerial Targets Based on Deep Neural Network[J]." Acta Aeronautica et Astronautica Sinica, 2018, 39(11):" 322476. (in Chinese)
[16] 翟翔宇,楊風暴,吉琳娜,等. 標準化全連接殘差網絡空戰目標威脅評估[J]. 火力與指揮控制, 2020, 45(6): 39-44.
Zhai xiangyu, Yang Fengbao, Ji Linna, et al." Air Combat Targets Threat Assessment Based on Standardized Fully Connected Network and Residual Network[J]." Fire Control amp; Command Control, 2020, 45(6): 39-44. (in Chinese)
[17] Lipton Z C, Berkowitz J, Elkan C. A Critical Reviewof Recurrent Neural Networks for Sequence Learning[EB/OL]." (2015-05-29)[2023-01-04]." https: ∥arxiv. org/abs/1506. 00019.
[18] La Rosa L E C, Sothe C, Feitosa R Q, et al." Multi-Task Fully Convolutional Network for Tree Species Mapping in Dense Forests Using Small Training Hyperspectral Data[J]." ISPRS Journal of Photogrammetry and Remote Sensing, 2021, 179:" 35-49.
[19] Elsayed N, Maida A S, Bayoumi M. Deep Gated Recurrent and Convolutional Network Hybrid Model for Univariate Time Series Classification[EB/OL]." (2019-02-20)[2023-01-04]." https: ∥arxiv. org/abs/1812. 07683.
[20] Li X C, Ma X F, Xiao F C, et al." Time-Series Production Forecasting Method Based on the Integrationof Bidirectional Gated Recurrent Unit (Bi-GRU) Network and Sparrow Search Algorithm (SSA)[J]." Journal of Petroleum Science and Engineering, 2022, 208: 109309.
[21] Dey R, Salem F M. Gate-Variants of Gated RecurrentUnit (GRU) Neural Networks[C]∥60th International Midwest Symposium on Circuits and Systems (MWSCAS), 2017:" 1597-1600.
[22] Lindemann B, Müller T, Vietz H, et al. A Survey onLong Short-Term Memory Networks for Time SeriesPrediction[J]." Procedia CIRP, 2021, 99:" 650-655.
[23] Cheng J P, Dong L, Lapata M." Long Short-Term Memory-Networks for Machine Reading[EB/OL]." (2016-01-25)[2023-01-04]." https: ∥arxiv. org/abs/1601. 06733.
[24] 陸光宇, 丁迎迎. 水下平臺對敵意圖識別技術研究[J]. 指揮控制與仿真, 2012, 34(6):" 100-102.
Lu Guangyu, Ding Yingying." Study on Intention Recognition to Foe of Underwater Platform[J]. CommandControl amp; Simulation, 2012, 34(6):" 100-102. (in Chinese)
[25] 朱可欽, 董彥非." 空戰機動動作庫設計方式研究[J]. 航空計算技術, 2001, 31(4):" 50-52.
Zhu Keqin, Dong Yanfei." Study on the Design of Air Combat Maneuver Library[J]." Aeronautical Computer Technique, 2001, 31(4):" 50-52. (in Chinese)
[26] Pinneri C, Sawant S, Blaes S, et al.nbsp; Sample-Efficient Cross-Entropy Method for Real-Time Planning[EB/OL]. (2020-08-14)[2023-01-04]." https: ∥arxiv.org/abs/2008.06389.
[27] Zhu W B, Webb Z T, Mao K T, et al." A Deep Learning Approach for Process Data Visualization Using t-Distributed Stochastic Neighbor Embedding[J]." Industrial amp; Engineering Chemistry Research, 2019, 58(22):" 9564-9575.
[28] 滕飛, 劉曙, 宋亞飛." BiLSTM-Attention:" 一種空中目標戰術意圖識別模型[J]." 航空兵器, 2021, 28(5): 24-32.
Teng Fei, Liu Shu, Song Yafei." BiLSTM-Attention: An Air Target Tactical Intention Recognition Model[J]. Aero Weaponry, 2021, 28(5):" 24-32. (in Chinese)
[29] Xue J J, Zhu J, Xiao J Y, et al." Panoramic Convolutional Long Short-Term Memory Networks for Combat Intension Recognition of Aerial Targets[J]." IEEE Access, 2020, 8:" 183312-183323.
An Approach to Air Target Intention Recognition
Based on FCN-BiGRU
Ding Peng,Song Yafei*
(Air and Missile Defense College,Air Force Engineering University,Xi’an 710051,China)
Abstract: With the development of science and technology and the change of operational methods, the reasoning of the enemy’s operational intent has begun to be introduced into the battlefield. Air defense operational decision-making has higher requirements for the accuracy of intent identification. The existing knowledge atlas, expert networks, and deep neural network methods still have gaps in the accuracy of identification, which is difficult to meet the requirements of air defense operations. Therefore, this paper combines the advantages of convolutional neural network and cyclic neural network to design a deep learning model FCN-BiGRU for air target intention recognition. The Full Convolutional Network (FCN) can extract the complex local features in air combat data, and the Bidirectional Gated Recurrent Unit (BiGRU) is used to capture the temporal characteristics of air combat intention data. It is proved by ablation experiments and comparative experiments that the accuracy rate of intention recognition of the FCN-BiGRU model far" reaching 98.71% and 1.14% higher than the existing air target intention recognition model, which provides a more powerful basis for air defense combat decision-making.
Key words: deep learning; air target; intention recognition; FCN; BiGRU