999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

代價敏感的空中目標意圖識別方法

2024-01-20 16:05:50丁鵬宋亞飛
航空學報 2023年24期
關鍵詞:特征模型

丁鵬,宋亞飛

空軍工程大學 防空反導學院,西安 710051

決策中心戰、聯合全域作戰等新型作戰概念都對指揮控制系統提出了新的能力需求,迫切需要加速信息優勢向決策優勢的轉變,誰能夠更快地處理戰場信息、理解態勢、實施決策并執行打擊,誰就能贏得主動。意圖識別是從信息域向認知域過渡的關鍵,是指揮決策的基本依據,也是戰場認知和智能決策的前提和基礎,一直被認為是戰場態勢感知的核心內容。對于防空反導這一空天領域的激烈對抗而言,對空中目標作戰意圖的準確識別,顯得尤為重要[1-2]。

意圖識別本質上屬于模式識別的范疇,已經廣泛應用于諸多領域,在軍事領域的研究中也取得了一些成果。傳統的意圖識別方法主要包括模板匹配[3]、專家系統[4]、貝葉斯網絡[5-6]等。文獻[3]首先根據專家經驗構建態勢模板,使用D-S 證據理論構建推理模型進行意圖識別,但是這種方式將戰場態勢割裂來看,沒有考慮意圖的欺騙性和靈活性;文獻[4]通過專家經驗構建知識庫,使用推理機得到推理結果,通過對專家系統進行分析,其主要依靠知識庫與完善的推理規則進行抽象處理,而戰場環境復雜多變,僅憑借推理規則的力量很難實現全面覆蓋;文獻[5-6]基于貝葉斯定理,通過概率論與圖論的結合構建貝葉斯網絡,實現了意圖識別。隨著深度學習的理論發展和廣泛應用,文獻[7]主要針對誤差反向傳播算法(Back Propagation,BP)在目標意圖識別過程中存在的收斂速度慢、容易陷入局部最優的問題進行改進,引入了Relu 激活函數和Adam 優化算法明顯提高了收斂速度;文獻[8]通過建立全連接殘差網絡進行空戰目標威脅評估,在較快的收斂速度下取得了較好的效果;文獻[9]通過仿真推演平臺推演目標數據,使用長短期記憶網絡(Long Short-Term Memory,LSTM)構建深度學習模型,取得了比傳統分類器更好的效果;文獻[10]利用隨機森林方法在抗噪聲性能、數據集適應力、訓練速度和實現方式等方面的優勢,實現了意圖識別,準確率有一定提升。然而,文獻[7-10]雖然克服了傳統意圖識別方法存在的弊端,有效突破了傳統方法面臨的一些瓶頸,提高了空中目標意圖識別的準確率,但是沒有考慮作戰的時序特點,把作戰的各個階段孤立地分開考慮,不符合防空作戰的實際情況。文獻[11-14]針對文獻[7-10]所提的模型存在的問題,基于卷積神經網絡(Convolutional Neural Networks,CNN)[15-16]和循環神經網絡(Recurrent Neural Network,RNN)[16-17]將戰場態勢的時序數據用于意圖識別建模,取得了更高的準確率。

然而,隨著空防博弈對抗的加劇,意圖識別方法的準確率始終不可能達到100%,也就是說,每種方法在識別過程中都存在或多或少的誤判問題,而對于敵意圖的誤判則有可能造成重大損失甚至導致整場戰斗的失敗。在空防對抗中,敵空中作戰力量的不同作戰意圖往往會對我方的領空安全造成不同的威脅,例如,敵方的攻擊意圖對我領空造成的威脅程度明顯高于其撤退意圖。因此,如果將敵方的“撤退”意圖誤判為攻擊意圖和將其攻擊意圖誤判為撤退意圖造成的風險必然是不等價的,前者可能僅僅會導致我方組織一次無用的防空行動,而后者則可能帶來毀滅性打擊,可見后者產生的代價將會遠遠高于前者,因此,在目標意圖識別中需要考慮誤判代價的影響。

加入空戰意圖誤判代價后的意圖識別問題可歸類為代價敏感分類問題,但是又不同于一般的代價敏感分類,主要體現在2 個方面:一是一般的代價敏感分類問題主要優化目標是使所有樣本誤分類產生的代價總和最小,例如股民購買多類股票的投資問題,人們最在乎的往往是整體投資的收益,而空戰意圖的誤分類問題則同時要通過強調高威脅意圖的準確率來減少關鍵錯誤,即在保證意圖識別準確率的情況下,優先降低高威脅意圖誤判為低威脅意圖的概率,使意圖識別的誤判傾向于低威脅意圖識別為高威脅意圖,生成更加保守的決策,保證我方安全;二是一般的代價敏感分類問題需要構建代價矩陣,對于多分類目標來講,代價矩陣的構建容易導致模型具有很大的不確定性,特別是對于防空作戰領域意圖誤判的代價矩陣,沒有統一的衡量標準,因此如果將一般的代價敏感分類模型用于空中目標的意圖識別問題,可能會導致模型的可靠性偏低。

針對上述問題,本文設計了GRU-FCN 深度學習模型實現空中目標意圖識別,并且針對該模型提出了一種空中目標意圖識別的代價敏感(Cost-sensitive Air target combat Intention Recognition,CAIR)改進策略,主要從2 個方面減少高代價誤判的情況:一是減少高威脅意圖到低威脅意圖的誤判;二是減少在威脅上存在較大差距的意圖之間的誤判,如圖1 所示。

圖1 意圖識別的誤判代價Fig.1 Misjudgment cost of intention recognition

在模型中,門控循環單元(Gated Recurrent Unit,GRU)[18-19]有著比LSTM[20-22]網絡更小的塊結構,并顯示出與其相當的性能,而且不需要額外的算法來支持該模型,具有更少的訓練參數、更少的內存需求、更少的訓練時間、更簡單的硬件實現,具備較強的提取長距離依賴信息的能力。CNN 由1986 年引入,廣泛應用與圖像和時間序列中,CNN 內的層可以從很少甚至沒有預處理的情況下從數據中提取出復雜的特征表示。全卷積網絡(Fully Convolutional Networks,FCN)[23-26]將CNN 模型后面的全連接層替換為卷積層,可以較好地提取意圖樣本的空間特征,同時避免了CNN重復存儲和計算卷積的問題,使模型更加高效。通過將GRU 和FCN 模型相結合,可以充分考慮空中目標意圖樣本的時間特征和空間特征,進一步提升意圖識別的效果。CAIR 則通過提出一種代價敏感的損失函數和代價敏感的評價指標,使GRU-FCN 模型具備代價敏感空中目標意圖識別的能力,然后通過實驗驗證了CAIR 改進在代價敏感意圖識別中的效果,并通過與其他模型的對比實驗證明了其對其他基于深度學習的空中目標意圖識別模型同樣具有普適性。

1 代價敏感空中目標意圖識別問題描述

1.1 作戰意圖類型選取

在不同的作戰環境下,敵方的空中作戰力量可能存在的意圖類型會有不同,確定意圖類型空間需要根據戰場環境、我方防空力量類型、敵方空中目標種類和任務背景等因素共同考慮。例如,文獻[27]根據海上防空的特點,將敵方空中目標的可選意圖空間確定為{撤退,掩護,攻擊,偵察};文獻[11]以敵方空中目標近岸空襲軍事建筑為研究背景,建立的敵方空中目標的意圖空間為{攻擊,突防,偵察,佯攻,電子干擾,監視,撤退},本文所針對的防空作戰場景與文獻[11]類似,因此,建立包含7 種意圖類型的作戰空間,包括{攻擊,突防,干擾,監視,偵察,佯攻,撤退}。

在確定了作戰意圖空間后,參考仿真推演的結果數據,結合專家經驗,將各意圖類型對我方的威脅程度由大到小進行排序,并且分別設置{1,2,3,4,5,6,7}對各意圖類型進行映射處理,將意圖類型對應為模型能夠識別并訓練的編碼,編碼越小,威脅程度越高,意圖威脅程度的排序及其相應編碼如圖2 所示。根據威脅程度排序,以攻擊和偵察意圖為例,將攻擊意圖編碼為1,偵察意圖編碼為5,如果模型的最終輸出結果為1,則可認為模型將敵方空中目標的作戰意圖識別為攻擊。

圖2 作戰意圖排序與編碼Fig.2 Sequencing and coding of operational intention

1.2 作戰意圖特征選取

敵機意圖特征的選取同樣需要考慮多方面因素,意圖識別的目的就是根據雷達等傳感器獲取的敵空中作戰力量的時序數據判斷敵機的作戰意圖。在執行空中任務時,敵機同一種意圖類型往往表現出相同或相似的特征,例如,敵殲擊機在空戰攻擊時通常采用較高的飛行速度,最高可達1 400 km/h,執行高空突防任務的敵機飛行高度往往會在10~11 km[8]。同樣,執行偵察任務時,通常會保持所有機載雷達處在開啟狀態,轟炸機在執行轟炸任務時敵我距離隨著時間的推移逐漸接近,在撤退時敵我距離逐漸增大。

綜上所述,本文選取12 種與敵機作戰意圖緊密相關的特征信息構成空中目標意圖特征空間,經過預處理后輸入代價敏感的GRU-FCN 模型進行意圖識別。意圖特征空間主要包括數值型和非數值型2 種數據,數值型數據包括{高度,敵我距離,速度,加速度,航向角,方位角,雷達反射面積},非數值型數據包括{敵機類型,對空雷達狀態,對地雷達狀態,機動類型,干擾狀態},如表1所示。

表1 空中目標意圖特征空間Table 1 Feature space of air target intention

對于數值型數據,使用1 個浮點型數據反映其大小,并對其按照式(1)進行Min-Max 標準化。對于任意數值型數據x,標準化后的數據x′為

式中:X為數據x所屬的特征種類的數據集合;max{X}為數據集合X中的最大值;min{X}為數據集合X中的最小值。

對于非數值型數據,敵機類型數據按照敵機的種類型號進行編碼;對空雷達狀態、對地雷達狀態和干擾狀態編碼為1 或0,1 表示開啟,0 表示關閉;機動類型主要以美國國家航空咨詢委員會(NASA)學者根據空戰中最常用的機動方式提出的“基本操縱動作庫”[28]進行編碼,包括{最大加速,最大減速,最大過載爬升,最大過載俯沖,最大過載右轉,最大過載左轉,穩定分型}7種機動動作。

2 意圖識別模型描述

本節詳細介紹本文提出的GRU-FCN 網絡和CAIR 改進方法,GRU 可以捕捉一系列的長期時序依賴,完成對敵方空中目標的時序特征學習。FCN 模型善于提取時間序列數據細節變化規律,有效提高意圖識別的準確率。為了充分利用它們的優點,將其組合成一個新的混合模型,以進一步提高意圖識別精度,實驗證明該模型在當前空中目標意圖識別領域準確率、損失值等評價指標上超越了其他模型,取得了最好的效果。CAIR 主要通過2 個方面的改進,使模型具備防空作戰代價敏感意圖識別的能力。在2.1~2.3 節中分別對GRU、FCN 和CAIR 進行了介紹,在2.4 節中給出了所提模型整體框架的結構細節。

2.1 門控循環單元

GRU 作為RNN 的變體,具有和RNN 相類似的遞歸結構,在處理時間序列數據是具有很好的“記憶”功能。GRU 由2 個門(重置門和更新門)組成,能夠有效緩解深度RNN 訓練過程中可能出現的梯度消失和梯度爆炸的問題,同時結構較為簡單,訓練效率高,可以滿足防空作戰對于時間緊迫性的要求。

GRU 的內部結構如圖3 所示。GRU 分別使用上一時刻的輸出狀態ht-1和當前時刻的輸入序列值xt作為輸入,輸出為當前時刻的狀態ht。其主要通過重置門rt和更新門zt來更新模型狀態,重置門rt控制遺忘歷史狀態信息的程度,使網絡能夠丟掉不重要的信息,重置門的值越大說明遺忘的信息越少,反之越多。更新門zt控制前一時刻的狀態信息被代入當前狀態之后在當前狀態中的比重,使網絡能夠記憶較長時間的信息[29],更新門的值越小說明傳遞的信息越少,反之則越多。其內部計算公式為

圖3 GRU 內部結構Fig.3 Internal structure of GRU

式中:σ為sigmoid 激活函數,其作用是將中間狀態轉換到[0,1]范圍內,如果其值接近于0,則表示沒有新的信息被記憶;ht-1、ht分別是t—1 時刻和t時刻的輸出狀態;xt為t時刻的輸入序列值;為候選輸出狀態;為各部分相對應的權值系數矩陣;tanh 為雙曲正切函數,作為激活函數使用,因為它的二階導數在趨于0 之前可以保持很長的范圍,所以使用tanh 函數可以有效地解決循環神經網絡中普遍面臨的梯度消失問題;⊙為矩陣的哈達馬積。

2.2 全卷積網絡

CNN 在處理類似網格結構的數據時表現優異,現已廣泛應用于時間序列分類[30-32]領域。CNN 一般由卷積層、池化層和全連接層組成。其中卷積層的作用是提取數據的復雜局部特征,主要通過稀疏交互、參數共享和等變表示等來提高學習效率,卷積后通過不同的激活函數實現非線性變換;池化層在保證輸入的表示近似不變的情況下,根據不同的池化函數對輸入值進行少量平移調整或特征降維,并在一定程度上防止過擬合;卷積層和池化層產生的特征圖在經過全連接層后將會映射為一個固定長度的特征向量。與CNN 在卷積層之后使用若干全連接層得到固定長度特征向量不同,FCN 使用不同參數的卷積層替換所有的全連接層。近年來,越來越多的學者將FCN 用于時序數據處理問題,而且在處理時序數據時可以以任意序列長度作為輸入,因此FCN在處理時序數據方面比CNN 更加靈活,經過FCN 后能夠保留更多的序列數據特征。空中目標意圖的特征空間屬于一種高維度的時間序列數據,可以使用FCN 提取時序特征。

FCN 模塊由3 個時序卷積(Temporal Convolutional)模塊組成,每個時序卷積模塊均包括1 個一維卷積層、1 個Batch Normalization 層(后接1 個ReLU 激活函數)和1 個Dropout 層(丟棄率為0.3)組成。根據空中目標意圖特征數量,設置第1 個卷積層的輸入通道數為12,輸出通道數為128,卷積核大小為8;第2 個卷積層的輸入通道數為128,輸出通道數為256,卷積核大小為5;第3 個卷積層的輸入通道數為256,輸出通道數為128,卷積核大小為3。由此,切片后的航跡數據特征從12 維映射到了128 維,擴展了特征數量。

2.3 空中目標意圖識別的代價敏感改進方法

GRU-FCN 模型的輸出不具備代價敏感的特性,本節將重點介紹針對空中目標意圖識別的代價敏感改進方法,通過加入本文提出的CAIR改進使模型具有代價敏感意圖識別的能力。

在訓練階段,GRU-FCN 模型采用交叉熵損失(Cross Entropy,CE)[33]函數計算損失值,網絡在整個訓練集上的損失函數為

式中:N表示訓練集中訓練樣本的總數;M為訓練集中意圖標簽種類總數;p(xn,m)為訓練集中第n個樣本對應于真實標簽類別m的概率;q(xn,m)為網絡模型輸出值的第n個樣本對應于第m個類別的概率。

如果對式(3)表示的CE 函數按照標簽的類別進行變換,得到

式中:Hm(p,q)表示數據集中樣本真實分類為m的所有樣本的總交叉熵損失,通過式(4)可以看出,模型對于不同的樣本分類具有相同的權重,因此CE 函數不能處理代價敏感問題。

針對引言中提到的代價敏感的空中目標意圖識別問題區別于一般代價敏感問題的2 個特點,本文提出了針對代價敏感的空中目標意圖識別的CAIR 改進方法,CAIR 主要由改進損失函數和改進評價指標2 個部分組成。

1)損失函數

由式(4),p為隨機變量的真實分布,q為模型的實時輸出,為近似分布,深度學習中交叉熵損失函數的作用是通過訓練使模型的近似分布q逼近真實分布p,q與p越接近,損失值越小,反之則越大。根據式(3),每個樣本的交叉熵為

在對數據集中每個樣本的交叉熵計算中,如果將對數函數在x∈(0,1)區間的函數中轉換為正值并且進行左右對稱變換后統計分類錯誤的函數值之和,將式(5)替換為

理論上同樣可以達到使模型的近似分布逼近真實分布的效果。

然而在實際訓練的過程中對數函數的求和會出現梯度損失或者梯度爆炸的問題,因此考慮將對數函數替換為函數值控制在(0,+∞)的指數函數。

通過實驗對比式(5)和式(7)在GRU-FCN模型訓練中的效果,結果如圖4 所示。圖4 中,H代表使用式(5)中H(p,q|xn)損失函數,準確率為98.57%,H′代表使用式(7)中H′(p,q|xn)損失函數,準確率為97.95%。表明式(7)中的H′(p,q|xn)函數成功在訓練過程中取得了與H(p,q|xn)類似的效果。

圖4 損失函數效果對比Fig.4 Comparison of loss function effects

按照意圖的威脅程度對敵空中目標的7 種作戰意圖排序為:攻擊>突防>干擾>監視>偵察>佯攻>撤退,意圖誤判的差距越大,損失也就越大。同時,高威脅意圖誤判為低威脅意圖造成的損失也應當大于低威脅意圖誤判為高威脅意圖造成的損失。以此思路改進H′(p,q|xn)函數得到C-CE 損失函數L(p,q),當數據集中第n條數據的真實標簽值為yn時

式中:K1表示低風險意圖誤判為高風險意圖的代價因子;K2表示高風險意圖誤判為低風險意圖的代價因子,且K1<K2。

2)評價指標

GRU-FCN 模型一般采用準確率(Accuracy,ACC)作為評價指標,對于給定的測試數據集,分類模型中的準確率對應于所有預測正確的樣本數與數據集中總樣本數的比值

式中:Ti表示數據集中真實標簽類別為i的樣本中被正確分類的總數;Fi,j表示數據集中真實標簽類別為i的樣本中被錯誤分類到類別j的總數,如圖5 所示。圖5 中以監視意圖為例展示了F、T和模型意圖之間的對應關系,預測為監視意圖時代價為0,預測為其他意圖時長度越長,代價越高。通過式(9)也可以得到,ACC 評價指標對于不同的樣本分類同樣具有相同的權重,因此對于代價敏感的意圖識別問題同樣不能使用ACC 作為評價指標。

圖5 監視意圖的可能意圖識別結果Fig.5 Possible identification results of monitoring intention

評價指標,決定我們對于模型想要得到的結果的期望,同樣需要體現代價敏感特性,因此在ACC 指標中加入懲罰機制,對于分類差距過大的樣本在評價指標中給予較高的懲罰,對于高威脅樣本誤判與低威脅樣本的情況同樣給予較高的懲罰,對式(9)進行改進,加入懲罰因子,得到CACC 評價指標

式中:J1表示低風險意圖誤判為高風險意圖的懲罰因子;J2表示高風險意圖誤判為低風險意圖的懲罰因子,且J1<J2。

通過調整CAIR 中的參數,可以調節空中目標意圖識別的代價敏感程度,本文通過調試和對比篩選實驗中整體代價最小的參數取值作為模型中CAIR 的參數取值,定義高威脅意圖誤判為低威脅意圖的情況為關鍵誤判,篩選關鍵誤判為0 的情況時的模型稱為CAIR-key 模型,此時的參數取值作為CAIR-key 模型中的CAIR 參數取值。

2.4 模型整體框架

模型結構的主體包括1 個GRU 模塊和1 個FCN 模塊。GRU 模塊負責學習時間序列數據的長期趨勢,FCN 模塊負責對切片后的時序數據進行特征提取,由于采用了全卷積網絡,模型能更好地捕捉到空戰意圖時序數據的局部信息。GRU 模塊與FCN 模塊組合后,既能學習空戰意圖時序數據的長期變化趨勢,又能提取出數據內部的細節變化規律。圖6 展示了模型的整體框架。圖6 中,第i維度的意圖特征使用Xi表示將包含不同空戰意圖特征的時間序列數據由GRU 層進行處理。同時,將相同的時間序列數據通過由濾波器大小為128、256 和128 的一維卷積層實現的全卷積網絡。這可以分3 個步驟進行,每個步驟的全卷積網絡都涉及到ReLU 激活和批處理規范化。應用全局平均池化,將轉換后的時間序列數據輸出包含目標類可靠性的特征圖,減少了網絡的參數數量,消除了過擬合的風險。池化層和GRU 層的輸出結果通過連接層進行連接得到輸出值h。最后,應用softmax 來進行多類分類。此時的softmax 層數等于輸出層數即空戰意圖標簽類別總數。

圖6 整體模型框架Fig.6 Overall model framework

式中:標量y′為模型預測的意圖結果;w為需要學習的權重矩陣;b為偏置向量。

模型訓練的過程中,采用C-CE 損失函數計算損失值,使用C-ACC 評價指標根據樣本意圖標簽對模型進行評價,使GRU-FCN 模型保留代價敏感意圖識別的結果,具備代價敏感意圖識別的能力。在測試階段,將測試集的數據輸入CAIR 改進的GRU-FCN 模型,獲得敵空中目標的意圖識別結果。

3 實驗分析

3.1 實驗數據與環境

實驗數據來源于Air Combat Maneuvering Generator(ACMG),由空戰領域專家對其標簽進行修訂。共10 500 個樣本,包括8 400 個訓練樣本和2 100 個測試樣本,每類意圖占比為14.3%。時間步長為12 個采樣周期,特征維度為12。

實驗使用Python3.9 語言,在Quadro RTX 5000/PCle/SSE2 GPU 和CUDA11.5 加速環境下進行,采用Pytorch 深度學習框架,電腦配置為x86-64 CentOS7 PC 系統、Intel? Xeon(R)Sliver 4110 CPU @2.10 GHz、64 GB 內存。實驗設置的訓練輪次為200,批量大小為32。

3.2 性能評估指標

為驗證本文提出的GRU-FCN-CAIR 代價敏感空中目標作戰意圖識別模型的性能,采用了4 種指標來評估網絡的分類情況,即準確率(Accuracy)、誤判代價(Cost)、高威脅誤判量(Herror)、低威脅誤判量(L-error)。它們的計算公式為

式中:WA、WC、WH、WL分別為準確率、誤判代價、高威脅誤判量、低威脅誤判量的取值。

評價指標C-ACC 的取值WCA和WA、WC指標之間的關系為

實驗中為了更直觀形象地表現模型的效果,使用Accuracy和Cost代替C-ACC 作為評價指標。

3.3 實驗參數設置

模型中的超參數影響著實驗結果和運行速度,因此,本文通過實驗測試選取能使模型達到滿意性能的超參數,不同超參數下的準確率對比如表2~表4 所示。

表2 不同優化器下準確率對比Table 2 Comparison of accuracy under different optimizers

表3 不同訓練周期下準確率對比Table 3 Comparison of accuracy under different training cycles

表4 不同學習率下準確率對比Table 4 Comparison of accuracy under different learning rates

關于優化器,本文比較了4 種優化算法,Stochastic Gradient Descent(SGD)[34]、Root Mean Square prop(RMSprop)[35]、Adaptive Moment Estimation(Adam)[36]和Adamax[36]。從表2 可以看出,與其他優化器相比,Adam 優化器準確率最高。因此,選擇Adam 為本文模型的優化器。

對于訓練周期,在200 輪以后隨著訓練周期的增加,模型的準確率沒有提升,因此本文選取200 個訓練周期。

從表4 得到,模型在學習率為0.001 的時候準確率最高,且與其他學習率時的準確率相比有著明顯的優勢,因此采用0.001 的學習率。

將以上對比實驗結果確定的實驗訓練過程中的超參數以及所選模型的默認具體結構數據匯總如表5 所示。

表5 模型中的超參數Table 5 Hyperparameters in model

3.4 實驗結果與分析

3.4.1 GRU-FCN 結果分析

GRU-FCN 空中目標意圖識別模型的實驗結果如圖7 所示,在60 輪左右達到收斂狀態,訓練集的準確率最高可達100%,測試集的準確率在98%上下浮動,最高可達到98.57%。

圖7 GRU-FCN 模型的準確率和損失值Fig.7 Accuracy and loss value of GRU-FCN

為進一步觀測模型的意圖識別結果,制作了如圖8 所示的混淆矩陣表示真實意圖與模型的各預測意圖之間的關系,對角線表示識別正確的樣本個數,對角線以上表示從各低威脅的意圖誤判為高威脅的意圖的樣本個數,對角線以下表示從各高威脅的意圖誤判為低威脅的意圖的樣本個數,混淆矩陣中數據的顏色越深代表數值越大。從圖中可以看出,模型對于7 種意圖識別的準確率都較高,其中撤退的意圖識別精度最高,可以達到100%,攻擊和佯攻的意圖識別精度最低,分別為95.33%和97.0%。除此之外發現,攻擊和佯攻、監視和偵察意圖間會出現部分識別混淆的情況。通過分析,以上2 組意圖之間特征相似度較高,特別是佯攻意圖對防空作戰一方具有很強的欺騙性,因此2 類意圖的樣本本身可能不存在較大的差異,出現2 類意圖相互混淆的情況,符合實際[37]。

圖8 GRU-FCN 意圖識別結果的混淆矩陣Fig.8 Confusion matrix of GRU-FCN intention recognition results

為直觀顯示GRU-FCN 提取意圖特征信息的效果,使用T-distributed Stochastic Neighbor Embedding(T-SNE)[38]算法將其提取到的特征降維,映射為二維特征,作為橫縱坐標點,繪制特征投影圖。如圖9 所示。由圖9 可以看出,模型的類內距離較近,類間距離較遠,說明GRUFCN 的特征提取效果較好,對于不同的意圖類型都進行了較好地分類。

圖9 GRU-FCN 提取特征降維后投影效果Fig.9 Projection effect after dimension reduction of features extracted by GRU-FCN

綜上,通過GRU-FCN 模型的準確率、混淆矩陣、提取特征降維后的投影圖可以發現,GRUFCN 在非代價敏感的空中目標意圖識別上表現優異,一定程度上達到了在戰時輔助指揮員作戰決策的要求。

3.4.2 加入CAIR 后模型的代價敏感對比分析

為驗證本文提出的針對代價敏感空中目標意圖識別的CAIR 方法的有效性,現對原始的GRU-FCN 模型、加入CAIR 的GRU-FCN 模型和加入CAIR 后通過調整參數使關鍵誤判為0 的模型進行對比分析,通過調試和對比選取較好實驗結果的CAIR 中的參數,如表6 所示,實驗結果如表7、圖10、圖11 所示。

表6 CAIR 中參數取值Table 6 Parameter value in CAIR

表7 模型的代價敏感對比Table 7 Comparison of cost sensitivity of models

圖11 CAIR 和CAIR-key 的混淆矩陣Fig.11 Confusion matrix of CAIR and CAIR-key

圖10 展示了不同模型訓練過程中的準確率和損失值的變化情況,“train”代表訓練集上的表現,“test”代表測試集上的表現,CAIR 表示加入CAIR 改進的GRU-FCN 模型,CAIR-key 表示加入CAIR 后關鍵誤判為0 的模型。表7 展示了不同模型在4 種評價指標下的表現,可以發現,加入CAIR 之后的模型Accuracy 為96.14%,相比于原始模型雖略有下降但是仍然保持在較高的水平,Cost 從原有的0.346 7 降到了0.175 7,誤判代價有了明顯下降,H-error 也從18 降到了4,L-error 有所上升,說明加入CAIR 后模型將空中目標的意圖識別傾向于決策更加保守的方向。通過調整參數使模型的H-error 變為0 后,模型的Accuracy 有些許下降,但是依舊能夠超過90%,達到92.38%,Cost 變為0.225 7,相比于原有的GRU-FCN 模型同樣有較為明顯下降,達到了代價敏感的空中目標意圖識別的效果。為了更加直觀呈現出CAIR 的效果對比,對于測試集的所有樣本識別結果繪制了如圖11 的混淆矩陣,分別展示了加入CAIR 和CAIR-key 的代價敏感意圖識別情況,并與圖8 中未加入CAIR 的識別結果作對比,可以看出在加入CAIR 后的模型將高威脅意圖誤判為低威脅意圖的情況明顯減少。

3.4.3 消融實驗分析

為進一步論證本文所提的CAIR 方法的CCE 和C-ACC 的有效性,通過消融實驗進行對比實驗分析,通過表8 和圖12 發現,只加入C-CE 的模型和只加入C-ACC 的模型Cost分別為0.264 7和0.227 6,H-error 分別為12 和7,相比于原始GRU-FCN 模型的0.346 7 和18,Cost 和H-error均有明顯降低,證實了C-CE 和C-ACC 的在代價敏感意圖識別方面的有效性。另外,3 個模型相對于原始GRU-FCN 都對將攻擊意圖誤判為佯攻意圖這一代價較高的關鍵誤判情況進行了改善,并且,同時加入C-CE 和C-ACC 的模型Cost為0.175 7,H-error 為4,相比于其他3 個模型的效果最好,進一步證明了CAIR 的代價敏感意圖識別效果。

表8 消融實驗結果Table 8 Results of ablation experiment

圖12 C-CE 和C-ACC 的混淆矩陣Fig.12 Confusion matrix of C-CE and C-ACC

3.4.4 模型魯棒性分析

為驗證實戰條件下如果無法獲取某一特征或者部分特征數據獲取錯誤對模型意圖識別結果造成的影響,驗證本文所提模型的魯棒性,對原有的數據集按下式分別添加信噪比為10、5、0、—5、—10 dB 的高斯白噪聲。

式中:x為原始信號;n為噪聲信號;N為原始信號長度;S為信噪比;y為通過信噪比計算得到的噪聲信號。在不同信噪比下訓練測試模型,并對比不同信噪比條件下的意圖識別效果,結果如表9 所示。表9 中,使用原始的GRU-FCN 模型和加入CAIR 后的GRU-FCN 模型在不同信噪比下進行對比。通過表9 發現,隨著信噪比的降低,模型的準確率呈現下降趨勢且總代價呈現上升趨勢,但是在信噪比為-10 dB 時模型的準確率仍可以超過85%,且加入CAIR 的模型總誤判代價低于1.5,遠低于未加入CAIR 的原始GRU-FCN 模型。證明本文所提的模型在應對環境噪聲時準確率變化波動較小,魯棒性較好。

表9 模型在不同信噪比時識別情況對比Table 9 Comparison of recognition of models with different SNRs

3.4.5 不同模型應用CAIR 對比分析

為驗證本文提出的模型相比于現有模型的優越性以及本文所提CAIR 方法的普適性,現將其分別與文獻[9]提出的基于長短期記憶網絡(LSTM)的戰場對敵目標戰術意圖識別模型;文獻[13]提出的基于BiGRU-Attention 的空中目標作戰意圖識別方法;文獻[11]提出的Attention-TCN-BiGRU空中目標意圖識別模型等3 種現今常用的表現優異的空中目標意圖識別模型進行對比實驗,實驗結果如表10和圖13所示。

表10 不同意圖模型對比Table 10 Comparison of different intention recognition models

圖13 模型對比實驗的準確率和損失值Fig.13 Accuracy and loss value of model comparison experiment

由圖13 可以看出,以上對比模型均在訓練60輪左右時達到收斂狀態,各模型在加入CAIR 后準確率略有降低,但是并沒有影響模型的收斂速度。各模型在加入CAIR 后均有準確率降低的現象,考慮是因為未加入CAIR 的模型的結果單一追求準確率最高,在加入CAIR 后,模型的結果為綜合準確率和代價敏感屬性后的結果,并不一定在準確率方面取得極大值。通過表10 中可以發現,本文提出的GRU-FCN 意圖識別模型相對于其他3 種意圖識別模型的準確率明顯提高,同時,加入CAIR 的GRU-FCN 模型獲得了最小的誤判代價。通過對比發現,所有的意圖識別模型在加入CAIR 后的誤判代價均明顯降低,且H-error 減少、L-error 增加,說明誤判成功向著減少關鍵代價、決策更加保守的方向靠攏,成功證明了本文所提代價敏感空中目標意圖識別方法的普適性。

為了探究CAIR 機制對不同意圖類型的效果和規律,按照意圖類型分類別計算不同模型在4 種評估指標上的結果,如表11所示。表11中,①~④分別代表LSTM、BiGRU-Attention、Attention-TCN-BiGRU 和GRU-FCN;⑤~⑧分別代表加入 CAIR 后的 LSTM、BiGRU-Attention、Attention-TCN-BiGRU 和GRU-FCN 模型。

表11 不同模型對比中各評估指標結果Table 11 Results of evaluation indexes of ablation experiment

從表11 得出,在加入CAIR 后,對于攻擊意圖的識別準確率有明顯提高,誤判代價明顯大幅度降低,分析原因,是攻擊意圖的威脅性最大,通過優先保證攻擊意圖的準確率減少了出現關鍵代價誤判的情況;對于撤退意圖所有模型的準確率都接近100%,因此誤判代價幾乎為0,考慮是因為撤退意圖帶有明顯區別于其他意圖的特征,自身容易分類;在加入CAIR 后幾乎所有模型的H-error 減少,L-error 增加,證明了該方法的代價敏感效果,同樣有效減少了關鍵代價的誤判;對于進攻意圖和佯攻意圖,在加入CAIR 模型后,不同模型對進攻意圖識別的準確率明顯上升,誤判代價明顯減小,對佯攻意圖識別的準確率下降,代價增大,分析原因,由于進攻和佯攻意圖本身欺騙性強、不易區分,可能是模型為使決策偏于保守,將介于進攻和佯攻意圖之間的情況向識別為進攻的方向靠攏。

4 結論

通過理論研究和實驗發現,空中目標的意圖識別問題還存在以下突出問題,在接下來的工作中對于以下問題將重點關注。

1)作戰中對于時間的緊迫性要求高,如何將意圖識別發展為準確有效的意圖預測,為作戰決策爭取更多寶貴時間的問題。

2)對于相似性高的意圖如何區分的問題。

3)現有的研究多是將數據的時序特征與位置、速度和加速度等空間特征當作獨立的變量分開考慮,實際的防空作戰應該是時間信息和空間信息相對應的統一整體,考慮時間信息與空間特征的融合可能會使模型的效果有進一步的提升。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 国产麻豆精品在线观看| 久久久亚洲色| 欧美成人区| 青青草综合网| www.youjizz.com久久| 精品国产免费人成在线观看| 亚洲中文字幕久久无码精品A| 久久久91人妻无码精品蜜桃HD| 天天色天天综合网| www精品久久| 亚洲精品成人片在线播放| 亚洲综合色婷婷| 国产综合精品日本亚洲777| 日韩在线中文| 国产午夜在线观看视频| 国产人妖视频一区在线观看| 四虎国产永久在线观看| 在线精品自拍| 亚洲熟女中文字幕男人总站| 欧美一级高清片欧美国产欧美| 免费看的一级毛片| 91免费国产在线观看尤物| 色婷婷亚洲综合五月| 九九热视频在线免费观看| 在线免费不卡视频| 成人午夜天| 国产成人夜色91| 欧美一区二区自偷自拍视频| 国产精品部在线观看| 国产精品yjizz视频网一二区| 久久精品免费看一| 亚洲视频a| 国产乱子伦一区二区=| 午夜精品一区二区蜜桃| 国产成人免费观看在线视频| 亚洲男人天堂2020| 无码中文字幕精品推荐| 97国内精品久久久久不卡| 亚洲日韩国产精品综合在线观看| 国产精品成人啪精品视频| 国产精品短篇二区| 97免费在线观看视频| A级毛片无码久久精品免费| 国产成人h在线观看网站站| 国产精品亚洲天堂| 无码内射在线| 国产成人一区| 国产精品蜜臀| 成人福利在线观看| 成人日韩精品| 欧美丝袜高跟鞋一区二区| 9966国产精品视频| 国产日韩欧美在线播放| 在线无码私拍| 最新亚洲人成网站在线观看| 国产精品第| 国产久草视频| 婷婷六月综合网| 蜜桃视频一区| 在线观看av永久| 国产极品粉嫩小泬免费看| 欧美一区二区人人喊爽| 无码一区18禁| 亚洲男人的天堂久久香蕉| 久久香蕉国产线看精品| 欧美精品亚洲精品日韩专区| www.狠狠| 欧美黄色a| 91久久夜色精品国产网站| 国内熟女少妇一线天| 久久久久久久久久国产精品| 婷婷综合缴情亚洲五月伊| 久久中文电影| 国产91线观看| 日本91视频| 国产产在线精品亚洲aavv| 国产福利在线观看精品| 亚洲国产成人超福利久久精品| 欧美一道本| 在线精品自拍| 国内精品视频在线| 在线免费观看AV|