999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

戰場目標實體類型識別的魯棒圖神經網絡方法

2024-01-15 14:37:08周賢琛馬揚程光權王紅霞
智能系統學報 2023年6期
關鍵詞:模型

周賢琛,馬揚,程光權,王紅霞

(1. 國防科技大學 文理學院,湖南 長沙 410072; 2. 國防科技大學 系統工程學院,湖南 長沙 410072)

隨著信息戰、算法戰等新型作戰樣式的出現,人們意識到取得作戰勝利的關鍵之一在于獲取信息優勢并做出準確合理決策。指揮人員通過對戰場數據進行準確實時地分析,可以輔助處理包括預警偵察、實體識別、跟蹤監視、指揮決策、效果評估等問題。其中,實體識別[1]作為確定敵方身份、屬性、型號的關鍵步驟,成為了后續跟蹤監視和戰術決策的基礎。

實體識別問題離不開對預警偵察階段的數據分析。目前,預警偵察主要手段包括雷達探測[2]、輻射源偵測[3]、航天偵察、水聲對抗偵察等技術手段。技術人員通過對各種手段獲取的目標特征數據分析比對來識別實體目標。相比航天偵察、水聲對抗偵察等應用場景有限的技術手段,雷達目標識別技術[4-5]在戰場環境中具有更廣泛的應用。該技術通過探測回波提取目標高度、速度、P 顯輪廓、分辨率起伏等特征進行目標類型的識別,或根據目標的ISAR 成像信息獲取其幾何特征和形狀特性開展目標識別[6-7]。但由于雷達信號強度與目標距離相關,遠距離的目標識別率較低,目前通常借助深度學習[8]手段對獲取的特征進行分析來提高這些目標的識別率。但是,僅僅通過分析單目標特征識別目標的范圍相比能夠發現目標的范圍要小很多。

而實際作戰場景中,雷達探測設備實時獲取的戰場態勢數據,包含了大量緊密交互的動態實體數據,如坦克、轟炸機、導彈等。它們的共同特點是空間位置和屬性信息通常都隨著戰場態勢的變化而變化,如飛機、導彈在飛行過程中空間位置、速度方向的改變。在指揮信息系統的控制下,這些作戰實體構成的節點間存在著緊密的聯系,充分利用作戰實體間的聯系將有助于擴大雷達識別范圍。

作戰實體數據的交互關系一般可以用圖數據來表示。圖數據是一類廣泛存在于各領域的非結構化的數據,譬如社交網絡[9]、交通預測[10]、生物分子[11-12]網絡等。針對圖數據的處理,目前已經有了許多圖機器學習算法,特別是近些年興起的圖神經網絡,包括圖卷積神經網絡[13-14](graph convolutioanl networks, GCNs)、圖注意力神經網絡[15](graph attention networks, GATs)等。這些方法可以有效地處理這類圖數據并取得很好的表現。

但是將圖神經網絡直接運用到戰場態勢數據面臨特殊的挑戰。首先,運用圖上的神經網絡方法的前提是需要通過已有的信息構建出反映敵方作戰實體連接的圖模型,而雷達等偵查系統探測到的敵方數據大多是各個作戰實體獨立的狀態屬性信息,作戰實體之間的連接關系并不能夠直接獲取到;其次,由于電磁干擾等手段的存在,構建的作戰實體關系圖模型存在一定的誤差,用于處理戰場數據的圖神經網絡的模型必須具有很強的魯棒性,而當前常見的圖神經網絡抗干擾能力不強,面對帶噪聲的圖數據時效果不佳,難以直接應用。

因此,本文提出了一類用于預測戰場作戰實體的類型的圖神經網絡模型,主要包括基于戰場態勢數據的圖模型構建以及魯棒圖神經網絡的應用預測2 個方面。基于戰場態勢數據的圖模型構建為在該類場景中運用各種圖網絡分析方法奠定了基礎;搭建的魯棒圖神經網絡,可運用到戰場環境的態勢數據中,提前探知并識別作戰實體類型,從而提高了目標識別的范圍,更有助于指揮員實時決策。就我們所知,本論文是首次通過軌跡相似度關系從戰場態勢數據中抽取出了圖模型,同時是首次將圖魯棒神經網絡用于戰場態勢數據的分析。

1 作戰實體關系圖抽取

以兵棋仿真系統中雷達探測設備獲取的戰場態勢數據為例,其包括一段時間內多個觀測時刻{t0,t1,···,tm}的敵方各個作戰實體的狀態數據Ki,即{K0,K1,···,Km}。某一時刻ti捕獲到的態勢數據Ki,其結構表示如表1 所示。

表1 某時刻 ti獲取到的戰場態勢數據KiTable 1 Situation data of battlefield Ki inti

如表1 所示,ti時刻可獲取的態勢數據,包括發現范圍內敵方實體的位置、速度、航向信息以及識別范圍內實體的類型信息。由于發現范圍內、識別范圍之外的實體類型通常不能直接獲取,這將一定程度限制了決策。如果能借助數據分析的手段挖掘實體間的緊密關系,并通過已經識別的實體類型較為準確地預測出未知作戰實體類型將有助于擴大目標識別半徑,輔助決策。

由圖1 中離散的目標點構建出作戰實體間的連接關系,常用方法是依據當前時刻作戰實體的距離或屬性構建,但這樣的圖模型構造簡單,但是忽略了作戰實體的大量歷史數據信息,構建的圖模型可能存在很大誤差。另外,由于飛機航向速度等信息隨時間變化擾動較大,僅僅根據當前時刻實體的屬性來構建連接關系則會產生較大的誤差。而一般而言,同一類型的作戰實體傾向于執行同一任務。例如轟炸機群往往會對特定目標點執行轟炸任務,殲擊機群會執行護航殲敵等任務。因此,與一般構造圖關系方法不同,本文借助敵方作戰實體軌跡的相關性來構建出敵方作戰關系網絡。

圖1 紅方雷達探測到態勢信息Fig. 1 Battlefield situation information of red flag

如何衡量兩個作戰實體位置軌跡的相關性成為了衡量作戰實體連接程度的關鍵因素。假設某一時間段內,總共偵查到N個敵方作戰實體。在{t0,t1,···,tm}內,每一個實體在其中的某段時間內被探測到,記第n個實體的觀測到的位置序列Li構成的軌跡為R(n)。由于不同實體進入探測范圍內時間不一致,不同實體的軌跡長度是不完全一致的。

本文根據R(n)計算敵方各個作戰實體之間軌跡的相似度,采用動態時間規整(dynamic time warping, DTW)[16-17]算法,來計算不同實體間軌跡的相關度。該算法早期被用于判別兩段語音相似度,其優勢在于可以對時間序列的延展或壓縮具有一定的適應能力。DTW 方法同樣可以應用到戰場作戰實體軌跡的相似度衡量。在戰場環境中,同一類型的實體可能存在起飛先后順序、執行任務次序、飛行速度等差別,但其不同長度的軌跡只與其執行任務緊密相關。以先后出發,相同路徑的3 個作戰實體x、y、z的軌跡序列為例。這三者的實際軌跡在空間上是一致的,只是在時間上存在先后差異,動態規整算法計算出距離d(x,y)=0, 從而可以消除時延,識別出它們之間很高的相似度。由此,DTW 距離可以很好的表示作戰實體的軌跡序列相似度。

綜上,任意兩個節點之間的DTW 距離均可以根據軌跡R(n)計算出,再通過Min-Max 歸一化方法,將節點之間的距離調整到[0,1]之內,通過設置合理的閾值 α,連接DTW 距離小于 α的邊節點,則可構建出相應的圖G=(V,E,X)。 α一般可選取為型號類別數的倒數,可使得生成的邊數目接近真實情況。各個作戰實體構成節點集V,DTW 算法構建的邊形成了邊集合E,當前時刻作戰實體的速度、航向等屬性構成了圖上節點的屬性X。算法1 描述了圖模型建立的過程。

算法1DTW 圖模型抽取算法

輸入態勢數據{K0,K1,···,Km}

參數調節連接邊數量的閾值α

輸出圖數據結構G=(V,E,X)

1) 從態勢數據中提取當前時刻所有節點的軌跡時間序列R(n),n=1,2,···,N以及特征矩陣X;

2) 借助D T W 算法,計算所有節點間的DTW 距離d(i,j),i,j=1,2,···,N,記DTW 距離構成集合為 K;

3) 對所有節點DTW 距離進行Min-Max 歸一化

4) 連接節點歸一化距離小于 α的節點,即令E(i,j)=⊿d(4,j)<a,輸出圖G=(V,E,X)。

根據算法1,從戰場中的時序態勢數據提取出節點之間的連接關系,并構建圖模型G,可用于下一步的圖神經網絡算法。

2 基于魯棒GCN 的實體識別算法

在提取了圖模型G之后,態勢數據中的實體型號識別問題轉化成了圖上的節點分類問題。給定圖結構數據G=(V,E,X),其中V={v1,v2,···,vN}表示N個節點(實體),E表示邊構成的集合(提取的連接關系),表示N個節點屬性(實體屬性)構成的矩陣,A∈RN×N表示圖的鄰接矩陣。設共有標簽(型號種類)F種,給定部分有標簽的節點其對應的標簽為一般采用one-hot表示Yi∈RF。我們的目標是預測出其余未知的節點Vtest的標簽。

2.1 圖卷積神經網絡

由于一般的深度學習框架對圖結構數據表示能力有限,人們將深度學習拓展到了圖數據上,提出了圖神經網絡[18-19]。圖神經網絡模型可以很好地處理包括節點分類、鏈路預測等圖上的機器學習任務,其模型通常由兩類函數復合而成,包括:領域聚合(combination)函數以及輸出(readout)函數。領域聚合函數通過聚合其領域節點的特征來更新每一個對應節點的表示;而輸出函數通過進一步處理圖上各節點表示來獲得整幅圖的節點表示。這兩個步驟可以用GraphSage[20]框架概括。GCNs[13]、GATs[15]都是這類的結構。其中Kipf 提出的GCN 定義了圖譜域上的卷積算子,在圖上的各項任務,特別是節點分類任務表現良好。

GCN 模型定義了函數f∶RN×d0→RN×F,借助L層的神經網絡來更新各個節點特征。 每層之間的特征矩陣Xl更新規則如下:

其中:X0∈RN×d0表示初始輸入的特征矩陣,一般選取為節點屬性矩陣X;θl∈RN×dt是需要學習的參數;dL=F; σ是激活函數;A?=A+I,I表示單位矩陣;對角陣為的度矩陣,其對角元素令表示所有待訓練參數,那么對于節點分類的問題。GCN 通過極小化已知標簽的節點上的損失函數:

來更新參數學習映射fθ,這里fθ(X0,A)i∈RF表示輸出矩陣的第i行。一般采用已知標簽上的交叉熵作為損失函數,即

其中Yl∈RF是標簽的one-hot 表示。當θ*=argminLGGN時,對υi∈Vtext,fθ(X,A)i即為在未知節點 υi上的預測標簽概率。

2.2 魯棒圖卷積神經網絡

由于本文構建的圖模型源自偵查數據的軌跡信息,一方面,僅僅依靠實體軌跡信息而忽略實體屬性信息易產生構建圖的偏差;另一方面當存在敵方干擾或者欺騙時,軌跡測量數據將不可避免地存在誤差,進而導致目標類型的誤判。同時文獻[21-22]指出,圖數據在受到噪聲干擾時,GCN準確率會明顯下降。因此借助實體屬性修正所構建的圖結構,提高GCN 的魯棒性對于作戰節點類型的正確識別是十分必要的。

為了提高GCN 的魯棒性,文獻[23]借助真實世界中網絡的低秩性和稀疏性的先驗性假設對圖結構進行了修正,構建了基于圖預處理技術的圖魯棒神經網絡模型。但是對于作戰實體網絡,低秩性和稀疏性假設并不適用。因此,我們需要找到更加適合軍事數據的先驗信息來修正圖結構,提高模型魯棒性。注意到,屬性相似的節點更有可能具有緊密的關系。例如飛行速度和方向接近的作戰實體性能更加接近,更可能執行同一任務,因此這些節點更可能為同一類型的實體。所以節點屬性信息可以用來對圖結構進行修正,使得屬性相近的節點具有更大的相似度。

因此,本文提出魯棒圖卷積神經網絡(robust GCN, RoGCN),通過對節點屬性添加光滑性假設,使得模型同時更新優化圖結構A和GCN 參數θ,即極小化以下目標函數:

1)圖結構的修正

首先固定參數θ,借助投影梯度下降方法,求解以下問題:

更新步驟為

其中 ?Aˉ表示將梯度下降后的所有元素投影至0~1 之間。這一步驟通過更新圖結構矩陣獲得修正后的圖結構

2)迭代求解新的模型

整體過程為:首先選取合適的初始特征矩陣X0=I,并用A初始化參數隨機初始化GCN 的參數θ,選取總的迭代次數T1,通過投影梯度法,對結構進行一次修正,再借助梯度下降法,迭代T2次優化神經網絡參數。

3 實驗及結果分析

3.1 實驗場景設置

本文的實驗采用指控學會組織的兵棋推演大賽的數據,該推演場景為:A、B 兩島主權存在爭議,目前為紅方占有,藍方一直企圖收回被占島嶼。雙方圍繞主權爭奪日益激烈,藍方組織大量空中力量對紅方進行攻擊,紅方強化海域軍事力量,進行防御。

兵力設置:藍方兵力共47 個作戰單位,完成偵查、預警、干擾、制空、突擊等任務,包括轟炸機18 架和殲擊機24 架。

目標識別任務:在實際推演場景具有目標探測的作戰單位(預警機、地面雷達、驅逐艦、地面防空)具有目標發現距離和識別距離。在推演的進行過程中,紅方發現范圍內存在未識別的敵方飛機,且數量隨推演時間變化。紅方希望可以推斷出未識別的敵方飛機類型,判斷出是轟炸機還是殲擊機。

實驗數據及實驗配置:每一次仿真實驗持續時間約為4 000 s,探測設備每隔20 s 左右收集一次數據。因此,所有作戰單元軌跡序列最長包含200 個元素左右,某一時刻探測到的作戰單元的數量最大為42 左右。由于該軍事應用場景的節點規模很小,計算復雜度小,所有模型均在個人筆記本運行,CPU 配置為Intel(R)Core(TM)I7-10710u。

3.2 模型參數設置

目前關于魯棒圖神經網絡在兵棋推演的實體識別問題上的模型還很少。而基于低秩性以及稀疏性假設的模型[23]不符合我們對該軍事網絡的一般假設。因此,為了比較本文構建圖模型的有效性,以及魯棒圖神經網絡模型的效果,我們選擇兩類經典的深度學習以及圖神經網絡方法,分別比較了基于多層感知機(multilayer perceptron,M L P)[25]的分類器、基于歐氏距離建立的GCN[13]、RoGCN 以及基于DTW 算法建立的GCN、RoGCN 共5 類算法。我們分別用MLP、GCN-Dist、RoGCN-Dist、 GCN-DTW、 RoGCN-DTW 算法表示。

MLP:多層感知機,通過多層的線性映射對輸入特征進行變換,可以用于處理經典的各類監督問題。

GCN:經典的圖卷積神經網絡方法,通過定義譜域上的卷積實現了圖上的卷積網絡,可以用來解決圖上的節點分類問題。

RoGCN:本文提出的優化算法,具有更強的魯棒性。

本文模型和對比模型的實驗參數設置如下:

在MLP 模型中,我們構造了輸入為位置(3 維向量)、速度、航向構成的5 維輸入,隱藏層維數為16,輸出層維數為2 的多層感知機模型。

對于GCN 模型,選取的初始特征矩陣X0=X,為節點速度、航向構成的矩陣,其余參數按照文獻[13]中設置;對于RoGCN 模型, 選取初始特征矩陣X0=I∈RN×N。選取內外訓練步數T1=200、T2=2,內外訓練率 η1和 η2均為0.01,權重參數β=1,λ=1用于平衡各項損失函數。其余參數同GCN一致。

對于基于歐氏距離(Dist)的模型,選取構造邊的閾值為40 km;對于基于DTW 相似度的模型,選取閾值α=0.5。以上參數均是根據驗證集上實驗選取的閾值。

3.3 實驗1:基于DTW 構造的圖數據

選取某時刻t0=3 690 s,圖2 和圖3 分別給出了基于DTW 及Dist 得到的圖G。如圖2 和圖3構造的作戰實體網絡中,紅色節點代表識別出的轟炸機,紫色節點代表未識別出的轟炸機;藍色節點代表識別出的殲擊機,綠色節點代表未識別出的殲擊機。可以看出,基于Dist 構造的圖,只有當節點的歐氏距離較小時,才存在邊相連;而基于DTW 構造的圖,即使兩個相同類型的作戰實體當前時刻相距很遠,但仍可能存在邊相連。由此可見,基于DTW 構建的圖更加符合型號相同的節點連接更加緊密的要求。

圖2 基于DTW 構造的圖Fig. 2 The graph based on DTW

圖3 基于歐氏距離構造的圖Fig. 3 The graph based on Dist

3.4 實驗2:模型魯棒性測試

在實際戰場數據中,敵方可能存在電子干擾,這使得雷達獲取的態勢數據存在一定噪聲。因此,比較不同模型的抗干擾能力是重要的。為了對比RoGCN 與GCN 在噪聲干擾下的識別準確率,對當前時刻獲取到的所有歷史態勢數據添加一定的高斯分布噪聲干擾,噪聲模型為

由于兵器推演前期,雷達還未能探測到敵方相應的作戰實體,因此選取3 個中間時刻,此時僅有部分實體進入識別范圍。算法識別準確率如表2,所有結果均為10 次實驗結果的平均值。表2 給出了不同噪聲水平下的準確率。由表2可以看出在3 個時刻下,RoGCN-DTW 方法都要好于其他方法。

表2 不同算法噪聲情況下識別準確率Table 2 Recognition accuracy under different algoprithm noise%

MLP 模型忽略節點之間相關性,并且只用到當前時刻的信息,所構建模型在不同噪聲水平下的準確率相比其他方法要低,相比RoGCN-DTW等模型更是顯著得低。

而GCN-Dist 與RoGCN-Dist 模型僅僅依賴當前節點的位置信息提取節點關系,由于當前節點的位置在干擾之下可能會發生較大改變,不同噪聲情況下波動結果準確率波動較大。特別是GCN-Dist 方法,存在噪聲為0 的情況下,但準確率卻不如存在噪聲的情況。但采用特征信息對圖結構進行修正的RoGCN-Dist 方法,相比GCNDist 的準確率和魯棒性還是要高。

GCN-DTW 和RoGCN-DTW 兩種方法采用了DTW 距離計算相似度,整體準確率更高。由于通過該方法采用所有的歷史信息計算相似度,即使節點的位置信息存在噪聲,但歸一化計算后,整體噪聲對節點之間的相似度影響不大。同時,Ro-GCN-DTW 方法通過進一步修正構成的圖,準確率相比GCN-DTW 更高。可以看出RoGCNDTW 在存在噪聲水平的情況下,準確率要優于GCN-DTW,這驗證了RoGCN-DTW 相比GCNDTW 具有更強的魯棒性,在噪聲干擾下可以較為準確的預測出未知作戰實體的類型。

3.5 實驗3:消融實驗

表3 不同噪聲情況下結構修正參數 λ對模型的影響Table 3 The recognition accuracy with respect to λ under different algorithm noise%

表4 不同噪聲情況下結構修正參數 α對模型的影響Table 4 The recognition accuracy with respect to α under different algorithm noise%

經過RoGCN 算法分析后,對于原來發現范圍內的實體,算法可以準確地識別,因此RoGCN 可以有效地擴大目標識別范圍。

4 結束語

目標識別是戰爭數據分析與決策中的一個重要問題。當前基于特征分析的雷達探測技術存在著識別范圍有限的問題。由于作戰目標間存在緊密聯系,本文首次借助DTW 算法從時序態勢數據中抽取出相應的圖模型,并建立了魯棒圖卷積網絡用于推測未知的作戰實體類型。實驗表明本文算法相比經典的多層感知機及GCN 準確率更高。

除了雷達探測技術中識別范圍比發現范圍小,其他輻射源技術和水聲技術獲取的數據同樣存在識別半徑有限的問題。魯棒GCN 方法同樣可以推廣到其他探測技術獲取的特征數據中,輔助戰場目標識別問題。另外,基于當前實戰需求,本文從戰場仿真態勢數據所構建的圖模型是基于相同類型實體的軌跡相似所確立的。隨著戰爭模式的發展,未來可能出現一些混合編組作戰的任務場景,則本文基于作戰實體軌跡建立的圖模型也適用于進行無監督的編組預測等任務。總而言之,只要作戰實體間的關聯同作戰實體間的軌跡存在緊密聯系,本文提出的模型便可以用于提取出作戰單元之間的關聯,并挖掘出更多信息輔助決策。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲区第一页| 成色7777精品在线| 色偷偷综合网| 99偷拍视频精品一区二区| 欧美日韩久久综合| 国产va在线观看| 久久青草免费91观看| 亚洲成a人片在线观看88| 免费 国产 无码久久久| 国国产a国产片免费麻豆| 亚洲一区无码在线| 国产麻豆另类AV| 国产精品黄色片| 特级欧美视频aaaaaa| 国产熟女一级毛片| 久久熟女AV| 3D动漫精品啪啪一区二区下载| 99久久性生片| 久久久久久国产精品mv| 久久亚洲国产最新网站| 久久超级碰| 不卡午夜视频| 国产精品性| 亚洲成网站| 少妇极品熟妇人妻专区视频| 国内毛片视频| 福利国产微拍广场一区视频在线| 性网站在线观看| 免费精品一区二区h| 尤物亚洲最大AV无码网站| 无码日韩视频| 视频一本大道香蕉久在线播放| 又粗又大又爽又紧免费视频| 国产精品大尺度尺度视频| 亚洲AⅤ永久无码精品毛片| 99精品这里只有精品高清视频| 99re视频在线| 国产精品国产主播在线观看| 成人午夜久久| 国产精品永久久久久| 亚洲熟女偷拍| 国产一级小视频| 久久亚洲国产一区二区| 秋霞国产在线| 伊人成色综合网| 国产国拍精品视频免费看| 久久96热在精品国产高清| 国产毛片一区| 婷婷成人综合| 亚洲欧美日韩动漫| 伊人查蕉在线观看国产精品| 色综合久久久久8天国| 欧美日韩一区二区三区四区在线观看| 2021精品国产自在现线看| 尤物亚洲最大AV无码网站| 欧美日韩一区二区三区在线视频| 日韩资源站| 国产真实乱了在线播放| 中文字幕在线视频免费| 亚洲男人在线天堂| 人妻一本久道久久综合久久鬼色| 亚洲无码电影| 97se亚洲综合| 99久久精品免费看国产免费软件 | 国产剧情一区二区| 精品国产一区二区三区在线观看 | 福利一区在线| 中文字幕丝袜一区二区| 91视频日本| 波多野结衣一区二区三区四区| 三上悠亚在线精品二区| 亚洲第一黄色网| 国产网站一区二区三区| 蜜臀AVWWW国产天堂| 亚洲美女一级毛片| 蜜桃视频一区| 欧美19综合中文字幕| 在线网站18禁| 这里只有精品在线| 波多野结衣一区二区三区四区视频| 国产va在线观看| 欧美日韩免费在线视频|