謝春思, 劉志贏, 桑 雨
(1.海軍大連艦艇學院導彈與艦炮系, 遼寧 大連 116018; 2.海軍大連艦艇學院學員五大隊, 遼寧 大連116018;3.中國人民解放軍91991部隊, 浙江 舟山 316001; 4.中國人民解放軍91278部隊, 遼寧 大連 116041)
艦載對陸攻擊巡航導彈具備非接觸打擊陸地縱深目標的能力,是當今世界軍事海洋強國廣泛列裝的武器,可用于打擊具有特殊政治意義或軍事價值的目標,對導彈武器系統打擊精度提出了較高要求。對陸導彈末端常采用基于圖像的尋的制導,核心技術包括自動目標識別(automatic target recognition, ATR)和抗遮擋干擾。
長期以來,人們為實現導彈的自動目標識別提出了兩類算法[1-7],一類是基于模板匹配[8],即采集和制作目標基準圖并以模板形式儲存在彈載計算機中,當導彈飛臨目標上空時,將導引頭實時拍攝的目標區域信息與目標模板匹配進行導彈和目標相對位置的確定;另一類是基于目標特征匹配[9-11],直接利用提取的目標結構特征實現分類和定位。二者在自動目標識別方面各有優勢,前者對復雜背景的適應能力更強,后者理論上具備目標識別和跟蹤一體化的能力,但對背景純度要求較高。考慮到復雜的戰場環境、彈載計算機性能受限和打擊目標時可能存在多樣化干擾等因素,目前國外已列裝的艦載對陸巡航導彈大多采用基于前視模板匹配的目標識別技術[12]。同時,對陸導彈在作戰過程中易受煙霧遮擋干擾而影響圖像制導效果,如何提高系統煙霧遮擋抗干擾能力成為一個亟待解決的課題。對此,學界提出串行法和并行法兩類抗干擾方案,其核心都是煙霧區域檢測技術[13]。目前工程應用中大多通過模式識別法實現煙霧區域檢測,對先驗知識依賴程度較高。
近年來深度學習技術取得突破性進展,為對陸導彈目標識別提供了新的技術支持。深度學習檢測技術利用深層次的神經網絡提取目標的多尺度特征信息,與傳統目標特征提取算法相比具有魯棒性強、復雜背景適應能力強等特點,為基于目標特征的對陸導彈目標識別技術提供了新的技術途徑。如通過深度學習目標檢測算法框架,利用目標情報數據訓練深度學習網絡,實現對戰時導引頭獲取的圖像目標進行分類識別和定位[5,14-18];針對煙霧遮擋干擾,可通過深度學習語義分割算法對導彈目標區內存在的煙霧精準檢測,為進一步排除煙霧干擾奠定基礎[19-23]。
基于以上分析,本文提出了一種基于深度學習的對陸導彈目標識別模型,該模型包括預處理、識別、抗煙霧干擾、判別分析等4個模塊,通過并行法實現目標識別和煙霧區域檢測。仿真實驗表明,該模型能快速準確識別復雜背景下的陸上典型固定目標,具備一定的抗煙霧干擾能力,驗證了基于目標特征的深度學習目標檢測技術在對陸導彈目標識別任務中的可行性和有效性。
當前國外已列裝的艦載對陸巡航導彈普遍使用基于前視模板匹配的圖像識別技術,如首款裝配ATR系統的美軍AGM-84E SLAM-ER導彈[24],其末端導引頭工作機制如圖1所示。當導彈飛臨目標區域上空,成像探頭拍攝實時視頻,經RS422串行總線傳輸到捕獲模塊并獲取實時圖;彈載計算機根據預先儲存的前視模板和成像探頭與彈體之間的位置關系,制作修正的基準模板;將圖中提取的特征和修正基準模板實時傳入匹配模塊進行相關性計算,完成對導彈的飛行導航。

圖1 SLAM-ER導彈ATR系統工作機制
然而,基于前視模板匹配的ATR技術存在固有缺陷。該方法提取的導引頭圖像中包含角點信息,通過與彈載計算機存儲的目標區模板匹配實現對導彈當前時刻的定位,并對比基準面計算導彈位置偏移后導引導彈飛向空間中某一點,而不是直接定位識別和跟蹤陸上目標,因此在航路規劃中就存在位置誤差,該方法在打擊機場、跑道等目標任務中尚能滿足精度要求,但對建筑物、小型島嶼等固定目標就顯得不夠了。
基于目標特征的ATR技術通過提取和分析圖像特征信息對目標直接分類識別,標定目標在圖像中的位置。建筑等小幅員目標在圖像中具有“識別即定位”的特點,無需選取定位基準面,為基于目標特征的ATR技術在對陸導彈目標識別任務中的應用提供了理論依據。然而,傳統方法提取的特征形態有限,難以滿足導彈打擊任務的精度和復雜背景適應的能力要求。近年來,基于深度卷積神經網絡的特征提取與目標檢測技術取得較大進展,具有魯棒性強、復雜背景適應能力強等特點。由此提出基于深度學習特征匹配的對陸導彈目標識別模型,探討相關技術的可行性。
設計的對陸導彈導引控制系統結構如圖2所示,飛行姿態控制主要涉及導引頭、控制系統和彈體3部分。導引頭獲取目標圖像,經導彈目標識別模型解算后生成彈體導引指令,控制導彈的飛行姿態。并設計反饋結構,使彈載計算機接收來自操縱面感受元器件和彈體姿態感受元器件的反饋信息,同時成像傳感器實時捕捉目標圖像,實現對彈體姿態的實時精確控制。經以上分析可知,該系統的核心為導彈目標識別模型。

圖2 對陸導彈導引控制系統結構
基于深度學習的對陸導彈目標識別模型架構如圖3所示,對陸巡航導彈末制導雷達導引頭獲取目標區域圖像后,將圖像輸入預處理模塊提高影像質量;接著分別傳入識別模塊和抗干擾模塊,以并行模式處理后將輸出結果傳入判別分析模塊進行綜合判定,最終輸出識別結果,生成導引指令對導彈姿態控制,并返回導引頭搜索指令調整雷達導引頭下次搜索參數。

圖3 對陸導彈目標識別模型架構
對陸導彈目標識別模型主要包括預處理、識別、抗干擾和判別分析4個模塊。預處理模塊具備實現圖像增強和降噪濾波兩功能,用于改善圖像清晰度,提高圖像分析率,為進一步處理奠定基礎;識別模塊和抗干擾模塊分別由YOLOv3改進算法和Deeplabv3+改進算法為核心組成,用于識別目標和排除煙霧干擾;判別分析模塊首先基于目標識別和煙霧區域分割結果聯合目標判定,然后分析目標位置判別中心誤差,提高末端目標識別的準確度。
戰場環境下影響導引頭成像效果的因素主要有兩類,一類是導引頭的系統噪聲,另一類是導彈相對目標高速運動帶來的運動模糊。該模塊利用改進順序統計濾波(improved sequential statistical filtering, ISSF)算法和LR算法改善圖像質量。
2.2.1 ISSF算法
導引頭系統在干擾條件下產生的噪聲通常為復合噪聲,包括高斯白噪聲、椒鹽噪聲、1/f噪聲等。當前常用濾波算法大多對單一噪聲有效,但對復合噪聲收效甚微。對此提出ISSF算法,以適應任務需求,其實現過程[25]如下。
步驟 1使用5×5的像素提取窗口,計算窗口中像素灰度最大值Rmax和最小值Rmin。
步驟 2判斷窗口中心點灰度值Rx,y的大小是否在Rmin和Rmax之間,輸出值為
(1)
式中:
(2Rx-1,y-Rx-2,y)+(2Rx+1,y-Rx+2,y)]
(2)
步驟 3輸出像素值Rxyout代替原像素值Rxy。
式(1)在計算Rxyout時進行了判斷:當Rxy介于Rmin和Rmax之間時,認為該點不是噪聲點并輸出原值;否則認為該點是噪聲點并輸出Rnew。在計算Rnew時假設鄰域各向梯度具有一致性,以降低將非噪聲極值點誤判為噪聲點造成的過度平滑,最大程度上保留了圖像的細節信息。
2.2.2 LR算法
運動模糊圖像可通過基于貝葉斯理論的LR算法得到復原[26-27],核心原理如下:
(3)
式中:g(x,y)表示原始模糊圖像;fn(x,y)表示第n次迭代后圖像;h(x,y)表示退化系統。若退化系統已知,則在LR算法中經有限次迭代,即可實現圖像空間域的復原,因此解決運動模糊問題的關鍵是對退化系統準確估計。假設圖像為線性模糊,則需對運動模糊方向和尺度進行準確估計。
文獻[24]指出運動模糊中高頻成分在運動方向下降較多,而在其他方向影響較小,可利用該特性在頻域內對運動模糊方向求解。倒譜法求解運動方向參數過程如圖4所示,首先對退化圖像進行快速傅里葉變換(fast Fourier transform, FFT),取對數后再逆向FFT(inverse FFT, IFFT),得到倒頻譜后,經閾值處理并通過Canny算子對頻譜二值化,最后利用Radon變換求出模糊矩陣,選取最大值后估算運動方向角度。

圖4 倒譜法運動方向參數估計
聯合圖像頻率域和空間域的信息實現運動尺度參數估計。首先將退化圖像FFT操作后轉移零頻點至頻譜中心,然后求頻域矩陣各點絕對值的對數,按行或列求對數和;以圖像空間域中心為起點,分別計算兩側對數和最小值出現的行數或列數,經倍數轉化即可求出運動尺度估計。
對導引頭圖像首先利用ISSF降噪濾波處理,計算運動模糊參數估計后使用LR算法進行抑制模糊,實現增強圖像成像效果的目的。
目前深度學習目標檢測框架有兩類:檢測精度較高的雙步法和檢測效率較好的單步法。考慮到檢測效率對導彈打擊精度影響更大,以綜合性能較優的YOLOv3單步檢測神經網絡為基礎,通過改進網絡結構,提出更適合導彈識別任務的目標識別算法。
對陸導彈目標打擊任務下達后,每枚導彈打擊目標基本明確,僅需對單一目標網絡訓練,與常規識別任務相比,泛化能力要求不高。但隨著彈目距離減小,導彈識別全過程中目標的尺度差異較大,需增強尺度變化適應能力。因此,采用特征金字塔網絡(feature pyramid networks, FPN)思想,擴展多尺度檢測結構,增強網絡魯棒性[28]。可以通過大量采用深度分離卷積代替普通卷積,降低網絡參數量和計算量以滿足彈載計算機的性能。使用k-means聚類算法式(4),距離函數指標為
(4)
式中:hmin和hmax分別為縱向最小距離和最大距離;wmin和wmax分別為橫向最小距離和最大距離。預設錨框尺寸,進一步提高識別精度。
基于以上分析,通過精簡特征提取網絡、改進多尺度特征融合、引入深度分離卷積、錨框尺寸優化等措施,設計改進YOLOv3導彈目標識別網絡如圖5所示[5]。

圖5 改進YOLOv3網絡結構
深度學習語義分割算法可實現像素級目標分類,適合煙霧等非標準形態的目標檢測。抗干擾模塊使用近年來綜合性能優異的Deeplabv3+網絡作為煙霧檢測基本算法,其網絡結構如圖6所示。

圖6 Deeplabv3+算法的網絡結構
Deeplabv3+使用Xception 65網絡提取目標特征,由輸入流、中間流和輸出流串聯,生成分辨率為原始圖像1/16的特征張量;將提取的特征張量傳入基于空洞卷積的特征金字塔(atrous spatial pyramid pooling, ASPP)結構。該結構使用3種不同擴張率的并行空洞卷積層增大核感受野,經拼接處理后通過1×1卷積通道壓縮。解碼器結構中,對來自ASPP結構的特征張量通過雙線性插值4倍上采樣,然后與來自骨干網絡的同分辨率特征圖拼接,再次經3×3卷積和4倍上采樣操作后輸出分割結果。
由于煙霧這類非剛性目標空間形態的尺度變化較大,基礎網絡難以適應煙霧形變。可以從3個方面改進[29]:首先,通過異感受野融合的方式改進ASPP結構,提高信息利用率;其次,優化骨干網絡中間流結構,將多尺度特征張量拼接傳入Decoder模塊;最后,特征融合中融入通道注意力模塊(channel attention module, CAM),優化網絡通道權重配置。改進后Deeplabv3+算法的網絡結構如圖7所示。

圖7 改進Deeplabv3+算法的網絡結構
判別分析模塊包括目標判定和目標位置判別中心分析兩個環節,其作用是對來自識別模塊和抗干擾模塊的輸出結果聯合分析,判定識別目標是否成功,并計算目標位置判別中心的位置。基于場景階梯式分析思想[30],將識別模塊輸出的預測框類別進行標記分級,模型對上級大尺度場景成功識別后,只有在大部分下級較小尺度場景預測框位于上級場景預測框內時,才會進行進一步的目標判定和目標位置判別中心分析,否則直接判定為干擾目標予以排除。
目標判定環節使用閾值法判斷是否識別目標成功。圖像傳入目標識別模塊和抗干擾模塊后,YOLOv3改進算法輸出一個矩形框實現目標分類和定位,Deeplabv3+改進算法輸出煙霧的分割區域。判斷煙霧區域是否位于矩形框內,若不在則認為目標未被煙霧遮擋,目標識別成功;反之,則通過判斷框得分閾值G0與利用抗干擾式(5)的得分GX:
(5)
大小關系確定目標是否識別成功,若GX≥G0則認為識別成功,否則識別失敗,需重新識別。其中,Ssmoke和Sbox分別表示矩形框中煙霧分割區域的面積和矩形框的面積;scoreX表示輸出該矩形框的得分。
由于煙霧遮擋干擾,目標可能被煙霧貫穿分割成若干個子區域,YOLOv3改進算法識別時將針對子區域輸出多個預測框,破壞預測框的完整性。對此提出預測框合并規則,如圖8所示。計算預測框X1和X2相鄰邊界圍成的框間區域內煙霧填充率FX1,X2,若FX1,X2小于預設閾值F0則認為兩個預測框的分離不是煙霧貫穿分割造成的,不能合并預測框;否則,將兩個預測框的外接矩形視為合并框,作為目標的輸出。

圖8 預測框的合并規則
煙霧填充率的計算如下:
(6)
式中:h和w表示框間區域的尺寸。
目標位置判別中心分析環節使用矩平衡法計算矩平衡點作為目標位置判別中心。煙霧區域與目標預測框有3種空間關系:相離、相交未貫穿和相交且貫穿。假定目標矩形區域服從均一分布特性,則相離情況下幾何中心即為矩平衡點;相交未貫穿時計算矩平衡點:
(7)
相交且貫穿時,被分離矩形框中歸一化面積低于設定閾值S0的分塊則不參與矩計算,排除小區域引入的定位誤差,然后利用式(7)計算矩平衡點。
在Tensorflow環境下,使用Python編輯器對模型實現進行仿真,檢測模型性能。
導彈打擊想定目標如圖9所示,該圖像為無人機通過可見光成像實拍的建筑物。在導彈目標識別模型正式測試前,運用密集匹配與重建技術構建該建筑的3D模型并訓練好改進的YOLOv3識別網絡,同時通過煙霧數據集訓練好改進的Deeplabv3+煙霧區域分割網絡。運用圖像處理技術進行導引頭成像仿真,如圖10所示。圖10(a)為原始圖像,圖10(b)為加入了煙霧遮擋干擾的模擬圖像,圖10(c)是在圖10(b)的基礎上加入運動方向參數為127°、尺度參數為55的運動模糊,以及由方差為5.67×10-3的白噪聲和密度為5.64×10-3的椒鹽噪聲合成的混合噪聲后生成的導引頭模擬圖像。導引頭模擬圖像樣本集包括220張480×320的單通道灰度圖像,可以測試導彈目標識別模型的性能。

圖9 想定目標實拍圖像

圖10 導引頭成像仿真
預處理模塊依次通過ISSF算法和LR算法實現降低噪聲強度和運動模糊。對于圖10(c)所示的導引頭模擬圖像,ISSF算法處理后效果如圖11(a)所示;然后FFT求得其頻譜圖如圖11(b)所示;取對數后再進行IFFT得到倒頻譜,壓縮居中后其頻譜圖如圖11(c)所示;利用Canny邊緣檢測算法實現倒譜圖二值化后其頻譜圖如圖11(d)所示;對二值化圖做θ∈[0,180]的Radon變換后其頻譜圖如圖11(e)所示,對函數極大值對應的橫坐標加減90°,取計算后位于區間[0,180]的計算結果即為估計運動方向,圖示計算結果為125°。對圖10(c)取計算運動尺度大小為65,將運動方向和尺度參數傳入LR算法,運動模糊復原效果如圖11(f)所示,至此完成預處理。

圖11 預處理過程
以每秒檢測幀數(frames per second, FPS)為效率評價指標,以皮爾遜積矩相關系數(pearson product-moment correlation coefficient, PPMCC)測定預處理前后圖像的空間相關性,并作為預處理效果評價指標。計算方法如下:
(8)
利用模擬圖像樣本集,考察預處理模塊復原性能與LR算法迭代次數的關系,結果如表1所示。綜合考慮導彈目標識別任務要求,將LR算法的迭代次數設置為16,此時PPMCC為0.941,FPS為47,同時具備較高的復原精度和效率。閾值法判定識別結果如圖12所示。

表1 預處理模塊復原性能測試

圖12 煙霧區目標識別結果
圖12(a)為預處理后的導引頭模擬圖像,圖12(b)為訓練好的識別模塊對目標識別結果,圖12(c)為訓練好的抗干擾模塊檢測到的煙霧區域。設置判定閾值G0=0.1,目標預測框得分為0.12,經測算預測框內煙霧區域面積占比為50.11%,利用式(5)計算該圖抗干擾得分為GX=0.06,小于設定的閾值,因此認為本幀圖像識別失敗。由本例可知,閾值法判定規則通過將抗干擾得分低的識別結果認定為識別失敗,排除了較差識別結果對模型識別性能的影響,有利于提高模型識別穩定性。
預測框合并處理結果如圖13所示。設置煙霧填充率閾值F0=0.5,圖13(a)為某張預處理后的圖像,圖13(b)為識別模塊識別結果,圖13(c)為煙霧檢測結果。經測算,圖13(b)兩框間煙霧填充率為FX1,X2=0.631,滿足FX1,X2>F0,因此將兩預測框的外接矩形作為新的目標預測框,如圖13(d)所示。由本例可知,合并框具有比單一框更好的目標覆蓋效果,有效排除了煙霧貫穿目標區造成的單一框目標位置判別精度差等問題,有利于提高算法識別定位精度。

圖13 預測框合并規則處理結果
目標定位精度分析如圖14所示。A為標注框中心,認為該點為目標位置基準點;B為矩平衡法計算的輸出框目標位置判別中心,二者間的相對定位偏差由γ表示,由圖14可知滿足:

圖14 定位精度分析示意圖
γ=max[m,n]
(9)
γ≤1則說明導引點位于目標區域,模型能正確捕捉到目標;反之則說明丟失目標。
以目標識別準確率P、召回率R、相對定位偏差γ、γ>1比率和每秒檢測幀數FPS為指標,導彈目標識別模型和基于灰度的歸一化積相關(normalizated product correlation, NProd)算法經典模板匹配算法對建筑樣本集的整體識別性能量化分析如表2所示。由表2可知,在存在煙霧遮擋和多種類型干擾條件的情況下,本文導彈目標識別模型P和R均高于基于NProd的模板匹配算法,具備較好的識別能力;相對定位偏差γ相近,且γ>1比率均為0,說明模型在滿足判別分析模塊判定準則的條件下正確標記目標區域概率為100%,具備識別即捕捉的能力和良好的定位精度。但是每秒檢測幀數和模型內存與基于模板的識別算法有一定差距,說明本文模型的檢測效率和工程實用性存在進一步改進的空間。

表2 導彈目標識別模型對樣本集識別結果
本文模型通過分析目標在獲取圖像中的位置,解算導彈當前位置與目標打擊位置的偏差,生成彈體姿態控制指令,引導導彈飛向目標區,因此模型的識別精度、定位精度和檢測效率都將對目標位置判別精度產生影響。不考慮導彈其他系統誤差和工程制造精度誤差的前提下,下面分析本文模型的位置判別精度對導引精度的影響。
以某型海射對陸攻擊導彈及相關參數為藍本,設置仿真參數如下:導彈在距離目標6~12 km時導引頭首次開機確定導彈導引方位,導彈在距離目標2~6 km時二次開機識別目標最佳命中區。導彈末端馬赫數M=0.62 Ma,成像系統光學視場角為4.8°×3.2°,輸出像元數480×320,每個像素對應視角為0.01°×0.01°,典型建筑目標尺寸為50 m×50 m×30 m,最佳命中區為3 m×3 m×3 m。依據前文識別結果,目標識別算法正確輸出的最小識別框為21×13像素、煙霧條件下目標位置判別中心平均偏移為27.4%、檢測效率為 9.73 FPS,設定模型能夠識別目標最小視角為0.21°×0.13°,γ=0.274,檢測周期τ=0.103 s。
目標識別模型引起的視線角誤差如圖15所示。

圖15 目標識別模型引起的視線角誤差
假設導彈沿虛線A′A飛行,T0時刻導彈位于點A,目標最佳導引點位于點B,彈目距離為d,真實視線角大小為θ。目標識別模型檢測效率并非無限大,導彈在A點時控制模型接收到的導引指令,乃是上一周期目標識別時導彈在A′點的模型輸出視線角θ′解算后得到的,由于存在目標位置判別中心偏移,在A′點時模型輸出的目標位置判別中心點位于B′。記目標位置判別中心偏移引起的視線角誤差為Δθ1(偏移遠離航路為正),檢測周期引起的視線角誤差為Δθ2(導彈接近目標時為正),在A點模型引起的視線角誤差為
Δθ=|θ-θ′|=|Δθ1-Δθ2|
(10)
由幾何關系得
(11)
(12)
設定音速為us,BB′方向上目標的尺度為r,聯立式(10)~式(12)可得
(13)


圖16 初次開機后導引頭視線角誤差

圖17 導引頭二次開機對最佳命中區的識別
文獻[20]指出,使用提供區分服務的信道接入協議系統的某型巡航導彈對陸上目標的識別理論精度為6~10 m,實戰精度為15~18 m。本文模型在仿真實驗中,導引頭初次開機目標識別時視線角導引誤差不大于0.3°,在二次開機識別最佳命中區時空間誤差不大于1.42 m,具備更好的導引精度,驗證了基于深度學習的對陸導彈目標識別模型的可行性和有效性。
在艦載對陸攻擊巡航導彈末制導自動目標識別技術中,針對傳統的基于前視模板匹配算法難以直接識別和跟蹤建筑等小型固定目標的問題,提出基于深度學習的對陸導彈目標識別模型。該模型對導引頭圖像預處理后,利用訓練好的深度學習網絡識別目標,并通過并行識別方案排除煙霧遮擋干擾,經判斷識別成功后直接輸出導引中心位置。仿真實驗證明,該模型對陸上建筑目標有更好的識別精度,為對陸導彈自動目標識別提供了新的技術手段,對提高對陸導彈的作戰能力具有較高的實際意義。