王 磊,張啟亮,翁明善
(1.空軍工程大學研究生院,陜西 西安 710051;2.中國人民解放軍93688部隊,天津 300202; 3.空軍工程大學防空反導學院,陜西 西安 710051;4.中國人民解放軍93159部隊,遼寧 大連 116033)
隨著電子技術的不斷發展,近年來小型多旋翼無人機技術日趨成熟,成為一種新興的遙感手段。它可以根據攜帶的裝備器材,完成戰時偵察監視、電子干擾、火力打擊、毀傷評估、通信中繼等任務[1],也在測繪、反恐、災難救援、水利水電建設、農業估產等民用方面發揮極大作用[2]。由于其在低空、超低空領域飛行,具有目標小,隱蔽性強的特點,容易被敵方用于情報偵察,低空突防后實施火力打擊,從而造成國家重要秘密外泄,重點要害目標遭受威脅,對我國空防安全帶來了新的挑戰。
小型多旋翼無人機低空、超低空飛行時地雜波較強,使得雷達探測能力嚴重下降,多輸入多輸出(multiple input multiple output, MIMO)雷達具有較強的雜波抑制能力與抗干擾能力[3],可以作為一種探測多旋翼無人機的有效手段。雷達捕獲多旋翼無人機目標后進行信號處理,當采用固定門限,由于較強的地雜波會產生較高的虛警率,影響雷達檢測性能。傳統恒虛警概率檢測(constant false alarm rate, CFAR)算法采用統計理論,以臨近的參考單元信號強度動態調整雷達的檢測門限,采樣單元信號強度大于門限便認為有目標,小于門限便認為無目標,在保持虛警概率不變化的基礎上盡可能提升檢測能力[4]。但當噪聲功率較高時,CFAR算法的檢測能力會急劇下降,對于強地雜波下的低空、超低空多旋翼無人機檢測概率較低。
近年來,隨著深度學習的高速發展,在機器視覺領域科研人員提出了大量基于深度卷積神經網絡(convolutional neural network, CNN)的模型,尤其是2012年AlexNet[5]的提出,更是為目標檢測開辟了新的研究方向。此后,RCNN[6]、SPPNet[7]、Faster-RCNN[8]、YOLO(you only look once)、SSD(single shot multibox detecor)[9]、Retina-Net[10]等優秀算法相繼被提出,并在光學圖像處理領域得到了較為廣泛的應用。
通過不同的雷達信號處理方法,可以得到不同形式的雷達圖像,部分經過處理的雷達圖像會呈現出光學圖像的某些特征。因此,越來越多的學者開始將光學圖像處理領域的深度學習成果應用于雷達圖像處理領域,主要有合成孔徑雷達(synthetic aperture radar,SAR)圖像、高分辨距離像(high resolution range profile,HRRP)、微多普勒譜圖、距離多普勒(R-D)譜圖等[11]。SAR圖像與光學圖像的較大相似性使得深度學習在SAR圖像處理領域的應用較為廣泛。2017年,徐豐、王海鵬等人提出了復數深度CNN并應用于全極化SAR圖像的地物分類中,在Flevoland 15類地物分類中取得了95%的精度[12]。在HRRP識別領域,Karabayir O等人采用典型的CNN對艦船目標模型進行分類,在自制的HRRP數據集上取得了93.9%的識別率[13]。南京電子研究所王國帥等人為改善基于CNN的模型對于雷達目標識別的泛化能力,將深度適配網絡引入到HRRP目標識別中,并對損失函數進行了改進,實驗表明,該方法可顯著提升模型的泛化能力與魯棒性[14]。在微多普勒譜圖識別領域,海軍航空大學蘇寧遠等人將CNN用于海上目標微多普勒的檢測分類,分別構建4種微動信號的二維時頻圖,采用LeNet、AlexNet、GoogLeNet 3種CNN模型與傳統支持向量機(support vector machines,SVM)的分類性能進行比較,結果表明3種CNN模型均能取得較好的分類檢測性能[15]。文獻[16]針對傳統彈道目標的微多普勒分類性能差的問題,提出了一種深度CNN模型,實驗結果表明該方法在低信噪比下的分類準確率更高。在R-D譜圖識別領域,研究人員通過采集10個人的11類手勢動作進行R-D譜圖序列分類,最終獲得87.6%的平均識別率[17]。文獻[18]通過深度學習網絡對飛鳥與無人機的回波序列圖、微動時頻圖、R-D譜圖等進行提取,輸入多通道CNN模型,為飛鳥和無人機的識別分類問題提供了新思路。
針對上述情況,本文將光學圖像處理領域準確度、實時性較為均衡的YOLOv4[19]目標檢測算法引入到多旋翼無人機目標檢測中,并對其進行改進。
YOLOv4算法是由Alexey Bochkovskiy等人在2020年基于YOLOv3算法改進而來,很好地平衡了算法的檢測精度與檢測速度,是當下應用較多的一種目標檢測算法。圖像輸入模型后,首先會被分割成76×76、38×38、19×19三種尺寸的網格,用于檢測不同尺度的目標。如果被檢測目標的中心位于某一個網格內部,便由這個網格來負責檢測目標,并計算出3個預測框,每個預測框包含框的中心點坐標(x,y)、框的寬度、框的高度、目標的置信度等5個參數以及目標類別C,共計5+C個參數信息。YOLOv4算法主要由主干特征提取網絡CSPDarknet53、空間金字塔池化(spatial pyramid pooling,SPP)結構、路徑聚合網絡 (path aggregation network,PAnet)以及3個YOLO Head模塊組成[20],算法結構如圖1所示。

圖1 YOLOv4網絡結構圖Fig.1 Network structure diagram of YOLOv4
SPP結構是對CSPDarknet53結構的最后一個特征層經過3次卷積后分別利用4個尺度進行最大池化操作,池化核大小分別為1×1、5×5、9×9、13×13,從而最大程度地增加感受野,分離出較為明顯的上下文特征。PANet結構用來進行反復提取特征,完成傳統特征金字塔自下而上提取特征后,再次在76×76、38×38、19×19這3個有效特征層中自上而下提取特征,從而完成特征融合,有效提升目標特征的提取能力。最后將通過PANet結構處理的3個特征層輸入到YOLO Head中對每個特征層的預測框進行判斷,最后通過非極大值抑制和先驗框調整的方法篩選出置信度較高的框作為目標的最終預測框。
YOLOv4的總損失函數是由回歸框預測誤差lloc、置信度誤差lconf以及分類誤差lcls三部分組成[20]:
Loss=lloc+lconf+lcls。
(1)
回歸框預測誤差lloc為
(2)
(3)
(4)
式中,ηIOU(M,N)表示真實框與預測框的交并比,ρ2(Mctr,Nctr)表示真實框與預測框中心點的歐氏距離,m表示能夠包括真實框與預測框最小閉合區域的對角線距離,wgt表示真實框的寬度,hgt表示真實框的高度,w表示預測框的寬度,h表示預測框的高度。
置信度誤差lconf為
(5)

分類誤差lcls為
(6)

SENet(squeeze-and-excitation networks)是2017年Jie Hu等人將注意力機制引入CNN后,提出的一種全新的圖像識別結構[21]。該結構提出了一種即插即用的SE模塊,通過該模塊可以學習通道間的信息,生成通道的權值向量,放大有用的特征通道,抑制作用較小的通道,實現對通道信息的篩選,緩解干擾信息對網絡模型的影響,圖2為SE模塊結構圖[21]。

圖2 SE模塊結構圖Fig.2 SE module structure diagram
特征圖U的通道數為C,寬和高分別為H和W。U輸入SE模塊后,首先是Squeeze操作,會對每個通道進行全局平均池化,將特征圖的寬和高壓縮至C×1×1的一維向量,計算公式為
(7)
式(7)中,(i,j)為特征圖U坐標軸上橫縱坐標為i和j的點。
隨后進行Excitation操作,利用兩個全連接層對一維向量進行映射變換,生成對應的注意力權重。第1個全連接層的激活函數為ReLU函數,第2個全連接層的激活函數為Sigmoid函數,計算公式為
S=Fex(Z,W)=Sigmoid(W2×ReLU(W1,Z)),
(8)

最后將得到的權重向量與通道進行相乘,得到輸出結果,計算公式為
(9)
式(9)中,符號“?”表示逐元素相乘。
由于小型多旋翼無人機的多個旋翼會產生多普勒頻移,其在雷達R-D譜圖上呈現出的將不再是一個亮點,而是特征較為明顯的帶狀線,這種帶狀線能夠豐富小型多旋翼無人機目標的特征,可以使YOLOv4算法學習到更深層次的特征,從而進一步提升檢測概率。因此,本文算法對于無人機的檢測在R-D譜圖上進行。圖3為本文算法的整體流程。

圖3 算法整體流程Fig.3 The overall flow of the algorithm
通過實驗室自制4入4出MIMO雷達系統對大疆M600pro多旋翼無人機進行跟蹤檢測,得到原始的雷達回波信號。原始雷達回波為一維向量,無法滿足YOLOv4算法的輸入條件,需要對數據進行預處理。通過對距離維進行匹配濾波,隨后對多普勒維進行快速傅里葉變換(fast Fourier transform,FFT),提取目標的多普勒頻率,獲得回波信號在距離-多普勒域能量分布的二維數據矩陣,進而得到多旋翼無人機的R-D譜圖。圖4為經過數據預處理后的R-D譜圖。

圖4 經過數據預處理后的多旋翼無人機R-D譜圖Fig.4 R-D spectrum of multi-rotor UAV after data pretreatment
2.2.1先驗框改進
由于YOLOv4模型所提供的先驗框是通過聚類VOC數據集得到的,VOC數據集有20種目標類別且目標尺寸、長寬比例差別較大,與本文所用無人機R-D譜圖數據集中目標的邊界框尺寸不符,如果直接使用原始先驗框尺寸,會造成大量漏檢,因此采用k-means聚類算法對R-D譜圖數據集中標注的目標尺寸進行聚類分析,得到聚類后的先驗框尺寸為(198,11),(219,12),(228,13),(235,11),(238,15),(241,11),(240,13),(249,12),(256,14)。為加大先驗框參數之間的差距,提升不同特征層與先驗框的匹配度,本文在k-means聚類算法的基礎上對先驗框尺寸進行了縮放,具體縮放方法如下:
(10)

2.2.2嵌入SE模塊
針對YOLOv4算法不能學習通道間特征重要程度的問題,考慮將SE模塊嵌入YOLOv4網絡中,從而提升算法的特征提取能力。SE模塊通常會在某些卷積層中使用,由于YOLOv4算法的特征提取網絡采用的是CSPDarkNet53結構,該結構對于圖像特征的提取能力已經足夠使用,不需要再嵌入SE模塊。故本文考慮在YOLO Head層前嵌入SE模塊,這樣既可以緩解干擾信息對模型的影響,又能減少SE模塊中全連接層帶來的運算量。圖5為改進后的SE-YOLOv4網絡結構圖。

圖5 改進后的SE-YOLOv4網絡結構圖Fig.5 Improved SE-YOLOv4 network structure diagram
訓練完成后,將測試集輸入到訓練好的YOLOv4與SE-YOLOv4網絡分別進行檢測,通過調整置信度的閾值來控制目標的檢測結果,當預測結果的置信度大于閾值則認為是目標,當預測結果的置信度小于閾值則認為不是目標,從而得到不同虛警概率下目標的檢測概率。
為了更好地評估算法的檢測性能,本文將YOLOv4和SE-YOLOv4算法得到的預測結果與真實結果進行對比,統計出其檢測概率Pd與虛警概率Pfa,隨后再與CFAR算法進行比較。由于預測框與實際框不能完全一致,故若預測框在距離維的對應點數處于真實框在距離維對應點數的±25%以內(包含25%),統計為正確檢測,超出±25%的部分統計為虛警。檢測概率Pd與虛警概率Pfa的計算公式如下:
(11)
(12)
式(12)中,Y為距離維總點數,y0、y1分別為實際框向上、向下擴展其長度25%所對應的距離維點數。
本文實驗采用Windows10系統,酷睿i9-10900F處理器,內存120 G,RTX3090顯卡,通過Matlab軟件對雷達接收到的回波信號進行預處理,使用cuda11.0、cudnn8.0、pytorch1.7.0搭建網絡模型,訓練完成后,在測試集上對模型進行檢測,隨后使用Matlab軟件對CFAR、YOLOv4及SE-YOLOv4算法的檢測結果進行統計評估。
對第1組原始一維信號進行數據預處理后得到1組大小為933×735,分辨率96dpi的目標R-D譜圖。隨后通過對第1組圖像增加椒鹽噪聲(salt and pepper noise)、高斯噪聲(gaussian noise)、隨機噪聲(random noise)以及變換通道 (transform channel)的方式進行數據增強,增強后的數據集共計6 650張圖像,并使用LabelImg軟件對圖像進行標注。按照9∶1的比例將數據集劃分為訓練集與驗證集,其中訓練集5 985張,驗證集665張。圖6是對同一張R-D譜圖進行4種方式的數據增強后得到的圖像。

圖6 數據增強Fig.6 Data enhancement
測試集采用在第2組原始一維信號上疊加噪聲后,再進行數據預處理,生成疊加噪聲功率分別為5、10、15、20 dB共計4組測試集,每組6 160張圖像。圖7為疊加噪聲功率為5、10、15、20 dB時的R-D譜圖。

圖7 不同疊加噪聲功率下的目標R-D譜圖Fig.7 R-D spectra of targets with different added noise powers
圖像輸入尺寸為608×608,共計訓練100代。前50代采用凍結網格的方式訓練,初始學習率為0.001,Batchsize為16;50至100代進行解凍訓練,Batchsize為4,初始學習率為0.000 1。圖8為模型訓練時的Loss下降曲線。

圖8 Loss下降曲線Fig.8 Loss decline curve
實驗中通過不斷調整CFAR算法的檢測門限,調整YOLOv4和SE-YOLOv4算法的置信度閾值,得到算法不同的檢測概率Pd與虛警概率Pfa,繪制出疊加噪聲功率分別為5、10、15和20 dB時的接收機工作特性(receiver operating characteristic, ROC)曲線[22],如圖9—圖12所示。由于雷達虛警概率通常保持在10-6量級左右,故本文僅對雷達虛警概率小于1×10-5時雷達的檢測性能進行統計評估。

圖9 疊加噪聲功率為5 dB的ROC曲線Fig.9 The ROC curve with the added noise power equal to 5 dB

圖10 疊加噪聲功率為10 dB的ROC曲線Fig.10 The ROC curve with the added noise power equal to 10 dB

圖11 疊加噪聲功率為15 dB的ROC曲線Fig.11 The ROC curve with the added noise power equal to 15 dB

圖12 疊加噪聲功率為20 dB的ROC曲線Fig.12 The ROC curve with the added noise power equal to 20 dB
從圖9—圖12中可以看出,在虛警概率小于1×10-5時,YOLOv4原模型與CFAR算法的檢測概率均不超過0.6,兩者檢測性能基本相當。當疊加噪聲功率變化時,YOLOv4原模型的檢測性能波動較為明顯,但CFAR算法的檢測性能波動不明顯,魯棒性更強。
對于SE-YOLOv4算法,當虛警概率大于2×10-6時,算法的檢測性能隨著疊加噪聲功率的增加略有下降。當虛警概率小于2×10-6,疊加噪聲為5 dB時,算法的檢測概率能夠保持在0.5~0.9之間,當疊加噪聲功率為10~20 dB時,算法的檢測性能隨著疊加噪聲功率的增加有所下降,但波動不明顯,基本保持在0.2~0.7之間,可以看出算法的檢測性能良好。
實驗表明,對原始YOLOv4算法的先驗框進行改進后,加大先驗框之間的尺寸差異,使得先驗框能夠與不同特征層更好地進行匹配,降低了算法的漏檢概率;其次,由于增加了SE模塊,改進后的SE-YOLOv4算法能夠在不改變網絡結構的情況下對特征圖進行重構,實現強調重要特征,忽略不重要的特征,增強模型的表征能力,進一步提高模型檢測性能。此外,由于算法的虛警概率是通過調整置信度的閾值來控制,當虛警概率小于2×10-6時,置信度閾值已經調整為極高值,導致算法在虛警概率小于2×10-6時,檢測概率快速下降。
針對基于傳統CFAR算法的MIMO雷達在地雜波較強的環境中對于小型多旋翼無人機檢測性能急劇下降的問題,本文基于YOLOv4算法對多旋翼無人機的R-D譜圖進行識別。在通過k-means聚類算法聚類后,對先驗框進行了針對性的縮放,使其能夠更好地匹配不同特征層。隨后通過對YOLOv4算法增加SE模塊,進一步增強了算法的檢測性能。實驗表明,改進后的SE-YOLOv4算法的檢測性能優于CFAR算法與YOLOv4原算法。后續將在SE-YOLOv4算法的基礎上繼續進行改進,進一步提升MIMO雷達對小型多旋翼無人機的檢測性能。