999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLO的航管一次雷達目標檢測方法

2024-01-16 06:46:12施端陽杜小帥
系統工程與電子技術 2024年1期
關鍵詞:特征檢測方法

施端陽, 林 強, 胡 冰, 杜小帥

(1. 空軍預警學院防空預警裝備系, 湖北 武漢 430019; 2. 中國人民解放軍95174部隊,湖北 武漢 430040; 3. 中國人民解放軍94005部隊, 甘肅 酒泉 735000)

0 引 言

航管一次雷達,作為航路飛行器的主要探測裝備,既可監視合作目標也可監視非合作目標,在航空管制中發揮著巨大的作用。由于雷達工作環境復雜,回波信號中包含大量的雜波和噪聲,如何從這些背景中檢測出目標是航管一次雷達面臨的首要難題。

早期的脈沖雷達將回波信號轉換為回波視頻,送到A顯上通過人工判斷的方式檢測目標。這種檢測方法可以清晰地觀察到波形頂部的細節,有助于判斷目標真偽,但缺點是檢測效率低,不適合長時間、大批量目標的檢測。現代雷達采用自動檢測技術根據檢測門限和判決準則自動判斷目標是否存在[1]。自動檢測方法中比較器輸入端的門限電壓需要根據噪聲背景的變化作適當調整,發展為自適應門限檢測。最常用的自適應門限檢測方法為恒虛警率(constant false alarm rate, CFAR)檢測[2],可在自動檢測時保持CFAR恒定,避免雷達終端因強干擾而過載,保證雷達的正常工作。但CFAR處理的前提是假設雜波或噪聲幅度的概率分布服從瑞利分布,對于非瑞利分布的情形并不適用。

常規的陸基對空警戒雷達的分辨力較低,在高仰角和平穩環境下的雜波模型服從瑞利分布,CFAR檢測可以獲得較好的檢測效果。但高分辨力雷達在某些特定條件下的雜波幅度概率分布更為復雜,通常服從威布爾分布、對數-正態分布或K分布等非瑞利分布。此時,傳統的CFAR檢測方法會出現較高且非恒定的虛警概率。高分辨力雷達具有較大的信號帶寬,通常為幾十兆、幾百兆,甚至超過1 GHz。航管一次雷達在寬帶模式下的信號帶寬達到幾十兆赫茲,與常規的窄帶雷達相比,具有較大的帶寬和較高的分辨力。因此,航管一次雷達采用傳統的CFAR檢測會導致某些場景下的虛警增多。文獻[3-5]針對傳統CFAR檢測算法在非瑞利分布時虛警概率顯著增高的問題,先后提出了zlog(z)-CFAR、加權似然-CFAR和四階統計量-CFAR等專用參量CFAR檢測算法,降低了CFAR損失。但這些方法仍是基于統計特性構建的判決模型,需要先驗知識做支撐。

隨著雷達分辨力的提高,回波信號中包含了更多的目標特征信息,這為基于特征的檢測方法提供了有利條件。該方法根據目標和背景回波在某個變換域上的特征差異性,將雷達目標檢測問題轉換為二元模式識別問題[6]。文獻[7]從雷達回波中提取平均功率和多普勒譜熵兩個特征,利用凸包訓練算法區分目標和雜波。文獻[8]采用支持向量機分類器根據時間信息熵、時間赫斯特指數和頻率峰均比3個特征,設計檢測器。文獻[9]從幅度域、多普勒域和時頻域提取7個特征,利用改進的K近鄰算法,提出了可控虛警的檢測方法。上述方法均采用機器學習算法通過人工提取特征構建目標檢測器,特征提取環節需要扎實的理論功底和大量的時間精力,導致方法的適用性受限。

深度學習方法通過深度神經網絡自動提取具有差異性的特征,避免了特征工程所需的大量領域知識和人力資源,極大地提高了效率。常見的深度學習目標檢測方法主要分為兩階段目標檢測方法和單階段目標檢測方法。兩階段檢測方法有區域卷積神經網絡(regions with convolutional neural networks, R-CNN)[10]、Fast R-CNN[11]、Faster R-CNN[12]等,單階段檢測方法有YOLO(you only look once)[13]、SSD(single shot detector)[14]、Retina-Net[15]等。兩階段目標檢測方法本質上包含了兩次目標檢測過程,雖然準確性較高,但增加了模型的復雜度,導致模型的計算效率較低,無法實現實時檢測。單階段目標檢測方法僅有一次目標檢測過程,模型結構簡單,計算速度快,在實時目標檢測中具有很大的優勢。由于航管一次雷達需要及時提供空中目標的位置信息,對空情的實時性要求較高,因此本文采用單階段目標檢測方法。在單階段目標檢測方法中,相較于單步多框檢測(single shot multibox detector,SSD)和Retina-Net算法,YOLO算法在較大的特征圖中構造檢測器,參數共享程度高,模型參數量更少。且YOLO采用聚類方法選取Anchor尺寸,與SSD和Retina-Net通過人工選擇的方式相比,獲得的Anchor更符合實際情況,模型在訓練時更易收斂,對小目標的檢測效果更好。航管一次雷達除了監視民航等大飛機外,還需要對戰斗機等小飛機進行探測,因此本文提出了基于YOLO的深度學習雷達目標檢測方法。根據航管一次雷達的實測數據,利用脈沖壓縮后的方位-距離二維雷達原始圖像構建雷達目標數據集;通過改進YOLO的網絡結構、網絡特征和損失函數,提高YOLO檢測模型的精度;引入遷移學習思想[16],先利用ImageNet數據集[17]對模型進行預訓練,后利用雷達目標數據集進行再訓練,減少訓練所需的樣本量。運用訓練好的YOLO檢測模型,對雷達原始圖像中的目標和背景進行區分,從而檢測出雷達目標。

1 雷達目標檢測框架

雷達目標檢測框架如圖1所示。首先,對雷達回波信號進行預處理,生成雷達原始圖像;然后,利用雷達原始圖像構建雷達目標數據集;最后,利用數據集對YOLO檢測模型進行訓練和測試,并與CFAR和Faster R-CNN的檢測性能作對比。

圖1 雷達目標檢測框架Fig.1 Radar target detection framework

1.1 信號預處理

采集某型航管一次雷達接收機輸出的數字同相/正文(in-phase/quadrature,I/Q)信號。對I/Q信號進行靈敏度時間控制(sensitivity time control, STC)[18]和干擾抑制后,進行脈沖壓縮處理以提高回波信號的信噪比和信雜比。由于該型雷達的發射波形采用長/短脈沖組合形式,脈沖壓縮時,長/短脈沖采用不同的脈壓系數,分時進行處理。將脈壓后的長/短脈沖分別對應遠/近距離進行拼接,進行視頻處理后形成方位-距離二維的雷達原始圖像。

由圖1可以看出,脈沖壓縮后回波信號的信噪比得到大幅提升,使兩批目標能夠清晰地顯現,脈壓后的信號直接視頻輸出得到雷達原始圖像。圖1中為一幀雷達原始圖像,其橫向為3 726個方位序列,表示0°~360°的探測方位范圍,縱向為20 796個距離單元,表示0~150 km的探測距離范圍。由于雷達原始圖像未經過動目標顯示(moving target indication, MTI)[19]、動目標檢測(moving target detection, MTD)[20]和CFAR等后續的信號處理,所以包含大量的雜波。

1.2 數據集構建

目前,雷達目標檢測領域公開的數據集主要基于SAR、X波段和毫米波等高分辨力雷達構建[21-29]。針對分辨力中等的航管一次雷達,尚未有公開的數據集發布。因此,本文根據航管一次雷達寬帶模式下探測空中目標的雷達原始圖像自行構建數據集。

由于整幀雷達原始圖像覆蓋空域過大,空中目標顯示不明顯。采取放大、裁剪等方式從雷達原始圖像中截取帶有目標、雜波的局部圖像。由于改進后的YOLO算法下采樣率為32,為了使特征圖只有一個中心以提高預測邊界框的效率,檢測模型對輸入圖像的尺寸要求由448×448改為416×416。從雷達原始圖像中共選取1 141張416×416像素的雷達圖像構成數據集,其中目標圖像由60張一批一架的軍航飛機圖像、11張一批兩架的軍航飛機圖像和500張民航飛機圖像構成,雜波圖像由290張地物雜波圖像和280張氣象雜波圖像組成。將數據集按4∶1的比例分成包含913張圖像的訓練集和包含228張圖像的測試集,并使用LabelImg工具[30]對數據集進行標注。部分數據集如圖2所示。

圖2 數據集示例Fig.2 Dataset example

2 基于YOLO的雷達目標檢測模型

YOLO是最早出現的單階段目標檢測算法,將整幅圖像作為輸入,充分利用整張圖像的上下文信息,通過神經網絡直接回歸目標的位置坐標和類別概率,具有較快的檢測速度,可以實現實時目標檢測。

2.1 YOLO算法原理

YOLO算法將整張輸入圖像均勻劃分為S×S個子區域,若待檢測目標的中心點在某個子區域中,則由該子區域執行檢測該目標的任務。每個子區域會預測B個邊界框以及這些邊界框包含目標的置信度。置信度反映了該邊界框框中目標的概率以及邊界框位置的準確程度。置信度的計算公式為

(1)

每個邊界框包含x、y、w、h和置信度5個參數。x和y為邊界框的中心相對于子區域左上角的偏移距離,w和h為邊界框相對于整幅圖像的寬和高。

每個子區域還預測了C個條件類別概率Pr(Classi|Object)。這些概率以子區域包含目標為前提,表示該目標為某個類別的概率。在此,YOLO算法默認每個子區域只包含一個目標,所以無論預測多少個邊界框,只需要回歸一組條件概率。

測試時,將邊界框的置信度與條件概率相乘得到該邊界框出現某個類別目標的概率:

(2)

2.2 YOLO網絡結構

YOLO算法采用卷積神經網絡自動提取圖像的特征。YOLO的網絡結構如圖3所示,借鑒了GoogLeNet的網絡結構,先利用24個卷積層提取特征,再通過兩個全連接層回歸預測框的坐標、置信度和類別概率,最后輸出的特征圖尺寸為7×7×30。由于特征提取網絡的最后兩層是全連接層,所以整個網絡的輸入圖像尺寸要固定為448×448。

圖3 YOLO網絡結構Fig.3 Network structure of YOLO

2.3 YOLO訓練方法

由于YOLO模型的參數眾多,若從頭開始訓練不僅需要高昂的硬件資源和時間成本,還需要大量帶標注的數據集。本文自建的雷達圖像數據集規模有限,訓練YOLO模型時易導致模型過擬合。另外,深度卷積神經網絡的淺層結構主要學習圖像的通用特征,具有一定的任務無關性,深層結構才會學習到與雷達目標檢測任務相關的特殊特征,因此可利用現有的數量充足的數據集對模型進行預訓練得到大部分網絡結構參數,再利用少量雷達圖像數據集對深層結構進行參數微調,使模型更適合雷達目標檢測任務。ImageNet數據集包含了1 000個類別的千萬張圖片,涵蓋了生活中常見的各類圖像,具有遷移分類預訓練的巨大優勢。因此,YOLO模型訓練時, 引入遷移學習的思想,先基于ImageNet分類數據集進行預訓練,后通過雷達圖像數據集進行再訓練。預訓練時,取YOLO網絡的前20個卷積層,加上一個全連接層構成分類模型,并在ImageNet分類數據集上進行訓練。此時,分類模型訓練的圖像尺寸為224×224。預訓練完成后,在前20個卷積層后連接4個新的卷積層和兩個全連接層,構造出YOLO網絡。此時的YOLO網絡前20個卷積層的結構和參數由分類模型遷移而來,剩余4個卷積層和兩個全連接層的參數通過隨機方式進行初始化,并利用雷達目標數據集進行訓練,確定最終的模型參數。

訓練的損失函數包含正樣本中心點坐標的損失、正樣本寬高的損失、正樣本的置信度損失、負樣本的置信度損失和正樣本的類別損失5個部分,定義如下:

(3)

3 YOLO檢測模型的改進

盡管YOLO模型具有速度快、魯棒性高的優點,但由于每個子區域只預測兩個邊界框,且只有一個類別,導致模型對小目標和距離較近的群目標的檢測效果不佳。另外,由于沒有類似Anchor的先驗框,導致模型對新目標或寬高比例不常見目標的檢測效果不好。針對YOLO的不足,從網絡結構、網絡特征和損失函數3個方面進行改進。

3.1 網絡結構改進

借鑒殘差網絡和特征融合的思想,引入DarkNet-53網絡,并加入空洞卷積模塊構建出新的網絡結構。

3.1.1 DarkNet-53

DarkNet-53網絡中使用了大量的殘差連接,網絡深度較高,并且緩解了訓練中梯度消失的問題,使模型更易收斂。DarkNet-53沒有采用池化操作,而是通過步長為2的卷積核實現降維,下采樣次數為5次,總體下采樣率為32。

3.1.2 空洞卷積模塊

空洞卷積模塊可以在不增加計算量和不造成特征損失的情況下,增加特征圖的感受野[31]。該模塊可以以任何分辨率插入到現有架構中,不容易對背景產生誤判,提高小目標的檢測效果。空洞卷積核計算方法為

fn=fk+(fk-1)*(r-1)

(4)

式中:fk為原卷積核大小;r為空洞率;*為卷積操作。

感受野為

(5)

式中:lm-1為前一層的感受野大小;si為第i層的步幅。

在DarkNet-53網絡的中層特征圖后加入膨脹系數為1、2和4的空洞卷積,使卷積層提取多尺度圖像的上下文信息,獲得更多的圖像特征,改進后的YOLO網絡結構如圖4所示。

圖4 改進的YOLO網絡結構Fig.4 Improved network structure of YOLO

3.2 網絡特征融合

圖4中,改進后的YOLO網絡采用張量拼接操作,融合淺層和深層特征,具有更好的多尺度表達能力。特征融合的具體過程為,假設第一個用于檢測的特征圖是網絡的第n層,在網絡中取較淺的第m(m

YOLO網絡基于Concat操作,輸出3種尺度的特征圖,特征圖上的每個位置使用3個錨,特征圖需要預測的參數數量為N×N×3×(4+1+C),其中N×N為特征圖的尺寸大小,3代表3個錨框,4代表預測的邊界框的4個坐標,1代表邊界框框中目標的置信度,C代表回歸的類別數。在雷達目標檢測任務中,不考慮背景類,只有航空器一類目標,因此C取1,網絡輸出的特征圖尺寸為13×13×18、26×26×18和52×52×18。這3種特征圖分別對應了深層、中層和淺層的特征,既便于檢測民航、軍用運輸機等大尺度目標也便于檢測直升機、戰斗機等小尺度目標。

3.3 損失函數改進

在類別預測時,采用回歸預測,用Logistic函數替換Softmax函數,將分類損失改為二分交叉熵損失。由于雷達目標檢測時只有航空器這一類目標,因此不必計算分類誤差,僅需計算位置誤差和置信度誤差。改進后的損失函數為

(6)

式中:前兩項表示位置誤差,后兩項表示置信度誤差。

4 實驗結果及分析

本實驗基于Windows10操作系統,軟硬件平臺:CPU為Intel(R) Core(TM) i7-10750H @2.60 GHz,GPU為NVIDIA Quadro P620,內存8 GB,支持CUDA10.1加速,運用Python語言在Pytorch框架上搭建雷達目標檢測模型。

4.1 實驗設置及訓練過程

自建雷達圖像數據集,數據集為1 141張航管一次雷達原始圖像,包含多機型、多尺度的目標和雜波圖像。為了便于計算,在訓練集中隨機選擇840張圖片進行訓練,測試集中隨機選擇210張圖片進行測試,訓練樣本與測試樣本相互獨立,互不重復。對經過ImageNet數據集預訓練的YOLO模型進行再訓練,采取隨機梯度下降法,批處理大小設為2,初始學習率為0.01,動量設為0.9,權重衰減系數設為0.000 5,迭代次數設為100次。

改進前后的YOLO模型訓練時,YOLO算法的位置損失和置信度損失曲線,精確率和召回率曲線如圖5~圖8所示。可以看出,隨著迭代次數增加,改進前后目標的位置損失和置信度損失均逐漸下降,精確率和召回率均逐漸上升,說明模型訓練階段各參數設置合理。相比于改進前的YOLO模型,改進后的YOLO模型損失曲線下降更快,精確率和召回率曲線更易收斂,說明改進后的YOLO模型效果更好。

圖5 改進前損失曲線Fig.5 Loss curves before improvement

圖6 改進后損失曲線Fig.6 Loss curves after improvement

圖7 改進前精確率和召回率曲線Fig.7 Precision and recall curves before improvement

圖8 改進后精確率和召回率曲線Fig.8 Precision and recall curves after improvement

4.2 評價指標

為了方便與CFAR、Faster R-CNN等檢測算法的性能作對比,將檢測率、虛警率以及檢測時間作為評價模型檢測性能的指標。其中,檢測率和虛警率的計算公式分別為

(7)

(8)

式中:DR為檢測率;FR為虛警率;TP為被正確檢測出的雷達目標數量;FP為將雜波誤檢為雷達目標的數量;T為測試集中雷達目標總數。

4.3 檢測結果對比

3種雷達目標檢測方法分別采用同樣的數據集進行檢測。其中,航管一次雷達CFAR檢測方法的檢測率和虛警率通過采集數據時雷達P顯界面統計得出。該型航管雷達的P顯界面如圖9所示。圖9中,黃色方框標注的回波是某一幀數據中雜波幅度超過CFAR檢測門限后,形成的5個虛假目標,即CFAR檢測時產生的虛警。只不過這些虛假目標在連續3幀數據中的位置無規律性,不滿足“3點起批”的條件,所以并未形成航跡。但就CFAR檢測方法自身而言,黃色方框中的回波應計入該檢測方法的虛警率,其他帶批號且形成航跡的回波為雷達檢測到的真實目標,應計入檢測率。經過統計,該型雷達CFAR檢測方法的檢測率為80%,虛警率為26.98%,檢測速度為0.01 s。

圖9 雷達顯示界面Fig.9 Radar display interface

Faster R-CNN和YOLO兩種方法的部分檢測結果如圖10所示。圖10(a)和圖10(d)分別展示了兩種方法對雙目標的檢測結果,其中紅色框和黃色框分別表示兩種方法正確檢測到的目標,紫色框表示未檢測到的目標,即漏警,可由紅色框和黃色框的數量計算出兩種方法的檢測率,由紫色框的數量計算出兩種方法的漏警概率。從兩者的對比可知,YOLO檢測方法的檢測率更高,Faster R-CNN會產生漏警,檢測率較低。圖10(b)和圖10(e)分別展示了兩種方法對雜波區的單目標檢測效果,兩種方法均能夠在雜波中檢測出目標。圖10(c)和圖10(f)中黑色框分別展示了兩種方法誤將雜波檢測為目標的情況,即產生的虛警,可由黑色框的數量計算出兩種方法的虛警概率,兩圖的對比說明Faster R-CNN更容易產生虛警。

圖10 兩種方法的檢測結果Fig.10 Test results of two methods

Faster R-CNN和YOLO兩種檢測模型的虛警率-檢測率接收器操作特性(receiver operating characteristic,ROC)曲線如圖11所示。圖11中,橫軸為虛警率,縱軸為檢測率,藍色實線為YOLO模型的ROC曲線,曲線下面積(area under curve,AUC)為0.92,紅色虛線為Faster R-CNN模型的ROC曲線,AUC為0.88,說明YOLO檢測模型的效果比Faster R-CNN更好。經過統計,3種檢測方法的檢測性能如表1所示。

表1 不同方法檢測性能對比Table 1 Detection performance of different methods

圖11 兩種方法的ROC曲線Fig.11 ROC curves of two methods

從表1可看出,改進的YOLO檢測方法的檢測率達到96.67%,虛警率降至5.24%,檢測時間為0.15 s,接近實時性檢測要求。綜合看來,改進后的YOLO檢測方法的檢測性能最優,可提高航管一次雷達對空中目標的檢測效果。

5 結束語

本文將YOLO算法應用到航管一次雷達對空中目標的檢測任務中,引入空洞卷積模塊改進特征提取網絡結構,并通過特征融合提高模型對多尺度目標的檢測精度。針對中等帶寬雷達圖像數據集的空白,利用航管一次雷達在寬帶工作模式下的實測數據,構建了雷達目標圖像數據集對檢測模型進行訓練和測試。

實驗結果表明,不僅具有高分辨力的SAR、X波段和毫米波等雷達可以使用深度學習方法從圖像層面進行目標檢測,具備中等分辨力的航管一次雷達也可以在圖像層面實現深度學習目標檢測功能。綜上,深度學習目標檢測方法在雷達目標檢測領域具有良好的應用價值和前景。下一步的研究中,需要完善雷達目標圖像數據集,繼續優化模型,提高算法的檢測速度,并對該方法的泛化性進行探索。

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 一本大道香蕉久中文在线播放| 欧美一级黄色影院| 青青操视频免费观看| 久久国产精品夜色| 成人综合网址| 亚洲毛片在线看| 国产精品九九视频| 国产精品成人一区二区不卡 | 欧美激情视频二区| 欧美成人午夜影院| 无码中文AⅤ在线观看| 日韩黄色在线| 毛片网站免费在线观看| 亚洲最黄视频| 福利在线不卡一区| 亚洲a免费| 极品尤物av美乳在线观看| 日韩视频免费| 57pao国产成视频免费播放| 色综合婷婷| 免费 国产 无码久久久| 国内精自视频品线一二区| 国产尹人香蕉综合在线电影| 国产精品页| 国产第八页| h网址在线观看| 欧美69视频在线| 99久久免费精品特色大片| 国产又爽又黄无遮挡免费观看| 欧美精品成人一区二区在线观看| 亚洲欧美日韩另类在线一| 日韩区欧美国产区在线观看| 欧美一区二区三区香蕉视| 亚洲国产欧美目韩成人综合| 日韩在线2020专区| 亚洲欧美自拍一区| 一本综合久久| 国产激情影院| 国产女人在线| 全部免费毛片免费播放| 国产99视频精品免费视频7| 国产欧美日韩精品综合在线| 成人在线观看一区| 亚洲天堂777| 伊人五月丁香综合AⅤ| 18禁不卡免费网站| 谁有在线观看日韩亚洲最新视频 | 亚洲日韩精品无码专区97| 狂欢视频在线观看不卡| 中文字幕亚洲无线码一区女同| 亚洲无线视频| 精品欧美一区二区三区久久久| 欧美人人干| 日韩人妻无码制服丝袜视频| 波多野结衣久久精品| 国产精品手机在线播放| 国产另类乱子伦精品免费女| 亚洲综合香蕉| 欧美中文一区| 久久精品国产999大香线焦| 亚洲αv毛片| 五月天福利视频| 日韩一区精品视频一区二区| 国产欧美高清| 国产美女91视频| 国产精品尤物在线| 毛片网站在线播放| 久久国产精品无码hdav| 特级aaaaaaaaa毛片免费视频| 91小视频在线观看| 尤物特级无码毛片免费| 最新加勒比隔壁人妻| 精品夜恋影院亚洲欧洲| 98精品全国免费观看视频| 亚洲无码免费黄色网址| 国产欧美日韩专区发布| 国产91高跟丝袜| 日韩精品无码不卡无码| 亚洲视频免| 青青草一区二区免费精品| 激情无码视频在线看| 欧美区国产区|