肖術明, 張 葉*, 常旭嶺, 孫建波
(1.中國科學院 長春光學精密機械與物理研究所,吉林 長春 130033;2.中國科學院大學,北京 100039)
航天光學遙感(Space Optical Remote Sensing,SORS)場景的艦船檢測是遙感領域的研究熱點。艦船檢測具有廣泛的民用和軍事價值,例如搜索和救援、港口管理、海洋環(huán)境監(jiān)控、領土安全和軍事偵察[1-4]。隨著SORS成像系統(tǒng)成像分辨率的不斷提高,系統(tǒng)獲取的場景數據量也急劇增加。為了緩解數據存儲和實時傳輸的巨大壓力,傳統(tǒng)的SORS成像系統(tǒng)并不會直接存儲和傳輸探測器采集的原始場景數據,而是在傳輸前對數據進行壓縮,以節(jié)省時間和空間資源。然而,這種方法數據采集的理論基礎是奈奎斯特采樣定理,必須以不小于信號帶寬兩倍的采樣率對原始模擬信號進行均勻采樣,以保存信號信息[5]。這就導致冗余信息只能在壓縮階段被丟棄,從而浪費了成像系統(tǒng)前端使用高成本檢測器獲取的采樣資源。
壓縮感知(Compressive Sensing,CS)是一項新興技術,如果信號在某個變換域是稀疏的,則高維信號可以通過與變換基無關的測量矩陣投影到低維空間,并且可以以遠低于該變換基的采樣率準確恢復原始信號[6-7]。CS技術突破了奈奎斯特采樣定理的瓶頸,能夠以較低的采樣率(遠低于奈奎斯特采樣率)采集場景數據,從而在數據采集的同時完成數據壓縮。此外,CS重構算法可以在原始數據稀疏的前提下,根據采集到的采樣數據,理想地重構原始數據[8],這就緩解了數據存儲和實時傳輸的巨大壓力。
最近,一種基于CS的SORS成像系統(tǒng)被提出[9-11],它憑借CS技術在采樣階段通過硬件同時進行采樣和壓縮。因此,成像系統(tǒng)可以減少對采樣設備的需求,有效減少采樣數據,節(jié)省存儲空間,降低傳輸成本。當基于CS的SORS成像系統(tǒng)面臨艦船檢測任務時,需要的結果是艦船的位置屬性。圖1(a)顯示了基于CS的SORS成像系統(tǒng)執(zhí)行船舶檢測任務的流程。首先,光學系統(tǒng)對場景進行壓縮采樣獲得CS測量值。然后,圖像重建算法[12-14]作用于測量值得到重建的原始場景。最后,基于圖像的艦船檢測算法[15-17]作用于重建場景得到艦船位置信息。然而,將測量值重建為原始場景的過程計算成本高、內存要求高且耗時。因此,直接對CS測量值進行艦船檢測可以有效地解決上述問題。圖1(b)顯示了本文提出的基于CS的SORS成像系統(tǒng)執(zhí)行艦船檢測任務的流程。首先,與圖1(a)中的第一步相同,光學系統(tǒng)對場景進行壓縮采樣獲得測量值。然后,將基于測量值的艦船檢測算法直接應用于測量值得到艦船檢測結果。

圖1 基于 CS 的 SORS 成像系統(tǒng)執(zhí)行船舶檢測任務的流程示意圖,其中數字鏡像設備 (Digital Mirror Device,DMD) 表示基于 CS 的成像系統(tǒng)中的測量矩陣Fig.1 Illustration of the pipeline of the CS-based SORS imaging system to perform ship detection tasks, where digital mirror device (DMD) denotes a measurement matrix in the CS-based imaging system
近年來,基于卷積神經網絡(Convolutional Neural Network,CNN)的圖像艦船檢測算法可以有效地學習復雜特征,實現高精度的艦船檢測。文獻[18]借助多尺度特征金字塔網絡,利用RetinaNet來檢測SAR圖像中的船只,可以更好地檢測多尺度艦船。文獻[19]采用基于無先驗框的目標檢測方法,利用CenterNet來檢測遙感圖像中的艦船。文獻[20]通過分辨率歸一化制作混合的訓練樣本數據集,在Faster-R-CNN的框架下構建了一個3層卷積神經網絡的艦船檢測算法,取得了較好的檢測效果。文獻[21]通過模型剪枝,利用剪枝后的YOLOv3框架對衛(wèi)星圖像進行船只檢測,取得了較好的實時檢測效果。然而,這些基于CNN的方法都用于提高場景艦船檢測的準確性,而不能應用于CS測量值的艦船檢測。
基于CNN的方法可以有效地處理壓縮后的圖像數據。Fu等人[22]提出了一種基于離散余弦變換(Discrete Cosine Transform ,DCT)的算法來對圖像進行壓縮,然后將其輸送到神經網絡。該方法在減小少量準確率的基礎上大大增加了神經網絡的訓練速度。Torfasson等人[23]設計了一個編解碼神經網絡來學習RGB圖像壓縮域中的目標屬性。Benjamin Deguerre等人[24]使用8×8內核和8步長的卷積層來保持DCT塊的一致性,隨后連接到改進的SSD網絡,以實現壓縮域圖像的快速圖像處理。然而,這些基于CNN的方法似乎是對壓縮域進行圖像處理,但實際上,它們仍然使用原始圖像進行圖像處理。
本文在基于CS的SORS成像系統(tǒng)的基礎上,提出了應用于SORS場景CS測量值的艦船檢測模型——基于壓縮感知和改進YOLO(Compressive Sensing and Improved You Only Look Once,CS-IM-YOLO)的測量值艦船檢測算法。CS-IM-YOLO首先利用卷積測量層模擬CS成像系統(tǒng)的壓縮采樣過程從而獲得全圖測量值,然后利用改進的主干網絡提取測量值的特征信息,最后利用特征金字塔網絡加強特征提取,獲得艦船目標的位置信息。
本文提出的CS-IM-YOLO算法可以用于SORS場景CS測量值的艦船檢測,CS-IM-YOLO的總體組成如圖2所示,網絡由三部分組成:場景壓縮采樣部分,測量值特征提取部分和多特征層特征預測部分。本章首先是模型整體概述,然后是模型中三個關鍵組件的詳細實現,最后介紹了整體框架的聯(lián)合訓練優(yōu)化。

圖2 CS-IM-YOLO的總體框架示意圖,包括三部分:CML,IDBN和FPNFig.2 Illustration of the overall framework of CS-IM-YOLO, including three parts: CML, IDBN and FPN
給定SORS場景X,首先卷積測量層(Convolutional Measurement Layer,CML)對場景分塊壓縮采樣獲得全圖CS測量值Y,該過程模擬了基于CS的SORS成像系統(tǒng)的壓縮采樣過程。該過程可以表示為:
其中,CML(·)表示壓縮采樣過程。然后,給定獲取的全圖測量值Y,改進的Darknet53主干網絡(Improved Darknet53 Backbone Network,IDBN)對測量值進行特征提取得到艦船特征信息,特征金字塔網絡(Feature Pyramid Network,FPN)進一步強化特征提取并且融合淺層、中層和高層特征信息,進而完成艦船目標的位置預測。主干網絡提取測量值多層特征信息feat1′,feat2′和feat3′的過程可以表示為:
其中:IDBN(·)表示特征提取過程。FPN輸出的特征層y1,y2和y3分別為13×13×18,26×26×18和52×52×18,通道數18表示采用3種先驗框預測的3個預測框信息。FPN的加強特征提取過程可以表示為:
其中,FPN(·)表示加強特征提取過程。利用非極大值抑制(Non Maximum Suppression,NMS)算法去除多余預測框,獲得得分最高的艦船位置預測框。
在整體框架聯(lián)合訓練后,優(yōu)化后的CML權重值為基于CS的SORS成像系統(tǒng)中的測量矩陣。IDBN和FPN組成場景CS測量值的艦船檢測模型。
CS測量值艦船檢測的前提是測量值的獲取。在基于CS的SORS成像系統(tǒng)中,通過壓縮采樣過程完成數據采集。CS理論中傳統(tǒng)壓縮采樣問題首先場景需要滿足稀疏條件,然后采樣矩陣需要滿足約束等距性質(Restricted Isometry Property,RIP)。現有的采樣矩陣都是信號獨立的,沒有考慮被采樣信號的特性從而不能使測量值中保留更多的信息。而基于CNN的方法可以更加有效地解決CS中的壓縮采樣問題。
為了模擬這個過程,參考壓縮感知重建相關工作[25]中的壓縮采樣過程,本文采用一個無偏置無激活函數的CML來測量場景。訓練后CML中卷積核的權重值為自學習測量矩陣(Learned Measurement Matrix,LMM)[25,26],即CS中 壓 縮采樣過程的測量矩陣。
壓縮采樣過程如圖3所示。在圖3(b)中,場景首先被劃分為非重疊的場景塊wm×hm=。其中,W,H和Dp分別是場景的寬、高和通道數(Dp=3),B是場景的分塊尺寸。在圖3(a)中,每個場景塊可以表示為,其中i是場景塊的標簽(i=1,2,…,wmhm),使用尺寸為MRsB2Dp×B2Dp的CS測量矩陣ΦCML來獲取場景塊的CS測量值(MRs是CS技術中的測量率,即基于CS的SORS成像系統(tǒng)獲得的壓縮測量數據量與原始場景數據量的比值)。這個過程可以表示為:
由于測量矩陣ΦCML中的列數為B×B×Dp,所以CML中每個卷積核的尺寸也為B×B×Dp,因此每個卷積核輸出一個測量值。由于測量矩陣ΦCML中的行數為MRs×B×B×Dp,所以CML中需要MRs×B×B×Dp個卷積核來獲得MRs×B×B×Dp個測量值。此外,CML中沒有偏置值和激活函數,CML的步幅尺寸設置為B×B實現非重疊采樣。如圖3(b)所示,每個場景塊的輸出由MRs×B×B×Dp個特征映射組成。場景壓縮采樣過程可以表示為:

圖3 壓縮采樣過程的示意圖Fig.3 Illustration of compression sampling process
其中:*表示卷積運算;X表示場景;Wcml表示CML的權重值,即CS中的LMM;Y表示場景的CS測量值。
因為卷積核的數量需要滿足不等式MRs×B×B×Dp≥1,所以需要MRs≥1/12。為了避免在單個MR中場景壓縮采樣的偶然性,在CS的研究工作[27-28]中將MRs直接取為25%,10%,4%和1%。因此,本文設置的步幅和MRs之間的對應關系如表1。

表1 步幅和MRs之間的對應關系取值Tab.1 Relationship between stride and MRs
由于CS測量值的數據量遠低于其對應的原始場景,因此測量值的特征提取網絡需要提取高質量的淺層、中層和高層特征信息。本文參考相關工作[29]中的特征提取網絡,采用了一種現有的框架結構Darknet53。Darknet53中的殘差網絡能夠通過增加網絡深度來提高準確率,其內部的殘差塊使用了跳躍連接,緩解了在深度CNN中增加深度帶來的梯度消失問題。
2.3.1 改進的Darknet53主干網絡
改進的Darknet53的結構如圖4所示。其中,Conv表示卷積層,ResN表示N個殘差塊的集合,ResN的特性是在特征圖尺寸減半的情況下通道數加倍。CS測量值Y可以表示為Y∈Rwm×hm×MRsB2Dp(wm×hm是測量值的尺寸),首先尺寸為3×3、步長為1的卷積層對測量值進行卷積運算得到通道數為32的特征圖。然后不斷的通過1×1卷積和3×3卷積以及殘差邊的疊加得到淺層、中層和高層的艦船特征信息feat1′,feat2′和feat3′。測量值特征提取過程可以表示為:

圖4 改進的Darknet53主干網絡結構示意圖Fig.4 Illustration of improved Darknet53 backbone network
其中,Wbb+se表示IDBN的網絡參數。
改進的Darknet53網絡中除了首個卷積層外其他的卷積層都采用特有的DarknetConv2D結構,即每次卷積都進行BatchNormalization標準化與LeakyReLU非線性運算。LeakyReLU非線性運算的數學表達式如式(7)所示,超參數ai取0.01。
盡管Darknet53網絡可以從測量值中提取多層特征信息,但是它無法從測量值中提取到艦船的關鍵信息。SENet(Squeeze-and-Excitation Netwoks,SENet)模塊可以在特征提取過程中將更多注意力放在艦船區(qū)域,以獲取有關艦船的關鍵特征信息,并且抑制其他無用信息。本文將SENet添加到Darknet53網絡中,得到改進的Darknet53主干網絡。
2.3.2 SENet模塊
SENet模塊添加到Darknet53的位置如圖4所示,即SENet添加到淺層、中層和高層特征的輸出部分。SENet模塊的特征處理過程如圖5所示,MaxP表示max pool層,AvgP表示avg pool層,Sig表示sigmoid函數。輸入該模塊的特征可以表示為,其中W×H是場景的尺寸,Cse是Fint的特征通道數(se=1,2,3,C1=256,C2=512,C3=1024),sse對應輸入場景的下采 樣 率(se=1,2,3,s1=8,s2=16,s3=32)。首先,采用MaxP和AvgP沿通道軸生成一維特征。然后,采用Conv和Sig來獲得特征中元素特性。最后,將得到的各個元素特性乘以輸入特征。SENet的運算過程可以表示為:

圖5 SENet的結構示意圖Fig.5 Illustration of SENet
其中:×表示乘法運算;MPool(·)和APool(·)分別表示最大池化運算和平均池化運算;Conv3×3(·)表示3×3的卷積運算;Sig(·)表示sigmoid非線性運算。
基于無先驗框的目標檢測模型有很多研究工作[30-31],但是基于先驗框的目標檢測模型才是主流算法,而且基于無先驗框的目標檢測模型并沒有明顯的檢測優(yōu)勢[32]。因此,CS-IM-YOLO采用基于先驗框的模型來預測艦船的位置信息。
2.4.1 基于特征金子塔的加強特征提取
為了采用基于先驗框的模型預測艦船的中心位置信息和寬高位置信息,本文利用特征金字塔網絡來加強特征提取。由于待檢測艦船的目標尺寸差異很大,包括大型貨輪、中型船只和小型巡洋艦,FPN會提取3個尺度的特征層。FPN的結構如圖6所示,其中ConvSet表示卷積層的集合,Upsam表示上采樣。來自IDBN的淺層、中層和 高 層 的特征信息feat1′,feat2′和feat3′可以表示為,其中Ca是Ffeat的特征 通 道 數(a=1,2,3,C1=256,C2=512,C3=1 024)。sa對應輸入場景的下采樣率(s1=8,s2=16,s3=32)。通過FPN網絡完成上采樣和特征信息融合得到輸出特征層y3,y2和y1。圖6展示了3種尺度特征層的前圖感受野:13×13,26×26,52×52。加強特征提取的過程可以表示為:

圖6 FPN的結構示意圖Fig.6 Illustration of FPN
其中,Wfpn表示FPN的網絡參數。
2.4.2 多特征層位置信息預測
對于輸出特征層y1,y2和y3,每個特征層存在3種尺寸的先驗框。先驗框的大小和形狀是通過k-means算法在訓練集上獲得,本文獲得的3種尺度的9個先驗框分別為:(20,29),(40,70),(99,30),(20,147),(123,67),(51,170),(96,127),(96,247)和(178,166)。對于特征層y3,y2和y1,每個網格單元(y1具有169個網格單元,y2具有676個網格單元,y3具有2 704個網格單元)會預測3個預測框的信息,預測信息包括預測框的中心坐標(tx,ty),寬度和高度(tw,th),艦船的置信度和類別概率(c,p)。預測目標絕對位置(bx,by,bw,bh)的 計 算 公 式 如 式(10)~式(13)所示:
其中:cx和cy表示網格單元左上角點的坐標;pw和ph分別表示先驗框的寬度和高度;exp(·)表示指數運算。
由于聯(lián)合訓練優(yōu)化在測量值艦船檢測算法中起著至關重要的作用,本文通過學習模型中的所有參數來訓練CML和測量值艦船檢測網絡。模型中所有參數的集合可以表示為Θ={Wcml,Wbb+se,Wfpn},而聯(lián)合訓練的過程就是獲得最優(yōu)的網絡參數。如圖7所示,黑色箭頭表示壓縮采樣部分和測量值艦船檢測部分的聯(lián)合訓練過程,紅色箭頭表示測量值艦船檢測的測試過程。首先,訓練好的CML對SORS場景進行壓縮采樣得到測量值,然后測量值艦船檢測網絡提取測量值中的艦船位置信息(彩圖見期刊電子版)。

圖7 CS-IM-YOLO聯(lián)合優(yōu)化過程示意圖Fig.7 Illustration of joint optimization process of CS-IM-YOLO
本節(jié)通過實驗來驗證CS-IM-YOLO應用于HSR2016數據集[33]中SORS場景CS測量值艦船檢測的準確率。
HRSC2016數據集中的艦船包括海上艦船和近海艦船,共有1 680張圖像。數據集分為訓練集,驗證集和測試集,其中驗證集損失值最小時所對應的迭代次數就是最佳訓練次數。表2列出了訓練集,驗證集和測試集中的樣本數量,分別包含1 176,168和336張場景。部分數據集圖像如圖8所示。

圖8 HRSC2016部分數據集圖像Fig.8 Part of HRSC2016 dataset

表2 數據集的劃分Tab.2 Dataset partitioning
深度學習(Deep Learning,DL)對硬件要求較高,因此CS-IM-YOLO采用表3中的實驗環(huán)境。由于實驗中場景尺寸不同,在輸入網絡之前將數據集圖像統(tǒng)一設置為416×416。

表3 實驗環(huán)境Tab.3 Experimental environment
表4顯示CS-IM-YOLO訓練的參數設置。考慮到GPU內存8 G,將批量大小設置為8。

表4 實驗參數Tab.4 Training parameters
艦船檢測的預測框與艦船真實框之間的重合度由相交比(Intersection over Union,IoU)表示,其計算公式如式(14)所示:
其中:S∩是預測框和真實框重疊區(qū)域面積,S∪是預測框和真實框的總面積。
如果預測結果與真實值之間的IoU>0.5,則將其定義為真正的正樣本(True Positives,TP)。如果IoU<0.5,則將其定義為假的正樣本(False Positives,FP)。未檢測到的真實目標定義為錯的負樣本(False Negatives,FN)。精度和召回率通常用作評估標準,其計算公式如式(15)~式(16)所示:
然而,由于精度和召回率在數字上是矛盾的,本文添加了F1值和AP值作為評估指標。F1值是精確性和召回率之間不平衡的綜合指標。AP值反映了網絡性能的整體質量,它定義了一組等距召回率下的平均精度。本文計算了當IoU閾值為0.5時的AP值。F1和AP的計算方法如式(17)~式(18)所示:
為了測試CS-IM-YOLO對于CS測量值的艦船檢測效果,本文通過數據集HRSC2016評測算法性能。表5顯示了算法的艦船檢測精度率、召回率、F1值和AP值。圖10顯示了測試集部分場景的測量值艦船檢測效果。

圖10 測試集部分場景的測量值艦船檢測效果Fig.10 Ship detection results or CS measurements in some scenes of the test set

表5 HRSC2016數據集下測量值的艦船檢測結果Tab.5 Ship detection results on measurements in HRSC2016 dataset

圖9 MRs=25%時 CS-IM-YOLO用于CS測量值的 F1 曲線和PR曲線Fig.9 F1 and PR curves of CS-IM-YOLO for CS measurements with MRs=25%
檢測精度方面,CS-IM-YOLO模型得分為91.60%;在召回率方面,CS-IM-YOLO的得分為87.59%。由CS-IM-YOLO模型的精度和召回率可得到它的F1值為0.90。CS-IM-YOLO模型對于艦船檢測的AP值為94.13%。因此,CS-IM-YOLO可以對場景CS測量值進行艦船檢測,同時保證檢測的高精度。
如3.2節(jié)所述,CS測量值的大小與分塊壓縮采樣中的MR有關。為了測試在不同采樣率下的艦船檢測性能,本文測試了CS-IM-YOLO 在不同MR下的艦船檢測性能,結果如表6所示。此外,通過設置不同的閾值,可以得到CS-IMYOLO在MRs=25%和10%時的F1曲線和PR曲線,如圖11所示。從表6中可以看出,CS-IMYOLO的艦船檢測性能在MRs=10%時比CSIM-YOLO在MRs=25%時的艦船檢測性能差。這是因為隨著獲取的場景數據量減少,測量值中艦船的特征信息減少,從而導致測量值艦船檢測的性能下降。

圖11 MRs=25%和10%時CS-IM-YOLO用于測量值的F1曲線和PR曲線Fig.11 F1 and PR curves of CS-IM-YOLO for measurements when MRs=25% and 10%

表6 CS-IM-YOLO在不同MRs下的艦船檢測結果Tab.6 Ship detection results of CS-IM-YOLO under different MRs
為了評估主干網絡中SENet模塊的功能,我們對SENet進行了消融實驗,相應的實驗結果如表7所示。此外,通過設置不同的閾值,可以得到“Darknet53+FPN”和“IDBN+FPN”在MRs=25%時的F1曲線和PR曲線,如圖12所示。在表7中,通過對比“Darknet53+FPN”和“IDBN+FPN”的實驗結果可以分析SENet的性能,從表中可以看到P增加了2.29%,R增加了2.19%,F1值增加了0.03,AP值增加了1.74%。因此,使用SENet模塊去改進Darknet53主干網絡可以達到更好的檢測效果。這是因為SENet模塊可以從CS測量值中更好地捕獲艦船特征信息。

表7 在MRs=25%時,SORS場景CS測量值艦船檢測結果Tab.7 Ship detection results on CS measurements of SORS scenes at MRs=25%



圖12 MRs=25% “Darknet53+FPN”和“IDBN +FPN”用于測量值的F1曲線和PR曲線Fig.12 F1 and PR curves of “Darknet53+FPN” and “IDBN+FPN” for measurements when MRs=25%
為了評估模型對SORS場景退化后的適用性,對測試集場景進行退化處理,退化處理分為三種:運動模糊、高斯噪聲和運動模糊加高斯噪聲。其中,運動模糊的像素偏移值設置為12,偏移方向設置為45°,高斯白噪聲的均值設置為0,方差設置為0.01。退化處理后的部分場景如圖13~圖14所示。本文采用訓練后的CS-IM-YOLO模型在MRs=25%時對退化處理的測試集場景進行實驗,相應的實驗結果如表8所示。對比模型在無退化處理和三種退化處理的實驗結果,可以分析場景退化對模型性能的影響。從表8的第1行和第2行實驗結果可以看到P降低了0.84%,R降低了8.76%,F1值降低了0.06,AP值降低了6.74%。從表8的第1行和第3行實驗結果可以看到P降低了4.29%,R降低了2.19%,F1值降低了0.04,AP值降低了3.62%。從表8的第1行和第4行實驗結果可以看到P降低了6.06%,R降低了9.85%,F1值降低了0.09,AP值降低了7.97%。因此,運動模糊和高斯噪聲的場景退化都會降低模型的檢測效果,而且兩者疊加到一起會更加影響檢測效果。但是,兩者疊加到一起后的模型艦船檢測精度為85.54%,召回率為77.74%,F1值為0.81,和AP值為86.16%,這說明CS-IM-YOLO模型也可以完成對退化場景測量值的艦船檢測。

表8 MRs=25%退化后的SORS場景CS測量值艦船檢測結果Tab.8 Ship detection results on CS measurements of degraded SORS scenes at MRs=25%

圖13 測試集中場景A的退化處理結果Fig.13 Degradation processing results of scene A in the test set

圖14 測試集中場景B的退化處理結果Fig.14 Degradation processing results of scene B in the test set
為了評估模型對SORS場景分辨率等級的適用性,本文對測試集場景進行降低分辨率處理,降低分辨率處理分為分辨率/4和分辨率/8。處理后的部分場景如圖15~圖16所示。采用訓練后的CS-IM-YOLO模型在MRs=25%時對處理后的測試集場景進行實驗,相應的實驗結果如表9所示。對比模型在理想場景和兩種降低分辨率處理的實驗結果,可以分析場景分辨率等級對模型性能的影響。從表9的第1行和第2行實驗結果可以看到P降低了2.54%,R降低了4.38%,F1值降低了0.04,AP值降低了2.25%。從表9的第1行和第3行實驗結果可以看到P降低了6.31%,R降低了13.15%,F1值降低了0.11,AP值降低了12.99%。因此,場景分辨率等級的降低會降低模型的檢測效果。但是,分辨率/8后的模型艦船檢測精度為85.29%,召回率為74.09%,F1值為0.79,和AP值為81.14%,這說明CS-IM-YOLO模型可以完成低分辨率等級的場景測量值的艦船檢測。

圖15 測試集中場景A的降低分辨率處理結果Fig.15 Reduced resolution processing results of scene A in the test set

圖16 測試集中場景B的降低分辨率處理結果Fig.16 Reduced resolution processing results of scene B in the test set

表9 MRs=25%時降分辨率后的SORS場景CS測量值艦船檢測結果Tab.9 Ship detection results on CS measurements of reduced resolution SORS scenes at MRs=25%
為了對SORS場景的CS測量值進行艦船檢測,本文提出了CS-IM-YOLO模型,該模型由模擬成像系統(tǒng)分塊壓縮測量的CML和測量值艦船檢測網絡組成。在壓縮采樣過程中,訓練完的CML直接對場景執(zhí)行卷積運算得到全圖CS測量值。對于CS測量值的艦船檢測,艦船檢測網絡首先使用改進的Darknet53主干網絡來提取測量值的艦船特征信息,然后使用特征金字塔網絡來強化特征提取同時融合多層特征信息進而預測艦船的位置信息。本文用數據集HRSC2016評測算法性能,實驗結果表明,該算法對于SORS場景測量值艦船檢測的檢測精度為91.60%,召回率為87.59%,F1值為0.90,和AP值為94.13%。因此,它可以實現SORS場景測量值的高精度艦船檢測。并且該算法也可以完成退化場景測量值和低分辨率等級場景測量值的艦船檢測。在未來的工作中,將通過基于CS的SORS 成像系統(tǒng)的物理平臺獲取CS測量值,研究物理平臺下測量值的獲取情況,并對其進行高精度艦船檢測。