















摘" 要: 針對遙感圖像下軍事坦克檢測模型體積大、計(jì)算量大等問題,提出一種輕量化的遙感軍事坦克目標(biāo)檢測算法MSG?YOLOv7。首先,MSG?YOLOv7采用MobileNetv3作為主干網(wǎng)絡(luò),利用倒殘差結(jié)構(gòu)和自適應(yīng)縮放的方法對特征進(jìn)行提取,以減小模型的體積大小與運(yùn)算量;其次,設(shè)計(jì)SD?MP結(jié)構(gòu)來提高細(xì)節(jié)特征表達(dá)能力,解決因下采樣操作導(dǎo)致的小目標(biāo)特征丟失問題;最后,基于GCNet和深度可分離卷積設(shè)計(jì)出GD?ELAN模塊,通過全局上下文建模來增強(qiáng)模型對長距離關(guān)系的感知,在輕量化的同時更有效地捕捉全局信息,提高模型的性能。實(shí)驗(yàn)結(jié)果表明,MSG?YOLOv7在公開的Google Earth遙感軍事坦克數(shù)據(jù)集上的平均檢測精度(AP)達(dá)到了99.02%,體積較原模型下降了60%,計(jì)算量為18.59 GFlops,F(xiàn)PS達(dá)到41,證明該模型適用于要求高性能、高速度和較小模型體積的遙感軍事坦克檢測場景中。
關(guān)鍵詞: 遙感圖像; 軍事坦克檢測; YOLOv7; 輕量化網(wǎng)絡(luò); SD?MP; GD?ELAN
中圖分類號: TN911.73?34; TP391.4" " " " " " " " nbsp;文獻(xiàn)標(biāo)識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)19?0047?08
Lightweight detection algorithm MSG?YOLOv7 for military
tanks in remote sensing images
XIE Guobo, WU Chenfeng, LIN Zhiyi
(School of Computer Science and Technology, Guangdong University of Technology, Guangzhou 510000, China)
Abstract: In view of the large volume and heavy computation of the military tank detection algorithm in remote sensing images, a lightweight remote sensing military tank target detection algorithm MSG?YOLOv7 is proposed. In the algorithm, the MobileNetv3 is taken as the backbone network, and the inverted residual structure and the adaptive scaling method are used to extract features, so that the volume and computation amount of the model are reduced. An SD?MP structure is designed to improve the ability of detailed feature representation, so as to eliminate the small target feature loss caused by downsampling operations. A module named GD?ELAN is devised based on GCNet and depthwise separable convolution. This module enhances the model′s perception of long?distance relationships by global context modeling, capture global information effectively in a lightweight manner and improve the model performance. The experimental results show that the average precision (AP) of MSG?YOLOv7 of the proposed model on the public Google Earth remote sensing military tank dataset reaches 99.02%, with a volume reduction of 60% in comparison with that of the original, a computational complexity of 18.59 GFlops, and an FPS of 41, which proves that the model is applicable to remote sensing military tank detection scenarios that require high performance, high speed and small model volume.
Keywords: remote sensing image; military tank inspection; YOLOv7; lightweight network; SD?MP; GD?ELAN
0" 引" 言
近年來,隨著衛(wèi)星技術(shù)的飛速進(jìn)步,遙感圖像的獲取質(zhì)量和數(shù)量都迎來了顯著的提升,遙感圖像目標(biāo)檢測技術(shù)在許多領(lǐng)域展現(xiàn)出極大的研究價值[1?2],尤其在軍事領(lǐng)域中,能夠從大量的遙感圖像中迅速而準(zhǔn)確地識別軍事坦克目標(biāo),在戰(zhàn)場態(tài)勢感知和戰(zhàn)術(shù)決策中具備極其重要的戰(zhàn)略價值[3?5]。
在過去,遙感軍事坦克目標(biāo)的檢測主要依賴傳統(tǒng)的檢測算法,如文獻(xiàn)[6]提出基于多尺度分形特征的K均值聚類方法,在低對比度的紅外坦克圖像中進(jìn)行檢測。文獻(xiàn)[7]則提出了結(jié)合蟻群優(yōu)化和人工神經(jīng)網(wǎng)絡(luò)的坦克識別方法。但是這些傳統(tǒng)方法往往需要手動選取特征,并對特征提取和分類算法進(jìn)行調(diào)優(yōu),因此難以勝任復(fù)雜場景,準(zhǔn)確度和魯棒性相對較差。
隨著計(jì)算機(jī)科技的不斷進(jìn)步,深度學(xué)習(xí)目標(biāo)檢測技術(shù)在遙感圖像軍事坦克目標(biāo)檢測中迎來了新的發(fā)展[4,8?10]。目前主要分為兩類:第一類是雙階段檢測方法,主要代表算法為Faster?RCNN[11],在這一領(lǐng)域研究中,文獻(xiàn)[12]基于Faster?RCNN提出一種Top?down的網(wǎng)絡(luò)結(jié)構(gòu),文獻(xiàn)[13]則改進(jìn)Faster?RCNN中的多尺度網(wǎng)絡(luò),兩者都提高了軍事坦克目標(biāo)檢測的準(zhǔn)確率,但提出的雙階段算法計(jì)算復(fù)雜度高、速度較慢,導(dǎo)致其不適用于實(shí)時遙感軍事坦克檢測任務(wù)中。
另一類則是單階段檢測方法,主要代表為SSD[14]和YOLO[15]算法,這些算法能夠通過單次前向傳播實(shí)現(xiàn)目標(biāo)檢測,具有更快的速度。其中,作為較先進(jìn)的YOLOv7算法[16]成為了當(dāng)前的研究熱點(diǎn),有學(xué)者已經(jīng)將YOLOv7應(yīng)用于遙感坦克檢測領(lǐng)域,提升了該領(lǐng)域的檢測性能。例如文獻(xiàn)[17]提出了YOLO?FSD算法,其主要改進(jìn)是在YOLOv7網(wǎng)絡(luò)的每一層都引入了Swin?CSP結(jié)構(gòu),利用DWC頭來減少由微小和密集目標(biāo)引起的預(yù)測偏差,提升了算法在復(fù)雜背景下的分類和定位能力。文獻(xiàn)[18]則提出了名為DCN?YOLO的一階段目標(biāo)檢測算法,采用DCNv2和殘差結(jié)構(gòu)重構(gòu)了YOLOv7的骨干網(wǎng)絡(luò),增強(qiáng)了模型的淺層特征提取能力。然而,這些算法仍存在體積過大的問題,在軍事應(yīng)用領(lǐng)域,算法往往需要在資源有限設(shè)備上運(yùn)行,如無人機(jī)、單兵作戰(zhàn)頭盔等,因此需要保持高準(zhǔn)確率的同時降低計(jì)算消耗,以確保實(shí)時性和高效率,支持迅速決策的需求。
為了能夠準(zhǔn)確快速地檢測出遙感圖像中的軍事坦克目標(biāo),本文提出了一種輕量化的遙感軍事坦克檢測算法MSG?YOLOv7。首先將YOLOv7的主干網(wǎng)絡(luò)改進(jìn)為MobileNetv3輕量級網(wǎng)絡(luò);然后設(shè)計(jì)了一種對遙感坦克目標(biāo)特征保留更為有效的SD?MP模塊;最后基于GCNet和深度可分離卷積設(shè)計(jì)GD?ELAN模塊,增強(qiáng)坦克特征提取能力。在開源Google Earth獲取的遙感軍事坦克數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),結(jié)果表明,MSG?YOLOv7在保持輕量化的同時,也具有較高的檢測準(zhǔn)確率,適合應(yīng)用于遙感軍事坦克目標(biāo)檢測任務(wù)。
1" YOLOv7算法
YOLOv7主要由輸入(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和頭部(Head)組成,其整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
網(wǎng)絡(luò)的構(gòu)成主要包含CBS層、E?ELAN、MP Conv和SPPCSPC模塊。CBS層主要由Conv、Batch Normalization和SiLU激活函數(shù)組成,用于特征提取和非線性變換,提高模型的表示能力和訓(xùn)練效果。E?ELAN模塊通過擴(kuò)展和拼接等操作增強(qiáng)了網(wǎng)絡(luò)的學(xué)習(xí)能力。MP Conv模塊則通過擴(kuò)展感受野和融合特征信息的方式增強(qiáng)了模型的泛化能力。SPPCSPC模塊則解決了圖像失真問題,有效避免了冗余特征提取的困難。
盡管YOLOv7在遙感軍事坦克檢測方面有優(yōu)勢,但仍存在如下問題和局限性。
1) 原模型存在體積龐大、計(jì)算量大的特點(diǎn),不利于在邊緣設(shè)備上進(jìn)行有效部署;
2) 在遙感圖像中,坦克目標(biāo)尺寸相對較小,原算法很可能過濾掉坦克目標(biāo)的重要特征;
3) 遙感圖像中具有復(fù)雜的背景如草地區(qū)域、房屋區(qū)域以及基地等,而且光照、視角等因素影響,導(dǎo)致坦克目標(biāo)與周圍景物視覺上相似,增加了檢測難度。
2" MSG?YOLOv7算法
針對以上問題,本文提出一種輕量級的遙感坦克檢測模型MSG?YOLOv7,結(jié)構(gòu)如圖2所示。
本文主要改進(jìn)思路如下:
1) 針對模型體積大、計(jì)算量大的問題,將主干網(wǎng)絡(luò)改進(jìn)為輕量級的MobileNetv3網(wǎng)絡(luò),大大減少了原模型體積大小與運(yùn)算量;
2) 針對坦克目標(biāo)特征易丟失的問題,設(shè)計(jì)一種對遙感坦克目標(biāo)更為有效的下采樣SD?MP結(jié)構(gòu),減少下采樣過程中目標(biāo)的特征損失,增強(qiáng)其檢測能力;
3) 針對背景復(fù)雜的問題,基于全局上下文網(wǎng)絡(luò)GCNet和深度可分離卷積(DSC)設(shè)計(jì)出GD?ELAN模塊,在輕量化的同時加強(qiáng)了對坦克目標(biāo)有效特征的提取能力。
2.1" MobileNetv3
MobileNetv3[19]是一個輕量級神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),專為圖像識別以及目標(biāo)檢測等計(jì)算機(jī)視覺任務(wù)而設(shè)計(jì),其目標(biāo)在于保持模型輕量化的同時提供更出色的性能。MobileNetv3網(wǎng)絡(luò)主要由Bneck模塊組成,這個模塊結(jié)合了擴(kuò)張卷積、深度可分離卷積、SE模塊以及殘差連接,有助于提升特征學(xué)習(xí)與信息傳遞,Bneck和MobileNetv3模塊結(jié)構(gòu)如圖3所示。
該架構(gòu)在輕量級模型中表現(xiàn)出色,特別適用于資源受限的場景。因此將YOLOv7算法中的主干網(wǎng)絡(luò)替換為MobileNetv3網(wǎng)絡(luò)結(jié)構(gòu),顯著地減少了參數(shù)量和計(jì)算量,使得模型更加輕量化。
2.2" DSC
深度可分離卷積(Depthwise Separable Convolution, DSC)是一種卷積操作的變種[20],用于在神經(jīng)網(wǎng)絡(luò)中減少計(jì)算量和參數(shù)量,從而實(shí)現(xiàn)輕量化模型。深度可分離卷積步驟如圖4所示。
圖4表明,深度可分離卷積將標(biāo)準(zhǔn)的卷積操作分解為兩個步驟:逐通道卷積和逐點(diǎn)卷積,以減少參數(shù)量和計(jì)算成本,同時保持模型的有效性。
逐通道卷積:在深度可分離卷積中,首先對輸入的每個通道進(jìn)行獨(dú)立的卷積操作。這一操作利用小型卷積核(通常是3×3大小)進(jìn)行處理,在每個輸入通道上獨(dú)立的應(yīng)用,這種操作可以捕捉到輸入通道內(nèi)的局部特征。
逐點(diǎn)卷積:在深度卷積之后,使用逐點(diǎn)卷積將深度卷積的輸出特征圖映射到最終的輸出通道。逐點(diǎn)卷積使用1×1大小的卷積核,實(shí)際上就是對每個通道進(jìn)行線性組合,生成最終的特征圖。
標(biāo)準(zhǔn)卷積參數(shù)量[P]和計(jì)算量[F]的計(jì)算公式如下:
[P=DK×DK×M×N] (1)
[F=DK×DK×M×N×DW×DH] (2)
式中:[DK]代表卷積核;[M]代表輸入通道數(shù);[N]代表輸出通道數(shù);[DW]代表輸出特征寬;[DH]代表輸出特征高。
DSC的參數(shù)量DP和計(jì)算量DF的計(jì)算公式如下:
[DP=DK×DK×M+M×N] (3)
[DF=DK×DK×M×DW×DH+M×N×DW×DH] (4)
兩者參數(shù)量和計(jì)算量對比如下:
[R=DPP=DFF=1N+1D2K] (5)
由式(5)計(jì)算可知,3×3大小的可分離卷積的計(jì)算量和參數(shù)量大約下降為標(biāo)準(zhǔn)卷積的[19]。
2.3" SD?MP
SD?MP模塊是為了解決遙感坦克目標(biāo)在下采樣過程中可能出現(xiàn)的特征丟失問題而設(shè)計(jì)的關(guān)鍵部分。SD?MP模塊結(jié)構(gòu)和操作原理流程圖如圖5所示。
SD?MP的核心是采用一種分離拼接(Separation and Splicing)的操作代替了傳統(tǒng)的Maxpool池化層。這個操作將原始圖像分割成4個更小的子圖,并按通道進(jìn)行組合。接著,這些經(jīng)過操作的特征通過1×1卷積處理,最終得到尺寸為[S2]×[S2]×1的特征表示。這一方法有效地緩解了坦克目標(biāo)在下采樣階段可能面臨的特征丟失問題,從而提高了對目標(biāo)的準(zhǔn)確識別能力。同時,為了使模塊更輕量化,引入了深度可分離卷積構(gòu)建DBS卷積層。
2.4" GD?ELAN
GD?ELAN模塊是針對復(fù)雜背景下目標(biāo)檢測難題而設(shè)計(jì)的創(chuàng)新模塊,其核心設(shè)計(jì)基于兩大關(guān)鍵組件:全局上下文GCNet和引入深度可分離卷積的DBS層。這個模塊的目的在于提高網(wǎng)絡(luò)的感知能力和特征表達(dá)能力,以解決復(fù)雜背景帶來的檢測困難。
首先,GCNet是一種全局上下文模塊[21],能夠有效地捕獲圖像全局信息,這種全局信息對于區(qū)分目標(biāo)與背景以及理解目標(biāo)與周圍環(huán)境之間的聯(lián)系至關(guān)重要,能夠有效提高坦克目標(biāo)檢測的準(zhǔn)確性和魯棒性。GCNet結(jié)構(gòu)如圖6所示。
GCNet通過構(gòu)建全局上下文不同的信息權(quán)重比例,提高了模型的提取能力,其計(jì)算過程如下:
[Y1=i=1NpSoftmax(exp(WkXi))Xi] (6)
[Y=X×σWv2ReLULN(Wv1Y1)] (7)
式中:[Xi]表示特征圖中的任意位置信息;[Np]表示所有位置數(shù)量;[Wk]表示權(quán)重參數(shù);Softmax表示歸一化操作;[Y1]為得到的特征矩陣;ReLU為激活函數(shù);LN為層歸一化;[Wv1]、[Wv2]分別為兩個卷積層[v1]、[v2]的權(quán)重參數(shù);[σ]為Sigmoid函數(shù);[Y]為最終特征圖。
其次,DBS對特征圖進(jìn)行處理,減少了模型的計(jì)算負(fù)擔(dān)和參數(shù)量,保持了對復(fù)雜背景中目標(biāo)的有效識別能力。
最后設(shè)計(jì)出來的GD?ELAN模塊如圖7所示。
3" 實(shí)驗(yàn)與分析
3.1" 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置
本文搭建的檢測模型的實(shí)驗(yàn)環(huán)境為Ubuntu 16.04,Python 3.8,PyTorch 1.9.0。相關(guān)硬件配置以及主要參數(shù)設(shè)置如表1所示。
3.2" 數(shù)據(jù)集與評價指標(biāo)
實(shí)驗(yàn)采用了來自開源的Google Earth遙感圖像軍事坦克數(shù)據(jù)集,其中包含了來自不同高度、方位、時間的4 000張樣本圖片,部分樣本如圖8所示。數(shù)據(jù)集按6∶2∶2的比例劃分出訓(xùn)練集、驗(yàn)證集和測試集進(jìn)行實(shí)驗(yàn)。
實(shí)驗(yàn)結(jié)果主要選取權(quán)重大小(Weight)、每秒傳輸幀數(shù)(FPS)、參數(shù)量(Params)、計(jì)算量(GFlops)和平均精度AP(Average Precision)等指標(biāo)來評估模型性能。AP計(jì)算公式如下:
[P=TPTP+FP] (8)
[R=TPTP+FN] (9)
[AP=01PRdR] (10)
式中:[P]為精確率(Precision);[R]為召回率(Recall);TP為正確檢測的數(shù)量;FP為被錯檢為正樣本的數(shù)量;FN為被錯檢為負(fù)樣本的數(shù)量。
3.3" 模型訓(xùn)練
在實(shí)驗(yàn)過程中,主要根據(jù)驗(yàn)證集的精確率(Precision)、召回率(Recall)、平均準(zhǔn)確率(mAP)變化趨勢判斷模型是否收斂,變化趨勢如圖9所示。
圖9表明,在訓(xùn)練過程中,MSG?YOLOv7模型在前100輪迭代中各指標(biāo)趨于上升狀態(tài),經(jīng)過100輪迭代后,逐漸收斂于最優(yōu)狀態(tài)。
3.4" 對比實(shí)驗(yàn)
為了準(zhǔn)確地驗(yàn)證MSG?YOLOv7算法在遙感坦克檢測任務(wù)中的性能,將其與SSD、YOLOv3、YOLOv4、YOLOv5、YOLOv7、YOLO?FSD[17]和DCN?YOLO[18]等同類型的算法進(jìn)行比較。在同等條件下訓(xùn)練和測試以上算法,最終實(shí)驗(yàn)結(jié)果如表2所示。
MSG?YOLOv7在AP(平均精度)指標(biāo)上達(dá)到了99.02%,僅次于DCN?YOLO的99.06%,優(yōu)于其他模型。這顯示MSG?YOLOv7在目標(biāo)檢測準(zhǔn)確性方面表現(xiàn)非常出色。在模型體積方面,MSG?YOLOv7僅有28.6 MB,是所有模型中體積最小的,這表明該模型在存儲和部署時所需空間最小;在計(jì)算量上,MSG?YOLOv7為18.59 GFLOPs,是所有模型中最低的,這表明MSG?YOLOv7在推理時的計(jì)算負(fù)荷較輕;在FPS(每秒幀數(shù))方面,MSG?YOLOv7達(dá)到41 f/s,是所有模型中幀數(shù)最高的,顯示了其在速度上的優(yōu)勢,可以更快速地進(jìn)行遙感坦克目標(biāo)檢測。
由此可知,MSG?YOLOv7能在保持高精度的同時,具有較小的體積、較低的計(jì)算復(fù)雜度和較高的推理速度,適用于要求高性能、高速度和較小模型體積的軍事坦克目標(biāo)檢測場景。
3.5" 消融實(shí)驗(yàn)
為了檢驗(yàn)MobileNetv3、SD?MP、GD?ELAN對算法性能的影響,進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示。其中:Base代表基準(zhǔn)模型;M代表加入MobileNetv3;S代表加入SD?MP;G代表加入GD?ELAN。
消融實(shí)驗(yàn)結(jié)果表明,Base模型具有97.85%的AP。引入MobileNetv3(+M)后,精度下降至96.23%,但模型體積減少至45 MB,計(jì)算復(fù)雜度為35.96 GFLOPs。SD?MP(+S)和GD?ELAN(+G)的引入分別將AP提升至98.59%和98.92%,同時減少了模型的體積和計(jì)算復(fù)雜度。在組合改進(jìn)中,+M+S、+G+S和+M+G均不同程度上提升了AP,模型體積與計(jì)算量也得到不同的下降。最終+M+G+S組合保持最高AP,精度較基準(zhǔn)提升了1.17%,同時模型體積和計(jì)算復(fù)雜度最小化, 其模型體積減少至28.6 MB,比原模型體積降低了約60%,計(jì)算復(fù)雜度降至18.597 GFLOPs。這種組合達(dá)到了最佳的平衡點(diǎn),使得模型參數(shù)量和計(jì)算復(fù)雜度大幅減少,同時在保持高精度方面表現(xiàn)出色。因此,消融實(shí)驗(yàn)結(jié)果清楚地表明,不同的改進(jìn)算法在提高算法性能、減少模型體積和減少計(jì)算復(fù)雜度等方面起到了不同的重要作用。
3.6" 效果對比
為了對比改進(jìn)前后算法的檢測能力,從測試數(shù)據(jù)集中挑選了一些不同背景的遙感坦克目標(biāo)圖像進(jìn)行檢測,同時將檢測結(jié)果特征可視化,其檢測效果對比如圖10所示。
1) 在草地場景下,改進(jìn)后的算法能夠幾乎完全檢測出目標(biāo),相比之下,原始算法在圖中左下角出現(xiàn)一處誤檢。
2) 在軍事基地場景下,改進(jìn)后的算法能夠精確地檢測出所有目標(biāo),而原始算法在圖中右下角出現(xiàn)一處誤檢情況。
3) 在車場場景下,改進(jìn)后的算法對所有目標(biāo)進(jìn)行了準(zhǔn)確檢測,原始算法在圖中左下角位置連續(xù)出現(xiàn)兩處錯誤檢測情況。
4) 在城市房屋場景下,改進(jìn)后的算法能夠更有效地檢測隱蔽坦克,原始算法在圖中樹木遮擋處出現(xiàn)漏檢情況。
5) 在沙地場景下,改進(jìn)后的算法有效地檢測到目標(biāo),而原始算法在圖中左下角存在一處錯誤檢測情況。
因此,在復(fù)雜的各種場景中,改進(jìn)后的算法顯著降低了漏檢和誤檢情況,表現(xiàn)出更優(yōu)越的魯棒性和準(zhǔn)確性。
4" 結(jié)" 語
為了更好地應(yīng)對遙感圖像下軍事坦克檢測中YOLOv7體積和計(jì)算量過大的挑戰(zhàn),本文提出了一種輕量級的MSG?YOLOv7檢測算法。通過引入輕量化的MobileNetv3替換Backbone,設(shè)計(jì)適用于遙感坦克目標(biāo)的下采樣SD?MP模塊,引入基于GCNet和深度可分離卷積的GD?ELAN模塊,從而在實(shí)現(xiàn)模型輕量化的同時減少模型的運(yùn)算量,提高了模型的表征能力。實(shí)驗(yàn)結(jié)果驗(yàn)證了MSG?YOLOv7在公開遙感軍事坦克數(shù)據(jù)集上的卓越性能,其平均檢測精度(AP)達(dá)到了99.02%,同時模型體積下降了60%,計(jì)算量下降了82%。因此,MSG?YOLOv7模型對于遙感圖像中的軍事坦克目標(biāo)檢測具有顯著的效果和優(yōu)勢,能為輕量級高效的遙感坦克目標(biāo)檢測提供可行性方案。
注:本文通訊作者為林志毅。
參考文獻(xiàn)
[1] LI C, CHENG G, WANG G, et al. Instance?aware distillation for efficient object detection in remote sensing images [J]. IEEE transactions on geoscience and remote sensing, 2023, 61: 1?11.
[2] WEN L, CHENG Y, FANG Y, et al. A comprehensive survey of oriented object detection in remote sensing images [J]. Expert systems with applications, 2023, 224: 119960.
[3] 戴文君,常天慶,張雷,等.圖像目標(biāo)檢測技術(shù)在坦克火控系統(tǒng)中的應(yīng)用[J].火力與指揮控制,2020,45(7):147?152.
[4] QIN P, CAI Y L, LIU J, et al. Multilayer feature extraction network for military ship detection from high?resolution optical remote sensing images [J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2021, 14: 11058?11069.
[5] 李萍,宋利敏,張善文.基于孿生特征引導(dǎo)多尺度網(wǎng)絡(luò)的復(fù)雜場景下坦克檢測方法[J].電光與控制,2023,30(9):85?91.
[6] 薛東輝,朱耀庭,朱光喜,等.低對比度前視紅外坦克目標(biāo)圖像檢測方法研究[J].紅外與毫米波學(xué)報(bào),1996(3):24?29.
[7] 王永學(xué),王雙進(jìn).基于蟻群優(yōu)化與神經(jīng)網(wǎng)絡(luò)的坦克目標(biāo)識別算法[J].物理實(shí)驗(yàn),2010,30(5):8?11.
[8] YASIR M, JIANHUA W, SHANWEI L, et al. Coupling of deep learning and remote sensing: A comprehensive systematic literature review [J]. International journal of remote sensing, 2023, 44(1): 157?193.
[9] WANG Z B, MA Y K, ZHANG Y N. Review of pixel?level remote sensing image fusion based on deep learning [J]. Information fusion, 2023, 90: 36?58.
[10] 關(guān)玉明,王肖霞,楊風(fēng)暴,等.基于輕量級網(wǎng)絡(luò)的小目標(biāo)檢測算法[J].現(xiàn)代電子技術(shù),2024,47(1):44?50.
[11] REN S Q, HE K M, GIRSHICK R B, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [C]// Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015. [S.l.: s.n.], 2015: 91?99.
[12] 孫皓澤,常天慶,張雷,等.基于Top?down網(wǎng)絡(luò)結(jié)構(gòu)的坦克裝甲目標(biāo)檢測[J].計(jì)算機(jī)仿真,2020,37(3):18?22.
[13] 王全東,常天慶,張雷,等.面向多尺度坦克裝甲車輛目標(biāo)檢測的改進(jìn)Faster R?CNN算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2018,30(12):2278?2291.
[14] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector [EB/OL]. [2020?02?12]. http://arxiv.org/abs/1512.02325.
[15] JIANG P Y, ERGU D, LIU F Y, et al. A review of Yolo algorithm developments [C]// Proceedings of the 8th International Conference on Information Technology and Quantitative Management. Amsterdam, Netherlands: Elsevier, 2021: 1066?1073.
[16] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.
[17] ZHAO H, CHU K, ZHANG J, et al. YOLO?FSD: An improved target detection algorithm on remote?sensing images [J]. IEEE sensors journal, 2023, 23(24): 30751?30764.
[18] TIAN B, CHEN H. Remote sensing image target detection method based on refined feature extraction [J]. Applied sciences, 2023, 13(15): 8694.
[19] HOWARD A, SANDLER M, CHU G, et al. Searching for MobileNetV3 [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 1314?1324.
[20] CHOLLET F. Xception: Deep learning with depthwise separable convolutions [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 1800?1807.
[21] CAO Y, XU J R, LIN S, et al. GCNet: Non?local networks meet squeeze?excitation networks and beyond [C]// 2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW). New York: IEEE, 2019: 1971?1980.
作者簡介:謝國波(1977—),男,廣東廣州人,博士研究生,教授,碩士生導(dǎo)師,主要從事遙感圖像目標(biāo)檢測、遙感影像變化檢測等方面的研究。
吳陳鋒(2000—),男,廣東茂名人,碩士研究生,主要從事遙感圖像目標(biāo)檢測方面的研究。
林志毅(1979—),男,福建永春人,博士研究生,講師,主要從事生物信息學(xué)、遙感圖像目標(biāo)檢測等方面的研究。
收稿日期:2024?02?27" " " " " "修回日期:2024?03?18
基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61802072);南方電網(wǎng)委托課題(GDKJXM20230718)