999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于YOLOv5s的改進(jìn)裝甲目標(biāo)檢測(cè)算法

2023-06-22 08:46:35易圖明王先全袁威孔慶勇
現(xiàn)代信息科技 2023年5期

易圖明 王先全 袁威 孔慶勇

摘? 要:針對(duì)裝甲目標(biāo)圖像背景復(fù)雜、目標(biāo)尺度小等問(wèn)題,提出一種基于YOLOv5s的裝甲目標(biāo)檢測(cè)算法。首先在FPN結(jié)構(gòu)中增加一個(gè)淺層分支,增強(qiáng)對(duì)小目標(biāo)特征的提取能力;其次通過(guò)Focal Loss損失函數(shù)來(lái)平衡正負(fù)樣本;再次將CIoU_loss用作邊框回歸損失函數(shù),用以提升識(shí)別精度;最后將ECA注意力模塊引入算法中,加強(qiáng)重要特征的表達(dá)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)算法在自制數(shù)據(jù)集上AP達(dá)到92.9%,相較于原始算法提高了4.2%,能夠很好地滿(mǎn)足裝甲目標(biāo)檢測(cè)任務(wù)的精度與速度需求。

關(guān)鍵詞:裝甲目標(biāo);YOLOv5s;特征金字塔;ECA注意力模塊;Focal_loss

中圖分類(lèi)號(hào):TP391.4? ? 文獻(xiàn)標(biāo)識(shí)碼:A? 文章編號(hào):2096-4706(2023)05-0073-05

An Improved Armored Target Detection Algorithm Based on YOLOv5s

YI Tuming1, WANG Xianquan2, YUAN Wei1, KONG Qingyong1

(1.Southwest Computer Co., Ltd., Chongqing? 400060, China; 2.Chongqing University of Technology, Chongqing? 400054, China)

Abstract: Aiming at the problems of complex background and small target scale of armored target image, an armored target detection algorithm based on YOLOv5s is proposed. First, a shallow branch is added to the FPN structure to enhance the ability of extracting small target features; Secondly, the Focal Loss loss function is used to balance the positive and negative samples; CIoU_ Loss is used as the loss function of frame regression to improve the recognition accuracy; Finally, ECA attention module is introduced into the algorithm to enhance the expression of important features. The experimental results show that AP of the improved algorithm on the self-made data set achieves 92.9%, which is 4.2% higher than that of the original algorithm, and can well meet the accuracy and speed requirements of the armored target detection task.

Keywords: armored target; YOLOv5s; characteristic pyramid; ECA attention module; Focal_loss

0? 引? 言

現(xiàn)代戰(zhàn)爭(zhēng)中,采集與處理戰(zhàn)場(chǎng)信息的能力對(duì)戰(zhàn)事成敗起決定性的作用。裝甲目標(biāo)是地面戰(zhàn)事的重要組成部分,在相關(guān)人員對(duì)戰(zhàn)事的指揮判斷中,快速準(zhǔn)確的自動(dòng)檢測(cè)技術(shù)可發(fā)揮至關(guān)重要的作用。

相對(duì)于普通的目標(biāo)檢測(cè)任務(wù),戰(zhàn)爭(zhēng)環(huán)境下對(duì)裝甲目標(biāo)的檢測(cè)任務(wù)仍具有相當(dāng)?shù)奶魬?zhàn)性,主要表現(xiàn)在以下幾個(gè)方面:

(1)環(huán)境干擾大。裝甲車(chē)輛作戰(zhàn)時(shí)出沒(méi)的環(huán)境往往十分復(fù)雜,且戰(zhàn)場(chǎng)中的光照條件、氣象條件差異大、變化快。裝甲目標(biāo)的背景比一般目標(biāo)的背景更為復(fù)雜。同時(shí),裝甲目標(biāo)往往涂有結(jié)合戰(zhàn)場(chǎng)環(huán)境設(shè)計(jì)的干擾涂裝,加大了目標(biāo)與背景的區(qū)分難度。

(2)目標(biāo)尺度小。目標(biāo)檢測(cè)系統(tǒng)需要識(shí)別更遠(yuǎn)距離的敵人目標(biāo)。預(yù)警距離范圍內(nèi)采集的圖像中目標(biāo)的成像比例較小,加大了目標(biāo)檢測(cè)的難度。

(3)檢測(cè)速度要求高。戰(zhàn)場(chǎng)態(tài)勢(shì)瞬息萬(wàn)變,同時(shí)具備準(zhǔn)確性與實(shí)時(shí)性的目標(biāo)檢測(cè)算法才能夠滿(mǎn)足作戰(zhàn)需求。

隨著人工智能與深度學(xué)習(xí)技術(shù)的發(fā)展,以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)算法能夠利用圖像的深層語(yǔ)義信息,大大提升了檢測(cè)能力。深度學(xué)習(xí)模型已逐漸取代傳統(tǒng)的人工模型,成為圖像檢測(cè)領(lǐng)域的主流算法,在裝甲目標(biāo)的檢測(cè)與識(shí)別上實(shí)現(xiàn)了較大的突破。鄧?yán)谔岢鲆环N基于多金字塔池化模型的整體嵌套卷積網(wǎng)絡(luò),通過(guò)引入空洞卷積思想,在保證卷積特征分辨率不變的前提上提高弱小目標(biāo)的檢測(cè)精度;同時(shí)在整體嵌套卷積的基礎(chǔ)上利用裝甲目標(biāo)的形狀先驗(yàn)找到感興趣的目標(biāo)區(qū)域,有效地提升了目標(biāo)的表征能力與抗干擾能力。孫皓澤以輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)MobileNet作為骨架網(wǎng)絡(luò),構(gòu)建一個(gè)多尺度的單步檢測(cè)網(wǎng)絡(luò),然后根據(jù)裝甲目標(biāo)的尺寸分布情況使用分辨率更高的卷積特征圖,并引入Focal-Loss損失函數(shù)來(lái)代替?zhèn)鹘y(tǒng)的交叉熵?fù)p失函數(shù),有效地克服了訓(xùn)練過(guò)程中存在的正負(fù)樣本分布極度不平衡的問(wèn)題。王全東在將Faster R-CNN算法與現(xiàn)有跟蹤算法相結(jié)合的基礎(chǔ)上提出復(fù)合式目標(biāo)跟蹤算法,實(shí)現(xiàn)了對(duì)坦克裝甲目標(biāo)的自動(dòng)檢測(cè)與穩(wěn)定跟蹤。王曙光通過(guò)改進(jìn)YOLOv2算法展示出YOLO系列算法在裝甲目標(biāo)檢測(cè)任務(wù)中的速度優(yōu)勢(shì)。

眾多研究人員采用深度學(xué)習(xí)模型研究裝甲目標(biāo)檢測(cè)問(wèn)題,并取得了突破性的進(jìn)展。在此基礎(chǔ)上,針對(duì)裝甲目標(biāo)圖像檢測(cè)的特點(diǎn)與要求,提出一種基于YOLOv5s的裝甲目標(biāo)檢測(cè)方法。主要工作如下:

(1)利用通道注意力對(duì)高價(jià)值特征選擇性加強(qiáng)的能力,將ECA注意力模塊添加到Y(jié)OLOv5s網(wǎng)絡(luò)中的部分卷積模塊之后,降低融合卷積層中低利用率特征的影響。

(2)改進(jìn)損失函數(shù),優(yōu)化邊框回歸與正負(fù)樣本分配。

(3)改進(jìn)YOLOv5的FPN結(jié)構(gòu),增加大尺寸特征層,更好地利用小目標(biāo)淺層特征圖中的信息。

1? YOLOv5目標(biāo)檢測(cè)算法

YOLOv5算法融合了眾多深度學(xué)習(xí)目標(biāo)檢測(cè)框架的優(yōu)點(diǎn),是實(shí)時(shí)性與準(zhǔn)確性俱佳的One-Stage目標(biāo)檢測(cè)算法,也是目前應(yīng)用廣泛的目標(biāo)檢測(cè)模型之一。YOLOv5s是YOLOv5系列中最輕量化的模型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,由輸入端、Backbone、Neck、輸出端四個(gè)部分構(gòu)成。

YOLOv5s目標(biāo)檢測(cè)算法通過(guò)匯集各個(gè)算法的優(yōu)點(diǎn),使得檢測(cè)速度和檢測(cè)精度都達(dá)到了較高的水平,能滿(mǎn)足戰(zhàn)場(chǎng)環(huán)境下的實(shí)時(shí)性要求。為此,本文以YOLOv5s為基礎(chǔ)算法研究適用于裝甲目標(biāo)的檢測(cè)算法。由于YOLOv5s是以單階段內(nèi)同時(shí)完成裝甲目標(biāo)檢測(cè)與定位的方式來(lái)提升檢測(cè)速度,當(dāng)裝甲目標(biāo)的尺度較小時(shí),YOLOv5s在精度上的劣勢(shì)也將被放大。

我們往往采用高空偵察機(jī)對(duì)裝甲目標(biāo)進(jìn)行拍照,以高海拔觀測(cè)等方式從距離目標(biāo)較遠(yuǎn)處采集圖像,裝甲目標(biāo)在圖像中的成像尺度較小,且裝甲目標(biāo)往往結(jié)合周?chē)h(huán)境進(jìn)行偽裝,與背景對(duì)比度較低,在特征提取環(huán)節(jié)易受干擾,使得目標(biāo)定位精度較差。

YOLOv5s算法通過(guò)FPN結(jié)構(gòu)采集三個(gè)尺度的特征圖,其中淺層特征圖包含更多語(yǔ)義信息,更有利于對(duì)小尺度目標(biāo)的檢測(cè)。然而,裝甲目標(biāo)圖像中含有尺度更小的微小目標(biāo),YOLOv5s的淺層特征圖仍然不能滿(mǎn)足微小目標(biāo)的檢測(cè)精度要求。

2? 改進(jìn)裝甲目標(biāo)檢測(cè)算法

針對(duì)上述YOLOv5s在裝甲目標(biāo)檢測(cè)任務(wù)中存在的不足,本文從優(yōu)化損失函數(shù),增強(qiáng)網(wǎng)絡(luò)感受野,提升網(wǎng)絡(luò)特征提取能力等方面對(duì)YOLOv5s算法進(jìn)行改進(jìn),進(jìn)而提升裝甲目標(biāo)的檢測(cè)精度。同時(shí)對(duì)部分特征提取網(wǎng)絡(luò)進(jìn)行輕量化處理,提升檢測(cè)速度。

2.1? 改進(jìn)的FPN結(jié)構(gòu)

YOLOv5s中FPN+PAN結(jié)構(gòu)通過(guò)高中低三層特征層的疊加,在多尺度目標(biāo)檢測(cè)場(chǎng)景中取得了較好的效果,但對(duì)于微小尺度的裝甲目標(biāo),仍無(wú)法達(dá)到良好的性能。原因在于FPN結(jié)構(gòu)通過(guò)包含更多邊緣信息及幾何信息的高分辨率淺層特征進(jìn)行小目標(biāo)的檢測(cè),但其淺層特征圖大小為原始輸入的1/8,微小目標(biāo)的表達(dá)仍然受到較大干擾。因此,可利用更淺層的特征圖來(lái)提高對(duì)微小目標(biāo)的檢測(cè)效果。本文對(duì)原始YOLOv5的特征金字塔結(jié)構(gòu)進(jìn)行改進(jìn),增加一個(gè)1/4原圖大小的特征層,從而獲取更多微小目標(biāo)的特征信息。改進(jìn)后的特征金字塔結(jié)構(gòu)如圖2所示。

2.2? 損失函數(shù)優(yōu)化

YOLOv5算法的損失函數(shù)由邊框損失函數(shù)、分類(lèi)損失函數(shù)及置信度損失函數(shù)組成。根據(jù)裝甲目標(biāo)的特點(diǎn)對(duì)損失函數(shù)進(jìn)行優(yōu)化,這對(duì)檢測(cè)效果的提升具有重要意義。

2.2.1? CIoU_loss邊框回歸損失函數(shù)

YOLOv5默認(rèn)邊框損失函數(shù)為GIoU_loss。在裝甲目標(biāo)檢測(cè)任務(wù)中,由于目標(biāo)尺度較小,對(duì)位置的偏差更敏感,更有可能出現(xiàn)預(yù)測(cè)框完全包含或完全不包含真實(shí)框的情況。當(dāng)預(yù)測(cè)框完全包含真實(shí)框時(shí),無(wú)法確定目標(biāo)相對(duì)位置關(guān)系,會(huì)對(duì)精度產(chǎn)生影響。

為了解決GIoU_loss存在的問(wèn)題,本文采用CIoU_loss來(lái)改進(jìn)預(yù)測(cè)框的回歸精度。CIoU引入了預(yù)測(cè)框與真實(shí)框中心點(diǎn)之間的歐氏距離,為預(yù)測(cè)框回歸提供更好的精度。CIoU_loss計(jì)算公式為:

(1)

其中,b表示真實(shí)框的中心點(diǎn);bgt表示預(yù)測(cè)框的中心點(diǎn);ρ表示歐氏距離;c表示真實(shí)框與預(yù)測(cè)框的最小外接矩陣面積對(duì)角線(xiàn)長(zhǎng)度;α表示正權(quán)衡參數(shù),如式(2)所示;v表示衡量縱橫比一致性的參數(shù),如式(3)所示;IoU則表示真實(shí)框與預(yù)測(cè)框的重疊面積。

(2)

(3)

2.2.2? Focal Loss損失函數(shù)

微小裝甲目標(biāo)在整幅圖像中的占比較低,能夠匹配到的預(yù)測(cè)框(正樣本)較少,而沒(méi)有匹配到的預(yù)測(cè)框(負(fù)樣本)比例極高,在訓(xùn)練過(guò)程中會(huì)出現(xiàn)負(fù)樣本淹沒(méi)正樣本的表達(dá)。原始YOLOv5并未增加小目標(biāo)損失權(quán)重在損失函數(shù)中的占比,導(dǎo)致微小裝甲目標(biāo)的檢測(cè)效果不夠理想。為了解決正負(fù)樣本不平衡的問(wèn)題,本文引入Focal Loss損失函數(shù)來(lái)計(jì)算分類(lèi)誤差。

(4)

(5)

(6)

其中,p表示樣本預(yù)測(cè)概率;α表示平衡參數(shù),在正樣本數(shù)量較少時(shí),通過(guò)減小α增大對(duì)錯(cuò)誤樣本的懲罰來(lái)改善樣本的不平衡性;ζ表示聚焦參數(shù),通過(guò)該調(diào)制因子聚焦難分樣本,增大小目標(biāo)的損失比。根據(jù)其他研究人員的經(jīng)驗(yàn),本文取α=0.25,ζ=3。

2.3? 注意力機(jī)制

2.3.1? ECA注意力模塊

通道注意力機(jī)制在不改變網(wǎng)絡(luò)輸出的前提下為各通道賦予不同權(quán)重來(lái)加強(qiáng)關(guān)鍵通道的影響力。SENet模塊通過(guò)兩個(gè)全連接層來(lái)捕獲通道相關(guān)性。雖然該策略被廣泛應(yīng)用于后續(xù)的通道注意模塊之中,但分析結(jié)果表明,降維會(huì)對(duì)渠道關(guān)注度的預(yù)測(cè)產(chǎn)生負(fù)面影響,同時(shí),全連接層的較大計(jì)算量也會(huì)對(duì)性能產(chǎn)生影響。

為了實(shí)現(xiàn)不降維通道間的交互,ECA注意力模塊通過(guò)一種一維卷積方法,回避了降維對(duì)學(xué)習(xí)通道注意力的負(fù)面影響,并且在不影響性能的前提下降低模型的復(fù)雜性。因而本文將ECA模塊引入YOLOv5s網(wǎng)絡(luò)中,讓網(wǎng)絡(luò)更加關(guān)注小尺度目標(biāo),提取出更多不同的特征,用以區(qū)分目標(biāo)與背景。

ECA模塊結(jié)構(gòu)如圖3、圖4所示。

各通道注意力權(quán)重用P表示:

(7)

Y為gap后各通道,如式(8)所示:

(8)

通過(guò)簡(jiǎn)單的矩陣運(yùn)算,在ECA模塊避免各通道注意力權(quán)重完全獨(dú)立的同時(shí),降低了參數(shù)量。

2.3.2? ECA-C3模塊

添加注意力模塊的位置決定了其作用效果。隨著網(wǎng)絡(luò)的加深,通道包含的語(yǔ)義信息更加豐富,有利于小目標(biāo)識(shí)別的紋理、輪廓等信息逐漸弱化。對(duì)于YOLOv5網(wǎng)絡(luò),通過(guò)Backbone層中的C3模塊進(jìn)行特征提取,Neck層和Head層主要負(fù)責(zé)分類(lèi)。因此,本文將ECA注意力模塊嵌入Backbone層內(nèi)的C3模塊中。

3? 實(shí)驗(yàn)驗(yàn)證與分析

3.1? 數(shù)據(jù)集構(gòu)建

公開(kāi)的裝甲目標(biāo)數(shù)據(jù)集較少,因此本文采用自制的裝甲目標(biāo)數(shù)據(jù)集。一部分來(lái)自公開(kāi)數(shù)據(jù)集,一部分來(lái)自網(wǎng)絡(luò)搜集。采用Mosaic對(duì)樣本進(jìn)行隨機(jī)裁剪、縮放、拼接等操作,在豐富數(shù)據(jù)集的同時(shí)增加了小樣本目標(biāo),提升了網(wǎng)絡(luò)的訓(xùn)練速度。數(shù)據(jù)集中部分圖片如圖5所示。

3.2? 實(shí)驗(yàn)環(huán)境

實(shí)驗(yàn)平臺(tái)硬件配置為:Intel Xeon Silver 4210R處理器,NVIDIA RTX 3060顯卡,操作系統(tǒng)為Windows 10專(zhuān)業(yè)版,開(kāi)發(fā)環(huán)境為Python 3.9,PyTorch 1.6.0,CUDA 11.1。

3.3? 參數(shù)設(shè)置

訓(xùn)練過(guò)程總共迭代350個(gè)epoch,Batch_size設(shè)置為16。每次訓(xùn)練都進(jìn)行參數(shù)更新,將初始學(xué)習(xí)率設(shè)置為1×10-3。在迭代150輪后,將學(xué)習(xí)率降為1×10-4。

4? 結(jié)果分析

4.1? 評(píng)價(jià)指標(biāo)

本文以平均精度(Average Precision, AP)和每秒幀數(shù)(Frame Per Second, FPS)作為主要評(píng)價(jià)指標(biāo)。如式(9)所示,AP值越高,代表網(wǎng)絡(luò)檢測(cè)裝甲目標(biāo)的性能越好。

(9)

其中,r表示某個(gè)召回率所對(duì)應(yīng)查準(zhǔn)率的值,查準(zhǔn)率r和召回率p的計(jì)算公式為:

(10)

(11)

其中,ITP表示正確檢測(cè)出的裝甲目標(biāo);IFP表示誤檢為裝甲目標(biāo)的虛假目標(biāo)數(shù)量;IFN表示未被檢測(cè)出的裝甲目標(biāo);FPS表示模型每秒可以處理的圖片數(shù)量,與算法的實(shí)時(shí)性成正比。

4.2? 消融實(shí)驗(yàn)

為進(jìn)一步分析各種改進(jìn)內(nèi)容在裝甲目標(biāo)識(shí)別任務(wù)中的影響,本文對(duì)某一模塊單獨(dú)作用下的改進(jìn)算法與完整改進(jìn)算法在數(shù)據(jù)集上的效果進(jìn)行對(duì)比,測(cè)試結(jié)果如表1所示,“√”表示引入該模塊。

模型1為最原始的YOLOv5s模型。在模型1的基礎(chǔ)上,模型2在C3模塊中加入了ECA注意力機(jī)制。可以發(fā)現(xiàn),在目標(biāo)與背景對(duì)比度低等特征提取困難的情況下,ECA注意力機(jī)制對(duì)提取特征有積極的影響。

對(duì)比模型3、5、6、7可以發(fā)現(xiàn),多層特征金字塔對(duì)提升微小目標(biāo)檢測(cè)效果的貢獻(xiàn)最為顯著。這說(shuō)明淺層特征包含的輪廓、紋理等細(xì)節(jié)信息是解決微小目標(biāo)檢測(cè)的重要基礎(chǔ)。淺層特征與深層特征的融合能有效降低冗余信息的負(fù)面影響。

模型7主要是針對(duì)損失函數(shù)進(jìn)行了優(yōu)化,引入了Focal Loss損失函數(shù)和CIoU_loss邊框回歸函數(shù)。提升了AP值,且無(wú)明顯的速度損失。證明兩者的結(jié)合能有效提升對(duì)微小目標(biāo)的檢測(cè)精度。

模型9為引入所有改進(jìn)內(nèi)容的算法。在不明顯犧牲速度的情況下,精度達(dá)到了最佳。可以得出,相較于原始YOLOv5s算法,本文提出的改進(jìn)內(nèi)容有效改善了裝甲目標(biāo)的檢測(cè)效果。

4.3? 對(duì)比評(píng)價(jià)

為了驗(yàn)證本文所提算法的有效性及優(yōu)越性,將本文最終提出的算法模型與原始YOLOv5s算法、YOLOv5x算法、YOLOv5m算法、YOLOv4-tiny算法、SSD算法、Faster R-CNN算法在數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比,對(duì)比結(jié)果如表2所示。

對(duì)比表2中不同算法模型的實(shí)驗(yàn)結(jié)果,從中可以看出,相較于two-stage的Faster R-CNN算法,YOLO系列算法和SSD算法等one-stage算法在檢測(cè)速度上都有著壓倒性的優(yōu)勢(shì)。

對(duì)比YOLOv5s與SSD算法,YOLOv5在檢測(cè)速度與精度上的表現(xiàn)更加突出,說(shuō)明本文選取YOLOv5s作為裝甲目標(biāo)檢測(cè)任務(wù)的基礎(chǔ)算法是合理的。

相較于檢測(cè)精度最高的YOLOv5x算法,本文所提算法FPS提高了67%,運(yùn)行速度優(yōu)勢(shì)明顯,更適合于對(duì)實(shí)時(shí)性要求較高的裝甲目標(biāo)檢測(cè)場(chǎng)景。

檢測(cè)速度最高的YOLOv4-tiny算法,雖然其檢測(cè)速度相較于其他算法有著顯著優(yōu)勢(shì),但由于其大量使用輕量化卷積層并降低網(wǎng)絡(luò)深度,其在檢測(cè)精度上的表現(xiàn)最差,只有62.5%,未能在速度與精度指標(biāo)之間取得平衡。

綜上所述,本文所提算法擁有精度上的優(yōu)勢(shì),與此同時(shí)并沒(méi)有過(guò)多地犧牲檢測(cè)速度,整體表現(xiàn)更加突出。改進(jìn)算法的效果如圖6所示。

5? 結(jié)? 論

本文提出一種改進(jìn)的YOLOv5s算法,主要針對(duì)裝甲目標(biāo)圖像中的目標(biāo)尺度較小、背景復(fù)雜、特征提取受限導(dǎo)致的無(wú)法同時(shí)滿(mǎn)足檢測(cè)速度及精度的問(wèn)題,得出如下結(jié)論:

(1)在特征金字塔結(jié)構(gòu)中增加淺層特征層,能有效地提升對(duì)微小裝甲目標(biāo)的特征表達(dá),提升了檢測(cè)精度。

(2)Focal loss通過(guò)為正負(fù)樣本賦予不同權(quán)重,降低正負(fù)樣本不均衡和難易樣本對(duì)檢測(cè)精度的影響。

(3)在特征提取模塊后添加ECA模塊能有效地提升網(wǎng)絡(luò)中關(guān)鍵通道的表達(dá)能力,提升網(wǎng)絡(luò)的效率。

實(shí)驗(yàn)結(jié)果表明,改進(jìn)算法在裝甲目標(biāo)檢測(cè)常見(jiàn)場(chǎng)景中,能夠在滿(mǎn)足實(shí)時(shí)性要求的前提下有效地區(qū)分目標(biāo)與背景,提高對(duì)小目標(biāo)的識(shí)別效果。同時(shí),相較于通用數(shù)據(jù)集的普通目標(biāo)檢測(cè)任務(wù),裝甲目標(biāo)檢測(cè)精度仍有一定的提升空間。本文的數(shù)據(jù)集只是區(qū)分裝甲目標(biāo)與背景,未對(duì)裝甲目標(biāo)的種類(lèi)做進(jìn)一步的區(qū)分,后續(xù)研究應(yīng)注重提升算法的泛化能力。

參考文獻(xiàn):

[1] 鄧?yán)冢詈7?基于多尺度整體嵌套池化語(yǔ)義的裝甲目標(biāo)檢測(cè) [J].激光與紅外,2022,52(2):295-304.

[2] 孫皓澤,常天慶,張雷,等.基于輕量級(jí)網(wǎng)絡(luò)的裝甲目標(biāo)快速檢測(cè) [J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2019,31(7):1110-1121.

[3] 王全東,常天慶,張雷,等.基于深度學(xué)習(xí)算法的坦克裝甲目標(biāo)自動(dòng)檢測(cè)與跟蹤系統(tǒng) [J].系統(tǒng)工程與電子技術(shù),2018,40(9):2143-2156.

[4] 王曙光,呂攀飛.改進(jìn)YOLOv2的裝甲車(chē)輛目標(biāo)識(shí)別 [J].計(jì)算機(jī)與現(xiàn)化,2018(9):68-71+79.

[5] HU J,SHEN L,SAMUEL A,et al. Squeeze-and-excitation networks [C]//Proceedings of IEEE conference on computer vision and? pattern recognition. Salt Lake City:IEEE,2018:7132-7141.

[6] WANG Q,WU B,ZHU P,et al. ECA-Net: efficient channel attention for deep convolutional neural networks [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle:IEEE,2020:11531-11539.

[7] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus:IEEE,2014:580-587.

[8] REN S Q,HE K M,ROSS G,et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE transactions on pattern analysis and machine intelligence,2017,39(6):1137-1149.

[9] REDMON J,DIVVALA S K,GIRSHICK R B,et al. You Only Look Once: Unified, Real-Time Object Detection [EB/OL].[2022-09-25].https://blog.csdn.net/weixin_54546190/article/details/123028952.

[10] LIU W,ANGUELOV D,ERHAN D,et al. Ssd: Single shot multibox detector [C]//European conference on computer vision. Amsterdam:Cham,2016:21-37.

[11] HOWARD,ANDREW G. Mobilenets: Efficient convolutional neural networks for mobile vision applications [EB/OL].[2022-01-2].https://arxiv.org/pdf/1704.04861v1.pdf.

[12] ZHANG X Y,ZHOU X Y,LIN M X,et al. ShuffleNet: An Extr-emely Efficient Convolutional Neural Network for Mobile Devices [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:6848-6856.

[13] 叢眸,張平,王寧.基于改進(jìn)YOLOv3的裝甲車(chē)輛檢測(cè)方法 [J].兵器裝備工程學(xué)報(bào),2021,42(4):258-262.

[14] SANDLER M,HOWARD A G,ZHU M L,et al. Mobilenetv2: Inverted residuals and linear bottlenecks [C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:4510-4520.

[15] HOWARD A,SANDLER M,CHU G,et al. Searching for mobilenetv3 [C]//Proceedings of the IEEE International Conference on Computer Vision. Seoul:IEEE Computer Society,2019:1314-1324.

[16] MA N N,ZHANG X Y,ZHENG H T,et al. Shufflenetv2: Practical guidelines for efficient CNN architecture design [C]//Proceedings of the European Conference on Computer Vision. Munich:Springer,2018:122-138.

[17] 王燕妮,余麗仙.注意力與多尺度有效融合的SSD目標(biāo)檢測(cè)算法 [J].計(jì)算機(jī)科學(xué)與探索,2022,16(2):438-447.

作者簡(jiǎn)介:易圖明(1969.10—),男,漢族,四川南充人,正高級(jí)工程師,國(guó)務(wù)院政府特殊津貼專(zhuān)家,本科,主要研究方向:通信技術(shù);通訊作者:王先全(1968.09—),男,漢族,四川華鎣人,教授,碩士研究生,主要研究方向:計(jì)算機(jī)軟件技術(shù)和智能儀器。

收稿日期:2022-08-03

主站蜘蛛池模板: 日韩a在线观看免费观看| 欧美日韩亚洲国产主播第一区| 国产成人久视频免费| 免费国产高清精品一区在线| 国产亚洲精品自在线| 国产9191精品免费观看| 伊人久久青草青青综合| 自拍偷拍欧美日韩| 成人福利免费在线观看| 波多野结衣一区二区三区AV| 最新日韩AV网址在线观看| 精品国产成人国产在线| 91在线国内在线播放老师| 国产一二三区视频| 久久这里只有精品8| 欧美日本一区二区三区免费| 亚洲V日韩V无码一区二区| 欧美精品一区在线看| 亚洲an第二区国产精品| 国产在线无码一区二区三区| 亚洲成a人片在线观看88| 日韩在线观看网站| 精品五夜婷香蕉国产线看观看| 天天干天天色综合网| 欧美日韩精品在线播放| 99ri精品视频在线观看播放| 精品无码日韩国产不卡av| 国产香蕉在线视频| 亚洲一区二区黄色| 日韩乱码免费一区二区三区| 欧美综合区自拍亚洲综合天堂| 国产精品开放后亚洲| 欧美在线视频不卡第一页| 免费无码又爽又刺激高| 欧美 亚洲 日韩 国产| 亚洲AⅤ无码国产精品| 国产精品福利导航| 精品三级网站| 久青草免费在线视频| www欧美在线观看| 极品国产在线| 乱人伦99久久| 一区二区自拍| 亚洲首页国产精品丝袜| 极品国产在线| 在线毛片免费| 日本a级免费| 欧美亚洲欧美区| 久久久久亚洲精品成人网| 激情综合激情| 最新无码专区超级碰碰碰| 人妻少妇久久久久久97人妻| 高清不卡一区二区三区香蕉| 999精品视频在线| www.99精品视频在线播放| 人妖无码第一页| 久久99精品久久久久纯品| 亚洲精品视频免费| 久久亚洲国产一区二区| 丝袜高跟美脚国产1区| 青青青视频免费一区二区| 国产经典在线观看一区| 九色在线视频导航91| 综合人妻久久一区二区精品| 漂亮人妻被中出中文字幕久久| 在线日本国产成人免费的| 亚洲欧美日韩视频一区| 在线视频97| 毛片a级毛片免费观看免下载| 午夜精品一区二区蜜桃| 福利在线一区| 四虎在线高清无码| 国产福利观看| 色久综合在线| 热久久综合这里只有精品电影| 国模沟沟一区二区三区| 国产簧片免费在线播放| 午夜激情福利视频| 国产精品专区第1页| 中文字幕亚洲精品2页| 无码免费的亚洲视频| 毛片网站观看|