999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多尺度特征跨層融合遙感目標(biāo)檢測方法

2023-04-29 00:00:00黃佳銘
現(xiàn)代信息科技 2023年21期

收稿日期:2023-04-25

基金項(xiàng)目:重慶科技學(xué)院碩士研究生創(chuàng)新計(jì)劃(YKJCX2120823)

DOI:10.19850/j.cnki.2096-4706.2023.21.023

摘" 要:最近引起廣泛關(guān)注的基于遙感圖像的目標(biāo)檢測是一項(xiàng)基本但具有挑戰(zhàn)性的任務(wù)。文章提出了一種基于YOLOv5改進(jìn)的多尺度特征跨層融合遙感目標(biāo)檢測器。首先,引入Explicit Visual Center(EVC)模塊解決目標(biāo)密集分布任務(wù)中的漏檢問題。其次,在YOLOv5的基礎(chǔ)上提出了多尺度特征跨層融合結(jié)構(gòu)(S-160),該結(jié)構(gòu)提高了對各個(gè)尺度目標(biāo)的檢測精度,并針對小目標(biāo)檢測引出了新的大尺度特征,以解決遙感圖像中超小目標(biāo)無法識別的問題。最后,在公共遙感數(shù)據(jù)集DOTA上進(jìn)行了實(shí)驗(yàn),此數(shù)據(jù)集上的平均精度(mAP)達(dá)到了76.50%。

關(guān)鍵詞:遙感圖像;目標(biāo)識別;特征跨層融合

中圖分類號:TP75" 文獻(xiàn)標(biāo)識碼:A" 文章編號:2096-4706(2023)21-0099-04

Multi-scale Feature Cross-layer Fusion Remote Sensing Object Detection Method

HUANG Jiaming

(School of Intelligent Technology and Engineering, Chongqing University of Science and Technology, Chongqing" 401331, China)

Abstract: Recently, object detection based on remote sensing images, which has attracted widespread attention, is a fundamental but challenging task. This paper proposes an improved multi-scale feature cross-layer fusion remote sensing target detector based on YOLOv5. Firstly, the Explicit Visual Center (EVC) module is introduced to address the issue of missed detections in target dense distributed tasks. Secondly, based on YOLOv5, a multi-scale feature cross-layer fusion structure (S-160) is proposed, which improves the detection accuracy of various scale targets and introduces new large-scale features for small target detection to solve the problem of unrecognizable ultra small targets in remote sensing images. Finally, it conducts experiments on the public remote sensing dataset DOTA, and the average accuracy (mAP) on this dataset reaches 76.50%.

Keywords: remote sensing image; target recognition; feature cross-layer fusion

0" 引" 言

近年來,隨著深度學(xué)習(xí)和遙感技術(shù)的快速發(fā)展,基于遙感圖像的目標(biāo)檢測在農(nóng)業(yè)、交通、商業(yè)、軍事和地質(zhì)等行業(yè)取得了可觀的成就。不同于常規(guī)圖像,遙感圖像中的目標(biāo)往往具有占比小、分布密集的特點(diǎn),這給一般的檢測網(wǎng)絡(luò)帶來了很大的挑戰(zhàn)。

目前流行的一階段目標(biāo)檢測器作為一種直接方法,通過掃描圖像上的網(wǎng)格,將默認(rèn)錨點(diǎn)回歸到檢測邊界框,最具代表性的型號是你只看一次(YOLO)系列[1-4]、單發(fā)多盒探測器(SSD)[5]、RetinaNet[6]。盡管一階段目標(biāo)檢測器取得了不俗的檢測成就,但仍難以處理多尺度目標(biāo)實(shí)例,特別是因?yàn)樵谳^淺的層中差異信息較弱,所以對小目標(biāo)的檢測效果并不優(yōu)秀[7]。為解決此問題,我們提出了基于一階段目標(biāo)檢測器YOLOv5改進(jìn)的多尺度特征跨層融合遙感目標(biāo)檢測器。

針對上述問題,本文提出基于YOLOv5改進(jìn)的多尺度特征跨層融合遙感目標(biāo)檢測器,本文的主要貢獻(xiàn)可歸納如下:

在網(wǎng)絡(luò)的Neck部分引入Explicit visual center(EVC)模塊[8],解決因被忽略的局部角區(qū)域而導(dǎo)致的目標(biāo)密集分布任務(wù)中的漏檢問題。在YOLOv5的基礎(chǔ)上提出了多尺度特征跨層融合結(jié)構(gòu)(S-160),該結(jié)構(gòu)通過融合淺層和深層的特征信息,提高了對各個(gè)尺度目標(biāo)的檢測精度,并針對小目標(biāo)檢測引出了新的大尺度特征,以解決遙感圖像中超小目標(biāo)無法識別的問題。

1" 方法介紹

首先,YOLOv5由Glenn Jocher在GitHub上發(fā)布,在運(yùn)行速度、數(shù)據(jù)增強(qiáng)、錨定幀等方面改進(jìn)。隨著結(jié)構(gòu)深度和通道寬度的增加,YOLOv5系列網(wǎng)絡(luò)包括YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x。YOLOv5s與其他檢測算法相比,提供了更高的靈活性和檢測效率,所以本文選擇YOLOv5s作為基本網(wǎng)絡(luò)框架。

YOLOv5s的架構(gòu)可分為骨干、頸部和頭部三部分。YOLOv5s的骨干是CSPDarknet53,它從基于Darknet53的跨階段部分網(wǎng)絡(luò) (CSPNet) 中獲得啟示。CSPDarknet53由CBL模塊、CSP模塊和空間金字塔池模塊(SPPF)組成。CBL模塊由一個(gè)卷積層(Conv),一個(gè)批歸一化層(BN)和一個(gè)Leaky-Relu激活函數(shù)組成。特征圖輸入CSP模塊后分別進(jìn)入兩條路徑,第一條路徑經(jīng)過CBL模塊、n×瓶頸和卷積運(yùn)算;第二條路徑直接進(jìn)行卷積運(yùn)算,然后通過Concat層將它們縫合在一起。該模塊不僅減少了計(jì)算量,而且提高了學(xué)習(xí)能力。SPPF模塊是SPP的優(yōu)化版本,可以在不犧牲精度的情況下提高速度。其原理為將三個(gè)最大池化的卷積核k = {5×5,9×9,13×13},修改為k = {5×5,5×5}。頸部包括特征金字塔網(wǎng)絡(luò)(FPN)和路徑聚合網(wǎng)絡(luò)(PAN),它們執(zhí)行上采樣操作以增強(qiáng)語義信息,而PAN通過下采樣將特征傳輸?shù)巾攲樱瑥亩岣吡司W(wǎng)絡(luò)特征聚合的能力。

其次,給出本文改進(jìn)的YOLOv5-S-160整體結(jié)構(gòu)圖,如圖1所示。我們將在接下來的小節(jié)中詳細(xì)講解其中的改進(jìn)點(diǎn)。

1.1" Explicit Visual Center(EVC)解釋

Explicit visual center(EVC)主要由輕量級MLP和可學(xué)習(xí)的視覺中心機(jī)制兩個(gè)并行連接塊組成。其中輕量級MLP用于捕獲頂級特征Y的全局遠(yuǎn)程依賴關(guān)系(即全局信息);可學(xué)習(xí)的視覺中心機(jī)制則是為了保留本地角落區(qū)域(即本地信息),以匯總層內(nèi)局部區(qū)域特征。這兩個(gè)塊的結(jié)果特征圖沿著通道維度串聯(lián)在一起,作為EVC模塊的輸出,用于下游識別。將ECV模塊嵌入到我們網(wǎng)絡(luò)模型的Neck頂部,局部角區(qū)域特征得到了增強(qiáng),目標(biāo)密集分布區(qū)域識別效果得到了明顯的提升。

X = cat (MLP(Xin);LVC(Xin))

其中X是EVC的輸出。cat()表示沿通道維度的特征映射級聯(lián)。MLP(Xin)和LVC(Xin)分別表示所使用的輕量級MLP和可學(xué)習(xí)的視覺中心機(jī)制的輸出特征。Xin是莖塊的輸出,由:

Xin = σ (BN (Conv7×7(Y )))

其中Conv7×7()表示步幅為1的7×7卷積,在我們的工作中,通道大小設(shè)置為256。BN()表示批歸一化層,σ()表示ReLU激活函數(shù)。

1.2" 多尺度特征跨層融合網(wǎng)絡(luò)(S-160)

隨著網(wǎng)絡(luò)層數(shù)的加深,網(wǎng)絡(luò)的感受野逐漸變大,語義表達(dá)能力也隨之增強(qiáng),但是這也使得圖像的分辨率降低,很多細(xì)節(jié)特征經(jīng)過多層網(wǎng)絡(luò)的卷積操作后變得越來越模糊。淺層神經(jīng)網(wǎng)絡(luò)的感受野小,細(xì)節(jié)特征的表達(dá)能力強(qiáng),但是提取的特征語義性較弱。不同深度的網(wǎng)絡(luò)層有不同的學(xué)習(xí)功能[9],如果可以將這些不同的功能整合起來并重新學(xué)習(xí),那么這個(gè)網(wǎng)絡(luò)的學(xué)習(xí)效果也大概率是有提升的。因此,我們建議從CSPDarknet53結(jié)構(gòu)中提取淺層特征和深層特征進(jìn)行跨層融合,并獲得新的160×160、80×80、40×40、20×20的特征尺度作為輸出。

如圖1中的Backbone部分所示,我們提出將CSPDarknet53結(jié)構(gòu)改進(jìn)為S-160結(jié)構(gòu)。首先,我們通過上采用和卷積等操作加深網(wǎng)絡(luò)深度,增強(qiáng)網(wǎng)絡(luò)層的語義表達(dá)能力。然后將淺層特征P2、P3、P4、P5與后面的深層特征通過concat操作融合,形成新的P2′、P3′、P4′、P5′層,最終的Backbone部分有160×160、80×80、40×40和20×20四個(gè)輸出尺度特征圖。不同尺寸特征圖的作用不同,原結(jié)構(gòu)中將80×80的特征尺度用于檢測小目標(biāo),但是對于遙感圖像中占比過小的目標(biāo)仍存在大量漏檢現(xiàn)象。因此,我們通過跨層融合引入了新的160×160的特征尺寸用于超小目標(biāo)檢測。

YOLOv5s有三個(gè)預(yù)測頭,分別是32×、16×和8×下采樣特征圖,分別對應(yīng)大、中、小目標(biāo)檢測。其中設(shè)計(jì)的8×下采樣特征圖,因?yàn)榫哂懈叻直媛屎驮敿?xì)的圖像信息,適用于檢測常規(guī)圖像中的小目標(biāo)。但是,如果目標(biāo)占比太小,例如遙感圖像中的小目標(biāo)尺寸為20×20,則目標(biāo)的占比面積大約為原始圖像的0.03%(640×640),其尺寸將變?yōu)槟P碗y以檢測的3×3。對于這種超小目標(biāo)的情況,8×下采樣特征圖的下采樣率相對較大,下采樣過程中丟失的圖像細(xì)節(jié)導(dǎo)致無法檢測出超小目標(biāo)。因此,原始YOLOv5s的性能將受到限制,導(dǎo)致大量超小目標(biāo)漏檢現(xiàn)象的發(fā)生。

考慮到上述問題,我們必須解決超小目標(biāo)的弱檢測性能。在實(shí)現(xiàn)性能目標(biāo)之前,我們需要平衡檢測速度和準(zhǔn)確性。如圖1中的Neck和Head部分所示,原始結(jié)構(gòu)中的檢測頭特征尺寸80×80、40×40和20×20被替換為160×160、80×80、40×40,仍然保持3個(gè)檢測頭數(shù)量。被替換的8×下采樣融合特征圖上采樣2倍后與Backbone中的P2′特征層concat形成新的4×下采樣融合特征圖。新的4×下采樣融合特征圖用于檢測遙感圖像中的超小目標(biāo)。

2" 實(shí)驗(yàn)結(jié)果

為了評估我們提出的方法,我們使用DOTA這個(gè)最廣泛使用的面向目標(biāo)檢測數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)。

2.1" 數(shù)據(jù)集介紹

DOTA[10]是面向目標(biāo)檢測的大規(guī)模數(shù)據(jù)集,我們分別在DOTA-v1.0這個(gè)版本上進(jìn)行了實(shí)驗(yàn)。DOTA-v1.0包含2 806圖像,包含18 8282個(gè)實(shí)例,共15個(gè)類別。

2.2" 實(shí)驗(yàn)環(huán)境

我們在公共深度學(xué)習(xí)框架PyTorch上實(shí)現(xiàn)我們的網(wǎng)絡(luò),并且建立在著名的開源網(wǎng)絡(luò)YOLOv5上。期間我們使用了許多訓(xùn)練技巧,包括訓(xùn)練熱身、余弦退火學(xué)習(xí)率、自動錨定、標(biāo)簽平滑和語義增強(qiáng)。所有實(shí)驗(yàn)都是在一個(gè)A6000 GPU和參數(shù)epoch=300、batchsize=16的相同條件下進(jìn)行的。

2.3" 對比實(shí)驗(yàn)

DOTA數(shù)據(jù)集實(shí)驗(yàn)結(jié)果:我們對DOTA-v1.0數(shù)據(jù)集的OBB任務(wù)進(jìn)行實(shí)驗(yàn)。我們將圖像裁剪為一系列1 024×1 024的補(bǔ)丁,并使用640×640的尺寸饋送至網(wǎng)絡(luò)模型當(dāng)中。我們的方法與其他方法進(jìn)行了比較,結(jié)果如表1所示。

我們的模型是通過單比例設(shè)置進(jìn)行訓(xùn)練和測試的,當(dāng)我們的模型僅使用訓(xùn)練集進(jìn)行訓(xùn)練時(shí),我們的方法的性能明顯優(yōu)于其他方法,如果還使用驗(yàn)證集進(jìn)行訓(xùn)練,則可以獲得更好的性能,可視化檢測結(jié)果如圖2所示,損失函數(shù)曲線如圖3所示。

遙感圖像中目標(biāo)具有占比小、分布密集的特點(diǎn),但我們提出的方法可以很好解決這些具有挑戰(zhàn)性的問題,例如在橋梁、足球場和大、小型車輛這些具有挑戰(zhàn)性的類別中也取得了不錯(cuò)的效果。

3" 結(jié)" 論

本文提出了一種基于YOLOv5改進(jìn)的多尺度特征跨層融合遙感目標(biāo)檢測器。引入Explicit visual center(EVC)模塊解決目標(biāo)密集分布任務(wù)中的漏檢問題。最后,在YOLOv5的基礎(chǔ)上提出了多尺度特征跨層融合結(jié)構(gòu)(S-160),其通過融合淺層和深層的特征信息,提高了對各個(gè)尺度目標(biāo)的檢測精度,并針對小目標(biāo)檢測引出了新的大尺度特征,用以解決遙感圖像中超小目標(biāo)無法識別的問題。在公共遙感數(shù)據(jù)集DOTA上取得了可觀的檢測性能。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)比原始網(wǎng)絡(luò)結(jié)構(gòu)具有更好的魯棒性和更高的精度。

將來,我們計(jì)劃提高樣本數(shù)量很少的類別的精度,這表明我們的方向權(quán)重需要一定數(shù)量的訓(xùn)練樣本,考慮使用不同的學(xué)習(xí)方法解決少樣本問題,以進(jìn)一步提高模型的魯棒性和泛化性。

參考文獻(xiàn):

[1] BOCHKOVSKIY A,WANG C Y,LIAO H Y M. Yolov4: Optimal speed and accuracy of object detection [J/OL].arXiv:2004.

10934 [cs.CV].(2020-04-23).https://arxiv.org/abs/2004.10934.

[2] REDMON J,DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified,Real-Time Object Detection [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas:IEEE,2016:779-788.

[3] REDMON J,F(xiàn)ARHADI A. YOLO9000:better,faster,stronger [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu:IEEE,2017:6517-6525.

[4] REDMON J,F(xiàn)ARHADI A. Yolov3: An incremental improvement [J/OL].arXiv:1804.02767 [cs.CV].(2018-04-08).https://arxiv.org/abs/1804.02767.

[5] LIU W,ANGUELOV D,ERHAN D,et al. Ssd:Single shot multibox detector [C]//proceedings of the Computer Vision–ECCV 2016:14th European Conference.Amsterdam:Springer,2016:21-37.

[6] LIN T,GOYAL P,GIRSHICK R,et al. Focal loss for dense object detection [C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice:IEEE,2017:2999-3007.

[7] 陳科圻,朱志亮,鄧小明,等.多尺度目標(biāo)檢測的深度學(xué)習(xí)研究綜述 [J].軟件學(xué)報(bào),2021,32(4):1201-1227.

[8] QUAN Y,ZHANG D,ZHANG L,et al. Centralized Feature Pyramid for Object Detection [J/OL].arXiv:2210.02093 [cs.CV].(2022-10-05).https://arxiv.org/abs/2210.02093.

[9] 呂建成,葉慶,田煜鑫,等.類腦超大規(guī)模深度神經(jīng)網(wǎng)絡(luò)系統(tǒng) [J].軟件學(xué)報(bào),2022,33(4):1412-1429.

[10] XIA G S,BAI X,DING J,et al. DOTA:A large-scale dataset for object detection in aerial images [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:3974-3983.

作者簡介:黃佳銘(1996—),男,漢族,浙江嘉興人,碩士研究生在讀,研究方向:圖像處理。

主站蜘蛛池模板: 亚洲国产av无码综合原创国产| 中文无码精品A∨在线观看不卡| 免费亚洲成人| 国产成人综合在线视频| 亚洲美女久久| 国产一级精品毛片基地| 欧美日韩国产在线人| 中文字幕丝袜一区二区| 91蜜芽尤物福利在线观看| 色窝窝免费一区二区三区 | 欧洲免费精品视频在线| 亚洲欧美另类中文字幕| 国产精品久久久久无码网站| 国产精品冒白浆免费视频| 成AV人片一区二区三区久久| 久久精品人人做人人爽电影蜜月| 国产免费久久精品99re丫丫一| 日本午夜三级| 婷婷综合色| 欧美视频免费一区二区三区| 国产亚洲精品97AA片在线播放| 欧美日韩国产在线播放| 亚洲成A人V欧美综合| 亚洲毛片网站| 亚洲国产精品无码AV| 女人18毛片一级毛片在线 | 日本国产精品| 香蕉视频在线观看www| 黄色在线不卡| 91伊人国产| 国产丝袜91| 国产精品久久久久久影院| 成人在线欧美| 国产全黄a一级毛片| 亚洲美女操| 中文字幕有乳无码| 久久美女精品国产精品亚洲| 国产超薄肉色丝袜网站| 免费看美女毛片| 亚洲不卡无码av中文字幕| 秋霞一区二区三区| 中文字幕 91| 欧美亚洲综合免费精品高清在线观看| 国产精品浪潮Av| 欧洲精品视频在线观看| 99久久亚洲综合精品TS| 欧美国产日产一区二区| 欧美影院久久| 国产一级毛片在线| 91在线丝袜| 亚洲人成网站色7799在线播放| 国产91丝袜在线播放动漫| 亚洲国产日韩一区| 国产又爽又黄无遮挡免费观看| 狠狠干综合| AV天堂资源福利在线观看| 亚洲欧美成人综合| 亚洲色欲色欲www网| 露脸一二三区国语对白| 在线精品自拍| 少妇极品熟妇人妻专区视频| 啦啦啦网站在线观看a毛片| 国产成人精品亚洲77美色| 四虎成人免费毛片| 国产在线91在线电影| 人妻无码中文字幕第一区| 国产办公室秘书无码精品| 欧美国产日韩另类| 亚洲视频a| 国产国模一区二区三区四区| 日本高清视频在线www色| 免费一级成人毛片| 日韩一级毛一欧美一国产| 欧美成人h精品网站| 毛片免费高清免费| 国产成人一区在线播放| 色综合天天操| 国产日韩精品欧美一区喷| 欧美日韩国产系列在线观看| 欧美成人a∨视频免费观看| 手机在线国产精品| 亚洲色无码专线精品观看|