999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)的YOLOv3 算法及其在軍事目標(biāo)檢測中的應(yīng)用

2022-05-22 09:34:00于博文呂明
兵工學(xué)報(bào) 2022年2期
關(guān)鍵詞:特征融合檢測

于博文,呂明

(南京理工大學(xué) 自動化學(xué)院,江蘇 南京 210094)

0 引言

戰(zhàn)場態(tài)勢感知是對作戰(zhàn)部隊(duì)、支援部隊(duì)的部隊(duì)部署、武器裝備和戰(zhàn)場環(huán)境(地形、氣象、水文等)進(jìn)行實(shí)時(shí)感知的過程,包括傳統(tǒng)的偵察、監(jiān)視、情報(bào)、航標(biāo)指示、損傷評估、信息資源管理與控制等。在現(xiàn)階段多兵種聯(lián)合作戰(zhàn)中通過戰(zhàn)場態(tài)勢進(jìn)行作戰(zhàn)形式解析和預(yù)判,進(jìn)而控制整個作戰(zhàn)過程,最終獲得整場戰(zhàn)爭的作戰(zhàn)優(yōu)勢。在未來的信息化戰(zhàn)爭中,提高戰(zhàn)場態(tài)勢感知能力,可以有效提高戰(zhàn)爭全局掌控能力,各軍事大國都在加強(qiáng)相關(guān)技術(shù)的開發(fā)和研究。目前,軍事目標(biāo)的識別與定位是影響戰(zhàn)場態(tài)勢感知的關(guān)鍵技術(shù)。因此,開展針對復(fù)雜環(huán)境下戰(zhàn)場軍事目標(biāo)自動檢測技術(shù)的研究,對生成和分析戰(zhàn)場態(tài)勢具有重要意義。

近年來,學(xué)者們陸續(xù)將基于深度學(xué)習(xí)的方法應(yīng)用于戰(zhàn)場態(tài)勢感知,能夠較好地解決目前信息化戰(zhàn)場中復(fù)雜戰(zhàn)場態(tài)勢生成和解析問題。深度學(xué)習(xí)是一種具有多層感知的神經(jīng)網(wǎng)絡(luò)模型,具有非線性表達(dá)、多層學(xué)習(xí)和自主提取特征的特點(diǎn)。將基于深度學(xué)習(xí)的目標(biāo)檢測模型應(yīng)用于戰(zhàn)場軍事目標(biāo)識別和定位,可以為戰(zhàn)場態(tài)勢感知系統(tǒng)提供有效的技術(shù)支持。包壯壯等通過結(jié)合可形變卷積和反卷積的特性在單次多盒檢測器(SSD)的基礎(chǔ)上設(shè)計(jì)了一種小目標(biāo)檢測模型,通過調(diào)整底層網(wǎng)絡(luò)結(jié)構(gòu)增強(qiáng)了網(wǎng)絡(luò)對深層特征與淺層特征的融合能力,在進(jìn)行小目標(biāo)檢測任務(wù)時(shí)具有較高的精度。戴文君等提出的一種多尺度形變目標(biāo)檢測方法,通過基于可形變卷積改進(jìn)的ResNet101 殘差網(wǎng)絡(luò)和感興趣區(qū)域池化,提高了對形變和多尺度目標(biāo)的檢測能力。杜澤星等采用稠密連接網(wǎng)絡(luò)結(jié)構(gòu),保證淺層網(wǎng)絡(luò)的特征有效性,通過具有大尺寸感受野的擴(kuò)張塊和反卷積網(wǎng)絡(luò)結(jié)構(gòu)對淺層特征和深層次特征進(jìn)行融合,大大減少網(wǎng)絡(luò)推理時(shí)間和增強(qiáng)對多尺度目標(biāo)的檢測能力。楊傳棟等針對彈載圖像目標(biāo)檢測精度不佳的問題,通過數(shù)據(jù)增強(qiáng)、尺度變換等處理方法,解決了在惡劣天氣條件下目標(biāo)形變、精度速度權(quán)衡等檢測難題。王志等針對復(fù)雜環(huán)境對靜態(tài)目標(biāo)檢測有較大影響的問題,提出了一種區(qū)域合并的方法進(jìn)行端到端的交替訓(xùn)練,在對復(fù)雜環(huán)境背景下進(jìn)行單、多目標(biāo)檢測具有較高的精度和魯棒性。

目前,基于深度學(xué)習(xí)的目標(biāo)檢測主要有兩個研究方向:多階段目標(biāo)檢測算法(區(qū)域卷積神經(jīng)網(wǎng)絡(luò)系列),該類方法通過提取候選區(qū)域的特征信息,來對預(yù)定義的候選區(qū)域進(jìn)行分類和位置回歸。該類檢測模型精度較高,但是其檢測速度較慢。單階段目標(biāo)檢測算法(YOLO 系列算法),該類模型利用初始錨點(diǎn)對目標(biāo)區(qū)域進(jìn)行定位,直接預(yù)測目標(biāo)類別,從而在不使用區(qū)域建議網(wǎng)絡(luò)的情況下完成整個檢測過程,實(shí)現(xiàn)端到端的目標(biāo)檢測。該類檢測模型速度較快,但精度相對較低。

由于戰(zhàn)場態(tài)勢具有高動態(tài)性,對軍事目標(biāo)檢測的實(shí)時(shí)性具有較高的要求。此外,在對感知系統(tǒng)(武器火控、無人機(jī)偵察等)獲得的戰(zhàn)場圖像信息進(jìn)行目標(biāo)檢測時(shí),該過程中軍事目標(biāo)受到光照、成像視角、目標(biāo)尺寸、偽裝、部分目標(biāo)存在遮擋等情況的影響,使得上述方法在復(fù)雜環(huán)境下軍事目標(biāo)檢測結(jié)果不佳。基于此,本文將從戰(zhàn)場態(tài)勢感知的基本問題軍事目標(biāo)的識別和定位出發(fā),通過深度學(xué)習(xí)方式對軍事目標(biāo)進(jìn)行檢測。YOLOv3 算法相對于其他檢測算法具有較高的檢測性能,故本文選取單階段檢測算法YOLOv3 作為檢測算法的基礎(chǔ)結(jié)構(gòu),并對其進(jìn)行改進(jìn),提出一種復(fù)雜環(huán)境下軍事目標(biāo)檢測(YOLOv3-DAR) 算法:針對復(fù)雜背景下的軍事目標(biāo)檢測任務(wù),構(gòu)建了一個包含多種陸地作戰(zhàn)中常見作戰(zhàn)單元的軍事目標(biāo)數(shù)據(jù)集。使用性能更加優(yōu)異的可形變卷積(DCN)和ResNet50-d 殘差網(wǎng)絡(luò)相結(jié)合的網(wǎng)絡(luò)作為檢測算法的特征提取網(wǎng)絡(luò),在一定程度上提升檢測精度和效率。在特征融合過程中引入雙注意力機(jī)制模塊和特征重構(gòu)模塊,引導(dǎo)相鄰層次的特征進(jìn)行自適應(yīng)融合,使得各層級的特征信息可以相互增強(qiáng)、補(bǔ)充,增強(qiáng)各層級特征之間的信息交互。為了使檢測算法的檢測精度進(jìn)一步提高,基于DIOU 損失函數(shù)和Focal 損失函數(shù)重新設(shè)計(jì)了目標(biāo)檢測器的損失函數(shù)。最后在本文所構(gòu)建的數(shù)據(jù)集和通用數(shù)據(jù)集PASCAL VOC上進(jìn)行對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明本文提出的目標(biāo)檢測算法YOLOv3-DAR 具有較好的檢測性能,可為戰(zhàn)場態(tài)勢生成、分析提供有效的輔助技術(shù)支持。

1 構(gòu)建軍事目標(biāo)數(shù)據(jù)集

根據(jù)陸地戰(zhàn)場作戰(zhàn)環(huán)境下常見的軍事行動單元構(gòu)建軍事目標(biāo)數(shù)據(jù)集,其中所包含的作戰(zhàn)單元大體可以分為:地面機(jī)動單元,坦克、步兵戰(zhàn)車、自行火炮等,其具有高機(jī)動性和高毀傷性,因此是地面戰(zhàn)場中的主要檢測目標(biāo);地面作戰(zhàn)人員,地面作戰(zhàn)部隊(duì)是陸戰(zhàn)場中不可忽略的一部分,其目標(biāo)較小,發(fā)現(xiàn)概率較低;低空飛行單元,無人機(jī)、直升機(jī)等,其主要在戰(zhàn)場中起到低空偵查、作戰(zhàn)引導(dǎo)、直接攻擊等作用,是陸戰(zhàn)場中地面部隊(duì)的直接威脅;導(dǎo)彈部隊(duì)作戰(zhàn)單元,具有較大的殺傷力,但是機(jī)動性較差,主要用來攻擊重要軍事目標(biāo)。在真實(shí)作戰(zhàn)環(huán)境中,軍事行動單元通常采用軍用迷彩或與復(fù)雜自然環(huán)境相近的偽裝物進(jìn)行偽裝,從而大大提升軍事行動單元的戰(zhàn)場存活能力,有效降低了各類檢測手段的發(fā)現(xiàn)幾率。基于此,針對復(fù)雜環(huán)境下軍事目標(biāo)檢測任務(wù),從互聯(lián)網(wǎng)上下載了大量復(fù)雜背景下的軍事目標(biāo)圖像構(gòu)建軍事目標(biāo)數(shù)據(jù)集。

數(shù)據(jù)集中總共包含了4 種陸地作戰(zhàn)場景(沙漠、叢林、城市、雪地)和陸地作戰(zhàn)場景中常見的7 類軍事目標(biāo),同時(shí)考慮了影響目標(biāo)檢測結(jié)果的因素,例如前景遮擋、煙霧、目標(biāo)尺寸、成像視角等,其中部分圖像示例如圖1 所示。將數(shù)據(jù)集中各作戰(zhàn)場景下的軍事目標(biāo)按照7∶2∶1的比例劃分到訓(xùn)練集、測試集、驗(yàn)證集。然后,利用圖像標(biāo)記軟件LabelImg對數(shù)據(jù)集中的樣本數(shù)據(jù)進(jìn)行標(biāo)記,數(shù)據(jù)集標(biāo)簽格式與PASCAL VOC 數(shù)據(jù)標(biāo)簽格式一致。數(shù)據(jù)集中總計(jì)有17 700 幅圖像,包含有41 399 個目標(biāo)標(biāo)注框。各類軍事目標(biāo)的詳細(xì)統(tǒng)計(jì)信息如表1 所示。

圖1 數(shù)據(jù)集部分圖像示例Fig.1 Examples of partial images of dataset

表1 軍事目標(biāo)數(shù)據(jù)集信息明細(xì)Tab.1 Details of military target dataset information

在目標(biāo)檢測模型訓(xùn)練、應(yīng)用的過程中會調(diào)整圖像尺寸到某個固定的尺寸,通過計(jì)算目標(biāo)標(biāo)注框的寬度、高度與其所在圖像的寬度、高度比值的最大值可以有效評價(jià)數(shù)據(jù)集尺度分布的情況,因此本文選取其作為衡量數(shù)據(jù)集尺度分布的標(biāo)準(zhǔn),其計(jì)算公式為

式中:、分別表示目標(biāo)標(biāo)注框的寬度、高度;、分別表示目標(biāo)框所在圖像的寬度、高度。

圖2 為本文構(gòu)建數(shù)據(jù)集中各目標(biāo)類別的尺度分布情況。圖3 為本文構(gòu)建數(shù)據(jù)集中的汽車、步兵戰(zhàn)車、坦克等主要目標(biāo)與PASCAL VOC 2007、2012 數(shù)據(jù)集中交通工具類目標(biāo)的尺度分布對比圖,可以看出本文構(gòu)建的數(shù)據(jù)集相對于PASCAL VOC 數(shù)據(jù)集具有更多小尺寸目標(biāo)。

圖2 本文數(shù)據(jù)集中各類目標(biāo)尺度分布圖Fig.2 Distribution chart of various target scales in the dataset in the present paper

圖3 主要目標(biāo)尺度分布對比圖Fig.3 Comparison chart of main target scale distribution

2 基于改進(jìn)的YOLOv3 軍事目標(biāo)檢測算法

圖4 為本文所提出的復(fù)雜環(huán)境下軍事目標(biāo)檢測算法的整體結(jié)構(gòu),其整體結(jié)構(gòu)以YOLOv3 檢測算法為基礎(chǔ),由ResNet50-d-DCN 特征提取網(wǎng)絡(luò)、基于雙注意力機(jī)制的特征融合模塊、特征重構(gòu)模塊和YOLOv3 目標(biāo)檢測器4 部分所構(gòu)成。圖4 中,~表示特征提取網(wǎng)絡(luò)各階段的卷積特征,~表示通過融合各層級特征得到的卷積特征,~表示通過特征重構(gòu)生成的卷積特征。

圖4 YOLOv3-DAR 檢測算法的整體結(jié)構(gòu)Fig.4 Framework of YOLOv3-DAR target detection algorithm

2.1 ResNet50-d-DCN 特征提取網(wǎng)絡(luò)

在實(shí)際目標(biāo)檢測任務(wù)中,受到成像視角、檢測距離、光照、目標(biāo)尺度、偽裝等因素的影響,不可避免的使圖像信息存在一定程度的形變。在YOLOv3 算法中,首先通過DarkNet53 網(wǎng)絡(luò)來提取不同尺度的檢測特征。而傳統(tǒng)的卷積網(wǎng)絡(luò)由于卷積采樣方式的限制,處理幾何形變問題的能力相對有限,需要通過大量的圖像訓(xùn)練來提高網(wǎng)絡(luò)的泛化能力。在實(shí)際使用過程中,如果遇到數(shù)據(jù)集中沒有的要素,極有可能出現(xiàn)漏檢、誤檢的情況,從而影響目標(biāo)檢測的結(jié)果。

針對上述問題,本文引入可形變卷積網(wǎng)絡(luò)和殘差網(wǎng)絡(luò)。可形變卷積的效果已在許多檢測模型中得到了驗(yàn)證,如圖5 所示,相對于傳統(tǒng)卷積,可形變卷積在采樣過程中通過添加偏移量使其可以動態(tài)改變感受野,并根據(jù)目標(biāo)的形變情況調(diào)整采樣點(diǎn)的位置,有效提高網(wǎng)絡(luò)的泛化能力,從而提高檢測模型的檢測精度。現(xiàn)階段殘差網(wǎng)絡(luò)具有較為廣泛的應(yīng)用,其具有較多的變體可供選擇,同時(shí)具有較強(qiáng)的可擴(kuò)展性。通過綜合考慮,本文應(yīng)用可形變卷積對殘差網(wǎng)絡(luò)的變體ResNet50-d的部分卷積層進(jìn)行改進(jìn)得到ResNet50-d-DCN 網(wǎng)絡(luò)。可形變卷積本身不會顯著的增加模型中參數(shù)的數(shù)量,但在實(shí)際應(yīng)用中,過多的可形變卷積層會增加網(wǎng)絡(luò)的推理時(shí)間。因此,為了平衡效率和有效性本文僅將ResNet50-d 網(wǎng)絡(luò)中的第4 階段、第5 階段中的3 ×3 卷積替換為可形變卷積,其余層保持不變,選取第2 階段~第5 階段作為輸出,記為、、、。

圖5 傳統(tǒng)卷積與可形變卷積對比示意圖Fig.5 Comparison diagram

傳統(tǒng)的卷積過程可以表示為

式中:為一個3 ×3 卷積層網(wǎng)格;、P分別為特征圖和中某個位置的坐標(biāo);(P)為卷積核中的權(quán)值;+P為采樣點(diǎn)的坐標(biāo),(+P)為輸入特征圖中對應(yīng)的像素值。

可形變卷積層的輸出可表示為

偏移量添加到中,則采樣點(diǎn)的坐標(biāo)變換為+PPP一般為分?jǐn)?shù)。輸入特征圖中的樣本點(diǎn)會定位在一個分?jǐn)?shù)的位置,通過雙線性插值獲取(+PP)的像素值,偏移量則通過額外的卷積層來學(xué)習(xí)。

2.2 基于注意力機(jī)制的特征融合算法

在YOLOv3 算法中相鄰的層級特征通過串聯(lián)方式進(jìn)行特征融合,而不同層級的特征分布差異懸殊,簡單的特征融合方式會破壞原有的特征。低層次網(wǎng)絡(luò)特征具有較為豐富的細(xì)粒度特征信息,而高層次網(wǎng)絡(luò)特征具有較為豐富的語義信息,如何有效地將二者融合在一起是至關(guān)重要的。進(jìn)行目標(biāo)檢測時(shí)不僅需要目標(biāo)本身的尺度信息和細(xì)粒度信息,還需要依賴于周圍的環(huán)境信息,基于此,本文基于壓縮激勵卷積網(wǎng)絡(luò)的思想,在特征融合階段引入雙注意力機(jī)制,使網(wǎng)絡(luò)可以自適應(yīng)過濾特征信息,強(qiáng)調(diào)對檢測更為重要的特征信息,抑制干擾,加強(qiáng)檢測特征的表征能力,特征融合過程如圖6 所示。圖6 中,(·)、(·)、(·)分別表示壓縮操作、激勵操作、權(quán)值分配操作;、、分別表示卷積特征的高度、寬度、通道數(shù)。

圖6 特征自適應(yīng)融合過程Fig.6 Process of adaptive feature fusion

如圖6 所示,在融合過程中引入雙向選擇機(jī)制,起到相互監(jiān)督的作用。根據(jù)圖4 中的特征金字塔,通過PC對特征融合過程進(jìn)行說明。由于C分辨率是P的2 倍,通過尺度為2 的上采樣層對P進(jìn)行上采樣,通過1 ×1 卷積對C進(jìn)行降維操作,使得來自不同層級的特征圖具有相同的尺寸。利用全局平均池化對特征圖進(jìn)行壓縮操作,獲得輸出維度為1 ×1 ×的特征圖zz:

式中:HW表示第層級特征的高度、寬度。

由于全局平均池是基于通道的,zzPC的通道數(shù)相同。然后利用Sigmoid 函數(shù)、Relu 函數(shù)對壓縮操作所獲得的特征圖zz分別進(jìn)行激勵操作,獲取特征通道間的非線性關(guān)系和特征通道的權(quán)值。權(quán)值ss輸出維度為1 ×1 ×,如(8)式和(9)式所示:

最后是權(quán)值分配操作,將激勵操作輸出的權(quán)重通過乘法逐通道加權(quán)到先前的特征上,在通道維度上完成對原始特征的重新標(biāo)定,讓模型可以更加關(guān)注信息量最大的通道特征,抑制那些不重要的通道特征。本文在權(quán)值分配操作的基礎(chǔ)上加入交叉監(jiān)督機(jī)制,通過得到的特征通道權(quán)值ss,生成特征P:

經(jīng)過上述特征融合過程,可以有效地將高層次特征的語義信息和低層次特征的細(xì)粒度信息融合在一起,得到的融合特征具有較強(qiáng)的表征能力。YOLOv3 檢測模型的訓(xùn)練過程中,高層次特征用于檢測較大目標(biāo),低層次特征用于檢測較小目標(biāo),這樣就破壞了各個層級檢測特征之間的依賴關(guān)系。根據(jù)文獻(xiàn)[26]不同層級特征相互補(bǔ)充相互增強(qiáng)的思想,本文對檢測特征進(jìn)行重構(gòu),特征重構(gòu)過程如圖7所示。

圖7 檢測特征重構(gòu)過程Fig.7 Process of detection feature reconstruction

首先將各層級檢測特征、、、進(jìn)行切片,每個層級特征分成4 份。為了保證在接下來的重構(gòu)過程中各層級特征維度是一致的,需要對檢測特征中的各尺度的切片進(jìn)行調(diào)整。如果切片與目標(biāo)特征的尺寸一致,則保持原切片大小不變;如果切片較目標(biāo)特征的尺寸小,則采用上采樣層對切片特征進(jìn)行上采樣;如果切片較目標(biāo)特征的尺寸大,則采用最大池化對切片特征進(jìn)行下采樣。然后將分辨率一致的切片通過串聯(lián)的方式合并成新的特征。通過尺度縮放、重新配置,將各層級的語義信息和細(xì)粒度信息重新組合在一起。最后,將重構(gòu)后的檢測特征、、輸入到目標(biāo)檢測器。

2.3 損失函數(shù)

損失函數(shù)由邊界框損失函數(shù)、置信度損失函數(shù)和類別損失函數(shù)組成,如(11)式所示:

交并比(IOU)在進(jìn)行邊界框的回歸預(yù)測時(shí),如果預(yù)測框與標(biāo)注框之間沒有重疊,會出現(xiàn)損失函數(shù)梯度為0 的問題,為了解決這個問題,本文引入DIOU損失函數(shù)進(jìn)行邊界框的回歸預(yù)測,其可以有效解決回歸不準(zhǔn)確和收斂慢的問題,其計(jì)算公式為

式中:和分別為預(yù)測框=(,,,)和目標(biāo)框=(,,,)的中心點(diǎn);(·)表示與之間歐幾里得距離;為覆蓋目標(biāo)框和預(yù)測框最小矩形的對角線長度。

在訓(xùn)練數(shù)據(jù)集中存在一部分較為容易分類的樣本數(shù)據(jù),因此會使得模型的優(yōu)化方向與所預(yù)期的方向相反,為了降低負(fù)樣本對模型優(yōu)化的影響,本文引入Focal 損失函數(shù)來降低負(fù)樣本對模型優(yōu)化影響的權(quán)重,使其更專注于更難更復(fù)雜的分類樣本,其計(jì)算公式為

式中:和分別為檢測目標(biāo)置信度的預(yù)測值和真實(shí)值。

分類損失通過交叉熵?fù)p失函數(shù)來計(jì)算,將輸入圖像劃分成×個網(wǎng)格,每個網(wǎng)格對應(yīng)3 個目標(biāo)預(yù)測框,分類損失只對有識別對象的網(wǎng)格有效,其計(jì)算公式為

式中:表示檢測特征的尺度。

3 實(shí)驗(yàn)結(jié)果分析

3.1 實(shí)驗(yàn)參數(shù)配置與檢測結(jié)果

1)實(shí)驗(yàn)條件

本文所有的實(shí)驗(yàn)均在操作系統(tǒng)為Ubuntu18.04的服務(wù)器上進(jìn)行,中央處理器為至強(qiáng)銀牌4114 處理器@ 10C*2.2 GHz,圖形處理器為GeForce RTX 2080ti×4,內(nèi)存為128 GB。采用TensorFlow2.0.0 為基礎(chǔ)框架搭建神經(jīng)網(wǎng)絡(luò),使用Python 語言進(jìn)行編程。訓(xùn)練、測試數(shù)據(jù)集為本文構(gòu)建的軍事目標(biāo)數(shù)據(jù)集。

2)模型訓(xùn)練細(xì)節(jié)

在訓(xùn)練過程中使用隨機(jī)梯度下降(SGD)法進(jìn)行檢測模型訓(xùn)練,批處理大小設(shè)置為64,最大迭代次數(shù)設(shè)置為100 k,初始學(xué)習(xí)率、權(quán)重衰減系數(shù)、動量因子分別設(shè)置為0.001、0.000 5、0.9。當(dāng)?shù)螖?shù)到達(dá)60 000 和85 000 時(shí),學(xué)習(xí)率分別除以10。同時(shí)結(jié)合多尺度訓(xùn)練策略,每隔10 次迭代隨機(jī)從{320,352,384,416,448,480,512,544,576,608}中選取圖片的輸入尺寸。通過圖像旋轉(zhuǎn)圖像、縮放、調(diào)整對比度、調(diào)整飽和度等方法生成更多可供網(wǎng)絡(luò)訓(xùn)練的軍事目標(biāo)樣本,增強(qiáng)網(wǎng)絡(luò)的泛化性,提高對軍事目標(biāo)檢測的精準(zhǔn)度及穩(wěn)定性。根據(jù)訓(xùn)練數(shù)據(jù)集中的圖像樣本通過K-means 算法對目標(biāo)標(biāo)注框進(jìn)行聚類,得到9 個模板尺寸(模型輸入分辨率544 ×544),分別為(24,29)、(41,69)、(66,153)、(79,89)、(127,283)、(158,152)、(243,398)、(351,262)、(455,468),將運(yùn)用這些先驗(yàn)框來進(jìn)行目標(biāo)檢測實(shí)驗(yàn)。此外,在預(yù)測框評估階段引入DIOU 非極大值抑制(DIOU-NMS)以提高模型的檢測性能。

3)評價(jià)指標(biāo)

本文選取平均查準(zhǔn)率(AP)用來評價(jià)檢測模型對單個目標(biāo)類別的檢測準(zhǔn)確性。AP 從準(zhǔn)確率、召回率這兩個方面來評價(jià)檢測模型的精準(zhǔn)性,可有效地評價(jià)模型對單個目標(biāo)類別的檢測性能,AP 采用文獻(xiàn)[24]的計(jì)算方式,其中IOU 閾值、置信度閾值分別設(shè)置為0.5、0.001。AP 均值(mAP)用來評價(jià)檢測模型對多個目標(biāo)類別的綜合檢測性能。通常AP 和mAP 數(shù)值越高,模型的檢測性能越好,反之亦然。通過每秒可處理的圖像數(shù)量(FPS)來測量檢測模型的檢測速度。

應(yīng)用YOLOv3-DAR 目標(biāo)檢測模型對本文數(shù)據(jù)集中復(fù)雜環(huán)境下部分軍事目標(biāo)進(jìn)行目標(biāo)檢測,其檢測效果如圖8 所示。

圖8 YOLOv3-DAR 算法的檢測結(jié)果示例Fig.8 Test results of YOLOv3-DAR algorithm

3.2 軍事目標(biāo)檢測結(jié)果分析

3.2.1 目標(biāo)檢測性能分析

通過YOLOv3、YOLOv3-DAR、R-FCN、Faster RCNN算法對本文構(gòu)建的數(shù)據(jù)集進(jìn)行目標(biāo)檢測,其檢測性能比對結(jié)果如表2 所示。從表2 中可以看出,本文提出的YOLOv3-DAR 算法比YOLOv3 算法的平均精度均值高出了2.98%,FPS 提高了8.6 幀/s。YOLOv3-DAR 算法比Faster RCNN、R-FCN 算法的平均精度均值分別高出了1.70%、1.44%,同時(shí)YOLOv3-DAR 算法的檢測速度分別是Faster RCNN、R-FCN 算法的13.88 倍和5.51 倍。YOLOv3-DAR算法相對其他3 種檢測算法具有較高的檢測精度和處理速度。

表2 YOLOv3-DAR 算法與其他3 種檢測算法的對比實(shí)驗(yàn)結(jié)果Tab.2 Experimental results of YOLOv3-DAR and other three detection algorithms

從數(shù)據(jù)集中選取若干幅圖片進(jìn)行YOLOv3 算法與YOLOv3-DAR 算法檢測結(jié)果對比實(shí)驗(yàn),二者的IOU 閾值、置信度閾值分別設(shè)置為0.5、0.25,從中隨機(jī)選取5 幅圖片進(jìn)行說明,誤檢、漏檢通過人工標(biāo)注的方式對目標(biāo)進(jìn)行標(biāo)注。YOLOv3-DAR 算法與YOLOv3 算法檢測效果對比如表3 所示。

表3 YOLOv3 算法與YOLOv3-DAR 算法識別效果對比Tab.3 Recognition effects of YOLOv3 and YOLOv3-DAR algorithms

測試圖片1 中一共有5 個目標(biāo),其中2 個目標(biāo)在圖像中所占像素較少,YOLOv3 算法檢測出其中3 個目標(biāo),YOLOv3-DAR 算法檢測出全部5 個目標(biāo)。測試圖片2~圖片4 為屬于遮擋、形變較為嚴(yán)重的情況,YOLOv3 算法存在漏檢、誤檢的情況,YOLOv3-DAR 算法可以檢測出全部目標(biāo),可在置信度較低的情況下有效標(biāo)注出待檢測目標(biāo)。測試圖片5 屬于目標(biāo)過于密集、遮擋較為嚴(yán)重的情況,YOLOv3-DAR 算法出現(xiàn)一個漏檢目標(biāo),YOLOv3 算法出現(xiàn)兩個漏檢目標(biāo)。綜上所述,可以看出YOLOv3-DAR 網(wǎng)絡(luò)整體性能優(yōu)于YOLOv3 網(wǎng)絡(luò),可以有效降低目標(biāo)受到光照、成像視角、目標(biāo)尺寸、目標(biāo)之間遮擋等對軍事目標(biāo)檢測的影響。通過對特征提取網(wǎng)絡(luò)的改進(jìn)、引入注意力機(jī)制和特征重構(gòu)策略,增強(qiáng)了網(wǎng)絡(luò)的表示能力,使網(wǎng)絡(luò)具有自適應(yīng)過濾干擾特征信息的能力,具有較強(qiáng)的魯棒性,同時(shí)減少了網(wǎng)絡(luò)參數(shù),提高了復(fù)雜環(huán)境下軍事目標(biāo)的檢測效率和精準(zhǔn)度。

3.2.2 模型分解實(shí)驗(yàn)

本文所提出的YOLOv3-DAR 網(wǎng)絡(luò)中應(yīng)用通過可形變卷積改進(jìn)的ResNet50-d 作為特征提取網(wǎng)絡(luò),使用基于注意力機(jī)制的融合算法對各個尺度的檢測特征進(jìn)行融合,對融合后的檢測特征進(jìn)行重構(gòu),重新設(shè)計(jì)了多尺度目標(biāo)檢測器的損失函數(shù),在訓(xùn)練過程中采用多尺度訓(xùn)練,為了驗(yàn)證各改進(jìn)策略對檢測性能的貢獻(xiàn)度,在本文所構(gòu)建的訓(xùn)練數(shù)據(jù)集中進(jìn)行分解實(shí)驗(yàn)。當(dāng)輸入分辨率為544 ×544 時(shí),其檢測結(jié)果如表4 所示,可以看出本文對YOLOv3 中各模塊的改進(jìn)策略對檢測性能的提升均有一定的幫助。

表4 YOLOv3-DAR 模型分解實(shí)驗(yàn)結(jié)果Tab.4 Experimental results of YOLOv3-DAR model decomposition

如表4 所示,模型A 為原始的YOLOv3 模型,模型B 為引入ResNet50-d+DCN 特征提取網(wǎng)絡(luò)的YOLOv3 模型,模型C、D、E、F 分別是在模型B 的基礎(chǔ)上遞進(jìn)增加雙注意力機(jī)制、特征重構(gòu)模塊、改進(jìn)后的損失函數(shù)、多尺度訓(xùn)練。下面將對各改進(jìn)策略逐一說明。

采用SPSS17.0對所有數(shù)據(jù)進(jìn)行統(tǒng)計(jì)學(xué)分析處理,各組計(jì)量資料結(jié)果用(± s)表示,兩兩比較采用t檢驗(yàn),以P<0.05為差異有統(tǒng)計(jì)學(xué)意義。

同時(shí),為了進(jìn)一步驗(yàn)證可形變卷積、基于雙向選擇注意力機(jī)制的特征融合算法對本文數(shù)據(jù)集檢測精度的影響,選取Faster RCNN 算法、R-FCN 算法和本文算法進(jìn)行對比實(shí)驗(yàn),其中各算法均使用相同的特征提取網(wǎng)絡(luò),檢測結(jié)果如表5 所示。

從表5 中的檢測結(jié)果可以看出,單獨(dú)使用可形變卷積可以有效提高模型的檢測精度,而同時(shí)使用可形變卷積和基于雙向選擇注意力機(jī)制的特征融合則可以進(jìn)一步提高檢測模型的檢測精度。實(shí)驗(yàn)證明通過上述改進(jìn)策略的結(jié)合,可以有效提高檢測模型的檢測能力。

表5 改進(jìn)策略對mAP 的影響Tab.5 Impact of improvement strategies on mAP

3.3 PASCAL VOC 數(shù)據(jù)集上的實(shí)驗(yàn)

除了在本文收集的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)外,還在通用數(shù)據(jù)集PASCAL VOC 2007、2012 上進(jìn)行了算法對比實(shí)驗(yàn)。為了公平起見,所有算法均使用Tensorflow2.0 為基礎(chǔ)構(gòu)建模型,每個算法模型訓(xùn)練100 個Epochs。在訓(xùn)練過程中采用文獻(xiàn)[21]的訓(xùn)練策略。各算法在PASCAL VOC2007 測試集上的檢測結(jié)果如表6 所示。

表6 在PASCAL VOC 2007 測試集上的結(jié)果Tab.6 Experimental results of PASCAL VOC 2007 dataset

從表6 的實(shí)驗(yàn)數(shù)據(jù)可以看出,本文所提出的算法檢測性能整體上優(yōu)于其他檢測模型。當(dāng)輸入分辨率為544 × 544 時(shí),YOLOv3-DAR 算法相對于原YOLOv3 算法,mAP 提高了3.76%,FPS 提高了8.9,檢測精度和速度均有一定的優(yōu)勢。當(dāng)YOLOv3-DAR、YOLOv3 算法的輸入分辨率分別為416 ×416、544 ×544 時(shí),YOLOv3-DAR 算法相對于原YOLOv3算法,mAP 提高了3.02%,FPS 達(dá)到了43.5,可以看出YOLOv3-DAR 算法相對于YOLOv3 算法具有更為優(yōu)秀的檢測性能。綜上所述可以證明本文所提出的YOLOv3-DAR 檢測模型具有較好的檢測性能。

4 結(jié)論

1)ResNet50-d-DCN 特征提取網(wǎng)絡(luò)相對于Dark-Net53 在檢測形變目標(biāo)時(shí)具有更好的檢測性能。

2)在特征融合階段引入雙注意力機(jī)制和特征融合模塊,使網(wǎng)絡(luò)具有自適應(yīng)過濾功能,各層級特征可以有效地融合在一起,增強(qiáng)了特征的表達(dá)能力,使得檢測模型的檢測性能得到提升。

3)基于DIOU 損失函數(shù)和Focal 損失函數(shù)對YOLOv3 網(wǎng)絡(luò)的損失函數(shù)進(jìn)行改進(jìn),結(jié)合DIOUNMS,進(jìn)一步提高了復(fù)雜環(huán)境下軍事目標(biāo)的檢測精度。

4)YOLOv3-DAR 檢測模型具有較高的檢測精度、速度,可以滿足實(shí)際作戰(zhàn)需求,可以為戰(zhàn)場態(tài)勢生成、分析提供有效的輔助技術(shù)支持。

本文提出的檢測方法的基礎(chǔ)是需要大量的實(shí)際樣本數(shù)據(jù),按照標(biāo)準(zhǔn)對目標(biāo)進(jìn)行人工標(biāo)注,供模型訓(xùn)練使用。目前,本文針對復(fù)雜環(huán)境下軍事目標(biāo)檢測任務(wù)構(gòu)建的數(shù)據(jù)集樣本數(shù)據(jù)還不夠完善,將對其進(jìn)行補(bǔ)充擴(kuò)展,豐富樣本數(shù)據(jù)。此外,由于實(shí)際戰(zhàn)場應(yīng)用中有可能出現(xiàn)未知類別目標(biāo),針對該問題,后期將對數(shù)據(jù)集添加語義標(biāo)簽,通過修改模型結(jié)合零樣本分類器進(jìn)行未知類別目標(biāo)檢測,這將是本文進(jìn)一步研究的重點(diǎn)。

猜你喜歡
特征融合檢測
村企黨建聯(lián)建融合共贏
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
主站蜘蛛池模板: 欧美一区精品| 99精品国产电影| 欧美中文字幕在线视频| 一级毛片中文字幕| 亚洲全网成人资源在线观看| 亚洲娇小与黑人巨大交| 精品国产网| 国产亚洲欧美日韩在线观看一区二区| 国产精品专区第一页在线观看| 国产97区一区二区三区无码| 国产簧片免费在线播放| 黑人巨大精品欧美一区二区区| 国产另类乱子伦精品免费女| 国产凹凸视频在线观看| 一本大道视频精品人妻 | 97在线视频免费观看| 毛片网站在线看| 国产91在线|中文| 毛片在线区| 无码AV高清毛片中国一级毛片| 亚州AV秘 一区二区三区| 97综合久久| 亚洲午夜国产精品无卡| 亚洲Va中文字幕久久一区| a亚洲视频| 中国国产一级毛片| 国产精品亚洲日韩AⅤ在线观看| 久久久久人妻一区精品| 一区二区理伦视频| 欧美黑人欧美精品刺激| 亚洲精品老司机| 天天综合网亚洲网站| 中文字幕不卡免费高清视频| 国产精品浪潮Av| 四虎永久在线| 国产精品人成在线播放| 国产在线一二三区| 成年免费在线观看| 亚洲毛片网站| 99热这里只有免费国产精品| 国产香蕉97碰碰视频VA碰碰看| 一区二区三区在线不卡免费| 国产成人精品男人的天堂下载 | 91精品久久久无码中文字幕vr| 国产美女自慰在线观看| 999精品色在线观看| 美女无遮挡免费网站| 国产呦精品一区二区三区网站| 亚洲一区第一页| 亚洲中文字幕精品| 乱色熟女综合一区二区| 久久精品国产精品一区二区| 囯产av无码片毛片一级| 久久精品人妻中文系列| 亚洲AV无码一区二区三区牲色| 国产在线专区| 九九视频在线免费观看| 天堂成人在线视频| 亚洲欧美综合在线观看| 亚洲欧美日韩中文字幕在线| 亚洲成人免费看| av免费在线观看美女叉开腿| 亚洲欧美不卡中文字幕| 伦伦影院精品一区| 日韩免费毛片| 欧美三级不卡在线观看视频| 伊人激情综合网| 精品国产免费人成在线观看| 久久久久国产精品熟女影院| 91九色国产在线| 91精品啪在线观看国产| 在线综合亚洲欧美网站| 中文字幕va| 久久一本日韩精品中文字幕屁孩| 中文字幕资源站| 伊伊人成亚洲综合人网7777| 欧美午夜在线视频| 青草娱乐极品免费视频| 四虎影视库国产精品一区| 免费看的一级毛片| 久久亚洲国产最新网站| 成人毛片免费在线观看|