999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡的典型偵察目標檢測方法研究

2023-01-11 15:24:36袁建虎徐顯海
現(xiàn)代計算機 2022年20期
關鍵詞:特征檢測模型

岳 磊,袁建虎,徐顯海

(1.陸軍工程大學野戰(zhàn)工程學院,南京 210001;2.95979部隊,泰安 271000)

0 引言

偵察巡邏是確保地區(qū)安全穩(wěn)定的重要行動,是確保社會經(jīng)濟健康發(fā)展的重要保障,但是巡邏偵察環(huán)境復雜多樣、巡邏地點交通不便、檢測目標多樣等問題增加了任務執(zhí)行難度。傳統(tǒng)巡邏偵察通過低近偵察,拍攝圖像視頻資料觀察判斷可疑區(qū)域,但視野十分有限且檢測效率低,檢測效果較差。現(xiàn)代巡邏偵察行動要求節(jié)奏迅速、反應快,減少非必要時間損失帶來的影響。伴隨計算機視覺在軍事應用上的發(fā)展,傳統(tǒng)檢測精度低、檢測難度大、實時性差等問題也隨之突出。因此研究智能目標檢測在軍事偵察、邊境治理、引導打擊和反恐維穩(wěn)等領域的應用具有重要意義。

執(zhí)行偵察巡邏任務時,主要面臨以下困難:①任務場景復雜:山岳叢林、村落、高寒山地、荒漠草原。②檢測方式多樣:采用抵近偵觀察設備、無人機航拍和視頻監(jiān)控進行偵察圖像采集。③檢測目標種類多樣:行人、車輛、牲畜、建筑等。

上述巡邏偵察任務中面臨的問題十分具有挑戰(zhàn)性,使得眾多學者進行深入研究。近年來隨著神經(jīng)網(wǎng)絡的深入研究,計算機計算性能和存儲能力提升,采用深度學習進行目標檢測已經(jīng)廣泛用于各個領域,在國家安全、軍事、交通、醫(yī)療和生活等都是重要研究方向[1-2]。通過深度卷積神經(jīng)網(wǎng)絡能夠有效改善傳統(tǒng)檢測算法深層特征提取不充分、泛化性差、受自然和人工干擾因素多的問題,同時提升檢測精度及效率。

目前根據(jù)網(wǎng)絡結構設計方式不同,現(xiàn)有的深度學習檢測算法可以分為兩類:一類是基于區(qū)域的兩階段(Two-Stage)檢測算法,代表算法有R-CNN[3]、Faster R-CNN[4]、Mask R-CNN[5]等,兩階段算法主要是依據(jù)圖像中被檢測實際位置,提前選取候選區(qū)的方式進行訓練。另一類是一階段(One-Stage)檢測算法,該類算法采用端到端檢測網(wǎng)絡,代表算法有YOLO(You Only Look Once, YOLO)[6-7]、 SSD(Single Shot Multibox Detector, SSD)[8]等。

一階段算法使用回歸思想,用回歸的方式得出檢測框類別及偏移量,并得出最接近真實值的檢測框。郝旭政等[9]對行人特征進行加強表達。通對圖像中的行人表達和分布進行分析,在保證檢測算法檢測速度的前提下,對網(wǎng)絡中的殘差模塊進行了改進,使得YOLO算法獲得了更強的表達能力。裴偉等[10]針對目標重復多次漏檢以及小目標漏檢的情況,以SSD為基準模型進行改進,將不同特征融合機制進行了融合,且通過實驗證明了此方法具備較好的準確性和實驗性。

針對偵察巡邏任務背景下被檢測圖像檢測圖像模糊、自然環(huán)境干擾造成檢測困難的問題,本文在YOLOv5的基礎上對原始標準網(wǎng)絡進行改進,收集、標注、擴充相關實驗數(shù)據(jù)集;在YOLOv5的骨干網(wǎng)絡(Backbone)中引入雙通道注意力機制[11](Convolutional Block Attention Mod?ule,CBAM)模塊。

1 檢測模型

1.1 YOLOv5算法結構

YOLOv5檢測模型基本框架主要包括Input、Backbone、Neck、Prediction等四部分。輸入部分:主要將圖像調整為640×640的比例,并進行縮放、增強等處理;Backbone模塊主要進行切片處理操作:將輸入圖像進行切片處理,便于模型的訓練以及多種尺度的特征的提取;Neck模塊完成多個尺度特征信息融合的功能,在這個部分將不同深度的特征信息進行融合,可以減少因特征提取而丟失的語義信息,從而能夠使模型訓練獲得更多的訓練信息,有利于算法精度的提升;Prediction部分由3個檢測頭組成,Bounding Box損失函數(shù)使用GIOU函數(shù),如式(1)所示,類概率分類采用交叉熵損失函數(shù)。

1.2 雙通道注意力機制模塊

為了解決被檢測目標與背景分離性較差、目標顯著度低的問題,本文在YOLOv5網(wǎng)絡模型中的殘差塊與卷積塊中引入通道注意力和空間卷積塊注意力模型[12-13]。

圖1 雙通道注意力機制模塊

在CBAM模塊中的通道注意力機制,采用Maxpool和Avgpool對特征信息進行增強,計算公式如下:

Mc表示CBAM模塊中的通道注意力模塊,MS表示空間注意力模塊;H×W表示為特征圖大小;特征圖表示為F∈RC×H×W,σ為Sigmoid非線性激活函數(shù);MLP(Multilayer Perceptron)為共享感知器;W0和W1

分別表示MLP中多層感知器中的隱藏層權重和輸出層權重;Fcavg和Fcmax分別表示通道注意力機制的全局平均池化操作和最大池化操作。

因為添加通道注意力機制后的網(wǎng)絡會使圖像位置信息產(chǎn)生損失值,因此在此基礎上再添加空間注意力模塊。將特征圖F∈RC×H×W輸入空間注意力模塊后,在通道維度對特征圖進行平均池化和最大池化操作。進行信息增強,得到兩個H×W× 1通道,并將這兩個通道拼接在一起,然后完成卷積操作和Sigmoid激活函數(shù)操作,得到權重系數(shù)MS;最后,將權重系數(shù)與前一步的縮放特征進行特征相乘,就可以得到空間注意力特征。相關的計算公式如下:

2 算法改進

2.1 基于YOLOv5的改進模型

將樣本數(shù)據(jù)集進行數(shù)據(jù)增強后,輸入到網(wǎng)絡中進行訓練;在網(wǎng)絡中增加雙通道注意力機制部分,能夠有效提取深層次語義信息,形成模型偏好特征,找到興趣點。本文所提出檢測算法如圖2所示。

圖2 改進檢測算法框架

2.2 數(shù)據(jù)增強策略

在執(zhí)行偵察巡邏任務時,由于環(huán)境多樣常會出現(xiàn)自然因素導致的采集數(shù)據(jù)質量低的情況,這就要求檢測模型具備較高的魯棒性和泛化性。為解決這一問題,對檢測數(shù)據(jù)集進行數(shù)據(jù)增強,采用Mixup方法模擬檢測目標被遮擋的場景,即從訓練集中隨機抽取兩張圖像,對像素和標簽進行加權;此外結合任務場景采用隨機縮放、旋轉、裁剪、高斯噪聲、平移等方式進行樣本擴充,改善了過擬合和樣本數(shù)據(jù)量少的問題,如圖3所示。

圖3 對樣本數(shù)據(jù)集進行擴充

3 模型訓練及結果分析

本文實驗所使用的軟硬件環(huán)境如表1所示。

翻轉課堂的教學效率提高,課堂富余時間較多,使我們可以根據(jù)教學內容多設計一些練習放到課內.作業(yè)設計一般要求在25分鐘左右,以近年來的高考真題與模擬試題為主,有一定的坡度.

表1 實驗算法訓練環(huán)境配置

本文共整理了1800張典型偵察巡邏目標數(shù)據(jù)集,包含不同場景的行人和車輛。對原有樣本進行增強后,將數(shù)據(jù)集擴充至6500張;使用la?bellmg工具對數(shù)據(jù)集進行標注,并按照8:1:1的比例區(qū)分訓練集、驗證集、測試集進行模型訓練。

3.1 模型訓練

模型訓練過程:為防止過擬合和跳過最優(yōu)解,將動量因子設置為0.937,并采用隨機梯度下降法進行參數(shù)調整。Batchsize設置為32,Epoch訓練500輪次,初始學習率為0.01,權重衰減0.0005,Mixup的重疊系數(shù)設置為0.7。待損失函數(shù)和精度都逐漸穩(wěn)定時,得到算法最優(yōu)權重。在圖像預處理過程中,將圖像大小調整為640×640后再輸入網(wǎng)絡中進行訓練。

3.2 模型評價指標

為了驗證本文所提算法改進的有效性,使用平均精度均值mAP(mean AP)和平均精度AP(Average Precision)作為衡量指標。相關表達式如下:

上式中:TP、FP和FN分別表示不同的意思。其中TP表示本身屬于該類目標,并且能夠被模型準確檢測的實例數(shù)量;FP則表示本身不屬于該類目標,但由于模型性能不足而被誤判為該類目標的實例數(shù)量;FN表示負樣本被錯誤檢測為正樣本的數(shù)量。AP為PR曲線積分,N為檢測種類數(shù)量,mAP表示為多類別平均精度。IOU取0.5時mAP為mAP@0.5,IOU取不同取值的mAP為mAP@0.5:0.95。

3.3 實驗分析

為了驗證本文所提模型的有效性,在數(shù)據(jù)集上進行了訓練和測試,訓練結果如圖4所示。

圖4 改進mAP@0.5比較曲線

從實驗結果可以看出,本文改進算法和原始標準算法在此數(shù)據(jù)集上都有較好的檢測性能。相較而言,本文算法在Epoch至150輪次左右時,準確率上升至0.579,并最終在350輪左右時穩(wěn)定在0.675;標準YOLOv5算法訓練迭代Epoch至180輪次左右時,準確率上升到0.585,最終穩(wěn)定0.643。為了檢驗本文算法的檢測效果,將改進算法和原始標準算法進行了檢測對比實驗,相關檢測結果如圖5所示。

圖5 各算法檢測對比結果

第一組圖像為原始標準YOLOv5網(wǎng)絡模型的檢測結果,由實驗數(shù)據(jù)可知涉及行人、車輛,背景環(huán)境有叢林、荒漠,被檢測物體尺度大小不一,且存在部分目標被遮擋或與背景高度相似的情況。但從結果可得,YOLOv5檢測算法用于不同場景下的典型巡邏目標具有良好的檢測效果。

第二組數(shù)據(jù)為本文改進算法檢測結果。由結果可知被檢測行人目標在復雜環(huán)境下特征表達能力得到提高,相較于原始檢測算法,模型檢測精度提高了3.25%。雖然被檢測目標存在遮擋模糊且目標較小的情況,但本文算法仍能以較高準確率、較少的損失值,更接近于真實框。

4 結語

為解決在不同場景下典型偵察巡邏目標檢測效果差,檢測效率低的問題,本文引入了基于卷積神經(jīng)網(wǎng)絡的一階段目標檢測算法YO?LOv5。通過實驗證明了:相較于其他檢測算法,YOLOv5能夠有較高的準確性和較低的漏檢率,更適用于巡邏偵察任務。此外,本文以YOLOv5為基準模型,分析應用場景及目標會使檢測算法存在因目標尺度不一、背景復雜、自然天氣影響導致的較多漏檢誤檢問題。針對這些問題,我們融合雙通道注意力機制模塊,使檢測模型更專注有效特征;對數(shù)據(jù)樣本進行了增強,增強了算法的魯棒性。實驗結果表明,本文算法在多種復雜環(huán)境下的測試,具有更好的檢測以及實時性,較好降低了因目標多樣、遮擋等情況造成的漏檢和誤檢情況。但本文算法在檢測車輛目標時檢測精度較低,且因數(shù)據(jù)集限制,檢測精度及召回率還需提升。隨著后期研究增加和檢測樣本不斷擴充,模型精度和泛化能力將進一步提升。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 狠狠色香婷婷久久亚洲精品| 欲色天天综合网| 香蕉精品在线| 欧美a在线| 91av成人日本不卡三区| 亚洲国产亚洲综合在线尤物| 久久一日本道色综合久久| 五月激情婷婷综合| 精品国产欧美精品v| 99热免费在线| 亚洲视屏在线观看| 男女男免费视频网站国产| 一本久道热中字伊人| 视频二区国产精品职场同事| 无码有码中文字幕| 91视频区| 国产精品亚洲一区二区三区在线观看| 亚洲人成色在线观看| 曰韩人妻一区二区三区| 日韩小视频在线播放| 啦啦啦网站在线观看a毛片| 99精品福利视频| 18禁影院亚洲专区| 中文字幕免费视频| 成人无码一区二区三区视频在线观看 | 欧美色99| 成人综合网址| 色综合热无码热国产| 免费精品一区二区h| 伊人色天堂| 国产呦精品一区二区三区下载| 91精品专区国产盗摄| 欧美亚洲综合免费精品高清在线观看| 中文字幕伦视频| 日韩成人午夜| 亚洲一级毛片在线观| 亚洲欧洲免费视频| 99热这里都是国产精品| 成人一区在线| 中文字幕第4页| 国产成人精品在线| 91九色最新地址| 毛片在线看网站| 久久精品日日躁夜夜躁欧美| 免费激情网址| www.日韩三级| 国产日韩欧美成人| 91精品国产自产在线观看| 国产精品视频久| 日韩欧美综合在线制服| 激情无码字幕综合| 国产特级毛片| 毛片在线播放a| 欧美在线免费| 国产成人精品第一区二区| 宅男噜噜噜66国产在线观看| 亚洲一区第一页| 韩日无码在线不卡| 国产啪在线91| 成人精品免费视频| 久久国产成人精品国产成人亚洲| 国产av无码日韩av无码网站| 久久亚洲欧美综合| 亚洲精品在线影院| 久爱午夜精品免费视频| 亚洲伊人久久精品影院| 成人精品区| 国产乱码精品一区二区三区中文 | 亚洲成人在线免费观看| 亚洲男人天堂2020| 国产后式a一视频| www亚洲天堂| 欧美成人午夜在线全部免费| 成人在线欧美| 欧美国产在线一区| 日韩毛片视频| 欧美在线伊人| 无码人妻热线精品视频| 91在线高清视频| 怡红院美国分院一区二区| 亚洲男人在线| 欧美一道本|