999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于超分辨率重建的反無人機檢測方法研究

2024-06-03 01:35:06王露曼邱博之
無線互聯科技 2024年8期
關鍵詞:檢測模型

田 帥,李 盛,王露曼,邱博之

(西京學院,陜西 西安 710123)

0 引言

近年來,無人機技術的廣泛應用和推廣為人們的生活帶來了諸多便利和變革。然而,其帶來的“黑飛”現象也越來越嚴重,給公共安全造成了巨大隱患。在舉辦大型活動期間,無人機的“濫飛”問題可能會干擾比賽或者活動的進行,甚至造成人員傷亡和財產損失。在機場、軍事禁飛區以及政府重要設施周邊等重要場所,無人機的侵入可能會導致機密信息泄露,甚至危及國家安全。因此,無人機的規范與監管變得格外關鍵。但由于無人機體積小、速度快、背景復雜等因素,傳統圖像處理技術在實際無人機技術應用中面臨著巨大的挑戰。

1 基于超分辨率重建的反無人機檢測方法研究

現如今,反無人機檢測中存在一個問題:由于無人機拍攝的圖像分辨率較低,目標檢測算法難以準確識別目標。為了解決這個問題,本文使用超分辨率重建技術提高圖像分辨率,從而增強目標檢測算法的準確性。

為了實現反無人機檢測的實時性要求,本文選擇了速度快、準確度高的YOLOv5s算法作為基礎。它采用先進的特征提取網絡、精細的錨框策略和數據增強技術,能夠有效檢測小目標和復雜環境下的目標。將超分辨率重建技術與YOLOv5s算法相結合,可以進一步提高反無人機檢測的性能。這種結合方法可以充分發揮超分辨率重建和YOLOv5s算法的優點,從而提高反無人機檢測的準確性和魯棒性。

1.1 基于Real-ESRGAN的無人機圖像超分辨率處理

Real-ESRGAN采用高階退化模型和Sinc濾波器創建了更出色的數據集來進行訓練[1]。訓練生成器用于不斷提高其對低分辨率圖像進行超分辨率重建的能力,而訓練判別器可用來鑒別輸入圖像的真實性。隨著訓練的不斷迭代,生成器的重建能力會逐漸增強[2],從而生成更加真實、高清的圖像。

Real-ESRGAN生成器結構如圖1所示。采用改進的超分辨率殘差網絡(Super Resolution Residual Network,SRRes Net)作為骨干網絡[3]。該方法對無人機圖像進行下采樣,以壓縮圖像尺寸并擴充通道數;將處理后的圖像輸入改進的SRResNet模型中,并去除所有的批量歸一化(Batch Normalization,BN)層,以提升網絡性能[4]。在改進的SRRes Net中,原有的殘差模塊被替換為RRDB模塊,融合了多級殘差網絡和密集連接的思想,進一步增強網絡的穩定性。相比原有的殘差模塊,RRDB模塊具有更強的非線性擬合能力和更好的特征提取能力,從而可以更好地實現圖像超分辨率重建任務。

圖1 Real-ESRGAN生成器結構

經過ReaI-ESRGAN超分辨率重建優化后的圖像如圖2所示。

圖2 Real-ESRGAN重建

1.2 基于YOLOv5s的無人機目標檢測算法

YOLOv5s是一種高性能的目標檢測算法,其在YOLO系列中因具有快速、輕量、高效的特點,成為了實際應用時的優選模型。YOLOv5s算法主要由輸入端(Input)、主干網絡(Backbone)、頸部網絡(Neck)和預測端(Detect)4個模塊組成[5]。

輸入端分為自適應圖像填充、Mosaic數據增強和數據預處理。主要完成對輸入圖像的調整尺寸、圖像增強以及自適應錨框大小。

主干網絡(Backbone)是YOLOv5的特征提取部分,主要由Focus、Conv、C3以及SPP模塊組成。

頸部網絡(Neck)主要用于特征融合,采用特征金字塔網絡(Feature Pyramid Network,FPN)和路徑聚合網絡(Path Aggregation Network,PAN)進行下采樣和上采樣[6]。這樣設計的目的是使網絡能夠對同一物體的不同尺度和尺寸進行識別,從而提升檢測的準確性。通過使用3個不同尺寸的feature map,頸部網絡既包含細節信息,又包含語義信息。

預測端(Detect)由3個不同大小的檢測層組成,用于檢測不同大小的目標。最后,預測端將預測的邊界框和目標類別標注在圖像中,實現目標檢測的功能。

2 改進算法

本文針對無人機尺度變化大造成的無人機小、目標檢測困難的問題,選擇目標檢測算法YOLOv5s作為基礎算法,并進行以下3點改進。

(1)更換SPP模塊為SPPF模塊可以幫助網絡更好地理解小目標所在的上下文信息和空間分布,從而提高對小目標的定位和分類準確性。

(2)引入SPD-Conv模塊,增強模型在低分辨率圖像中小物體的檢測性能。

(3)對損失函數進行優化,使用Alpha-CIoULoss替換CIoU Loss,提升模型在小目標數據集上的泛用性,從而更好地適應小目標的檢測任務。

最終優化后的YOLOv5s算法網絡結構如圖3所示。

圖3 優化后的YOLOv5s算法網絡結構

3 實驗結果及分析

3.1 數據集的建立

本文的實驗數據集由DUT-Anti-UAV數據集、visDrone2019數據集和自建數據集組成。由此數據集訓練Real-ESRgan的生成器和YOLOv5s目標檢測模型。

3.2 評價指標

目標檢測評價指標主要采用平均精度mAP、檢測速度FPS和召回率R,計算公式如下:

(1)

(2)

(3)

(4)

其中,P為在所有識別結果中模型正確識別無人機的概率,R為模型在所有真實無人機中正確識別無人機的概率,AP表示準確率與召回率的積分,mAP表示對所有類別的AP取平均值,TP為模型正確識別無人機的個數,FP為模型將其他目標錯誤地識別為無人機的個數,FN為模型將無人機錯誤識別為其他物體的個數,pi為成功識別無人機的概率[7]。

3.3 與經典算法進行對比

為了驗證本文提出的算法相比于部分經典目標檢測算法有一定的先進性,本文進行算法對比試驗,將參數量、檢測速度和map@0.5作為性能的評價指標,對比結果如表1所示。綜合對比結果可知,本文提出的改進算法相較于經典算法具有較好的表現。

表1 對比實驗結果

4 結語

通過分析傳統的反無人機檢測方法的特點,針對其對侵入無人機小目標錯檢、漏檢的情況,本文提出了一種結合超分辨率重建和YOLOv5s的無人機檢測辦法。該方法首先通過Real-ESRGAN超分辨率網絡將低分辨率圖像轉化為高分辨率圖像,再用改進后的YOLOv5s模型對無人機檢測。最后,經實驗對比結果可知,相較于傳統的檢測算法,本算法對無人機檢測的精度最高,mAP@0.5達到了90.3%,且檢測速度滿足實時檢測的要求,檢測效果優勢明顯。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 国产无吗一区二区三区在线欢| 女高中生自慰污污网站| 少妇极品熟妇人妻专区视频| 在线国产毛片| 国产一级二级三级毛片| 国产XXXX做受性欧美88| a毛片在线| 精品国产美女福到在线不卡f| 欧美区一区| 性网站在线观看| 免费国产黄线在线观看| 亚洲男人天堂2020| 成人免费午夜视频| 国产丰满成熟女性性满足视频| 久久综合亚洲色一区二区三区| 免费人成黄页在线观看国产| …亚洲 欧洲 另类 春色| 3344在线观看无码| 日韩无码视频专区| 国产高颜值露脸在线观看| 婷婷综合缴情亚洲五月伊| 91成人免费观看在线观看| 欧美一区二区三区不卡免费| 国产欧美中文字幕| 国产成人精品男人的天堂下载| 成人一区专区在线观看| 日韩av无码DVD| 久久semm亚洲国产| 国产成人免费| 在线国产毛片手机小视频| 日韩123欧美字幕| 午夜免费小视频| 久久成人免费| 久久亚洲国产最新网站| 全免费a级毛片免费看不卡| 亚洲成aⅴ人在线观看| 91丝袜美腿高跟国产极品老师| 精品亚洲欧美中文字幕在线看 | 精品国产网| 四虎成人精品在永久免费| 一级毛片在线播放免费观看| 一级毛片免费观看久| 亚洲娇小与黑人巨大交| 亚洲精品久综合蜜| 综合久久久久久久综合网| 老司机精品99在线播放| 日韩精品一区二区三区大桥未久| 国内精品视频| 国产午夜人做人免费视频中文| 97se综合| 国产成人a在线观看视频| 97青草最新免费精品视频| 久久婷婷六月| 亚洲最新地址| 国内精品手机在线观看视频| 色婷婷色丁香| 亚洲中文字幕av无码区| 网友自拍视频精品区| 日韩精品久久无码中文字幕色欲| 国产精品午夜电影| 综合色婷婷| 免费一看一级毛片| 精品久久久久久久久久久| 欧美一区精品| 中文字幕欧美日韩| 国产精品不卡永久免费| 全部免费毛片免费播放| 2021国产v亚洲v天堂无码| 日本国产一区在线观看| 国产交换配偶在线视频| 婷婷六月综合网| 97色伦色在线综合视频| 亚洲丝袜中文字幕| 久久a级片| 亚洲色婷婷一区二区| 韩国自拍偷自拍亚洲精品| 国产精品久久久久久久久| 污网站免费在线观看| 亚洲一区色| 久久黄色视频影| 2021国产乱人伦在线播放| 国产91在线|日本|