999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的機場鳥類目標檢測算法

2024-09-15 00:00:00劉鵬翔王一凡李東嶼朱建澎張新宇王傳云
物聯網技術 2024年6期
關鍵詞:深度學習

摘 要:針對近年來鳥撞事件對航空安全造成的影響,為驅鳥系統提供了可實時檢測鳥類并準確分辨品種的算法—一種基于YOLOv5的鳥類目標檢測算法YOLO-birds。該方法將Neck層中的PANet融合網絡替換為BiFPN,實現更簡單、快速的多尺度特征融合。引入了EIoU邊界框回歸損失函數,在CIoU的基礎上分別計算寬高的差值替代縱橫比,并引入Focal Loss解決難易樣本不平衡問題,提高了收斂速度和回歸精度。實驗結果表明:在修改后的CUB_200數據集中,該算法的精確率達85.12%,比原模型提高了7.30個百分點,mAP_0.5達87.97%,比原算法提高了7.02個百分點。該改進方法在檢測速度變化不大的同時可以達到更佳的檢測精度,對鳥類檢測的整體識別率大幅提高。

關鍵詞:目標檢測;深度學習;YOLOv5;BiFPN;EIoU;鳥類檢測

中圖分類號:TP391.41 文獻標識碼:A 文章編號:2095-1302(2024)06-00-05

0 引 言

在全球范圍內,民用航空業的蓬勃發展為人類帶來了空前的便利。然而,隨著航空交通的增加,機場與鳥類之間的沖突問題也日益突出。數據顯示,自航空業誕生以來,已經有數千起鳥類撞擊飛機的事件發生。根據國際航空運輸協會(IATA)的統計,每年全球范圍內發生的鳥類撞擊事件約有10,000起,其中超過90%發生在機場附近。這些事件造成的經濟損失不容忽視。從1990年到2009年,美國聯邦航空管理局(FAA)共接到89 727起動物撞擊事件報告,其中97.4%為航空器鳥撞事故。鳥撞事故共造成超3億美元的經濟損失和巨大的人員傷亡[1]。除了經濟方面的影響,鳥類撞擊飛機還帶來了嚴重的安全隱患。鳥類進入飛機的發動機或碰撞飛機機身,可能導致發動機故障、燃油泄漏或其他關鍵系統損壞,從而威脅乘客和機組人員的生命安全。此外,機場防鳥撞措施也對環境保護和可持續發展具有重要意義。鳥類是生態系統中重要的一環,它們在維持生態平衡、傳播種子、控制害蟲方面發揮著不可或缺的作用。因此,對于防范鳥撞事故災害的研究具有極其重要的現實意義。

針對鳥類目標檢測,國內外研究人員提出過多種解決方法。其中,Girshick等[2]提出的R-CNN通過滑動窗口策略對圖像進行遍歷,使用聚類方法將候選框分組。但該方法訓練階段較多、步驟繁瑣,因此效率不高。翁雨辰等[3]提出了一種基于深度區域網絡的卷積神經網絡架構用于解決細粒度鳥類檢測問題,該方法顯示出非常高的檢測精度。但該架構采用標準卷積的主干網絡結構,導致較大的計算量和參數量,對鳥類實時性檢測的效果并不理想。在另一種方法中,Shakeri等[4]使用高斯混合模型去除背景,這種方法能實現較高的實時性,但也可能移除許多不易檢測的鳥類目標。李新葉等[5]利用Faster R-CNN結合語義提取和檢測的分類方法,在卷積層引入自上而下的候選區域建議方法,極大提升了鳥類檢測效果。然而該方法采用了候選區域建議,因此計算量很大且檢測速度達不到實時性檢測的要求。

為了實現在機場場景下的鳥類檢測,文中提出了一種基于YOLOv5的鳥類目標檢測算法YOLO-birds。對特征融合網絡模型進行修改,將PANet融合網絡更換優化為BiFPN。BiFPN采用可學習的權重來捕捉不同輸入特征的重要性,并多次執行自頂向下和自底向上的多尺度特征融合,從而實現更高效的多尺度特征融合。修改回歸損失函數,將目標框大小與位置損失函數由CIoU修改為EIoU,將縱橫比拆開,并且加入Focal專注于高質量錨框,該方法可以同時加速收斂、提高回歸精度,并優化邊界框回歸任務中可能存在的樣本不平衡問題。

1 算法改進

1.1 YOLO-birds

文中針對機場場景下存在的問題,基于YOLOv5s進行優化提出了YOLO-birds算法。YOLO系列算法是一種典型的one-stage目標檢測算法,基于回歸思想,采用端到端檢測方法,直接產生目標物的位置坐標和類別概率。Ultralytics LLC在2020年5月份提出了YOLOv5(You Only Look Once),其結構更為緊湊,YOLOv5s版本的權重數據文件僅為YOLOv4的1/9[6-7],大小僅為27 MB,其網絡結構如圖1所示,主要由輸入端、主干網絡(Backbone)、Neck網絡和輸出端(Prediction)組成。

輸入端由Mosaic數據增強、自適應錨框計算和自適應圖片縮放三部分組成。自適應圖片縮放部分可以自適應最小化添加黑邊,提高網絡的目標檢測速度。主干網絡包括Focus與交叉階段部分連接(Cross State Partial, CSP)[8],Focus結構用于將特征圖分塊處理以減少層數和計算量,提高檢測速度。Neck部分主要由空間金字塔池化模塊(Spatial Pyramid Pooling, SPP)[9]、CSP與BiFPN構成。輸出端包含Classification Loss(分類損失函數)和 Bounding Box Regression Loss(回歸損失函數)。YOLO-birds采用EIoU Loss作為bounding box回歸的損失,減少了使用IoU Loss時的不足[10]。

1.2 特征融合網絡優化

針對在機場場景中需要進行快速、準確的鳥類識別應用,在YOLO-birds中將特征融合網絡優化為BiFPN更適用于該場景,不僅能夠提高目標檢測的準確度,還可以在不增加過多計算成本的情況下提高檢測速度。BiFPN全稱為Bidirectional Feature Pyramid Network加權雙向(自頂向下+自底向上)特征金字塔網絡[11],結構如圖2所示。原特征融合網絡使用的為路徑聚合網絡(Path Aggregation Network, PANet)[12],該網絡具有良好的精度,但存在以下缺點:

(1)當模型訓練數據不足或訓練數據中存在噪聲時容易產生過擬合,從而導致檢測結果不準確;

(2)PANet對輸入分辨率和目標大小較敏感,輸入分辨率和目標大小發生變化時需要重新訓練,降低了模型的適用性。

BiFPN相較于PANet實現了更加復雜的雙向融合,對PANet進行了如下優化:

(1)移除只有一個輸入邊的節點,最大限度提高了特征網絡的融合效果;

(2)在同一級別添加額外的輸入到輸出節點的邊,以更低的成本實現更多特征的融合;

(3)通過在不同層級的特征圖中多次融合信息,增強了模型的特征細節感知能力,以提高檢測算法的準確性;

(4)采用自適應權重機制,能夠有效學習不同特征圖對最終檢測結果的貢獻,從而實現更精準的特征融合。

圖3為改進后的網絡結構。

由于輸入特征的分辨率不同,它們在對輸出特征的貢獻方面通常存在著不平衡性。為解決這一問題,采用了快速歸一化融合方法,在每個輸入特征上添加額外的權重,并讓網絡自動學習每個特征對輸出結果的重要性,以實現更加均衡的特征融合(Fast Normalized Fusion),表達式如下:

(1)

式中:O表示輸出的融合特征;Ii表i示輸入的特征;wi≥0是來自不同層次特征的權重;η=0.000 1是保證數值穩定的小數。對每個wi進行了ReLU操作以保證其非負,每個歸一化權重的值最終落在0和1之間。該快速融合方法具有與基于softmax融合非常相似的學習行為和準確性,在GPU上運行速率提高約30%。

1.3 損失函數優化

為了提高訓練時的收斂速度與回歸精度,同時解決邊界框回歸任務中的樣本不平衡問題,在YOLO-birds中將回歸損失函數優化為EIoU。原損失函數為CIoU[13],全稱Complete IoU,是一種目標檢測任務中常用的評價指標。它是IoU(Intersection over Union)的改進方法,可以更準確地衡量兩個邊界框之間的相似性。但CIoU中使用的系數v僅考慮了寬和高的比例,沒有考慮寬高與目標寬高之間的差異,而縱橫比的相對差異不明顯,導致模型在處理尺寸變化較大的目標時表現不佳。為解決CIoU存在的不足,一些研究者提出了EIoU (Efficient Intersection over Union)方法,它在CIoU的基礎上進一步優化,使得EIoU具有更好的穩定性、高效性和魯棒性,損失函數如下:

(2)

(3)

式中:Ldis為距離損失;Lasp為邊長損失;IoU為交并比;LIoU為預測框和真實框之間重疊部分面積與并集的面積之差;ρ表示兩個矩形間的歐幾里得距離;b和bgt表示預測框和真實框;c表示預測框和真實框的最小閉包矩形區域對角線長度;cw和ch分別是兩個矩形的閉包的寬和高;w和h表示預測框的寬和高;wgt和hgt表示真實框的寬和高。

CIoU存在寬高不可同時增減的局限性,與之相比,EIoU收斂速度雖快,但在回歸時容易受到訓練樣本質量不平衡的影響,導致梯度過大,從而影響模型的訓練效果。因此,在EIOU的基礎上結合Focal Loss[14]解決正負樣本不平衡和難易樣本不平衡的問題,損失函數如下:

(4)

式中:γ用于調整正負樣本權重的超參數,平衡損失函數兩部分的影響。訓練過程中,高低質量樣本是影響模型收斂的重要因素。在低質量樣本上的訓練容易造成損失值的劇烈波動,而Focal的引入可抑制低質量樣本對損失值的影響,解決高低質量樣本類別不平衡的問題。

2 數據處理與結果分析

2.1 數據集介紹和處理

文中采用的數據集為CUB_200[15],如圖4所示。CUB-200數據集全稱為Caltech-UCSD Birds-200-2011數據集,是由加利福尼亞理工學院提供的鳥類數據庫,該數據集共收錄了11 788張鳥類圖片,劃分為200類子集,其中訓練集有5 994張,測試集有5 794張,每張均附帶了圖像類標記信息、bounding box、關鍵part部位以及鳥的屬性信息。

在訓練前,將原數據集bounding_boxes.txt中的標簽通過程序轉換成可供YOLO算法訓練的txt標簽形式,同時對數據集進行調整,將鳥的種類從200種降至37科以便于訓練,數據集中用于訓練和驗證的圖片未做改變。

2.2 網絡訓練

文中YOLO-birds的網絡結構基于YOLOv5s優化而來,YOLOv5s網絡是YOLOv5系列中深度最小,特征圖寬度最小的網絡,該網絡結構的訓練速度最快。實驗使用的操作系統為Windows10,開發語言選擇Python,選擇Pytorch框架。文中實驗所使用的具體配置情況見表1所列。

訓練參數及參數設置情況說明:網絡模型訓練階段,輸入圖片尺寸為640×640,batch-size為16,dataloader-workers為6,采用GPU加速。使用Python調用train. py文件,通過bird_model_bifpn.yaml和bird_parameter.yaml對訓練模型的檢測種類進行定義,對預訓練權重文件的路徑進行設置,通過訓練獲得該模型的權重數據。

為驗證文中所進行的改進實驗對檢測效果有一定的提升作用,使用相同的數據集訓練YOLOv5s、YOLOv5s+EIoU、YOLOv5s+BIFPN與YOLO-birds,獲得模型的各項參數進行消融實驗,對比結果見表2所列,精度與召回率曲線如圖5所示。由表2可看出,僅更換損失函數為EIoU時,平均精度僅提高了0.27%,召回率提高了1.57%,mAP_0.5提升了2.0%,mAP_0.5:0.95提升了2.76%;僅更換特征融合網絡為BiFPN時,平均精度提高了6.36%,召回率提高了8.02%,mAP_0.5提升了7.11%,mAP_0.5:0.95提升了10.66%;而文中改進模型YOLOv5s-ours平均精度提高了7.30%,召回率提高了8.22%,mAP_0.5提升了7.02%,mAP_0.5:0.95提升了10.78%。結果表明,分別對各模塊進行改進均可提高模型性能,且這些改進是互補的,將其結合能進一步增強網絡性能,對鳥類的檢測定位更加準確,效果更好。

2.3 測試結果與分析

使用detect.py對測試圖片進行檢測,選擇訓練出的權重文件best.pt,設置置信度為0.25,非極大抑制值為0.45,采用GPU加速,測試圖片來源于西沙群島三沙永興機場周圍鳥類真實攝影圖片,檢測結果如圖4所示。

通過圖4可以發現,YOLOv5s在部分場景下表現不夠優秀,該模型將圖6(a1)左側的鳥以相近的置信度識別為兩種鳥類,同時未識別出右側的鳥類。而YOLO-birds可以準確檢測出測試圖片中的所有鳥類并使用方框標注。對于處于不同姿態的鳥,如圖6(b1)中兩只鳥分別處于站立與飛行狀態,YOLO-birds均能以較高的置信度檢測出來并標注。結果表明,文中改進后的算法在鳥類識別場景中的目標檢測有明顯提升。

3 結 語

文中基于YOLOv5s提出了一種改進后的算法YOLO-birds,該模型在綜合考慮檢測精度和速度的情況下,可用于實現驅鳥系統中的實時檢測。盡管文中提出的改進方法具有良好的性能表現,但仍存在一些不足,例如對較小目標的檢測效果不夠理想,后續研究工作可以通過在模型中添加小目標檢測層,并更換目標更小的鳥類數據集以達到可檢測到更小鳥類目標的效果。

注:本文通訊作者為王傳云。

參考文獻

[1]張志林,姚衛星.飛機風擋鳥撞動響應分析方法研究[J].航空學報,2004,25(6):577-580.

[2] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation [J]. IEEE computer society,2014.

[3]翁雨辰,田野,路敦民,等. 深度區域網絡方法的細粒度圖像分類[J]. 中國圖象圖形學報,2017,22(11):11.

[4] SHAKERI M,HONG Z. Real-time bird detection based on background subtraction [C]// Intelligent Control and Automation (WCICA),2012 10th World Congress on. IEEE,2012.

[5]李新葉,王光陛.基于卷積神經網絡語義檢測的細粒度鳥類識別[J].科學技術與工程,2018,18(10):240-244.

[6] BOCHKOVSKIY A,WANG C Y,LIAO H. YOLOv4:Optimal speed and accuracy of object detection [J]. Artificial intelligence,2020(4).

[7] WU M. Using channel pruning-based YOLO v4 deep learning algorithm for the real-time and accurate detection of apple flowers in natural environments [J]. Computers and electronics in agriculture,2020,178(1).

[8] WANG C Y,LIAO H Y M,WU Y H,et al. CSPNet:A new backbone that can enhance learning capability of CNN [C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops(CVPRW). IEEE,2020.

[9] HE K,ZHANG X,REN S,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. Pattern analysis amp; machine intelligence IEEE transactions on,2015,37(9):1904-1916.

[10] REZATOFIGHI H,TSOI N,GWAK J Y,et al. Generalized intersection over union:A metric and a loss for bounding box regression [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,2019.

[11] TAN M,PANG R,LE Q V. EfficientDet:Scalable and efficient object detection [C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,2020.

[12] LIU S,QI L,QIN H,et al. Path aggregation network for instance segmentation [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition,2018.

[13] ZHENG Z H,WANG P,REN D,et al. Enhancing geometric factors in model learning and inference for object detection and instance segmentation [J]. IEEE transactions on cybernetics,2021,52(8):8574-8586.

[14] ZHANG Y F,REN W,ZHANG Z,et al. Focal and efficient IOU loss for accurate bounding box regression [Z]. arXiv:2101.08158.

[15] WAH C,BRANSON S,WELINDER P,et al. The Caltech-UCSD Birds-200-2011 dataset [Z]. California institute of technology,2011.

基金項目:國家自然科學基金(61703287);遼寧省教育廳科學研究項目(LJKZ0218);沈陽市中青年科技創新人才項目(RC210401);沈陽航空航天大學2022年大學生創新創業訓練計劃項目—創新訓練項目(X202210143051)

作者簡介:劉鵬翔(2002—),男,河北滄州人,本科在讀,研究方向為人工智能。

王一凡(2002—),男,河北承德人,本科在讀,研究方向為人工智能。

李東嶼(2001—),男,河北保定人,本科在讀,研究方向為人工智能。

朱建澎(2001—),男,遼寧鞍山人,本科在讀,研究方向為人工智能。

張新宇(2001—),男,山東淄博人,本科在讀,研究方向為人工智能。

王傳云(1984—),男,山東臨朐人,副教授,研究方向為模式識別、機器視覺、物聯網。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产精品美女免费视频大全 | 99成人在线观看| 日韩a级毛片| 免费国产高清视频| 国产成人盗摄精品| 国产在线高清一级毛片| 日韩中文精品亚洲第三区| 一级高清毛片免费a级高清毛片| 亚洲丝袜第一页| 亚洲欧美成人综合| 99视频国产精品| 国产精品福利在线观看无码卡| 无码精品国产VA在线观看DVD | 99在线视频免费| 欧美一区精品| 亚洲最猛黑人xxxx黑人猛交| 日韩毛片在线播放| 97国产在线观看| 亚洲国产天堂久久综合226114 | 99视频在线看| a亚洲视频| 毛片大全免费观看| 亚洲视频免费在线看| 国产精品短篇二区| 亚洲第一视频区| 欧洲熟妇精品视频| 久久福利片| av午夜福利一片免费看| 亚洲欧美国产视频| a级毛片在线免费| 国产精品极品美女自在线看免费一区二区| 最新无码专区超级碰碰碰| 亚洲人人视频| 五月六月伊人狠狠丁香网| 欧美亚洲国产精品久久蜜芽| 国产h视频免费观看| 91精品啪在线观看国产| 欧美va亚洲va香蕉在线| 国产一级一级毛片永久| 亚洲一区二区黄色| 亚洲精品视频免费| 久久精品无码专区免费| 久久人搡人人玩人妻精品| 伊人精品成人久久综合| 99国产精品免费观看视频| 亚洲国产日韩在线观看| 国产成人综合亚洲欧美在| 国产91九色在线播放| 国产高潮视频在线观看| 亚洲嫩模喷白浆| 欧美区一区| 国产麻豆精品在线观看| 伊人成人在线视频| 美女无遮挡拍拍拍免费视频| 免费人成网站在线观看欧美| 亚洲色图欧美在线| 狼友av永久网站免费观看| 激情亚洲天堂| 国产综合精品一区二区| 91精品国产一区| 91免费观看视频| 她的性爱视频| 亚洲婷婷六月| 茄子视频毛片免费观看| 欧美成人a∨视频免费观看| 国产成人高清精品免费软件| 国产一区三区二区中文在线| www.99精品视频在线播放| 免费国产不卡午夜福在线观看| 99热这里只有精品5| 久久中文字幕不卡一二区| 91精品久久久无码中文字幕vr| 在线观看国产网址你懂的| 综1合AV在线播放| 毛片基地视频| 999国产精品永久免费视频精品久久 | 亚洲成在人线av品善网好看| 亚洲无码日韩一区| 国产女人综合久久精品视| 国产精品亚欧美一区二区| 亚洲妓女综合网995久久 | 中文国产成人久久精品小说|