999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

景區行人檢測YOLOv5-GSPE算法模型研究與實現

2023-09-14 09:31:54陳宇拓
計算機技術與發展 2023年9期
關鍵詞:特征實驗檢測

何 薇,陳宇拓

(中南林業科技大學 計算機與信息工程學院,湖南 長沙 410004)

0 引 言

景區中的行人高密度、小目標、易遮擋的特點尤為顯著,行人檢測作為計算機視覺領域的一個重要分支,對景區的安全管理有著重要的現實意義。目前基于深度學習的行人檢測算法在準確度和檢測速度方面都有明顯提升,但很多算法只是在單維度方面不斷深究,引入多種復雜模塊來提升檢測精度,很難兼顧算法模型復雜度以及檢測速度,同時在行人遮擋、行人小目標檢測等方面仍存在諸多挑戰。

針對行人檢測的現狀,目前主流的行人檢測算法主要分為兩類:單階段(One-stage)檢測算法[1]和兩階段(Two-stage)檢測算法[2]。One-stage檢測算法包括SSD[3]、YOLO[4]算法等。Huang等[5]提出一種基于改進的YOLOv5的微小物體檢測算法,將提取特征劃分為四種特征分類,以增強原始輸入圖像的特征。郭磊等[6]將通道注意力和空間注意力結合的CBAM[7]注意力模塊引入YOLOv5網絡中,并利用圖像增強算法對圖片進行預處理后進行迭代訓練,提高算法模型的魯棒性。此類算法主要通過回歸預測出目標邊界框,能夠以較高的速度和精度完成檢測。

Two-stage檢測算法包括Faster-RCNN[8]、Mask-RCNN[9]算法等。音松等[10]基于Mask R-CNN網絡的Mack分支中增加了CFPN模塊和CA[11]注意力模塊,降低了遮擋對于行人檢測精度的影響。此類算法發展較早,在檢測精度方面有一定優勢,但是整個過程計算量大、檢測速度慢,很難滿足實時性需求。由于景區行人檢測的應用需要兼顧檢測速度和精度,因此,基于One-stage檢測算法中最新的YOLOv5算法模型,該文提出了YOLOv5-GSPE(GhostConv &SPPF &PrFPN &EIoU)綜合改進算法模型,主要解決如下幾個方面問題:

(1)將GhostConv[12]和改進后的SPPF模塊集成到主干網絡中,降低模型復雜度,增強提取的目標特征信息,降低行人遮擋及小目標的漏檢率。

(2)針對YOLOv5模型特征金字塔網絡FPN[13]結構忽略原始輸入特征融合的缺點,提出一種增強的特征金字塔網絡PrFPN結構,提升模型的檢測精度。

(3)基于YOLOv5模型中GIoU損失函數在預測框位于真實框內部情況下不準確定位的問題,采用EIoU[14]損失函數代替GIoU,并引入正態分布對EIoU損失函數進行優化計算,提升邊界框的回歸精度,進而改善遮擋及小目標行人檢測效果。

1 算法模型網絡結構

Redmon J等[15]提出了One-stage檢測算法YOLO,目前YOLO系列算法已更新至YOLOv5,YOLOv5有多種版本:YOLOv5s、YOLOv5l、YOLOv5m、YOLOv5x等。其中YOLOv5s是最小的算法模型,考慮到檢測類別的單一性,該文基于YOLOv5s算法模型提出YOLOv5-GSPE算法模型,其網絡結構如圖1所示。

圖1 YOLOv5-GSPE網絡結構

在主干網絡中使用GhostConv取代Conv作為卷積層,降低算法模型的復雜度,提高模型檢測速度;將SPPF模塊(見圖1中標注為①的區域)中max pooling操作改為空洞卷積(Dilated Conv),減少行人特征信息的丟失。提出一種增強的特征金字塔網絡PrFPN結構(見圖1中標注為②的區域),豐富多尺度特征融合。

2 算法模型改進方法

YOLOv5-GSPE算法模型主要包括對主干網絡中的卷積層、SPPF模塊、特征金字塔網絡以及損失函數等。

2.1 主干網絡

2.1.1 卷積層優化

YOLOv5主干網絡卷積層為常規卷積Conv,使用各個通道中的特征圖與多個卷積核進行運算。假設Input端輸入尺寸為w*s的圖像,Output端輸出尺寸為w'*s'的圖像;c和n分別是Input端和Output端的通道數,則Conv的計算總量Q1如公式(1)所示。

Q1=w*h*c*n*w'*h'

(1)

GhostNet[12]提出的GhostConv將卷積流程主要分為常規卷積和Ghost卷積,如圖2所示。

圖2 GhostConv流程示意圖

常規卷積計算總量Q2見公式(2)。假設s(s>1)為Ym*w‘*h’通道產生的總映射數,其中包含1次恒等變換(Identity)將Ym*w‘*h’映射成本征特征圖,以及s-1次單位映射運算Φij操作生成Ghost特征圖。Ghost特征圖與本征特征圖連接成n個通道的輸出特征圖,其計算總量Q3見公式(2)。

(2)

d*d為單位映射運算Φij操作的平均卷積核大小,與w*h具有相似大小,c為Input端輸入特征圖通道數,遠大于s,即c>>s,因此,GhostConv的計算總量為Q2+Q3,通過公式(3)能近似計算出Conv的計算總量Q1是GhostConv計算總量的s倍,由s>1可知GhostConv具有更小的計算量。

(3)

綜上所述,GhostConv相比Conv減少了卷積過程的計算量,進而表明卷積過程中參數量的減少。因此,將GhostConv代替主干網絡中的Conv能夠有效降低算法模型復雜度。

2.1.2 SPPF模塊的改進

YOLOv5主干網絡中SPPF模塊如圖3(a),通過串行max pooling操作集合不同感受野的特征進行連接,雖然一定程度上增強了主干網絡的感受野,但max pooling操作不可避免地造成一定的特征信息丟失。因此,改進的SPPF模塊使用空洞卷積來代替max pooling操作,如圖3(b)。

(a)SPPF模塊 (b)改進的SPPF模塊

空洞卷積和池化操作都可以增強感受野,但池化操作增大感受野的同時不可避免地造成特征信息丟失。空洞卷積可以盡量保留內部數據結構和避免下采樣,增大感受野的同時不改變圖像輸出特征圖的分辨率,減少了特征信息丟失。通過控制不同的卷積核參數來設置空洞卷積速率,可以靈活地替換三個串行max pooling操作,豐富主干網絡提取的特征。改進的SPPF模塊降低行人特征信息丟失,進而增強主干網絡的特征提取,降低遮擋及小目標行人的漏檢率。

2.2 特征金字塔網絡

YOLOv5算法模型中特征金字塔網絡為PANet結構,PANet結構中同層相鄰連接方式導致輸出特征圖忽略了原始輸入特征的融合。如圖4所示,該文基于BiFPN[16]的啟發,提出了增強的特征金字塔網絡PrFPN結構,在輸出特征圖(上采樣特征圖,如N3、N4、N5)中分別利用了同層的原始輸入特征圖(如C3、C4、C5)的特征融合,如圖中虛線所示。

PrFPN結構基每層的輸出特征圖將上采樣特征圖、下采樣特征圖(如B3、B4、B5)和原始輸入特征圖進行特征融合,豐富了特征融合多樣性,更好地利用原始輸出特征信息,增強小目標特征敏感度,提升算法模型檢測精度。

2.3 損失函數

YOLOv5算法模型采用GIoU損失函數,主要通過預測框A與真實框B的最小閉包區來計算損失函數值,當預測框位于真實框內部時,即A∩B=B,就無法精確定位效果最佳的預測框。

針對以上問題,該文選擇了更為出色的EIoU損失函數(LEIoU),將預測框與真實框的重疊區、長寬比以及中心點距離三個參數都融合到計算中,如式(4)所示。

(4)

其中,r為A與B中心點之間的歐氏距離,A與B之間的長寬之差分別為h和w,A與B最小閉合區為C,其高度為Ch,寬度為Cw,對角線距離為c。LEIoU融合多參數能夠更加精確地計算損失函數值,但式(4)中的損失函數LEIoU是隨著定位損失(IoU)線性變化的,不利于模型訓練。因此,引入正太分布函數對LEIoU進行新的定義,用LEIoU-N表示,見公式(5)。

(5)

其中,μ=-0.6,σ2=0.2,C=0.03為調整常數。

如圖5所示,LEIoU都隨著IoU的不斷增大線性下降,但LEIoU-N隨著IoU的梯度增大加速減小。IoU在逐步增大的過程中波動對LEIoU-N影響是逐步減少的,表明LEIoU-N比LEIoU的穩定性更好,更具合理性。

圖5 LEIoU與LEIoU-N對比示意圖

3 實驗結果與分析

實驗環境如下:操作系統為Windows 11,CPU為AMD Ryzen 7 4800H 2.9 GHz,運行內存為16 GB。算法模型基于Pytorch深度學習框架,編程語言為Python。

3.1 實驗數據來源

該文使用了兩種公開的數據集進行訓練及測試,一種是數據建模和分析競賽平臺Kaggle(https://www.kaggle.com/)網站公開的行人檢測數據集Pedestrian,其中訓練集944張、驗證集160張和測試集235張。另一種是生物識別與安全技術研究中心(http://www.cbsr.ia.ac.cn/)公開的密集行人基準數據集WiderPerson,其中訓練集8 000張、驗證集1 000張和測試集4 382張。兩種實驗數據集包含了不同姿態、相互遮擋以及多種場景下的行人,有效提升了行人檢測的魯棒性。

3.2 檢測精度實驗結果分析

兩個算法模型對比300輪迭代訓練中的變化明顯的前50輪迭代的平均精度(mAP)及Loss值下降曲線,如圖6所示,其中橫坐標為訓練的迭代輪次(epochs),縱坐標為每輪迭代的mAP。基于Pedestrian數據集的實驗中,YOLOv5-GSPE算法模型的Loss值下降曲線及mAP上升曲線在收斂穩定性上優勢明顯。基于WiderPerson數據集的實驗中,兩個算法模型的Loss值下降曲線及mAP上升曲線收斂都較為穩定。綜合來看,兩種數據集在到達穩定迭代輪次后,YOLOv5-GSPE算法模型在mAP上優于YOLOv5s算法模型。

圖6 兩種數據集實驗的mAP及Loss值下降曲線

在300輪迭代中,Pedestrian數據集實驗的最高mAP達到了95.87%,相比YOLOv5s算法模型的91.82%提升了4.05百分點。WiderPerson數據集實驗的最高mAP達到了77.46%,相比YOLOv5s算法模型的74.18%提升了3.28百分點。由公式(1)和(2)采用YOLOv5和YOLOv5-GSPE算法模型計算得到的總參數量分別為7 012 822和6 135 420,其復雜度降低12.51%。

將YOLOv5-GSPE算法模型與目前主流標準版本的目標檢測模型進行對比實驗,在召回率(Recall)、mAP和推理時間(Time)三個方面進行對比,Pedestrian數據集實驗對比結果如表1所示,WiderPerson數據集實驗對比結果如表2所示。

表1 Pedestrian數據集模型對比實驗結果

表2 WiderPerson數據集模型對比實驗結果

綜上所述,通過表1和表2的對比結果可以看出, YOLOv5-GSPE算法模型在檢測速度和精度方面, 較目前幾個主流目標檢測算法模型有一定優勢。

3.3 消融實驗結果分析

消融實驗是針對YOLOv5-GSPE算法模型中每個改進合理性驗證實驗,主要有GhostConv卷積層、SPPF模塊、特征金字塔網絡PrFPN結構和損失函數EIoU四個改進。首先對各個改進進行獨立的精度實驗評估分析,如圖7所示。

圖7 各模塊精度評估對比曲線

如圖7所示,GhostConv代替Conv作為主干網絡卷積層可以有效降低模型的復雜度及計算量,但對mAP的收斂穩定性造成影響。改進的SPPF模塊能夠一定程度上提升模型mAP,降低特征信息丟失可以提高模型檢測效果,額外的開銷導致mAP曲線收斂速度變慢。特征金字塔網絡PANet結構改進能夠大幅度提升模型mAP,增強mAP曲線穩定性。優化后的EIoU損失函數代替GIoU損失函數,能夠小幅度提升mAP。基于Pedestrian數據集下訓練和推理,實驗結果如表3所示。

表3 消融實驗結果

如表3所示,模型1基于YOLOv5s模型進行改進,檢測精度有所下降。模型2在模型1基礎上優化SPPF模塊,提升了模型精度,少量的開銷影響推理速度。模型3基于模型2提出的改進PrFPN結構,可以大幅度提升模型平均精度。YOLOv5-GSPE算法模型在模型3基礎上引入優化后的EIoU損失函數,進一步提升模型檢測精度。

3.4 檢測實驗效果分析

(1)Pedestrian數據集的檢測效果分析。

如圖8所示,YOLOv5-GSPE算法模型更為豐富的特征提取帶來行人目標特征符合度下降,進而使得錨框置信度相比YOLOv5s算法模型稍有下降。由圖8(a)可以看出,YOLOv5-GSPE算法模型能夠對圖中遠近大小成像行人信息實現準確檢測,對于遮擋目標也能保證一定的檢測精度,而YOLOv5s算法模型(圖8(b))對于較遠成像的小目標的行人漏檢率較高,如圖8(c)與(d)局部放大圖對比所示。

(2)WiderPerson數據集檢測效果分析。

圖9為對場景二中遮擋行人檢測效果對比,由圖9(a)可以看出,YOLOv5-GSPE算法模型對擁擠遮擋的行人相比YOLOv5s算法模型的檢測效果更好,但遮擋行人的特征并不完整,容易導致算法模型重復錨框,如圖9(b)所示,其漏檢區域從圖9(c)和(d)局部放大圖可以清晰對比。

圖9 WiderPerson數據集檢測效果對比

綜上所述,YOLOv5-GSPE算法模型相比YOLOv5s算法模型的檢測效果更好,尤其對小目標行人以及遮擋行人的漏檢率更低。

4 結束語

針對景區場景下的行人表現特征,目前的行人檢測算法在景區場景下應用存在小目標及遮擋行人漏檢率高、模型復雜度高、計算量大等問題。該文提出YOLOv5-GSPE算法模型,通過GhostConv和改進的SPPF模塊優化主干網絡;提出增強的特征金字塔網絡PrFPN結構,在輸出特征圖中加入了原始輸入特征的融合;用優化后的EIoU損失函數代替GIoU損失函數,提升邊界框的回歸精度。

實驗結果表明,YOLOv5-GSPE算法模型在均衡檢測精度和速度的情況下更具綜合優勢,同時大幅度地減少了模型復雜度,對小目標行人和遮擋行人檢測漏檢率有明顯改善,為景區的行人智能檢測應用提供一種有效途徑。但算法模型中特征提取明顯增強,使其在非擁擠場景下的應用中對目標背景的抗干擾度下降。

猜你喜歡
特征實驗檢測
記一次有趣的實驗
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 波多野结衣无码视频在线观看| 亚洲精品老司机| 亚洲全网成人资源在线观看| 久久窝窝国产精品午夜看片| 欧美亚洲综合免费精品高清在线观看 | 色婷婷在线播放| 国产在线高清一级毛片| 国产在线自乱拍播放| 日韩 欧美 国产 精品 综合| 国产原创第一页在线观看| 婷婷激情亚洲| 国产精品永久久久久| 国产精品亚洲一区二区三区在线观看| 亚洲一区免费看| 日韩乱码免费一区二区三区| 99ri国产在线| 91蜜芽尤物福利在线观看| 日本在线欧美在线| 日本在线视频免费| 日韩在线播放欧美字幕| 亚洲天堂.com| 欧美色伊人| 亚洲精品国产首次亮相| 日韩免费中文字幕| 亚洲无码高清视频在线观看 | 精品综合久久久久久97超人该| 99九九成人免费视频精品| 99视频在线观看免费| 国产精品一区不卡| 国产精品视频猛进猛出| 伊人色综合久久天天| 亚洲二区视频| 久久综合激情网| 亚洲国产成人自拍| 久久精品视频一| 色综合中文| 无码高潮喷水专区久久| 精品伊人久久大香线蕉网站| 91丝袜在线观看| 91 九色视频丝袜| 国产女同自拍视频| 国产精品99久久久久久董美香 | 99er精品视频| 狠狠亚洲婷婷综合色香| 无码高潮喷水在线观看| 666精品国产精品亚洲| 亚洲人成影院在线观看| 欧美一区国产| 国产欧美精品专区一区二区| 综1合AV在线播放| 亚洲高清免费在线观看| 日韩第八页| 色一情一乱一伦一区二区三区小说| 国产91精品调教在线播放| 国产永久无码观看在线| 午夜a级毛片| 波多野结衣亚洲一区| 国产最新无码专区在线| 三上悠亚一区二区| 不卡无码h在线观看| 欧美成人综合在线| 精品无码人妻一区二区| 丝袜国产一区| 欧美午夜视频| 国产日本欧美在线观看| 色综合久久无码网| 亚洲精品免费网站| 亚洲伊人久久精品影院| 日韩欧美国产成人| 午夜日b视频| 永久免费精品视频| 国产Av无码精品色午夜| 超级碰免费视频91| 亚洲国产成人久久77| 日本午夜影院| 首页亚洲国产丝袜长腿综合| 欧美在线一二区| 亚洲精品不卡午夜精品| 欧美爱爱网| 中文字幕亚洲电影| 免费人成视频在线观看网站| 欧美一区二区三区不卡免费|