999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)YOLOv4的安全帽佩戴檢測(cè)方法

2023-09-13 03:07:08李天宇毛艷玲田洋川陳明舉
關(guān)鍵詞:特征檢測(cè)

李天宇,吳 浩,毛艷玲,田洋川,陳明舉+

(1.四川輕化工大學(xué) 人工智能四川省重點(diǎn)實(shí)驗(yàn)室,四川 宜賓 644000;2.四川輕化工大學(xué) 自動(dòng)化與信息工程學(xué)院,四川 宜賓 644000)

0 引 言

近年來(lái),基于卷積神經(jīng)網(wǎng)絡(luò)的安全帽佩戴檢測(cè)方法[1,2]已成為目前研究的主流,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法主要分為兩階段檢測(cè)算法和單階段檢測(cè)算法。如針對(duì)二階段的檢測(cè)算法,徐守坤等[3]在Faster RCNN的基礎(chǔ)上利用特征融合來(lái)優(yōu)化RPN網(wǎng)絡(luò),并采用困難樣本挖掘技術(shù)訓(xùn)練模型,提高了檢測(cè)的準(zhǔn)確率。孫國(guó)棟等[4]通過(guò)自注意力機(jī)制以及錨框補(bǔ)選增強(qiáng)方法來(lái)提高Faster CNN對(duì)小目標(biāo)的檢測(cè)準(zhǔn)確率。

由于施工作業(yè)現(xiàn)場(chǎng)的環(huán)境復(fù)雜多變,對(duì)安全帽檢測(cè)的實(shí)時(shí)性要求高,于是單階段檢測(cè)算法憑借其快速且準(zhǔn)確的優(yōu)點(diǎn)在安全帽佩戴檢測(cè)上獲得了大量應(yīng)用。如李明山等[5]、徐先峰等[6]利用SSD檢測(cè)網(wǎng)絡(luò)構(gòu)建新的安全帽檢測(cè)網(wǎng)絡(luò),分別對(duì)模型結(jié)構(gòu)和訓(xùn)練方式進(jìn)行改進(jìn)以提高其檢測(cè)能力。陳柳等[7]在RFBNet基礎(chǔ)上引入SE-Ghost模塊來(lái)輕量化檢測(cè)模型,并利用FPN提高網(wǎng)絡(luò)對(duì)小目標(biāo)檢測(cè)的魯棒性。徐凱等[8]、徐守坤等[9]都對(duì)YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)以及預(yù)選框尺寸進(jìn)行了優(yōu)化,提高了網(wǎng)絡(luò)對(duì)安全帽的檢測(cè)準(zhǔn)確率,特別是提高了對(duì)小目標(biāo)的檢測(cè)能力。

本文針對(duì)施工作業(yè)區(qū)域安全帽檢測(cè)困難的問(wèn)題,以YOLOv4網(wǎng)絡(luò)為基礎(chǔ)提出了一種施工現(xiàn)場(chǎng)安全帽檢測(cè)方法SR_YOLO。該檢測(cè)網(wǎng)絡(luò)引入多尺度空間金字塔層和特征增強(qiáng)模塊,并利用Kmeans++算法來(lái)對(duì)目標(biāo)樣本進(jìn)行anchor尺寸優(yōu)化,提高了網(wǎng)絡(luò)對(duì)安全帽的檢測(cè)能力。實(shí)驗(yàn)結(jié)果表明,在施工現(xiàn)場(chǎng)區(qū)域,本文的安全帽檢測(cè)方法能夠?qū)崿F(xiàn)對(duì)復(fù)雜背景下安全帽的準(zhǔn)確檢測(cè),且滿(mǎn)足實(shí)時(shí)檢測(cè)的需求。

1 YOLOv4目標(biāo)檢測(cè)算法

YOLOv4[10]是YOLO系列第四代算法,其在YOLOv3的基礎(chǔ)上融合了一系列的網(wǎng)絡(luò)模型和訓(xùn)練技巧,得到的一個(gè)實(shí)時(shí)性的單階段目標(biāo)檢測(cè)算法。該算法由主干特征提取網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)以及檢測(cè)頭部組成,主干特征提取網(wǎng)絡(luò)在Darknet53的基礎(chǔ)上,引入CSPNet的思想[11],形成了新的主干網(wǎng)絡(luò)CSPDarknet,在降低網(wǎng)絡(luò)參數(shù)量的同時(shí)還保證了網(wǎng)絡(luò)的檢測(cè)準(zhǔn)確率;同時(shí)為了提高網(wǎng)絡(luò)的感受野,YOLOv4在主干網(wǎng)絡(luò)尾部插入了一個(gè)空間金字塔池化層(SPPNet),利用5×5、9×9、13×13的最大池化層來(lái)獲得不同大小的感受野,提高網(wǎng)絡(luò)對(duì)于小目標(biāo)物體的捕獲能力;最后在Neck網(wǎng)絡(luò)中利用PANet[12]代替FPN金字塔結(jié)構(gòu)[13],進(jìn)一步融合高低層的語(yǔ)義信息和位置信息;檢測(cè)頭部則和YOLOv3保持一致,利用3×3卷積和1×1卷積調(diào)整通道數(shù)后輸出檢測(cè)。

YOLOv4以608×608的圖片作為輸入,利用主干網(wǎng)絡(luò)CSPDarknet53提取特征,經(jīng)5次下采樣之后,輸出3個(gè)不同大小的特征圖(19×19、38×38、76×76),其中19×19特征圖后接SPPNet空間金字塔模塊,通過(guò)3個(gè)5×5、9×9以及13×13的最大池化層來(lái)增大網(wǎng)絡(luò)的感受野;隨后Neck網(wǎng)絡(luò)中將3種不同大小的特征層通過(guò)PANet雙向特征金字塔網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)淺層特征信息與高層特征信息的融合,充分利用了深層的語(yǔ)義信息和淺層的位置信息,使得網(wǎng)絡(luò)對(duì)于小目標(biāo)物體的檢測(cè)性能提升。最后在檢測(cè)頭部,利用回歸思想對(duì)3種不同大小的特征圖進(jìn)行目標(biāo)檢測(cè),分別在大的特征圖檢測(cè)小目標(biāo)、中等大小特征圖檢測(cè)中等目標(biāo)以及小特征圖上檢測(cè)大目標(biāo)。YOLOv4相比于YOLOv3,檢測(cè)精度和速度都有所提升,相比于一般的兩階段檢測(cè)算法,其速度和精度都擁有很大的優(yōu)勢(shì)。其算法結(jié)構(gòu)示意如圖1所示。

圖1 YOLOv4結(jié)構(gòu)

YOLOv4雖然在檢測(cè)速度和檢測(cè)精度上都要優(yōu)于目前的大多數(shù)單階段目標(biāo)檢測(cè)算法,但是對(duì)于施工現(xiàn)場(chǎng)復(fù)雜背景下的弱小安全帽目標(biāo),檢測(cè)精度不足。針對(duì)此類(lèi)問(wèn)題,本文通過(guò)改進(jìn)空間金字塔池化層和Neck網(wǎng)絡(luò)中引入特征增強(qiáng)模塊來(lái)提高YOLOv4對(duì)小目標(biāo)物體檢測(cè)的魯棒性,并利用Kmeans++算法聚類(lèi)出適合本文安全帽數(shù)據(jù)集Anchor尺寸,使其更適合于安全帽檢測(cè)任務(wù),并在一定程度上滿(mǎn)足實(shí)時(shí)性檢測(cè)的要求。

2 改進(jìn)YOLOv4的安全帽佩戴檢測(cè)方法

為了提高網(wǎng)絡(luò)對(duì)弱小目標(biāo)安全帽目標(biāo)的檢測(cè)能力,本文建立了一種基于改進(jìn)YOLOv4的安全帽佩戴檢測(cè)新方法SR_YOLO來(lái)提高施工現(xiàn)場(chǎng)弱小安全帽目標(biāo)的檢測(cè)精度。

2.1 多尺度的空間金字塔池化層

YOLOv4根據(jù)SPPNet[14]的結(jié)構(gòu),在主干網(wǎng)絡(luò)后嵌入了一個(gè)空間金字塔池化層,對(duì)高層特征進(jìn)行多尺度池化用來(lái)擴(kuò)大感受野,其結(jié)構(gòu)如圖2所示。針對(duì)輸入的特征圖,分別利用5×5、9×9以及13×13的池化核做步長(zhǎng)為1的最大池化(空間金字塔池化層如圖2所示),此最大池化層不僅具有平移不變性,而且利用不同大小的池化核擴(kuò)大了感受野,且?guī)?lái)的計(jì)算成本很小。隨后將3種池化操作結(jié)果與輸入特征圖進(jìn)行concat操作,使得特征層能夠分離出最顯著的上下文特征,便于網(wǎng)絡(luò)對(duì)目標(biāo)的定位與分類(lèi)[15]。

式中:A0—樣品的初始14C放射性濃度(Bq/g),實(shí)際應(yīng)用時(shí)取“現(xiàn)代碳”標(biāo)準(zhǔn)(813.6Bq/g);A—停止交換t年后樣品的14C放射性濃度(Bq/g);t—停止交換后所經(jīng)歷的時(shí)間;λ—14C的衰變常數(shù),λ=ln2/T1/2=0.693/T1/2,T1/2為14C半衰期(5730a),帶入后得到:

圖2 空間金字塔池化層結(jié)構(gòu)

考慮到原始YOLOv4中使用了608×608大小的圖片作為輸入,而本文從計(jì)算資源方面考慮,使用了416×416大小的圖片作為輸入,故重新計(jì)算池化核大小,采用4×4,7×7,13×13大小的池化核來(lái)進(jìn)行最大池化操作。并且為了使各特征層中的感受野差距較小,能夠在一定程度上充分利用到全局信息,本文額外添加了一個(gè)2×2的池化分支,來(lái)獲得一個(gè)較小的感受野,使空間金字塔層的感受野層級(jí)更加細(xì)化,進(jìn)一步利用不同尺度特征圖上的不同子區(qū)域特征。

因此,結(jié)構(gòu)上本文借鑒了PSPNet中的金字塔模塊,采用2×2,4×4,7×7,13×13這4個(gè)不同大小的池化核來(lái)提出一種多尺度的空間金字塔池化層,其結(jié)構(gòu)如圖3所示。首先利用4個(gè)不同池化核做最大池化操作,得到4種具有不同感受野層級(jí)的特征圖;然后分別使用1×1的卷積對(duì)池化操作后的圖片進(jìn)行降維,將其通道數(shù)降為輸入通道數(shù)的1/4;最后通過(guò)concat操作將4種不同最大池化操作后結(jié)果與輸入特征出進(jìn)行通道上的拼接,得到一個(gè)通道數(shù)為2C的特征圖,再由一個(gè)1×1的卷積將通道降為C。將此多尺度的空間金字塔模塊嵌入CSP_Darknet53主干網(wǎng)絡(luò)后,得到的特征圖中各層級(jí)的感受野差距較小,獲得的安全帽目標(biāo)的全局信息完整,能夠分離出較為顯著的上下文信息,提升網(wǎng)絡(luò)對(duì)安全帽目標(biāo)的檢測(cè)精度。

圖3 多尺度的空間金字塔池化層

2.2 基于分層卷積與scSE的特征增強(qiáng)模塊

在YOLOv4中,Neck網(wǎng)絡(luò)使用了PANet融合高低層的特征信息來(lái)完成多尺度檢測(cè),該結(jié)構(gòu)能夠縮短特征信息的傳播路徑并利用到低層特征圖上位置信息。PANet使用了Concat的融合方式,對(duì)特征圖做通道上的拼接,并利用5次卷積對(duì)融合后的特征進(jìn)行整合與信息提取。其中,5次卷積由1×1和3×3卷積組成,主要通過(guò)3×3的卷積進(jìn)行特征提取,1×1卷積用來(lái)調(diào)整通道數(shù)。因此,這樣操作雖然能夠在一定程度上提取到豐富的特征信息,但是提取到的特征信息較為單一,同時(shí)也帶來(lái)了網(wǎng)絡(luò)參數(shù)量的增加。文獻(xiàn)[16]提出了一種基于分層卷積結(jié)構(gòu)的特征提取網(wǎng)絡(luò)Res2 Net,其構(gòu)建了一種新的類(lèi)殘差連接模塊,即在一個(gè)獨(dú)立的殘差塊中使用了分層卷積。Res2 Net網(wǎng)絡(luò)利用該模塊代替原始的殘差模塊后,使得特征圖上的感受野能夠在更細(xì)粒度級(jí)別上的變化來(lái)捕獲細(xì)節(jié)特征和全局特性[17]。因此,本文借鑒Res2 Net中的類(lèi)殘差結(jié)構(gòu)并結(jié)合5次卷積中的設(shè)計(jì)思想,利用1×1、3×3的分層卷積結(jié)構(gòu)來(lái)組成新的特征增強(qiáng)模塊來(lái)代替5次卷積模塊。

同時(shí),為了使網(wǎng)絡(luò)學(xué)習(xí)到更為全局的特征,本文在特征增強(qiáng)模塊中引入了注意力機(jī)制scSE模塊[18],scSE模塊為cSE通道注意力與sSE空間注意力進(jìn)行相加而得來(lái)的,分別從通道和空間的角度來(lái)增強(qiáng)特征信息,使網(wǎng)絡(luò)關(guān)注感興趣區(qū)域。本文在增強(qiáng)模塊尾部嵌入scSE模塊,分別利用通道注意力機(jī)制和空間注意力機(jī)制來(lái)對(duì)通道間和空間上的特征信息的重新標(biāo)定,進(jìn)一步增強(qiáng)了有意義的特征,抑制了無(wú)用特征。特征增強(qiáng)模塊的結(jié)構(gòu)如圖4所示。

圖4 特征增強(qiáng)模塊

首先通過(guò)1×1卷積調(diào)整輸入特征圖的通道數(shù);然后輸出4個(gè)并行支路x1、x2、x3、x4,分別利用1×1、3×3卷積進(jìn)行特征提取,其中有3條支路使用了分層卷積操作,即本支路3×3卷積操作后送入相鄰支路與該支路輸入特征圖進(jìn)行一個(gè)殘差連接后,再利用3×3卷積進(jìn)行采樣操作,并將4條支路的輸出特征圖y1、y2、y3、y4做一個(gè)通道上的拼接;最后使用一個(gè)1×1卷積來(lái)整合通道數(shù),并嵌入scSE注意力機(jī)制對(duì)權(quán)重進(jìn)行標(biāo)定,凸顯目標(biāo)特征的有用信息。

因此,本文將該特征增強(qiáng)模塊引入Neck網(wǎng)絡(luò)中代替原本的5次卷積,對(duì)檢測(cè)網(wǎng)絡(luò)中經(jīng)過(guò)Concat融合后的特征圖進(jìn)行通道調(diào)整和特征提取。特征提取模塊在Neck網(wǎng)絡(luò)中的使用位置如圖5所示(Detection block為特征增強(qiáng)模塊),通過(guò)本文的特征提取模塊操作后,能夠在一定程度上增加網(wǎng)絡(luò)的復(fù)雜度,提取到更多的特征信息,同時(shí)也能減少信息的丟失并提高網(wǎng)絡(luò)的檢測(cè)精度。

圖5 基于特征增強(qiáng)模塊的Neck網(wǎng)絡(luò)

2.3 基于Kmeans++的anchor優(yōu)化

YOLOv4網(wǎng)絡(luò)設(shè)置了9種不同大小和寬高比的Anchor(Anchor box=12,16;19,36;40,28;36,75;76,55;72,146;142,110;192,243;459,401),分別應(yīng)用于3種不同尺寸的特征圖來(lái)檢測(cè)出目標(biāo)的Bounding box。由于YOLOv4中的Anchor是在 PASCAL VOC目標(biāo)檢測(cè)數(shù)據(jù)集上以608×608的尺寸大小通過(guò)Kmeans算法聚類(lèi)得來(lái)的,其比例尺寸分配較為均勻,且尺寸較大。而本文的安全帽數(shù)據(jù)集中目標(biāo)大小較為極端且使用了416×416大小的圖片作為輸入,所以YOLOv4預(yù)設(shè)的Anchor不太適合本文的模型訓(xùn)練。

因此,本文使用了Kmeans++聚類(lèi)算法來(lái)對(duì)本文的安全帽數(shù)據(jù)集的anchor box進(jìn)行聚類(lèi)分析。Kmeans++為聚類(lèi)算法Kmeans的改進(jìn)算法,相比于傳統(tǒng)的Kmeans算法,其通過(guò)對(duì)初始點(diǎn)的優(yōu)化提高了聚類(lèi)的精度,能夠針對(duì)數(shù)據(jù)集聚類(lèi)出更為合適的Anchor box尺寸。同時(shí),使用了anchor box與ground truth的最大比IOU作為度量距離,其計(jì)算公式如下所示

D(box,centroid)=1-IOU

(1)

其中,box為數(shù)據(jù)集中真實(shí)標(biāo)注框,centroid為聚類(lèi)的中心點(diǎn)。Kmeans++聚類(lèi)算法的步驟如下:

(1)首先隨機(jī)選取某一樣本目標(biāo)框區(qū)域作為初始聚類(lèi)中心;

(2)隨后計(jì)算每個(gè)樣本與當(dāng)前聚類(lèi)中心的距離D,并計(jì)算該樣本被選為下一聚類(lèi)中心的概率,然后使用輪盤(pán)法選取下一聚類(lèi)中心;

(3)重復(fù)步驟(2)直到聚類(lèi)出k個(gè)聚類(lèi)中心;

(4)最后利用Kmeans算法,通過(guò)計(jì)算每個(gè)樣本到聚類(lèi)中心的距離得到最后的目標(biāo)框尺寸。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)

本次實(shí)驗(yàn)在深度學(xué)習(xí)工作站上搭建環(huán)境并進(jìn)行訓(xùn)練,服務(wù)器硬件配置為CPU(Inter Xeon E5-2695)、GPU(Nvidia TITAN Xp)、主板(超微X10DRG-Q);操作系統(tǒng)為Windows10專(zhuān)業(yè)版;軟件配置為Anaconda、Pycharm;編程語(yǔ)言為Python,深度學(xué)習(xí)框架為Keras。

實(shí)驗(yàn)數(shù)據(jù)為網(wǎng)上收集的安全帽檢測(cè)數(shù)據(jù)集,由網(wǎng)頁(yè)爬取的施工現(xiàn)場(chǎng)圖片和SCUT-HEAD中的部分圖像組成(大部分為某學(xué)校課堂監(jiān)控視頻),所有的圖像用labelimg標(biāo)注出目標(biāo)區(qū)域及類(lèi)別,一共分為兩個(gè)類(lèi)別,佩戴安全帽的標(biāo)記為‘hat’,未佩戴安全帽的標(biāo)記為‘person’。該安全帽數(shù)據(jù)集一共有6600張圖片,其中6000張作為訓(xùn)練集,600張作為測(cè)試集。并且,為了增加實(shí)驗(yàn)數(shù)據(jù)集的多樣性以及防止安全帽檢測(cè)模型過(guò)擬合,本文在訓(xùn)練集數(shù)據(jù)輸入模型訓(xùn)練前使用圖像縮放、長(zhǎng)寬扭曲、圖像翻轉(zhuǎn)、色域扭曲以及為圖像多余部分增加灰條等操作對(duì)訓(xùn)練集進(jìn)行預(yù)處理。

3.2 網(wǎng)絡(luò)訓(xùn)練

本文采用安全帽數(shù)據(jù)集對(duì)檢測(cè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練時(shí)輸入圖片尺寸設(shè)置為416×416,優(yōu)化器為Adam。網(wǎng)絡(luò)訓(xùn)練分兩個(gè)階段進(jìn)行,第一階段為粗訓(xùn)練,旨在快速降低網(wǎng)絡(luò)的損失值,第二階段為細(xì)訓(xùn)練,使網(wǎng)絡(luò)能夠更好的收斂。第一階段訓(xùn)練20輪(epoch),batch size設(shè)置為12,學(xué)習(xí)率(learning rate)設(shè)置為 0.001;第二階段訓(xùn)練140輪(epoch),batch size設(shè)置為12,學(xué)習(xí)率采用了余弦退火下降策略,基礎(chǔ)學(xué)習(xí)率(learning rate)設(shè)置為0.0001,下降最小學(xué)習(xí)率為0.000 001,開(kāi)始學(xué)習(xí)率為0.000 01,學(xué)習(xí)率先線(xiàn)性上升,再以余弦的方式下降,在140輪內(nèi)多次上升和下降,以此來(lái)越過(guò)局部最小點(diǎn)。SR_YOLO的損失下降曲線(xiàn)如圖6所示。由圖6可知,本文改進(jìn)算法最終損失值下降至17左右區(qū)域平穩(wěn),此時(shí)網(wǎng)絡(luò)收斂。

圖6 SR_YOLO的損失下降曲線(xiàn)

本文以召回率(Recall)、漏檢率(Larm)、平均精確率AP(average precision)以及平均精確率均值mAP(mean average precision)作為網(wǎng)絡(luò)的性能評(píng)判指標(biāo)。其中,檢測(cè)的召回率Recall、漏檢率Larm以及平均精確率均值mAP的計(jì)算公式如下所示

Recall=TPTP+FN×100%

(2)

Larm=FNTP+FN×100%

(3)

mAP=∑ci=1APic

(4)

式中:TP為正類(lèi)預(yù)測(cè)為正類(lèi)數(shù),F(xiàn)N為將正類(lèi)預(yù)測(cè)為負(fù)類(lèi)數(shù),c表示類(lèi)別數(shù),AP為單個(gè)目標(biāo)的平均精確度,其中,AP=∫10P(R)dR。

3.3 模型性能評(píng)估

(1)Kmeans++聚類(lèi)結(jié)果分析

本文實(shí)驗(yàn)采用Kmeans++算法對(duì)安全帽數(shù)據(jù)集中目標(biāo)的Anchor box尺寸進(jìn)行聚類(lèi)分析,同時(shí)采用平均交并比(Avg IOU)作為聚類(lèi)結(jié)果的評(píng)價(jià)指標(biāo)。Anchor框個(gè)數(shù)與Avg IOU分析結(jié)果如圖7所示,圖7中展示了k值取1~12時(shí)不同的Avg IOU值,由于本文未改動(dòng)YOLOv4輸出特征層的數(shù)量,故使用k=9,Avg IOU=81.32%所產(chǎn)生的Anchor框尺寸。

圖7 Anchor框個(gè)數(shù)與Avg IOU結(jié)果

圖8為Kmeans++算法聚類(lèi)圖,其中圖8(a)為安全帽數(shù)據(jù)集中目標(biāo)框分布圖,可知目標(biāo)框尺寸主要集中在[0~150,0~200]的區(qū)間中,原始YOLOv4中所使用的Anchor框尺寸并不符合安全帽數(shù)據(jù)訓(xùn)練的要求。圖8(b)為Kmeans++算法對(duì)安全帽數(shù)據(jù)的聚類(lèi)結(jié)果,聚類(lèi)k值取9,經(jīng)過(guò)迭代最后所有數(shù)據(jù)點(diǎn)聚類(lèi)成9個(gè)區(qū)域,每個(gè)區(qū)域中使用了五角星代表其聚類(lèi)中心,即最終獲得的9種不同大小的Anchor尺寸。

本文利用Kmeans++算法聚類(lèi)得到的anchor尺寸見(jiàn)表1,其中13×13大小的特征圖上分配最大的3個(gè)Anchor,26×26上分配中等的3個(gè)Anchor,最大的特征圖上使用最小的3個(gè)Anchor,滿(mǎn)足YOLOv4在小的特征圖預(yù)測(cè)大目標(biāo),在大的特征圖上預(yù)測(cè)小目標(biāo)的規(guī)范。

表1 anchor參數(shù)

(2)消融實(shí)驗(yàn)分析

為了驗(yàn)證改進(jìn)點(diǎn)對(duì)安全帽檢測(cè)的有效性,本文利用消融實(shí)驗(yàn)進(jìn)行了縱向?qū)Ρ确治觯捎孟嗤臏y(cè)試集,從網(wǎng)絡(luò)的平均精確率AP以及平均精確率均值mAP的結(jié)果來(lái)判斷改進(jìn)網(wǎng)絡(luò)是否有效,其中IOU閾值設(shè)置為模型評(píng)估通用的0.5。

由表2可知,對(duì)空間金字塔池化層進(jìn)行改進(jìn)后,可以看出佩戴安全帽的AP值基本保持不變,未戴完全帽的AP值則上升了0.78%,mAP值達(dá)到了83.23%,這表明利用多池化核做最大池化能夠很好分離出上下文信息,提高了對(duì)安全帽和未佩戴安全帽的小目標(biāo)檢測(cè)精度;使用基于分層卷積與scSE模塊的特征增強(qiáng)模塊對(duì)Neck網(wǎng)絡(luò)中的融合特征圖進(jìn)行采樣后,佩戴安全帽和未戴完全帽的AP值分別上升了0.66%和0.32%,mAP值達(dá)到了83.09%,說(shuō)明該特征增強(qiáng)模塊提取到特征信息更為豐富,對(duì)于一些小目標(biāo)安全帽的特征也能很好的凸顯出來(lái);使用Kmeans++聚類(lèi)出的新Anchor進(jìn)行訓(xùn)練后,佩戴安全帽和未佩戴安全帽的AP值分別上升了0.47%和1.46%,說(shuō)明利用Kmeans++聚類(lèi)出來(lái)的anchor尺寸更符合訓(xùn)練樣本,能夠提高網(wǎng)絡(luò)對(duì)安全帽佩戴檢測(cè)的精確度。最后,將所有改進(jìn)點(diǎn)結(jié)合訓(xùn)練得到SR_YOLO,其mAP值為84.05%,比為未改進(jìn)前YOLOv4的mAP值高1.45%,說(shuō)明本文建立的基于改進(jìn)YOLOv4的安全帽佩戴檢測(cè)方法真實(shí)有效,能夠提高對(duì)安全帽的檢測(cè)精度。

表2 消融實(shí)驗(yàn)結(jié)果

(3)橫向?qū)Ρ葘?shí)驗(yàn)分析

同時(shí),為了驗(yàn)證本文改進(jìn)算法的檢測(cè)實(shí)用性,選取了SSD、RFBNet、YOLOv4網(wǎng)絡(luò)在相同的實(shí)驗(yàn)環(huán)境下利用相同的訓(xùn)練方式和數(shù)據(jù)集訓(xùn)練,進(jìn)行了橫向?qū)Ρ葘?shí)驗(yàn)分析。并利用相同的測(cè)試集對(duì)4種網(wǎng)絡(luò)進(jìn)行測(cè)試,從網(wǎng)絡(luò)模型的召回率(Recall)、漏檢率(Larm)、平均精確率(AP)、平均精確率均值(mAP)以及檢測(cè)速度等評(píng)價(jià)指標(biāo)來(lái)驗(yàn)證改進(jìn)網(wǎng)絡(luò)的優(yōu)越性。網(wǎng)絡(luò)模型檢測(cè)性能見(jiàn)表3。

表3 橫向?qū)Ρ葘?shí)驗(yàn)結(jié)果

由表3可以看出,在相同的訓(xùn)練條件下,對(duì)于“Hat”和“Person”兩類(lèi),本文檢測(cè)方法的召回率最高且漏檢率最低,分別為83.35%、76.33%和22%、67%。這說(shuō)明本文所提檢測(cè)方法在相同測(cè)試集下,能夠正確檢測(cè)出的安全帽和未帶安全帽的目標(biāo)最多,并且其綜合檢測(cè)性能最佳。同時(shí),本文所提出檢測(cè)方法SR_YOLO的mAP值最高,相較于SSD、RFBNet以及YOLOv4分別高出了15.58%、19.46%和1.45%,這說(shuō)明SR_YOLO對(duì)安全帽的檢測(cè)精度最高,檢測(cè)效果更好。針對(duì)這4個(gè)模型的檢測(cè)速度和參數(shù)量可知,SSD的檢測(cè)速度最快并且其模型參數(shù)量最低,本文的SR_YOLP的參數(shù)量達(dá)到233 MB,較改進(jìn)前有一定程度的下降,且其檢測(cè)速度為30 fps,完全滿(mǎn)足實(shí)時(shí)性的要求。從以上數(shù)據(jù)數(shù)據(jù)可知,本文的安全帽檢測(cè)算法SR_YOLO完全滿(mǎn)足是施工現(xiàn)場(chǎng)復(fù)雜環(huán)境下對(duì)佩戴安全帽和未佩戴安全帽的工作人員的準(zhǔn)確識(shí)別,并且滿(mǎn)足實(shí)時(shí)性的要求。

3.4 檢測(cè)結(jié)果分析

為進(jìn)一步說(shuō)明本文檢測(cè)方法在真實(shí)環(huán)境下對(duì)施工現(xiàn)場(chǎng)工作人員安全帽佩戴檢測(cè)的性能,利用上述訓(xùn)練好的模型進(jìn)行測(cè)試,并對(duì)測(cè)試結(jié)果進(jìn)行對(duì)比分析。隨機(jī)選取了4張真實(shí)施工現(xiàn)場(chǎng)作業(yè)圖,如圖9(a)、圖9(b)、圖9(c)、圖9(d)從左至右分別為4張不同環(huán)境下的測(cè)試圖片。圖10為檢測(cè)結(jié)果,圖10(a)~圖10(d)從左至右分別為SSD、RFBNet、YOLOv4以及SR_YOLO對(duì)4張測(cè)試圖的檢測(cè)結(jié)果,圖中的淺灰色框?yàn)楸硎景踩保谩癶at”表示其類(lèi)別,深灰色框?yàn)槲磁宕靼踩保谩皃erson”表示其類(lèi)別。

圖9 測(cè)試圖片

從圖10中可以看出,SSD和RFBNet網(wǎng)絡(luò)的檢測(cè)性能最差,4幅圖都有不同程度的漏檢和誤檢,針對(duì)圖中出現(xiàn)的有遮擋和較小安全帽目標(biāo),兩種檢測(cè)網(wǎng)絡(luò)均存在大量的漏檢測(cè)情況,其中第三行圖中二者均存在誤檢測(cè),誤將旁邊的物體檢測(cè)為佩戴安全帽的目標(biāo)。兩種檢測(cè)網(wǎng)絡(luò)性能較差的原因可能是都以VGG16作為主干特征提取網(wǎng)絡(luò),導(dǎo)致其未能挖掘更深層次的特征信息。其次,YOLOv4的檢測(cè)性能較SSD和RFBNet都好,能夠?qū)Υ蟛糠值陌踩边M(jìn)行準(zhǔn)確,但是存在少量的漏檢。針對(duì)安全帽分布較為密集的環(huán)境下,YOLOv4檢測(cè)能力要強(qiáng)于SSD和RFBNet。測(cè)試圖1、測(cè)試圖2中較為密集的環(huán)境,YOLOv4能夠?qū)Υ蠖鄶?shù)的安全帽目標(biāo)進(jìn)行檢測(cè)但存在少量漏檢;針對(duì)測(cè)試圖3、測(cè)試圖4較為稀疏環(huán)境,YOLOv4能實(shí)現(xiàn)所有安全帽目標(biāo)的進(jìn)行準(zhǔn)確檢測(cè)。這說(shuō)明對(duì)于密集情況下的有遮擋和弱小安全帽目標(biāo),YOLOv4的檢測(cè)效果一般,存在一定的漏檢情況。最后,本文提出的檢測(cè)方法SR_YOLO能夠?qū)y(cè)試圖1~測(cè)試圖4中所有的遮擋以及弱小安全帽目標(biāo)都檢測(cè)出來(lái),這說(shuō)明本文方法的檢測(cè)性能最好,所提出的改進(jìn)方法真實(shí)有效,能夠更好挖掘出更深層次的特征信息,提高網(wǎng)絡(luò)的檢測(cè)性能。

4 結(jié)束語(yǔ)

針對(duì)真實(shí)施工場(chǎng)景下,安全帽佩戴檢測(cè)所面臨的檢測(cè)目標(biāo)較小、背景干擾性強(qiáng)等問(wèn)題,本文在YOLOv4的基礎(chǔ)上,引入了多尺度空間金字塔層和特征增強(qiáng)模塊來(lái)改進(jìn)檢測(cè)網(wǎng)絡(luò),并利用Kmeans++算法來(lái)對(duì)安全帽樣本進(jìn)行anchor尺寸優(yōu)化,進(jìn)一步提高了網(wǎng)絡(luò)對(duì)安全帽的檢測(cè)準(zhǔn)確率。實(shí)驗(yàn)結(jié)果表明,本文SR_YOLO的mAP值為84.05%,檢測(cè)速度為30 fps,能夠?qū)φ鎸?shí)的施工現(xiàn)場(chǎng)環(huán)境下工作人員是否佩戴安全帽進(jìn)行實(shí)時(shí)且準(zhǔn)確的檢測(cè)。但本文檢測(cè)網(wǎng)絡(luò)只針對(duì)檢測(cè)的精確度進(jìn)行改進(jìn)提升,未對(duì)檢測(cè)速度方面進(jìn)行優(yōu)化,因此下一步可以通過(guò)使用輕量化模型,在保證檢測(cè)精度的情況下進(jìn)行檢測(cè)速度的提升。

猜你喜歡
特征檢測(cè)
抓住特征巧觀察
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 依依成人精品无v国产| 米奇精品一区二区三区| 一本色道久久88| 试看120秒男女啪啪免费| 亚洲av无码专区久久蜜芽| 欧美啪啪精品| 99热这里只有精品免费| 国产嫩草在线观看| 国产高清在线丝袜精品一区| 国产午夜福利亚洲第一| 91精品视频播放| 专干老肥熟女视频网站| 免费在线成人网| 九色综合视频网| 久久久久国色AV免费观看性色| 97综合久久| 国产黄在线观看| 无码福利视频| 国产资源免费观看| 色男人的天堂久久综合| 国产欧美在线观看精品一区污| 在线观看国产小视频| 色综合久久久久8天国| 四虎影院国产| 999在线免费视频| 国产乱码精品一区二区三区中文 | 福利在线不卡一区| 国产精品入口麻豆| 国产高清无码第一十页在线观看| 992tv国产人成在线观看| 岛国精品一区免费视频在线观看| 高清码无在线看| 国产亚洲美日韩AV中文字幕无码成人 | 亚洲AV色香蕉一区二区| 亚洲成人高清无码| 人妻精品久久无码区| 亚洲人成高清| 国产91精选在线观看| 久久亚洲国产一区二区| 一区二区三区国产精品视频| 亚洲国产成人在线| 国内精品久久久久久久久久影视 | 久久国产毛片| 精品国产免费观看| 曰AV在线无码| 99精品福利视频| 91麻豆精品国产高清在线| 国产精品自在拍首页视频8 | 一级爆乳无码av| 亚洲嫩模喷白浆| 成人年鲁鲁在线观看视频| 亚洲成人网在线观看| 中文字幕欧美日韩高清| 99精品热视频这里只有精品7| 色噜噜狠狠色综合网图区| 国产精品一区二区在线播放| 国产欧美视频综合二区| 亚洲日韩在线满18点击进入| 国产91线观看| 国产网站免费| 国产新AV天堂| 一级福利视频| 国产精品香蕉在线| 色综合激情网| 国产成人亚洲欧美激情| 99精品影院| 日韩不卡高清视频| 不卡视频国产| 亚洲一区二区成人| 国产成人久久综合777777麻豆| 国产精品久久久精品三级| 四虎永久免费地址| 国产区网址| 看国产毛片| 国产丝袜第一页| 在线欧美一区| 成人国产精品视频频| 久久国产精品影院| 亚洲国产欧美自拍| 激情爆乳一区二区| 国产精品99久久久| 在线人成精品免费视频|