












摘 要:針對(duì)現(xiàn)有深度學(xué)習(xí)算法在惡劣天氣、目標(biāo)密集分布、目標(biāo)較小或目標(biāo)被隨機(jī)遮擋等情況下檢測(cè)效果不理想等問題,提出YOLOv7-hat安全帽佩戴檢測(cè)方法。該方法對(duì)YOLOv7-Tiny模型進(jìn)行了改進(jìn),增加了能更好捕捉圖像中小目標(biāo)的小目標(biāo)檢測(cè)層;添加的CBAM有助于模型關(guān)注重要的特征信息;增加了多頭self-attention注意力機(jī)制,提高了目標(biāo)檢測(cè)頭的表示能力。在公開數(shù)據(jù)集SHWD上的實(shí)驗(yàn)結(jié)果表明,增加小目標(biāo)檢測(cè)層后,所提方法的MAP從0.932提升至0.942;引入CBAM后,MAP進(jìn)一步提升至0.945;增加DYhead Block后,MAP達(dá)到了0.95。經(jīng)過對(duì)復(fù)雜環(huán)境中施工場(chǎng)所安全帽佩戴情況的檢測(cè),可以明顯看出所提算法的性能獲得了顯著提升。
關(guān)鍵詞:YOLOv7-Tiny;安全帽佩戴檢測(cè);混合注意力機(jī)制;小目標(biāo)檢測(cè)層;YOLOv7-hat;空間注意力機(jī)制
中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)12-00-08
0 引 言
我國(guó)基礎(chǔ)建設(shè)行業(yè)蓬勃發(fā)展,但其事故率遠(yuǎn)高于其他行業(yè)[1],其中,頭部損傷所造成的致殘比例尤其突出[2]。目前安全帽佩戴檢測(cè)主要是通過現(xiàn)場(chǎng)人工檢測(cè)并結(jié)合視頻監(jiān)測(cè)來實(shí)現(xiàn),而人工實(shí)時(shí)檢測(cè)耗費(fèi)大量的人力和物力且易造成漏檢[3-4]。因此,研究施工人員佩戴安全帽的實(shí)時(shí)檢測(cè)方法具有極其重要的現(xiàn)實(shí)意義。
傳統(tǒng)目標(biāo)檢測(cè)算法是先在被檢測(cè)圖像中選擇出多個(gè)候選區(qū)域,之后手動(dòng)提取特征,最后將提取的特征送入分類器進(jìn)行分類。近年來,由于深度學(xué)習(xí)算法具有檢測(cè)精度高、速度快的特點(diǎn),被普遍用于圖像分類和識(shí)別領(lǐng)域,并成為安全帽佩戴檢測(cè)等目標(biāo)檢測(cè)算法中的主流。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法可分為以SSD、RetinaNet、YOLO為代表的單階段檢測(cè)算法[5-10]和以R-CNN、Fast R-CNN、Faster R-CNN為代表的兩階段檢測(cè)算法[11-13]。單階段檢測(cè)算法檢測(cè)速度快,適用于實(shí)時(shí)檢測(cè),兩階段算法精度高但檢測(cè)速度慢,適用于精確度要求較高的場(chǎng)景。2018年,文獻(xiàn)[14]首次將Faster R-CNN算法應(yīng)用于安全帽佩戴檢測(cè)領(lǐng)域,盡管測(cè)試準(zhǔn)確度有所提升,但無法滿足實(shí)時(shí)性需求。2020年,文獻(xiàn)[15]提出了一種基于改進(jìn)YOLOv3算法的安全帽佩戴檢測(cè)方法,該方法雖能實(shí)時(shí)檢測(cè)但性能有待提升。2021年,文獻(xiàn)[16]提出了一種融合環(huán)境特征與改進(jìn)YOLOv4的安全帽佩戴檢測(cè)方法。文獻(xiàn)[17]
改進(jìn)了骨干網(wǎng)絡(luò)和Neck結(jié)構(gòu),從而提高了模型應(yīng)對(duì)復(fù)雜密集場(chǎng)景的能力,但對(duì)重疊目標(biāo)的檢測(cè)能力還有待提升。
小目標(biāo)檢測(cè)和密集檢測(cè)一直是目標(biāo)檢測(cè)的難點(diǎn)。安全帽目標(biāo)較小,且施工場(chǎng)所人員密集,在特征學(xué)習(xí)階段,常常會(huì)被忽略。相較于YOLO系列算法,YOLOv7有著更快的檢測(cè)速度[18],同時(shí)其檢測(cè)性能也優(yōu)于其他YOLO系列算法。本文主要以YOLOv7-tiny為基礎(chǔ)算法,在此基礎(chǔ)上進(jìn)行改進(jìn)以提高安全帽佩戴的綜合檢測(cè)能力。
1 YOLOv7算法
YOLOv7通過分析梯度傳播路徑的結(jié)構(gòu),對(duì)其結(jié)構(gòu)進(jìn)行優(yōu)化,在測(cè)試時(shí)用卷積替代原先的卷積和BN層,不影響預(yù)測(cè)精確度的同時(shí)提升了預(yù)測(cè)速度,且減少了顯存的占用。YOLOv7結(jié)合YOLOx[19]和YOLOv5的標(biāo)簽正樣本分配策略提出了一種由粗到細(xì)的動(dòng)態(tài)標(biāo)簽分配策略,提升了模型的召回率。YOLOv7結(jié)構(gòu)中使用了大量ELAN結(jié)構(gòu),加深網(wǎng)絡(luò)的同時(shí)再結(jié)合不同長(zhǎng)短路徑的語義信息來提升網(wǎng)絡(luò)性能。YOLOv7-tiny是YOLOv7系列算法中參數(shù)量最小的算法,更便于實(shí)際場(chǎng)景的部署,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
YOLOv7算法的結(jié)構(gòu)分為Backbone、Neck和Head三部分。Backbone的輸入尺寸為640×640,通過CBS×2模塊進(jìn)行特征提取,再通過ELAN模塊和MP模塊進(jìn)行下采樣。ELAN通過控制最短與最長(zhǎng)的梯度路徑以及更深的網(wǎng)絡(luò)可以有效學(xué)習(xí)和收斂,MP結(jié)合了卷積下采樣法和最大池化層下采樣法的優(yōu)勢(shì)。Neck結(jié)構(gòu)在YOLOv5的特征融合結(jié)構(gòu)(PAFPN)基礎(chǔ)上添加了一個(gè)自底向上的路徑,以更好地融合多尺度特征。Head部分使用CBS模塊連接,輸出分別為80×80×255、40×40×255、20×20×255的特征層。
2 YOLOv7算法的改進(jìn)
首先修改網(wǎng)絡(luò)結(jié)構(gòu),增加160×160×255的小目標(biāo)檢測(cè)層;其次在Backbone結(jié)構(gòu)和Neck結(jié)構(gòu)的連接處加入混合注意力機(jī)制CBAM(Convolutional Block Attention Module, CBAM)模塊;最后改進(jìn)網(wǎng)絡(luò)的Head部分,加入可對(duì)3個(gè)層次分別加以改進(jìn)的DYhead結(jié)構(gòu),以提升對(duì)于小目標(biāo)的檢測(cè)效果。改進(jìn)后的算法被命名為YOLOv7-hat,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
2.1 增加小目標(biāo)檢測(cè)層
YOLOv7-tiny有3個(gè)檢測(cè)頭,輸出檢測(cè)頭大小分別為80×80×255、40×40×255、20×20×255,其感受野由小變大。小的感受野可以識(shí)別小的目標(biāo),考慮到安全帽檢測(cè)圖像中關(guān)注的多為小目標(biāo),提升小目標(biāo)檢測(cè)能力可提升安全帽佩戴檢測(cè)效果。故在3個(gè)檢測(cè)頭的基礎(chǔ)上增加160×160×255的目標(biāo)檢測(cè)頭,如圖3所示,虛線部分為增加的檢測(cè)層,可以幫助模型更好地捕捉小目標(biāo)的特征,提高檢測(cè)精度。首先通過CBS模塊改變特征圖通道數(shù),使其從64通道轉(zhuǎn)換成32通道,之后通過上采樣模塊使特征圖像素值由80×80轉(zhuǎn)換為160×160。因小目標(biāo)的尺寸較小,在較淺的特征層中容易丟失細(xì)節(jié)信息,而較深的特征層可能包含更多抽象信息。因此可以在淺層特征和深層特征之間進(jìn)行融合,使模型能夠獲得更全面、更豐富的特征表達(dá)能力。這樣,模型能夠更好地捕捉小目標(biāo)的細(xì)節(jié)和特征,提高小目標(biāo)的檢測(cè)精度。將得到的特征圖和骨干網(wǎng)絡(luò)中的P2特征圖進(jìn)行融合,使其擁有特征提取信息的同時(shí)也擁有原始特征圖的信息。最后通過ELAN模塊提煉信息后經(jīng)過CBS層和卷積層變形得到最終的目標(biāo)檢測(cè)層,尺寸為160×160×255。小目標(biāo)檢測(cè)層網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
2.2 增加CBAM模塊
CBAM混合注意力機(jī)制在通道和空間維度上可提高網(wǎng)絡(luò)模型的特征表達(dá),進(jìn)而提高網(wǎng)絡(luò)模型在任務(wù)上的性能[20]。CBAM在通道維度和空間維度上都進(jìn)行了注意力的計(jì)算,使得模型能夠更加關(guān)注重要的特征信息,忽略不重要的特征,從而提高模型的泛化能力和表示能力。CBAM模塊結(jié)構(gòu)如圖4所示。
CBAM通過串聯(lián)方式先通過通道注意力機(jī)制進(jìn)行通道權(quán)重的計(jì)算并分配,之后通過空間注意力機(jī)制對(duì)特征圖中的空間部分進(jìn)行權(quán)重分配。用串行的方式設(shè)計(jì)CBAM,不僅能夠節(jié)約參數(shù)和計(jì)算力,并且保證了其能夠作為即插即用的模塊集成到現(xiàn)有的網(wǎng)絡(luò)架構(gòu)中。CBAM通道注意力機(jī)制的具體計(jì)算過程如圖5所示。
首先將輸入的特征圖F(H×W×C)分別經(jīng)過全局平均池化層(AvgPool)和全局最大池化層(MaxPool)得到2個(gè)1×1×C的特征圖,之后將得到的特征圖輸入到MLP中。MLP由兩層神經(jīng)網(wǎng)絡(luò)組成,第一層神經(jīng)元個(gè)數(shù)為C/r(r為衰減率),激活函數(shù)使用ReLU激活函數(shù),第二層神經(jīng)網(wǎng)絡(luò)神經(jīng)元個(gè)數(shù)為C。而后通過加和操作,借助Sigmoid激活函數(shù)生成最終結(jié)果Channel Attention Feature,即Mc。最后將原始輸入和Mc相乘得到對(duì)通道進(jìn)行注意力機(jī)制處理的最終結(jié)果。計(jì)算如式(1)所示:
(1)
式中:σ為Sigmoid函數(shù)。
空間注意力機(jī)制計(jì)算過程如圖6所示。
將通道注意力模塊輸出的F'特征圖作為空間注意力模塊所需處理的輸入特征圖。在通道上分別進(jìn)行全局最大池化和全局平均池化操作,得到沿通道維度拼接的H×W×2特征圖。之后通過7×7卷積操作降低通道維度,再經(jīng)過激活函數(shù)Sigmoid生成Spatial Attention Feature,即Ms。最后將該特征和該模塊的輸入特征相乘,得到最終生成的特征。計(jì)算如式(2)所示:
(2)
2.3 加入注意力機(jī)制的動(dòng)態(tài)檢測(cè)頭DYhead
在改進(jìn)的四檢測(cè)頭的YOLOv7網(wǎng)絡(luò)中雖提升了對(duì)小目標(biāo)檢測(cè)的能力,但還可通過改變不同維度權(quán)重配比來更好地提高其性能。動(dòng)態(tài)檢測(cè)頭通過在尺度感知的特征層、空間感知的空間位置以及任務(wù)感知的輸出通道內(nèi)連貫地結(jié)合多頭Self-Attention注意機(jī)制,提高了目標(biāo)檢測(cè)頭的表示能力。本文將有3個(gè)層次注意力機(jī)制的目標(biāo)檢測(cè)頭部署到Neck結(jié)構(gòu)后形成新的網(wǎng)絡(luò)結(jié)構(gòu)。DYhead[21]實(shí)現(xiàn)結(jié)構(gòu)如圖7所示。
給定特征張量F∈RL×S×C,通過式(3)來加載自注意力:
(3)
式中:W(F)為輸出特征張量。
將注意力功能轉(zhuǎn)換為3個(gè)層面的注意力,每個(gè)注意力只集中在1個(gè)視角上,計(jì)算如式(4)所示:
(4)
因檢測(cè)目標(biāo)具有不同尺度,因此對(duì)應(yīng)不同尺度大小的特征圖,改變不同level的表達(dá)能力來提高檢測(cè)器的尺度感知能力,其中l(wèi)evel是指Neck中不同層級(jí)的特征圖。
尺度感知注意力函數(shù)πL( )、任務(wù)感知注意力函數(shù)πS( )和空間感知注意力函數(shù)πC( )分別是應(yīng)用于維度L、S和C的3個(gè)
不同的注意力函數(shù),分別用式(5)、式(6)、式(7)來計(jì)算:
(5)
(6)
(7)
式中:f( )是由1×1卷積層近似的線性函數(shù);σ(x)=max(0, min(1, )),是Sigmoid函數(shù);K是稀疏采樣位置的數(shù)量;pj+Δpj是通過自學(xué)習(xí)空間偏移Δpj的移位位置;Δmj是位置pj處的自學(xué)習(xí)重要性標(biāo)量;FC是第C個(gè)通道的特征切片,用來學(xué)習(xí)控制激活閾值,其實(shí)現(xiàn)方式與Dynamic ReLU相同。上述注意力機(jī)制在模型中按順序?qū)崿F(xiàn),可以共同反復(fù)堆疊多次來構(gòu)成所需的DYhead模塊。
3 實(shí) 驗(yàn)
3.1 數(shù)據(jù)集及實(shí)驗(yàn)環(huán)境
本文從SHWD公開數(shù)據(jù)集中選取200張圖片進(jìn)行數(shù)據(jù)增強(qiáng),并替換原始圖片,補(bǔ)充了原數(shù)據(jù)集中缺乏的惡劣天氣等情況下的施工場(chǎng)景,使其更符合現(xiàn)實(shí)場(chǎng)景。該數(shù)據(jù)集中含7 581張圖片,針對(duì)實(shí)際場(chǎng)景(包括建筑工地和生產(chǎn)廠區(qū)等),采用了更具復(fù)雜性的圖片環(huán)境,相對(duì)于公共數(shù)據(jù)集,這些圖片呈現(xiàn)出更大的多樣性。數(shù)據(jù)集中訓(xùn)練集、驗(yàn)證集、測(cè)試集的比例為8∶1∶1。在數(shù)據(jù)集分類方面,我們將數(shù)據(jù)集分為2類,一類為佩戴安全帽的人員(標(biāo)簽為“hat”),另一類為未佩戴安全帽的人員(標(biāo)簽為“person”)。為提升模型訓(xùn)練效率,所有訓(xùn)練均使用GPU訓(xùn)練,實(shí)驗(yàn)所使用的操作系統(tǒng)為Windows 11,顯卡為擁有24 GB顯存的RTX3090,CPU為i9-12900k,采用PyTorch 1.10.0深度學(xué)習(xí)框架。
3.2 評(píng)價(jià)指標(biāo)
為評(píng)價(jià)本文改進(jìn)算法和YOLOv7-tiny的性能,采用目標(biāo)檢測(cè)中常用的綜合評(píng)價(jià)指標(biāo)平均精度均值(MAP)來評(píng)估方法的性能(IOU為0.5)。評(píng)價(jià)指標(biāo)如式(8)~式(11)所示:
(8)
(9)
(10)
(11)
式中:P為精確值,是評(píng)估預(yù)測(cè)準(zhǔn)確度的評(píng)估值;R為召回率,是預(yù)測(cè)召回?cái)?shù)量的評(píng)估值;TP為被模型預(yù)測(cè)為正類的正樣本;TN為被模型預(yù)測(cè)為負(fù)類的負(fù)樣本;FP為被模型預(yù)測(cè)為正類的負(fù)樣本;FN為被模型預(yù)測(cè)為負(fù)類的正樣本。本文模型在訓(xùn)練時(shí)均未使用初始權(quán)重,故可明確模型改進(jìn)的真實(shí)有效性,且所有改進(jìn)模型均在使用相同硬件設(shè)施及參數(shù)情況下對(duì)改進(jìn)前后模型進(jìn)行分析。網(wǎng)絡(luò)參數(shù)設(shè)置見表1。
3.3 消融實(shí)驗(yàn)
為驗(yàn)證各改進(jìn)模塊的有效性以及組合后的效果,開展了消融實(shí)驗(yàn),從而展現(xiàn)改進(jìn)前后對(duì)算法的影響。改進(jìn)依次為基礎(chǔ)模型、四檢測(cè)頭網(wǎng)絡(luò)模型、修改損失函數(shù),實(shí)驗(yàn)結(jié)果見表2。
由消融實(shí)驗(yàn)獲得的實(shí)驗(yàn)數(shù)據(jù)可直觀分析出,本文在進(jìn)行單個(gè)改進(jìn)實(shí)驗(yàn)時(shí)各項(xiàng)指標(biāo)對(duì)比原算法均有一定程度提升,驗(yàn)證了算法的可行性。在2~3組合改進(jìn)中,各項(xiàng)實(shí)驗(yàn)數(shù)據(jù)在以上2項(xiàng)指標(biāo)上都得到了提升。整體來看,3處改進(jìn)共同疊加得到的效果最好。由表3可知,相比于YOLOv7-tiny,本文算法的MAP提升了1.7個(gè)百分點(diǎn),召回率提升了3.7個(gè)百分點(diǎn),驗(yàn)證了改進(jìn)算法的優(yōu)越性。
3.4 對(duì)比試驗(yàn)
為驗(yàn)證本文算法的有效性,在改進(jìn)的SHAW數(shù)據(jù)集并保證硬件和各項(xiàng)指標(biāo)參數(shù)不變的情況下,將其與YOLOv7-tiny算法進(jìn)行預(yù)測(cè)結(jié)果對(duì)比,PR曲線結(jié)果如圖8、圖9所示。為體現(xiàn)科學(xué)性、嚴(yán)謹(jǐn)性,與主流算法進(jìn)行比較時(shí),所有對(duì)比實(shí)驗(yàn)均在同等硬件設(shè)備條件下對(duì)比。
比較圖8和圖9中的數(shù)據(jù)可以看出,改進(jìn)后的YOLOv7-hat算法MAP值由0.932提升到0.950;安全帽檢測(cè)AP值從0.926提升到0.946;未佩戴安全帽的人物檢測(cè)AP值從0.939提升到0.954,所有指標(biāo)均有所提升。
根據(jù)表3的對(duì)比結(jié)果可知,改進(jìn)之后算法的MAP值能夠達(dá)到0.95,相對(duì)于其他主流YOLO系列檢測(cè)算法,改進(jìn)算法在檢測(cè)精度和召回率方面均有所提高。對(duì)比當(dāng)前常用的YOLOv5s和最新的YOLOv8n算法,本文算法依舊表現(xiàn)出其優(yōu)越性,通過數(shù)據(jù)可知,改進(jìn)方法獲得了良好的檢測(cè)性能。為能夠更加直接了解改進(jìn)前后算法的檢測(cè)效果,本文將改進(jìn)后的YOLOv7-tiny與相關(guān)算法進(jìn)行了比較。
圖10為小目標(biāo)檢測(cè)場(chǎng)景,其中YOLOv7-hat所有目標(biāo)均檢測(cè)成功,YOLOv7-tiny中間位置目標(biāo)漏檢,YOLOv4左上方目標(biāo)檢測(cè)錯(cuò)誤,YOLOv5s左上方目標(biāo)漏檢,YOLOv8n左上方及中間部位目標(biāo)漏檢。
圖11為小目標(biāo)遮擋檢測(cè)場(chǎng)景,其中YOLOv7-hat所有目標(biāo)均檢測(cè)成功,YOLOv7-tiny右側(cè)第二個(gè)遮擋目標(biāo)漏檢,YOLOv4目標(biāo)均檢測(cè)成功但照片前方2個(gè)目標(biāo)檢測(cè)框位置有明顯偏差,檢測(cè)效果不理想,YOLOv5s右側(cè)第二遮擋目標(biāo)漏檢,YOLOv8n右側(cè)第二遮擋目標(biāo)漏檢。
圖12為小目標(biāo)重疊檢測(cè)場(chǎng)景,其中YOLOv7-hat所有目標(biāo)均檢測(cè)成功,YOLOv7-tiny左側(cè)第三、第四重疊目標(biāo)識(shí)別錯(cuò)誤,右側(cè)第一個(gè)目標(biāo)漏檢,YOLOv4左側(cè)第三、第四重疊目標(biāo)識(shí)別錯(cuò)誤,YOLOv5s左側(cè)第三、第四重疊目標(biāo)識(shí)別錯(cuò)誤,右側(cè)第一個(gè)目標(biāo)漏檢,YOLOv8n左側(cè)第三、第四重疊目標(biāo)識(shí)別錯(cuò)誤,右側(cè)第一個(gè)目標(biāo)漏檢。
圖13為深景小目標(biāo)檢測(cè)場(chǎng)景,其中YOLOv7-hat所有目標(biāo)均檢測(cè)成功,YOLOv7-tiny左側(cè)目標(biāo)漏檢,YOLOv4所有目標(biāo)均檢測(cè)成功,但檢測(cè)結(jié)果的置信度明顯低于YOLOv7-hat,YOLOv5s將2個(gè)圖片背景預(yù)測(cè)為hat標(biāo)簽,存在誤檢現(xiàn)象,YOLOv8n左側(cè)目標(biāo)漏檢。故對(duì)比各圖可以看出,改進(jìn)后的算法YOLOv7-hat檢測(cè)效果更好。
4 結(jié) 語
針對(duì)現(xiàn)有目標(biāo)檢測(cè)算法對(duì)密集型小目標(biāo)、遮擋目標(biāo)、重疊小目標(biāo)檢測(cè)效果不佳的情況,提出一種基于YOLOv7-tiny算法的改進(jìn)YOLOv7-hat檢測(cè)算法。通過加入感受野更小的小目標(biāo)檢測(cè)層改進(jìn)了網(wǎng)絡(luò)結(jié)構(gòu),提升了網(wǎng)絡(luò)模型對(duì)像素占用較少的小目標(biāo)的檢測(cè)能力。改進(jìn)網(wǎng)絡(luò)的Neck結(jié)構(gòu)并加入CBAM注意力機(jī)制,以提升網(wǎng)絡(luò)對(duì)通道維度和空間維度上重要信息的關(guān)注程度,從而提升網(wǎng)絡(luò)的檢測(cè)能力。結(jié)合2個(gè)DYhead模塊改進(jìn)檢測(cè)頭部分,融合目標(biāo)檢測(cè)頭的尺度注意力、空間注意力、任務(wù)注意力,使模型輸出特征圖的重點(diǎn)信息更為突出,從而實(shí)現(xiàn)性能的提升。
本文提出的YOLOv7-hat相較其他主流目標(biāo)檢測(cè)模型具有優(yōu)越性,但在改進(jìn)的同時(shí)也相應(yīng)地增加了網(wǎng)絡(luò)的復(fù)雜性,未來將進(jìn)一步研究如何壓縮網(wǎng)絡(luò)的參數(shù)量,以便網(wǎng)絡(luò)模型可更便捷地部署到實(shí)際場(chǎng)景之中。
注:本文通訊作者為王智文、白云。
參考文獻(xiàn)
[1] KURIEN M, KIM M K, KOPSIDA M, et al. Real-time simulation of construction workers using combined human body and hand tracking for robotic construction worker system [J]. Automation in construction, 2017, 11.
[2]郝忠,魏延曉. 448例建筑施工工傷事故的標(biāo)準(zhǔn)統(tǒng)計(jì)特征分析[J].中國(guó)標(biāo)準(zhǔn)化,2017(2):245-247.
[3]馬舒琪,蔡嗣經(jīng),時(shí)訓(xùn)先.沖擊載荷作用下工業(yè)安全帽防護(hù)性能研究[J].中國(guó)安全科學(xué)學(xué)報(bào),2014,24(10):133-137.
[4] RACHEL R, ELIZABETH K, NAOMI E. The formative evaluation and pre-testing of a sunsmart policy implementation support toolkit targeting sun safe hat-wearing in NSW primary schools [J]. Health promotion journal of Australia: official journal of Australian association of health promotion professionals, 2023.
[5] LIU W, ANGUEIOV D, ERHAN D, et al. SSD: single shot multibok detector [C]// Proceedings of the European Conference on Computer Vision, Netherlands: [s.n.], 2016: 21-37.
[6] LIN T Y, GOYAL P, GIRSHICK, et al. Focal loss for dense object detection [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 2999-3007.
[7] REDOM J, DIVALA S, GIRSHICK R, et al. You only look once: unified, real-time object [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 779-788.
[8] REDOM J, FARHADI A. YOLO9000: better, faster, stronger [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017: 7263-7271.
[9] REDMON J, FARHADI A. Yolov3: An incremental improvement [J]. arXiv preprint arXiv: 1804.02767, 2018.
[10] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Scaled-YOLOv4: Scaling cross stage partial network [C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA: IEEE, 2021: 13024-13033.
[11] GIRSHICK R, DONA J, DARRLELL T, et al. Rich feature hierarchies for object detection and segmentation [C]// Proceedings of the 2014 IEEE Transactions on Pattern Analysis and Machine Intelligence. Columbus, OH, USA: IEEE, 2014:"580-587.
[12] GIRSHICK R. Fast R-CNN [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 1440-1448.
[13] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine information intelligence, 2017, 39(6): 1137-1149.
[14] FANG Q, LI H, LUO X, et al. Detecting non-hardhat-use by a deep learning method from farfield surveillance videos [J]. Automation in construction, 2018, 85: 1-9.
[15]馬小陸,王明明,王兵. YOLOv3在安全帽佩戴檢測(cè)中的應(yīng)用研究[J].河北工程大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,37(4):78-86.
[16]葛青青,張智杰,袁瓏,等.融合環(huán)境特征與改進(jìn)YOLOv4的安全帽佩戴檢測(cè)[J].中國(guó)圖象圖形學(xué)報(bào),2021,26(12):2904-2917.
[17]趙睿,劉輝,劉沛霖,等.基于改進(jìn)YOLOv5s的安全帽檢測(cè)算法[J].北京航空航天大學(xué)學(xué)報(bào),2023,49(8):2050-2061.
[18] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver, BC, Canada: IEEE, 2023: 7464-7475.
[19] GE Z, LIU S, WANG F, et al. Yolox: Exceeding yolo series in 2021 [J]. arXiv preprint arXiv: 2107.08430, 2021.
[20] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). [S.l.]: [s.n.], 2018: 3-19.
[21] DAI X, CHEN Y, XIAO B, et al. Dynamic head: Unifying object detection heads with attentions [C]// Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. Nashville, TN, USA: IEEE, 2021: 7373-7382.
基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61962007);國(guó)家自然科學(xué)基金資助項(xiàng)目(62266009);廣西自然科學(xué)基金重點(diǎn)項(xiàng)目(2018GXNSFDA294001);廣西財(cái)經(jīng)大數(shù)據(jù)重點(diǎn)實(shí)驗(yàn)室開放基金項(xiàng)目資助(FEDOP2022A06);廣西高校中青年教師科研基礎(chǔ)能力提升項(xiàng)目(2022KY1697);廣西高校中青年教師科研基礎(chǔ)能力提升項(xiàng)目教育信息化專項(xiàng)(2022XXH0019)
作者簡(jiǎn)介:郭 鑫(1996—),男,在讀碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。
王智文(1969—),男,博士,教授,研究方向?yàn)槟J阶R(shí)別、圖像處理和人類行為識(shí)別。
白 云(1985—),男,碩士,高級(jí)工程師,研究方向?yàn)橛?jì)算機(jī)視覺、虛擬機(jī)優(yōu)化。
趙文志(1998—),男,在讀碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。
物聯(lián)網(wǎng)技術(shù)2024年12期