999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于坐標注意力和軟化非極大值抑制的密集安全帽檢測

2025-01-17 00:00:00尹向雷蘇妮解永芳屈少鵬
現代電子技術 2025年2期

摘 要: 為解決現有的安全帽檢測算法對密集小目標的檢測精度低的問題,提出一種基于坐標注意力和軟化非極大值抑制的安全帽檢測算法。引入坐標注意力機制,聚焦訓練安全帽相關目標特征以提高準確率。采用軟化非極大值抑制算法對候選框的置信度進行優化,提升模型對密集小目標的檢測精度。通過WIoU優化邊界框損失函數,使得模型聚焦于困難樣例而減少簡單示例對損失值的貢獻,提升模型的泛化性能。實驗結果表明:與基準模型YOLOv5s相比,所提算法的mAP@0.5達到88.4%,提升了3.0%;mAP@0.5:0.95達到65.6%,提升了6.8%;在召回率和準確率上分別提升了2.4%和0.5%。所提算法為密集小目標的檢測提供了一定參考。

關鍵詞: 安全帽檢測; 坐標注意力機制; 軟化非極大值抑制; YOLOv5s; WIoU; 邊界框損失函數

中圖分類號: TN911.23?34; TP391.4" " " " " " "文獻標識碼: A" " " " " " " " " " " 文章編號: 1004?373X(2025)02?0153?09

Dense safety helmet detection based on coordinate attention and soft NMS

YIN Xianglei, SU Ni, XIE Yongfang, QU Shaopeng

(Faculty of Electrical Engineering, Shaanxi University of Technology, Hanzhong 723000, China)

Abstract: In order to solve the problem of low detection accuracy of dense small targets in existing helmet detection algorithms, a safety helmet detection algorithm based on coordinate attention and soft non?maximum suppression (NMS) is proposed. A coordinate attention mechanism is introduced to improve accuracy by focusing on target features associated with the training safety helmet. The softened non?maximum suppression algorithm is used to optimize the confidence of the candidate box, so as to increase the detection precision of the model for dense small targets. The WIoU is used to optimize the bounding box loss function, which can make the model focus on difficult examples and reduce the contribution of simple examples to the loss value, improving the generalization performance of the model. The experimental results indicate that, in comparison with the standard YOLOv5s, the mAP@0.5 of the proposed algorithm is 88.4%, which is increased by 3.0%, the mAP@0.5:0.95 is 65.6%, which is increased by 6.8%, and the recall rate and accuracy are increased by 2.4% and 0.5%, respectively, which can provide a certain reference for the detection of dense small targets.

Keywords: safety helmet detection; coordinate attention mechanism; Soft non?maximum suppression; YOLOv5s; WIoU; bounding box loss function

0" 引" 言

在電力行業發展的早期,大部分電力工人發生的事故與電力線路檢修有關,導致他們傷亡的因素通常與缺乏經驗、使用非標準化設備和工具以及自身的不安全行為有關[1]。在許多事件中證明,若電力工人佩戴安全帽,能有效防止觸電,避免事故發生[2]。但傳統的人工監管方式不僅費時費力,而且容易造成疏漏,特別是在密集場景下,如圖1所示,小目標繁多、易互相遮擋,目標可能出現在圖像任何位置且尺寸動態變化,這都為目標檢測帶來了極大的挑戰[3]。

在密集小目標檢測算法的研究中,文獻[4]利用Hu矩提取有效特征,但其只能在特定場景中實現檢測。文獻[5]利用原霍夫變換提取特征,但檢測速度較慢。文獻[6]在YOLOv5s的基礎上引入雙層路由注意力機制,解決小目標特征信息丟失的問題,但是由于計算量和參數量大幅增加,導致速度下降。文獻[7]將深度可分離卷積和ECA注意力機制結合,有效降低了模型參數量,但是精度提升并不明顯。

針對密集安全帽的檢測,文獻[8]將特征金字塔和多尺度感知模塊結合,提出一種基于SSD的檢測方法來提高安全帽檢測的精度,但是該算法對小尺度目標的識別精度較低,在密集場景下不能達到很好的識別效果。文獻[9]是在YOLOv3的基礎上進行改進,通過對K?means算法進行優化來提升算法的檢測精度,但其會導致重復聚類或缺少聚類。文獻[10]在YOLOv4網絡上添加注意力,提升了安全帽檢測精度,但該算法沒有針對復雜場景進行分析,泛化能力不足。文獻[11]提出了基于YOLOv5s的安全帽檢測算法,通過引入SE注意力模塊和DenseBlock模塊有效應對復雜的密集場景,但數據集目標單一。文獻[12]以CenterNet為基準,對模型的損失函數進行了改進,以提高安全帽檢測的精度。文獻[13]在Faster?RCNN的基礎上引入了注意力機制,解決了不同場景下安全帽的檢測問題,但是檢測速率較低。即便現階段有許多學者利用改進的YOLO算法對安全帽進行檢測,但是監控視頻的特殊性導致工人在視頻中多為小目標和密集目標。而YOLOv5作為單階段代表算法之一,對于小目標和密集目標檢測的精度不高[14],所以亟需提出一種安全帽檢測算法來解決上述問題。

本文以YOLOv5算法作為基準模型進行改進,提出一種基于坐標注意力和軟化非極大值抑制(Soft?NMS)的算法。首先,針對特征提取不充分的問題,在YOLOv5s中加入坐標注意力機制來增強特征間的信息傳播;其次,針對目標密集時算法會將正確的預測框誤刪的問題,使用軟化非極大值抑制算法對候選框進行優化,改善漏檢情況;最后針對難易樣本的分類不均衡問題,使用WIoU[15]優化邊界框損失函數,提高檢測精度。

1" 基準算法網絡結構

YOLOv5算法是一種輕量級模型,它采用depth_multiple和width_multiple兩個參數來控制YOLOv5x、YOLOv5l、YOLOv5m、YOLOv5s等結構。為了兼顧速度和精度,本研究采用YOLOv5s作為基準模型,其網絡結構圖如圖2所示,主要由輸入端、Backbone、Neck和Head組成。其中Backbone負責特征提取;Neck負責多尺度特征融合,從而實現更好的預測;Head設計了3個不同尺寸的檢測層,分別用于預測大、中、小目標的類別和邊界框回歸,具體的網絡結構可參考文獻[16]。

2" 本文算法設計

2.1" 算法框架

本文在YOLOv5s的基礎上提出了改進網絡。首先,由于現場環境復雜,在進行安全帽檢測時很容易受背景干擾,所以引入注意力機制。為了克服通道注意力機制的局限性,以及解決2D全局池化會導致部分特征丟失的問題,引入坐標注意力(Coordinate Attention, CA)機制。CA機制可以同時捕獲多通道信息,也可以捕獲來自不同方向、位置等的相關信息,從而使得模型更有效地識別感興趣的物體,減少干擾因素的影響,進而極大地提升檢測精度。

其次,鑒于傳統的單階段目標檢測算法可能會產生多個重復的檢測框,為了減少這些檢測框的數量,YOLO模型采用非極大值抑制(Non?Maximum Suppression, NMS)算法。NMS算法通過給檢測框打分并比較得分選擇分數最高的檢測框M,然后刪除其他框,因此針對目標密集的情況,YOLOv5s算法可能會誤刪正確的檢測框造成漏檢。本文使用Soft?NMS算法代替NMS算法,它是NMS的改進方法,對重疊檢測框設置低分權重,而不是直接進行刪除。

最后,YOLOv5采用CIoU Loss來進行邊界框回歸,這可能導致收斂速度慢、不穩定等現象,而且還未考慮難易樣本的不平衡問題。因此直接采用CIoU Loss檢測效果并不理想。本文使用WIoU Loss代替CIoU Loss,WIoU使用動態非單調聚焦機制,可以使模型聚焦于困難樣例而減少簡單示例對損失值的貢獻,從而增強泛化性能。

綜合以上三個改進關鍵點,將改進后的網絡命名為CSW?YOLO(CA+Soft?NMS+WIoU),改進后的模型結構如圖3所示,虛線框內即為引入的CA模塊。

2.2" 坐標注意力機制

在深度學習中,添加注意力機制可以使模型更好地學習目標物體的特征信息,忽略不相關的信息。本文受文獻[17]的啟發,選擇添加坐標注意力(CA)機制以提升安全帽的檢測精度。

首先,坐標注意力使用池化核Xc把大小為c×h×w的特征圖按照兩個不同的方向進行池化,然后生成在高度和寬度上的兩個特征映射zh和zw,公式為:

[zhc(h)=1W0≤i≤Wxc(h,i)]" "(1)

[zwc(w)=1H0≤j≤Hxc(j,w)]" (2)

通過使用1×1的卷積核降維,將兩個不同方向的特征圖組合在一起,并使用Sigmoid激活函數最終得到特征圖f,計算公式如下:

[f=δF1zh,zw] (3)

然后使用1×1的卷積核對f進行卷積,得到特征圖Fh和Fw,再經過Sigmoid激活函數得到注意力權重gh和gw,公式如下:

[gh=σ(Fh(fh))," gw=σ(Fw(fw))] (4)

最后可以得到CA機制的輸出公式為:

[yc(i,j)=xc(i,j)×ghc(i)×gwc(j)] (5)

坐標注意力機制結構如圖4所示。

為了更好地提取特征,一般將CA機制添加在特征提取層。在Backbone中加入CA層有兩種方法:

1) 采用注意力機制結合Bottleneck替換Backbone中的所有C3模塊;

2) 在SPPF層前單獨加入注意力模塊。

經過測試,第一種方法精度較高,所以本文選擇用CA替換Backbone中的所有C3模塊。

2.3" 軟化非極大值抑制

在本文檢測任務中,待檢測圖像多為目標重疊、密集的情況,此時使用傳統的NMS算法會造成漏檢,影響檢測效果,所以本文使用改進算法Soft?NMS來提升對密集場景下的檢測性能。

NMS算法是一種通過鄰近最大值挑選檢測框的算法,它的重置函數如下:

[Si=Si," IoU(M,bi)lt;Nt0," "IoU(M,bi)≥Nt]" "(6)

式中:[Si]表示檢測框分數;[IoU(M,bi)]為真實框和檢測框的交并比函數;Nt表示設定的閾值。

Soft?NMS算法是在不增加參數的情況下對NMS算法進行簡單改進,它引入了遞減置信度的懲罰因子,懲罰因子根據目標框與其他目標框的重疊度進行計算,通過逐漸減小目標框的置信度來逐步削弱重疊框的競爭力。

Soft?NMS算法的重置函數如下:

[Si=Si," " " " " " " " " " " " " " " " "IoU(M,bi)lt;NtSi(1-IoU(M,bi))," IoU(M,bi)≥Nt]" (7)

當檢測框出現重疊且超出預設的閾值時,重疊檢測框的分數會呈線性衰減,而且隨著M的增加,衰減幅度也會變大。因此使用Soft?NMS算法對候選框的置信度進行優化,可以減少對密集目標的漏檢情況。

2.4" WIoU損失函數

YOLOv5s基準算法使用CIoU作為邊界框損失函數,但CIoU中引入的長寬比加劇了對低質量樣例的懲罰,從而降低了模型的泛化能力[18]。所以本文選擇WIoU作為模型的損失函數,其表達式為:

[LIoU=1-IoU]" (8)

[LWIoUv1=RWIoULIoU]" "(9)

[LWIoUv3=rLWIoUv1," r=βδαβ-δ] (10)

式中:IoU為預測框與真實框的交并比;LIoU為IoU損失;RWIoU為懲罰項;r是動態非聚焦機制系數;β為描述錨框質量的離群度,數值越小意味著錨框質量越高;α、δ為學習參數。其中RWIoU和β的具體表達式為:

[RWIoU=exp(x-xgt)2+(y-ygt)2(W2g+H2g)*]" (11)

[β=L*IoULIoU∈0,+∞]" "(12)

式中:(x,y)、(xgt,ygt)分別為錨框和目標框的中心坐標;Wg和Hg分別為最小包圍框的寬度和高度;[LIoU]為動量M的滑動平均值,其動態地更新使整體β保持較高水平。由于[LIoU]是動態更新的,錨框的質量劃分標準也隨之動態調整,使得WIoU能夠在訓練過程中靈活調整梯度增益分配策略,最終提升精度。

3" 實驗與分析

3.1" 數據集

SHWD(Safety Helmet Wearing?Dataset)[19]是常見的安全帽公開數據集,但其中的一些圖像來自教室監控拍攝,這部分負樣本與本文的檢測環境不一致,所以文中采用自主收集的方法。首先從SHWD中挑選出與電廠環境一致的圖像,然后利用實際拍攝和網絡爬蟲技術收集相關的安全帽圖像。為了保證自建數據集的有效性,在收集圖像時需滿足兩個原則:一是數據集中圖像應具有多樣性;二是采集的規模不能太小。最終構建了一個存有3 230張圖像的安全帽數據集,其中包含三種不同大小的目標,包括大尺度目標、中尺度目標、小尺度目標和密集目標,共計15 822個,尺度分布如圖5所示。其中佩戴安全帽和未佩戴安全帽的小目標分別達到5 721個和2 233個。按照8∶1∶1的比例劃分為訓練集、測試集與驗證集,其中訓練集為2 584張,測試集為323張,驗證集為323張。使用LabelImg軟件對自建數據集進行標注,一共有兩個標注類別,分別是hat(佩戴安全帽)和person(未佩戴安全帽)。

3.2" 實驗環境與參數設置

本文實驗的epoch為500,batch size為32,初始化學習率為0.01,權重衰減為0.000 5,動量參數為0.937,預熱學習率的epoch為3,最終通過余弦退火更新學習率。具體的實驗環境配置如表1所示。

3.3" 實驗評價指標

為了評估模型的性能,本文以精確率(Precision, P)、召回率(Recall, R)、平均精度均值(mAP)、模型大小(Model size)、參數量(Params)、計算量(GFLOPs)以及幀率(FPS)作為評估指標。

精確率和召回率的公式為:

[P=TPTP+FP] (13)

[R=TPTP+FN]" (14)

式中:TP為真正例;FP為假正例;FN為假負例。

平均精確率(AP)和平均精度均值(mAP)公式為:

[AP=01P(R)dR]" (15)

[mAP=1Ni=1NAPi]" "(16)

式中N表示檢測目標類別數量,本文共有兩種類別,即N=2。

另外,模型的參數量是衡量其性能的重要因素,因為它決定了該模型在運行時所占用的內存;計算量則反映了模型的復雜程度;FPS代表模型每秒可以檢測多少張圖像,反映了模型的檢測速度。

3.4" 注意力機制對比實驗

為了驗證添加坐標注意力(CA)機制的改進效果,設計4組實驗,同時比較在YOLOv5s中插入SE模塊、ECA模塊對YOLOv5s模型的影響,從mAP、模型大小、參數量和計算量四方面進行對比,實驗結果如表2所示。

由表2可以看出:在模型大小和計算量不變、參數量微增的情況下,YOLOv5s+CA的mAP@0.5達到了86.4%,相對于加入SE模塊、ECA模塊的mAP@0.5分別提升了0.2%和0.6%;mAP@0.5:0.95也達到了最高的60.4%,相對于加入SE模塊、ECA模塊的mAP@0.5:0.95也分別提升了0.2%和0.8%。由圖6注意力機制對比結果可見,與基準算法相比,改進后YOLOv5s+CA模型的mAP@0.5為86.4%,提高了1.0%,因此引入CA模塊能夠有效提高檢測準確率。

3.5" 損失函數對比實驗

為了驗證損失函數的改進效果,設計3組對比實驗,用WIoU、EIoU分別替換YOLOv5s原來的損失函數CIoU,然后從mAP、模型大小和損失值三方面進行對比,實驗結果如表3所示。

由表3可以看出:在模型減小0.1 MB的情況下,YOLOv5s+WIoU的mAP@0.5達到了86.3%,相比于YOLOv5s+CIoU和YOLOv5s+EIoU的mAP@0.5均提升了0.9%;mAP@0.5:0.95也達到了最高的60.4%,相比于YOLOv5s+CIoU和YOLOv5s+EIoU的mAP@0.5:0.95也分別提升了1.6%和1.0%;YOLOv5s+WIoU的損失值達到了最低,為1.27%,相比于YOLOv5s+CIoU和YOLOv5s+EIoU的損失值分別減少了0.2%和0.12%。

由圖7不同損失函數實驗對比結果可見,相比于YOLOv5s+CIoU和YOLOv5s+EIoU的模型損失值,使用WIoU Loss的損失值是最低的,達到了1.27%,說明使用WIoU Loss對模型的性能有一定提升。

3.6nbsp; 改進算法與基準算法的對比實驗

為了驗證算法改進后的提升效果,將改進后的YOLOv5s模型和基準模型在相同的實驗環境下進行訓練,mAP@0.5、mAP@0.5:0.95、召回率和精確率的對比曲線如圖8所示。

由圖8a)和圖8b)可知:改進YOLOv5s模型的mAP@0.5達到88.4%,優于基準模型的85.4%,提高了3.0%;改進YOLOv5s模型的mAP@0.5:0.95達到65.6%,也優于基準模型的58.8%,提高了6.8%。由圖8c)可知,基準模型的召回率為79.4%,而改進YOLOv5s模型的召回率為81.8%,提升了2.4%;由圖8d)可知,基準模型的精確率為94.4%,而改進YOLOv5s模型的召回率為94.9%,提升了0.5%,可知模型訓練過程中比較理想,不存在過擬合情況。

3.7" 消融實驗

為了探究各個改進模塊的提升效果,進行了消融實驗,從mAP、模型大小和計算量3個指標進行對比,實驗結果見表4。模型1為基準模型;模型2是在模型1的基礎上引入Soft?NMS算法;模型3是在模型2的基礎上添加CA機制;模型4是在模型2的基礎上使用WIoU Loss;模型5是在模型1的基礎上引入Soft?NMS算法、添加CA機制及使用WIoU Loss。

由表4可以看出,初始YOLOv5s的模型大小為14.5 MB,計算量為15.8 GFLOPs,mAP@0.5為85.4%,mAP@0.5:0.95為58.8%。使用Soft?NMS算法以后,模型大小和計算量不變,mAP@0.5為87.1%,提升了1.7%,mAP@0.5:0.95為64.6%,提升了5.8%,可以看出Soft?NMS算法能改善原本算法會將部分正確的檢測框誤刪造成的漏檢情況。

引入CA模塊以后,模型大小為13.3 MB,相比基準模型減少了1.2 MB,計算量為14.0 GFLOPs,減少了11.4%,mAP@0.5為88.1%,提升了2.7%,mAP@0.5:0.95為64.8%,提升了6.0%,可以看出引入CA機制能夠聚焦關鍵特征,提升精度。使用WIoU損失函數以后,模型大小為13.2 MB,相比基準模型減少了1.3 MB,計算量為14.0 GFLOP s,mAP@0.5為88.4%,提升了3.0%,mAP@0.5:0.95為65.6%,提升了6.8%,可以看出使用WIoU損失函數能夠降低簡單示例對損失值的貢獻,提升精度。

圖9為5種模型的訓練結果。從圖中可以看出,與基準模型相比,其他4種模型的mAP@0.5都有所提高,特別是模型5即本文改進算法的mAP@0.5最高,達到了88.4%,提升了3.0%,具有良好表現。

3.8" 不同算法對比實驗

為驗證算法有效性,將本文算法與其他單階段算法YOLOv5s、SSD及兩階段典型算法Faster?RCNN從mAP@0.5、mAP@0.5:0.95、模型大小、參數量、計算量、FPS等方面進行對比,對比結果見表5。

從表5可以看出,相對于Faster?RCNN和SSD來說,YOLOv5s模型是輕量級的網絡模型,本文的CSW?YOLO模型大小比YOLOv5s降低了8.97%,計算量比YOLOv5s降低了11.39%,參數量比YOLOv5s降低了8.55%的情況下,mAP@0.5提高了3.0%,達到了88.4%,mAP@0.5:0.95提高了6.8%,達到了65.6%。同時,改進YOLOv5算法的FPS相對下降,但也達到106.3 f/s,能夠滿足實時檢測的需求。

3.9" 定性對比實驗

為了更好地驗證CSW?YOLO模型的檢測性能,對YOLOv5s算法和CSW?YOLO算法做了定性檢測對比。在測試集中選取部分圖像進行測試,圖10為檢測結果對比圖。圖10a)是對密集目標的檢測,其中左圖存在誤檢,將手誤認為安全帽;右圖則表明檢測結果正常,而且精度也比左圖更高;而YOLOv5s識別效果不佳,有一個人佩戴安全帽沒有檢出。圖10b)為對遠距離小目標的檢測,其中右圖能準確檢測出遠處的小目標而不像左圖那樣漏檢,且精度高于左圖。可以看出,本文改進算法CSW?YOLO在處理小目標和密集目標時,比YOLOv5s更加準確、高效,它能夠有效避免漏檢和誤檢的情況,從而表現出卓越的性能。綜上,本文算法能夠在保證速度損失不大的前提下提高檢測準確性,同時減少誤檢和漏檢。

4" 結" 論

本文針對現有安全帽檢測模型對小目標、密集目標表現不佳的問題,以YOLOv5模型為基準,設計了一種改進算法CSW?YOLO。在YOLOv5中添加坐標注意力機制,解決模型對關鍵特征提取不充分的問題;同時引入Soft?NMS算法,解決非極大值抑制算法會將正確的預測框誤刪的問題,改善漏檢情況;最后選擇WIoU Loss作為模型的損失函數,解決難易樣本的分類不平衡問題,提升模型的泛化能力。改進后算法的mAP@0.5從85.4%提升到88.4%,mAP@0.5:0.95從58.8%提升到65.6%,召回率從79.4%提高到81.8%,準確率從94.4%提高到94.9%。且浮點運算數由15.8 GFLOPs降為14.0 GFLOPs,模型大小由14.5 MB降為13.2 MB,參數量由7.02×106降為6.42×106;同時,改進后算法的FPS雖然從122.0 f/s下降到106.3 f/s,但仍高于Faster?RCNN的26.2 f/s和SSD的72.3 f/s,能滿足實時檢測要求。盡管本文算法有所改進,但仍存在不足之處,如模型訓練受數據集的數量和多樣性影響,數據集還不夠豐富,下一步將收集更多不同尺度、背景的安全帽數據集,提升模型的泛化能力;引入坐標注意力模塊使改進后的算法速度有所下降,并對可移動設備的檢測速度進行優化,以達到輕量化的目的。

參考文獻

[1] 楊樂,郭一鳴,霍勇博,等.改進YOLOv5在電力生產違規穿戴檢測中的應用[J].電力系統保護與控制,2023,51(14):160?168.

[2] 白培瑞,王瑞,劉慶一,等.DS?YOLOv5:一種實時的安全帽佩戴檢測與識別模型[J].工程科學學報,2023,45(12):2108?2117.

[3] 韓錕棟,張濤,彭玻,等.基于改進YOLOv5的安全帽檢測算法[J].現代電子技術,2024,47(5):85?92.

[4] 劉曉慧,葉西寧.膚色檢測和Hu矩在安全帽識別中的應用[J]. 華東理工大學學報(自然科學版),2014,40(3):365?370.

[5] RUBAIYA A,TOMA T T, KAlANTARI?KHANDANI M, et al. Automatic detection of helmet uses for construction safety [C]// 2016 IEEE/WIC/ACM International Conference on Web Intelligence Workshops (WIW). Omaha, NE, USA: IEEE, 2016: 135?142.

[6] 吳明杰,云利軍,陳載清,等.改進YOLOv5s的無人機視角下小目標檢測算法[J].計算機工程與應用,2024,60(2):191?199.

[7] 華澤璽,施會斌,羅彥,等.基于輕量級YOLO?v4模型的變電站數字儀表檢測識別[J].西南交通大學學報,2024,59(1):70?80.

[8] HAN G, ZHU M, ZHAO X, et al. Method based on the cross?layer attention mechanism and multiscale perception for safety helmet?wearing detection [J]. Computers and electrical engineering, 2021, 95: 107458.

[9] 李振華,張雷.改進YOLOv3的安全帽佩戴檢測方法[J].國外電子測量技術,2022,41(12):148?155.

[10] 張震,李浩方,李孟洲,等.改進YOLOv4的安全帽佩戴檢測方法[J].計算機應用與軟件,2023,40(2):206?211.

[11] 趙睿,劉輝,劉沛霖,等.基于改進YOLOv5s的安全帽檢測算法[J].北京航空航天大學學報,2023,49(8):2050?2061.

[12] 王海瑞,趙江河,吳蕾,等.針對CenterNet缺點的安全帽檢測算法改進[J].湖南大學學報(自然科學版),2023,50(8):125?133.

[13] 孫國棟,李超,張航.融合自注意力機制的安全帽佩戴檢測方法[J].計算機工程與應用,2022,58(20):300?304.

[14] 侯公羽,陳欽煌,楊振華,等.基于改進YOLOv5的安全帽檢測算法[J].工程科學學報,2024,46(2):329?342.

[15] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2022?02?07]. https://arxiv.org/abs/2301.10051.pdfarXivpreprint.

[16] 劉昶成,邵文權,李玲陶.基于改進YOLOv5s的電力作業人員安全帽檢測算法研究[J].國外電子測量技術,2024,43(2):34?42.

[17] 韓俊,袁小平,王準,等.基于YOLOv5s的無人機密集小目標檢測算法[J].浙江大學學報(工學版),2023,57(6):1224?1233.

[18] ZHANG Y F, REN W Q, ZHANG Z, et al. Focal and efficient IOU loss for accurate bounding box regression [J]. Neurocomputing, 2022, 506: 146?157.

[19] PENG D Z, SUN Z K, CHEN Z R, et al. Detecting heads using feature refine net and cascaded multi?scale architecture [C]// Proceedings of the 2018 24th International Conference on Pattern Recognition. Beijing: IEEE, 2018: 2528?2533.

主站蜘蛛池模板: 国产91小视频| 日日拍夜夜操| 亚洲欧洲国产成人综合不卡| 国产毛片高清一级国语 | 国产精品私拍在线爆乳| 国产主播在线观看| 91极品美女高潮叫床在线观看| 54pao国产成人免费视频| 欧美高清三区| 国产青榴视频| 网久久综合| 国产另类视频| 亚洲一区二区三区国产精华液| 亚洲精品爱草草视频在线| 欧美在线一二区| 2021精品国产自在现线看| 国产成人综合亚洲网址| 亚洲狠狠婷婷综合久久久久| 最新无码专区超级碰碰碰| 四虎影视8848永久精品| 亚洲欧美一级一级a| 18禁黄无遮挡免费动漫网站 | 国产精品成人观看视频国产 | 成人综合在线观看| 日韩av无码DVD| 日韩区欧美国产区在线观看| 久久免费视频6| 亚国产欧美在线人成| 国产极品美女在线观看| 日韩欧美视频第一区在线观看 | 免费一级毛片完整版在线看| 婷五月综合| 日韩欧美中文在线| 一级毛片高清| 2021国产v亚洲v天堂无码| 国产精品乱偷免费视频| 午夜a级毛片| 日韩天堂在线观看| 欧美精品影院| 99精品欧美一区| AV在线天堂进入| 亚洲精品中文字幕无乱码| 欧美日本激情| 亚洲精品老司机| 好吊色妇女免费视频免费| 欧美成人国产| 91在线免费公开视频| 欧美一区二区人人喊爽| 91日本在线观看亚洲精品| 国产经典免费播放视频| 狼友av永久网站免费观看| 日韩国产综合精选| 老司国产精品视频91| 亚洲中文字幕97久久精品少妇| 综合色亚洲| 亚洲va视频| 中文毛片无遮挡播放免费| 91久久青青草原精品国产| 欧美视频在线播放观看免费福利资源| 在线日韩日本国产亚洲| 欧美午夜在线观看| 久草热视频在线| 亚洲av色吊丝无码| 国产成人盗摄精品| 日韩毛片在线视频| 久久国产精品无码hdav| 特级aaaaaaaaa毛片免费视频| 亚洲精品桃花岛av在线| 麻豆精品久久久久久久99蜜桃| 一级香蕉视频在线观看| 国产欧美精品一区二区| 四虎成人免费毛片| 中文字幕免费播放| 91久久国产综合精品| 亚洲日韩日本中文在线| 激情爆乳一区二区| 国产真实乱子伦精品视手机观看| 欧美专区在线观看| 综合成人国产| 成年女人a毛片免费视频| 国产精品久久久久婷婷五月| 综合久久久久久久综合网|