999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv8的道路病害視覺識(shí)別算法

2024-11-30 00:00:00張強(qiáng)杜海強(qiáng)趙偉康崔冬
現(xiàn)代電子技術(shù) 2024年23期
關(guān)鍵詞:特征檢測(cè)模型

摘" 要: 道路病害檢測(cè)對(duì)于確保道路的安全性和可持續(xù)性至關(guān)重要,對(duì)城市和社會(huì)的發(fā)展具有積極作用。為提高目前道路病害檢測(cè)模型的性能,文中提出一種基于改進(jìn)YOLOv8的道路病害檢測(cè)算法。設(shè)計(jì)一種新型高效的特征融合模塊(DWS),提高模型獲取特征信息和全局上下文信息的能力;提出將ECABlock、LeakyReLU激活函數(shù)與卷積相結(jié)合的新模塊ELConv來提高深層網(wǎng)絡(luò)對(duì)目標(biāo)的定位能力;另外,使用Dynamic Head檢測(cè)頭替換原始YOLOv8的頭部,結(jié)合尺度、空間和任務(wù)三種注意力機(jī)制提升模型頭部表征能力;最后,采用WIoU損失函數(shù)代替原損失函數(shù)來改善邊界框精確度和匹配度。相比基線模型,改進(jìn)模型在road damage detection數(shù)據(jù)集和RDD2022_Japan數(shù)據(jù)集上都得到了有效的驗(yàn)證,表明改進(jìn)模型滿足當(dāng)下道路病害檢測(cè)的需求,展示了高靈活性、準(zhǔn)確性和效率。

關(guān)鍵詞: 道路病害檢測(cè); 深度學(xué)習(xí); YOLOv8; 特征融合; 激活函數(shù); Dynamic Head; WIoU損失函數(shù)

中圖分類號(hào): TN911.73?34; TP391.4" " " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " "文章編號(hào): 1004?373X(2024)23?0119?06

Road damage visual recognition algorithm based on improved YOLOv8

ZHANG Qiang, DU Haiqiang, ZHAO Weikang, CUI Dong

(School of Information and Electrical Engineering, Hebei University of Engineering, Handan 056038, China)

Abstract: Road damage detection is crucial to ensure the safety and sustainability of roads, and plays a positive role in the development of cities and society. A road damage detection algorithm based on improved YOLOv8 is proposed to improve the performance of the current road damage detection model. A new and efficient feature fusion module DWS is designed to enhance the model ability of obtaining feature information and global context information. A new module ELConv, which combines activation functions ECABlock and LeakyReLU with convolution, is proposed to improve the deep network′s ability to locate objects. In addition, the detection head Dynamic Head is used to replace the head of the original YOLOv8. The three attention mechanisms of scale, space and task are combined to improve the representation ability of the model head. The loss function WIoU is used to replace the original loss function to improve the accuracy and match of the bounding box. In comparison with the baseline model, the improved model is verified on both the road damage detection dataset and the RDD2022_Japan dataset effectively. It shows that the improved model can meet the current needs of road damage detection, demonstrating high flexibility, accuracy and efficiency.

Keywords: road damage detection; deep learning; YOLOv8; feature fusion; activation function; DyHead; loss function WIoU

0" 引" 言

隨著城市化進(jìn)程的不斷加速,道路網(wǎng)絡(luò)的建設(shè)和維護(hù)變得尤為重要。然而,傳統(tǒng)的道路巡檢方法通常依賴于人工巡查,這既費(fèi)時(shí)費(fèi)力又昂貴,且容易出現(xiàn)漏檢或誤檢。因此,研究高效率、低成本的道路病害檢測(cè)方法具有重要的現(xiàn)實(shí)意義。

早期的道路病害檢測(cè)技術(shù)以傳統(tǒng)LBP、Gabor等紋理特征提取為主,往往在實(shí)際中呈現(xiàn)的效果不是很理想。近兩年來的研究中,文獻(xiàn)[1]提出的改進(jìn)道路表觀病害檢測(cè)模型(IPD?YOLOv5)通過引入ASPP模塊和SE?Net[2]注意力機(jī)制雖然在道路病害檢測(cè)方面表現(xiàn)出了很多優(yōu)勢(shì),但是增加了模型的計(jì)算復(fù)雜性,導(dǎo)致需要更多的計(jì)算資源和時(shí)間來進(jìn)行訓(xùn)練和推理。文獻(xiàn)[3]針對(duì)細(xì)長(zhǎng)路面病害的語(yǔ)義與形狀特征,提出了雙階段的Epd RCNN路面病害檢測(cè)方法。文獻(xiàn)[4]將注意力機(jī)制模塊融入到Y(jié)OLOv5目標(biāo)檢測(cè)模型當(dāng)中,該通道注意力機(jī)制模塊為道路病害的特征賦予權(quán)重,以優(yōu)化檢測(cè)性能。

盡管現(xiàn)有的研究可以有效地對(duì)道路病害進(jìn)行檢測(cè),但在當(dāng)前的研究中,有三大問題未充分解決:

1) 模型對(duì)于復(fù)雜道路病害的特征融合不夠充分,使得檢測(cè)精度降低;

2) 模型對(duì)于道路病害的特征提取不夠充分,僅簡(jiǎn)單考慮了特征提取與融合,導(dǎo)致在網(wǎng)絡(luò)中特征信息丟失的問題;

3) 網(wǎng)絡(luò)的泛化性和魯棒性也未能有效驗(yàn)證。

基于此,本文提出了一種基于YOLOv8模型改進(jìn)的道路病害檢測(cè)算法。

本文首先簡(jiǎn)要介紹了YOLOv8算法的原理以及模型結(jié)構(gòu),此后,針對(duì)現(xiàn)有道路病害檢測(cè)研究中存在的問題提出了改進(jìn)YOLOv8的方案,并進(jìn)行了實(shí)驗(yàn)。該過程中首先對(duì)比了不同模型對(duì)于道路病害的檢測(cè)效果,驗(yàn)證了YOLOv8模型在道路病害檢測(cè)中有一定的優(yōu)勢(shì);其次對(duì)比了不同模塊嵌入到模型中的檢測(cè)效果;另外,通過消融實(shí)驗(yàn)探究了本文改進(jìn)方案的有效性,并在公開數(shù)據(jù)集上驗(yàn)證了模型的泛化性;最后,對(duì)本文的研究?jī)?nèi)容進(jìn)行了總結(jié)。

1" YOLOv8算法

YOLOv8為一個(gè)具有里程碑意義的SOTA模型,它包含P5 640與P6 1 280分辨率的目標(biāo)檢測(cè)模型,其特性和YOLOv5相似,都是依據(jù)縮放系數(shù)提供N/S/M/L/X尺度的多種型號(hào),以適應(yīng)各種應(yīng)用場(chǎng)景。區(qū)別在于,其骨干網(wǎng)絡(luò)與Neck部分采用了YOLOv5[5]所沒有的C2f結(jié)構(gòu),該結(jié)構(gòu)在梯度流動(dòng)方面更為豐富。此外,針對(duì)不同尺度的模型調(diào)整了相應(yīng)的通道數(shù)量。在Head部分,YOLOv8采用了解耦頭結(jié)構(gòu),將分類與檢測(cè)頭分開,并從基于Anchor的思想轉(zhuǎn)變?yōu)锳nchor?Free的思想[6]。YOLOv8網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

2" YOLOv8算法改進(jìn)

為了更有效地應(yīng)對(duì)道路病害檢測(cè)的需求,本文提出了一種改良的基于YOLOv8的模型,其架構(gòu)如圖2所示。圖2中設(shè)計(jì)了一個(gè)全新的特征融合模塊DWS用于主干網(wǎng)絡(luò)特征融合;另外,提出了一種新的卷積結(jié)構(gòu)用于替換原網(wǎng)絡(luò)頸部的卷積;其次,在模型的頭部添加了基于注意力機(jī)制的目標(biāo)檢測(cè)頭Dynamic Head[7](DyHead);最后使用Wise?IoU[8](WIoU)損失函數(shù)代替原模型的損失函數(shù)。DWS模塊提高了模型獲取特征信息和全局上下文信息的能力;ELConv模塊提高了深層網(wǎng)絡(luò)對(duì)目標(biāo)的定位能力;Dynamic Head提高了目標(biāo)檢測(cè)頭部的表示能力;W?IoU損失函數(shù)改善了模型在邊界框的精確性和匹配度。

2.1" 高效特征融合模塊

設(shè)計(jì)的DWS模塊為多支路并行模塊,可以感受不同尺度的目標(biāo)信息。通過深度可分離卷積和最大池化等操作,可以有效地提取圖像中的特征信息,并且通過不同尺度的最大池化(Spatial Pyramid Pooling)進(jìn)行特征組合,可以捕獲不同尺度下的信息,有助于提高模型的感知能力和泛化能力。DWS結(jié)構(gòu)如圖3所示。

DWS模塊包含兩個(gè)普通卷積層、兩個(gè)深度可分離卷積層DWConv[9]以及三個(gè)最大池化層。普通卷積層的輸入通道數(shù)為[c1],輸出通道數(shù)為[c](隱藏通道數(shù)),卷積核大小為1×1,其輸出如式(1)所示:

[cv1(x)=Conv(x,wcv1)+bcv1] (1)

式中:[x]是輸入特征圖;[wcv1]是第一個(gè)卷積層的卷積核;[bcv1]是偏置項(xiàng)。

深度可分離卷積(DWConv)可以表示為深度卷積和逐點(diǎn)卷積兩步操作的組合。假設(shè)輸入特征圖為[x],深度卷積核為[wd],逐點(diǎn)卷積核為[wp],則深度可分離卷積表示如式(2)所示:

[DWConv(x,wd,wp)=PD(x,wd),wp] (2)

式中:[D(x,wd)]表示深度卷積操作;[P(x,wp)]表示逐點(diǎn)卷積操作。最大池化操作可表示為:

[MaxPool(x,k)=maxi∈[1,n](xi)] (3)

式中[k]為池化核的大小。

通過普通卷積層、深度可分離卷積層和最大池化層,最終輸出6個(gè)特征圖到連接層并按照指定的維度進(jìn)行拼接得到新的特征圖。最終卷積層的輸入通過Concat模塊進(jìn)行拼接,具體拼接方式如式(4)所示:

[Concat=torch.cat(x,y1,y2,y3,x+a2,a1),1] (4)

式中:torch.cat表示拼接操作;[x]是第一個(gè)普通卷積層的輸出特征圖;[y1]、[y2]、[y3]分別是通過三個(gè)最大池化層得到的三個(gè)特征圖;[a1]、[a2]分別是通過深度可分離卷積層得到的兩個(gè)特征圖;最后一個(gè)參數(shù)“1”表示按照第一個(gè)維度進(jìn)行拼接。

2.2" ELConv模塊

增加卷積網(wǎng)絡(luò)的深度可以捕獲更豐富的語(yǔ)義特征,但會(huì)降低特征圖的分辨率,并丟失一部分位置信息,致使更多的研究?jī)A向于開發(fā)更復(fù)雜的注意力模塊,以獲得更好的性能,這不可避免地增加了模型的復(fù)雜性。為了解決這一問題,本文提出將通道注意力ECABlock嵌入到卷積當(dāng)中,并使用Leaky ReLU作為模塊的激活函數(shù),達(dá)到顯著降低模型復(fù)雜度的同時(shí)帶來性能增益的效果。

ELConv模塊結(jié)構(gòu)如圖4所示。

ECABlock[10]采用了一種更加高效的方法來學(xué)習(xí)通道注意力,它使用一個(gè)1D卷積層對(duì)每個(gè)通道的特征進(jìn)行卷積,然后使用Sigmoid函數(shù)學(xué)習(xí)通道注意力。這樣可以大大降低計(jì)算復(fù)雜度,并在一定程度上提高模型性能。

普通的ReLU激活函數(shù)[11]雖然對(duì)訓(xùn)練神經(jīng)網(wǎng)絡(luò)起到有效的作用,但是在訓(xùn)練的過程中可能會(huì)出現(xiàn)一些神經(jīng)元始終不會(huì)激活,從而讓神經(jīng)網(wǎng)絡(luò)表達(dá)能力下降,為了避免這一問題,Leaky ReLU激活函數(shù)[12]在負(fù)半軸增加了一個(gè)很小的梯度值,這樣在保留一定稀疏性的同時(shí)也避免了神經(jīng)元壞死的問題。Leaky ReLU激活函數(shù)的前向傳播過程如圖5所示。

2.3" 基于注意力機(jī)制的目標(biāo)檢測(cè)頭

Dynamic Head(DyHead)將目標(biāo)檢測(cè)頭部與注意力統(tǒng)一起來。該方法結(jié)合多個(gè)自注意力機(jī)制,實(shí)現(xiàn)了任務(wù)感知、空間位置之間和尺度感知,在不增加模型計(jì)算量的前提下有效地提高了目標(biāo)檢測(cè)頭部的表示能力。Dynamic Head在特征的每個(gè)特定維度上分別部署注意力機(jī)制,即水平、空間和渠道。可感知尺度的注意力模塊只部署在水平尺寸上。感知空間的注意力模塊部署在空間維度上(即高度×寬度)。任務(wù)感知的注意力模塊部署在通道上。將張量重塑為三維張量,實(shí)現(xiàn)了檢測(cè)頭的統(tǒng)一注意力機(jī)制[13]。

2.4" 損失函數(shù)的優(yōu)化

針對(duì)目標(biāo)檢測(cè)數(shù)據(jù)集每張圖片質(zhì)量高低參差不齊的情況,使用WIoU損失函數(shù)替換原模型的損失函數(shù),WIoU損失函數(shù)是一種用于目標(biāo)檢測(cè)器的邊界框回歸損失函數(shù),它結(jié)合了IoU度量和平滑項(xiàng),作為邊界框回歸損失,包含一種動(dòng)態(tài)非單調(diào)機(jī)制,并設(shè)計(jì)了一種合理的梯度增益分配,該策略減少了極端樣本中出現(xiàn)的大梯度或有害梯度。WIoU損失函數(shù)的定義公式為:

[LWIoU=1-i=1nwiIoU(bi,gi)i=1nwi] (5)

式中:[n]代表目標(biāo)物體的邊界框總數(shù);[bi]指第[i]個(gè)物體的預(yù)測(cè)邊界框位置;[gi]為相應(yīng)的第[i]個(gè)物體的實(shí)際標(biāo)注邊界框的位置;[wi]為對(duì)應(yīng)權(quán)重值;IoU[(bi,gi)]用于衡量第[i]個(gè)預(yù)測(cè)邊界框與真實(shí)標(biāo)注框之間的交并比。

3" 實(shí)驗(yàn)與分析

3.1" 數(shù)據(jù)集

為了全面地證明改進(jìn)算法的有效性,采用自建數(shù)據(jù)集road damage detection和公開數(shù)據(jù)集RDD 2022_Japan分別對(duì)本文改進(jìn)算法進(jìn)行實(shí)驗(yàn)驗(yàn)證。

road damage detection數(shù)據(jù)集部分圖片來源于Roboflow,Roboflow為YOLOv8提供了一種更便捷、更快速的方式來準(zhǔn)備訓(xùn)練數(shù)據(jù)。隨后對(duì)數(shù)據(jù)集進(jìn)行了數(shù)據(jù)增強(qiáng),并使用LabelImg軟件對(duì)道路病害進(jìn)行標(biāo)注,同時(shí)LabelImg軟件會(huì)生成對(duì)應(yīng)的標(biāo)簽文件,數(shù)據(jù)集為7分類:alligator cracking(鱷魚開裂)、edge cracking(邊緣開裂)、longitudinal cracking(縱向開裂)、patching(修補(bǔ)痕跡)、pothole(坑洼)、rutting(車轍)和transverse cracking(橫向開裂)。road damage det數(shù)據(jù)集包含3 912張圖片,經(jīng)劃分后得到訓(xùn)練集2 738張,驗(yàn)證集783張,測(cè)試集391張。

RDD 2022_Japan數(shù)據(jù)集[14]來源于RDD 2022。RDD 2022由東京大學(xué)發(fā)布,其中包括47 420幅道路圖像,數(shù)據(jù)集共捕捉到四類道路損壞,包括D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞),選取其中10 506張照片作為數(shù)據(jù)集,經(jīng)劃分得到訓(xùn)練集8 404張,驗(yàn)證集1 050張,測(cè)試集1 052張。

3.2" 實(shí)驗(yàn)設(shè)備及評(píng)價(jià)指標(biāo)

本文選用PyTorch深度學(xué)習(xí)架構(gòu)對(duì)網(wǎng)絡(luò)模型進(jìn)行開發(fā)及優(yōu)化,并進(jìn)行了模型的訓(xùn)練以及實(shí)驗(yàn)。訓(xùn)練所使用設(shè)備的CPU為14 vCPU Intel[?] Xeon[?] Gold 6330 CPU,GPU為RTX 3090(24 GB),設(shè)置batch_size為16,初始學(xué)習(xí)率lr為0.01,訓(xùn)練輪次400輪,CUDA版本為11.0。本文從[F1]分?jǐn)?shù)、模型的mAP@0.5(mean Average Precision)、模型的mAP@0.5:0.95、模型的參數(shù)量(Params)、每秒10億次的浮點(diǎn)運(yùn)算數(shù)(GFLOPs)五個(gè)指標(biāo)來評(píng)價(jià)模型的性能。以正確率和召回率作為基本指標(biāo),使用準(zhǔn)確率和召回率作為基礎(chǔ)評(píng)估指標(biāo),同時(shí)計(jì)算基于這兩者得分的[F1]分?jǐn)?shù)和平均精度均值(mAP),以全面評(píng)價(jià)模型識(shí)別的準(zhǔn)確性。此外,使用GFLOPs來衡量模型的計(jì)算復(fù)雜度,Params指標(biāo)則用以表示模型所占用的存儲(chǔ)空間。一般而言,Params和GFLOPs的數(shù)值越低,說明模型對(duì)計(jì)算資源的需求越少。

3.3" 消融實(shí)驗(yàn)

設(shè)置消融實(shí)驗(yàn)來分析本文中各改進(jìn)模塊對(duì)模型性能的影響。所有消融均在road damage detection數(shù)據(jù)集上進(jìn)行,評(píng)價(jià)指標(biāo)選用[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95。表1是以YOLOv8模型為基線,√表示在模型中使用該模塊。

由表1數(shù)據(jù)可知,單獨(dú)替換原模型損失函數(shù)為WIoU,各項(xiàng)指標(biāo)都沒有變動(dòng),單獨(dú)引入本文設(shè)計(jì)的DWS模塊,[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95分別提高了1%、0.6%和1.9%;單獨(dú)替換頸部卷積為ELConv,三個(gè)評(píng)價(jià)指標(biāo)分別提升了1%、0.9%和2.1%;替換目標(biāo)檢測(cè)頭為DyHead,替換損失函數(shù)為WIoU,三個(gè)指標(biāo)分別提高了1%、1.7%和1.7%;在替換目標(biāo)檢測(cè)頭為DyHead,替換損失函數(shù)為WIoU的基礎(chǔ)之上使用DWS特征融合模塊,三個(gè)指標(biāo)分別提升了2%、2.2%和2.9%。最后一個(gè)為本文最終改進(jìn)模型,[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95分別提高了3%、3.1%和4.8%。本文提出的優(yōu)化策略在保持較低的參數(shù)增長(zhǎng)和計(jì)算負(fù)擔(dān)的基礎(chǔ)上,其他各項(xiàng)指標(biāo)均達(dá)到了提升的效果。

為了驗(yàn)證優(yōu)化后的損失函數(shù)的有效性,將原始模型與僅改進(jìn)損失函數(shù)的模型進(jìn)行對(duì)比,圖6為原始模型和改進(jìn)模型的損失曲線對(duì)比圖。

圖6中,灰線代表原始函數(shù)損失曲線,黑線代表優(yōu)化損失函數(shù)后的算法損失曲線。由圖6可知,改進(jìn)模型的損失函數(shù)可以更快達(dá)到收斂狀態(tài)。

3.4" 不同模型檢測(cè)與識(shí)別對(duì)比實(shí)驗(yàn)

為了驗(yàn)證YOLOv8模型在道路病害檢測(cè)中的優(yōu)勢(shì),與其他主流的目標(biāo)檢測(cè)算法模型進(jìn)行比較。以[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95和計(jì)算量GFLOPs作為評(píng)價(jià)指標(biāo),數(shù)據(jù)集選用自建數(shù)據(jù)集road damage detection,表2展示了對(duì)比結(jié)果。

由表2可知:YOLOv8模型在多個(gè)評(píng)價(jià)指標(biāo)上超過了兩階段的Faster?RCNN[15]算法和單階段EfficientNet[16]算法,并且與RT?DETR?L相比,RT?DETR?L模型雖然檢測(cè)精度比YOLOv8提升了0.1%,但是其參數(shù)量和計(jì)算量龐大;與YOLO系列其他算法YOLOv3tiny[17]和YOLOv4tiny[18]相比,YOLOv8在保持低參數(shù)量、低計(jì)算量的同時(shí),[F1]分?jǐn)?shù)分別提高了14%和15%,mAP@0.5分別提高了7%和8.3%,mAP@0.5:0.95分別提高了5.9%和8%。結(jié)果顯示,在針對(duì)道路病害識(shí)別的任務(wù)中,YOLOv8算法在與其他流行的目標(biāo)檢測(cè)方法對(duì)比中表現(xiàn)突出,顯示出其在這一領(lǐng)域的適用性。

3.5" 泛化性驗(yàn)證

為了進(jìn)一步驗(yàn)證改進(jìn)模型的泛化性,分別將原始YOLOv8算法與本文提出的改進(jìn)后模型算法在公開數(shù)據(jù)集RDD 2022_Japan上進(jìn)行實(shí)驗(yàn)。以mAP@0.5和mAP@0.5:0.95作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如表3所示。

數(shù)據(jù)顯示改進(jìn)模型在四個(gè)類別上的檢測(cè)精度均高于YOLOv8模型,改進(jìn)模型的效果在公開數(shù)據(jù)集上得到了驗(yàn)證。

4" 結(jié)" 論

基于傳統(tǒng)的YOLOv8算法,本文設(shè)計(jì)了高效特征融合模塊,提出了一種新的卷積結(jié)構(gòu)ELConv模塊,替換原模型頭部為DyHead檢測(cè)頭,引入WIoU函數(shù)作為模型的損失函數(shù),提出了一種新型道路病害檢測(cè)識(shí)別方法。本文的主要貢獻(xiàn)如下。

1) 設(shè)計(jì)了高效的特征融合模塊DWS,提高模型獲取特征信息和全局上下文信息的能力。

2) 針對(duì)現(xiàn)有部分研究存在對(duì)深度網(wǎng)絡(luò)特征提取不充分的問題,提出了新的ELConv卷積模塊,目標(biāo)的空間信息得到了更好的感知,檢測(cè)精度得到了有效提升。

3) 引入了添加基于注意力機(jī)制的目標(biāo)檢測(cè)頭DyHead,結(jié)合尺度、空間和任務(wù)三種注意力機(jī)制,提升了目標(biāo)檢測(cè)頭部的表示能力。

4) 使用WIoU損失函數(shù)替換原模型的損失函數(shù),改善了模型在邊界框的精確性和匹配度。在公開數(shù)據(jù)集RDD 2022_Japan上驗(yàn)證了模型的泛化性。

最終通過實(shí)驗(yàn)證明,本文提出的改進(jìn)YOLOv8算法有效解決了現(xiàn)有研究中存在的問題,可以滿足道路病害的檢測(cè)需求。

注:本文通訊作者為崔冬。

參考文獻(xiàn)

[1] 喻露,戴甜杰,余麗華.基于改進(jìn)YOLOv5的道路病害智能檢測(cè)[J].福建工程學(xué)院學(xué)報(bào),2023,21(4):332?337.

[2] 王燕,王振宇.基于改進(jìn)SE?Net和深度可分離殘差的高光譜圖像分類[J].蘭州理工大學(xué)學(xué)報(bào),2024,50(2):87?95.

[3] 許慧青,陳斌,王敬飛,等.基于卷積神經(jīng)網(wǎng)絡(luò)的細(xì)長(zhǎng)路面病害檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2022,42(1):265?272.

[4] 王鵬飛,黃漢明,王夢(mèng)琪.改進(jìn)YOLOv5的復(fù)雜道路目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(17):81?92.

[5] WEN H H, LI Y, WANG Y, et al. Usage of an improved YOLOv5 for steel surface defect detection [J]. Materials testing, 2024, 66(5): 726?735.

[6] 李松,史濤,井方科.改進(jìn)YOLOv8的道路損傷檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(23):165?174.

[7] DAI X Y, CHEN Y P, XIAO B, et al. Dynamic head: Unifying object detection heads with attentions [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 7373?7382.

[8] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://doi.org/10.48550/arXiv.2301.10051.

[9] 張磊,李熙尉,燕倩如,等.基于改進(jìn)YOLOv5s的綜采工作面人員檢測(cè)算法[J].中國(guó)安全科學(xué)學(xué)報(bào),2023,33(7):82?89.

[10] MOHARM K, ELTAHAN M, ELSAADANY E. Wind speed forecast using LSTM and Bi?LSTM algorithms over Gabal El?Zayt wind farm [C]// 2020 International Conference on Smart Grids and Energy Systems. Heidelberg: Springer, 2020: 922?927.

[11] 張愷翊,張寧燕,江志浩,等.深度學(xué)習(xí)模型中不同激活函數(shù)的性能分析[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023,42(z1):149?156.

[12] 王攀杰,郭紹忠,侯明,等.激活函數(shù)的對(duì)比測(cè)試與分析[J].信息工程大學(xué)學(xué)報(bào),2021,22(5):551?557.

[13] 高昂,梁興柱,夏晨星,等.一種改進(jìn)YOLOv8的密集行人檢測(cè)算法[J].圖學(xué)學(xué)報(bào),2023,44(5):890?898.

[14] ARYA D, MAEDA H, GHOSH S K, et al. Crowdsensing?based road damage detection challenge [C]// 2022 IEEE International Conference on Big Data (Big Data). New York: IEEE, 2022: 6378?6386.

[15] 王曾龍,蔣勇勇,彭海峰,等.一種基于Faster?RCNN的棉花蟲害識(shí)別與統(tǒng)計(jì)方法[J].大眾科技,2023,25(5):5?7.

[16] TAN M X, LE Q V. EfficientNet: Rethinking model scaling for convolutional neural networks [C]// International Conference on Machine Learning. New York: PMLR, 2019: 6105?6114.

[17] ADARSH P, RATHI P, KUMAR M. YOLO v3?tiny: Object detection and recognition using one stage improved model [C]// 2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS). New York: IEEE, 2020: 687?694.

[18] JIANG Z C, ZHAO L Q, LI S Y, et al. Real?time object detection method based on improved YOLOv4?tiny [EB/OL]. [2020?11?09]. https://arxiv.org/abs/2011.04244.

作者簡(jiǎn)介:張" 強(qiáng)(1977—),男,河北邯鄲人,碩士研究生,副教授,研究方向?yàn)橛?jì)算機(jī)應(yīng)用技術(shù)。

杜海強(qiáng)(2000—),男,河北保定人,在讀碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。

趙偉康(1991—),女,河北邯鄲人,博士研究生,講師,研究方向?yàn)橛?jì)算機(jī)視覺。

崔" 冬(1977—),女,河北邯鄲人,碩士研究生,講師,研究方向?yàn)閿?shù)據(jù)庫(kù)技術(shù)及應(yīng)用。

猜你喜歡
特征檢測(cè)模型
一半模型
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 色老二精品视频在线观看| 青青国产视频| 在线99视频| 人妻无码中文字幕第一区| 亚洲AⅤ无码国产精品| 爆操波多野结衣| 国产一区亚洲一区| 久久伊人久久亚洲综合| 婷婷99视频精品全部在线观看| 精品自窥自偷在线看| 日韩精品久久久久久久电影蜜臀| 国产成人福利在线| 波多野结衣国产精品| www.日韩三级| 中日韩一区二区三区中文免费视频| 久久人搡人人玩人妻精品一| 国产精品无码久久久久久| 国产精品第三页在线看| 久久久久久尹人网香蕉| 日本影院一区| 久久99国产精品成人欧美| 亚洲一区二区在线无码| 婷婷亚洲视频| a天堂视频| 久久精品人人做人人| 欧美中日韩在线| 99久久国产综合精品2020| 欧美在线伊人| 日韩无码真实干出血视频| 欧美视频在线播放观看免费福利资源| 国产视频 第一页| 亚洲日本www| 国产精品白浆在线播放| 久久国产乱子伦视频无卡顿| 欧美精品色视频| 欧美日韩一区二区在线免费观看| 国产午夜看片| 手机精品福利在线观看| 欧美日韩在线亚洲国产人| 老熟妇喷水一区二区三区| 婷婷色狠狠干| 在线99视频| а∨天堂一区中文字幕| 亚洲二区视频| 亚洲国产看片基地久久1024| 夜夜操天天摸| 国产成人免费高清AⅤ| 国产视频一二三区| 日韩福利在线视频| 91亚洲免费| 秋霞午夜国产精品成人片| 亚洲日韩精品无码专区| 国产免费高清无需播放器| 在线欧美日韩国产| 国产福利微拍精品一区二区| 日本亚洲欧美在线| 国产精品无码久久久久AV| 成人无码一区二区三区视频在线观看| 日韩中文无码av超清 | 在线看片国产| 中国国产高清免费AV片| 国产丝袜第一页| 国产真实乱子伦视频播放| 一级毛片在线播放| 欧美国产日本高清不卡| 欧美精品啪啪一区二区三区| 狂欢视频在线观看不卡| 亚洲首页国产精品丝袜| 午夜成人在线视频| 婷婷五月在线视频| 伊人久久大香线蕉成人综合网| 无码日韩人妻精品久久蜜桃| 国产亚洲欧美在线专区| 国产在线视频二区| 九九视频免费看| 91丝袜乱伦| 亚洲一区二区三区香蕉| 久久综合丝袜长腿丝袜| 亚洲一区毛片| 国产91精品久久| 视频二区国产精品职场同事| 国产免费一级精品视频|