999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOx-s的無(wú)人機(jī)橋梁裂縫檢測(cè)算法

2025-08-18 00:00:00徐偉峰呂航程子益陸安王洪濤王晏如李昇
關(guān)鍵詞:精度橋梁模塊

中圖分類(lèi)號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1671-5489(2025)04-1091-08

Bridge Crack Detection Algorithm for Unmanned Aerial Vehicle Based on Improved YOLOx-s

XU Weifeng 1,2 ,LU Hang1,CHENG Ziyi1,LU Anwen 1 , WANG Hongtao 1,2 ,WANG Yanru3,LI Sheng1 1.DepartmentofComputer,North China Electric Pouer University(Baoding),Baoding O71oo3,Hebei Province,China; 2. Key Laboratory of Energy and Electric Power Knowledge Calculation in Hebei Province, Baoding 07103, Hebei Province,China;3. School of Economics, Jilin University,Changchun 130ol2,China)

Abstract: Aiming at the problem of safety hazards of insufficient bridge crack detection,we proposed a bridge crack detection algorithm based on YOLOx-s,combined with a smallunmanned aerial vehicle platform. Firstly,we added a residual hole convolution module in the backbone to solve the problem of large scale changes and complex backgrounds in drone images. Secondly,we added a coordinate attention mechanism module in PANET to improve the detection rate of small targets. Finally,we replaced the loss function with Focal loss to enhance the learning of positive samples and improve the stability of the model. The experimental results show that compared with the YOLOx-s algorithm, the proposed method improves detection accuracy by 3.72 percentage points. On embedded devices, this method has better accuracy than other mainstream algorithms and can achieve real-time detection, which can be better applied in bridge crack detection for unmanned aerial vehicle.

Keywords: unmanned aerial vehicle (UAV); bridge crack detection; object detection; YOLOx-salgorithm;attention mechanism

0引言

在橋梁評(píng)價(jià)指標(biāo)中,裂縫是評(píng)價(jià)公路橋梁安全可靠性的重要指標(biāo)[1.出現(xiàn)橋梁裂縫將導(dǎo)致橋梁承載力降低,因此,橋梁裂縫的檢測(cè)對(duì)橋梁的安全維護(hù)至關(guān)重要.目前,常用的橋梁裂縫檢測(cè)方法主要包括人工檢測(cè)和橋梁檢測(cè)車(chē)[2].人工檢測(cè)方法主要靠檢測(cè)人員的視覺(jué)經(jīng)驗(yàn)判斷,費(fèi)時(shí)費(fèi)力、可操作性差且危險(xiǎn)性較高.橋梁檢測(cè)車(chē)可安全快速地檢測(cè)出橋梁裂縫,但在檢測(cè)過(guò)程中需要長(zhǎng)時(shí)間占道,易導(dǎo)致交通癱瘓,且檢測(cè)成本較高.因此亟待一種更安全、高效、靈活且檢測(cè)成本低的橋梁裂縫檢測(cè)方法.

近年來(lái),隨著小型無(wú)人機(jī)技術(shù)的快速發(fā)展,作為搭載平臺(tái),無(wú)人機(jī)在橋梁檢測(cè)任務(wù)中被廣泛使用.無(wú)人機(jī)可利用其輕巧和方便的特點(diǎn),在不影響交通的情況下輕松到達(dá)待檢測(cè)位置,使用攝像頭完成裂縫檢測(cè)[3].這種方法具有安全、高效、靈活和檢測(cè)成本低的特點(diǎn),在搭載了目標(biāo)檢測(cè)算法后能實(shí)現(xiàn)自動(dòng)化和智能化的橋梁裂縫檢測(cè).

目前,在橋梁裂縫檢測(cè)中主要有Faster-RCNN[4],SSD[5],YOLO[6]系列等目標(biāo)檢測(cè)[]算法.文獻(xiàn)[8]研究了無(wú)人機(jī)橋梁裂縫檢測(cè)方法,并在此基礎(chǔ)上訓(xùn)練了Faster-RCNN算法用于無(wú)人機(jī)裂縫檢測(cè).文獻(xiàn)[9]對(duì)橋梁裂縫的區(qū)域提取和分類(lèi)進(jìn)行了研究,并針對(duì)橋梁裂縫的特征改進(jìn)了YOLOv3[10]算法.文獻(xiàn)[11]對(duì)橋梁裂縫固有特征和檢測(cè)過(guò)程的局限性進(jìn)行了研究,并改進(jìn)了YOLOv3的多尺度預(yù)測(cè)模塊提升檢測(cè)精度.但上述方法都只關(guān)注了橋梁裂縫的特征,未考慮無(wú)人機(jī)圖像的特點(diǎn).在無(wú)人機(jī)圖像中,橋梁裂縫尺度變化大,背景復(fù)雜,且小目標(biāo)多,易出現(xiàn)誤檢、小目標(biāo)漏檢等問(wèn)題導(dǎo)致檢測(cè)性能降低.因此,需對(duì)上述不足進(jìn)行有針對(duì)性地改進(jìn),

結(jié)合無(wú)人機(jī)圖像的特點(diǎn)和YOLO系列算法的實(shí)時(shí)性和準(zhǔn)確性,本文選擇 YOLOx-s[12] 為基線模型.YOLOx-s算法檢測(cè)速度和精度性能優(yōu)異,但仍無(wú)法解決無(wú)人機(jī)圖像中橋梁裂縫尺度差異大、小目標(biāo)檢測(cè)率低等問(wèn)題.所以本文對(duì)YOLOx-s 進(jìn)行以下改進(jìn):首先,為解決無(wú)人機(jī)圖像目標(biāo)尺度差異大、背景復(fù)雜的問(wèn)題,提出一種殘差空洞卷積模塊,并添加到骨干網(wǎng)絡(luò)中;其次,針對(duì)無(wú)人機(jī)圖像分辨率高、小目標(biāo)多的問(wèn)題,添加坐標(biāo)注意力模塊到Neck層中,以減少小目標(biāo)漏檢率;最后,對(duì)損失函數(shù)進(jìn)行改進(jìn),使用Focal loss[13]代替交叉熵?fù)p失,減少訓(xùn)練中的樣本不平衡問(wèn)題,提升模型的性能.實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的 YOLOX-S 算法在橋梁裂縫檢測(cè)方面能滿足實(shí)時(shí)性檢測(cè)的需求,并有較高的精度.與其他主流模型相比,本文方法在無(wú)人機(jī)橋梁裂縫檢測(cè)方面具有一定優(yōu)勢(shì).

YOLOx-s網(wǎng)絡(luò)

YOLOx模型結(jié)合了YOLO系列網(wǎng)絡(luò)的優(yōu)點(diǎn),創(chuàng)新地使用了解耦頭、anchor-free結(jié)構(gòu)以及標(biāo)簽分配策略 SimOTA.YOLOx 模型沿用了YOLO系列的整體布局,由骨干網(wǎng)絡(luò)、Neck 層和 YOLOxHead組成,此外,YOLOx還根據(jù)不同模塊的深度和寬度大小分為 nano,s,m,l,x 等尺寸.為保證精度和速度上的平衡,本文選用YOLOx-s作為基線模型.其骨干網(wǎng)絡(luò)沿用了 Csp[14] 結(jié)構(gòu),并使用SiLU激活函數(shù).SiLU激活函數(shù)是ReLU激活函數(shù)的改進(jìn)版,相比于ReLU激活函數(shù),非線性能力更強(qiáng),同時(shí)繼承了ReLU函數(shù)收斂快的優(yōu)點(diǎn).在骨干網(wǎng)絡(luò)中通過(guò)4次ResBlock body模塊后得到3個(gè)有效特征層,在最后一次ResBlockbody中還加人了SPP模塊,通過(guò)不同的池化核對(duì)圖像進(jìn)行池化操作,提取更多特征.得到3個(gè)有效特征層后,通過(guò)頸部的 PANET[15]結(jié)構(gòu)進(jìn)行特征融合,最后通過(guò) YOLOxHead進(jìn)行分類(lèi)和回歸,獲得預(yù)測(cè)結(jié)果.

雖然YOLOx-s速度較快,但無(wú)人機(jī)圖像尺度差異大,小目標(biāo)較多.在實(shí)際檢測(cè)任務(wù)中對(duì)復(fù)雜的裂縫檢測(cè)精度較低,對(duì)小裂縫易出現(xiàn)漏檢問(wèn)題.因此,本文針對(duì)上述問(wèn)題對(duì)該算法進(jìn)行改進(jìn).改進(jìn)后的YOLOx-s模型結(jié)構(gòu)如圖1所示.

圖1改進(jìn)后的YOLOx-s模型結(jié)構(gòu)

2 改進(jìn)的YOLOx-s模型

雖然YOLOx-s算法檢測(cè)速度快、性能優(yōu)異,但仍無(wú)法解決無(wú)人機(jī)圖像中橋梁裂縫尺度差異大、小目標(biāo)檢測(cè)率低等問(wèn)題.本文在骨干網(wǎng)絡(luò)、特征融合、損失函數(shù)等方面對(duì)YOLOx-s 進(jìn)行改進(jìn),在保證實(shí)時(shí)檢測(cè)要求的同時(shí)提升精度.

2.1 對(duì)骨干網(wǎng)絡(luò)的改進(jìn)

由于無(wú)人機(jī)圖像尺度變化大,背景復(fù)雜,所以基于無(wú)人機(jī)圖像的特點(diǎn),需要目標(biāo)檢測(cè)模型增強(qiáng)對(duì)多尺度特征和復(fù)雜背景的分析能力.而增大感受野不僅可保存更多的特征信息,還可以映射更細(xì)微的特征信息,即相似特征之間的差異,從而減少局部信息的丟失,提升檢測(cè)精度.這對(duì)無(wú)人機(jī)圖像識(shí)別尤其重要.

基于上述分析,本文提出一種殘差空洞卷積模塊Res-DConvBlock,如圖2所示.由圖2可見(jiàn),該模塊首先通過(guò)一個(gè) 1×1 的標(biāo)準(zhǔn)卷積模塊調(diào)整通道數(shù),降低計(jì)算的復(fù)雜度,再通過(guò)一個(gè) 3×3 的空洞卷積模塊擴(kuò)大感受野,之后通過(guò)一個(gè) 1×1 的卷積塊調(diào)整通道數(shù),最后接上殘差邊.該模塊可有效提高模型的感受野,減少局部信息特征的丟失.對(duì)YOLOX-s 骨干網(wǎng)絡(luò)進(jìn)行改進(jìn):由于骨干網(wǎng)絡(luò)CspDarknet53中的focus模塊在分片操作時(shí)存在多個(gè)concat操作,需較大的內(nèi)存運(yùn)算開(kāi)銷(xiāo),故本文將focus模塊替換成與其有相同效果的 6×6 標(biāo)準(zhǔn)卷積模塊.并在其后添加殘差空洞卷積模塊擴(kuò)大模型的感受野,增強(qiáng)對(duì)復(fù)雜背景信息的處理,進(jìn)而提高橋梁裂縫的檢測(cè)精度.改進(jìn)后的骨干網(wǎng)絡(luò)如圖3所示,其中每個(gè)ResBlock body 由一次標(biāo)準(zhǔn)卷積模塊再加上Csp Layer 組成.Csp Layer將輸人數(shù)據(jù)分成兩部分,一部分由多個(gè)殘差單元堆疊組成,另一部分通過(guò)一次標(biāo)準(zhǔn)卷積模塊,然后對(duì)兩部分進(jìn)行拼接.上述 Res-DConvBlock 模塊添加到第一個(gè) ResBlock body 模塊后,再通過(guò)3次 ResBlock body 模塊輸出3層特征,以提高模型對(duì)圖像特征語(yǔ)義信息的提取和表達(dá)能力.

圖2殘差空洞卷積模塊Fig. 2 Residual hole convolution module

2.2 對(duì)特征融合層的改進(jìn)

為更好地檢測(cè)小目標(biāo),本文對(duì)YOLOx-s的PANNET結(jié)構(gòu)進(jìn)行改進(jìn),通過(guò)引人注意力模塊,使模型更有效地關(guān)注關(guān)鍵區(qū)域,從而在增加少量計(jì)算量的情況下提升小目標(biāo)檢測(cè)性能.本文采用嵌人坐標(biāo)注意力機(jī)制(coordinateattention,CA)[16]的方式為特征融合層的多尺度通道分配不同的權(quán)重,不僅考慮了通道信息,還考慮了方向位置信息,且輕量靈活.相比于傳統(tǒng)隨機(jī)分配權(quán)值的方式,嵌入坐標(biāo)注意力的加權(quán)方式可進(jìn)一步增加模型的感受野、小目標(biāo)的關(guān)注度以及位置敏感性.嵌入坐標(biāo)注意力機(jī)制如圖4所示.利用 (H,1) 和(1,W)的池化核將輸入特征圖分割并壓縮,對(duì)輸入特征圖分別在 X 方向和 Y 方向進(jìn)行平均池化,從而產(chǎn)生兩個(gè)大小分別為 C×H×1 和 C×1×W 獨(dú)立方向感知注意力的特征圖.再將帶有方向信息的特征圖由concat進(jìn)行拼接,并利用 1×1 卷積、標(biāo)準(zhǔn)化和非線性激活函數(shù)生成過(guò)程特征圖 f .將 f 在空間維度上拆分成兩個(gè)獨(dú)立的向量 fh 和 fw ,然后分別通過(guò) 1×1 卷積調(diào)整到與輸入特征圖相同的通道數(shù),再利用 Sigmoid 激活函數(shù)得到兩個(gè)獨(dú)立空間方向的注意力權(quán)值,最后對(duì)其進(jìn)行拓展,作用于輸入特征后得到對(duì)目標(biāo)空間維度位置信息敏感的輸出特征圖.

圖3 改進(jìn)后的骨干網(wǎng)絡(luò)
圖4嵌入坐標(biāo)注意力機(jī)制Fig.4Embeddingcoordinateattentionmechanism

2.3 對(duì)損失函數(shù)的改進(jìn)

由于待檢測(cè)的裂縫與橋梁背景相似,因此當(dāng)裂縫較小時(shí),裂縫正樣本和橋梁背景負(fù)樣本很難區(qū)分.在模型訓(xùn)練過(guò)程中,背景負(fù)樣本的個(gè)數(shù)較多,導(dǎo)致模型對(duì)裂縫正樣本的學(xué)習(xí)不夠.負(fù)樣本數(shù)量過(guò)大,會(huì)占據(jù)損失的大部分,使模型的優(yōu)化方向不理想,導(dǎo)致模型性能不穩(wěn)定.為解決該問(wèn)題,本文引入Focal loss 函數(shù)代替交叉熵?fù)p失.Focal loss 函數(shù)是在交叉熵?fù)p失函數(shù)的基礎(chǔ)上構(gòu)建的.Focal loss 函數(shù)定義如下:

其中: ?Pt 表示樣本分類(lèi)難易程度(難分類(lèi)的 ?Pt ?。?,用 (1-ptγ 對(duì)原始交叉熵?fù)p失進(jìn)行衰減;γ為超參數(shù),用于控制損失函數(shù)衰減; αt 用于控制正負(fù)樣本權(quán)重.當(dāng) γ=2 , αt=0.75 時(shí)效果最好.

3 實(shí)驗(yàn)及結(jié)果分析

3.1 數(shù)據(jù)集構(gòu)建

確定了算法結(jié)構(gòu)后,需構(gòu)建合適的數(shù)據(jù)集作為模型的訓(xùn)練數(shù)據(jù)集.由于混凝土材料具有易獲取、抗火性能好、不易風(fēng)化等特點(diǎn),因此常被用于作為橋梁建設(shè)的材料[17],本文實(shí)驗(yàn)從橋梁裂縫開(kāi)源數(shù)據(jù)集中選取多張混凝土橋梁裂縫圖像,通過(guò)對(duì)獲取的圖像進(jìn)行旋轉(zhuǎn)、平移、裁剪等操作,得到4000多張包含各種混凝土橋梁裂縫的數(shù)據(jù)集.如圖5所示,數(shù)據(jù)集中包括不同形狀的裂縫,如橫向裂縫、縱向裂縫、斜向裂縫等,也有不同尺度小裂縫組成的交叉裂縫.得到數(shù)據(jù)集后,使用Labelimg圖像標(biāo)注工具對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注,標(biāo)注類(lèi)型為Crack,并按 8:1:1 劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集.

圖5混凝土橋梁裂縫示例Fig.5Examples of cracks in concrete bridges

3.2 評(píng)價(jià)指標(biāo)

為衡量目標(biāo)檢測(cè)模型的效果,選擇檢測(cè)精度(AP)和檢測(cè)速率作為模型的評(píng)價(jià)指標(biāo).檢測(cè)精度為準(zhǔn)確率和召回率所圍成曲線的面積,準(zhǔn)確率和召回率分別定義為

其中 TP為正確預(yù)測(cè)為正樣本的個(gè)數(shù),F(xiàn)P為錯(cuò)誤預(yù)測(cè)為正樣本的個(gè)數(shù),F(xiàn)N為錯(cuò)誤預(yù)測(cè)為負(fù)樣本的個(gè)數(shù).AP結(jié)合了模型的準(zhǔn)確率和召回率,為模型的性能提供了綜合評(píng)價(jià),AP的計(jì)算公式為

在檢測(cè)速率方面,為評(píng)價(jià)模型能否滿足實(shí)時(shí)性目標(biāo)檢測(cè)的需求,選擇每秒處理圖片數(shù)量FPS作為評(píng)價(jià)目標(biāo)檢測(cè)模型速度的評(píng)價(jià)指標(biāo).該值越大目標(biāo)檢測(cè)模型的速度越快.

3.3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)采用Python完成程序編寫(xiě),使用環(huán)境為Ubuntu20.04,Pytorch版本1.11.0,CUDA版本11.6,使用GPU為Nvidia 2080Ti

首先,為驗(yàn)證本文骨干網(wǎng)絡(luò)改進(jìn)的有效性,替換YOLOx-s 的骨干網(wǎng)絡(luò)為MobileNetV3[18],ShuffleNetV2[19]以及本文改進(jìn)的骨干網(wǎng)絡(luò),與原模型進(jìn)行性能對(duì)比.在上述裂縫數(shù)據(jù)集上訓(xùn)練300 輪,實(shí)驗(yàn)結(jié)果列于表1,其中Cspdarknet為YOLOx-s原骨干網(wǎng)絡(luò).

表1不同骨干網(wǎng)絡(luò)性能的對(duì)比Table 1 Performance comparison of different backbone networks

由表1可見(jiàn),在Cspdarknet,MobileNetV3,ShuffleNetV2中,使用ShufleNetV2 檢測(cè)速度最快,且模型參數(shù)量最小,MobileNetV3次之.但在檢測(cè)性能方面,無(wú)論是精度還是召回率都是YOLOx-s的原骨干網(wǎng)絡(luò)效果Cspdarknet最好,且在檢測(cè)速度方面已能滿足實(shí)時(shí)性要求.本文改進(jìn)的骨干網(wǎng)絡(luò)與YOLOx-s 原骨干網(wǎng)絡(luò)效果相比,精度進(jìn)一步提升.由于添加了殘差空洞卷積模塊,增加了計(jì)算量導(dǎo)致速度下降,但仍能滿足實(shí)時(shí)性要求.綜合可見(jiàn),本文方法以少量的速度下降換來(lái)了檢測(cè)精度的提高,且可滿足實(shí)時(shí)性要求,所以本文對(duì)骨干網(wǎng)絡(luò)的改進(jìn)有效.

其次,為驗(yàn)證本文對(duì)Neck層改進(jìn)的有效性,依次對(duì)YOLOx-s做消融實(shí)驗(yàn),其中 YOLOX-S+ 為改進(jìn)骨干網(wǎng)絡(luò)的 YOLOX-S ,在YOLOx-S + 上分別測(cè)試本文改進(jìn)點(diǎn)的有效性.實(shí)驗(yàn)結(jié)果列于表2.

表2消融實(shí)驗(yàn)結(jié)果Table2 Resultsofablationexperiment

由表2可見(jiàn),在裂縫數(shù)據(jù)集中,添加了CA模塊的 YOLOX-S+ 模型相比于原模型精度提升1.8個(gè)百分點(diǎn),召回率提升1.18個(gè)百分點(diǎn),相比于原 YOLOX-S 模型精度提升了2.57個(gè)百分點(diǎn),召回率提升了1.72個(gè)百分點(diǎn),在FPS減小較少的情況下提升了模型精度.而替換損失函數(shù)為Focalloss 時(shí)精度和召回率也稍有提升.實(shí)驗(yàn)結(jié)果表明上述方法有效.本文方法在 YOLOX-S+ 的基礎(chǔ)上使用了上述3種策略,相較于 YOLOx-s+ 精度提升了2.95個(gè)百分點(diǎn),召回率提升了1.79個(gè)百分點(diǎn);精度相較于原YOLOx-s 模型提升了3.72個(gè)百分點(diǎn),召回率提升了2.33個(gè)百分點(diǎn).與原始 YOLOx-s 模型相比,由于計(jì)算量的增大導(dǎo)致 FPS有所下降,但只增加了少量的參數(shù),以較少的模型速度降低換來(lái)了較大的精度提升,且能滿足實(shí)時(shí)檢測(cè)的需求.圖6為本文方法在部分?jǐn)?shù)據(jù)集上的預(yù)測(cè)結(jié)果.由圖6可見(jiàn),本文方法可以很好地滿足不同尺度的裂縫檢測(cè)需求.由圖6和表2可見(jiàn),本文方法有效.

圖6部分?jǐn)?shù)據(jù)集預(yù)測(cè)結(jié)果Fig. 6 Partial dataset prediction results

3.4 對(duì)比實(shí)驗(yàn)

為進(jìn)一步驗(yàn)證本文方法的有效性,將本文方法與其他主流目標(biāo)檢測(cè)算法在嵌入式設(shè)備上進(jìn)行比較分析.實(shí)驗(yàn)使用的嵌人式設(shè)備為JetsonOrinNano,該設(shè)備作為一款支持NvidaCuda的人工智能計(jì)算平臺(tái),有高便攜性、低功耗等特點(diǎn),且能為目標(biāo)檢測(cè)模型提供穩(wěn)定的性能,可作為無(wú)人機(jī)目標(biāo)檢測(cè)設(shè)備使用.不同方法的對(duì)比實(shí)驗(yàn)結(jié)果列于表3,其中CspDarknet + 為本文改進(jìn)的骨干網(wǎng)絡(luò).

表3不同方法的對(duì)比實(shí)驗(yàn)結(jié)果Table 3 Comparativeexperimental resultsofdifferentmethods

由表3可見(jiàn),與原方法相比,本文在嵌入式設(shè)備上有與原方法近似的速度,但精度上更優(yōu).在SSD,YOLOv3,YOLOv4和 FCOS中,平均精度最高的目標(biāo)檢測(cè)模型是YOLOv4,而本文方法比YOLOv4精度高1.86個(gè)百分點(diǎn),速度也比它快.與其他方法相比,無(wú)論是速度和精度,本文方法都具有明顯優(yōu)勢(shì).通過(guò)在嵌入式設(shè)備上與主流目標(biāo)檢測(cè)算法對(duì)比可見(jiàn),在有限的計(jì)算資源下,本文方法在綜合性能上更優(yōu),能實(shí)現(xiàn)實(shí)時(shí)性檢測(cè),更適合用于無(wú)人機(jī)目標(biāo)檢測(cè)模型.

由于Jetson Orin Nano的低功耗和高便攜性使該設(shè)備在無(wú)人機(jī)可搭載的目標(biāo)檢測(cè)設(shè)備上具有可替代性,本文方法同樣可以搭載在其他無(wú)人機(jī)目標(biāo)檢測(cè)設(shè)備中,在支持NvidaCuda和TensorRT的設(shè)備上可以獲得更優(yōu)的性能,具有廣泛的適用性.因此,在無(wú)人機(jī)橋梁裂縫檢測(cè)中具有較好的應(yīng)用價(jià)值.

綜上所述,針對(duì)橋梁裂縫檢測(cè)不充分的安全隱患問(wèn)題,本文提出了一種基于改進(jìn)YOLOx-s的無(wú)人機(jī)橋梁裂縫檢測(cè)方法.首先,對(duì)YOLOx-s進(jìn)行改進(jìn),提出一種殘差空洞卷積模塊并引入主干網(wǎng)絡(luò)中,提高了模型的感受野.其次,在PANET中引入了CA注意力機(jī)制,使模型能獲取更多特征信息,減少小目標(biāo)的漏檢率.最后,替換損失函數(shù)為Focalloss,提升了模型的穩(wěn)定性.實(shí)驗(yàn)結(jié)果表明,與原算法和目前主流的算法相比,改進(jìn)后的YOLOx-s算法有更好的精度,在無(wú)人機(jī)橋梁裂縫檢測(cè)中具有一定的應(yīng)用價(jià)值.

參考文獻(xiàn)

[1]徐洪濤,郭國(guó)忠,蒲煥玲,等.我國(guó)近年來(lái)橋梁事故發(fā)生的原因與教訓(xùn)[J].中國(guó)安全科學(xué)學(xué)報(bào),2007,17(11):

90-95.(XU H T,GUO G Z,PU H L,et al. Causes and Lessons of Bridge Accidents in China in Recent Years[J].China Safety Science Journal,2007,17(11):90-95.)

[2]楊雪峰.橋梁檢測(cè)車(chē)在橋梁檢測(cè)中的應(yīng)用價(jià)值分析[J].科技創(chuàng)新導(dǎo)報(bào),2019,16(4):45.(YANG XF.Application Value Analysis of Bridge Inspection Vehicles in Bridge Inspection [J]. Science and TechnologyInnovation Herald,2019,16(4):45.)[3]孫宏斐,夏曉華.橋梁檢測(cè)設(shè)備淺析[J].中國(guó)設(shè)備工程,2021(18):127-128.(SUNHF,XIAXH.A BriefAnalysis of Bridge Inspection Equipment [J]. China Plant Engineering,2O21(18):127-128.)

[4]REDMON J, DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified,Real-Time Object Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,

2016:779-788.[5」寧健,馬淼,柴立臣,等.深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J].信息記錄材料,2022,23(10):1-4.(NINGJ,MA M,CHAI L C,et al. A Survey of Deep Learning Object Detection Algorithms [J]. Information RecordingMaterials,2022,23(10):1-4.)

[6]REN SQ,HE K M, GIRSHICK R,et al. Faster R-CNN: Towards Real-Time Object Detection with RegionProposal Networks [C]//Advances in Neural Information Processing Systems. Piscataway, NJ: IEEE,2015:

91-99.

[7]LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single Shot Multibox Detector [C]//European Conference on

[8]李鋒.基于無(wú)人機(jī)及深度學(xué)習(xí)的橋梁結(jié)構(gòu)裂縫智能識(shí)別[D].長(zhǎng)沙:湖南大學(xué),2021.(LIF.InteligentIdentification of Bridge Structural Cracks Based on Unmanned Aerial Vehicle and Deep Learning[D].Changsha:Hunan University,2021.)

[9]洪光征.基于防撞無(wú)人機(jī)視頻的橋梁裂縫檢測(cè)方法研究[D].深圳:深圳大學(xué),2020.(HONGG Z.Research onBridge Crack Detection Method Based on Colision-Proof UAV Video [D]. Shenzhen: Shenzhen University,2020.)

[10]REDMON J,F(xiàn)ARHADI A. YOLOv3:An Incremental Improvement [EB/OL].(2018-04-08)[2024-02-01].https://arxiv. org/abs/1804. 02767.

[11]廖延娜,李婉.基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫檢測(cè)方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2021,42(8):2366-2372.(LIAO Y N,LI W. Bridge Crack Detection Method Based on Convolution Neural Network [J]. ComputerEngineering and Design,2021,42(8):2366-2372.)

[12]GE Z,LIU S T,WANG F,et al. YOLOx:Exceding YOLO Series in 2021[EB/OL]. (2021-08-06)[2024-02-01]. https://arxiv.org/abs/2107.08430.

[13]LIN T Y,GOYAL P,GIRSHICK R,et al. Focal Los for Dense Object Detection[C]//Proceedings of the IEEEInternational Conference on Computer Vision (ICCV). Piscataway,NJ: IEEE,2Ol7: 2980-2988.

[14]WANG C Y,LIAO HY M, WU Y H,et al. CSPNet: A New Backbone That Can Enhance Learning Capabilityof CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ: IEEE,2020:390-391.

[15]WANG K,LIEW J H, ZOU Y,et al. Panet:Few-Shot Image Semantic Segmentation with Prototype Alignment[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE,2019:9197-9206.

[16]HOU QB, ZHOU D Q,F(xiàn)ENG JS. Coordinate Atention for Efficient Mobile Network Design [C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Patern Recognition. Piscataway,NJ: IEEE,2021:13713-13722.

[17]王少鵬.公路橋梁混凝土材料的工程使用年限研究[D].北京:交通運(yùn)輸部公路科學(xué)研究院,2019.(WANG S P. Research on Engineering Service Life of Concrete Material for Highway Bridge [D]. Beijing:Research Institute of Highway Ministry of Transport,2019.)

[18]HOWARD A, SANDLER M, CHU G,et al. Searching for Mobile NetV3 [C]//Proceedings of the IEEE/CVFInternational Conference on Computer Vision. Piscataway,NJ: IEEE,2019:1314-1324.

[19]MA NN, ZHANG X Y, ZHENG H T,et al. Shufflenet v2: Practical Guidelines for Eficient CNN ArchitectureDesign [C]//Proceedings of the European Conference on Computer Vision (ECCV). New York:ACM,2018 :116-131.

[20]IAN Z,SHEN C H,CHEN H,et al. FCOS: Fully Convolutional One-Stage Object Detection [C]//Proceedingsof 2019 IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE,20l9: 9627-9636.

[21]陳森,徐偉峰,王洪濤,等.基于改進(jìn) YOLOv7的麥穗檢測(cè)算法[J].學(xué)報(bào)(理學(xué)版),2024,62(4):886-894.(CHEN S, XU W F, WANG H T,et al. Wheat Ear Detection Algorithm Based on Improved YOLOv7[J].Journal of Jilin University(Science Edition),2024,62(4):886-894.)

[22]BOCHKOVSKIY A,WANG C Y,LIAO H Y M. YOLOv4: Optimal Speed and Accuracy of Object Detection[EB/OL]. (2020-04-23)[2024-02-20]. https://arxiv.org/abs/2004.10934.

(責(zé)任編輯:韓嘯)

猜你喜歡
精度橋梁模塊
基于LPQ和NLBP的特征融合算法及其應(yīng)用
基于“教一學(xué)一評(píng)”一致性的小學(xué)數(shù)學(xué)低段非書(shū)面評(píng)價(jià)實(shí)踐研究
手拉手 共搭?lèi)?ài)的橋梁
句子也需要橋梁
高性能砼在橋梁中的應(yīng)用
用愛(ài)心架起希望的橋梁
主站蜘蛛池模板: 99免费在线观看视频| av天堂最新版在线| 日韩av电影一区二区三区四区| 国产鲁鲁视频在线观看| 欧美午夜在线视频| 自拍偷拍欧美日韩| 日韩高清欧美| 欧美色伊人| 国产美女无遮挡免费视频| 国产一区成人| 日本亚洲国产一区二区三区| 亚洲精品视频在线观看视频| 亚洲成年人片| 啪啪啪亚洲无码| 2021精品国产自在现线看| 亚洲人成人无码www| 18禁高潮出水呻吟娇喘蜜芽| 黄片在线永久| 国产无码制服丝袜| 色综合婷婷| 久久国产香蕉| 亚瑟天堂久久一区二区影院| 久久久久久久久18禁秘| 欧洲成人在线观看| 国产一区免费在线观看| 亚洲中文在线看视频一区| 制服丝袜无码每日更新| 亚洲国产欧洲精品路线久久| 一本久道热中字伊人| www中文字幕在线观看| 亚洲狼网站狼狼鲁亚洲下载| 五月天福利视频| 99re经典视频在线| 呦女亚洲一区精品| 久久这里只有精品免费| 毛片一区二区在线看| 国产9191精品免费观看| 欧美亚洲第一页| 天天综合网站| 91娇喘视频| 国产人人干| 91黄视频在线观看| 国产91精品最新在线播放| 国产啪在线91| 国产噜噜噜| 激情乱人伦| 国产一区成人| 97人人做人人爽香蕉精品| 久久一级电影| 欧美一区二区自偷自拍视频| 97影院午夜在线观看视频| 成年女人18毛片毛片免费| 国产va在线| 国产91熟女高潮一区二区| 中文字幕欧美成人免费| 伊人色天堂| 国产va免费精品观看| a级毛片视频免费观看| 喷潮白浆直流在线播放| 国产在线一区二区视频| 最新无码专区超级碰碰碰| 乱系列中文字幕在线视频| 国产精品永久在线| 中文字幕 欧美日韩| 91 九色视频丝袜| 欧美影院久久| 色悠久久久| 久久久91人妻无码精品蜜桃HD | 日本高清在线看免费观看| 一区二区三区成人| 国产精品无码翘臀在线看纯欲| 日本妇乱子伦视频| 亚洲资源站av无码网址| 日韩a在线观看免费观看| 日本在线视频免费| 久久成人国产精品免费软件| 亚洲AV无码久久天堂| 动漫精品中文字幕无码| 久久久久无码精品| 国产微拍精品| 韩日无码在线不卡| 综合亚洲网|