中圖分類(lèi)號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1671-5489(2025)04-1091-08
Bridge Crack Detection Algorithm for Unmanned Aerial Vehicle Based on Improved YOLOx-s
XU Weifeng 1,2 ,LU Hang1,CHENG Ziyi1,LU Anwen 1 , WANG Hongtao 1,2 ,WANG Yanru3,LI Sheng1 1.DepartmentofComputer,North China Electric Pouer University(Baoding),Baoding O71oo3,Hebei Province,China; 2. Key Laboratory of Energy and Electric Power Knowledge Calculation in Hebei Province, Baoding 07103, Hebei Province,China;3. School of Economics, Jilin University,Changchun 130ol2,China)
Abstract: Aiming at the problem of safety hazards of insufficient bridge crack detection,we proposed a bridge crack detection algorithm based on YOLOx-s,combined with a smallunmanned aerial vehicle platform. Firstly,we added a residual hole convolution module in the backbone to solve the problem of large scale changes and complex backgrounds in drone images. Secondly,we added a coordinate attention mechanism module in PANET to improve the detection rate of small targets. Finally,we replaced the loss function with Focal loss to enhance the learning of positive samples and improve the stability of the model. The experimental results show that compared with the YOLOx-s algorithm, the proposed method improves detection accuracy by 3.72 percentage points. On embedded devices, this method has better accuracy than other mainstream algorithms and can achieve real-time detection, which can be better applied in bridge crack detection for unmanned aerial vehicle.
Keywords: unmanned aerial vehicle (UAV); bridge crack detection; object detection; YOLOx-salgorithm;attention mechanism
0引言
在橋梁評(píng)價(jià)指標(biāo)中,裂縫是評(píng)價(jià)公路橋梁安全可靠性的重要指標(biāo)[1.出現(xiàn)橋梁裂縫將導(dǎo)致橋梁承載力降低,因此,橋梁裂縫的檢測(cè)對(duì)橋梁的安全維護(hù)至關(guān)重要.目前,常用的橋梁裂縫檢測(cè)方法主要包括人工檢測(cè)和橋梁檢測(cè)車(chē)[2].人工檢測(cè)方法主要靠檢測(cè)人員的視覺(jué)經(jīng)驗(yàn)判斷,費(fèi)時(shí)費(fèi)力、可操作性差且危險(xiǎn)性較高.橋梁檢測(cè)車(chē)可安全快速地檢測(cè)出橋梁裂縫,但在檢測(cè)過(guò)程中需要長(zhǎng)時(shí)間占道,易導(dǎo)致交通癱瘓,且檢測(cè)成本較高.因此亟待一種更安全、高效、靈活且檢測(cè)成本低的橋梁裂縫檢測(cè)方法.
近年來(lái),隨著小型無(wú)人機(jī)技術(shù)的快速發(fā)展,作為搭載平臺(tái),無(wú)人機(jī)在橋梁檢測(cè)任務(wù)中被廣泛使用.無(wú)人機(jī)可利用其輕巧和方便的特點(diǎn),在不影響交通的情況下輕松到達(dá)待檢測(cè)位置,使用攝像頭完成裂縫檢測(cè)[3].這種方法具有安全、高效、靈活和檢測(cè)成本低的特點(diǎn),在搭載了目標(biāo)檢測(cè)算法后能實(shí)現(xiàn)自動(dòng)化和智能化的橋梁裂縫檢測(cè).
目前,在橋梁裂縫檢測(cè)中主要有Faster-RCNN[4],SSD[5],YOLO[6]系列等目標(biāo)檢測(cè)[]算法.文獻(xiàn)[8]研究了無(wú)人機(jī)橋梁裂縫檢測(cè)方法,并在此基礎(chǔ)上訓(xùn)練了Faster-RCNN算法用于無(wú)人機(jī)裂縫檢測(cè).文獻(xiàn)[9]對(duì)橋梁裂縫的區(qū)域提取和分類(lèi)進(jìn)行了研究,并針對(duì)橋梁裂縫的特征改進(jìn)了YOLOv3[10]算法.文獻(xiàn)[11]對(duì)橋梁裂縫固有特征和檢測(cè)過(guò)程的局限性進(jìn)行了研究,并改進(jìn)了YOLOv3的多尺度預(yù)測(cè)模塊提升檢測(cè)精度.但上述方法都只關(guān)注了橋梁裂縫的特征,未考慮無(wú)人機(jī)圖像的特點(diǎn).在無(wú)人機(jī)圖像中,橋梁裂縫尺度變化大,背景復(fù)雜,且小目標(biāo)多,易出現(xiàn)誤檢、小目標(biāo)漏檢等問(wèn)題導(dǎo)致檢測(cè)性能降低.因此,需對(duì)上述不足進(jìn)行有針對(duì)性地改進(jìn),
結(jié)合無(wú)人機(jī)圖像的特點(diǎn)和YOLO系列算法的實(shí)時(shí)性和準(zhǔn)確性,本文選擇 YOLOx-s[12] 為基線模型.YOLOx-s算法檢測(cè)速度和精度性能優(yōu)異,但仍無(wú)法解決無(wú)人機(jī)圖像中橋梁裂縫尺度差異大、小目標(biāo)檢測(cè)率低等問(wèn)題.所以本文對(duì)YOLOx-s 進(jìn)行以下改進(jìn):首先,為解決無(wú)人機(jī)圖像目標(biāo)尺度差異大、背景復(fù)雜的問(wèn)題,提出一種殘差空洞卷積模塊,并添加到骨干網(wǎng)絡(luò)中;其次,針對(duì)無(wú)人機(jī)圖像分辨率高、小目標(biāo)多的問(wèn)題,添加坐標(biāo)注意力模塊到Neck層中,以減少小目標(biāo)漏檢率;最后,對(duì)損失函數(shù)進(jìn)行改進(jìn),使用Focal loss[13]代替交叉熵?fù)p失,減少訓(xùn)練中的樣本不平衡問(wèn)題,提升模型的性能.實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的 YOLOX-S 算法在橋梁裂縫檢測(cè)方面能滿足實(shí)時(shí)性檢測(cè)的需求,并有較高的精度.與其他主流模型相比,本文方法在無(wú)人機(jī)橋梁裂縫檢測(cè)方面具有一定優(yōu)勢(shì).
YOLOx-s網(wǎng)絡(luò)
YOLOx模型結(jié)合了YOLO系列網(wǎng)絡(luò)的優(yōu)點(diǎn),創(chuàng)新地使用了解耦頭、anchor-free結(jié)構(gòu)以及標(biāo)簽分配策略 SimOTA.YOLOx 模型沿用了YOLO系列的整體布局,由骨干網(wǎng)絡(luò)、Neck 層和 YOLOxHead組成,此外,YOLOx還根據(jù)不同模塊的深度和寬度大小分為 nano,s,m,l,x 等尺寸.為保證精度和速度上的平衡,本文選用YOLOx-s作為基線模型.其骨干網(wǎng)絡(luò)沿用了 Csp[14] 結(jié)構(gòu),并使用SiLU激活函數(shù).SiLU激活函數(shù)是ReLU激活函數(shù)的改進(jìn)版,相比于ReLU激活函數(shù),非線性能力更強(qiáng),同時(shí)繼承了ReLU函數(shù)收斂快的優(yōu)點(diǎn).在骨干網(wǎng)絡(luò)中通過(guò)4次ResBlock body模塊后得到3個(gè)有效特征層,在最后一次ResBlockbody中還加人了SPP模塊,通過(guò)不同的池化核對(duì)圖像進(jìn)行池化操作,提取更多特征.得到3個(gè)有效特征層后,通過(guò)頸部的 PANET[15]結(jié)構(gòu)進(jìn)行特征融合,最后通過(guò) YOLOxHead進(jìn)行分類(lèi)和回歸,獲得預(yù)測(cè)結(jié)果.
雖然YOLOx-s速度較快,但無(wú)人機(jī)圖像尺度差異大,小目標(biāo)較多.在實(shí)際檢測(cè)任務(wù)中對(duì)復(fù)雜的裂縫檢測(cè)精度較低,對(duì)小裂縫易出現(xiàn)漏檢問(wèn)題.因此,本文針對(duì)上述問(wèn)題對(duì)該算法進(jìn)行改進(jìn).改進(jìn)后的YOLOx-s模型結(jié)構(gòu)如圖1所示.
2 改進(jìn)的YOLOx-s模型
雖然YOLOx-s算法檢測(cè)速度快、性能優(yōu)異,但仍無(wú)法解決無(wú)人機(jī)圖像中橋梁裂縫尺度差異大、小目標(biāo)檢測(cè)率低等問(wèn)題.本文在骨干網(wǎng)絡(luò)、特征融合、損失函數(shù)等方面對(duì)YOLOx-s 進(jìn)行改進(jìn),在保證實(shí)時(shí)檢測(cè)要求的同時(shí)提升精度.
2.1 對(duì)骨干網(wǎng)絡(luò)的改進(jìn)
由于無(wú)人機(jī)圖像尺度變化大,背景復(fù)雜,所以基于無(wú)人機(jī)圖像的特點(diǎn),需要目標(biāo)檢測(cè)模型增強(qiáng)對(duì)多尺度特征和復(fù)雜背景的分析能力.而增大感受野不僅可保存更多的特征信息,還可以映射更細(xì)微的特征信息,即相似特征之間的差異,從而減少局部信息的丟失,提升檢測(cè)精度.這對(duì)無(wú)人機(jī)圖像識(shí)別尤其重要.
基于上述分析,本文提出一種殘差空洞卷積模塊Res-DConvBlock,如圖2所示.由圖2可見(jiàn),該模塊首先通過(guò)一個(gè) 1×1 的標(biāo)準(zhǔn)卷積模塊調(diào)整通道數(shù),降低計(jì)算的復(fù)雜度,再通過(guò)一個(gè) 3×3 的空洞卷積模塊擴(kuò)大感受野,之后通過(guò)一個(gè) 1×1 的卷積塊調(diào)整通道數(shù),最后接上殘差邊.該模塊可有效提高模型的感受野,減少局部信息特征的丟失.對(duì)YOLOX-s 骨干網(wǎng)絡(luò)進(jìn)行改進(jìn):由于骨干網(wǎng)絡(luò)CspDarknet53中的focus模塊在分片操作時(shí)存在多個(gè)concat操作,需較大的內(nèi)存運(yùn)算開(kāi)銷(xiāo),故本文將focus模塊替換成與其有相同效果的 6×6 標(biāo)準(zhǔn)卷積模塊.并在其后添加殘差空洞卷積模塊擴(kuò)大模型的感受野,增強(qiáng)對(duì)復(fù)雜背景信息的處理,進(jìn)而提高橋梁裂縫的檢測(cè)精度.改進(jìn)后的骨干網(wǎng)絡(luò)如圖3所示,其中每個(gè)ResBlock body 由一次標(biāo)準(zhǔn)卷積模塊再加上Csp Layer 組成.Csp Layer將輸人數(shù)據(jù)分成兩部分,一部分由多個(gè)殘差單元堆疊組成,另一部分通過(guò)一次標(biāo)準(zhǔn)卷積模塊,然后對(duì)兩部分進(jìn)行拼接.上述 Res-DConvBlock 模塊添加到第一個(gè) ResBlock body 模塊后,再通過(guò)3次 ResBlock body 模塊輸出3層特征,以提高模型對(duì)圖像特征語(yǔ)義信息的提取和表達(dá)能力.
2.2 對(duì)特征融合層的改進(jìn)
為更好地檢測(cè)小目標(biāo),本文對(duì)YOLOx-s的PANNET結(jié)構(gòu)進(jìn)行改進(jìn),通過(guò)引人注意力模塊,使模型更有效地關(guān)注關(guān)鍵區(qū)域,從而在增加少量計(jì)算量的情況下提升小目標(biāo)檢測(cè)性能.本文采用嵌人坐標(biāo)注意力機(jī)制(coordinateattention,CA)[16]的方式為特征融合層的多尺度通道分配不同的權(quán)重,不僅考慮了通道信息,還考慮了方向位置信息,且輕量靈活.相比于傳統(tǒng)隨機(jī)分配權(quán)值的方式,嵌入坐標(biāo)注意力的加權(quán)方式可進(jìn)一步增加模型的感受野、小目標(biāo)的關(guān)注度以及位置敏感性.嵌入坐標(biāo)注意力機(jī)制如圖4所示.利用 (H,1) 和(1,W)的池化核將輸入特征圖分割并壓縮,對(duì)輸入特征圖分別在 X 方向和 Y 方向進(jìn)行平均池化,從而產(chǎn)生兩個(gè)大小分別為 C×H×1 和 C×1×W 獨(dú)立方向感知注意力的特征圖.再將帶有方向信息的特征圖由concat進(jìn)行拼接,并利用 1×1 卷積、標(biāo)準(zhǔn)化和非線性激活函數(shù)生成過(guò)程特征圖 f .將 f 在空間維度上拆分成兩個(gè)獨(dú)立的向量 fh 和 fw ,然后分別通過(guò) 1×1 卷積調(diào)整到與輸入特征圖相同的通道數(shù),再利用 Sigmoid 激活函數(shù)得到兩個(gè)獨(dú)立空間方向的注意力權(quán)值,最后對(duì)其進(jìn)行拓展,作用于輸入特征后得到對(duì)目標(biāo)空間維度位置信息敏感的輸出特征圖.
2.3 對(duì)損失函數(shù)的改進(jìn)
由于待檢測(cè)的裂縫與橋梁背景相似,因此當(dāng)裂縫較小時(shí),裂縫正樣本和橋梁背景負(fù)樣本很難區(qū)分.在模型訓(xùn)練過(guò)程中,背景負(fù)樣本的個(gè)數(shù)較多,導(dǎo)致模型對(duì)裂縫正樣本的學(xué)習(xí)不夠.負(fù)樣本數(shù)量過(guò)大,會(huì)占據(jù)損失的大部分,使模型的優(yōu)化方向不理想,導(dǎo)致模型性能不穩(wěn)定.為解決該問(wèn)題,本文引入Focal loss 函數(shù)代替交叉熵?fù)p失.Focal loss 函數(shù)是在交叉熵?fù)p失函數(shù)的基礎(chǔ)上構(gòu)建的.Focal loss 函數(shù)定義如下:
其中: ?Pt 表示樣本分類(lèi)難易程度(難分類(lèi)的 ?Pt ?。?,用 (1-pt)γ 對(duì)原始交叉熵?fù)p失進(jìn)行衰減;γ為超參數(shù),用于控制損失函數(shù)衰減; αt 用于控制正負(fù)樣本權(quán)重.當(dāng) γ=2 , αt=0.75 時(shí)效果最好.
3 實(shí)驗(yàn)及結(jié)果分析
3.1 數(shù)據(jù)集構(gòu)建
確定了算法結(jié)構(gòu)后,需構(gòu)建合適的數(shù)據(jù)集作為模型的訓(xùn)練數(shù)據(jù)集.由于混凝土材料具有易獲取、抗火性能好、不易風(fēng)化等特點(diǎn),因此常被用于作為橋梁建設(shè)的材料[17],本文實(shí)驗(yàn)從橋梁裂縫開(kāi)源數(shù)據(jù)集中選取多張混凝土橋梁裂縫圖像,通過(guò)對(duì)獲取的圖像進(jìn)行旋轉(zhuǎn)、平移、裁剪等操作,得到4000多張包含各種混凝土橋梁裂縫的數(shù)據(jù)集.如圖5所示,數(shù)據(jù)集中包括不同形狀的裂縫,如橫向裂縫、縱向裂縫、斜向裂縫等,也有不同尺度小裂縫組成的交叉裂縫.得到數(shù)據(jù)集后,使用Labelimg圖像標(biāo)注工具對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注,標(biāo)注類(lèi)型為Crack,并按 8:1:1 劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集.
3.2 評(píng)價(jià)指標(biāo)
為衡量目標(biāo)檢測(cè)模型的效果,選擇檢測(cè)精度(AP)和檢測(cè)速率作為模型的評(píng)價(jià)指標(biāo).檢測(cè)精度為準(zhǔn)確率和召回率所圍成曲線的面積,準(zhǔn)確率和召回率分別定義為
其中 TP為正確預(yù)測(cè)為正樣本的個(gè)數(shù),F(xiàn)P為錯(cuò)誤預(yù)測(cè)為正樣本的個(gè)數(shù),F(xiàn)N為錯(cuò)誤預(yù)測(cè)為負(fù)樣本的個(gè)數(shù).AP結(jié)合了模型的準(zhǔn)確率和召回率,為模型的性能提供了綜合評(píng)價(jià),AP的計(jì)算公式為
在檢測(cè)速率方面,為評(píng)價(jià)模型能否滿足實(shí)時(shí)性目標(biāo)檢測(cè)的需求,選擇每秒處理圖片數(shù)量FPS作為評(píng)價(jià)目標(biāo)檢測(cè)模型速度的評(píng)價(jià)指標(biāo).該值越大目標(biāo)檢測(cè)模型的速度越快.
3.3 實(shí)驗(yàn)結(jié)果與分析
實(shí)驗(yàn)采用Python完成程序編寫(xiě),使用環(huán)境為Ubuntu20.04,Pytorch版本1.11.0,CUDA版本11.6,使用GPU為Nvidia 2080Ti
首先,為驗(yàn)證本文骨干網(wǎng)絡(luò)改進(jìn)的有效性,替換YOLOx-s 的骨干網(wǎng)絡(luò)為MobileNetV3[18],ShuffleNetV2[19]以及本文改進(jìn)的骨干網(wǎng)絡(luò),與原模型進(jìn)行性能對(duì)比.在上述裂縫數(shù)據(jù)集上訓(xùn)練300 輪,實(shí)驗(yàn)結(jié)果列于表1,其中Cspdarknet為YOLOx-s原骨干網(wǎng)絡(luò).
由表1可見(jiàn),在Cspdarknet,MobileNetV3,ShuffleNetV2中,使用ShufleNetV2 檢測(cè)速度最快,且模型參數(shù)量最小,MobileNetV3次之.但在檢測(cè)性能方面,無(wú)論是精度還是召回率都是YOLOx-s的原骨干網(wǎng)絡(luò)效果Cspdarknet最好,且在檢測(cè)速度方面已能滿足實(shí)時(shí)性要求.本文改進(jìn)的骨干網(wǎng)絡(luò)與YOLOx-s 原骨干網(wǎng)絡(luò)效果相比,精度進(jìn)一步提升.由于添加了殘差空洞卷積模塊,增加了計(jì)算量導(dǎo)致速度下降,但仍能滿足實(shí)時(shí)性要求.綜合可見(jiàn),本文方法以少量的速度下降換來(lái)了檢測(cè)精度的提高,且可滿足實(shí)時(shí)性要求,所以本文對(duì)骨干網(wǎng)絡(luò)的改進(jìn)有效.
其次,為驗(yàn)證本文對(duì)Neck層改進(jìn)的有效性,依次對(duì)YOLOx-s做消融實(shí)驗(yàn),其中 YOLOX-S+ 為改進(jìn)骨干網(wǎng)絡(luò)的 YOLOX-S ,在YOLOx-S + 上分別測(cè)試本文改進(jìn)點(diǎn)的有效性.實(shí)驗(yàn)結(jié)果列于表2.
由表2可見(jiàn),在裂縫數(shù)據(jù)集中,添加了CA模塊的 YOLOX-S+ 模型相比于原模型精度提升1.8個(gè)百分點(diǎn),召回率提升1.18個(gè)百分點(diǎn),相比于原 YOLOX-S 模型精度提升了2.57個(gè)百分點(diǎn),召回率提升了1.72個(gè)百分點(diǎn),在FPS減小較少的情況下提升了模型精度.而替換損失函數(shù)為Focalloss 時(shí)精度和召回率也稍有提升.實(shí)驗(yàn)結(jié)果表明上述方法有效.本文方法在 YOLOX-S+ 的基礎(chǔ)上使用了上述3種策略,相較于 YOLOx-s+ 精度提升了2.95個(gè)百分點(diǎn),召回率提升了1.79個(gè)百分點(diǎn);精度相較于原YOLOx-s 模型提升了3.72個(gè)百分點(diǎn),召回率提升了2.33個(gè)百分點(diǎn).與原始 YOLOx-s 模型相比,由于計(jì)算量的增大導(dǎo)致 FPS有所下降,但只增加了少量的參數(shù),以較少的模型速度降低換來(lái)了較大的精度提升,且能滿足實(shí)時(shí)檢測(cè)的需求.圖6為本文方法在部分?jǐn)?shù)據(jù)集上的預(yù)測(cè)結(jié)果.由圖6可見(jiàn),本文方法可以很好地滿足不同尺度的裂縫檢測(cè)需求.由圖6和表2可見(jiàn),本文方法有效.
3.4 對(duì)比實(shí)驗(yàn)
為進(jìn)一步驗(yàn)證本文方法的有效性,將本文方法與其他主流目標(biāo)檢測(cè)算法在嵌入式設(shè)備上進(jìn)行比較分析.實(shí)驗(yàn)使用的嵌人式設(shè)備為JetsonOrinNano,該設(shè)備作為一款支持NvidaCuda的人工智能計(jì)算平臺(tái),有高便攜性、低功耗等特點(diǎn),且能為目標(biāo)檢測(cè)模型提供穩(wěn)定的性能,可作為無(wú)人機(jī)目標(biāo)檢測(cè)設(shè)備使用.不同方法的對(duì)比實(shí)驗(yàn)結(jié)果列于表3,其中CspDarknet + 為本文改進(jìn)的骨干網(wǎng)絡(luò).
由表3可見(jiàn),與原方法相比,本文在嵌入式設(shè)備上有與原方法近似的速度,但精度上更優(yōu).在SSD,YOLOv3,YOLOv4和 FCOS中,平均精度最高的目標(biāo)檢測(cè)模型是YOLOv4,而本文方法比YOLOv4精度高1.86個(gè)百分點(diǎn),速度也比它快.與其他方法相比,無(wú)論是速度和精度,本文方法都具有明顯優(yōu)勢(shì).通過(guò)在嵌入式設(shè)備上與主流目標(biāo)檢測(cè)算法對(duì)比可見(jiàn),在有限的計(jì)算資源下,本文方法在綜合性能上更優(yōu),能實(shí)現(xiàn)實(shí)時(shí)性檢測(cè),更適合用于無(wú)人機(jī)目標(biāo)檢測(cè)模型.
由于Jetson Orin Nano的低功耗和高便攜性使該設(shè)備在無(wú)人機(jī)可搭載的目標(biāo)檢測(cè)設(shè)備上具有可替代性,本文方法同樣可以搭載在其他無(wú)人機(jī)目標(biāo)檢測(cè)設(shè)備中,在支持NvidaCuda和TensorRT的設(shè)備上可以獲得更優(yōu)的性能,具有廣泛的適用性.因此,在無(wú)人機(jī)橋梁裂縫檢測(cè)中具有較好的應(yīng)用價(jià)值.
綜上所述,針對(duì)橋梁裂縫檢測(cè)不充分的安全隱患問(wèn)題,本文提出了一種基于改進(jìn)YOLOx-s的無(wú)人機(jī)橋梁裂縫檢測(cè)方法.首先,對(duì)YOLOx-s進(jìn)行改進(jìn),提出一種殘差空洞卷積模塊并引入主干網(wǎng)絡(luò)中,提高了模型的感受野.其次,在PANET中引入了CA注意力機(jī)制,使模型能獲取更多特征信息,減少小目標(biāo)的漏檢率.最后,替換損失函數(shù)為Focalloss,提升了模型的穩(wěn)定性.實(shí)驗(yàn)結(jié)果表明,與原算法和目前主流的算法相比,改進(jìn)后的YOLOx-s算法有更好的精度,在無(wú)人機(jī)橋梁裂縫檢測(cè)中具有一定的應(yīng)用價(jià)值.
參考文獻(xiàn)
[1]徐洪濤,郭國(guó)忠,蒲煥玲,等.我國(guó)近年來(lái)橋梁事故發(fā)生的原因與教訓(xùn)[J].中國(guó)安全科學(xué)學(xué)報(bào),2007,17(11):
90-95.(XU H T,GUO G Z,PU H L,et al. Causes and Lessons of Bridge Accidents in China in Recent Years[J].China Safety Science Journal,2007,17(11):90-95.)
[2]楊雪峰.橋梁檢測(cè)車(chē)在橋梁檢測(cè)中的應(yīng)用價(jià)值分析[J].科技創(chuàng)新導(dǎo)報(bào),2019,16(4):45.(YANG XF.Application Value Analysis of Bridge Inspection Vehicles in Bridge Inspection [J]. Science and TechnologyInnovation Herald,2019,16(4):45.)[3]孫宏斐,夏曉華.橋梁檢測(cè)設(shè)備淺析[J].中國(guó)設(shè)備工程,2021(18):127-128.(SUNHF,XIAXH.A BriefAnalysis of Bridge Inspection Equipment [J]. China Plant Engineering,2O21(18):127-128.)
[4]REDMON J, DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified,Real-Time Object Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,
2016:779-788.[5」寧健,馬淼,柴立臣,等.深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J].信息記錄材料,2022,23(10):1-4.(NINGJ,MA M,CHAI L C,et al. A Survey of Deep Learning Object Detection Algorithms [J]. Information RecordingMaterials,2022,23(10):1-4.)
[6]REN SQ,HE K M, GIRSHICK R,et al. Faster R-CNN: Towards Real-Time Object Detection with RegionProposal Networks [C]//Advances in Neural Information Processing Systems. Piscataway, NJ: IEEE,2015:
91-99.
[7]LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single Shot Multibox Detector [C]//European Conference on
[8]李鋒.基于無(wú)人機(jī)及深度學(xué)習(xí)的橋梁結(jié)構(gòu)裂縫智能識(shí)別[D].長(zhǎng)沙:湖南大學(xué),2021.(LIF.InteligentIdentification of Bridge Structural Cracks Based on Unmanned Aerial Vehicle and Deep Learning[D].Changsha:Hunan University,2021.)
[9]洪光征.基于防撞無(wú)人機(jī)視頻的橋梁裂縫檢測(cè)方法研究[D].深圳:深圳大學(xué),2020.(HONGG Z.Research onBridge Crack Detection Method Based on Colision-Proof UAV Video [D]. Shenzhen: Shenzhen University,2020.)
[10]REDMON J,F(xiàn)ARHADI A. YOLOv3:An Incremental Improvement [EB/OL].(2018-04-08)[2024-02-01].https://arxiv. org/abs/1804. 02767.
[11]廖延娜,李婉.基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫檢測(cè)方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2021,42(8):2366-2372.(LIAO Y N,LI W. Bridge Crack Detection Method Based on Convolution Neural Network [J]. ComputerEngineering and Design,2021,42(8):2366-2372.)
[12]GE Z,LIU S T,WANG F,et al. YOLOx:Exceding YOLO Series in 2021[EB/OL]. (2021-08-06)[2024-02-01]. https://arxiv.org/abs/2107.08430.
[13]LIN T Y,GOYAL P,GIRSHICK R,et al. Focal Los for Dense Object Detection[C]//Proceedings of the IEEEInternational Conference on Computer Vision (ICCV). Piscataway,NJ: IEEE,2Ol7: 2980-2988.
[14]WANG C Y,LIAO HY M, WU Y H,et al. CSPNet: A New Backbone That Can Enhance Learning Capabilityof CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ: IEEE,2020:390-391.
[15]WANG K,LIEW J H, ZOU Y,et al. Panet:Few-Shot Image Semantic Segmentation with Prototype Alignment[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE,2019:9197-9206.
[16]HOU QB, ZHOU D Q,F(xiàn)ENG JS. Coordinate Atention for Efficient Mobile Network Design [C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Patern Recognition. Piscataway,NJ: IEEE,2021:13713-13722.
[17]王少鵬.公路橋梁混凝土材料的工程使用年限研究[D].北京:交通運(yùn)輸部公路科學(xué)研究院,2019.(WANG S P. Research on Engineering Service Life of Concrete Material for Highway Bridge [D]. Beijing:Research Institute of Highway Ministry of Transport,2019.)
[18]HOWARD A, SANDLER M, CHU G,et al. Searching for Mobile NetV3 [C]//Proceedings of the IEEE/CVFInternational Conference on Computer Vision. Piscataway,NJ: IEEE,2019:1314-1324.
[19]MA NN, ZHANG X Y, ZHENG H T,et al. Shufflenet v2: Practical Guidelines for Eficient CNN ArchitectureDesign [C]//Proceedings of the European Conference on Computer Vision (ECCV). New York:ACM,2018 :116-131.
[20]IAN Z,SHEN C H,CHEN H,et al. FCOS: Fully Convolutional One-Stage Object Detection [C]//Proceedingsof 2019 IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE,20l9: 9627-9636.
[21]陳森,徐偉峰,王洪濤,等.基于改進(jìn) YOLOv7的麥穗檢測(cè)算法[J].學(xué)報(bào)(理學(xué)版),2024,62(4):886-894.(CHEN S, XU W F, WANG H T,et al. Wheat Ear Detection Algorithm Based on Improved YOLOv7[J].Journal of Jilin University(Science Edition),2024,62(4):886-894.)
[22]BOCHKOVSKIY A,WANG C Y,LIAO H Y M. YOLOv4: Optimal Speed and Accuracy of Object Detection[EB/OL]. (2020-04-23)[2024-02-20]. https://arxiv.org/abs/2004.10934.
(責(zé)任編輯:韓嘯)