中圖分類號:TP391.92;U418.6 文獻標志碼:A文章編號:1001-5922(2025)05-0159-04
Abstract:Civil aviation plays a vital rolein China's transportationsystem.With theextension of theservice life of airports,the problem of pavement damage is becoming more and more serious,which poses a major threat to the safetyof aircraft taxing,take-offand landing.Inorder to reduce theriskofaircraft inthe processof take-off and landing,an improved detection method based on Faster R-CNN was proposed.The detection method comprehensivelyused deep learningand objectdetection technologiessuch as GC-ASFF module,CIoU index,improved loss functionand transfer learning to achieve accurate detectionof pavement cracks,so as to evaluate thecurent pavement safety status by using the identified characteristic parameters of pavement cracks.The experimental results showedthat the improved model had high recognition accuracyand excelent comprehensive performance,and can accurately identify and detect runway pavement damage,which has high reliability.
Key Words:crack detection;faster R-CNN;ASFF ;merging ratio;loss function
機場跑道是飛機起降的主要區域,在荷載和環境因素的相互作用下,機場道面很容易出現各種病害,裂縫病害則是大多數問題的早期表現之一,若不及時進行處理,則會造成巨大的安全隱患[1]。早期檢測方法主要有閾值法[2]、邊緣檢測法[3]和機器學習[4]等,但這些方式易受外部因素干擾,導致裂縫檢測效果不佳。隨著深度學習和計算機技術的共同進步,目標檢測已成為計算機視覺領域的研究熱點并得到了廣泛應用[5]。目標檢測算法通常分為單階段和二階段2種不同類型,其中,二階段檢測算法具有較高的識別精度和較低的漏檢率,但速度相對較慢,包括R-CNN[6]、FastR-CNN[7]、Faster
R-CNN[8]、MaskR-CNN[9]等。針對裂縫識別問題,部分學者也進行了很多研究,如提出了一種基于深度特征聚合網絡和空間通道擠壓激勵(scSE)注意機制模塊的裂紋檢測算法[10];提出了CNN與形態學的集成方法對道路檢測車采集的圖片進行病害的有效搜索、定位,并準確提取裂縫形態[11];提出了一種融合注意力機制的機場道面損傷自動檢測算法[12];提出了基于改進FasterR-CNN的裂縫檢測方法,能有效檢測出復雜背景下的細微裂縫
。雖然國內外關于路面裂縫檢測的研究很多,但檢測精度還不能達到理想的效果。因此,基于FasterR-CNN深度學習算法,提出了一種智能檢測混凝土裂縫的方法,通過計算機視覺與目標檢測技術來識別混凝土道面損傷情況,以便及時采取措施進行風險規避。
1機場混凝土道面裂縫檢測方法設計
FasterR-CNN算法包含4個模塊:特征提取網絡,區域生成網絡(RPN)ROIPooling層和分類回歸層,基本結構如圖1所示。

FasterR-CNN的檢測流程包括以下幾個關鍵步驟:(1)將訓練圖像調整到統一尺寸后輸入網絡,并通過特征提取層獲得特征圖;(2)利用RPN網絡,在特征圖上根據預設的交并比(IoU)閾值生成錨框;(3)將RPN生成的錨框與特征提取層生成的特征圖送入ROI池化層,得到固定尺寸(如7×7)的錨框映射特征圖;(4)將這些特征圖輸入分類回歸層,對錨框進行回歸預測,調整其位置,同時進行目標分類和檢測,生成最終分類結果。
1.1 vgg16網絡模型改進
1.1.1 ASFF
ASFF[14],即自適應空間特征融合,是一種針對單次檢測器中特征金字塔的不一致性而提出的創新策略,其核心思想在于通過學習適應性空間過濾特征的能力,從而在不同層次的特征中動態地融合信息,以優化目標檢測性能。相較于其他方法,如元素乘積和 sigmoid 門控單元,ASFF更加靈活地學習每個位置的不同特征層次的重要性權重,從而避免了空間矛盾的產生。這種自適應性的特征融合機制使得ASFF在處理目標檢測任務中能夠更好地捕獲目標的多尺度特征,提升了檢測的精準度和魯棒性。
1.1.2 GC 注意力機制
GCNet[15],即全局上下文網絡,是基于非局部網絡(NLNet)和壓縮-激勵網絡(SENet)的一種新穎體系結構,旨在以更低的計算量提高全局上下文建模的效率和準確性,其通過引入GC塊實現,如圖2所示。其核心在于通過加法融合機制有效地捕獲遠程依賴關系,為視覺場景的全局理解提供支持。

將全局上下文信息與ASFF模塊結合,形成基于GC注意力機制的空間自適應網絡(GC-ASFF),以確保每一層級的特征圖中都包含了全局上下文信息。這樣做不僅使ASFF在加權融合時考慮到了空間位置的自適應性,還同時考慮了全局上下文的協同關系,使得多尺度特征的融合更加自然流暢,信息表達更加充實全面。
1.2 交并比
在原有的FasterR-CNN算法中,通過IoU(IntersectionoverUnion)來衡量2個邊界框之間的重疊程度,并用于篩選正負樣本,具體公式如式(1)所示。如果重疊程度高于閾值,則將預測的邊界框視為正樣本(即與真實標簽匹配),否則為負樣本。

式中:A為真實框; B 為預測框; A∩ B 為預測框和真實框的重疊區域: .A∪ B 為預測框和真實框的并集。
在處理復雜邊界框回歸時,IoU存在一定的限制。為應對這一挑戰,研究引人了CIoU(CompleteIoU)指標,該指標在考慮了邊界框重疊度的基礎上,進一步綜合了距離損失和長寬比損失,從而顯著提高了邊界框回歸的準確性和穩定性,具體的計算公式如式所示。這一改進使得模型在面對形狀復雜的裂縫時仍能穩定生成高精度的定位結果。
1.3 損失函數改進
在混凝土裂縫檢測任務中,邊界框回歸損失函數的選擇對于模型的性能至關重要,為改進模型性能,對損失函數進行優化,具體如下:Huber損失函數通過一個稱為δ的閾值參數來平衡平方差和絕對差損失,具體公式如式所示。當誤差小于8時,Huber 損失等效于平方差損失;當誤差大于 δ 時,Huber損失等效于絕對差損失。
Smooth L1 損失函數可視為Huber損失函數在 δ 等于1時的特殊情況,具體公式如式所示。

對損失函數進行改進,則改進后的計算公式
如下:

式中: λ 的取值范圍是 0~1 。
2 試驗方法
2.1 試驗環境
模型代碼基于Python語言實現,使用VSCODE軟件進行代碼編譯操作,使用Pytorch網絡框架實現算法模型的運行。為了確保試驗的順利進行,在進行試驗之前需要對試驗環境和設備進行調試,具體的試驗環境及配置信息如表1所示:
表1試驗平臺設置

模型訓練使用的優化器為基于梯度下降算法的adam優化器,batchsize設置為4,epochs設置為100,初始學習率設置為0.0001,學習率基于訓練總epochs,每個step更新一次。
2.2 數據獲取與處理
試驗采用數碼相機拍攝安徽潁上縣某鄉村道路混凝土裂縫圖像4028張。對實拍數據集進行一定的預處理操作,使深度學習模型獲得更好的學習表現。對數據集進行預處理操作,在處理后的圖片中選出10000張較好的圖片構建數據集,其中,訓練集中包含圖片8100張,驗證集中包含圖片900張,測試集中包含圖片1000張。采用數據集標注工具labelimg進行處理生成XML標注文件,將每個裂縫定義為“crack”,每張圖片及其標注文件具有一一對應關系。
2.3 評價指標
2.3.1 精確度和召回率
混淆矩陣是一個誤差矩陣,常用來可視化地評估監督學習算法的性能,展示了模型在測試集上的預測結果與實際標簽之間的對應關系。在混淆矩陣中,行表示實際類別,列表示預測類別。混淆矩陣包括4個元素:TP(TruePositive)FP(FalsePositive)、TN(TrueNegative)和FN(FalseNegative),這些元素分別表示模型正確預測的正例數量、將負例錯判為正例的數量、模型正確預測的負例數量和將正例錯判為負例的數量,其定義如表2所示。
表2混淆矩陣

基于混淆矩陣,可對精確度和召回率進行定義。精確度指模型正確判定出的正例占所有判定為正例樣本的比重,具體公式如式(8)所示。
召回率是指模型正確判定出的正例占數據集中所有正例的比重,具體公式如式(9)所示。
2.3.2 mAP
在不同的置信度閾值下,模型對某一類別的預測有多組精確度和召回率,AP(AveragePrecison)即P-R曲線所圍面積,mAP(meanAveragePrecison)為所有類別AP的均值。由于僅進行裂縫檢測的任務,故 AP=mAP ,具體公式如下所示。
2.3.3
得分
得分是一項綜合考量精確度和召回率的度量標準,用于評估分類模型的表現,其值介于0和1之間,數值越高表示模型在精確度和召回率上的表現越好,具體公式如式(12)所示。

3 結果與分析
3.1主干特征提取網絡改進結果與分析
研究采用vggl6模型作為FasterR-CNN的主干特征提取網絡,在設備環境不變,試驗環境參數不變的條件下,對模型改進前后的各項性能指標進行對比與客觀分析。在vggl6模型的基礎上,考慮加入ASFF模塊和加入GC-ASFF模塊2種情況進行對比試驗,在合成數據集下訓練模型并開展測試,具體結果如表3所示。

由表3可知,相較于單獨添加ASFF的方案,添加GC-ASFF在
得分、mAP和精確度方面表現更優。ASFF通過動態調整多尺度特征的融合權重,可以在一定程度上提升模型對不同尺寸裂縫的適應能力。盡管單獨引人ASFF的方案在召回率上表現較好,但是較低的精度和
得分表明其在裂縫識別的準確性上有所欠缺。這是因為ASFF注重特征的空間分布和尺寸變化,但在處理全局信息和上下文關系時存在局限性,導致模型在某些背景復雜的區域產生誤判。
GC-ASFF則通過聚焦圖像的關鍵區域和結合全局上下文信息,能夠更有效地捕捉和利用圖像中的全局依賴關系,GC注意力機制增強了模型對場景的整體把握,優化了特征的利用效率,使得模型在整體結構上得到了提升。這種全局與局部的優化協同作用,顯著提高了模型的精確率,同時也間接提升了mAP和
得分。
3.2FasterR-CNN改進結果與分析
設備環境不變,試驗環境參數不變的條件下,對模型改進前后的各項性能指標進行對比與客觀分析。為驗證GC-ASFF網絡結構、CIoU指標和改進損失函數對FasterR-CNN網絡的實際效果,以FasterR-CNN為基準模型進行消融試驗,在合成數據集下進行模型訓練和測試。評估引入不同模塊對裂縫檢測任務的影響,具體結果如表4所示。

由表4可知,通過引入GC-ASFF模塊、替換IoU為CIoU及調整損失函數對FasterR-CNN進行改進,F1得分和精確度達到了最高,盡管召回率有所下降,但整體上,模型在綜合性能方面取得了最佳表現。
為實現更全面的性能提升,對改進后的FasterR-CNN進行遷移學習,結果如表5所示。

分析表5中數據可得,改進后的FasterR-CNN與遷移學習結合使用,整體性能有顯著提升,尤其在F1得分和精確度上表現最為突出,同時mAP指標也保持在較高水平,盡管召回率稍有下降,但仍在較高范圍內。
4結語
針對已有目標檢測算法在裂縫檢測中存在的識別率低的問題,研究提出了一種改進的混凝土裂縫識別方法。試驗結果表明,改進后的模型即使在背景信息復雜的圖像中也未出現漏檢、錯檢和重復檢測等問題,相較于基準模型在F得分、精確度和mAP值分別提升了12.00%22.22%和0.46%,滿足了精準完整的檢測要求。對于飛機跑道道面損傷能夠進行精準識別和檢測,充分符合機場道面裂縫識別檢測的實際應用需要,能夠滿足其在實際場景的應用,并能夠在復雜的條件下識別和降低飛行起降過程的風險,提升整體的運行安全水準。
【參考文獻】
[1] 牟守國,解團結.公路橋梁裂縫修復用改性新材料性 能測試及效果研究[J].粘接,2024,51(1):110-113
[2] 李海豐,吳治龍,聶晶晶,等.基于深度圖像的機場道 面裂縫自動檢測算法[J].交通運輸工程學報,2020, 20(6) :250-260.
[3] 邢曉敏,董行,林永清,等.結合角點的邊緣檢測法實 現輸電線路桿塔標牌圖像定位[J].吉林電力,2020, 48(3) :32-36.
[4] KOSAKA N,OHASHI G.Vision-based nighttime vehicle detection using censure and SVM[J].IEEE Trans.Intelligent transportation systems,2015,16(5):2599-2608.
[5] 房振華,譚治海,朱哲,等.基于Faster-RCNN的探地雷 達公路病害圖像檢測[J].施工技術(中英文),2023, 52(24) :76-82.
[6] GIRSHICKR,DONAHUEJ,DARRELL T,et al.Rich featurehierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Columbus,OH, USA : Institute of Electrical and Electronics Engineers,2014.
[7] GIRSHICK R.FAST R-CNN[C]//Proceedings of the IEEE international conference on computer vision.Santiago,Chile: Institute of Electrical and Electronics Engineers,2015.
[8] RENS,HEK,GIRSHICKR,et al.Fasterr-cnn:Towards real-time object detection with region proposal networks [J]. Advances in neural information processing systems, 2015,28(2) :1021-1030.
[9] HE K,GKIOXARI G,DOLLAR P,et al. Mask r-cnn[C]// Proceedings of the IEEE international conference on computervision.Venice,Italy:Institute ofElectrical and Electronics Engineers,2017.
[10] QIAOW,LIUQ,WUX,etal.Automaticpixel-levelpavement crack recognition using a deep feature aggregation segmentation network with a scSE attention mechanism module[J].Sensors,2021,21(9) :2902-2926.
[11] 晏班夫,徐觀亞,欒健,等.基于FasterR-CNN與形態法的 路面病害識別[J].中國公路學報,2021,34(9):181-193.
[12] ZHANG H,DONG J,GAO Z.Automatic segmentation of airportpavement damagebyAM-Mask R-CNNalgorithm [J].EngineeringReports,2023,5(8):1-17.
[13] 徐康,馬榮貴.基于改進Faster-RCNN的瀝青路面裂 縫檢測[J].計算機系統應用,2022,31(7):341-348.
[14] RONG Y,ZIFEI M,QUAN G,et al. Target detection of teadisease based on improved YOLOv5s-ECA-ASFF algorithm[J]. Journal of Chinese Agricultural Mechanization,2024,45(1) :244-251.
[15] CAOY,XUJ,LINS,et al.GCNet:Non-local networks meet squeeze-excitation networks and beyond[C]//Proceedings of the IEEE/CVF international conference on computer vision workshops.Seoul,South Korea:Institute ofElectrical and Electronics Engineers/Computer Vision Foundation,2019.
(責任編輯:蘇帆)