【中圖分類號】 U418.6
【文獻標志碼】 A
0 引言
我國公路建設不斷發展,根據交通運輸部發布的數據,2022年末全國公路總里程535.48萬 km ,公路養護里程535.03萬km,占公路里程比重的 99.9% [1]。公路運營過程中,由于車輛荷載、施工工藝、環境氣候等因素的影響,路面會出現多種病害,如車轍、裂縫、坑槽等[2-3]。病害不僅對路面性能存在較大影響,甚至降低路面使用壽命,影響行車安全。
為了維持路面狀態良好,提高養護效率,科學合理的路面檢測手段的重要性不言而喻?,F有的路面病害檢測方式包含物理檢測、人工測量和基于目標檢測的算法[4]。隨著人工智能技術的發展,目標檢測算法以其較高的準確率、檢測速度快、不影響交通通行、人工成本低等優點,在路面檢測研究中得到越來越多的使用者的認可。
目標檢測可以應用于人臉檢測、車輛檢測、遙感檢測等多領域[5-7]。對于路面病害檢測,算法通過分析路面的圖像,在圖像中標記出病害類型及其對應位置,得到處理結果。對于目標檢測算法而言,算法的重點在于提取目標特征。根據提取目標特征的方式不同,目標檢測算法可以分為傳統目標檢測算法和深度學習目標檢測算法兩類。
1傳統目標檢測算法
傳統目標檢測算法是通過手動設計目標特征,如Sobel邊緣檢測特征、Haar 特征、Hog 特征等[8-10]。在復雜場景中,手動設計特征有較大的局限性,特征的泛化能力較差。
傳統目標檢測算法包含三個步驟:(1)選取包含研究物體的區域;(2)對該區域進行特征提??;(3)對提取的特征檢測分類。
特征提取和檢測的常用方法包含邊緣特征提取法、小波變換法和基于閾值圖像處理法等[11-12]。傳統目標檢測算法存在計算速度較慢、檢測結果易受圖像拍攝時的環境氣候影響、識別效果一般、準確率較低等缺點。
2深度學習目標檢測算法
2012年興起的卷積神經網絡為目標檢測算法的應用效果帶來了較大的改善[13]。通過采用卷積神經網絡自動識別并學習圖像信息中的特征,后轉換為更高維度的特征。與傳統學習目標檢測算法中的手動設計特征不同,采用卷積神經網絡得到的特征具有良好的泛化性與表達能力,可以較好地應用在復雜場景中。這種目標檢測算法被稱為深度學習目標檢測算法。根據算法流程不同,深度學習目標檢測算法可以分為兩階段目標檢測算法和單階段目標檢測算法兩種[14]
2.1兩階段目標檢測算法
首先模型通過訓練后提取特征,兩階段目標檢測算法的第一階段為區域生成,生成多個可能包含研究物體的感興趣區域,第二階段通過卷積神經網絡進行樣本分類回歸分析。常見的兩階段目標檢測算法包含R-CNN、SPPNet、FastR-CNN和Faster R-CNN,
2013年,RossGirshick等[15]提出 R-CNN 算法,步驟如圖1所示:(1)輸入圖片,并在圖片上生成 1000~2000 個感興趣區域,各區域進行圖像的裁剪縮放;(2)使用神經網絡提取每一個候選區域的特征;(3)將提取到的特征與分類器比對,判斷所屬分類;(4)詳細調整邊界框。
第一階段 二階段mH0 T 分類輸人圖像 生成感興趣區域 裁剪 縮放 骨干網絡 全連接層特征提取特征
通過生成區域并將區域特征與識別器一一對照這兩個階段,R-CNN算法具有準確率高的優點,但由于R-CNN算法階段較多,需要提取每一個候選區域的特征并分別比對,檢測速度慢,無法達到實時檢測。
2015年,RossGirshick等[16]在R-CNN算法基礎上進行了改進,提出FastR-CNN算法。同年, RenSQ 等[17]進一步提出了FasterR-CNN算法。與R-CNN算法相比,FastR-CNN算法提出ROI池化層(感興趣池化層),將特征提取、分類器和調整邊界框整合到一個網絡,便于模型訓練。FasterR-CNN用區域預測網絡代替感興趣區域預測方法,提升運行速度。
由于兩階段算法計算速度慢,無法實現實時性。同時第一階段生成區域,第二階段針對區域中的內容進行分類回歸,缺失研究區域在完整圖像中的位置信息?;谏鲜鰡栴},研究人員進一步提出了單階段目標檢測算法,彌補了兩階段目標檢測算法的上述不足。
2.2單階段目標檢測算法
單階段目標檢測算法沒有生成感興趣區域的步驟,直接采用回歸的方法進行分類與候選框的預測,簡化了網絡結構。常見的單階段目標檢測算法包括YOLO、SSD、Squeeze-Det和DetectNet等。
YOLO算法最早于2015年提出[18],步驟如圖2所示:(1)圖像歸一化處理;(2)采用卷積神經網絡提取特征并分類回歸;(3)框選最優結果。
圖2 YOLO算法步驟

通過劃分網格,減少了兩階段目標檢測算法中的大量重復計算,因此,YOLO算法檢測速度較快。通過對整幅圖像進行判斷,降低了兩階段算法中由于僅判斷局部圖像造成的誤檢率。經過不斷的優化,最新版本Y0L0算法為2023年1月提出的YOLOv8算法。
2016年,LiuW等[19]提出SSD算法,采用多尺度特征開展檢測,利用特征的金字塔結構充分挖掘卷積層的特征信息。
2.3 模型評價
為了評價不同算法的計算結果,需要采用評價指標對模型開展評價,評價指標包含精度指標和速度指標兩大類。其中精度指標分為精確率、召回率、平均精確率和平均精確率均值。速度指標為每秒檢測圖像數量。
精確率 (P) 是指將樣本預測為正樣本且結果正確的數量與預測為正樣本數量的占比,如式(1)所示。

式中: TP 表示預測為正樣本且結果正確的數量; FP 表示預測為正樣本且結果錯誤的數量
召回率 (R) 是指將樣本預測為正樣本且結果正確的數量與真實值為正樣本數量的占比,如式(2)所示。

式中:FN表示預測為負樣本且結果錯誤的數量。
當圖像中檢測目標的類別不止一種時,引入平均精確率(AP)和平均精確率均值(mAP),常用 mAP@0.5 和 mAP(a)
0.5:0.95進行模型評價,0.5和0.95指的是置信度,即預測框與真實框的重合的比例,越接近于1重合度越高,如式(3)、式(4)所示。


式中: c 表示分類的數量。
2.4 模型應用
以YOLOv5和YOLOv7算法為例,選取RDD2020數據集進行模型訓練[20]。RDD 2020 數據集共包含來自印度、捷克、日本共三個國家的26336張道路圖像.其中訓練集包含21041張圖像,測試集1包含2631張圖像,測試集2包含2664張圖像。三個國家的道路圖像均包含四種道路病害,分別為縱向裂縫(D00)、橫向裂縫(D10)網裂(D20)和坑槽病害(D40),各國家及病害圖像分布情況如圖3所示。圖4為經過訓練后的示意。
圖3RDD2020病害圖像分布

圖4 RDD2020訓練結果

得到的評價指標結果如表1所示??梢钥吹?,由于YOLOv7進行了算法優化,其精確率、召回率、 mAP@0.5 和mAP@0.5:0.95 均優于YOLOv5。各項指標的增長率如圖5所示,精確率和召回率的增幅較大。
3結論
本文以目標檢測算法在路面病害檢測中的應用為研究對象,通過歸納對比與算法應用的形式,分析深度學習目標檢測算法在路面病害檢測中的應用效果,總體結論如下。
表1YOLOv5與YOLOv7的評價結果

圖5評價指標增長率

(1)總結了傳統目標檢測算法和深度學習目標檢測算法的特點及區別。
(2)對比了深度學習目標檢測算法中的兩階段目標檢測算法和單階段目標檢測算法的優缺點,對R-CNN算法和YOLO算法展開詳細介紹。
(3)以YOLOv5和YOLOv7算法為例,選取RDD2020數據集進行模型訓練,YOLOv7的評價指標結果優于YOLOv5算法,其中精確率和召回率的增幅較大。
參考文獻
[1]交通運輸部.2022年交通運輸行業發展統計公報[J].中國水 運,2023(7):29-33.
[2] 鄭有鳳.基于二維線陣圖像的高速公路瀝青路面病害感知方 法研究[D].南京:東南大學,2022.
[3] 陳學仕.基于樹莓派的道路病害檢測識別算法研究與應用[D]. 武漢:江漢大學,2022.
[4] 賈晨.基于YOLOv4的公路路面病害檢測方法研究[D].南 昌:華東交通大學,2021.
[5] WUDelin,JIANGShan,ZHAOEnlong,etal.DetectionofCamelliaoleiferaFruitinComplexScenesbyUsingYOLOv7andData Augmentation[J].AppliedSciences,2022(12),1-16.
[6]JIANGKailin,XIE Tianyu,YANRui,etal.AnAttention Mechanism-Improved YOLOv7 Object Detection Algorithm for Hemp Duck Count Estimation[J]. Agriculture,2022(12),1-18.
[7]高翔.銀川:基于深度學習的路面病害檢測與分類識別研 究[D].銀川:寧夏大學,2022.
[8]P. Viola,M. Jones.Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2OO1 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001.
[9]P.Viola,M. Jones.Robust real - time face detection [C]//Proceedings Eighth lEEE International Conference on Computer Vision. ICCV 2001.
[10]N. Dalal,B. Triggs.Histograms of oriented gradients for human detection[ C]//2O05 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 05.
[11]Alaa Ali, Oladiran G. Olaleye,Magdy Bayoumi. Fast region based DPM object detection for autonomous vehicles[C]//2016 IEEE 59th International Midwest Symposium on Circuits and Systems.
[12] Alaa Ali,Oladiran G. Olaleye,Bappaditya Dey.A Low Power Hardware Implementation of Multi-Object DPMDetector for Autonomous Driving[C]//2O18 IEEE International Conference on Acoustics, Speech and Signal Processing.
[13]KEIRON O.Shea,RYAN Nash.An Introduction to Convolutional Neural Networks[J].Computer Science,2O15,1-10.
[14]毛迎兵.基于三維圖像的高速公路路面病害識別方法研究[D]. 南京:東南大學,2021.
[15] GIRSHICK Ross,DONAHUE Jeff,DARRELL Trevor,et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR).IEEE,Ohio,USA,2014: 580 -587.
[16]GIRSHICK Ross.Fast R -CNN[C]//Proceedings of the IEEE international conference on computer vision. 2015: 1440 -1448.
[17]REN Shaoqing,HE Kaiming, GIRSHICK Ross,et al. Faster R - CNN : Towards Real - Time Object Detection with Region Proposal Networks[J].IEEE Xplore,2017,39(6):1137-1149.
[18]REDMON Joseph,DIVVALA Santosh,GIRSHICK Ross,et al. You Only Look Once:Unified,Real-Time Object Detection[J]. IEEE,2016:779 -788.
[19] WEI Liu,DRAGOMIR Anguelov,DUMITRU Erhan,et al. SSD:Single Shot MultiBox Detector[J].Computer Science, 2016,1-17.
[20]DEEKSHA Arya,HIROYA Maeda,SANJAY Kumar Ghosh,et al.RDD2020:An annotated image dataset for automatic road damage detection using deep learning[J].Data in Brief,2021, 36:1-7.