中圖分類號:TP18 文獻標志碼:A 文章編號:2095-2945(2025)13-0009-05
Abstract:WiththerapiddevelopmentofChina’seconomicconstruction,engineeringconstructionismovinginahigher, deperandbroaderdirection.Inordertoensurethesafetyof projectconstruction,itisnecessarytoidentifytheenginering geologicalconditionsofthesitebeforeprojectconstruction.Asanimportantpartofrockmassstructure,fractureshavean importantimpactonengineeringgeologicalconditions.Therefore,extractingthestructureofcracksisveryimportantfor engineeringconstruction.Traditionalcrack structureextractionmethodsaretime-consumingandlabor-intensive,andhavepoor operability;theacuracyofcrackextractionmethodsusingtraditionalcomputertechologycannotmeetengineeringneedsandare poorinpracticality;however,therearefewresearchonusingdeeplearningtechnologytoextractfractures.Bystudyingthedeep learningnetworkoftheencoder-decoderarchitecture,thispaperdeterminesthattheimagesegmentationmodeltrainedbythe \"U-Net++\"frameworknetworkandthe\"Resnet5O\"encoder-decodernetworkcanefectivelyextractthefisurestructureoffield outcrop photos.
Keywords: crack extraction; image segmentation; deep learning; crack structure; extraction method
隨著我國經濟建設的高速發展,房屋建筑越來越高,地基基礎越來越深,穿山隧道越來越長,水利水電工程越來越龐大,相應地,對于工程建設過程中的工程地質條件要求也越來越高,對工程地質信息的掌握也要越來越精確。其中,地質構造的判斷及描述、水文地質條件滲透特性的確定、不良地質現象的發生原因分析等都離不開巖體裂隙的提取及量化研究。裂隙作為巖體結構的重要組成部分,具有不均勻性和非連續性,從而導致了巖體結構的復雜性以及巖體物理力學性質的各向異性[1]。
目前,深度學習技術被廣泛應用于我們的生活中,如人臉識別、自然語言處理、醫療輔助等。由于深度學習在目標檢測、圖像分割等方面所表現出來的強大能力,不同領域的研究人員均將其應用于自己的研究中。2017年,Cha等將區域生長法與深度卷積神經網絡結合,實現了對混凝土裂隙的識別及提取。2019年,薛東杰等將基于全卷積網絡的裂隙識別結果與傳統方法識別結果進行比較,證實了深度神經網絡在裂隙識別及提取任務中的查準率和查全率均優于傳統算法。本文就是將深度學習技術應用于野外露頭照片裂隙提取的探索研究。
本文旨在改進傳統的裂隙圖片提取方法,通過深度學習技術實現從露頭圖片中快速準確地提取裂隙的目的。本文研究的裂隙提取方法可為工程建設中快速識別提取并量化裂隙提供依據,從而指導工程建設并保證施工質量安全。本文研究的裂隙不局限于單一類型,因此對以后單一工況的研究,本文可提供一定的技術支持。
1 網絡簡介
本文采用的圖像分割模型是基于編碼器 + 解碼器的體系結構,因此在進行模型選擇時,要同時考慮模型框架網絡及編碼器解碼器網絡。本文選用的框架網絡主要為 U - N e t , U - N e t + + Ω , FPN及LinkNet。
U-Net網絡是由Ronneberger等4于2015年提出的,最初該網絡的提出主要是為了解決生物醫學問題。由于在生物醫學方面的應用效果非常好,U-Net網絡也逐漸被用在其他領域的圖像分割任務中。
U - N e t + + 網絡是由Zhou等于2018年提出的。從網絡名稱就可知道該網絡是在U-Net網絡的基礎上進行改進獲得的。
FPN網絡是由Lin等于2017年提出的。該網絡通過融合從較淺層網絡和較深層網絡獲得的特征圖,以實現目標特征和位置的精確表達,從而獲得更加精確的預測效果。
LinkNet網絡是由Chaurasia等于2017年提出的。該網絡通過將每一個編碼器連接到對應的解碼器輸出上,提高了模型的精度。又通過讓解碼器與編碼器共享一套參數,提高了模型的計算速度。
以上模型框架均是采用編碼器 + 解碼器的網絡結構,本文采用的編碼器網絡與解碼器網絡相同,主要有Resnet18Resnet34Resnet50、Resnet101及Resnet152。
Resnet網絡,即殘差網絡,是由微軟團隊的He等8于2015年提出來的。該網絡在當年的ILSVRC圖像識別競賽中獲得冠軍,大大降低了模型的錯誤率。除了較高的圖像識別準確率之外,該網絡還具有參數量較少、計算速度較快及圖像特征信息完整的特點。因此,其在圖像識別方面的性能優越,其識別準確率甚至可以超越人類。
2 模型評價指標
為了比較不同模型在圖像分割任務中的優劣,需要對模型的分割效果進行評價。常用的評價指標有Fscore、交并比(IoU)準確率(Accuracy)召回率(Re-call)及精確率(Precision)。為了計算這些指標,需要對圖像中每個像素進行分類,然后統計相同類別的像素個數。根據每個像素所屬類別及是否被正確預測,可將圖片像素分為如下4類: ① TP(TruePositive),所屬類別為裂隙,并且被模型正確預測出來的像素數量。② TN(Truenegative),所屬類別為非裂隙,并且被模型正確預測出來的像素數量。 ③ FP(FalsePositive),所屬類別為非裂隙,但被模型預測為裂隙的像素數量。④ FN(Falsenegative),所屬類別為裂隙,但被模型預測為非裂隙的像素數量。
IoU表示裂隙部分的真實像素集合與預測像素集合的重合度。即被模型正確預測的裂隙像素占所有真實裂隙像素及預測裂隙像素并集的比例。計算公式如下

Accuracy表示模型對圖片中所有像素進行正確分類的比例,即所有被正確預測為裂隙的像素數量與圖片中總像素數量之比。計算公式如下

Recall表示圖片中裂隙部分像素被正確識別出來的比例。即所有被正確預測的裂隙部分像素數量與所有真實裂隙像素數量的比值。計算公式如下

Precision表示預測正確的裂隙像素所占的比例,即所有被正確預測的裂隙部分像素數量與所有被預測為裂隙的像素數量之比。計算公式如下

Fscore是一個綜合評價指標,其是Precision和Recall的調和平均。計算公式如下

Precision和Recall是一對矛盾的指標,當Preci-sion較高時,Recall就較低;當Recall較高時,Precision就較低。因此將其中任何一個單獨作為模型的評價指標都不合適。Accuracy指標在很大程度上受到背景像素的影響,尤其是當背景像素量大于裂隙部分像素量時,其不能很好地表示裂隙識別的準確程度。IoU和Fscore能夠比較綜合地考慮到裂隙查準率和查全率的影響,并且忽略背景像素數量的影響。因此,本文在進行模型評價時將使用IoU和Flcore2個指標。
3裂隙結構提取的圖像分割模型訓練及驗證3.1基于框架網絡選擇的圖像分割模型
3.1.1 參數設置及模型訓練
首先進行基于不同框架網絡的圖像分割模型訓練。在進行訓練之前,設置模型框架網絡分別為“U-Net\"\"U- ? N e t+ + \"\"FPN\"和“LinkNet”,編碼器解碼器網絡為“Resnet50”,激活函數為“sigmoid”,學習率為 1 ×
,訓練的batch大小為3,Epoch為40。每訓練15Epochs,就更新一次學習率,即將學習率減小為原來的十分之一。通過訓練可獲得基于不同框架網絡的圖像分割模型。
3.1.2 結果分析
通過訓練,獲得了基于“U-Net\"“U-Net++\"“FPN\"和\"LinkNet\"框架網絡構建的圖像分割模型。4種圖像分割模型的評價指標見表1。

由表1可知,這4種框架網絡構建的圖像分割模型的IoU均達到了0.98以上,Fscore均達到了0.99以上,說明這4種框架網絡構建的圖像分割模型均能較好地處理裂隙結構提取的任務。通過比較4種模型的參數可得,由“
”框架網絡構建的圖像分割模型的IoU值及Fscore值均達到最高,說明在這4種框架網絡中,由“ J - N e t + + ”框架網絡構建的圖像分割模型在處理裂隙結構提取任務中的效果最好,因此本文選用“
網絡作為圖像分割模型的框架網絡。
3.2基于編碼器解碼器網絡選擇的圖像分割模型
3.2.1 參數設置及模型訓練
接下來進行基于不同編碼器解碼器網絡的圖像分割模型訓練。在進行訓練之前,設置編碼器解碼器網絡分別為“Resnet18\"\"Resnet34\"\"Resnet5O\"\"Resnet101”和\"Resnet152\",模型框架網絡為\"U-
,激活函數為\"sigmoid\",學習率為
,訓練的batch大小為3,Epoch為40。每訓練15Epochs,就更新一次學習率,即將學習率減小為原來的十分之一。通過訓練可獲得基于不同編碼器解碼器網絡的圖像分割模型。
3.2.2 結果分析
通過訓練及驗證,獲得了基于“Resnet18”\"Resnet34\"\"Resnet50\"\"Resnetl01\"及\"Resnet152\"網絡構建的圖像分割模型。4種圖像分割模型的評價指標見表2。

由表2可知,5種不同網絡所構建的圖像分割模型的IoU值均大于0.98,Fscore值均大于0.99,說明5種模型的裂隙提取效果均較好。隨著網絡層次的加深,模型的IoU值及Fscore值呈現先增大后減小的趨勢,并且在編碼器解碼器網絡為“Resnet50\"時達到最大。這說明在裂隙結構提取任務中,并不是網絡的層次越深提取效果越好。
綜上所述,本文選用\"U- ? ? N e t + + \"網絡作為圖像分割模型的框架網絡,選用“Resnet50”網絡作為圖像分割模型的編碼器解碼器網絡,從而獲得了裂隙結構提取的圖像分割模型。
4基于裂隙結構提取的圖像分割模型預測結果分析
前面通過訓練獲得了基于不同框架網絡及編碼器解碼器網絡的圖像分割模型,也根據模型評價指標確定了分別選用\"U-
”及“Resnet50”作為框架網絡及編碼器解碼器網絡時訓練獲得的模型精度最高。本節將通過不同圖像分割模型的預測結果比較,進一步驗證以上結論。
4.1基于框架網絡選擇的圖像分割模型預測結果
對同一張裂隙圖片,分別利用基于不同框架網絡的圖像分割模型進行裂隙的結構提取,各模型的提取結果如圖1所示。

本文對模型預測結果的31處進行了對比分析,通過統計可得,基于“U-Net\"框架網絡的圖像分割模型預測成功的區域有12處,預測錯誤的區域有19處;基于“U- ? N e t+ + ”框架網絡的圖像分割模型預測成功的區域有23處,預測錯誤的區域有8處;基于“FPN”框架網絡的圖像分割模型預測成功的區域有17處,預測錯誤的區域有14處;基于“LinkNet\"框架網絡的圖像分割模型預測成功的區域有9處,預測錯誤的區域有22處。
從以上統計結果可知,基于“U- ? N e t+ + ”框架網絡的圖像分割模型的精度最高,基于“FPN\"框架網絡的圖像分割模型次之,而基于“LinkNet\"框架網絡的圖像分割模型的精度最低,這與模型的評價指標結果一致。對各模型預測結果進行局部放大展示,如圖2所示。

通過對預測結果進行對比可知,在圓圈內,基于#
”框架網絡的圖像分割模型預測結果與真值圖最接近,其次是基于“FPN\"框架網絡的圖像分割模型預測結果,而基于“U-Net\"及“LinkNet\"框架網絡的圖像分割模型均未將該部分裂隙提取出來。
以上預測結果與模型的評價結果一致,從而進一步說明應選用“U- ?? N e t+ + “網絡作為圖像分割模型的框架網絡。
4.2基于編碼器解碼器網絡選擇的圖像分割模型預測結果
對同一張裂隙圖片,分別利用基于不同編碼器解碼器網絡的圖像分割模型進行裂隙的結構提取,各模型的提取結果如圖3所示。

本文對模型預測結果的26處進行了對比分析,通過統計可得,基于“Resnet18”編碼器解碼器網絡的圖像分割模型預測成功的區域有9處,預測錯誤的區域有17處;基于“Resnet34”編碼器解碼器網絡的圖像分割模型預測成功的區域有12處,預測錯誤的區域有14處;基于“Resnet50\"編碼器解碼器網絡的圖像分割模型預測成功的區域有17處,預測錯誤的區域有9處;基于“Resnet101\"編碼器解碼器網絡的圖像分割模型預測成功的區域有15處,預測錯誤的區域有11處;基于“Resnet152\"編碼器解碼器網絡的圖像分割模型預測成功的區域有13處,預測錯誤的區域有13處。
從以上統計結果可知,基于“Resnet50\"編碼器解碼器網絡的圖像分割模型的精度最高,基于“Resnet18\"編碼器解碼器網絡的圖像分割模型的精度最低,這與模型的評價指標比較結果一樣。
對各模型預測結果進行局部放大展示,如圖4所示。通過對預測結果進行對比可知,在圓圈內,基于“Resnet50\"編碼器解碼器網絡的圖像分割模型將該條裂隙比較完整地提取出來了,基于“Resnet101”和“Resnet152”編碼器解碼器網絡的圖像分割模型只提取了裂隙的一部分,而基于“Resnet18\"和“Resnet34”編碼器解碼器網絡的圖像分割模型未將該裂隙提取出來。
以上預測結果與模型的評價結果一致,從而進一步說明應選用“Resnet50\"網絡作為圖像分割模型的編碼器解碼器網絡。

5 結論
本文首先對圖像分割、所用神經網絡及模型評價指標進行了介紹。然后,通過對模型評價指標的對比,確定了“U- - N e t+ + ”網絡作為圖像分割模型的框架網絡,“Resnet50”網絡作為圖像分割模型的編碼器解碼器網絡。最后,通過模型預測結果的對比,分別從預測錯誤統計數量及局部預測結果分析兩方面進一步驗證了以上的結論。
參考文獻:
[1]何滿潮.工程地質力學的挑戰與未來[J].工程地質學報, 2014,22(4):543-556.
[2] CHA Y J,CHOI W,ORAL B,et al.Deep learningbased crack damage detection using convolutional neural networks[J].ComputerAidedCivilamp;Infrastructure Engineering,2017,32(5):18.
[3]薛東杰,唐麒淳,王傲,等.基于FCN的巖石混凝土裂隙幾何 智能識別[J].巖石力學與工程學報,2019,38(S2):3393-3403.
[4]RONNEBERGER O,FISCHER P,BROX T. U-Net: Convolutional networks for biomedecial image segmentation [J].International Conference on Medical Image Computing and Computer-Assisted Intervention,2015.
[5]ZHOU Z, SIDDIQUEE M, TAJBAKHSH N, etal. U N e t+ + :Anested U-Net architecture for medical image segmentation [J]. 4th Deep Learning in Medical Image Analysis(DLMIA)Workshop,2018.
[6] LIN TY,DOLLAR P,GIRSHICK R,et al.Feature pyramid networks for object detection[J].2O17IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017.
[7] CHAURASIA A, CULURCIELLO E. LinkNet: Exploiting encoder representations for efficient semantic segmentation[C] //2017 IEEE Visual Communications and Image Processing (VCIP).IEEE,2017.
[8] HE K,ZHANG X,REN S,et al. Deep Residual Learning forImage Recognition[J]. IEEE,2016.