999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于M-Unet的混凝土裂縫實時分割算法

2024-01-03 11:49:31孟慶成李明健萬達胡壘吳浩杰齊欣
土木建筑與環境工程 2024年1期
關鍵詞:深度學習

孟慶成 李明健 萬達 胡壘 吳浩杰 齊欣

摘要:針對主流深度學習裂縫分割算法消耗大量計算資源、傳統圖像處理方法檢測精度低、丟失裂縫特征等問題,為了實現對混凝土裂縫的實時檢測和在像素級水平上分割裂縫,提出一種基于輕量級卷積神經絡M-Unet的裂縫語義分割模型,首先對MobileNet_V2輕量網絡進行改進,修剪其網絡結構并優化激活函數,再用改進的MobileNet_V2替換U-Net參數量巨大的編碼器部分,以實現模型的輕量化并提升裂縫的分割效果。構建包含5 160張裂縫圖像的SegCracks數據集對提出方法進行驗證,試驗結果表明:優化后的M-Unet裂縫分割效果優于U-Net、FCN8和SegNet等主流分割網絡和傳統圖像處理技術,獲得的IoU_Score為96.10%,F1_Score為97.99%。與改進前U-Net相比,M-Unet權重文件大小減少了7%,迭代一輪時間和預測時間分別縮短了63.3%和68.6%,IoU_Score和F1_Score分別提升了5.79%和3.14%,并且在不同開源數據集上的交叉驗證效果良好。表明提出的網絡具有精度高、魯棒性好和泛化能力強等優點。

關鍵詞:混凝土裂縫;卷積神經網絡;深度學習;裂縫檢測;裂縫分割

中圖分類號:TU755.7? ? ?文獻標志碼:A? ? ?文章編號:2096-6717(2024)01-0215-08

Real-time segmentation algorithm of concrete cracks based on M-Unet

MENG Qingcheng1, LI Mingjian1, WAN Da1, HU Lei1, Wu Haojie1, QI xin2

(1. School of Civil Engineering and Geomatics, Southwest Petroleum University,Chengdu 610500;

2.School of Civil Engineering, Southwest Jiaotong University, Chengdu 610031)

Abstract: Mainstream deep learning algorithm for crack segmentation consumes a lot of computing resources while the traditional image processing methods are of low detection accuracy and lost crack features. In order to realize the real-time detection of concrete cracks and the segmentation of cracks at the pixel level, a crack semantic segmentation model based on lightweight convolutional neural network M-Unet is proposed. Firstly, the MobileNet_V2 lightweight network is improved, its network structure is trimmed and the activation function is optimized, and then the encoder part with huge parameters of U-Net is replaced by the improved MobileNet_V2 to realize the lightweight of the model and improve the segmentation effect of cracks. The SegCracks data set containing 5 160 crack images is constructed to verify the proposed method. The experimental results show that the crack segmentation effect of the optimized M-Unet is better than the mainstream segmentation networks of U-Net, FCN8 and SegNet and the traditional image processing techniques, the obtained IoU_Score is 96.10%, F1_Score is 97.99%. Compared with the original U-Net, the weight file size M-Unet is reduced by 7 %, the iteration time and prediction time are reduced by 63.3% and 68.6% respectively, and the IoU_Score and F1_Score are increased by 5.79 % and 3.14 % respectively. The cross validation results on different open source data sets are good, which shows that the proposed network has the advantages of high accuracy, good robustness and strong generalization ability.

Keywords: concrete cracks; convolutional neural network; deep learning; crack detection; crack segmentation

在混凝土自身材料特性影響及多重因素作用下,混凝土結構服役期間會不可避免地產生裂縫。裂縫是混凝土結構病害的一種初期表現,若初期裂縫得不到即時修補,在外力的作用下,裂縫的長度、寬度、深度會不斷地增加,使得混凝土構件的有效截面面積減小,承載力降低,繼而可能會導致事故的發生[1]。早期的裂縫檢測主要是人工檢測方法,人工檢測可以直接對裂縫的特征進行判斷,較為簡便靈活,但人工檢測的結果受限于主觀判斷,依賴檢測人員的經驗儲備,且人力物力消耗大,容易發生安全事故,導致人工檢測難以完成大量的裂縫檢測任務[2]。后來出現了基于傳統圖像處理技術的裂縫檢測方法,常見的有基于閾值的裂縫圖像分割方法和邊緣檢測方法[3]。傳統圖像處理技術促進了混凝土裂縫檢測技術的發展,取得了一定的成就,但在解決復雜裂縫以及背景噪聲多的圖像時,傳統圖像處理技術存在較多的局限性,使其無法獲得穩定的檢測結果,無法適應復雜的實際場景[4]。

深度學習(Deep Learning,DL)算法具有強大的特征提取能力,早期受限于計算機硬件設備的性能而沒有得到普遍的應用[5]。隨著計算機硬件設備性能的提升和現代科技的飛速發展,深度學習算法的應用得到了普及并促進了圖像識別技術的發展。深度學習算法是一種包含多隱含層和多感知層的網絡結構,相比于傳統算法能更好地描述物體抽象的和深層次的信息,在圖像識別領域表現突出,因此越來越多的科研人員將其應用于結構損傷檢測任務中[6]。胡文魁等[7]針對傳統方法去除裂縫圖像噪聲不明顯以及輸出結果中裂縫不連續的問題提出一種BCI-AS方法,在像素級水平上的裂縫分割精度達到了94.45%。李良福等[8]先利用滑動窗口算法對裂縫圖像切割成多個區域,再用卷積神經網絡(Convolutional Neural Network,CNN)對切割后圖像分類,最后用改進的滑動窗口算法檢測裂縫,取得良好的檢測效果。Liu等[9]采用U-Net方法識別混凝土裂縫,與全卷積網絡(Fully Convolutional Networks,FCN)相比,該方法的效率更高、準確性更好,但存在邊緣平滑、細節丟失的問題。Ren等[10]提出了一種改進的深度全卷積網絡 CrackSegNet,可有效地消除噪聲的干擾,可從復雜背景的裂縫圖像中執行端到端的裂縫分割。Xue等[11]提出基于R-FCN的隧道襯砌裂縫圖像檢測方法,獲得了比GoogLeNet和VGG等模型更好的檢測效果。王森等[12]提出一種深度全卷積神經網絡用于裂縫圖像的分割,該算法準確率達92.46%,但沒有用其他數據對算法的有效性進行測試,缺乏對模型泛化能力的驗證。

上述網絡模型均取得了較好的裂縫分割效果,但所需的計算量大、缺乏對裂縫分割速度的考慮,在裂縫檢測量巨大和設備計算資源有限的前提下,難以滿足裂縫檢測實時性的要求。提出一種結合改進的MobileNet_V2輕量網絡和U-Net網絡的裂縫語義分割模型M-Unet,利用改進的MobileNet_V2網絡替換U-Net網絡的下采樣部分,減少參數量,達到網絡輕量化的效果,并設置多組對比實驗以驗證方法的有效性。

1 數據集的制作

1.1 采集裂縫圖像

圖像采集于已投入使用的包括橋梁、擋土墻、大壩和隧道等各種混凝土結構,經過一周的采集,共計采集到1 226張分辨率為4 032×3 024的三通道RGB原始混凝土裂縫圖像。為了讓網絡學習到更多不同背景噪聲條件下的裂縫特征,反映混凝土結構在服役期間所處的真實環境,采集到的裂縫圖像包含了不同時間段、不同光照條件、不同污漬情況、不同清晰度等情況的圖像,采集到的部分裂縫圖像如圖1所示。

1.2 圖像標注及增強

從1 226張裂縫圖像中挑選出250張效果較好的裂縫圖像,利用語義分割標注軟件Labelme對250張裂縫圖像進行標注,標注過程如圖2所示,不同于目標檢測任務中的數據標注,在目標檢測中對圖像數據的標注僅需用矩形框將目標區域框住,而在語義分割任務的圖像標注過程中,需要將裂縫圖像放大,并沿著目標的輪廓逐點標注,實現亞像素級別的裂縫標注,標注點間的線寬與裂縫尺寸相比是微不足道的,不會對裂縫幾何尺寸測量造成影響。將所有標注點閉合成環即完成對裂縫的標注,閉合區域以外的其他區域為背景區域。

對標注后的裂縫圖像進行切分,將每一張裂縫圖像切分成分辨率大小為512×512的不重疊區域,并從中剔除缺乏裂縫特征的圖像。使用Labelme標注的圖像會生成記錄標注過程中關鍵點位置信息的json文件,但json文件并不能作為裂縫語義分割網絡訓練所需的直接數據,為了將其用于訓練,通過編寫的Python腳本將json文件中的位置信息轉換為可直接訓練的掩碼位圖GroundTruth圖像,圖3為轉換后的部分圖像。

對標注好的裂縫圖像進行數據增強,使用數據擴增工具Augmentor對裂縫數據集擴增操作,如旋轉、放大、扭曲等,最終得到5 160張帶有掩碼位圖的裂縫圖像,將數據集命名為SegCracks,將SegCracks按7∶2∶1劃分成訓練集、驗證集和測試集。

2 M-Unet裂縫語義分割網絡

2.1 改進的MobileNet_V2網絡

MobileNet_V2[13]是一種適用于移動設備的輕量級的卷積神經網絡,其核心是采用反向殘差的深度可分卷積代替了普通卷積,使用深度可分卷積可顯著降低網絡計算復雜度,減少參數量。MobileNet_V2在網絡訓練中使用的激活函數為ReLU6,并采用批量標準化Batch Normalization和Dropout操作,以達到加快網絡收斂速度和防止過擬合現象。對MobileNet_V2的改進主要有以下兩方面。

一是對網絡結構層進行修剪,減少線性瓶頸結構bottleneck的重復次數,以減少網絡復雜度并且進一步輕量化模型,改進后的MobileNet_V2網絡結構如表1所示。

二是優化了原始網絡的激活函數。激活函數是神經網絡處理非線性問題的關鍵,在MobileNet_V2網絡中使用的是ReLU6激活函數,函數圖像如圖4(a)所示,雖然ReLU6激活函數可以顯著提高網絡非線性映射能力,但由其函數圖象也可看出,當x<0時,激活函數的梯度為零,并且在其后面的神經元梯度也將變為零,神經元壞死后不會對傳入的數據響應,參數也得不到更新。因此,對原網絡激活函數進行優化,引入LeakeyReLU激活函數,其表達式如式(1)所示,其函數圖像如圖4(b)所示。與ReLU6激活函數相比,使用LeakeyReLU不僅能有效解決ReLU6梯度消失和神經元壞死等問題,而且因其函數圖象左側的軟飽和性使其具備更強的噪聲干擾抵抗能力。

(1)

式中:α為偏移量,默認值為0.01。

2.2 M-Unet網絡

U-Net[14]網絡主要是由左邊的壓縮路徑和右邊的擴展路徑兩部分組成,是一種典型的編碼-解碼結構,如圖5所示。壓縮路徑由3×3的卷積層和2×2的池化層組成,主要用于對裂縫圖像特征信息的逐層提取和壓縮,而擴展路徑由卷積層和反卷積層組成,用于還原裂縫圖像特征的位置信息,從而實現端到端的裂縫檢測。U-Net網絡的壓縮路徑在池化操作前都會自動保存裂縫特征圖像,并以跳躍連接的方式將裂縫圖像特征傳輸給對應的擴展路徑部分,這樣可以有效彌補因池化操作而丟失的裂縫特征信息。

U-Net網絡的下采樣部分通常是參數量很大的VGG16網絡,在裂縫分割任務中會消耗大量的計算資源,難以滿足在實際工程應用中的實時性要求。輕量級卷積神經網絡MobileNet_V2的模型參數量僅為VGG16網絡的1/41,為了進一步降低對設備性能的要求和提高裂縫語義分割速度,對U-Net網絡進行優化,采用改進后MobileNet_V2網絡替換U-Net網絡的下采樣部分,以實現模型的輕量化、減少計算復雜度并提高裂縫的語義分割效果,將優化后的輕量級語義分割網絡命名為M-Unet。

3 實驗與結果分析

3.1 實驗環境與實驗設置

實驗硬件環境為第10代英特爾處理器i7-10700,32 GB的運行內存,NVIDIA GeForce RTX 2060顯卡,顯存為6 GB。軟件環境為64位Windows 10操作系統,使用高級程序設計語言Python,在深度學習框架Pytorch下運行。

實驗使用的數據集為SegCracks數據集,經過超參數的調優,最終選取批量大小為4、Adam自適應學習率優化器和指數衰減學習率的組合。共設置4組實驗:第1組實驗為對比3種損失函數,選取1種最適用于裂縫語義分割任務的損失函數;第2組實驗是對提出的M-Unet網絡進行迭代訓練,通過多種指標對網絡的性能進行分析;第3組實驗是將M-Unet網絡與3種主流的深度學習語義分割網絡和傳統圖像處理方法的裂縫分割結果進行對比分析,以驗證提出方法的有效性;第4組實驗是為驗證網絡的泛化能力,在CFD[15]、CRACK500[16]、GAPS384[17]3個開源數據集進行交叉驗證。

3.2 模型性能評價指標

通常情況下,單一的準確率評判標準不一定能全面反映網絡的裂縫分割效果,為更加全面準確地評估網絡性能而引入混淆矩陣。混淆矩陣是一種可視化工具,其中每一行表示網絡預測值,每一列表示真實值,通過將網絡的預測結果和真實結果放在同一個表中,混淆矩陣能清楚地表示出每個類別識別正確和錯誤的數量,如表2所示。由混淆矩陣可以定義裂縫語義分割網絡的重要評價指標,包括交并比(IoU)、精確率(Precision)、召回率(Recall)和F1_Score,其值越高,表示網絡的裂縫語義分割越好、綜合性能越優,計算公式如式(2)~式(5)。

(5)

式中:TP、FP、FN分別為表2中的TP、FP、FN;I為模型的預測窗口與原來標記窗口的交疊率,是語義分割中常用的一種度量標準;Pr為正確預測為裂縫占全部預測為裂縫的比值;R為正確預測為裂縫占全部實際為裂縫的比值;F1為精確率和召回率的調和指標。

3.3 損失函數的選取

損失函數用于衡量預測值和真實值之間的誤差,其決定了網絡的訓練方法,在網絡訓練優化過程中起指導性作用,可通過損失函數的反饋來調整和改進模型的權重系數。第1組實驗是對比語義分割領域常用的Dice Loss、BCE Loss和BCEWithLogits Loss損失函數的性能,在其余參數相同的情況下,經過10輪的迭代,3種損失函數的訓練集損失曲線如圖6所示、驗證集損失曲線如7所示。可以看出,在訓練集損失曲線圖中,選用不同損失函數的損失值隨著迭代次數不斷增加而逐漸降低,網絡逐漸收斂。在驗證集損失曲線圖中,選用Dice Loss損失函數的模型損失值明顯小于其余兩種,對網絡的優化有更好的指導作用。因此,選用Dice Loss作為搭建網絡的損失函數。

3.4 測試模型性能

采用構建的SegCracks數據集對搭建的M-Unet網絡進行訓練,經過50次迭代后,網絡損失值變化曲線如圖8所示,可以看出,迭代35次以后損失值變化波動趨于穩定,網絡開始收斂,且驗證集準確率小于訓練集準確率,未產生過擬合現象。IoU_Score變化曲線和F1_Score變化曲線如圖9和圖10所示,量化結果如表3所示,提出的網絡在訓練集和驗證集上獲得的IoU_Score分別為97.34%和96.10%,F1_Score分別為98.65%和97.99%,在SegCracks數據集上取得了較好的裂縫分割結果,表明所提出的網絡模型具有良好的性能。使用完成訓練后保存的最優網絡權重對測試集進行測試,結果表明分割一張裂縫圖像所需時間為0.211 s,滿足了實際工程應用中對實時性的要求。

3.5 不同模型性能對比

將搭建的M-Unet網絡與U-Net、FCN8和SegNet主流語義分割網絡模型進行對比分析,采用建立的數據集進行訓練,經過50次迭代后4種網絡的評價指標如表4所示,模型權重文件大小和每輪迭代所需時間如圖11所示。由圖11可知,FCN8網絡模型權重文件較大且運行時間長,難以應用于現場檢測移動端平臺并滿足實時檢測的需求,SegNet網絡雖然權重文件最小,但其迭代時間和預測時間均比M-Unet網絡長,且裂縫分割效果不如U-Net網絡和M-Unet網絡。搭建的網絡迭代時間最短,相比于U-Net網絡,由于M-Unet網絡采用改進后的MobileNet_V2替換了原U-Net網絡中參數量巨大的下采樣部分,使得權重文件大小減少了7%,迭代時間縮短63.3%。

由表4可以看出,在4個網絡模型中, M-Unet網絡在訓練集和驗證集上的IoU_Score和F1_Score均最高,網絡損失值最小,對裂縫的語義分割效果最好,且對裂縫的預測時間最短,分割一張裂縫的時間僅為SegNet的43.88%、U-Net的31.40%、FCN8的13.38%。與未改進的U-Net網絡相比,M-Unet網絡在測試集上分割一張裂縫圖像時間僅需0.211 s,比U-Net縮短了68.6%,且IoU_Score和F1_Score有較大的提升,在訓練集上分別提升2.94%和1.55%,在驗證集上分別提升5.79%和3.14%。綜上,M-Unet網絡在實現模型輕量化的同時提升了對裂縫的分割精度,驗證了改進方法的有效性。

除與幾種主流深度學習語義分割網絡進行對比外,還將傳統圖像處理方法中基于Prewitt算子、Canny算子、Sobel算子3種邊緣檢測方法[18]以及大津閾值法Otsu[19]與網絡分割結果進行對比分析,不同方法的裂縫分割效果如圖12所示。由圖12可以看出,傳統圖像處理方法受噪聲影響較大,分割結果中噪聲干擾點較多,其中大津閾值法Otsu受噪聲和光照不均的影響最大,只能分割出部分裂縫,漏檢問題較嚴重,難以滿足實際需求。基于邊緣檢測方法能分割出裂縫大致形狀,分割效果優于大津閾值法,但抵抗噪聲能力差,分割結果中也存在較多噪聲點,裂縫分割效果一般。其中基于Canny算子在分割細小的裂縫時難以保證裂縫邊緣的連續性,存在部分漏檢問題。相比于以上4種傳統圖像處理裂縫分割方法,基于深度學習的M-Unet網絡通過堆疊多層卷積層,可更好地提取裂縫更抽象的和更高層的特征,能夠獲得豐富的裂縫信息,且具有較強的去噪能力,提出的M-Unet網絡分割結果中僅有極少量的噪聲干擾點,且裂縫的連續性好,邊緣分割結果清晰,表明該方法具有比傳統圖像處理方法更好的裂縫語義分割效果。

3.6 不同數據集上交叉驗證

為進一步驗證網絡的性能,在CFD、CRACK500和GAPS384三個開源數據集上進行交叉驗證。3個數據集上包含多種不同背景,不同噪聲和不同形態特征的裂縫,契合混凝土結構服役運營期間所處的實際環境。M-Unet網絡在3種不同數據集上的模型評價指標如表5所示,其中IoU_Score均達到了97%以上,F1_Score均達到了98%以上,表明優化后的M-Unet網絡在新的數據集上也能獲得很高的裂縫分割精度,具有良好的魯棒性和泛化能力,可滿足實際工程對裂縫檢測的需求。

4 結論

針對混凝土結構裂縫檢測量大、噪聲干擾多和檢測時間較長等問題,提出M-Unet輕量級裂縫語義分割網絡,實現了對混凝土裂縫圖像在像素級上的分類,并進行多組對比實驗,得出以下結論:

1)構建包含5 160張裂縫圖像的SegCracks數據集,并基于此訓練集對M-Unet網絡迭代優化,優化后的M-Unet網絡獲得IoU_Score為96.10%,F1_Score為97.99%,對裂縫的分割效果優于主流語義分割網絡U-Net、FCN8和SegNet,且在保持高檢測精度的同時大幅降低模型權重文件體量和減少裂縫分割時間。

2)M-Unet通過將改進MobileNet_V2輕量級網絡替換U-Net的編碼器部分,與原始U-Net相比,在實現模型輕量化的同時提高裂縫的分割精度,使得權重文件大小減少了7%,迭代一輪時間縮短63.3%,預測時間縮短68.6%,在驗證集上獲得的IoU_Score和F1_Score分別提升5.79%和3.14%,證明了改進方法的有效性。

3)與傳統的圖像處理方法相比,提出的M-Unet網絡對混凝土裂縫語義分割具有更強的抗噪性,且裂縫分割結果連續性好,邊緣清晰,很好地契合了裂縫的實際走向和形狀。

4)將M-Unet網絡在CFD、CRACK500和GAPS384三個開源數據集上進行交叉驗證,獲得的IoU_Score均達到了97%以上,F1_Score均達到了98%以上,表明搭建的網絡具有精度高、魯棒性好和泛化能力強等優點。

參考文獻

[1]? LI Y, ZHANG J H, GUAN Z G, et al. Experimental study on the correlation between crack width and crack depth of RC beams [J]. Materials, 2021, 14(20): 5950.

[2]? 舒江鵬, 李俊, 馬亥波, 等. 基于特征金字塔網絡的超大尺寸圖像裂縫識別檢測方法[J]. 土木與環境工程學報(中英文), 2022, 44(3): 29-36.

SHU J P, LI J, MA H B, et al. Crack detection method based on feature pyramid network for super large-scale images [J]. Journal of Civil and Environmental Engineering, 2022, 44(3): 29-36. (in Chinese)

[3]? DONG J X, LIU J H, WANG N N, et al. Intelligent segmentation and measurement model for asphalt road cracks based on modified mask R-CNN algorithm [J]. Computer Modeling in Engineering & Sciences, 2021, 128(2): 541-564.

[4]? ZHANG L X, SHEN J K, ZHU B J. A research on an improved Unet-based concrete crack detection algorithm [J]. Structural Health Monitoring, 2020, 20(4): 1864-1879.

[5]? ZHAO Z Q, ZHENG P, XU S T, et al. Object detection with deep learning: A review [J]. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(11): 3212-3232.

[6]? CHA Y J, CHOI W, SUH G, et al. Autonomous structural visual inspection using region-based deep learning for detecting multiple damage types [J]. Computer-Aided Civil and Infrastructure Engineering, 2018, 33(9): 731-747.

[7]? 胡文魁, 鄧暉, 付志旭, 等. 基于全卷積神經網絡的橋梁裂縫分割和測量方法[J]. 工業建筑, 2022, 52(4): 192-201, 218.

HU W K, DENG H, FU Z X, et al. Bridge crack segmentation and measurement method based on full convolutional neural network [J]. Industrial Construction, 2022, 52(4): 192-201, 218. (in Chinese)

[8]? 李良福, 馬衛飛, 李麗, 等. 基于深度學習的橋梁裂縫檢測算法研究[J]. 自動化學報, 2019, 45(9): 1727-1742.

LI L F, MA W F, LI L, et al. Research on detection algorithm for bridge cracks based on deep learning [J]. Acta Automatica Sinica, 2019, 45(9): 1727-1742. (in Chinese)

[9]? LIU Z Q, CAO Y W, WANG Y Z, et al. Computer vision-based concrete crack detection using U-net fully convolutional networks [J]. Automation in Construction, 2019, 104: 129-139.

[10]? REN Y P, HUANG J S, HONG Z Y, et al. Image-based concrete crack detection in tunnels using deep fully convolutional networks [J]. Construction and Building Materials, 2020, 234: 117367.

[11]? XUE Y D, LI Y C. A fast detection method via region-based fully convolutional neural networks for shield tunnel lining defects [J]. Computer-Aided Civil and Infrastructure Engineering, 2018, 33(8): 638-654.

[12]? 王森, 伍星, 張印輝, 等. 基于深度學習的全卷積網絡圖像裂紋檢測[J]. 計算機輔助設計與圖形學學報, 2018, 30(5): 859-867.

WANG S, WU X, ZHANG Y H, et al. Image crack detection with fully convolutional network based on deep learning [J]. Journal of Computer-Aided Design & Computer Graphics, 2018, 30(5): 859-867. (in Chinese)

[13]? SANDLER M, HOWARD A, ZHU M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 4510-4520.

[14]? 朱蘇雅, 杜建超, 李云松, 等. 采用U-Net卷積網絡的橋梁裂縫檢測方法[J]. 西安電子科技大學學報, 2019, 46(4): 35-42.

ZHU S Y, DU J C, LI Y S, et al. Method for bridge crack detection based on the U-Net convolutional networks [J]. Journal of Xidian University, 2019, 46(4): 35-42. (in Chinese)

[15]? LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327.

[16]? YANG F, ZHANG L, YU S J, et al. Feature pyramid and hierarchical boosting network for pavement crack detection [J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(4): 1525-1535.

[17]? EISENBACH M, STRICKER R, SEICHTER D, et al. How to get pavement distress detection ready for deep learning? A systematic approach [C]//2017 International Joint Conference on Neural Networks (IJCNN). Anchorage, AK, USA. IEEE, 2017: 2039-2047.

[18]? DORAFSHAN S, THOMAS R J, MAGUIRE M. Comparison of deep convolutional neural networks and edge detectors for image-based crack detection in concrete [J]. Construction and Building Materials, 2018, 186: 1031-1045.

[19]? CHEN X L, LI J, HUANG S W, et al. An automatic concrete crack-detection method fusing point clouds and images based on improved otsu's algorithm [J]. Sensors, 2021, 21(5): 1581.

(編輯? 胡英奎)

DOI: 10.11835/j.issn.2096-6717.2022.079

收稿日期:2022?05?04

基金項目:國家自然科學基金(52078442);四川省科技計劃(2021YJ0038)

作者簡介:孟慶成(1980- ),男,博士,主要從事橋梁結構健康監測與損傷識別研究,E-mail:214400395@qq.com。

Received: 2022?05?04

Foundation items: National Natural Science Foundation of China (No. 52078442): Science and Technology Program of Sichuan Province (No. 2021YJ0038)

Author brief: MENG Qingcheng (1980- ), PhD, main research interests: bridge structure health monitoring and damage identification, E-mail: 214400395@qq.com.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 欧美在线网| 国产精品无码一区二区桃花视频| 日本人又色又爽的视频| 免费午夜无码18禁无码影院| 国产国产人成免费视频77777| 日韩欧美国产中文| 国产成人调教在线视频| 国产精品99r8在线观看| 激情网址在线观看| 国产精品成人AⅤ在线一二三四| 亚洲国产午夜精华无码福利| 日韩二区三区无| 亚洲中文字幕无码爆乳| 久久久久国产一级毛片高清板| 久久香蕉国产线| 日韩高清欧美| 久久婷婷五月综合97色| 欧洲欧美人成免费全部视频| 亚洲精品天堂在线观看| 国产91麻豆视频| 国产不卡国语在线| 国产成人亚洲综合A∨在线播放| 欧美www在线观看| 91精品国产一区| 欲色天天综合网| 亚洲码一区二区三区| 精品国产污污免费网站| 国内精品自在欧美一区| 色精品视频| 亚洲区视频在线观看| 久久免费成人| 999精品视频在线| 国产美女在线观看| 欧美精品aⅴ在线视频| 久久精品娱乐亚洲领先| 一级毛片无毒不卡直接观看| 久久婷婷六月| 狠狠v日韩v欧美v| 99在线视频免费观看| 激情综合图区| 国产成人精品视频一区视频二区| 99热最新网址| 国产精品女熟高潮视频| 成人国产精品一级毛片天堂| 爱爱影院18禁免费| 亚洲欧美另类专区| 国产91无码福利在线| 亚洲精品国产日韩无码AV永久免费网 | 亚洲国产成人久久77| 国产精品香蕉| 欧美在线一二区| 国产精品网址在线观看你懂的| 亚洲一欧洲中文字幕在线| 欧美日韩资源| 天天躁夜夜躁狠狠躁图片| 亚洲第一天堂无码专区| 欧美精品成人一区二区视频一| av一区二区无码在线| 亚洲综合国产一区二区三区| 欧美激情福利| 九色综合视频网| 亚洲欧洲日韩国产综合在线二区| 精品国产免费观看| 一级成人a做片免费| 午夜天堂视频| 一级不卡毛片| 国产超薄肉色丝袜网站| 欧美精品亚洲精品日韩专| 色综合久久久久8天国| 亚洲一区二区在线无码| 精品视频在线观看你懂的一区| 日韩在线成年视频人网站观看| 无码国内精品人妻少妇蜜桃视频| 这里只有精品在线| 波多野结衣在线se| 色综合五月婷婷| 国产精品美人久久久久久AV| 亚洲视频黄| 久久久久人妻一区精品色奶水| 99久久无色码中文字幕| 中文字幕1区2区| 亚洲第一区精品日韩在线播放|