999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度神經網絡的材料粘接裂縫識別

2023-07-04 21:52:35何小華
粘接 2023年3期
關鍵詞:深度學習

何小華

摘要:針對傳統裂縫識別方法準確率低的問題,研究基于深度神經網絡,設計一個Crack-CNN裂縫識別模型。根據CNN神經網絡結構,利用CNN的特征提取和學習能力特性,將CNN應用于材料粘接裂縫識別中,然后將裂縫定位和 CNN網絡相結合,構建 Crack-CNN模型,將裂縫圖像輸入至該模型中,通過 CNN網絡提取裂縫特征,并進行卷積、池化操作,再利用激活函數和全連接層進行特征分類,最終輸出裂縫分類結果。結果表明,相較于傳統裂縫識別模型,模型的訓練和測試精度均保持在95%以上,模型的訓練時間為3825 s,遠遠低于VGG-13和ResNet模型。由此證明該模型性能好,可在材料粘接裂縫中取得較好的識別效果。

關鍵詞:材料粘結;裂縫識別;深度學習;神經網絡;Crack-CNN

中圖分類號:TG492????????????? 文獻標志碼:A???????? 文章編號:1001-5922(2023)03-0021-04

Identification of material bond cracks basedon? deep? neural? networks

HE Xiaohua

(Yantai Automobile Engineering Professional College,Yantai 265500,Shandong China)

Abstract: For the low accuracy of the traditional crack recognition method,we design a Crack-CNN crack recogni- tion model based on the deep neural network. According to the CNN neural network structure,by means of the fea- ture extraction and learning ability of CNN,CNN was applied to the identification of adhesive crack.Aftercombin- ing the crack location with CNN network to construct the CRACK-CNN model,the crack image was input into the? model,the crack feature was extracted by CNN network,and convolution and pooling were performed. Then,the ac- tivation function and full-connection layer were used to classify the features,and finally the results of fracture clas- sification were output. The experimental results show that compared with the traditional crack recognition model, the training and test accuracy of this model remains more than 95%,and the training time of the model is 3825s,far? lower than? the? VGG-13 and? ResNet? models,which? thus? proves? that? the? model? has? superior? performance ?and? achieves good recognition effect in material bond cracks.

Keywords: material bonding;crack recognition;deep learning;neural network;Crack-CNN

在建筑施工過程中,工程材料出現收縮、膨脹和裂縫等現象是較為常見的問題,其主要是由于溫度、濕度和地基等外部條件的變化和不穩定造成的。材料粘接部分出現極小的裂縫對建筑物和公路等正常運行影響較小;但當裂縫逐漸增大,并超出標準范圍時,可能出現路面坍塌等現象,由此造成安全事故。因此,及時發現材料粘接裂縫,對材料進行檢查和維護,可以有效保障建筑物和人們的生命和財產安全。同時,對裂縫進行準確的識別和分類也是保證材料安全的重點。然而,當前現有的材料粘接裂縫識別方法存在識別準確率低和誤差大的問題,不能很好的對裂縫進行精準識別。針對此問題,已有學者和專家進行了深入研究,針對橋梁裂縫,提出了基于深度學習的裂縫識別方法,采用神經網絡學習對裂縫進行定位和分類,并根據相應的裂縫等級進行劃分,可準確的識別出裂縫類型,該方法具有一定的可行性[1];提出采用CNN算法對橋梁裂縫特征進行提取,構建裂縫識別模型。結果表明,該模型很大程度上提升裂縫識別準確率和效率,并通過目標檢測方法實現裂縫精準定位[2];在卷積神經網絡的基礎上,對該網絡進行改進,并提出基于改進CNN的混凝土橋梁裂縫檢測算法,通過實驗發現,相較于改進前的算法,改進后算法的識別率高達85.6%,提升了13.2%[3]。結合以上學者研究,提出將CNN神經網絡應用于材料裂縫識別中,并構建Crack-CNN模型,探究該模型在材料粘接裂縫識別的效果。

1 卷積神經網絡原理

隨著圖像分類和故障識別等技術的應用需求,深度學習逐漸取得了較好的應用成果。圖像定位和識別主要通過深度學習中的神經網絡進行學習和提取實現。目前,常用的神經網絡為卷積神經網絡 CNN、長短期記憶神經網絡LSTM等。其中,CNN由于其獨特的結構特點,可實現深層特征提取,在圖像識別、定位等方面的效果最好。CNN網絡結構如圖1所示,其主要分為卷積層、池化層,其中還包括激活層和全連接層[4]。

從圖1可以看出,該網絡各層級間由神經元進行連接,在輸入層中輸入圖像后,卷積層負責對圖像進行卷積處理;之后將處理后的圖像傳輸至池化層中進行池化操作,操作完成后,通過激活層進行映射處理并提取出圖像特征,將該特征輸出至全連接層,對上層提取特征進行分類識別處理后,利用輸出層將識別結果進行輸出[5]。

卷積運算是在網絡中起著至關重要的作用,其主要通過各個函數的算子進行翻轉、平移等操作。卷積層中存在多個卷積核,其利用卷積運算的方式對輸入圖像進行特征提取,將提取的特征進行整合處理后,即可得到某一部分的特征。卷積層的表達式為:

式中:f 表示輸入圖像;g 表示卷積核;m 、n 均表示卷積核尺寸。

在CNN神經網絡中,激活層的主要作用是對輸入圖像和最終輸出進行映射,其輸入和輸出大小穩定不變且相同[6]。常用激活函數 Sigmoid、Tanh-Sig- moid和ReLU函數。3種函數的表達式:

3個激活函數中,Sigmoid和Tanh-Sigmoid函數在進行求解時可能出現梯度消失和彌散的問題,會降低模型的訓練速度;而ReLU函數由于其內部飽和性較強,可有效解決以上2個激活函數出現的問題,并且該函數能夠在一定程度上加快訓練,縮短時間,更適用于神經網絡中[7]。

為避免網絡出現過度擬合現象。采用池化層對傳輸的信息進行池化處理,之后再將利用全連接層進行特征分類,并采用計算出每個神經元間的誤差值如下:

式中:yeRmx 1和 x eRnx 1分別為神經元輸出和輸入;We Rnxm為此神經元權值;b 和分別代表最后一層的偏置參數和神經元[8]。

對CNN進行學習和訓練時,其通過前向和反向2種傳播方式進行。前向傳播負責正常輸入和輸出處理;反向傳播則根據實際標準值,調節出現的誤差值,將誤差值控制在最低范圍內,直至達到標準。前

式中:‘為信息傳輸的當前層;x‘為此層的輸出值; w‘為此層權值;b‘為此層偏置;f 表示激活函數。

反向傳播中,其通過各層神經元不斷地更新迭代后,求出每個層級的梯度值,從而計算出輸出值與實際值間的誤差。若損失函數表示為:

式中:n 表示輸入數據;c 表示輸出類別個數;t 表示獲取的正確輸出值;y 表示計算得到的值[9]。通過對權重矩陣進行不斷地修正和調節后,將誤差控制到最小。若計算出的結果不滿足實際結果,則需反向進行計算,直至最終計算結果與實際結果誤差達到最小[10]。

2 基于Crack-CNN的深度神經網絡裂縫識別模型

為更好地對材料粘接裂縫進行識別,將設計1個 Crack-CNN的神經網絡裂縫識別模型,將裂縫圖像輸入至CNN神經網絡中,以提升裂縫識別效果。該模型架構如圖2所示。

以上模型中,輸入數據共有32個,每個數據的步長為1,原始輸入圖像分辨率和維度大小分別為150 mm×150 mm×3 mm和3 mm×3 mm×3 mm[11],通過卷積、池化操作后將提取信息尺寸縮減到1 mm×1 mm×512 mm大小,之后再將該特征傳輸至激活層中,通過激活函數對處理的信息進行裂縫檢測和定位,最終完成模型裂縫識別[12]。

為提升最終識別效果,避免模型訓練時出現過度擬合的現象,將在模型中加入1個層級,即Dropout 層。該層參數值為0.5[13]。同時,由于CNN神經網絡的深度不同,模型訓練時,輸入參數會由于深度的增加導致出現偏差等現場。因此,為避免出現這種狀況,將通BN批規范化的方式將輸入參數進行控制,將其均值設置在0,方差設置在1的規范值內,從而擴大梯度范圍,有效防止梯度消失[14]。

在模型最終輸出中,通過激活層中的激活函數對輸入特征進行分類處理,結合CNN神經網絡的特點,選用Sigmoid函數預測分類結果,可表示為:

式中:x 表示分類標簽;g 表示分類概率[15]。

分類工作表示為:

3 實驗結果與分析

3.1? 實驗環境

為取得更好的實驗結果,本次實驗將分別在硬件和軟件2個環境下進行實驗。其中,硬件設備選用 Inter XeonE5-2620V48 Core 的 CPU,內存大小為20 M;軟件選擇Ubuntul6.04LTS64的操作系統。編程語言選擇較為常用的Python,模型框架為keras。

3.2? 實驗數據

實驗數據通過人工、實驗室和無人機3種方式進行采集,采集對象為混凝土、橋梁等地面的裂縫圖像共計850張。其中,人工采集數量為255張,無人機和實驗室采集數量分別410、185張,分辨率大小分別為4517×3318(Pixel)、4732×3257(Pixel)、1437×2464(Pixel)。由于采集的數據集存在尺寸和清晰度的偏差,導致最終實驗結果不準確。因此,實驗將對采集圖像進行預處理,通過尺寸裁剪的方式將圖像大小控制在200×200(Pixel),共計1800張。將所有圖像集按照7∶2∶1的比例劃分,分為訓練、驗證和測試。

3.3 參數設置

為使實驗結果更加準確,實驗將對模型進行多次訓練,訓練方式通過RMSprop算法進行參數優化。進行多次訓練后,得到該模型最大迭代數為400, Batch size為128,丟失率loss rate大小為0.5,學習率設置為0.0001。

3.4? 實驗結果

3.4.1 訓練結果對比分析

完成以上參數設置后,在400次迭代次數下,將訓練集和驗證集應用到模型中,得到三者間的關系曲線,具體如圖3、圖4所示。

從圖3可以看出,迭代次數的不斷提升,訓練和驗證的精度均能夠取得較高的效果,迭代至100次時,模型區域平穩狀態;當迭代次數更新至390次時,模型收斂速度減慢,且逐漸停止,其訓練精度取值為95%;迭代至377次時,驗證精度達到94.3%。

從圖4可以看出,隨著迭代次數的不斷增加,損失函數在不斷減小,當迭代次數達到62次時,模型開始緩慢收斂,且最小損失值分別為0.08和0.17。

根據以上迭代結果,實驗將統計本模型與 VGG-13和ResNet模型的訓練時間,具體結果如圖5所示。

從圖5可以看出,本模型提出的模型訓練時間在3種模型中最短,訓練只用了3825 s;另外2種模型分別花費了25387 s和14528 s,比本模型分別高出了21562 s和10703 s。

3.4.2 驗證結果對比分析

為進一步驗證 Crack-CNN 模型對裂縫圖像的識別準確率,實驗將本模型與傳統的 VGG-13和ResNet識別模型進行性能比較,得到對比結果如圖6所示。

從圖6可以看出,研究提出的模型在驗證集中的精度和損失值均比另外2種模型更好,說明提出的 Crack-CNN模型泛化能力更強,魯棒性更佳,在真實的材料粘接裂縫識別中可取得更好的識別效果。

3.4.3 測試結果對比分析

為測試提出模型的分類效果,實驗將構建混淆矩陣對測試集有無裂縫進行試驗,測試結果如圖7所示。

從圖7展示結果可知,在測試集中,研究提出模型能夠實現材料粘接分類的有效識別和分類,真正例、真反例分別可得到最高取值為0.95和0.93;而假正例和假反例分別為0.07和0.05。統計分析后可知,該模型對裂縫的識別平均準確率為94%,十分接近于上述驗證精度的94.3%。由此說明,通過此模型可實現裂縫精準識別,預測結果與實際結果大體一致。

4 結語

研究提出的Crack-CNN模型能夠實現對粘接材料裂縫的準確識別和分類,通過該模型與其他識別方法的對比結果發現,提出模型的識別準確率均保持在95%左右,且對比于其他模型來說,提出模型的訓練精度和驗證精度最高,在短時間內可實現快速訓練,對于裂縫識別的準確率和精度進一步提升。綜合分析可知,提出的Crack-CNN模型在材料裂縫中具有較好的應用效果,可在裂縫識別中進行大力推廣和應用。

【參考文獻】

[1] 應俊杰,夏峰,盧國慶,等.基于深度學習的橋梁裂縫識別方法研究[J].水利規劃與設計,2021(1):75-80.

[2] 高慶飛,王宇,劉晨光,等.基于卷積神經網絡算法的混凝土橋梁裂縫識別與定位技術[J].公路,2020,65(9):268-274.

[3] 張振華,陸金桂.基于改進卷積神經網絡的混凝土橋梁裂縫檢測[J].計算機仿真,2021,38(11):490-494.

[4] 丁燕,杜啟振,QAMAR Y S,等.基于深度學習的裂縫預測在S區潛山碳酸鹽巖儲層中的應用[J].石油物探,2020,59(2):267-275.

[5] 羅偉,梁世豪,姜鑫,等.基于深度學習的野外露頭區巖石裂縫識別[J].計算機與現代化,2020(5):56-62.

[6] 李可心,王鈞,戚大偉.基于 G-S-G的混凝土結構裂縫識別及監測方法[J].振動與沖擊,2020,39(11):101-108.

[7] 吳秋怡.基于語義分割網絡模型的路面裂縫識別[J].交通科技,2020(3):80-83.

[8] 孫朝云,馬志丹,李偉,等.基于深度卷積神經網絡融合模型的路面裂縫識別方法[J].長安大學學報(自然科學版),2020,40(4):1-13.

[9] 雷斯達,曹鴻猷,康俊濤.基于深度學習的復雜場景下混凝土表面裂縫識別研究[J].公路交通科技,2020,37(12):80-88.

[10] 王超,賈賀,張社榮,等.基于圖像的混凝土表面裂縫量化高效識別方法[J].水力發電學報,2021,40(3):134-144.

[11] 李想,熊進剛.基于深度學習 SSD 目標檢測算法的混凝土結構裂縫識別[J].南昌大學學報(工科版),2021,43(1):43-51.

[12] 張偉光,鐘靖濤,于建新,等.基于機器學習和圖像處理的路面裂縫檢測技術研究[J].中南大學學報(自然科學版),2021,52(7):2402-2415.

[13] 陳健昌,張志華.融于圖像多特征的路面裂縫智能化識別[J].科學技術與工程,2021,21(24):10491-10497.

[14] 孟慶成,萬達,吳浩杰,等.基于卷積神經網絡的混凝土裂縫圖像識別方法[J].沈陽建筑大學學報(自然科學版),2021,37(5):832-840.

[15] 馬健,閻衛東,劉國奇.基于YOLOv5的古建筑木結構裂縫檢測方法[J].沈陽建筑大學學報(自然科學版),2021,37(5):927-934.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: AV色爱天堂网| 精品久久久久无码| 99久久人妻精品免费二区| 激情视频综合网| 蜜芽国产尤物av尤物在线看| 欧洲av毛片| 免费国产小视频在线观看| 无码一区中文字幕| 久久青草免费91线频观看不卡| 国产一区二区丝袜高跟鞋| 免费高清a毛片| 国产www网站| h视频在线播放| 国产手机在线观看| 久久精品一品道久久精品| 国产免费人成视频网| 污视频日本| 日韩一级毛一欧美一国产| 国产精品香蕉| 国产成年无码AⅤ片在线 | 免费播放毛片| 天天操精品| 暴力调教一区二区三区| 国产97公开成人免费视频| 伊人91视频| 欧美日韩国产综合视频在线观看 | 国产欧美日韩综合在线第一| 日韩第八页| 免费国产高清精品一区在线| 国产成人无码播放| 国产高清精品在线91| 中文无码精品a∨在线观看| 91在线日韩在线播放| 亚洲成a人片| 中文字幕欧美日韩| 四虎永久在线精品国产免费| 国产精品9| 国产超薄肉色丝袜网站| 国产菊爆视频在线观看| 欧美日韩成人在线观看| 国产精品冒白浆免费视频| 中文字幕2区| 在线观看国产精品一区| 国产综合在线观看视频| 香蕉久久国产超碰青草| 亚洲天堂网视频| 久久特级毛片| 国产拍在线| 日韩区欧美区| 女人18毛片水真多国产| 亚洲精品第一页不卡| 欧美国产日韩在线观看| 欧美在线网| 国产91色在线| 国产成人高清精品免费软件| 91久久青青草原精品国产| 五月六月伊人狠狠丁香网| 99精品视频九九精品| 热伊人99re久久精品最新地| 综合五月天网| 在线日韩日本国产亚洲| 国产乱人伦偷精品视频AAA| 日韩毛片在线视频| 久久国产精品无码hdav| 91福利免费视频| 又爽又大又光又色的午夜视频| 幺女国产一级毛片| 久久青青草原亚洲av无码| 欧美h在线观看| 99精品福利视频| 高潮毛片无遮挡高清视频播放 | 欧美色图久久| 国产日韩欧美在线播放| 国产无人区一区二区三区| 日韩在线网址| 国产精品性| 午夜日韩久久影院| 国产成人综合亚洲欧美在| 无码一区二区三区视频在线播放| 欧美激情第一区| 日本精品影院| 粗大猛烈进出高潮视频无码|