999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5模型的智能立體車(chē)庫(kù)結(jié)構(gòu)裂縫識(shí)別算法研究

2024-04-09 15:05:04趙怡豪劉勇岳仁峰孔令鑫
信息系統(tǒng)工程 2024年3期
關(guān)鍵詞:深度學(xué)習(xí)

趙怡豪?劉勇?岳仁峰?孔令鑫

摘要:針對(duì)立體車(chē)庫(kù)中明暗變化顯著、目標(biāo)尺寸差異大等現(xiàn)象導(dǎo)致的裂縫識(shí)別準(zhǔn)確度不高的問(wèn)題,提出了一種基于改進(jìn)YOLOv5網(wǎng)絡(luò)的識(shí)別算法模型。該模型通過(guò)優(yōu)化特征提取層和增加注意力機(jī)制,提高了對(duì)不同尺寸目標(biāo)的識(shí)別能力,通過(guò)改進(jìn)的特征融合層結(jié)構(gòu)和檢測(cè)層輸出框尺寸,提升了識(shí)別精度。在立體車(chē)庫(kù)結(jié)構(gòu)裂縫數(shù)據(jù)集上的試驗(yàn)驗(yàn)證表明,該網(wǎng)絡(luò)收斂速度快,在目標(biāo)識(shí)別率和圖像識(shí)別準(zhǔn)確率方面都有所提升,識(shí)別精度高達(dá)95.4%,實(shí)現(xiàn)了立體車(chē)庫(kù)結(jié)構(gòu)裂縫的精準(zhǔn)檢測(cè)和定位,為高速、高精度的結(jié)構(gòu)裂縫檢測(cè)提供了理論基礎(chǔ),具有工程應(yīng)用價(jià)值。

關(guān)鍵詞:裂縫檢測(cè);YOLOv5;深度學(xué)習(xí);目標(biāo)識(shí)別

一、前言

裂縫作為結(jié)構(gòu)損傷的表觀呈現(xiàn),既是耐久性不足的預(yù)警,也是結(jié)構(gòu)被破壞的先兆。在立體車(chē)庫(kù)中,結(jié)構(gòu)裂縫反映了立體車(chē)庫(kù)地基等支撐結(jié)構(gòu)的受力狀態(tài)、耐久性及安全性。在現(xiàn)場(chǎng)檢測(cè)時(shí),裂縫的檢測(cè)需要人為判斷,存在很大的主觀因素,加之復(fù)雜惡劣的檢測(cè)環(huán)境,導(dǎo)致裂縫檢測(cè)存在效率低、測(cè)不準(zhǔn)、檢不全等缺點(diǎn),無(wú)法滿足立體車(chē)庫(kù)裂縫檢測(cè)高精度的需求。因此,急需研究高效、高精度的結(jié)構(gòu)裂縫自動(dòng)化檢測(cè)技術(shù)。

近年來(lái),隨著計(jì)算機(jī)技術(shù)的飛速發(fā)展,使得開(kāi)發(fā)性能令人滿意的網(wǎng)絡(luò)模型成為可能。根據(jù)應(yīng)用目的的不同,結(jié)構(gòu)裂縫自動(dòng)檢測(cè)技術(shù)大致可分為兩類(lèi):一是圖像像素級(jí)裂縫檢測(cè),在分析結(jié)構(gòu)表面紋理狀況的基礎(chǔ)上,分析裂縫分布等特征,為結(jié)構(gòu)健康狀況評(píng)估提供精確參數(shù)。二是塊級(jí)路面裂縫檢測(cè),類(lèi)似于給定圖像中的目標(biāo)檢測(cè),如Faster R-CNN[1]和YOLO系列[2]等方法,識(shí)別速度較快,能夠滿足實(shí)時(shí)檢測(cè)要求,得到廣泛的應(yīng)用。此外,通過(guò)深度學(xué)習(xí)實(shí)現(xiàn)結(jié)構(gòu)表面裂縫識(shí)別的方法,具有更好的遷移性和魯棒性,結(jié)果更加客觀、可靠,在減少了人工成本的同時(shí),大大提高檢測(cè)效率,具有廣闊的應(yīng)用前景。

在現(xiàn)階段的研究中,徐國(guó)整等[3]提出HU-RseNet卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別混凝土表面裂縫。李良福[4]基于改進(jìn)PSPNet,實(shí)現(xiàn)像素級(jí)的裂縫區(qū)域識(shí)別。顧書(shū)豪等[5]設(shè)計(jì)了一種將注意力機(jī)制和語(yǔ)義增強(qiáng)相結(jié)合的特征模塊,有效地融合了語(yǔ)義信息和裂縫特征。可以發(fā)現(xiàn),現(xiàn)有的深度學(xué)習(xí)檢測(cè)算法雖然解決了傳統(tǒng)算法識(shí)別精度低、漏檢率高的問(wèn)題,在識(shí)別精度上有所提升,但仍然存在對(duì)暗環(huán)境下,小目標(biāo)識(shí)別困難的問(wèn)題。

YOLOv5[6]采用了更輕量的網(wǎng)絡(luò)結(jié)構(gòu),在靈活性上遠(yuǎn)強(qiáng)于YOLOv4,在模型的快速部署上具有極強(qiáng)優(yōu)勢(shì)。YOLOv5包括四個(gè)版本,分別為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,在結(jié)構(gòu)上復(fù)雜度依次提升,可以根據(jù)識(shí)別目標(biāo)的復(fù)雜度選擇不同版本。檢測(cè)目標(biāo)為裂縫,其目標(biāo)結(jié)構(gòu)簡(jiǎn)單,背景單一,因此選擇在網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)簡(jiǎn)單的YOLOv5s進(jìn)行改進(jìn)。針對(duì)立體車(chē)庫(kù)結(jié)構(gòu)裂縫圖像中明暗變化明顯、目標(biāo)尺寸差異大等問(wèn)題,增加了YOLOv5網(wǎng)絡(luò)注意力機(jī)制,改變了特征融合層結(jié)構(gòu),并利用訓(xùn)練好的模型,進(jìn)行了對(duì)比分析。結(jié)果表明此方法具有較高的魯棒性,對(duì)不同環(huán)境、不同形狀的裂縫均能較好識(shí)別,在確保高檢測(cè)精度的基礎(chǔ)上兼顧檢測(cè)速度。

二、基于改進(jìn)YOLOv5的多尺度檢測(cè)算法

立體車(chē)庫(kù)背景復(fù)雜,結(jié)構(gòu)性裂縫往往存在光暗變化明顯、裂縫尺寸差異大的問(wèn)題,原YOLOv5模型無(wú)法滿足該背景下的裂縫檢測(cè)需求,存在框取不全、重復(fù)識(shí)別、誤檢、漏檢等情況。針對(duì)原YOLOv5模型存在的不足,提出了改進(jìn)的YOLOv5網(wǎng)絡(luò)模型,通過(guò)引入注意力機(jī)制模塊,提高網(wǎng)絡(luò)的細(xì)節(jié)特征提取能力,減弱光暗變化對(duì)目標(biāo)檢測(cè)的影響。根據(jù)立體車(chē)庫(kù)結(jié)構(gòu)裂縫大小不一的特點(diǎn),改進(jìn)了特征融合層結(jié)構(gòu),增加了多尺度檢測(cè)層的檢測(cè)尺度,使模型能夠準(zhǔn)確地檢測(cè)不同大小的裂縫目標(biāo),增加了算法的健壯性。網(wǎng)絡(luò)的主體結(jié)構(gòu)包含特征提取層、特征融合層、多尺度檢測(cè)層,如圖1所示。

(一)特征提取層

在兼顧網(wǎng)絡(luò)檢測(cè)速度的前提下,針對(duì)立體車(chē)庫(kù)環(huán)境復(fù)雜、采集的圖像清晰度低的問(wèn)題,改進(jìn)了YOLOv5網(wǎng)絡(luò)的特征提取層,在Bottleneck CSP模塊中引入了注意力機(jī)制,提出CBAM_ Bottleneck CSP模塊,通過(guò)對(duì)通道信息的充分利用,增強(qiáng)網(wǎng)絡(luò)的特征提取能力。CBAM_Bottleneck CSP由CBAM_ Bottleneck和CSP兩部分組成,其結(jié)構(gòu)如圖2所示。

CBAM_Bottleneck基于殘差結(jié)構(gòu)特征提取模塊,能夠充分利用特征映射的信息冗余特點(diǎn),提高特征提取能力。CSP是一種基于殘差結(jié)構(gòu)的局部、全局特征融合模塊,可以增加卷積層特征提取的效率,減少計(jì)算量,提高模型的學(xué)習(xí)能力。

(二)特征融合層

特征融合層作為網(wǎng)絡(luò)的路徑聚合模塊,負(fù)責(zé)將特征提取層輸出的特征信息與上采樣的信息進(jìn)行融合。YOLOv5使用FPN(Feature Pyramid Networks)與PAN(Perceptual Adversarial Network)相結(jié)合增強(qiáng)網(wǎng)絡(luò)特征提取能力,自上而下進(jìn)行特征融合,在實(shí)現(xiàn)強(qiáng)語(yǔ)義特征傳遞的同時(shí),準(zhǔn)確保留空間信息,并傳遞到預(yù)測(cè)層,實(shí)現(xiàn)強(qiáng)定位特征傳遞,對(duì)像素進(jìn)行適當(dāng)定位以形成掩模,提高小目標(biāo)檢測(cè)能力。

針對(duì)立體車(chē)庫(kù)裂縫目標(biāo)尺寸差異大的問(wèn)題,通過(guò)增加FPN特征金字塔結(jié)構(gòu),在PAN中增加上采樣操作,提高特征信息的融合量,并增加160×160融合層,最終為檢測(cè)層輸出160×160、80×80、40×40和20×20四個(gè)尺度的特征圖。具體結(jié)構(gòu)如圖1中特征融合層所示。

(三)多尺度檢測(cè)層

采用多尺度檢測(cè)層對(duì)圖像特征進(jìn)行預(yù)測(cè),將輸出的四個(gè)尺度特征圖,用于檢測(cè)不同尺寸的物體,生成預(yù)測(cè)框并預(yù)測(cè)類(lèi)別。網(wǎng)絡(luò)輸出4個(gè)預(yù)測(cè)框信息,包含預(yù)測(cè)框的位置信息和置信度,由于輸出的預(yù)測(cè)框存在較多的重復(fù)冗余,使用非極大值抑制NMS(Non-Maximum Suppression)算法[7],保留置信度最高的預(yù)測(cè)框位置信息,精確完成目標(biāo)檢測(cè)。

三、實(shí)驗(yàn)與分析

(一)數(shù)據(jù)采集及預(yù)處理

數(shù)據(jù)源自某立體車(chē)庫(kù)路面裂縫,共1000張圖片,每張圖片至少有一處裂縫,背景復(fù)雜、明暗變化且噪聲較大。實(shí)驗(yàn)采用Mosaic數(shù)據(jù)增強(qiáng)方法對(duì)圖片進(jìn)行增強(qiáng),確保不同的圖片都能得到充分的訓(xùn)練,使模型學(xué)習(xí)到更深層的特征信息,增強(qiáng)模型泛化能力。通過(guò)對(duì)圖像角度、對(duì)比度等屬性進(jìn)行不同程度的調(diào)整將數(shù)據(jù)擴(kuò)充到8000張,增加算法的魯棒性,提高檢測(cè)精度。采用labelimg工具對(duì)數(shù)據(jù)進(jìn)行框選標(biāo)注,最終整理出6400張標(biāo)注的圖片作為訓(xùn)練集、800張標(biāo)注的圖片作為驗(yàn)證集和800張標(biāo)注的圖片作為測(cè)試集。

(二)實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

實(shí)驗(yàn)環(huán)境搭建的計(jì)算機(jī)配置為:Intel(R) Core(TM) i5-7400 CPU @ 3.00GHz、NVIDIA GeForce GTX1050顯卡、3 GB內(nèi)存,并配置使用 CUDA10.1版本和CUDNN7.6版本。深度學(xué)習(xí)框架平臺(tái)為Pytorch1.8.0版本。模型訓(xùn)練時(shí)的超參數(shù)為:初始學(xué)習(xí)率0.001、動(dòng)量0.98。模型輸入3通道的720×720像素圖像,受GPU顯存的限制batchsize設(shè)為6,優(yōu)化器采用隨機(jī)梯度下降法SGD,總共設(shè)置迭代1000個(gè)epoch。損失函數(shù)采用交叉熵?fù)p失函數(shù),評(píng)價(jià)指標(biāo)為預(yù)測(cè)精度、召回率、mAP。

(三)實(shí)驗(yàn)結(jié)果及分析

在對(duì)模型進(jìn)行評(píng)估時(shí),首先需選取適當(dāng)?shù)脑u(píng)價(jià)指標(biāo)。選取召回率Recall、平均精度均值mAP和精確率Precision作為模型算法的評(píng)價(jià)指標(biāo),召回率能夠反映檢測(cè)器漏檢目標(biāo)的問(wèn)題,平均精度均值能夠反映識(shí)別網(wǎng)絡(luò)預(yù)測(cè)框精準(zhǔn)度的情況,精確率能夠反映出網(wǎng)絡(luò)模型檢測(cè)器誤檢的情況。改進(jìn)前后網(wǎng)絡(luò)各評(píng)價(jià)指標(biāo)的對(duì)比見(jiàn)表1,改進(jìn)后的網(wǎng)絡(luò)預(yù)測(cè)精度提高了8%,召回率提高了4%,mAP提高了1.87%。

在訓(xùn)練過(guò)程中記錄觀察模型的損失函數(shù)曲線如圖3所示。原模型損失函數(shù)曲線見(jiàn)圖3(a),損失函數(shù)波動(dòng)較大,下降緩慢,說(shuō)明原網(wǎng)絡(luò)對(duì)簡(jiǎn)單背景下小目標(biāo)的特征提取能力較弱。改進(jìn)后模型損失曲線見(jiàn)圖3(b),損失函數(shù)曲線下降較原模型更快,波動(dòng)較少,在訓(xùn)練到第500個(gè)epoch時(shí)損失值達(dá)到了0.01,預(yù)測(cè)邊框的平均精度均值mAP更高,收斂速度更快。

測(cè)試集中部分圖片的識(shí)別結(jié)果如圖4所示,其中方框?yàn)轭A(yù)測(cè)框,左上角的標(biāo)簽代表這張圖片識(shí)別的種類(lèi)和置信度。改進(jìn)后的模型對(duì)于橫向裂縫、縱向裂縫、斜向裂縫以及光暗變化明顯處的裂縫都比原網(wǎng)絡(luò)識(shí)別得更精準(zhǔn),具有更好的魯棒性。

四、結(jié)論

針對(duì)立體車(chē)庫(kù)結(jié)構(gòu)裂縫檢測(cè),提出了一種改進(jìn)的 YOLOv5 網(wǎng)絡(luò)模型,主要的改進(jìn)有利用CBAM_Bottleneck模塊改進(jìn)了骨干網(wǎng)絡(luò),增強(qiáng)模型特征提取能力,以及針對(duì)裂縫大小差異大的問(wèn)題,改進(jìn)了特征融合層結(jié)構(gòu),增加了多尺度檢測(cè)層的檢測(cè)尺度,選擇20×20、40×40、80×80、160×160尺度檢測(cè)層,增加了網(wǎng)絡(luò)對(duì)不同尺寸目標(biāo)框取的精度。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv5模型在召回率、平均精度、檢測(cè)精確度上均得到了不同程度的提升。

參考文獻(xiàn)

[1]Shaoqing Ren, Kaiming He, Girshick Ross, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[2]Joseph Redmon, Ali Farhadi. YOLO9000: Better, Faster, Stronger[C]. 30TH IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR 2017), 2017: 6517-6525.

[3]徐國(guó)整,廖晨聰,陳錦劍,等.基于HU-Res Net的混凝土表觀裂縫信息提取[J].計(jì)算機(jī)工程,2020,46(11):279-285.

[4]李良福,王楠,武彪,等.基于改進(jìn)PSPNet的橋梁裂縫圖像分割算法[J].激光與光電子學(xué)進(jìn)展,2021,58(22):101-109.

[5]顧書(shū)豪,李小霞,王學(xué)淵,等.增強(qiáng)語(yǔ)義信息與多通道特征融合的裂縫檢測(cè)[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(10):204-210.

[6]Dihua Wu, Shuaichao Lv, Mei Jiang, et al. Using channel pruning-based YOLO v4 deep learning algorithm for the real-time and accurate detection of apple flowers in natural environments[J]. Computers & Electronics in Agriculture, 2020, 178: 105742.

[7]Han H, Gu J, Zheng Z, et al. Relation Networks for Object Detection[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, IEEE, 2018: 3588-3597.

基金項(xiàng)目:濟(jì)南市科技計(jì)劃(后補(bǔ)助)項(xiàng)目社會(huì)民生專項(xiàng)(項(xiàng)目編號(hào):202131009)

責(zé)任編輯:張津平、尚丹

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 久久亚洲黄色视频| 在线观看国产精美视频| 国产欧美日韩18| 午夜无码一区二区三区在线app| 欧美成在线视频| 素人激情视频福利| 91九色视频网| 久久综合五月| 色婷婷电影网| 亚洲黄网在线| 日韩中文字幕亚洲无线码| 人妻丝袜无码视频| 综合亚洲网| 色偷偷男人的天堂亚洲av| 99视频在线看| 亚洲综合精品香蕉久久网| 欧美日韩在线成人| 在线观看视频一区二区| 一本色道久久88亚洲综合| a毛片基地免费大全| 亚洲国产看片基地久久1024| 国产亚洲欧美在线专区| 久久国产精品77777| 波多野结衣一二三| 三上悠亚精品二区在线观看| 日韩精品一区二区三区免费在线观看| 五月婷婷亚洲综合| 亚洲毛片网站| www.精品国产| 波多野结衣在线一区二区| 亚洲欧美色中文字幕| 免费在线不卡视频| 亚洲 成人国产| 91娇喘视频| 97人人模人人爽人人喊小说| 少妇极品熟妇人妻专区视频| 四虎免费视频网站| 亚洲天堂福利视频| 在线99视频| 国产精品无码作爱| 欧美午夜视频在线| 亚洲无线国产观看| 国产永久在线观看| 四虎成人精品在永久免费| 国产成人精品免费视频大全五级| 欧美日本一区二区三区免费| 国产尤物在线播放| 天堂在线亚洲| 亚洲经典在线中文字幕| 91久久精品日日躁夜夜躁欧美| 人人妻人人澡人人爽欧美一区| 中文字幕第4页| 人与鲁专区| 国产精品太粉嫩高中在线观看| 2020精品极品国产色在线观看| 九九热精品在线视频| 999国产精品永久免费视频精品久久| 亚洲精品手机在线| 欧美久久网| 999精品色在线观看| 国产精品福利尤物youwu| 欧美h在线观看| 日韩天堂网| 日本欧美成人免费| 国产1区2区在线观看| 99无码中文字幕视频| 一级毛片免费不卡在线| 国产精品丝袜在线| 亚洲无码高清一区二区| 久久久久无码精品国产免费| 国产91麻豆免费观看| 亚洲毛片一级带毛片基地| 日本中文字幕久久网站| 免费一级毛片在线播放傲雪网 | 国产人在线成免费视频| 国产成人福利在线视老湿机| 萌白酱国产一区二区| 亚洲色偷偷偷鲁综合| 蜜臀av性久久久久蜜臀aⅴ麻豆| 亚洲国产精品无码AV| 欧美成人在线免费| 真实国产精品vr专区|