999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5的井蓋隱患智能識別研究

2025-03-20 00:00:00黃健向思怡
現(xiàn)代信息科技 2025年3期

摘" 要:作為城市地下管網(wǎng)系統(tǒng)的關鍵防護構件,井蓋的安全狀態(tài)直接影響市政設施運維效率與公共安全。針對傳統(tǒng)井蓋安全隱患檢測方法存在效率低、誤報率高等問題,文章提出基于改進YOLOv5的智能檢測方法。通過構建多尺度特征融合機制,文章結合五折交叉驗證法對標注數(shù)據(jù)集進行模型訓練,實現(xiàn)了對破損、移位、缺失等典型安全隱患的精準識別。實驗結果表明,改進模型在自建井蓋數(shù)據(jù)集上的平均精度(mAP)達95.2%,相比于YOLOv4模型,精度和檢測速度均有所提升。該算法通過優(yōu)化特征金字塔結構與損失函數(shù),有效增強了復雜路面場景下的目標表征能力,為城市基礎設施智能化運維提供了可靠的技術支持。

關鍵詞:井蓋隱患;YOLOv5;目標檢測;激活函數(shù)

中圖分類號:TP183;TP39 文獻標識碼:A 文章編號:2096-4706(2025)03-0068-06

Research on Intelligent Recognition of Hidden Dangers of Manhole Covers Based on YOLOv5

HUANG Jian, XIANG Siyi

(Xijing University, Xi'an" 710123, China)

Abstract: As a key protective component of the urban underground pipe network system, the safety status of manhole covers directly affects the operation and maintenance efficiency and public safety of municipal facilities. To address the inefficiency and high 1 alarm rate of traditional methods for detecting hidden dangers in manhole covers, this paper proposes an intelligent detection method based on improved YOLOv5. By constructing a multi-scale feature fusion mechanism, this paper combines the 5-fold cross-validation method to train the model of the labeled dataset, and realizes the accurate identification of typical safety hazards such as breakage, displacement, loss, and so on. The experimental results show that the mean Average Precision (mAP) of the improved model on the self-constructed manhole cover dataset is 95.2%. Compared with the YOLOv4 model, the accuracy and detection speed are improved. By optimizing the Feature Pyramid Network structure and loss function, the algorithm effectively enhances the target representation ability in complex road scenarios, providing reliable technical support for intelligent operation and maintenance of urban infrastructure.

Keywords: hidden danger of manhole cover; YOLOv5; object detection; activation function

0" 引" 言

隨著基礎設施建設的高速發(fā)展,通信、電力、排水等各類地下管線設施日益增加,使得對各類井蓋的巡檢、養(yǎng)護、維修等工作量不斷增長。現(xiàn)實生活中井蓋分布廣泛又碎片化,常處于室外復雜環(huán)境,風吹雨淋,容易被損壞或移位,給車輛、行人、光纜設施等帶來很大的風險。由于井蓋數(shù)量龐大、分布廣泛且無法主動上報其狀態(tài),對井蓋的隱患整改工作十分重要。井蓋會存在損壞、凸起、缺失、井圈問題等隱患狀態(tài),存在隱患的井蓋不僅影響了城市的整潔,還對公共安全構成了極大的威脅,現(xiàn)有的一些研究通過井蓋內(nèi)安裝傳感器實現(xiàn)智能井蓋,施工維護成本太高,無法全面推廣。為了解決以上問題,考慮引入AI手段實現(xiàn)井蓋狀態(tài)的快速、準確識別,提高審核管理人員工作效率和質量。

孔天宇等[1]提出了一種路面井蓋病害檢測模型AT-YOLO,實現(xiàn)了街景影像中路面井蓋破損、塌陷的快速檢測。但其沒有對井蓋丟失、沒有蓋等安全隱患進行檢測,未能很好地解決路面井蓋安全隱患。陳欣瑞等[2]提出一種利用立體深度攝像機和MGB-YOLO模型檢測道路井蓋的方法。該模型是通過使用MobileNetV3、全球注意機制(GAM)、YOLOv5s開發(fā),在檢測精度和模型效率之間取得平衡。

近年來,隨著深度學習的不斷發(fā)展,目標檢測技術也取得了許多新進展。例如,多尺度特征融合技術通過將不同尺度的特征進行融合,提高了對小目標和遮擋目標的檢測性能。注意力機制的應用則使得模型能夠更專注于關鍵區(qū)域,進一步提高檢測的準確性。此外,輕量級網(wǎng)絡結構的發(fā)展也使得目標檢測算法能夠在保持一定性能的同時,降低計算復雜度和內(nèi)存消耗,從而適用于移動設備和實時應用場景。

基于深度學習的目標檢測算法通常可以分為兩類:兩階段檢測器和一階段檢測器。兩階段檢測器,如Faster R-CNN,首先生成一系列候選區(qū)域,然后對這些區(qū)域進行分類和位置回歸。這種方法在準確性和定位精度上通常較高,但速度相對較慢。而一階段檢測器,如YOLO和SSD,則直接對圖像進行密集采樣,并在每個位置上預測目標的類別和邊界框。這種方法速度更快,但可能在某些情況下犧牲一定的準確性。

YOLO(You Only Look Once)是一種目標檢測算法,其設計理念是只需要瀏覽一次圖像就可以識別出圖中的物體的類別和位置。近年來,隨著深度學習技術的飛速發(fā)展,YOLO系列算法作為最具代表性的方法之一,以其高效、快速的特點受到了廣泛關注。YOLOv1[3]使用1×1卷積層和3×3卷積層替代Inception Module。整個檢測網(wǎng)絡包括24個卷積層和2個全連接層,其中卷積層用來提取圖像特征,全連接層用來預測圖像位置和類別概率值。YOLOv2[4]在YOLOv1的基礎上進行了改進,使用了多尺度的預測,以更好地處理小物體和重疊目標。此外,它還引入了Anchor Boxes的概念,通過預定義的一組Anchor Boxes進行目標的位置預測,進一步提升了檢測的準確率。YOLOv3[5]在YOLOv2的基礎上進一步提升了檢測的準確率和實時性,滿足了更多實際應用的需求。YOLOv4[6]在保持高速度的同時,顯著提高了目標檢測的準確性,結合了多種先進的目標檢測技術和優(yōu)化策略,使得YOLOv4能夠有效地提取和利用多尺度的特征信息,從而提高檢測性能。YOLOv5是YOLO系列中另一個具有里程碑意義的版本。它在保持YOLO系列算法快速、準確的特點的同時,更加注重模型的易用性和擴展性。YOLOv5提供了多種不同大小和復雜度的模型供用戶選擇,以適應不同場景的需求。在性能上YOLOv5通過引入自適應錨框、自適應圖片大小等技術,進一步提升了檢測的準確性和魯棒性。

因為YOLO有出色的目標檢測功能,該算法可以應用到以下領域:

1)安防監(jiān)控領域。實時監(jiān)控與事件預警:YOLO算法能夠對監(jiān)控視頻中的目標進行實時檢測,包括人員、車輛、動物等各類物體。例如在城市的安防監(jiān)控系統(tǒng)中,它可以快速識別出在特定區(qū)域內(nèi)出現(xiàn)的可疑人員,或者檢測到未經(jīng)授權進入的車輛,及時發(fā)出警報。交通監(jiān)控與管理:用于檢測交通流量,統(tǒng)計不同類型車輛的數(shù)量,識別交通違法行為,如車輛闖紅燈、逆行、超速等情況。同時,也可以用于監(jiān)測道路上行人的行為,保障交通安全。

2)自動駕駛領域。自動駕駛汽車需要對周圍環(huán)境進行精確感知,YOLO可以幫助檢測道路上的各種障礙物,包括其他車輛、行人、自行車、交通標志和信號燈等。例如,在復雜的城市道路環(huán)境中,準確識別出正在過馬路的行人或者突然出現(xiàn)的非機動車輛,為車輛的決策系統(tǒng)提供關鍵信息。

3)工業(yè)檢測領域。產(chǎn)品質量檢測:在工業(yè)生產(chǎn)線上,用于檢測產(chǎn)品的外觀缺陷和尺寸精度。例如,在電子元件生產(chǎn)中,檢測芯片表面是否有劃痕、引腳是否完整;在機械零件制造中,測量零件的尺寸是否符合設計要求,對不合格產(chǎn)品進行篩選。裝配檢測:用于檢查產(chǎn)品部件的裝配是否正確。比如在汽車制造過程中,檢測零部件是否安裝到位,如輪胎是否正確安裝、座椅是否安裝牢固等,提高裝配質量和生產(chǎn)效率。

1" YOLOv5模型

YOLOv5是一個目標檢測模型其架構如圖1所示,主要包括以下幾個部分:

1)Backbone。這部分主要用于特征提取。它通常是一系列卷積層、批量歸一化層和激活函數(shù)的組合,通過逐層提取圖像的特征,將原始的圖像數(shù)據(jù)轉化為高層次的特征表示。

2)Neck。在Backbone之后,通常會有一些額外的網(wǎng)絡層用于進一步融合和增強特征。這部分可能包括FPN(Feature Pyramid Network)或PANet(Path Aggregation Network)等結構,用于將不同尺度的特征進行融合,以提高模型對不同大小目標的檢測能力。

3)Head。這部分負責根據(jù)提取的特征進行目標檢測。它通常包括一些卷積層,用于將特征圖轉化為目標的邊界框和類別預測。YOLOv5采用了一種直接預測邊界框和類別概率的方式,而不是像一些其他方法那樣采用候選區(qū)域生成和分類的方式。

在YOLOv5的架構中,除了上述提到的Backbone、Neck和Head部分,還有一些其他的組件和特性,使其成為一個高效且準確的目標檢測模型:

1)YOLOv5采用了深度卷積神經(jīng)網(wǎng)絡(CNN)作為基礎,通過堆疊多個卷積層來提取圖像中的特征。這些卷積層使用不同大小的卷積核來捕捉不同尺度的特征信息,從而能夠識別出不同大小的目標。

2)YOLOv5引入了殘差連接(Residual Connections)的概念,通過跳過某些層來直接連接輸入和輸出,從而緩解深度神經(jīng)網(wǎng)絡中的梯度消失和表示瓶頸問題。這種連接方式有助于網(wǎng)絡更好地學習特征的表示,提高模型的性能。

3)YOLOv5還采用了多尺度預測(Multi-Scale Prediction)的方法,通過在不同尺度的特征圖上進行目標檢測,從而提高了模型對不同大小目標的檢測能力。這種多尺度預測的方式可以更好地捕捉圖像中的上下文信息,提高檢測的準確性。

4)YOLOv5還使用了數(shù)據(jù)增強(Data Augment-ation)技術來擴展訓練數(shù)據(jù)集,增加模型的泛化能力。通過隨機變換輸入圖像的亮度、對比度、飽和度等屬性,以及進行裁剪、縮放等操作,可以生成更多的訓練樣本,使得模型能夠更好地適應不同的場景和變化。

5)YOLOv5在訓練過程中使用了優(yōu)化算法和損失函數(shù)來指導模型的學習。通過不斷地迭代和優(yōu)化,模型能夠逐漸提高目標檢測的準確性和速度。

總之,YOLOv5是一個基于深度卷積神經(jīng)網(wǎng)絡的目標檢測模型,通過引入殘差連接、多尺度預測和數(shù)據(jù)增強等技術,提高了模型的性能和泛化能力。這些組件和特性的結合使得YOLOv5成為一個高效且準確的目標檢測框架,適用于各種實際應用場景。

2" 實驗及結果分析

2.1" 數(shù)據(jù)集

研究團隊使用相機、手機等設備,在城市、鄉(xiāng)鎮(zhèn)街道或者路面等有井蓋存在的區(qū)域進行實地拍攝。目前已收集到各類井蓋圖像2 500多張,包含有井蓋完好、缺失、破損、未蓋等各種情況,如圖2所示。

本文用Labelimg對圖片進行標注[7],方便用YOLOv5進行檢測,如圖3所示。

圖3中,根據(jù)井蓋的不同情況,分別將其標注為improperly closed manhole、lose、good、broke、uncovered,依次代表“井圈問題”“井蓋缺失”“井蓋完好”“井蓋破損”“井蓋未蓋”等情況[8-10]。對于2 500多個圖片,本文按照5折交叉法進行劃分,將其劃分為訓練集和測試。其中訓練集占比為80%。劃分好的數(shù)據(jù)集放到指定文件夾中。

2.2" 訓練及結果

訓練時,首先修改配置文件,在models文件夾下的相應模型配置文件(.yaml)中,可以修改一些參數(shù),如類別數(shù)量(nc = 5),使其與數(shù)據(jù)集中的目標類別數(shù)量相匹配。還可以調(diào)整模型的一些超參數(shù),如網(wǎng)絡的深度乘數(shù)(depth_multiple)和寬度乘數(shù)(width_multiple),這些參數(shù)可以控制模型的大小和復雜度。然后啟動訓練腳本:通過運行train.py腳本來啟動訓練過程。在命令行中可以指定一些訓練參數(shù),如img_size(輸入圖像的大小)、batch_size(每次迭代使用的圖像數(shù)量)、epoch(訓練的輪數(shù))等。本次井蓋圖像訓練中,設置img_size = 640,batch_size = 16,epoch = 100。實驗中使用的計算機配置如表1所示。

本文用YOLOv5架構訓練標注好的井蓋數(shù)據(jù)集,經(jīng)過300輪訓練,本文得到Precision-Recall、Recall、loss曲線等,如圖4至圖6所示[11]。

從以上曲線中可以看出,經(jīng)過訓練后,能夠準確識別出各種井蓋狀態(tài),精度可達0.95以上;同時cls_loss、box_loss、obj_loss等都下降到了0.01以下。

2.3" 測試及結果

首先,讀取圖像:使用OpenCV等庫讀取單張測試圖像,將其轉換為模型所需的格式。同時調(diào)整維度順序和大小以匹配模型輸入。

然后進行推理:將處理后的圖像張量輸入到加載好的模型中,通過model(img_tensor)這樣的方式得到模型的輸出。模型輸出包含了檢測到的目標的類別、位置(邊界框坐標)和置信度等信息。

最后解析輸出:根據(jù)模型輸出的格式(通常是一個包含邊界框坐標、類別置信度等信息的張量),使用非極大值抑制(NMS)等方法來篩選出最有可能的目標檢測結果。例如,NMS會根據(jù)邊界框的重疊程度和置信度,去除重疊度過高的冗余框,保留每個目標最準確的邊界框。

用上述方法對測試集的圖像進行預測,得到的結果如圖7所示。

從圖7可以看出,當用最優(yōu)模型對井蓋圖像進行預測時,其目標檢測的精度達到了0.87以上,預測單個圖像花費大約0.2 s。

2.4" 結果分析

YOLOv5是一種先進的目標檢測算法,其性能評估至關重要,以了解其準確性、速度和魯棒性。以下是YOLOv5的主要評價指標:

1)平均精度(mAP)。mAP是YOLOv5模型性能評估中最常用的指標之一,它衡量模型在不同IoU(交并比)閾值下的平均精度。mAP是通過計算不同類別下的精度-召回率曲線下的面積來得到的。mAP數(shù)值越高表示模型性能越好。在COCO數(shù)據(jù)集上,YOLOv5的mAP可以達到50%左右。對于每個類別,計算每個檢測框的平均精度(AP),然后對所有類別的AP求平均得到mAP:

mAP = (AP1+AP2+AP3+AP4+AP5)/5" " " (1)

式中,mAP表示平均精度,AP1、AP2、AP3、AP4、AP5分別表示5個類別精度。

2)交并比(IoU)。IoU是衡量預測框與真實目標框重疊程度的指標,計算公式為(檢測框與真實目標框的交集面積)/(檢測框與真實目標框的并集面積)。IoU閾值決定了檢測框與真實目標框的重疊程度。較高的IoU閾值會導致更嚴格的匹配,從而降低mAP。計算式為:

(2)

式中,表示兩個區(qū)域的交集,表示兩個區(qū)域的并集。

3)精度(Precision)。精度(P)是指模型預測為正例的樣本中,真正為正例的樣本數(shù)量占所有預測為正例的樣本數(shù)量的比例。精度反映了模型對正例的識別能力。計算式為:

P = TP/(TP+FP) (3)

式中,TP表示真正例,F(xiàn)P表示假正例。

4)召回率(Recall)。召回率(R)是指模型正確預測為正例的樣本數(shù)量占所有真正為正例的樣本數(shù)量的比例。召回率反映了模型對正例的覆蓋能力。

R = TP/(TP+FN) (4)

另外,本文也用YOLOv4對井蓋數(shù)據(jù)集進行了訓練和預測。通常,YOLOv5在模型架構上要優(yōu)于YOLOv4,更加注重實用性,通過減小模型的復雜度并提高實時性,從而實現(xiàn)更快、更有效的目標檢測。在模型中加入新的層,例如殘差塊,以提高模型的泛化能力。YOLOv5在性能方面也優(yōu)于YOLOv4,YOLOv5比YOLOv4快很多,如YOLOv5的FPS可以達到140幀/秒,而YOLOv4只有50幀/秒左右,YOLOv5比YOLOv4快180%左右。這樣,YOLOv5相較于YOLOv4在精確率和召回率上均有顯著提升,YOLOv5表現(xiàn)更為穩(wěn)定。

完成后,本文對其性能評價指標進行比對。得到如表2所示結果。

通過以上的數(shù)據(jù)比較可以看出,在相同的數(shù)據(jù)集下,電腦配置和迭代次數(shù)都相同的情況下,YOLOv5模型訓練的速度更快,精度更高。訓練后生成的模型容量更小,預測所花費的時間更少,能更好地進行目標檢測。

3" 結" 論

本文采用YOLOv5模型對井蓋數(shù)據(jù)集進行了目標檢測。綜合以上研究過程,可得到訓練后得到的最優(yōu)模型能夠快速、準確檢測各種類型的井蓋圖像。準確識別出各種有安全隱患的井蓋。相比于YOLOv4模型具有檢測精度高、速度更快。該方法可推廣應用到其他目標檢測領域。

參考文獻:

[1] 孔天宇,戴激光.改進YOLOv5的路面井蓋病害檢測 [J].遙感信息,2023,38(3):40-46.

[2] 陳欣瑞,周洋,趙屹濤,等.基于改進YOLOv5的移動端螺栓缺失檢測方法 [J].現(xiàn)代制造工程,2022(11):108-114+143.

[3] 朱久牛,李立明,柴曉冬,等.基于改進YOLOv5算法的地鐵車輛軸箱蓋螺栓定位方法研究 [J].智能計算機與應用,2023,13(10):29-34.

[4] 王文勝,年誠旭,張超,等.基于YOLOv5模型的非住宅區(qū)自動垃圾分類箱設計 [J].環(huán)境工程,2022,40(3):159-165.

[5] 雷俊華.基于改進YOLOv5s的復雜背景下垃圾檢測系統(tǒng)設計與實現(xiàn) [D].武漢:中南財經(jīng)政法大學,2023.

[6] 吳送英,劉林芽,江家明,等.復雜背景下鐵路扣件的改進YOLOv5s檢測算法 [J].中國鐵道科學,2023,44(3):53-63.

[7] 項融融,李博,趙橋.基于改進YOLOv5s的口罩佩戴檢測算法 [J].國外電子測量技術,2022,41(7):39-44.

[8] 惠康華,劉暢.基于YOLO5Face重分布的小尺度人臉檢測方法 [J].計算機仿真,2024,41(3):206-213.

[9] 林剛,魏欣,劉春生,等.基于區(qū)域劃分和YOLO5的日用陶瓷表面缺陷檢測方法.CN202211193767.1 [P].2023-01-06.

[10] 倪衛(wèi)國,黃曉榮,栗鑫,等.基于YOLO5的無人機智能火情巡檢系統(tǒng)研究 [J].中國寬帶,2023,19(3):193-195.

[11] 劉寅龍,王杰,曹昂,等.基于YOLOv5s的鋁型材表觀缺陷檢測方法 [J].制造業(yè)自動化,2024,46(1):169-173.

作者簡介:黃健(1973—),男,漢族,陜西富平人,副教授,碩士研究生,研究方向:嵌入式開發(fā)技術。

主站蜘蛛池模板: 91www在线观看| 漂亮人妻被中出中文字幕久久| 性色一区| 亚洲成人精品| 狠狠ⅴ日韩v欧美v天堂| 国产欧美精品一区二区| 日a本亚洲中文在线观看| 2021国产v亚洲v天堂无码| 亚洲人成影院午夜网站| 最新日韩AV网址在线观看| AV在线天堂进入| 91精品国产综合久久不国产大片| 无码国产伊人| 久久久久亚洲AV成人人电影软件| 亚洲精品在线91| 国产成人亚洲精品蜜芽影院| 亚洲日韩精品欧美中文字幕 | 久久久久无码国产精品不卡 | 久久一本精品久久久ー99| 亚洲第一视频网站| 一级成人欧美一区在线观看 | 中文国产成人精品久久一| 久久黄色一级视频| 久久亚洲美女精品国产精品| 人妻精品久久无码区| 欧洲高清无码在线| 成人午夜福利视频| 国产日本欧美亚洲精品视| 婷婷六月在线| 久久精品丝袜高跟鞋| 亚洲天堂网在线观看视频| 亚洲国产精品日韩欧美一区| 国产午夜福利亚洲第一| 国产精品福利导航| 日韩精品欧美国产在线| 老司机精品一区在线视频| 国产精品女熟高潮视频| 国产99在线| 狠狠色丁香婷婷综合| 日韩精品亚洲一区中文字幕| 四虎影视无码永久免费观看| 欧美区国产区| 波多野结衣无码视频在线观看| 亚洲第一精品福利| 精品自窥自偷在线看| 亚洲最猛黑人xxxx黑人猛交 | 园内精品自拍视频在线播放| 国产丝袜91| 免费国产黄线在线观看| 欧类av怡春院| 亚洲欧洲自拍拍偷午夜色无码| 操国产美女| 久久久精品无码一二三区| 538精品在线观看| A级毛片高清免费视频就| 亚洲制服丝袜第一页| 亚洲黄色成人| 美女一级免费毛片| 国产又色又刺激高潮免费看| 亚洲AV免费一区二区三区| 日韩专区欧美| 毛片卡一卡二| 国产区福利小视频在线观看尤物| 免费毛片网站在线观看| 精品国产自在在线在线观看| 国产不卡一级毛片视频| 亚洲日韩每日更新| 国产美女视频黄a视频全免费网站| 蜜桃视频一区二区| 激情综合网址| 少妇高潮惨叫久久久久久| 日本在线欧美在线| 日本黄色a视频| 国产精品网曝门免费视频| 欧美亚洲第一页| 六月婷婷综合| 亚洲无码高清视频在线观看| 日本亚洲最大的色成网站www| 欧美一区福利| 2021国产v亚洲v天堂无码| 国产91无毒不卡在线观看| 国产精品熟女亚洲AV麻豆|