999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5 的岸邊集裝箱橋式起重機鋼絲繩損傷檢測方法

2023-09-16 08:56:26張俊科吳敬兵吳曉曉
起重運輸機械 2023年16期
關鍵詞:檢測模型

張俊科 吳敬兵 吳曉曉

武漢理工大學機電工程學院 武漢 430070

0 引言

鋼絲繩作為港口起重設備中消耗量巨大且危險性較高的重要部件,其科學有效的使用,對港口生產安全、減少作業成本、提高設備使用率、降低能源消耗等方面均有重要意義。而安全性是其中最重要的,鋼絲繩損傷累計造成嚴重的安全事故,會對民眾生命安全和企業安全生產帶來不可估量的后果。因此,鋼絲繩的安全檢測成為了亟待解決的問題。然而,目前鋼絲繩損傷檢測仍多采用人工技術手段,監測效率低下,監管困難,導致安全生產事故頻發[1]。

目前,基于計算機視覺的目標檢測方法發展迅速,許多學者已將此方法應用于損傷檢測。張夢超等[2]利用了基于YOLOv4-tiny 的礦用輸送帶損傷檢測技術對輸送帶類別重新劃分,從而實現了速度與精度的平衡;楊永波等[3]提出了基于改進YOLOv5 的輕量級安全帽佩戴檢測方法,通過降低模型的計算量提高了檢測辨識度;李鑫等[4]使用Ghost Bottleneck 結構替換原YOLOv5 網絡中的C3 模塊和部分卷積結構,并引入SE 注意力機制,從而能夠更加準確、快讀地檢測出鋼材表面缺陷的種類和位置。由此可知,近年來基于YOLOv5 的目標檢測應用逐漸廣泛。但是,尚未有學者采用此方法對岸邊集裝箱橋式起重機(以下簡稱岸橋)鋼絲繩表面損傷進行探究[5]。因此,本文提出了一種改進YOLOv5 的岸橋鋼絲繩表面損傷檢測方法,旨在提高對鋼絲繩表面損傷的識別準確率和檢測速度。

1 YOLOv5 算法

1.1 YOLOv5 目標檢測網絡結構

YOLOv5 目標檢測網絡從結構上分為輸入端、骨干特征提取網絡(Backbone)、過渡層(Neck)、輸出端(Prediction)4 個部分[6],其中Backbone 影響了預測網絡的預測效率,同時提供輸入圖像的分辨率、寬度及深度也會影響特征提取的充分性[2]。該網絡結構如圖1所示。

圖1 YOLOv5 網絡結構

1.2 YOLOv5 目標檢測原理

將骨干特征提取網絡中,得到的3 個有效的特征層輸入預測網絡,通過預測網絡將輸入的圖片分割成S×S 的網格后,如果某個待測目標的中心落在其中一個網格上,那么該網格就主要負責檢測該目標[2]。

具體目標檢測流程如圖2 所示。在預測過程中,每個網格產生3 個預測框,每個預測框包含8 個預測值,其中前5 個預測值為預測框的調整參數,分別是預測框中心點相對于網格左上點的水平偏移量x,預測框中心點相對于網格左上點的垂直偏移量y,預測框的寬w和高h,第5 個預測值則為置信度c,以表征預測框的置信水平和預測精度,置信度理論上應在[0,1]范圍,置信度趨近0,表示沒有物體,1 表示必然有物體。每個預測框的預測值包含5 個元素(x,y,w,h,c),后3 個預測值則為目標分類種類,包括斷絲、磨損、畸變。

圖2 目標檢測流程

2 改進的YOLOv5 算法

2.1 添加注意力機制CBAM 模塊

CBAM(Convolutional Block Attention Module) 注意力機制由空間和通道2 部分組成,如圖3 所示。輸入特征圖后,先進入通道注意力,基于特征圖的寬、高進行GAP(Global average pooling)、GMP(Global maximum pooling),再經過MLP(Multi-Layer Perceptron)獲得通道的注意力權重,接著利用Sigmoid 方法,取得歸一化注意力權重,然后再使用乘法將路徑逐步加權到最初期的輸入特征圖上,最后重新標定為原始特征[7,8]。表達式為

圖3 CBAM 注意力機制模塊示意圖

再進入空間注意力,首先在通道維度上實現GMP和GAP,之后再將結果基于通道做連接運算,接著通過卷積降維成1 個通道,最后再利用Sigmoid 得到空間注意力向量[9,10]。表達式為

2.2 損失函數改進

本文采用的EIOU(Efficient Intersection over Union)損失函數將GIOU(Generalized Intersection over Union)損失函數所加的最小外接矩形替換為了最小化2 個框中心點的標準化距離[11],分開計算目標框的長度、寬度,避免了GIOU 函數在預測框和真實框處于包含狀態時,不能確定2 個框的位置關系,降低了GIOU 函數在水平、垂直等方向上較大的誤差,也因此提高了收斂速度和回歸精度[12]。表達式為

式中:b、bgt分別為預測框、真實框的中心點,ρ為中心點間歐氏距離,d為2 個框的最小外接矩形的對角線距離,ω、ωgt、h、hgt分別為預測框和真實框的寬度與長度,Cω、Ch為覆蓋2 個框的最小外接矩形的寬度與長度[12-14]。

2.3 非極大值抑制改進

目標檢測網絡采用加權后的非極大值抑制(Non Maximum Suppression,NMS)方法而不采用傳統YOLOv5 算法直接進行預測輸出。兩者區別在于這些與標記的候選框類別一致時,當他們之間的IOU(Intersection over Union)超過閾值后,其中超過閾值的候選框將不再刪除,而是用本文提出的公式進行運算處理[15]。

式中:ti、t'、obji分別為原始坐標的位置、調整后的候選框的具體坐標位置、目標置信度。

如圖4 所示,首先,圖像標注過后訓練集用于訓練圖像數據,訓練批次初始為0,接著卷積神經網絡初始化,通過前向的傳遞取得訓練參數,然后再通過反向的傳遞求得訓練參數的梯度[16],更新完參數后訓練批次加一,輸出該模型,最后用數據集之外的測試集對輸出的圖像數據進行驗證,采用加權后的NMS 方法直接進行預測輸出。

圖4 本文的目標檢測算法

3 實驗結果與分析

3.1 數據集制作與標注

基于YOLOv5 的岸橋鋼絲繩損傷目標檢測網絡的訓練需要大量的數據集支撐,因此首先進行數據集制作。本文數據集圖片是岸橋現場拍攝和實驗室損傷模擬制作。具體制作流程如下:

1)制作表面損傷樣本圖片 首先選取合適的岸橋鋼絲繩,直徑為28 mm,然后在實驗室使用銼刀、砂輪機等人為產生岸橋鋼絲繩損傷樣本圖片,并在港口實際工作環境下拍攝不同損傷形式的鋼絲繩樣本,從1 開始編號,建立鋼絲繩樣本數據集圖庫,如圖5 所示。

圖5 鋼絲繩樣本數據集圖庫

2)圖片篩選及增強 為了增加數據集樣本量,對樣本圖片進行翻轉、縮放、剪切等操作,如圖6 所示,從而使采集到的2 000 張樣本圖片樣本,擴增到8 792 張,同時為了保證處理后圖片特征的不丟失或特征模糊,使用Python 的OpenCV 庫進行圖片處理,對數據集樣本進行Mosaic 增強。

圖6 鋼絲繩損傷圖片增強

3)缺陷位置標注 使用LabelImg 打標軟件進行岸橋鋼絲繩損傷數據集的標注,在VOC2007 文件夾下的predefined_classes.txt 文檔中輸入Brokenwire、Wear、Cagewire 方便標注操作。如圖7 所示,使用此軟件制作數據集,將鋼絲繩圖片中的損傷部分進行打標,其中Brokenwire表示斷絲,Wear表示磨損,Cagewire表示畸變。

圖7 損傷標注圖

4)格式轉換 對圖片標注完成后,生成的XML 文件,不適應于YOLOv5 的輸入格式,需轉換成包含損傷類型及標注框位置信息的txt 格式文件。

3.2 采集監測方案

采用3 個相機之間間隔120°的方案圍繞岸橋鋼絲繩布置,即每個攝像頭可以采集鋼絲繩表面120°的范圍,使用3 個可采集完整。同時使用每個光源之間角度距離也為120°的3 個光源,高速運行的鋼絲繩在監測時,有不同程度的振顫和擺動,要求圖像采集模塊必須多次調試適應此應用環境,不能有偽影;考慮到在運動過程中鋼絲繩的晃動影響相機采集的穩定性,故采用夾具固定環形放置攝像頭起固定作用,其布置方案如圖8所示。

圖8 圖像采集布置方案圖

3.3 評估指標和改進的模型

本文采用平均精度均值(mean Average Precision,mAP )、準確率P和召回率R等指標進行評估。

式中:n為鋼絲繩總的類別數,NTP、NFP、NFN分別為真正例數量、假正例數量、假反例數量[12]。

本文所提出的改進YOLOv5 模型,其網絡結構圖如圖9 所示。

圖9 改進YOLOv5 模型網絡結構圖

3.4 實驗結果與分析

本文使用Pytorch 框架搭建并改進YOLOv5 模型,對岸橋鋼絲繩損傷進行訓練。選用合適學習率對網絡的訓練有很大的幫助,不僅能提升訓練的速度,還能提升網絡的準確率。在鋼絲繩損傷數據集上進行訓練,樣本量為8 792 張,其中80%為訓練集,20%為驗證集,進行200 次迭代訓練,耗時約8 h,得出YOLOv5 網絡的損失曲線收斂情況。

在實驗中,為了選取合適的學習率,分別設置不同的學習率1e-2、le-3、1e-4、1e-5 進行對應訓練結果對比,結果如圖10 所示。實驗結果表明訓練學習率為1e-2 時收斂速度較快,且曲線平滑,說明訓練過程中并無較大的損失波動,故1e-2 為最佳學習率。

圖10 不同學習率損失曲線收斂圖

另外,從實驗結果可以看出,在前200 輪訓練中,損失值下降快速,之后損失值下降緩慢并開始逐漸收斂,600 輪后,損失值趨于平衡。訓練完成得到了模型的最佳權重值,進行檢測時,將其加載到網絡模型中便能得到更好的檢測結果。

斷絲、磨損樣本實驗結果如圖11 所示。鋼絲繩損傷的P-R曲線如圖12 所示,模型訓練完成后,輸入數據集之外的岸橋鋼絲繩損傷圖片進行模型測試,通過對置信度閾值的設置得到大小不同的預測框,根據具體的情況進行相應的匹配。

圖11 樣本實驗結果

圖12 鋼絲繩損傷的P-R 曲線

因為畸變損傷的特征較明顯且面積較大,置信度閾值設置為0.4 ~0.9,斷絲比較小,若置信度設置太高易被過濾掉,故設置為0.2 ~0.25。P-R曲線與坐標軸圍成的面積[17]為該損傷類型的精度值(AP),所有損失類型AP 值的平均值為模型預測的平均精度值(mAP),該模型mAP 值為0.903,部分細小損傷未能識別,斷絲、畸變和磨損都能準確識別,滿足鋼絲繩的檢測要求。

對比改進后的YOLOv5 在各類型損傷和原始的YOLOv5 在同一類型的檢測效果,由表1 所示,其AP 值均大于YOLOv5。現將改進后的YOLOv5 與原始YOLOv5、YOLOv4、YOLOv3 和兩階段的Faster RCNN 在精度(mAP)和速度(FPS)上進行對比,檢測結果如圖13 所示,由雷達圖可知,改進的YOLOv5在精度和速度上均相對更優,檢測效果更好。即本文訓練出的模型對岸橋鋼絲繩的各種損傷類型檢測精度較高,滿足實際的檢測需求。

表1 對比改進后的YOLOv5 和YOLOv5 算法各類別AP 值

圖13 各類算法檢測結果雷達圖

4 結語

長期以來,由于缺少科學有效的鋼絲繩在線監測設備,使得鋼絲繩的質量管理困難,也造成了很大的安全隱患和企業經濟損失。為此,本文為了解決鋼絲繩損傷檢測故障識別率低的問題,提出了一種改進的YOLOv5岸橋鋼絲繩損傷識別方法。通過引進CBAM 注意力機制,選擇EIOU 損失函數替換原GIOU 函數,更新加權NMS 算法,改進后YOLOv5 目標檢測網絡在鋼絲繩損傷數據集上對斷絲、磨損、畸變3 種損傷類型的檢測平均精度均值達90.3%,滿足了對鋼絲繩損傷的檢測要求,實現了對鋼絲繩更快速的識別,為今后開發岸橋鋼絲繩在線監測系統提供了一定的理論基礎。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 国产综合色在线视频播放线视 | 在线国产三级| 色亚洲激情综合精品无码视频| 72种姿势欧美久久久久大黄蕉| 国产欧美成人不卡视频| 久久黄色免费电影| 精品久久久久久成人AV| 久99久热只有精品国产15| 尤物精品视频一区二区三区| 91亚洲精选| 欧美综合激情| 国产成人91精品免费网址在线| 天天综合网站| 国产毛片高清一级国语 | 久久亚洲欧美综合| 日本午夜影院| 久久久久免费精品国产| 狠狠五月天中文字幕| 青青青国产免费线在| 丁香五月激情图片| 萌白酱国产一区二区| 国产乱子伦视频三区| 亚洲成人一区二区三区| 欧美亚洲日韩不卡在线在线观看| 91美女视频在线| 久久精品最新免费国产成人| 中文字幕人成人乱码亚洲电影| 最近最新中文字幕在线第一页| 一本无码在线观看| 亚洲国产成熟视频在线多多| 国产美女视频黄a视频全免费网站| 久久影院一区二区h| 亚洲黄色网站视频| 国产永久无码观看在线| 国产门事件在线| 亚洲一区精品视频在线| 国内毛片视频| 成人福利在线免费观看| 爆操波多野结衣| 亚洲综合在线最大成人| 国产白丝av| 国产一区二区精品高清在线观看 | 欧美天堂久久| 国产玖玖玖精品视频| 日本午夜影院| 欧美午夜网站| 国内熟女少妇一线天| 亚洲成人在线网| a毛片在线免费观看| 熟妇丰满人妻av无码区| 国产成人综合网| 97视频在线精品国自产拍| 青草精品视频| 一级看片免费视频| 久久亚洲精少妇毛片午夜无码 | 九九香蕉视频| 国产男人天堂| 夜夜爽免费视频| 亚洲成人一区二区| 最新亚洲人成无码网站欣赏网 | 无码中文字幕乱码免费2| 在线播放真实国产乱子伦| 性色生活片在线观看| 色香蕉网站| 亚洲最新网址| 99热这里只有精品2| 免费看a级毛片| 亚洲欧美激情另类| 日韩一级毛一欧美一国产| 热99精品视频| 久久久亚洲色| 97国内精品久久久久不卡| 好紧好深好大乳无码中文字幕| 丁香六月激情综合| 欧美特黄一级大黄录像| 久久人与动人物A级毛片| 亚洲日韩在线满18点击进入| 在线观看无码av五月花| аⅴ资源中文在线天堂| 欧美成人aⅴ| 91视频首页| 特级欧美视频aaaaaa|