999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5s 的鋁材表面缺陷檢測方法*

2024-01-16 14:09:04楊召嶺
制造技術與機床 2024年1期
關鍵詞:特征檢測模型

謝 昆 方 凱 陳 娟 楊召嶺

(①湖北汽車工業學院電氣與信息工程學院,湖北 十堰 442000;②東風(十堰)有色鑄件有限公司,湖北 十堰 442000)

在制造過程中難免出現工件損傷,能夠快速精確地檢測出零件缺陷是智能制造的關鍵[1],早期表面缺陷的檢測主要依賴于人工目視檢查,盡管該方法可以有效地發現較為明顯的缺陷,但對于微小且不明顯的缺陷,漏檢概率很高;后來又出現了基于紅外線的機器檢測手段,通過光線掃描,有缺陷的地方會出現信號變化,但檢測速度存在很大局限性[2-3]。之后傳統的機器視覺方法被應用在缺陷檢測中,對采集的工件圖片進行處理,效率較高,實現了不接觸式檢測,但極易受到現場環境和人為操作等干擾,特征提取的識別分類能力有待提高,難以大規模應用到實際生產中[4]。

隨著AI 領域的快速發展,傳統的缺陷檢測方法逐漸被基于深度學習的目標檢測方法所代替,主要算法可分為One-Stage 和Two-Stage。兩種算法各有優缺點,Two-Stage 代表算法有RCNN[5]、Mask-RCNN[6]和Faster-RCNN[7],將檢測對象先生成候選框,再進行分類,檢測的精度高,但實時性不如One-Stage 算法;One-Stage 代表算法有YOLO[8-9]和SSD[10]算法,使用了回歸機制將檢測對象的整個圖形直接檢測,把目標檢測當作回歸問題進行分析,完成直接從原始圖像的輸入到物體位置和類別的輸出,實現了端到端的訓練,能達到較高的實時性,但精度不如Two-Stage 算法。

李超賢等[11]針對鋁型材瑕疵的特點,對傳統圖像處理結合SVM 機器學習的算法與改進的Gaussian-YOLOv3 算法進行了試驗對比,證明了該算法的檢測效果更好;張建國等[12]采用anchor-free方法簡化人工設計YOLOv5s 參數的步驟,利用解耦檢測器解決YOLOv5s 檢測中分類與回歸任務沖突的問題,加快損失函數的收斂速度,同時引入γ參數,解決弱缺陷樣本不平衡的問題;李澄非等[13]在 CSPResblock 模塊中引入注意力機制 SE 模塊,賦予各個通道相應的權重,加強網絡對于重要信息的訓練,提升網絡的特征提取能力。

YOLOv5 算法是在YOLOv4 基礎上的一項改進算法,擁有更好的性能。本文以 YOLOv5 算法為基礎,針對目前鋁材表面缺陷檢測算法在實際工程應用中檢測精度低以及不夠輕量化難以部署等問題進行改進。結果表明,與原 YOLOv5 算法相比,改進后算法的檢測精度和輕量化程度有顯著的提升。

1 YOLOv5 算法

YOLOv5 是一種單階段目標檢測算法,通過單個前向傳播過程同時完成目標檢測和邊界框回歸。它引入了多尺度檢測機制,在不同特征圖上檢測目標,提高準確性。為了提高模型在不同數據集和任務上的性能,算法采用的自適應訓練策略可自動調整超參數。最后通過后處理技術包括NMS 和對象性置信度閾值,來減少冗余邊界框,提高檢測穩定性。YOLOv5 的網絡架構主要由骨干網絡(Backbone)、頸部網絡(Neck)和頭部網絡(Head)組成。Backbone 采用CSPDarknet53(cross-stage partial network)結構,由多個卷積層和池化層組成,通過交叉階段連接來提高信息流的效率和性能,用于從輸入圖像中提取特征。 Neck 采用PANet(path aggregation network)結構,用于進一步增強特征的語義信息和上下文信息。Head 包括多個卷積層,用于生成目標檢測的預測。這些預測包括目標的位置(邊界框的坐標)和類別置信度分數。

2 改進的YOLOv5 算法

2.1 改進算法的整體框架

文中算法針對上述問題主要做了三處改進,將ShufflenNetV2-Block 網絡單元融合在Backbone 當中,降低模型復雜度;添加SE 注意力機制,能夠更好地區分類別之間的差異;優化損失函數,采用SIoU替代CIoU,提升網絡定位精度。改進后的YOLOv5s算法網絡結構如圖1 所示。

圖1 改進后的YOLOv5 算法網絡結構

2.2 融合ShufflenNetV2_Block 算法

在實際生產線工件檢測中,對于實時性有較高的要求,需要對模型進行輕量化處理以便提升檢測速度,但不能過多影響檢測精度。綜合以上考慮本文選擇引入ShufflenNetV2_Block[14],將其融合在YOLOv5s 的Backbone 當中。它是一種輕量化模型,綜合考量了檢測精度和速度,網絡架構如圖2 所示,包括基本單元和下采樣單元。

圖2 ShuffleNetV2 網絡單元結構

ShuffleNetV2_Block 的基本單元引入了通道拆分操作,每個基本單元將輸入的特征圖通道分成兩個分支。其中,左分支進行等映射操作,而右分支進行深度可分離卷積,包括一個深度卷積(depthwise convolution,DW Conv)和兩個逐點卷積(pointwise convolution,PW Conv)用于融合通道之間的特征信息。在ShuffleNetV2_Block 的下采樣單元中,左分支不再進行等映射操作,左右兩個分支都進行stride 為2 的深度卷積。

這樣操作的優點在于可以減小特征圖的空間分辨率,同時增加通道深度,使網絡能夠在不同尺度上學習特征,降低模型的計算復雜性并減少內存消耗,有助于加速訓練和推理過程。總的來說,融合ShufflenNetV2_Block 網絡是對主干網絡的一種優化,使模型更加輕量化,可以提升模型的檢測速率和移動端部署能力。

2.3 SE 注意力機制融合

SENet(squeeze-excitation network)[15]是一種利用注意力機制來增強深度卷積神經網絡性能的架構,其核心思想是通過引入注意力模塊來動態地調整特征圖中每個通道的權重,以突出對于特定特征的關注,從而提高網絡的表征能力。這對于缺陷檢測任務有很大的幫助,可以提升模型對缺陷特征的提取能力,忽略一些次要信息,以此來提高分類性能。本文將SE 注意力機制融合在主干網絡的第7 層,它的實現可分為Squeeze、Excitation 和Scale 三個階段,如圖3 所示。

圖3 SE 注意力機制結構圖

首先進行 Squeeze 操作,對整個特征圖進行全局平均池化,捕獲每個通道在全局上的重要性,再將每個通道的特征聚合成一個單一的值,形成一個通道重要性的向量。緊接著是 Excitation 操作,利用先前獲取的通道重要性向量來學習一個權重向量,該權重向量用于重新加權每個通道的特征響應。通過學習這個權重向量,SENet 可以決定哪些通道應該被加強,哪些通道應該被減弱。最后是Scale 操作,通過將Excitation 階段的權重向量應用于原始特征圖,將其重新加權。這意味著對于具有高權重的通道,其特征響應將被增強,而對于低權重通道,其特征響應將被減弱。這就使得在缺陷檢測任務中,模型能夠更好地區分類別之間的差異,提高分類性能和檢測效率。

2.4 優化損失函數

YOLOv5 的損失函數采用CIoU(complete-intersection over union)[16]即完全交并比,CIoU 是對IoU 的改進版本,它考慮了檢測框的中心點距離和寬高的差異。CIoU 首先計算了中心點距離的歸一化項,然后將其添加到IoU 的計算中,以更準確地衡量兩個框之間的重疊程度。

在此基礎上SIoU[17]還考慮了期望與回歸之間的向量角度,如圖4 所示。重新定義角度懲罰度量并加入損失函數,使得預測框快速移動到最近的軸,有效減少了自由度的總數,對模型訓練效果和網絡收斂速度有進一步提升。并且SIoU 通過引入結構信息,可以更公平地進行競爭,避免一些檢測框過度競爭而導致性能下降,綜合以上分析本文損失函數采用SIoU。

圖4 角度成本計算過程

角度成本函數如下:

式中:x=ch/σ=sinα,為真實框和預測框中心點之間的距離。

根據式(1),SIoU 定義的距離成本函數如下:

由以上分析可知, ? 在α=π/4時取得極大值,SIoU 定義的形狀損失函數如下:

其中:

Ω的值受θ控制,θ的取值通常取2~6 的整數,本文取θ=4。

最終SIoU 的計算公式定義為

3 實驗與分析

3.1 實驗環境和數據集

實驗所用操作系統為Windows11;硬件環境中,CPU 為Inter Core i5-10500,GPU 為NVIDIA GeForce RTX 3060;軟件環境為CUDA11.7,Cudnn8.4,采用Pytorch2.0.1 深度學習框架。

數據集圖像由工業相機采集,包括pinhole(針孔)、scratches(劃痕)、spot(斑點)、wrinkle(褶皺)等類型缺陷,共 1 412 張,按照9∶1 的比例分為訓練集和驗證集。部分數據集如圖5 所示。

圖5 不同缺陷類型數據集

3.2 模型訓練和評價指標

在模型訓練過程中,設置輸入圖像大小為640×640,初始學習率為0.01, batch_size 為 64,epochs為100。引用R(recall)、P(precision)、AP(average precision)和mAP作為模型性能評價指標,各指標計算公式如下:

式中:P表示正樣本中被正確預測為缺陷的樣本比例,用于衡量檢測結果的準確性;R表示被正確預測為缺陷的正樣本占總正樣本數的比例,用于衡量模型的召回率;mAP表示在不同目標類別下的平均精準度,用于綜合評估目標檢測性能的指標;TP表示被正確預測為缺陷的正樣本數量,即模型成功檢測到的缺陷;FP表示被錯誤預測為缺陷的負樣本數量,即模型誤報的缺陷。FN表示被錯誤預測為正常的正樣本數量,即模型漏報的缺陷;n表示目標檢測任務中涉及的不同缺陷目標類別的數量。同時,選取mAP用來綜合評估目標檢測性能,一般情況下值越高,模型性能越好,見式(7)。

3.3 實驗結果分析

Loss曲線如圖6 所示,其中Box Loss為邊界框損失,用于度量模型預測的邊界框坐標與真實邊界框坐標之間的差異,值越小表示定位準確性越高;Cls Loss為分類損失,用于度量模型預測的類別概率分布與真實類別標簽之間的差異,值越小表示分類準確性越高。可以看出Loss值在訓練過程的前1/4 部分下降得較快,之后趨于穩定,訓練效果較好。

圖6 本文算法Loss 曲線圖

3.3.1 不同算法實驗對比分析

為了驗證本文改進算法的綜合檢測能力,采用文中算法與經典的目標檢測算法及文獻中的算法進行對比試驗。采用本文所述數據集,在相同實驗條件下,設置初始學習率為 0.01,利用不同缺陷的AP、mAP、FPS 以及模型大小,對本文改進算法進行評估。訓練結束時模型損失均已收斂,結果見表1。

表1 不同算法的實驗結果對比結果

由表1 可知,兩階段算法FasterRCNN 的檢測精度略高于YOLOv3,但因為是兩步法,FPS僅有19.3,檢測實時性跟不上;而SSD 算法檢測速度雖有小幅提升,但mAP太低,檢測精度跟不上;YOLOv5s和YOLOv3 的mAP接近,但都明顯低于本文算法。特別是本文算法對于針孔和斑點這類小目標的檢測精度有了很大的提升,針孔類和斑點類缺陷檢測精度比原版YOLOv5s 分別提升了8.3%和9.3%,mAP提高了6.4%。雖然本文算法的FPS要略低于YOLOv5s,但訓練出來的模型大小僅為原版YOLOv5s 算法的25%,更加適合移動端的部署。

劃痕類缺陷的特點是有較細微的紋理或邊緣特征,較簡單的模型結構一般無法捕捉到劃痕類缺陷的復雜特征,對于這類缺陷檢測精度較高的是YOLOv3 和FasterRCNN,但它們的檢測實時性遠不如本文算法。這是因為它們的模型較大,特征提取器的網絡結構較深且具有較多的層級,可以更好地捕捉較為復雜的特征;而本文算法和YOLOv5s 考慮了輕量化,降低了模型復雜度,在復雜特征提取方面并沒有優勢。

上述對比結果說明,本文算法實現了一定程度的性能優化,綜合性能最佳,極大地提高了鋁材表面缺陷檢測效率以及減小了模型體積,有效改善了制造過程中對存在缺陷的工件漏檢問題。

3.3.2 消融實驗

為了證明算法的各項改進點對模型性能提升的貢獻,本文進行了消融實驗,設立了4 組不同條件的實驗,先后對原始的YOLOv5s 網絡進行融合ShufflenNetV2-Block 網絡單元(SN),添加SE 注意力機制(SE),用SIoU 替代原有的損失函數。消融結果實驗見表2。

表2 消融實驗

由表2 可知,方法2 僅融合ShufflenNetV2-Block 網絡單元,使得模型mAP有些許下降,FPS變化不大,但模型大小減少了75%,僅為原來的25%;方法3 在融合ShufflenNetV2-Block 網絡單元的基礎上添加SE 注意力機制,模型的mAP有所提升,但FPS降低了,意味著檢測實時性下降;方法4(本文方法)在方法3 的基礎上優化了損失函數,mAP值提升明顯,達到了92.5,模型大小也僅為1.91 MB,雖然FPS與原始YOLOv5s 相比降低了1.1 個單位,但綜合來看,方法4 在滿足實時檢測的條件下,精確率和輕量化程度更高。

3.3.3 缺陷檢測實際效果

利用文中改進的算法進行模型訓練后,4 種不同類型的工件缺陷均得到了有效識別,不同顏色的矩形框用來標識檢測結果,并且給出缺陷的類別和概率,如圖7 所示。

圖7 缺陷檢測實際效果

4 結語

針對目前鋁材表面缺陷檢測算法在實際工程應用中檢測精度低以及不夠輕量化難以部署等問題,設計了基于YOLOv5s 的改進算法。將ShufflenNetV2-Block 網絡單元融合在Backbone 中,重構主干網絡,減少模型計算量,提高缺陷特征的提取速度,有助于加速訓練和推理過程;添加SE 注意力機制,使注意力更集中于缺陷相關區域,能夠更好地區分類別之間的差異,提高分類性能和檢測效率;優化損失函數,采用SIoU 替代CIoU,使得網絡收斂更快、定位精度更高。實驗結果表明,本文算法相較于YOLOv5s 算法在識別精度和模型輕量化方面有所提升,特別是對于針孔類的小目標缺陷識別精度提升明顯,且降低了模型的大小和所占內存,更加便于移動端部署,滿足加工生產現場對工件的檢測需求。后續將以本文為基礎,在滿足檢測實時性的前提下,對模型進一步優化,提升對劃痕類復雜缺陷特征的檢測精度。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美啪啪一区| 波多野衣结在线精品二区| 国产在线第二页| 久久精品人人做人人综合试看| 久久99精品久久久久久不卡| 亚洲欧美国产五月天综合| 凹凸国产分类在线观看| 久久99这里精品8国产| a毛片在线| 激情亚洲天堂| 最新国产麻豆aⅴ精品无| 国产精品自在在线午夜| 尤物视频一区| 日韩视频免费| 亚洲精品第一页不卡| 国产成人福利在线视老湿机| 亚洲精品777| 午夜在线不卡| 国产亚洲精品在天天在线麻豆| 国产情精品嫩草影院88av| 久久国产精品波多野结衣| 久久综合丝袜长腿丝袜| 亚洲男人在线| 啪啪免费视频一区二区| 国产午夜不卡| 国产精品亚洲精品爽爽| 无遮挡国产高潮视频免费观看| 亚洲国产日韩在线成人蜜芽| 久久综合干| 浮力影院国产第一页| 欧美日韩国产在线人成app| 黄色网站不卡无码| 强奷白丝美女在线观看| 国产免费羞羞视频| 99中文字幕亚洲一区二区| 91视频精品| 国产在线一区视频| 18禁影院亚洲专区| 久久成人免费| 欧美激情网址| a天堂视频| 永久天堂网Av| 91精品国产麻豆国产自产在线| 在线看片免费人成视久网下载| 综合网天天| 欧美午夜网| 亚洲av无码久久无遮挡| 国产午夜无码片在线观看网站 | v天堂中文在线| 人妻一本久道久久综合久久鬼色| 精品国产自在现线看久久| 国产精品一线天| 久久精品视频一| 久久视精品| 无码中字出轨中文人妻中文中| 国产成人a在线观看视频| 久久久黄色片| 亚洲日韩精品无码专区| 日韩午夜片| 亚洲色成人www在线观看| 在线欧美a| 亚洲精品麻豆| 91精品综合| 性欧美精品xxxx| 日韩欧美视频第一区在线观看| 97青草最新免费精品视频| 91九色视频网| 欧美三级日韩三级| 精品欧美视频| 人妻丰满熟妇av五码区| 一级高清毛片免费a级高清毛片| 亚州AV秘 一区二区三区| 中美日韩在线网免费毛片视频| 毛片在线播放a| 日韩国产高清无码| 在线播放91| 毛片在线播放a| 亚洲女同一区二区| 国产区在线看| 国产一区成人| 亚洲伦理一区二区| 女同久久精品国产99国|