999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5s的輕量化布匹瑕疵檢測算法

2024-01-01 00:00:00鄒宏睿任佳潘海鵬周傳輝
浙江理工大學學報 2024年5期

摘 要: 針對紡織生產中布匹瑕疵檢測高精度、實時性的需求,提出了一種基于改進YOLOv5s的輕量化布匹瑕疵檢測算法(GhostNet-CBAM-Partial convolution-YOLOv5s, GCP-YOLOv5s)。該算法首先引入GhostNet中的GhostConv模塊,對原主干網絡進行優化重構,大幅減少網絡參數;其次,在主干特征提取網絡中加入CBAM(Convolutional block attention module)注意力機制,增加網絡的特征提取能力;最后,設計了基于Partial convolution的改進C3模塊(C3-Partial convolution, C3-P),在降低模型參數量的同時提高特征融合能力。在自建布匹瑕疵數據集上進行了對比測試,結果表明:與基準模型YOLOv5s相比,GCP-YOLOv5s的參數量降低了41.6%,計算量降低了43.1%,檢測速度提高了12 FPS,檢測精度提升了1.7%。GCP-YOLOv5s算法在保證模型輕量化的同時具有較高的檢測精度,可以滿足布匹瑕疵檢測的高精度和實時性要求。

關鍵詞: 布匹瑕疵檢測;YOLOv5s;GhostNet;注意力機制;高精度;實時性

中圖分類號: TP183

文獻標志碼: A

文章編號: 1673-3851 (2024) 05-0389-10

引文格式:鄒宏睿,任佳,潘海鵬,等. 基于改進YOLOv5s的輕量化布匹瑕疵檢測算法[J]. 浙江理工大學學報(自然科學),2024,51(3):389-398.

Reference Format: ZOU Hongrui, REN Jia, PAN Haipeng, et al. A lightweight fabric defect detection algorithm based on improved YOLOv5s[J]. Journal of Zhejiang Sci-Tech University,2024,51(3):389-398.

A lightweight fabric defect detection algorithm based on improved YOLOv5s

ZOU Hongrui1, REN Jia1,2, PAN Haipeng1,2, ZHOU Chuanhui1

(1.School of Information Science and Engineering, Zhejiang Sci-Tech University, Hangzhou 310018, China; 2.Zhejiang Sci-Tech University Changshan Research Institute Co., Ltd., Quzhou 324299, China)

Abstract:" A lightweight fabric defect detection algorithm, GhostNet-CBAM-Partial convolution-YOLOv5s (GCP-YOLOv5s) based on improved YOLOv5s was proposed to meet the high-precision and real-time requirements of fabric defect detection in textile production. Firstly, this algorithm introduced the GhostConv module in GhostNet to optimize and reconstruct the original backbone network, significantly reducing network parameters. Secondly, CBAM (convolutional block attention module) attention mechanism was incorporated into the backbone network to increase its feature extraction capability. Finally, an improved C3 module C3-P (C3-Partial convolotion) module based on Partial convolution was designed to reduce the number of model parameters while improving the feature fusion capability. Comparative tests were conducted on a dataset of self-built fabric defects on site, and the results showed that compared with the benchmark model YOLOv5s, the parameters and computational complexity of GCP-YOLOv5s were reduced by 41.6% and 43.1%, respectively, while the detection speed and detection accuracy were increased by 12 FPS and 1.7%, respectively. The GCP-YOLOv5s algorithm has high detection accuracy while ensuring model lightweighting, meeting the requirements of high precision and real-time performance in fabric defect detection at the same time.

Key words: fabric defect detection; YOLOv5s; GhostNet; attention mechanism; high-precision; real-time

0 引 言

布匹瑕疵檢測在紡織生產的質量控制中起著至關重要的作用。布匹瑕疵檢測主要包括規格尺寸、疵點、色差等內容,通過瑕疵檢測可以及時發現并解決生產過程中的質量問題。目前,大部分紡織企業采用人工檢測的方式進行布匹瑕疵檢測,但該方法成本高、準確率低并且效率低下。部分紡織企業采用傳統機器視覺的方式進行布匹瑕疵檢測,通過閾值分割、形態學等圖像處理方法對布匹圖像進行瑕疵檢測,但是這些方法對圖像的質量有較高要求,在布匹瑕疵與圖像背景對比度低等情況下檢測效果差,并且算法的參數設置依賴專家經驗,難以遷移近年來,隨著深度學習算法的發展,布匹瑕疵檢測逐漸向自動化、智能化發展。深度學習算法在計算復雜度、檢測精度等方面較傳統機器視覺方法有著顯著優勢,可以實現布匹瑕疵的實時檢測。

基于深度學習的布匹瑕疵檢測算法,根據訓練數據是否帶有標簽信息可以分為有監督學習[1]、半監督學習[2]、無監督學習[3]三類。布匹瑕疵檢測的目標主要是找出布匹中瑕疵的位置,并將其正確分類,因此可以將其視為目標檢測任務。目標檢測任務相關算法可以按照候選區域的處理方式分為單階段和雙階段兩大類,其中:單階段算法的代表有SSD(Single shot multibox detector)[4]和YOLO(You only look once)[5],雙階段算法的典型代表為Faster R-CNN(Faster region-cnn)[6]。YOLO系列算法作為單階段檢測的代表算法,將特征提取、目標分類和位置回歸任務進行合并,具有參數量小、檢測精度高、檢測速度快的優點。

布匹瑕疵檢測任務是特殊的目標檢測任務,具有數據集樣本不均衡、瑕疵目標占比小、瑕疵種類多樣以及精度、實時性要求等特點,往往需要結合其任務特點來設計算法。針對布匹瑕疵數據集中類別數量不均衡的問題,蔡兆信等[7]改進了RPN(Region proposal network)網絡中anchors(錨框)的大小和數量,提高了瑕疵檢測的準確率;該方法的不足之處在于錨框數量難以確定,并且在錨框數量過多時檢測的速度較慢。針對網絡參數量大的問題,Zhou等[8]使用了CARAFE輕量化上采樣技術,減少了特征融合網絡的參數。針對瑕疵樣本不足的問題,Liu等[9]使用GAN(Generative adversarial network)網絡來生成瑕疵圖像,進行訓練樣本擴充;這種方法可以有效增加樣本圖像數量,但是也帶來了訓練時間過長的問題。針對小瑕疵難以檢測的問題,李輝等[10]提出一種雙路高分辨率轉換網絡算法,利用雙路高分辨率特征提取方法來消除背景的噪聲干擾,提高了小瑕疵的檢測準確率,以滿足布匹瑕疵檢測中高準確率的要求;但是該算法檢測速度慢,難以滿足實時性要求,不能在嵌入式設備上進行部署。

盡管基于深度學習的布匹瑕疵檢測方法已經取得了大量的成果,但這些方法普遍存在計算復雜度高、耗時長等問題,在實際應用時存在一定的局限性[11],如布匹瑕疵檢測不及時、布匹瑕疵定位不精準等。難以滿足布匹瑕疵檢測的高精度和實時性要求,也不適合在嵌入式和移動設備中進行部署。隨著MobileNet[12-13]、ShuffleNet[14-15]、GhostNet[16-17]等輕量化網絡的提出,兼顧檢測精度和實時性的深度學習算法成為了新的研究方向。

為了實現布匹瑕疵的高精度和實時檢測,本文提出了一種基于YOLOv5s的輕量化布匹瑕疵檢測算法(GhostNet-CBAM-Partial convolution-YOLOv5s, GCP-YOLOv5s)。該算法首先引入GhostNet來實現主干特征提取網絡的輕量化;然后添加CBAM(Convolutional block attention module)注意力機制來增強主干網絡的特征提取能力;最后設計了一種基于Partial convolution的改進C3模塊C3-P(C3-Partial convolution),在降低模型參數量的同時提高特征融合能力。本文在課題組采集的布匹瑕疵數據集上進行了實驗,以驗證該算法的有效性。

1 YOLOv5算法介紹

YOLOv5是YOLO系列發展至今的第5代檢測算法,它在更加輕量化的同時實現了更高的檢測精度。根據網絡的深度和寬度,YOLOv5有4個主要版本,分別為YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x;這4個版本的檢測精度與模型大小依次提升,本文選用最輕量化的YOLOv5s作為基準模型。

YOLOv5s主要由Backbone(主干)、Neck(頸部)、Head(頭部)3部分組成,其結構如圖1所示。

Backbone部分由CBS模塊和C3模塊組成,其功能是進行充分的特征提取[18]。Neck部分由特征金字塔網絡(Feature pyramid networks,FPN)和路徑聚合網絡(Path aggregation network, PAN)[19]組成,其功能是實現多尺度特征的融合,FPN自上而下地將深層特征圖的語義信息傳遞給淺層,PAN則自下而上地將淺層特征圖的位置信息傳遞給深層[20]。Head部分由3個檢測器組成,其功能是完成物體位置和類別的檢測[21]。

2 GCP-YOLOv5s算法設計

本文的主要工作是對YOLOv5s的網絡結構做出改進。GCP-YOLOv5s在YOLOv5s的基礎上,通過GhostNet網絡來實現模型的輕量化;引入CBAM注意力機制,增強主干網絡的特征提取能力;設計基于Partial convolution的改進C3模塊,在降低模型參數量的同時提高特征提取能力。

GCP-YOLOv5s的網絡結構如圖2所示,由Backbone、Neck、Head 3部分組成。

Backbone部分由GhostCBS模塊和C3Ghost模塊組成,實現了主干網絡的大幅輕量化;同時在主干網絡尾部添加CBAM注意力機制,增加主干網絡的特征提取能力。Neck部分由特征金字塔網絡和路徑聚合網絡組成,使用Partial convolution改進Bottleneck結構,提出C3-P模塊,在降低模型參數量的同時提高了模型的特征融合能力。Head部分由3個檢測器組成,其功能是完成物體位置和類別的檢測。下面分別進行闡述。

2.1 輕量化Ghost主干特征提取網絡

本文以YOLOv5s為基準網絡,為了實現主干網絡的輕量化,引入Ghost模塊對其主干網絡進行重構。普通卷積和Ghost卷積操作示意圖如圖3所示,其中:Conv表示卷積操作;Identity表示恒等映射;Φ1, Φ2, …, Φk表示線性變換。

由圖3可知:普通卷積獲得的特征層內存在一定程度的冗余,部分特征圖的特征信息較為相似;Ghost卷積使用簡單的操作生成部分特征圖,在幾乎不影響檢測精度的情況下,能有效減少模型的參數量和計算量。Ghost卷積模塊首先通過常規卷積獲取一般特征圖,然后對一般特征圖中的每一個通道進行線性運算,以此來獲得同等通道數的簡單特征圖。這些經過線性運算得到的簡單特征圖就是常規卷積中相似的冗余特征圖。最后,將一般特征圖和簡單特征圖在通道維度進行堆疊,得到最終的輸出特征圖。

具體計算過程描述如下:假設輸入特征圖的尺寸為h×w×c,使用卷積核為k×k的卷積塊,產生尺寸為h′×w′×n的輸出特征圖,其中:h、w、c分別是輸入特征圖的高、寬和通道數,k為卷積核尺寸,h′、w′、n分別是輸出特征圖的高、寬和通道數。

使用普通卷積進行一次特征提取所需要的運算量pnormal如下:

pnormal=n×h′×w′×c×k×k(1)

Ghost卷積的計算過程如下:先使用普通卷積生成特征圖,其通道數n=c/2;再對特征圖中的通道進行簡單的線性運算增加通道數:

yij=j(yi′),i=1,…,m,j=1,…,s(2)

其中:s代表線性運算的次數,yi′代表第i個一般特征圖,j代表對一般特征圖進行第j個線性變換得到的簡單特征圖。對m個特征圖進行s次線性運算可以獲得的相似特征圖數量為m×s個,為了使輸出通道和原輸出特征通道相同,取前n個相似特征圖作為最后的輸出結果。

使用Ghost卷積進行一次特征提取所需要的運算量pGhost如下:

pGhost=ns×h′×w′×k×k×c+(s-1)×ns×h′×w′×k×k(3)

普通卷積和Ghost卷積的參數量之比和計算量之比見式(4)—(5):

rp=n·h′×w′×c×k×kns×h′×w′×k×k×c+(s-1)×ns×h′×w′×k×k=c×k×k1s×c×k×k+s-1s×d×d≈s×cs+c-1≈s(4)

rc=n×c×k×kns×c×k×k+(s-1)×ns×d×d≈s×cs+c-1≈s(5)

其中:rp為普通卷積和Ghost卷積的參數量之比,rc為普通卷積和Ghost卷積的計算量之比。

由于Ghost卷積利用了特征圖冗余信息,所以其參數量和計算量相比普通卷積都有著大幅度下降,更適合部署在嵌入式設備之中。在YOLOv5s的主干特征提取網絡中,CBS模塊由普通卷積、批正則化、Silu激活函數組合而成。將其中的普通卷積模塊替換為Ghost卷積,得到由Ghost卷積、批正則化、Silu激活函數組成GhostCBS模塊。為了避免主干網絡特征提取能力的過度下降,本文保留主干網絡中的第一個CBS模塊,將其他CBS模塊替換為GhostCBS模塊。

由于主干特征提取網絡中的C3模塊包含多個卷積操作,參數量和計算量較大,本文考慮對其進行輕量化改進。為了在不影響主干網絡的特征提取能力,將C3模塊內Bottleneck結構中的卷積操作替換為Ghost卷積,C3模塊內其余卷積操作保持不變。將改進后的C3模塊命名為C3Ghost模塊。

2.2 CBAM注意力機制模塊

CBAM注意力機制模塊包含通道注意力和空間注意力:通道注意力用于增強網絡對圖像特征的提取能力,空間注意力用于增強網絡對目標的聚焦能力,二者結合可有效淡化無用信息,增強模型魯棒性和檢測準確率。本文采用串聯形式的CBAM模塊,其結構如圖4所示,其中:圖4(a)是CBAM注意力機制的整體結構圖,圖4(b)是圖4(a)中通道注意力機制的結構圖,圖4(c)是圖4(a)中空間注意力機制的結構圖。

通道注意力模塊關注特征圖中的重要信息,計算流程如下:

Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))

=σ(W1(W0(Fcavg))+W1(W0(Fcmax)))(6)

其中:F為原始特征圖;Mc(F)為輸出的通道注意力值;σ為Sigmoid函數;W0和W1為權重參數;Fcavg為平均池化特征;Fcmax為最大池化特征。

將通道注意力模塊的輸出值輸入到空間注意力模塊之中,空間注意力模塊的計算流程如下:

Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))

=σ(f7×7([Fsavg;Fsmax]))(7)

其中:Ms(F)為輸出的空間注意力值;f7×7是卷積核尺寸為7×7的卷積運算;Fsavg為平均池化特征;Fsmax為最大池化特征。

考慮到注意力機制模塊利用了空間和通道維度的信息,在只增加了少量計算量的情況下,可以有效地提高網絡的特征提取能力,本文選擇將CBAM注意力機制模塊放在主干特征提取網絡的SPPF模塊之后,利用注意力機制來增強主干特征提取網絡的特征提取能力。

2.3 基于Partial Convolution的改進Bottleneck結構

Ghost模塊考慮到特征之間的相關性和冗余性,舍棄了部分常規卷積操作,使用簡單操作來獲得冗余特征圖。受Ghost模塊的啟發,本文引入一種更輕量化的卷積模塊Partial convolution(PConv)。對于連續或者規則的內容訪問,PConv將第一個或者最后一個連續的通道視為整個特征圖的代表,并只對少數幾個通道應用濾波器,其余的通道則保持不變。一般情況而言,輸入和輸出擁有相同數量的通道。PConv只需要在輸入通道的一部分上應用常規卷積進行空間特征提取,并保持其余通道不變,即可生成與輸入擁有相同通道的輸出。因此,PConv可以減少冗余計算以及內存訪問,它擁有比常規卷積更低的浮點運算數(floating-point operations, FLOPs)以及比深度可分離卷積更高的每秒浮點運算數(floating-point operations per second, FLOPS)。PConv和普通卷積、深度可分離卷積的操作示意圖如圖5所示。

在原YOLOv5s模型中,C3模塊由三個卷積模塊和Bottleneck結構組成,其主要功能是增加網絡的深度和感受野,通過Bottleneck引入殘差結構,降低模型的優化難度。Bottleneck結構的核心思想是使用多個小卷積來替代大的卷積,從而達到降低參數量的目的。在原始的C3模塊中,Bottleneck由1×1卷積和3×3卷積組成,通過1×1卷積來降低通道數,再使用3×3卷積進行下采樣。與此同時,使用Shortcut操作將輸入和輸出連接起來。

PConv和GhostConv相比,參數量、計算消耗更小,但其特征提取能力因此也有所下降。在主干網絡中,考慮到模型需要更充分地進行提取特征,故選擇了參數量稍大的GhostConv。主干網絡中使用的C3Ghost模塊結構示意圖如圖6所示。在特征融合階段,為了進一步加快模型的推理速度,在保證特征融合能力的情況下利用冗余信息減少計算量,本文選擇了更輕量化的PConv,將C3模塊內Bottleneck結構中的卷積操作替換為PConv,C3模塊內其余卷積操作保持不變。將改進后的C3模塊命名為C3-P,其結構示意圖如圖6所示。由于Bottleneck結構是由多個相同模塊串行連接而成,PConv中未參與卷積的通道會在其他的相同模塊中參與卷積,從而緩解了單獨使用PConv所帶來的特征提取不充分的現象。

3 實驗結果及分析

本文的實驗環境配置如下:操作系統 Windows11(64位),CPU 11th Gen Intel(R)Core(TM)i5-11400H,顯卡為RTX3060,運行內存16 GiB,軟件運行環境為Pycharm。

模型參數設置如下:初始學習率為0.01,動量設置為0.937,使用隨機梯度下降法(SGD)進行優化,batch_size設置為16,epoch設置為300。

3.1 數據集介紹

本文數據集采集自某紡織生產企業,數據集圖像由面陣CCD相機拍攝而成。為了實現布匹瑕疵的實時監測,將相機設置于出布口,采集圖像為3072×96像素。由于現場實際采集到的圖像為3072×96像素的極端尺寸,直接處理會丟失經向瑕疵特征信息,因此將采集到的瑕疵圖像切割成96×96像素的圖像后再用于訓練。圖像在切割之后使用LabelImg標注并制作數據集,數據集中含有毛緯、帶緯、白檔子、曲紆、雙經和斷經共6種類型的瑕疵圖以及正常圖像樣本。考慮到布匹由經線和緯線兩組線組紡織而成,為了進行機器故障的定位,將瑕疵樣本按照瑕疵產生的原因分別標注為“jing”和“wei”兩類,瑕疵樣本以及標注類別示例圖像如圖7所示。在經過旋轉、噪聲、調節亮度等數據增強方法擴充樣本數量后,數據集中共含有圖像樣本1356張,其中訓練集1220張,測試集136張。在線檢測時,把待檢測的采樣圖像按順序切分成32張96×96像素的圖像,如果模型的檢測速度大于32 FPS,即可滿足布匹瑕疵的實時檢測需求。

3.2 評價指標

本文選用的算法評價指標有參數量、浮點計算量(FLOPs)、查準率(Precision)、查全率(Recall)、平均精度(Average precision, AP)、平均精度均值(Mean average precision, mAP)、每秒傳輸幀數(Frames per second, FPS)、檢出率和誤檢率,其公式分別如式(8)— (12)所示:

Pmis=1-Pp=1-TPTP+FP(8)

其中:Pmis為誤檢率,表示模型檢測為正樣本但是檢測錯誤的目標數占正樣本的比例;Pp表示查準率,即所有預測為正樣本中,實際有多少樣本是正樣本的比例;TP為模型預測正確的正確樣本數;FP為模型預測錯誤的正確樣本數。

Ptrue=Pr=TPTP+FN(9)

其中:Ptrue為檢出率,表示模型正確檢測出的目標數占總目標數的比例;Pr表示查全率,即所標注為正樣本中被正確檢測為正樣本的比例;FN為模型預測錯誤的錯誤樣本數。

SAP=∫10P(R)dR(10)

其中:SAP為召回率和準確率曲線下的面積。

PmA=∑Ni=1SAPiN(11)

其中:PmA為所有類別的SAP均值,N為檢測的總次數。

FPS=1tinf+tNMS(12)

其中:FPS表示每秒檢測幀數,tinf表示模型的推理時間,tNMS表示模型進行非極大值運算的時間。

3.3 實驗結果及分析

3.3.1 不同輸入尺寸的對比實驗

由于數據集中的瑕疵在整幅圖像中的占比小,卷積過程中容易造成瑕疵特征信息丟失或失真,因此考慮對圖像進行等比例放大再進行輸入。本文使用雙線性插值的方法進行圖像等比放大,再放大圖像時,目標像素的值是通過源圖像中4個最近鄰像素點的值進行加權和計算而來。為了探究不同的圖像輸入尺寸對瑕疵檢測造成影響,本文設計了不同輸入圖像尺寸的檢測效果對照實驗,結果如表1所示,選取每秒檢測幀數FPS、Pmis、Ptrue、PmA@0.5、PmA@0.50-0.95作為評價指標。

根據表1實驗結果可以看出,當在輸入圖像尺寸在640像素點之內時,檢測效果隨輸入尺寸變大而提高。輸入尺寸大于640像素點時,檢測效果的提升不明顯,但是模型的預測時間增加,會導致每秒檢測幀數的下降。為了平衡精度與計算成本,本文選擇將數據集中的圖像等比例放大至640×640像素作為模型的輸入。

3.3.2 CBAM注意力機制加入位置的對比實驗

CBAM注意力機制模塊作為一種即插即用的模塊,可以添加在YOLOv5s網絡中的主干特征提取網絡、特征融合網絡以及檢測頭之中。因此,為了選擇CBAM注意力機制模塊在YOLOv5s網絡中合適的加入位置,分別選取Pmis、Ptrue、PmA@0.5、PmA@0.50-0.95作為評價指標進行了對照實驗,其結果如表2所示。

由表2可知,CBAM注意力機制添加在主干特征提取網絡中時,誤檢率降低、檢出率提高,同時檢測精度維持不變。當CBAM注意力機制添加在特征融合網絡以及檢測頭中時,誤檢率降低、檢出率提高,但是檢測精度有所下降。因此,本文選擇將CBAM注意力機制添加在主干特征提取網絡之中。

考慮到輕量化主干網絡降低了參數量,可能會弱化特征提取能力,本文選擇將CBAM注意力機制模塊添加到主干特征提取網絡的末端,以補償模型輕量化可能帶來的特征提取能力損失。

3.3.3 不同注意力機制的對比實驗

為了衡量CBAM注意力機制對于主干網絡特征提取能力的提升效果,分別選取參數量、Pmis、Ptrue、PmA@0.5、PmA@0.50-0.95作為評價指標,并將SE注意力機制(Squeeze-and-excitation attention)、CA注意力機制(Coordinate attention)、CBAM注意力機制分別與GhostConv-YOLOv5s相結合,檢測結果如表3所示。

由表3可知,CBAM和SE注意力機制雖然少量增加了模型的參數量,但是提升了主干網絡的特征提取能力,查準率、查全率、PmA@0.50-0.95得到提升,本文選擇在主干網絡中使用表現更佳的CBAM注意力機制。

3.3.4 橫向對比實驗和消融試驗

本文在測試樣本中進行消融實驗和對比實驗,進一步測試所提方案的性能,實驗結果分別如表4—表5。

表4給出了在相同測試集下,本文算法同7種主流目標檢測算法的對比測試結果。通過分析表4可知,本文提出的GCP-YOLOv5s模型在保證檢測精度的同時,降低了模型的參數量和浮點計算量,提高了每秒檢測幀數。

表5展示了本文算法的消融實驗對比結果。對比YOLOv5s和G-YOLOv5s可知:在更換主干網絡之后,模型的參數量下降,同時PmA也有所下降。對比G-YOLOv5s和GC-YOLOv5s可知:在使用了注意力機制后,模型的參數量略微上升,PmA@0.50-0.95提升了1.5%,在少量增加參數的情況下,使主干網絡的特征提取能力得到提升。對比GC-YOLOv5s和GCP-YOLOv5s可知:在使用PConv改進了C3模塊之后,模型的參數量下降了19.9%,PmA@0.5提高了0.3%,PmA@0.50-0.95提高了0.1%,Neck部分在更少的參數下得到了更強的特征融合能力。對比YOLOv5s和GCP-YOLOv5s的參數量、FLOPs、FPS、PmA@0.5和PmA@0.50-0.95可知:本文算法相比基準模型參數量下降了41.6%,計算量下降了43.1%,檢測速度提高了12 FPS,PmA@0.5結果相同,PmA@0.50-0.95提高了1.7%。由此可見,本文改進算法在更少參數量、計算量的情況下,實現了更高的檢測精度和更快的檢測速度。

YOLOv5s(基準模型)和GCP-YOLOv5s對實驗數據集的檢測結果的示例圖像如圖8所示,其評價指標見表4。對比圖8(a)和圖8(b)的圖像1可知,基準模型有一處誤檢,而本文方法未出現誤檢;對比圖8(a)和圖8(b)的圖像2可知,基準模型有一處漏檢,而本文方法未出現漏檢。對比圖8(a)和圖8(b)的圖像3可知,本文方法的定位比基準模型更準確。從圖8和表4可知,本文提出的改進算法在降低了誤檢率的同時提高了檢測率。

4 結 論

本文基于基準模型YOLOv5s,通過引入Ghost卷積重構主干特征提取網絡,添加CBAM注意力機制增強主干網絡特征提取能力,使用PConv將C3模塊重構為C3-P模塊,設計了一種基于YOLOv5s的改進輕量化布匹瑕疵檢測算法GCP-YOLOv5s。在自建數據集中的實驗結果顯示,相較于基準模型YOLOv5s,本文所提GCP-YOLOv5s算法參數量下降了41.6%,計算量下降了43.1%,檢測速度提高了12FPS,檢測精度提高了1.7%。相比于其他主流目標檢測算法,GCP-YOLOv5s在檢測速度更快、模型參數量更小的同時保持了較高的檢測精度。本文所提算法可以滿足實際工業現場的應用需求,具有較好的推廣性。

參考文獻:

[1]時造雄, 茅正沖. 基于改進Yolov5的花色布匹瑕疵檢測方法[J]. 計算機測量與控制, 2023, 31(4): 56-62.

[2]許玉格, 鐘銘, 吳宗澤, 等. 基于深度學習的紋理布匹瑕疵檢測方法[J]. 自動化學報, 2023, 49(4): 857-871.

[3]俞文靜, 劉航, 李梓瑞, 等. 基于圖像增強和CNN的布匹瑕疵檢測算法[J]. 計算機技術與發展, 2021, 31(5): 90-95.

[4]Jia D Y, Zhou J L, Zhang C W. Detection of cervical cells based on improved SSD network[J]. Multimedia Tools and Applications, 2022, 81(10): 13371-13387.

[5]Diwan T, Anirudh G, Tembhurne J V. Object detection using YOLO: Challenges, architectural successors, datasets and applications[J]. Multimedia Tools and Applications, 2023, 82(6): 9243-9275.

[6]Sharma V K, Mir R N. Saliency guided faster-RCNN (SGFr-RCNN)model for object detection and recognition[J]. Journal of King Saud University-Computer and Information Sciences, 2022, 34(5): 1687-1699.

[7]蔡兆信, 李瑞新, 戴逸丹, 等. 基于Faster RCNN的布匹瑕疵識別系統[J]. 計算機系統應用, 2021, 30(2): 83-88.

[8]Zhou S, Zhao J, Shi Y S, et al. Research on improving YOLOv5s algorithm for fabric defect detection[J]. International Journal of Clothing Science and Technology, 2023, 35(1): 88-106.

[9]Liu J H, Wang C Y, Su H, et al. Multistage GAN for fabric defect detection[J]. IEEE Transactions on Image Processing, 2019, 29: 3388-3400.

[10]李輝, 呂祥聰, 申貝貝,等. 雙路高分辨率轉換網絡的花色布匹瑕疵檢測[J]. 計算機工程與設計, 2023, 44(9): 2731-2739.

[11]倪欣, 任佳. 基于高分辨率網絡和自注意力機制的歌聲分離算法[J]. 浙江理工大學學報(自然科學版), 2022, 47(3): 405-412.

[12]黃裕凱, 王青旺, 沈韜, 等. 基于MobileNet的多尺度感受野特征融合算法[J]. 激光與光電子學進展, 2023, 60(4): 280-288.

[13]任宇杰, 楊劍, 劉方濤, 等. 基于SSD和MobileNet網絡的目標檢測方法的研究[J]. 計算機科學與探索, 2019, 13(11): 1881-1893.

[14]Chen Z C, Yang J, Chen L F, et al. Garbage classification system based on improved ShuffleNet v2[J]. Resources, Conservation and Recycling, 2022, 178: 106090.

[15]胡斌漢,李曙. 基于改進ShuffleNetV2的輕量級花色布匹瑕疵檢測[J]. 計算機系統應用, 2023, 32(4): 161-169.

[16]Cao M L, Fu H, Zhu J Y, et al. Lightweight tea bud recognition network integrating GhostNet and YOLOv5[J]. Mathematical Biosciences and Engineering: MBE, 2022, 19(12): 12897-12914.

[17]Li S J, Sultonov F, Tursunboev J, et al. Ghostformer: A GhostNet-based two-stage transformer for small object detection[J]. Sensors, 2022, 22(18): 6939.

[18]陳金廣, 李雪, 邵景峰, 等. 改進YOLOv5網絡的輕量級服裝目標檢測方法[J]. 紡織學報, 2022, 43(10): 155-160.

[19]郭波, 呂文濤, 余序宜, 等. 基于改進YOLOv5模型的織物疵點檢測算法[J]. 浙江理工大學學報(自然科學版), 2022, 47(5): 755-763.

[20]雷源毅, 朱文球, 廖歡. 復雜場景下的改進YOLOv8n安全帽佩戴檢測算法[J]. 軟件工程, 2023, 26(12): 46-51.

[21]王翔,任佳. 基于多注意力機制的深度神經網絡故障診斷算法[J]. 浙江理工大學學報(自然科學版), 2020, 43(2): 224-231.

(責任編輯:康 鋒)

主站蜘蛛池模板: 欧美亚洲欧美区| 日本伊人色综合网| 国产一区二区三区免费观看| 欧美福利在线观看| 91破解版在线亚洲| 亚洲第一中文字幕| 小说区 亚洲 自拍 另类| 欧美福利在线观看| 日韩av资源在线| 蜜芽国产尤物av尤物在线看| 日韩二区三区| 久久91精品牛牛| 国产成人做受免费视频| 啦啦啦网站在线观看a毛片| 韩日无码在线不卡| 毛片免费试看| 日本午夜在线视频| 日本亚洲最大的色成网站www| 在线另类稀缺国产呦| 国产探花在线视频| 国产乱子伦一区二区=| 少妇精品网站| 99在线观看国产| 一本久道久综合久久鬼色| 欧美日韩在线成人| 九色视频最新网址| 国产成人亚洲精品蜜芽影院| 国产欧美视频在线观看| 欧美三級片黃色三級片黃色1| 天堂在线亚洲| 亚洲国产成人自拍| 69免费在线视频| 国产乱人免费视频| 色精品视频| 天天色天天综合网| 国产亚洲高清视频| 国产精品思思热在线| 精品无码日韩国产不卡av| 国产SUV精品一区二区6| 在线a网站| 欧美午夜在线播放| 国产H片无码不卡在线视频| 色吊丝av中文字幕| 毛片最新网址| 亚洲最大福利视频网| 国内精品视频在线| 好久久免费视频高清| 日本爱爱精品一区二区| 久久精品电影| 亚洲另类第一页| 一区二区三区精品视频在线观看| 亚洲制服中文字幕一区二区| 亚洲精品视频在线观看视频| 欧美午夜视频在线| 国产三级毛片| 99er这里只有精品| 中文字幕亚洲另类天堂| 自拍中文字幕| 亚洲性影院| 中文字幕1区2区| 欧美一区二区三区欧美日韩亚洲| 欧美综合成人| 91九色国产porny| 久久久久久高潮白浆| 青青久久91| 亚洲av日韩av制服丝袜| 免费又黄又爽又猛大片午夜| 99热这里只有精品在线观看| 国产成人在线小视频| 久久国语对白| 99草精品视频| igao国产精品| 91视频区| 日韩a在线观看免费观看| 久久成人18免费| 日韩乱码免费一区二区三区| 黄色网页在线播放| 原味小视频在线www国产| 奇米精品一区二区三区在线观看| 国产成人艳妇AA视频在线| 99久久国产综合精品2023| 久久综合五月|