謝景洋, 王 巍, 劉 婷
(國合通用(青島)測(cè)試評(píng)價(jià)有限公司,山東 青島 266000)
我國紡織業(yè)的總產(chǎn)量超過了世界總產(chǎn)量的一半,企業(yè)在高量產(chǎn)的同時(shí)也不可避免會(huì)產(chǎn)生很多帶瑕疵的布匹,這些布匹會(huì)讓企業(yè)的利潤損失35%~55%[1]。所以有效實(shí)現(xiàn)布匹瑕疵檢測(cè)、保證生產(chǎn)布匹質(zhì)量是企業(yè)生存的關(guān)鍵。人工檢測(cè)方法缺陷明顯,利用機(jī)器視覺檢測(cè)是目前的趨勢(shì)。
傳統(tǒng)的機(jī)器視覺織物瑕疵檢測(cè)方法中,頻譜分析方法[2]和視覺檢測(cè)性方法[3]過于依賴濾波器組的選擇,對(duì)復(fù)雜織物檢測(cè)性能不好,字典學(xué)習(xí)方法[4]自適應(yīng)性不強(qiáng),模型方法[5]的計(jì)算量大而不適合小目標(biāo)檢測(cè)。這些機(jī)器視覺檢測(cè)方法都需要對(duì)圖像的特征進(jìn)行提取,大部分圖像的特征提取需要有專業(yè)的計(jì)算機(jī)視覺知識(shí),并且不同紋理的面料,其圖像的提取特征可能是不同的,常常需要對(duì)算法進(jìn)行重新設(shè)計(jì),模型的可遷移性不高。在面對(duì)大分辨率的圖片、復(fù)雜的背景環(huán)境和大小差異懸殊的布匹瑕疵中,需要更具一般性并且訓(xùn)練成本低的檢測(cè)方法。
卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的算法和網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,帶來了圖像識(shí)別算法準(zhǔn)確率的極大提升[6]。CNN在圖像處理方面有著獨(dú)特的優(yōu)越性,其布局更接近于實(shí)際的生物神經(jīng)網(wǎng)絡(luò),權(quán)值共享降低了網(wǎng)絡(luò)的復(fù)雜性,特別是多維輸入向量的圖像可以直接輸入網(wǎng)絡(luò)這一特點(diǎn),避免了特征提取和分類過程中復(fù)雜的數(shù)據(jù)重建,不需要人為地進(jìn)行特征提取的操作,實(shí)現(xiàn)真正的端到端(End-to-End)的學(xué)習(xí)。景軍峰等[7]利用微調(diào)卷積神經(jīng)網(wǎng)絡(luò)模型Alexnet對(duì)織物疵點(diǎn)圖像進(jìn)行特征提取,實(shí)現(xiàn)在兩類織物測(cè)試中達(dá)到95% 以上的分類準(zhǔn)確率,但該方法僅實(shí)現(xiàn)了2種織物瑕疵的分類任務(wù),并不涉及位置檢測(cè)。劉閃亮[8]在目標(biāo)檢測(cè)模型 SSD 的基礎(chǔ)上,根據(jù)織物疵點(diǎn)圖像的特征改進(jìn)模型,提出的卷積神經(jīng)網(wǎng)絡(luò)對(duì)織物疵點(diǎn)圖像有很好的檢測(cè)效果,但還是存在檢測(cè)率不是太高的問題。趙志勇[9]利用改進(jìn)的Faster-RCNN 算法與前置的 Inception-ResNet-v2 網(wǎng)絡(luò)進(jìn)行結(jié)合,實(shí)現(xiàn)了對(duì)多種織物瑕疵的檢測(cè),識(shí)別率較高,但是Faster-RCNN的識(shí)別速度并不快。探索合適的卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)織物瑕疵進(jìn)行檢測(cè),實(shí)現(xiàn)精度和檢測(cè)速度的平衡,還需要有更多的研究。
在利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)的算法中,由 Redmon等[10]在 2015 年提出的YOLO算法是一種快速目標(biāo)檢測(cè)算法,適用于需要快速檢測(cè)的工業(yè)領(lǐng)域。目前已經(jīng)發(fā)展到了第3代的YOLO v3[11]利用圖像特征金字塔在小目標(biāo)識(shí)別上有了明顯的提升,適用于布匹的瑕疵檢測(cè)。
由于部分布匹瑕疵的大小分布懸殊,為提高檢測(cè)精度,對(duì)輸入神經(jīng)網(wǎng)絡(luò)的圖片分辨率要求較高(416像素×416像素→608像素×608像素),這也明顯降低了網(wǎng)絡(luò)的檢測(cè)速度。將YOLO v3的算法結(jié)構(gòu)應(yīng)用到布匹瑕疵檢測(cè)中,對(duì)比了Darknet-53、MobileNets和Res2Net三種主干網(wǎng)絡(luò)搭建方式對(duì)YOLO v3算法在布匹瑕疵檢測(cè)中檢測(cè)速度、參數(shù)量和精度的影響,利用Grad-CAM可視化工具研究了三種主干網(wǎng)絡(luò)對(duì)不同尺度缺陷的特征提取能力。
YOLO v3在目標(biāo)檢測(cè)過程中,縮放輸入圖片的大小到正方形大小P×P作為輸入圖片,經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取。根據(jù)預(yù)測(cè)目標(biāo)的大小,分成3個(gè)尺度的輸出,如圖1所示,其中輸出y1、y2和y3分別代表預(yù)測(cè)大邊框、中邊框和小邊框的物體。網(wǎng)絡(luò)結(jié)構(gòu)中紅虛線框內(nèi)是主干網(wǎng)用來提取圖像的特征,為提高主干網(wǎng)絡(luò)的特征提取能力,主干網(wǎng)絡(luò)一般會(huì)在大型的分類數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練。從主干網(wǎng)絡(luò)中分成3個(gè)尺度的輸出利用了FPN[12]網(wǎng)絡(luò)的特征金字塔結(jié)構(gòu),其過程是利用網(wǎng)絡(luò)最后提取的深層特征信息上采樣后復(fù)用在前期特征圖上。在小物體的識(shí)別上,需要利用前期特征圖的信息,這時(shí)候信息丟失少,小物體的信息也不容易丟失。但是前期特征圖的信息沒有經(jīng)過多層深度神經(jīng)網(wǎng)絡(luò)的特征提取過程,而特征金字塔結(jié)構(gòu)讓前期特征圖也具備一定后期特征圖的“深度提取”信息,從而提高小物體識(shí)別的準(zhǔn)確性。圖1中輸出yi(i=1,2,3)的結(jié)構(gòu)為
yi=Si×Si×(3×(4+1+C))
(1)
式中,Si為輸出的單元格個(gè)數(shù);數(shù)字3為每個(gè)單元格的3個(gè)anchors;數(shù)字4為目標(biāo)的坐標(biāo)信息(tx,ty,tw,th);數(shù)字1為置信度tconf;C為所有目標(biāo)種類的概率值大小,其維度為目標(biāo)類別的個(gè)數(shù)。
對(duì)于織物瑕疵的視覺檢測(cè),由于部分缺陷的尺度比較小,這就需要圖片具有足夠的清晰度,這會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)輸入的圖片較大,進(jìn)而降低檢測(cè)速度。這時(shí)候,如果用一些輕量型的主干網(wǎng)絡(luò),可以提升網(wǎng)絡(luò)的速度,并減少參數(shù)量。但輕量型的網(wǎng)絡(luò)容易出現(xiàn)欠擬合的問題。某些具有較好的特征提取能力的輕量型網(wǎng)絡(luò)是值得嘗試的解決方案。選取了相對(duì)于原始Darknet-53更輕量的MobileNets和Res2Net作為YOLO v3算法的主干網(wǎng)絡(luò),并研究這些主干網(wǎng)絡(luò)在布匹瑕疵檢測(cè)中的效果差異。
1.1.1 原始Darknet-53
Darknet-53[11]是Redmon在YOLO v3算法中提出的。相比廣泛使用的ResNet-101或ResNet-152,Darknet-53具有更快的推理速度,但是在ImageNet數(shù)據(jù)集上準(zhǔn)確率和二者相當(dāng)。其核心是圖1中CBL組件的復(fù)用,CBL使用了標(biāo)準(zhǔn)卷積層(CNN)+批標(biāo)準(zhǔn)化(BN)+激活函數(shù)(Leaky ReLU)。其中Res_nuit組件中使用了殘差連接,殘差網(wǎng)絡(luò)的引入是為了解決網(wǎng)絡(luò)深度變深以后的性能退化問題[13]。
1.1.2 輕量化的MobileNets
MobileNets[14]的核心之一是將標(biāo)準(zhǔn)的卷積換成深度可分離卷積的形式。深度可分離卷積(Depthwise Separable Convolution)就是將普通卷積拆分成為一個(gè)深度卷積和一個(gè)逐點(diǎn)卷積。深度卷積將卷積核拆分成為單通道形式,在不改變輸入特征圖像的深度的情況下,對(duì)每一通道單獨(dú)進(jìn)行卷積操作,這樣就得到了和輸入特征圖通道數(shù)一致的輸出特征圖。逐點(diǎn)卷積就是1×1卷積,主要作用是進(jìn)行通道的信息交換和對(duì)特征圖進(jìn)行升維和降維。這樣的計(jì)算方式使得深度可分離卷積的參數(shù)量和計(jì)算量都比一般卷積明顯減少。

圖1 YOLO v3網(wǎng)絡(luò)結(jié)構(gòu)
深度可分離卷積可以在不改變網(wǎng)絡(luò)結(jié)構(gòu)的條件下,直接替換標(biāo)準(zhǔn)卷積,僅對(duì)主干網(wǎng)絡(luò)的CBL組件修改為SBL組件,如圖2所示。

圖2 主干網(wǎng)絡(luò)CBL組件修改為SBL組件
為突出主干網(wǎng)絡(luò)對(duì)YOLO v3算法的影響,在替換Darknet為MobileNets時(shí),在主干網(wǎng)絡(luò)之外的卷積模塊仍使用標(biāo)準(zhǔn)卷積模塊,并保證整個(gè)網(wǎng)絡(luò)中每次經(jīng)過殘差結(jié)構(gòu)之后的特征圖深度和原始YOLO v3算法特征圖深度相同,從而直接對(duì)比主干網(wǎng)絡(luò)的特征提取能力。
1.1.3 Multi-Scale特性的Res2Net
在多個(gè)尺度上表示特征對(duì)于許多視覺任務(wù)非常重要,YOLO v3中特征金字塔的使用就是為了增加特征圖上多尺度的特征表示。大多數(shù)現(xiàn)有方法以分層方式(Layer-Wise)表示多尺度特征。在Res2Net中,Gao等[15]通過在一個(gè)單個(gè)殘差塊內(nèi)構(gòu)造分層的殘差類連接,為CNN提出了一種新的構(gòu)建模塊。Res2Net 以更細(xì)粒度(Granular Level)表示多尺度特征,并增加每個(gè)網(wǎng)絡(luò)層的感受野(Receptive Fields)范圍。其結(jié)構(gòu)和普通殘差網(wǎng)絡(luò)的對(duì)比如圖3所示,Res2Net將特征圖根據(jù)深度平均分為s等份(s=4),計(jì)算過程如下。
(2)
式中,yi為第i個(gè)特征圖分塊的輸出;xi為第i個(gè)特征圖分塊的輸入;Ki為第i個(gè)3×3小卷積核。

圖3 普通殘差結(jié)構(gòu)和Res2Net結(jié)構(gòu)
利用Res2Net的主干網(wǎng)絡(luò)res unit組件替換如圖4所示。其中SP模塊是圖3(b)中藍(lán)框標(biāo)出的分層殘差連接,SP模塊前后兩個(gè)CBL中用的都是1×1卷積用來降維和升維。
為突出主干網(wǎng)絡(luò)對(duì)YOLO v3算法的影響,在替換Darknet為Res2Net時(shí),其替換原則同1.1.2節(jié)中MobileNets的替換過程,從而直接對(duì)比主干網(wǎng)絡(luò)的特征提取能力。

圖4 主干網(wǎng)絡(luò)Res unit組件更改為Res2Net組件
為對(duì)比YOLO v3主干網(wǎng)絡(luò)在布匹瑕疵檢測(cè)中的特征提取能力,需要關(guān)注主干網(wǎng)絡(luò)究竟提取了圖片中哪些關(guān)鍵信息。如果網(wǎng)絡(luò)集中提取了圖片缺陷部分的信息,則認(rèn)為主干網(wǎng)絡(luò)的特征提取能力更強(qiáng)。CAM(Class Activation Mapping)是一個(gè)幫助可視化CNN特征提取的工具。使用CAM可以清楚地觀察到網(wǎng)絡(luò)所關(guān)注的圖片區(qū)域[16]。在YOLO v3算法中,不僅關(guān)注分類問題,其輸出是一個(gè)綜合位置、置信度、分類的結(jié)果,本文使用更泛化的Grad-CAM方法[17]研究網(wǎng)格輸出值所關(guān)注的區(qū)域。在第1節(jié)的式(1)中,網(wǎng)絡(luò)最后輸出為S×S個(gè)網(wǎng)格,假設(shè)缺陷的種類C=20,則每個(gè)網(wǎng)格輸出的類別得分為
(3)


(4)

最后計(jì)算Grad-CAM:
(5)
使用ReLU函數(shù)可以更加關(guān)注特征圖中對(duì)score值有積極影響的部分[17]。
在實(shí)際應(yīng)用中,訓(xùn)練一個(gè)深度網(wǎng)絡(luò)需要大量的數(shù)據(jù)集,但實(shí)際應(yīng)用中大規(guī)模的數(shù)據(jù)集是很難獲取的。使用的訓(xùn)練數(shù)據(jù)集圖片有4000多張,為縮短訓(xùn)練時(shí)間,并提升網(wǎng)絡(luò)的泛化性能,神經(jīng)網(wǎng)絡(luò)模型在COCO數(shù)據(jù)集上預(yù)訓(xùn)練之后,再遷移到布匹瑕疵圖片上進(jìn)行訓(xùn)練。遷移學(xué)習(xí)采用凍結(jié)策略+全局訓(xùn)練的方式,凍結(jié)策略中只訓(xùn)練圖1中y1、y2和y3前的conv層,并凍結(jié)其他層不訓(xùn)練。全局訓(xùn)練指的是訓(xùn)練整個(gè)YOLO v3網(wǎng)絡(luò)。
實(shí)驗(yàn)數(shù)據(jù)來源于阿里云天池?cái)?shù)據(jù)大賽平臺(tái),一張圖片的分辨率為1000像素×2446像素,同一張圖片中可能同時(shí)存在多種缺陷類型,并且缺陷大小差異很大,具有較大的識(shí)別難度,典型樣張如圖5所示。

圖5 帶3種缺陷的圖片
樣本數(shù)據(jù)分為20類,編號(hào)依次為1,2,…,20,圖片數(shù)量總計(jì)為5895張。取圖片的80%作為訓(xùn)練集,20%作為測(cè)試集, 最后用于實(shí)驗(yàn)的訓(xùn)練數(shù)據(jù)集為4716張,測(cè)試數(shù)據(jù)集為1179張。本實(shí)驗(yàn)使用的測(cè)試樣本瑕疵類型為20種,并保證每種測(cè)試集瑕疵樣本量(每種訓(xùn)練集瑕疵樣本量在1∶4左右)。對(duì)訓(xùn)練數(shù)據(jù)集采取在訓(xùn)練過程中進(jìn)行隨機(jī)水平或垂直翻轉(zhuǎn)、隨機(jī)剪裁、隨機(jī)仿射變換的數(shù)據(jù)增強(qiáng)方式。不變形壓縮后輸入神經(jīng)網(wǎng)絡(luò)的圖片大小是608像素×608像素。
實(shí)驗(yàn)運(yùn)行環(huán)境:CPU Intel?CoreTMi7-8750H,16 GB內(nèi)存,GPU NVIDIA GeForce GTX 1060Ti 6 GB,程序代碼使用Windows下的TensorFlow框架進(jìn)行編寫和運(yùn)行。
圖6為訓(xùn)練樣本與測(cè)試樣本的分布情況。

圖6 訓(xùn)練樣本與測(cè)試樣本的分布情況
為保證不同主干網(wǎng)絡(luò)的實(shí)驗(yàn)結(jié)果有對(duì)比性,需要保證訓(xùn)練過程是盡可能相同的。在COCO數(shù)據(jù)集上充分預(yù)訓(xùn)練到測(cè)試集的損失值不再下降后,再遷移訓(xùn)練到布匹瑕疵數(shù)據(jù)集上進(jìn)行訓(xùn)練,遷移訓(xùn)練的凍結(jié)層描述見1.3節(jié)。
選擇warm up的原因是防止網(wǎng)絡(luò)在早期訓(xùn)練過程中發(fā)散[18],特別是遷移學(xué)習(xí)開始階段,發(fā)散是更容易發(fā)生的。第33個(gè)epoch設(shè)置warm up是因?yàn)閷W(xué)習(xí)率發(fā)生了改變。由于輸入的圖片尺寸比較大,容易導(dǎo)致GPU訓(xùn)練過程中內(nèi)存不足,所以Batch size取2。為防止Batch size小導(dǎo)致訓(xùn)練過程中噪聲大的問題[19],把學(xué)習(xí)率設(shè)置得比較小。遷移訓(xùn)練過程的參數(shù)如表1所示。

表1 訓(xùn)練參數(shù)設(shè)置
圖7和圖8分別為3種主干網(wǎng)絡(luò)的訓(xùn)練集損失曲線和測(cè)試集損失曲線在接近收斂區(qū)的對(duì)比,為突出并對(duì)比收斂區(qū)結(jié)果,這里截取了第33個(gè)epoch開始到整個(gè)訓(xùn)練結(jié)束的損失曲線。

圖7 第33epoch之后訓(xùn)練損失曲線

圖8 第33epoch之后測(cè)試損失曲線
由圖7可以看出,3種主干網(wǎng)絡(luò)在訓(xùn)練集上的損失值是不斷下降的,并且還有繼續(xù)下降的趨勢(shì),這說明此時(shí)3種主干網(wǎng)絡(luò)對(duì)于訓(xùn)練數(shù)據(jù)集都不是欠擬合的。在訓(xùn)練損失值上,Res2Net最低,MobileNets最高。沒有繼續(xù)訓(xùn)練是因?yàn)榇藭r(shí)3種主干網(wǎng)絡(luò)的測(cè)試損失值都已經(jīng)不再下降并且出現(xiàn)波動(dòng)。測(cè)試集損失曲線更能表征網(wǎng)絡(luò)在全新未知數(shù)據(jù)上的表現(xiàn)力。Res2Net的訓(xùn)練損失值雖然最低,但從圖8中可以看出,其測(cè)試損失值在訓(xùn)練后期有明顯震蕩并不斷上升,說明Res2Net結(jié)構(gòu)的網(wǎng)絡(luò)已經(jīng)出現(xiàn)明顯的過擬合。而MobileNets和Darknet-53在訓(xùn)練后期的測(cè)試損失值保持平穩(wěn),并保持在基本相同的水平。綜上,Res2Net在訓(xùn)練損失曲線上有較好的表現(xiàn)力,但是在測(cè)試損失曲線上不如MobileNets和Darknet-53。
表2為各主干網(wǎng)絡(luò)的參數(shù)量和最后的訓(xùn)練結(jié)果,其中測(cè)試集mAP取各自主干網(wǎng)絡(luò)測(cè)試損失值最小的網(wǎng)絡(luò)計(jì)算獲得。

表2 主干網(wǎng)絡(luò)參數(shù)和訓(xùn)練結(jié)果對(duì)比
從表2中可以看出,MobileNets的檢測(cè)速度比Darknet-53和Res2Net快至少30%,而參數(shù)量只有Darknet-53的1/3,Res2Net的1/2,Res2Net檢測(cè)速度和Darknet-53接近,但是參數(shù)量更少。對(duì)比三者的mAP值,原始的Darknet-53的檢測(cè)精度最高,MobileNets精度和Darknet-53很接近,Res2Net的精度相比于二者都低一些。綜上可以看出,MobileNets在明顯提高檢測(cè)速度、減小參數(shù)量后,也可以達(dá)到和原始YOLO v3主干網(wǎng)絡(luò)Darknet-53接近的檢測(cè)精度。Res2Net雖然有更精巧的網(wǎng)絡(luò)結(jié)構(gòu),但在布匹缺陷檢測(cè)上的優(yōu)勢(shì)并不明顯。
為了更深入了解2.2節(jié)實(shí)驗(yàn)結(jié)果1的3種主干網(wǎng)絡(luò)表現(xiàn)力,利用Grad-CAM對(duì)特征圖進(jìn)行觀察,研究卷積層提取的關(guān)鍵信息。在本節(jié)的討論中,需要指定式(4)和式(5)中的特征圖A。根據(jù)YOLO v3的網(wǎng)絡(luò)結(jié)構(gòu)及1.2節(jié)中的討論,在替換主干網(wǎng)絡(luò)時(shí),并沒有改變各部分輸出特征圖的大小和深度,所以,理論上可以對(duì)比3種主干網(wǎng)絡(luò)任意特征圖的特征提取結(jié)果。由于YOLO v3特殊的特征金字塔結(jié)構(gòu),不同尺寸的輸出結(jié)果對(duì)應(yīng)了不同的網(wǎng)絡(luò)輸出路線,這里選取了主干網(wǎng)絡(luò)中3路直接的輸出結(jié)果作為特征圖A,如圖1中紅色箭頭①②③所示。利用Grad-CAM方法的步驟如下。
① 選擇圖片中要觀察的缺陷;
② 根據(jù)缺陷大小確定輸出路線,即可確定所研究的特征圖A;

圖9為測(cè)試集缺陷在經(jīng)過3種不同主干網(wǎng)絡(luò)之后的Grad-CAM圖,圖中越亮的部分代表網(wǎng)絡(luò)越關(guān)注的區(qū)域。為了更全面地對(duì)比分析,這里選取了典型的不同大小和類型缺陷圖片,并且這些缺陷都能在3種主干網(wǎng)絡(luò)的YOLO v3中被正確識(shí)別。圖中漿斑和軋痕屬于較大的缺陷,結(jié)頭和星跳屬于較小的缺陷。對(duì)比圖9中較大的缺陷可以發(fā)現(xiàn),Darknet-53和MobileNets相比于Res2Net,提取了更多大缺陷的特征,體現(xiàn)在熱度區(qū)域覆蓋了更多缺陷部分并且更亮更集中。其中MobileNets除了更完整覆蓋大缺陷區(qū)域,在非缺陷區(qū)域受到的干擾也較小,而Darknet-53在軋痕的特征提取上,也顯著關(guān)注了圖中右半部分和軋痕相似的區(qū)域。這點(diǎn)在小物體的特征提取上更為突出。對(duì)比結(jié)頭和星跳的Grad-CAM,可以發(fā)現(xiàn)Darknet-53在圖片特征提取上,廣泛關(guān)注了圖片中的可能區(qū)域,而MobileNets可以更專注在小缺陷所在的區(qū)域上,這可能和Darknet過強(qiáng)的特征提取能力有關(guān)。MobileNets受制于參數(shù)少,圖7的訓(xùn)練損失曲線表明其學(xué)習(xí)過程比Darknet-53慢,但這里觀察到MobileNets更好地學(xué)習(xí)了所需要提取的特征。Res2Net也能關(guān)注到小物體特征的提取,但是對(duì)比MobileNets,其提取能力較弱。綜上,Darknet-53和MobileNets的主干網(wǎng)絡(luò)都有較好的特征提取能力,其中Darknet-53特征提取能力強(qiáng),MobileNets更能專注提取缺陷的特征。Res2Net的分層的殘差類連接雖然提供了多尺度的特征圖,但這種方式在布匹瑕疵檢測(cè)中并沒有明顯的優(yōu)勢(shì)。

圖9 3種主干網(wǎng)絡(luò)的Grad-CAM可視化結(jié)果
在原有YOLO v3算法的基礎(chǔ)上,提出了輕量化的MobileNets、更細(xì)粒度多尺度特征的Res2Net兩種不同類型的YOLO v3主干網(wǎng)絡(luò)搭建方案,目的是尋找兼具檢測(cè)速度和準(zhǔn)確度的主干網(wǎng)絡(luò)搭建方案。對(duì)比了3種主干網(wǎng)絡(luò)對(duì)YOLO v3算法在布匹瑕疵檢測(cè)中的影響,并利用Grad-CAM方法研究主干網(wǎng)絡(luò)的特征提取能力。實(shí)驗(yàn)結(jié)果表明,搭載MobileNets主干網(wǎng)絡(luò)的YOLO v3具備更小參數(shù)量和更快的檢測(cè)速度,并在布匹瑕疵檢測(cè)中具有很接近原始YOLO v3網(wǎng)絡(luò)結(jié)構(gòu)的檢測(cè)精度,Grad-CAM表明MobileNets主干網(wǎng)絡(luò)在特征提取上更專一。