999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLO v3算法的不同主干網(wǎng)絡(luò)對(duì)織物瑕疵檢測(cè)

2021-04-07 06:17:22謝景洋
測(cè)控技術(shù) 2021年3期
關(guān)鍵詞:特征提取特征檢測(cè)

謝景洋, 王 巍, 劉 婷

(國合通用(青島)測(cè)試評(píng)價(jià)有限公司,山東 青島 266000)

我國紡織業(yè)的總產(chǎn)量超過了世界總產(chǎn)量的一半,企業(yè)在高量產(chǎn)的同時(shí)也不可避免會(huì)產(chǎn)生很多帶瑕疵的布匹,這些布匹會(huì)讓企業(yè)的利潤損失35%~55%[1]。所以有效實(shí)現(xiàn)布匹瑕疵檢測(cè)、保證生產(chǎn)布匹質(zhì)量是企業(yè)生存的關(guān)鍵。人工檢測(cè)方法缺陷明顯,利用機(jī)器視覺檢測(cè)是目前的趨勢(shì)。

傳統(tǒng)的機(jī)器視覺織物瑕疵檢測(cè)方法中,頻譜分析方法[2]和視覺檢測(cè)性方法[3]過于依賴濾波器組的選擇,對(duì)復(fù)雜織物檢測(cè)性能不好,字典學(xué)習(xí)方法[4]自適應(yīng)性不強(qiáng),模型方法[5]的計(jì)算量大而不適合小目標(biāo)檢測(cè)。這些機(jī)器視覺檢測(cè)方法都需要對(duì)圖像的特征進(jìn)行提取,大部分圖像的特征提取需要有專業(yè)的計(jì)算機(jī)視覺知識(shí),并且不同紋理的面料,其圖像的提取特征可能是不同的,常常需要對(duì)算法進(jìn)行重新設(shè)計(jì),模型的可遷移性不高。在面對(duì)大分辨率的圖片、復(fù)雜的背景環(huán)境和大小差異懸殊的布匹瑕疵中,需要更具一般性并且訓(xùn)練成本低的檢測(cè)方法。

卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的算法和網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,帶來了圖像識(shí)別算法準(zhǔn)確率的極大提升[6]。CNN在圖像處理方面有著獨(dú)特的優(yōu)越性,其布局更接近于實(shí)際的生物神經(jīng)網(wǎng)絡(luò),權(quán)值共享降低了網(wǎng)絡(luò)的復(fù)雜性,特別是多維輸入向量的圖像可以直接輸入網(wǎng)絡(luò)這一特點(diǎn),避免了特征提取和分類過程中復(fù)雜的數(shù)據(jù)重建,不需要人為地進(jìn)行特征提取的操作,實(shí)現(xiàn)真正的端到端(End-to-End)的學(xué)習(xí)。景軍峰等[7]利用微調(diào)卷積神經(jīng)網(wǎng)絡(luò)模型Alexnet對(duì)織物疵點(diǎn)圖像進(jìn)行特征提取,實(shí)現(xiàn)在兩類織物測(cè)試中達(dá)到95% 以上的分類準(zhǔn)確率,但該方法僅實(shí)現(xiàn)了2種織物瑕疵的分類任務(wù),并不涉及位置檢測(cè)。劉閃亮[8]在目標(biāo)檢測(cè)模型 SSD 的基礎(chǔ)上,根據(jù)織物疵點(diǎn)圖像的特征改進(jìn)模型,提出的卷積神經(jīng)網(wǎng)絡(luò)對(duì)織物疵點(diǎn)圖像有很好的檢測(cè)效果,但還是存在檢測(cè)率不是太高的問題。趙志勇[9]利用改進(jìn)的Faster-RCNN 算法與前置的 Inception-ResNet-v2 網(wǎng)絡(luò)進(jìn)行結(jié)合,實(shí)現(xiàn)了對(duì)多種織物瑕疵的檢測(cè),識(shí)別率較高,但是Faster-RCNN的識(shí)別速度并不快。探索合適的卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)織物瑕疵進(jìn)行檢測(cè),實(shí)現(xiàn)精度和檢測(cè)速度的平衡,還需要有更多的研究。

在利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)的算法中,由 Redmon等[10]在 2015 年提出的YOLO算法是一種快速目標(biāo)檢測(cè)算法,適用于需要快速檢測(cè)的工業(yè)領(lǐng)域。目前已經(jīng)發(fā)展到了第3代的YOLO v3[11]利用圖像特征金字塔在小目標(biāo)識(shí)別上有了明顯的提升,適用于布匹的瑕疵檢測(cè)。

由于部分布匹瑕疵的大小分布懸殊,為提高檢測(cè)精度,對(duì)輸入神經(jīng)網(wǎng)絡(luò)的圖片分辨率要求較高(416像素×416像素→608像素×608像素),這也明顯降低了網(wǎng)絡(luò)的檢測(cè)速度。將YOLO v3的算法結(jié)構(gòu)應(yīng)用到布匹瑕疵檢測(cè)中,對(duì)比了Darknet-53、MobileNets和Res2Net三種主干網(wǎng)絡(luò)搭建方式對(duì)YOLO v3算法在布匹瑕疵檢測(cè)中檢測(cè)速度、參數(shù)量和精度的影響,利用Grad-CAM可視化工具研究了三種主干網(wǎng)絡(luò)對(duì)不同尺度缺陷的特征提取能力。

1 YOLO v3模型原理和主干網(wǎng)絡(luò)修改

YOLO v3在目標(biāo)檢測(cè)過程中,縮放輸入圖片的大小到正方形大小P×P作為輸入圖片,經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取。根據(jù)預(yù)測(cè)目標(biāo)的大小,分成3個(gè)尺度的輸出,如圖1所示,其中輸出y1、y2和y3分別代表預(yù)測(cè)大邊框、中邊框和小邊框的物體。網(wǎng)絡(luò)結(jié)構(gòu)中紅虛線框內(nèi)是主干網(wǎng)用來提取圖像的特征,為提高主干網(wǎng)絡(luò)的特征提取能力,主干網(wǎng)絡(luò)一般會(huì)在大型的分類數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練。從主干網(wǎng)絡(luò)中分成3個(gè)尺度的輸出利用了FPN[12]網(wǎng)絡(luò)的特征金字塔結(jié)構(gòu),其過程是利用網(wǎng)絡(luò)最后提取的深層特征信息上采樣后復(fù)用在前期特征圖上。在小物體的識(shí)別上,需要利用前期特征圖的信息,這時(shí)候信息丟失少,小物體的信息也不容易丟失。但是前期特征圖的信息沒有經(jīng)過多層深度神經(jīng)網(wǎng)絡(luò)的特征提取過程,而特征金字塔結(jié)構(gòu)讓前期特征圖也具備一定后期特征圖的“深度提取”信息,從而提高小物體識(shí)別的準(zhǔn)確性。圖1中輸出yi(i=1,2,3)的結(jié)構(gòu)為

yi=Si×Si×(3×(4+1+C))

(1)

式中,Si為輸出的單元格個(gè)數(shù);數(shù)字3為每個(gè)單元格的3個(gè)anchors;數(shù)字4為目標(biāo)的坐標(biāo)信息(tx,ty,tw,th);數(shù)字1為置信度tconf;C為所有目標(biāo)種類的概率值大小,其維度為目標(biāo)類別的個(gè)數(shù)。

1.1 主干網(wǎng)絡(luò)

對(duì)于織物瑕疵的視覺檢測(cè),由于部分缺陷的尺度比較小,這就需要圖片具有足夠的清晰度,這會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)輸入的圖片較大,進(jìn)而降低檢測(cè)速度。這時(shí)候,如果用一些輕量型的主干網(wǎng)絡(luò),可以提升網(wǎng)絡(luò)的速度,并減少參數(shù)量。但輕量型的網(wǎng)絡(luò)容易出現(xiàn)欠擬合的問題。某些具有較好的特征提取能力的輕量型網(wǎng)絡(luò)是值得嘗試的解決方案。選取了相對(duì)于原始Darknet-53更輕量的MobileNets和Res2Net作為YOLO v3算法的主干網(wǎng)絡(luò),并研究這些主干網(wǎng)絡(luò)在布匹瑕疵檢測(cè)中的效果差異。

1.1.1 原始Darknet-53

Darknet-53[11]是Redmon在YOLO v3算法中提出的。相比廣泛使用的ResNet-101或ResNet-152,Darknet-53具有更快的推理速度,但是在ImageNet數(shù)據(jù)集上準(zhǔn)確率和二者相當(dāng)。其核心是圖1中CBL組件的復(fù)用,CBL使用了標(biāo)準(zhǔn)卷積層(CNN)+批標(biāo)準(zhǔn)化(BN)+激活函數(shù)(Leaky ReLU)。其中Res_nuit組件中使用了殘差連接,殘差網(wǎng)絡(luò)的引入是為了解決網(wǎng)絡(luò)深度變深以后的性能退化問題[13]。

1.1.2 輕量化的MobileNets

MobileNets[14]的核心之一是將標(biāo)準(zhǔn)的卷積換成深度可分離卷積的形式。深度可分離卷積(Depthwise Separable Convolution)就是將普通卷積拆分成為一個(gè)深度卷積和一個(gè)逐點(diǎn)卷積。深度卷積將卷積核拆分成為單通道形式,在不改變輸入特征圖像的深度的情況下,對(duì)每一通道單獨(dú)進(jìn)行卷積操作,這樣就得到了和輸入特征圖通道數(shù)一致的輸出特征圖。逐點(diǎn)卷積就是1×1卷積,主要作用是進(jìn)行通道的信息交換和對(duì)特征圖進(jìn)行升維和降維。這樣的計(jì)算方式使得深度可分離卷積的參數(shù)量和計(jì)算量都比一般卷積明顯減少。

圖1 YOLO v3網(wǎng)絡(luò)結(jié)構(gòu)

深度可分離卷積可以在不改變網(wǎng)絡(luò)結(jié)構(gòu)的條件下,直接替換標(biāo)準(zhǔn)卷積,僅對(duì)主干網(wǎng)絡(luò)的CBL組件修改為SBL組件,如圖2所示。

圖2 主干網(wǎng)絡(luò)CBL組件修改為SBL組件

為突出主干網(wǎng)絡(luò)對(duì)YOLO v3算法的影響,在替換Darknet為MobileNets時(shí),在主干網(wǎng)絡(luò)之外的卷積模塊仍使用標(biāo)準(zhǔn)卷積模塊,并保證整個(gè)網(wǎng)絡(luò)中每次經(jīng)過殘差結(jié)構(gòu)之后的特征圖深度和原始YOLO v3算法特征圖深度相同,從而直接對(duì)比主干網(wǎng)絡(luò)的特征提取能力。

1.1.3 Multi-Scale特性的Res2Net

在多個(gè)尺度上表示特征對(duì)于許多視覺任務(wù)非常重要,YOLO v3中特征金字塔的使用就是為了增加特征圖上多尺度的特征表示。大多數(shù)現(xiàn)有方法以分層方式(Layer-Wise)表示多尺度特征。在Res2Net中,Gao等[15]通過在一個(gè)單個(gè)殘差塊內(nèi)構(gòu)造分層的殘差類連接,為CNN提出了一種新的構(gòu)建模塊。Res2Net 以更細(xì)粒度(Granular Level)表示多尺度特征,并增加每個(gè)網(wǎng)絡(luò)層的感受野(Receptive Fields)范圍。其結(jié)構(gòu)和普通殘差網(wǎng)絡(luò)的對(duì)比如圖3所示,Res2Net將特征圖根據(jù)深度平均分為s等份(s=4),計(jì)算過程如下。

(2)

式中,yi為第i個(gè)特征圖分塊的輸出;xi為第i個(gè)特征圖分塊的輸入;Ki為第i個(gè)3×3小卷積核。

圖3 普通殘差結(jié)構(gòu)和Res2Net結(jié)構(gòu)

利用Res2Net的主干網(wǎng)絡(luò)res unit組件替換如圖4所示。其中SP模塊是圖3(b)中藍(lán)框標(biāo)出的分層殘差連接,SP模塊前后兩個(gè)CBL中用的都是1×1卷積用來降維和升維。

為突出主干網(wǎng)絡(luò)對(duì)YOLO v3算法的影響,在替換Darknet為Res2Net時(shí),其替換原則同1.1.2節(jié)中MobileNets的替換過程,從而直接對(duì)比主干網(wǎng)絡(luò)的特征提取能力。

圖4 主干網(wǎng)絡(luò)Res unit組件更改為Res2Net組件

1.2 可視化工具Grad-CAM

為對(duì)比YOLO v3主干網(wǎng)絡(luò)在布匹瑕疵檢測(cè)中的特征提取能力,需要關(guān)注主干網(wǎng)絡(luò)究竟提取了圖片中哪些關(guān)鍵信息。如果網(wǎng)絡(luò)集中提取了圖片缺陷部分的信息,則認(rèn)為主干網(wǎng)絡(luò)的特征提取能力更強(qiáng)。CAM(Class Activation Mapping)是一個(gè)幫助可視化CNN特征提取的工具。使用CAM可以清楚地觀察到網(wǎng)絡(luò)所關(guān)注的圖片區(qū)域[16]。在YOLO v3算法中,不僅關(guān)注分類問題,其輸出是一個(gè)綜合位置、置信度、分類的結(jié)果,本文使用更泛化的Grad-CAM方法[17]研究網(wǎng)格輸出值所關(guān)注的區(qū)域。在第1節(jié)的式(1)中,網(wǎng)絡(luò)最后輸出為S×S個(gè)網(wǎng)格,假設(shè)缺陷的種類C=20,則每個(gè)網(wǎng)格輸出的類別得分為

(3)

(4)

最后計(jì)算Grad-CAM:

(5)

使用ReLU函數(shù)可以更加關(guān)注特征圖中對(duì)score值有積極影響的部分[17]。

1.3 遷移學(xué)習(xí)

在實(shí)際應(yīng)用中,訓(xùn)練一個(gè)深度網(wǎng)絡(luò)需要大量的數(shù)據(jù)集,但實(shí)際應(yīng)用中大規(guī)模的數(shù)據(jù)集是很難獲取的。使用的訓(xùn)練數(shù)據(jù)集圖片有4000多張,為縮短訓(xùn)練時(shí)間,并提升網(wǎng)絡(luò)的泛化性能,神經(jīng)網(wǎng)絡(luò)模型在COCO數(shù)據(jù)集上預(yù)訓(xùn)練之后,再遷移到布匹瑕疵圖片上進(jìn)行訓(xùn)練。遷移學(xué)習(xí)采用凍結(jié)策略+全局訓(xùn)練的方式,凍結(jié)策略中只訓(xùn)練圖1中y1、y2和y3前的conv層,并凍結(jié)其他層不訓(xùn)練。全局訓(xùn)練指的是訓(xùn)練整個(gè)YOLO v3網(wǎng)絡(luò)。

2 實(shí)驗(yàn)結(jié)果與分析

2.1 實(shí)驗(yàn)數(shù)據(jù)及配置環(huán)境

實(shí)驗(yàn)數(shù)據(jù)來源于阿里云天池?cái)?shù)據(jù)大賽平臺(tái),一張圖片的分辨率為1000像素×2446像素,同一張圖片中可能同時(shí)存在多種缺陷類型,并且缺陷大小差異很大,具有較大的識(shí)別難度,典型樣張如圖5所示。

圖5 帶3種缺陷的圖片

樣本數(shù)據(jù)分為20類,編號(hào)依次為1,2,…,20,圖片數(shù)量總計(jì)為5895張。取圖片的80%作為訓(xùn)練集,20%作為測(cè)試集, 最后用于實(shí)驗(yàn)的訓(xùn)練數(shù)據(jù)集為4716張,測(cè)試數(shù)據(jù)集為1179張。本實(shí)驗(yàn)使用的測(cè)試樣本瑕疵類型為20種,并保證每種測(cè)試集瑕疵樣本量(每種訓(xùn)練集瑕疵樣本量在1∶4左右)。對(duì)訓(xùn)練數(shù)據(jù)集采取在訓(xùn)練過程中進(jìn)行隨機(jī)水平或垂直翻轉(zhuǎn)、隨機(jī)剪裁、隨機(jī)仿射變換的數(shù)據(jù)增強(qiáng)方式。不變形壓縮后輸入神經(jīng)網(wǎng)絡(luò)的圖片大小是608像素×608像素。

實(shí)驗(yàn)運(yùn)行環(huán)境:CPU Intel?CoreTMi7-8750H,16 GB內(nèi)存,GPU NVIDIA GeForce GTX 1060Ti 6 GB,程序代碼使用Windows下的TensorFlow框架進(jìn)行編寫和運(yùn)行。

圖6為訓(xùn)練樣本與測(cè)試樣本的分布情況。

圖6 訓(xùn)練樣本與測(cè)試樣本的分布情況

2.2 實(shí)驗(yàn)結(jié)果1

為保證不同主干網(wǎng)絡(luò)的實(shí)驗(yàn)結(jié)果有對(duì)比性,需要保證訓(xùn)練過程是盡可能相同的。在COCO數(shù)據(jù)集上充分預(yù)訓(xùn)練到測(cè)試集的損失值不再下降后,再遷移訓(xùn)練到布匹瑕疵數(shù)據(jù)集上進(jìn)行訓(xùn)練,遷移訓(xùn)練的凍結(jié)層描述見1.3節(jié)。

選擇warm up的原因是防止網(wǎng)絡(luò)在早期訓(xùn)練過程中發(fā)散[18],特別是遷移學(xué)習(xí)開始階段,發(fā)散是更容易發(fā)生的。第33個(gè)epoch設(shè)置warm up是因?yàn)閷W(xué)習(xí)率發(fā)生了改變。由于輸入的圖片尺寸比較大,容易導(dǎo)致GPU訓(xùn)練過程中內(nèi)存不足,所以Batch size取2。為防止Batch size小導(dǎo)致訓(xùn)練過程中噪聲大的問題[19],把學(xué)習(xí)率設(shè)置得比較小。遷移訓(xùn)練過程的參數(shù)如表1所示。

表1 訓(xùn)練參數(shù)設(shè)置

圖7和圖8分別為3種主干網(wǎng)絡(luò)的訓(xùn)練集損失曲線和測(cè)試集損失曲線在接近收斂區(qū)的對(duì)比,為突出并對(duì)比收斂區(qū)結(jié)果,這里截取了第33個(gè)epoch開始到整個(gè)訓(xùn)練結(jié)束的損失曲線。

圖7 第33epoch之后訓(xùn)練損失曲線

圖8 第33epoch之后測(cè)試損失曲線

由圖7可以看出,3種主干網(wǎng)絡(luò)在訓(xùn)練集上的損失值是不斷下降的,并且還有繼續(xù)下降的趨勢(shì),這說明此時(shí)3種主干網(wǎng)絡(luò)對(duì)于訓(xùn)練數(shù)據(jù)集都不是欠擬合的。在訓(xùn)練損失值上,Res2Net最低,MobileNets最高。沒有繼續(xù)訓(xùn)練是因?yàn)榇藭r(shí)3種主干網(wǎng)絡(luò)的測(cè)試損失值都已經(jīng)不再下降并且出現(xiàn)波動(dòng)。測(cè)試集損失曲線更能表征網(wǎng)絡(luò)在全新未知數(shù)據(jù)上的表現(xiàn)力。Res2Net的訓(xùn)練損失值雖然最低,但從圖8中可以看出,其測(cè)試損失值在訓(xùn)練后期有明顯震蕩并不斷上升,說明Res2Net結(jié)構(gòu)的網(wǎng)絡(luò)已經(jīng)出現(xiàn)明顯的過擬合。而MobileNets和Darknet-53在訓(xùn)練后期的測(cè)試損失值保持平穩(wěn),并保持在基本相同的水平。綜上,Res2Net在訓(xùn)練損失曲線上有較好的表現(xiàn)力,但是在測(cè)試損失曲線上不如MobileNets和Darknet-53。

表2為各主干網(wǎng)絡(luò)的參數(shù)量和最后的訓(xùn)練結(jié)果,其中測(cè)試集mAP取各自主干網(wǎng)絡(luò)測(cè)試損失值最小的網(wǎng)絡(luò)計(jì)算獲得。

表2 主干網(wǎng)絡(luò)參數(shù)和訓(xùn)練結(jié)果對(duì)比

從表2中可以看出,MobileNets的檢測(cè)速度比Darknet-53和Res2Net快至少30%,而參數(shù)量只有Darknet-53的1/3,Res2Net的1/2,Res2Net檢測(cè)速度和Darknet-53接近,但是參數(shù)量更少。對(duì)比三者的mAP值,原始的Darknet-53的檢測(cè)精度最高,MobileNets精度和Darknet-53很接近,Res2Net的精度相比于二者都低一些。綜上可以看出,MobileNets在明顯提高檢測(cè)速度、減小參數(shù)量后,也可以達(dá)到和原始YOLO v3主干網(wǎng)絡(luò)Darknet-53接近的檢測(cè)精度。Res2Net雖然有更精巧的網(wǎng)絡(luò)結(jié)構(gòu),但在布匹缺陷檢測(cè)上的優(yōu)勢(shì)并不明顯。

2.3 實(shí)驗(yàn)結(jié)果2

為了更深入了解2.2節(jié)實(shí)驗(yàn)結(jié)果1的3種主干網(wǎng)絡(luò)表現(xiàn)力,利用Grad-CAM對(duì)特征圖進(jìn)行觀察,研究卷積層提取的關(guān)鍵信息。在本節(jié)的討論中,需要指定式(4)和式(5)中的特征圖A。根據(jù)YOLO v3的網(wǎng)絡(luò)結(jié)構(gòu)及1.2節(jié)中的討論,在替換主干網(wǎng)絡(luò)時(shí),并沒有改變各部分輸出特征圖的大小和深度,所以,理論上可以對(duì)比3種主干網(wǎng)絡(luò)任意特征圖的特征提取結(jié)果。由于YOLO v3特殊的特征金字塔結(jié)構(gòu),不同尺寸的輸出結(jié)果對(duì)應(yīng)了不同的網(wǎng)絡(luò)輸出路線,這里選取了主干網(wǎng)絡(luò)中3路直接的輸出結(jié)果作為特征圖A,如圖1中紅色箭頭①②③所示。利用Grad-CAM方法的步驟如下。

① 選擇圖片中要觀察的缺陷;

② 根據(jù)缺陷大小確定輸出路線,即可確定所研究的特征圖A;

圖9為測(cè)試集缺陷在經(jīng)過3種不同主干網(wǎng)絡(luò)之后的Grad-CAM圖,圖中越亮的部分代表網(wǎng)絡(luò)越關(guān)注的區(qū)域。為了更全面地對(duì)比分析,這里選取了典型的不同大小和類型缺陷圖片,并且這些缺陷都能在3種主干網(wǎng)絡(luò)的YOLO v3中被正確識(shí)別。圖中漿斑和軋痕屬于較大的缺陷,結(jié)頭和星跳屬于較小的缺陷。對(duì)比圖9中較大的缺陷可以發(fā)現(xiàn),Darknet-53和MobileNets相比于Res2Net,提取了更多大缺陷的特征,體現(xiàn)在熱度區(qū)域覆蓋了更多缺陷部分并且更亮更集中。其中MobileNets除了更完整覆蓋大缺陷區(qū)域,在非缺陷區(qū)域受到的干擾也較小,而Darknet-53在軋痕的特征提取上,也顯著關(guān)注了圖中右半部分和軋痕相似的區(qū)域。這點(diǎn)在小物體的特征提取上更為突出。對(duì)比結(jié)頭和星跳的Grad-CAM,可以發(fā)現(xiàn)Darknet-53在圖片特征提取上,廣泛關(guān)注了圖片中的可能區(qū)域,而MobileNets可以更專注在小缺陷所在的區(qū)域上,這可能和Darknet過強(qiáng)的特征提取能力有關(guān)。MobileNets受制于參數(shù)少,圖7的訓(xùn)練損失曲線表明其學(xué)習(xí)過程比Darknet-53慢,但這里觀察到MobileNets更好地學(xué)習(xí)了所需要提取的特征。Res2Net也能關(guān)注到小物體特征的提取,但是對(duì)比MobileNets,其提取能力較弱。綜上,Darknet-53和MobileNets的主干網(wǎng)絡(luò)都有較好的特征提取能力,其中Darknet-53特征提取能力強(qiáng),MobileNets更能專注提取缺陷的特征。Res2Net的分層的殘差類連接雖然提供了多尺度的特征圖,但這種方式在布匹瑕疵檢測(cè)中并沒有明顯的優(yōu)勢(shì)。

圖9 3種主干網(wǎng)絡(luò)的Grad-CAM可視化結(jié)果

3 結(jié)束語

在原有YOLO v3算法的基礎(chǔ)上,提出了輕量化的MobileNets、更細(xì)粒度多尺度特征的Res2Net兩種不同類型的YOLO v3主干網(wǎng)絡(luò)搭建方案,目的是尋找兼具檢測(cè)速度和準(zhǔn)確度的主干網(wǎng)絡(luò)搭建方案。對(duì)比了3種主干網(wǎng)絡(luò)對(duì)YOLO v3算法在布匹瑕疵檢測(cè)中的影響,并利用Grad-CAM方法研究主干網(wǎng)絡(luò)的特征提取能力。實(shí)驗(yàn)結(jié)果表明,搭載MobileNets主干網(wǎng)絡(luò)的YOLO v3具備更小參數(shù)量和更快的檢測(cè)速度,并在布匹瑕疵檢測(cè)中具有很接近原始YOLO v3網(wǎng)絡(luò)結(jié)構(gòu)的檢測(cè)精度,Grad-CAM表明MobileNets主干網(wǎng)絡(luò)在特征提取上更專一。

猜你喜歡
特征提取特征檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個(gè)特征
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 97国产在线视频| 这里只有精品国产| 在线另类稀缺国产呦| 老色鬼久久亚洲AV综合| 欧美狠狠干| 国产精品福利一区二区久久| 亚洲bt欧美bt精品| 好吊色国产欧美日韩免费观看| 久久久久久久97| 美女黄网十八禁免费看| 欧美激情综合| 久久久久人妻一区精品| 久久人人97超碰人人澡爱香蕉| 无码日韩精品91超碰| 久久毛片网| 99热这里只有精品久久免费| 亚洲乱码在线播放| 日韩精品一区二区三区大桥未久| 日韩一区二区三免费高清| 国产亚洲日韩av在线| 她的性爱视频| 免费一级全黄少妇性色生活片| 人妻精品久久无码区| 国产麻豆精品久久一二三| 婷婷六月天激情| 国产成人无码综合亚洲日韩不卡| 欧美有码在线| 欧美特级AAAAAA视频免费观看| 日本成人福利视频| 国产哺乳奶水91在线播放| 高清无码一本到东京热| 久久亚洲天堂| 国产免费精彩视频| 日本AⅤ精品一区二区三区日| av一区二区三区在线观看| 国产粉嫩粉嫩的18在线播放91| 99视频在线看| 波多野结衣久久高清免费| 欧美成人h精品网站| 国产91熟女高潮一区二区| 在线日韩一区二区| 精品国产欧美精品v| 2021亚洲精品不卡a| 亚洲日本中文字幕乱码中文| 被公侵犯人妻少妇一区二区三区| 91系列在线观看| 日韩AV手机在线观看蜜芽| 天天综合亚洲| 狠狠色综合久久狠狠色综合| 久久精品66| 白浆视频在线观看| 国产精品无码制服丝袜| 成年午夜精品久久精品| 亚洲无码在线午夜电影| 午夜啪啪福利| 熟女视频91| 999福利激情视频| 国产成人欧美| 四虎影视无码永久免费观看| 亚洲综合天堂网| 亚洲无线国产观看| 欧美日韩精品综合在线一区| 亚洲二区视频| 99视频在线观看免费| 美女无遮挡免费视频网站| 国产精品视频系列专区| 亚洲三级网站| 欧美视频免费一区二区三区| 99re视频在线| 欧美亚洲激情| 国产人成网线在线播放va| 亚洲第一黄色网址| 国产成人区在线观看视频| 一级福利视频| 欧美激情第一欧美在线| 久久福利网| 免费国产不卡午夜福在线观看| 精品91自产拍在线| 亚洲天堂在线免费| 中文字幕在线不卡视频| 久久频这里精品99香蕉久网址| 欧美另类图片视频无弹跳第一页|