999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

雙路高分辨率轉(zhuǎn)換網(wǎng)絡的花色布匹瑕疵檢測

2023-10-12 01:10:24呂祥聰申貝貝王俊印
計算機工程與設計 2023年9期
關(guān)鍵詞:特征檢測方法

李 輝,呂祥聰,申貝貝,陶 冶,王俊印

(青島科技大學 信息科學技術(shù)學院,山東 青島 266061)

0 引 言

傳統(tǒng)的布匹瑕疵檢測方法使用選擇性搜索進行廣泛搜索找到潛在瑕疵,這種方法計算成本高、檢測效果差并且方法難以遷移[1];相比之下,基于深度學習的瑕疵目標檢測效果明顯提升,訓練與遷移能力較強[2,3]。但目前針對復雜花色布匹瑕疵檢測還存在大量其它問題,如在紋理布匹瑕疵圖片背景復雜,瑕疵檢測難度高,導致檢測精度低,并且在單張圖片中存在多個不同種類瑕疵的情況下,大多檢測方法仍不能準確進行瑕疵缺陷檢測。此外基于深度學習的通用目標檢測方法對于布匹瑕疵檢測工作來說,還存在無法檢測色調(diào)與背景十分接近的疵點、預定義的錨框不能滿足極端長寬比、對少數(shù)類瑕疵樣本檢測性能較差等問題[4-6]。

綜上所述,為了提高復雜花色背景干擾下瑕疵檢測準確率低的問題,本文提出一種雙路高分辨率特征提取用于消除花色布匹背景的噪聲干擾,并設計了自適應錨框生成器,使生成的邊界框更加緊密,最后采用改進的聚焦損失降低模型對少數(shù)類瑕疵的不敏感性。

1 相關(guān)工作

自動化的布匹瑕疵缺陷檢測使用檢測算法來進行瑕疵的特征提取、對存在的瑕疵進行分類和定位瑕疵位置3個任務[7]。常見的布匹瑕疵檢測方法有光譜分析法、模型設計法、低秩分解法[8]。空間統(tǒng)計方法通過計算統(tǒng)計特征與周圍環(huán)境的差異來檢測缺陷,包括局部紋理分布、顏色相似性和局部同質(zhì)性。Zhang等[9]采用將布匹疵點圖像的RGB顏色進行空間轉(zhuǎn)換,根據(jù)顏色相似度和相似塊之間的位置距離來度量缺陷值,但這類方法不能有效地利用圖像地全局信息,而且經(jīng)常受到噪聲地影響。光譜分析方法是在實際布匹瑕疵檢測中使用較多的一類方法,常用的主要有小波變換、Gabor濾波[10]、傅里葉變換等[11]。Chen等[12]利用改進的混合濾波器對紋理布匹進行降噪處理,提高了邊緣提取的質(zhì)量。Boluki等[13]首先利用優(yōu)化后的Gabor濾波器來完成對布匹瑕疵的自動檢測,其次改進自適應局部二值化方法,提高檢測算法的性能。然而,這些方法對復雜紋理布匹圖像地檢測性能較差,耗時較長。模型設計法使用建模和參數(shù)估計技術(shù)進行瑕疵紋理特征提取,并利用測試圖像與正常紋理模型的相似度來進行瑕疵的確定。模型設計法主要分為自回歸模型和馬爾科夫隨機場模型。Liu等[14]提出利用馬爾科夫隨機場的領(lǐng)域特性和模糊相似矩陣,根據(jù)圖像塊之間的差異性檢測瑕疵區(qū)域,這些方法取得了滿意的檢測性能,但是該方法的計算復雜度都很高,不能有效地檢測出較小尺寸的瑕疵。低秩分解法通過將一個特征矩陣分解為代表圖像無疵點區(qū)域的低秩矩陣和代表疵點區(qū)域的稀疏矩陣來實現(xiàn)瑕疵檢測。JI等[15]提出低秩校正分解模型,通過交替方向法優(yōu)化求解,利用閾值分割產(chǎn)生的顯著圖完成瑕疵檢測。存在計算過程繁瑣,漏檢率高和檢測精度低的問題。綜上所述,傳統(tǒng)方法存在著噪聲敏感、對復雜紋理瑕疵特征提取效果較差、錯檢率高等問題,隨著深度學習方法的不斷發(fā)展,使用深度網(wǎng)絡能夠更好地解決布匹瑕疵缺陷檢測問題[16]。

深度卷積神經(jīng)網(wǎng)絡的出現(xiàn)打破了圖像語義表達的局限,被廣泛應用于布匹瑕疵的檢測和分類。現(xiàn)有的主流的檢測方法可以分為兩類,一類是兩階段檢測方法,主要有Faster RCN、Mask RCNN[17]和Cascade RCNN[18,19]等。Wei等[20]提出了基于快速區(qū)域卷積網(wǎng)絡方法用于布匹瑕疵檢測,引入VGG思想提升訓練效率,減少了錨點數(shù)量,并使用區(qū)域建議網(wǎng)絡生成候選瑕疵錨點和邊界框。另一類是一階段檢測方法,主要有YOLO、YOLOv2、YOLOv3、SSD和RetinaNet等。Redmon等[21,22]提出了實時目標檢測框架YOLO系列,YOLO將物體檢測任務視為一個回歸問題,直接從整個圖像中預測邊界框坐標、邊界框中包含目標的置信度以及目標的概率。整個檢測過程端到端進行,雖然此類方法在速度上提高了但是檢測精度較低,He等[23]提出基于特征金字塔的布匹瑕疵檢測算法,該算法對于小目標瑕疵檢測精度較低,但訓練速度和檢測速度很快。Lin等[24]提出了使用Focal loss損失函數(shù)的 RetinaNet算法,來解決類別不平衡的問題,降低模型對少數(shù)類樣本的不敏感性。這些研究表明深度學習方法對于解決布匹瑕疵缺陷檢測問題具有很好的適用性,但仍需要進一步改進。

本文所使用的布匹瑕疵數(shù)據(jù)集是從廣東省某紡織車間現(xiàn)場采集的布匹圖像,在實際的布匹生產(chǎn)過程中,布匹瑕疵的特征如下:①布匹花色背景復雜,瑕疵特征提取困難;②布匹瑕疵較小且類別較多,不同瑕疵數(shù)據(jù)類別不平衡;③布匹瑕疵尺度不均衡,難以生成緊密的邊界框。已有的目標檢測算法對于復雜花色背景、小目標瑕疵多、縱橫比懸殊等問題不能很好解決,檢測效果較差,如圖1所示,對于小目標以及復雜花色背景,存在漏檢以及包圍框不準確的問題。因此,針對現(xiàn)有花色布匹瑕疵檢測方法所存在的問題,本文提出了一種雙路高分辨率轉(zhuǎn)換網(wǎng)絡的花色布匹瑕疵檢測方法,完成對布匹中的瑕疵目標高質(zhì)量檢測。

圖1 布匹瑕疵檢測問題

2 復雜花色布匹瑕疵檢測

本文提出的花色布匹瑕疵缺陷檢測方法包括以下內(nèi)容:①設計雙路高分辨率特征提取網(wǎng)絡,通過權(quán)值共享的特征提取網(wǎng)絡提取缺陷圖和模板圖特征;②在區(qū)域候選網(wǎng)絡中,設計自適應邊框生成器,優(yōu)化錨框的生成過程,提高后續(xù)檢測與回歸的精度。③在檢測階段,采用改進的聚焦損失函數(shù),降低模型對少數(shù)類瑕疵樣本的敏感性,從而提升網(wǎng)絡的預測精度和泛化能力。

具體過程如下:將缺陷圖和模板圖輸入雙路的高分辨網(wǎng)絡中進行特征提取,并合并兩個特征圖,由于布匹瑕疵中小目標占比較多,再接入多尺度特征金字塔轉(zhuǎn)換器,更好融合深層的語義信息與淺層的位置信息,得到最終的特征圖后經(jīng)由自適應邊框生成器指導RPN的錨設計,利于后續(xù)檢測框回歸,最后送入級聯(lián)的檢測器中對候選框進行分類和回歸,逐步提升檢測模型的回歸精度。網(wǎng)絡架構(gòu)如圖2所示,其中“Ci”,“Bi”,i=1,2,3分別表示分類網(wǎng)絡和回歸網(wǎng)絡。

圖2 本文網(wǎng)絡架構(gòu)

2.1 雙路高分辨率特征提取

在布匹瑕疵檢測中,由于不同花色背景的影響,很難在多種花色布匹上取得理想的效果,為了消除這種影響,最直接的方法是原圖相減,在差分圖上進行瑕疵檢測,但對于瑕疵圖片與模板圖片并非嚴格的像素點對齊的情況,直接做差不但無法消除背景,還會破壞瑕疵原本的形態(tài)。因此,為了減少噪聲的影響,本文提出雙路高分辨率網(wǎng)絡將提取到的瑕疵特征和模板特征進行差分,在特征層將瑕疵與模板特征做差,雖然像素點不對齊但是區(qū)域特征是相同的,卷積核提取的特征是區(qū)域特征,在特征層上做差不僅可以保證消除同區(qū)域內(nèi)相似的背景特征,而且還可以保留瑕疵的特征。

雙路高分辨率網(wǎng)絡架構(gòu)如圖3所示。將瑕疵圖片和模板圖作為輸入,其中,模板圖中不包含任何瑕疵信息,在特征提取的過程中這兩部分是權(quán)值共享的,其提取的特征表達如式(1)所示

圖3 雙路高分辨率網(wǎng)絡架構(gòu)

f(xi)=CNNecd(xi,θencoding)

(1)

式中:xi是輸入樣本,θencoding是CNN的編碼參數(shù),然后將提取的兩個輸出向量進行相減并取絕對值,如式(2)所示

(2)

式中:xi表示輸入瑕疵樣本,xj表示模板樣本,它們經(jīng)過全連接層和Sigmod函數(shù)得到輸出結(jié)果,輸出表現(xiàn)如式(3)所示

P(xi,xj)=SigMod(FC(D(f(xi),f(xj))))

(3)

輸出值歸一化至0~1之間,計算相似度得分,然后提取出整幅圖像所有相似性較低的圖像塊,通過這樣的方式可以在一定程度上抵消像素點不對齊帶來的影響,屏蔽背景并且保留瑕疵原有特征,從而提升模型對瑕疵特征的表達能力。

在布匹瑕疵檢測中存在背景復雜的問題,使用特征金字塔網(wǎng)絡能夠有效地融合圖像中各個維度地特征,而傳統(tǒng)的特征金字塔網(wǎng)絡未考慮全局特征信息并且以固定尺度構(gòu)建特征金字塔,會丟失部分不同層級特征之間的語義差異信息,增大瑕疵檢測的難度。為了在一定程度上消除布匹的紋理特征在空間分布上的差異,采用了多尺度特征金字塔轉(zhuǎn)換器,使特征圖可以跨空間和跨尺度進行非局部交互,融合具有豐富語義信息的深層特征和高分辨率的淺層特征,有效提高了小目標瑕疵檢測精度,網(wǎng)絡結(jié)構(gòu)如圖4所示。

圖4 多尺度特征金字塔轉(zhuǎn)換網(wǎng)絡結(jié)構(gòu)

由雙路高分辨率網(wǎng)絡提取不同尺度的特征圖,然后經(jīng)過同層之間的交互、自上而下的交互和自下而上的交互分別去計算對應的融合了上下文信息的特征圖,將多層語義信息進行整合,得到跨尺度和跨空間特征交互后的特征金字塔。如上圖所示,多尺度特征金字塔轉(zhuǎn)換器主要分為3步:同層特征圖的交互(Fst)、自上而下的交互(Fgt)、自下而上的交互(Frt),詳細過程如算法1所示。

算法1: 多尺度特征金字塔轉(zhuǎn)換網(wǎng)絡算法

輸入: C2、C3、 C4、 C5

輸出: P2、 P3、 P4、 P5

說明: Ci表示由基礎網(wǎng)絡提取的第2~5層特征圖; pi表示卷積轉(zhuǎn)換特征圖尺寸后得到的第2~5層特征圖; Pi表示轉(zhuǎn)換后的第2~5層特征圖; Fst():ST操作; Fgt():GT操作; Frt():RT操作

算法過程:

(1) p5=Fconv(C5) //從C5開始,先卷積轉(zhuǎn)換特征圖尺寸

(2) p4=Fconv(C4)

(3) p3=Fconv(C3)

(4) p2=Fconv(C2)

(5) s5=Fconcatenate(Fst(p5), Frt(p4,p5), Frt(p3,p5), Frt(p2,p5), p5, 1) //拼接操作

(6) s4=Fconcatenate(Fst(p4), Frt(p3,p4), Frt(p2,p4), Fgt(p5,p4), p4, 1)

(7) s3=Fconcatenate(Fst(p3), Frt(p2,p3), Fgt(p4,p3), Fgt(p5,p3), p3, 1)

(8) s2=Fconcatenate(Fst(p2), Fgt(p3,p2), Fgt(p4,p2), Fgt(p5,p2), p2, 1)

(9) P5=Fconv(s5) //卷積縮小維度, 降至原本通道數(shù)

(10) P4=Fconv(s4)

(11) P3=Fconv(s3)

(12) P2=Fconv(s2)

(13) return P2、 P3、 P4、 P5//輸出轉(zhuǎn)換后的特征圖

上述操作不會改變多層級特征的輸入和輸出的尺寸和通道數(shù),因此多尺度特征金字塔轉(zhuǎn)換網(wǎng)絡可以直接嵌入到主干網(wǎng)絡中,達到跨尺度和跨空間非局部交互的效果,有助于提高小目標瑕疵檢測的準確率。

2.2 自適應邊框生成器

在布匹瑕疵檢測任務中,一般會預先設置一些不同尺度不同位置的固定參考框,根據(jù)預定義的anchor,網(wǎng)絡模型可以更好了解先驗框偏差的信息,從而得到更好的預測結(jié)果。但由于布匹疵點的特殊性,疵點中絕大多數(shù)多為小尺寸、縱橫比懸殊的目標,導致檢測精度較低。因此本文設計了自適應邊框生成器來優(yōu)化錨框,優(yōu)化過程是通過改進K-means聚類算法來進行的。

在聚類過程中,遠離群點的瑕疵類對算法結(jié)果影響較大,所以不能采用一般聚類方法的歐式距離,因為對于歐式距離來說,過大或過小的包圍框都會產(chǎn)生太大的損失。因此,引入新的基于IOU的度量方式,如式(4)所示,其中b是真實標注框,c是聚類的中心點

d(b,c)=1-IOU(b,c)

(4)

聚類的詳細過程描述如下:

(1)聚類使用布匹瑕疵數(shù)據(jù)集訓練集中真實標注框的坐標信息作為原始數(shù)據(jù)。

(2)選取初始聚類中心點:對于訓練集每個類別的瑕疵,隨機選取代表一類瑕疵集簇的k個初始聚類中心點。

(3)計算相似度距離:計算所有瑕疵真實標注框與每個聚類中心的相似度距離,并將各標注框樣本歸類給相似度最近的聚類中心。

(4)重新計算聚類中心點:按照式(5)重新計算每個瑕疵類聚類中心點,以最新歸類的標注框樣本為基準點,計算各聚類中心點與基準點的距離,選取距離最小的聚類中心點作為新的聚類中心點

(5)

(5)重復步驟(3)和步驟(4)以得到最優(yōu)的錨定框。具體過程如下所示。

算法2: 自適應邊框生成器算法

輸入: 每類待聚類瑕疵樣本集真實邊界框: B={bi, i∈{1,2,…,n}}

初始anchor大小: A={aj, j∈{1,2,…,m}}

輸出: 最優(yōu)初始錨定框A*={aj1, j1∈{1,2,…,m}}

算法過程:

(1) Repeat

(2) 令Cj=φ, j∈{1,2,…,m}

(3) for i=1,2,…,n do

(4) dij=1-IOU(bi,aj) //計算真實邊界框和當前anchor的距離

(5) λj=argmini∈{1,2,…,m}dij//距離最近的anchor確定的bi簇標記

(6)Cλj=Cλj∪{bi} //將真實邊界框bi劃入相應的簇

(7) end for

(8) A*=φ

(9) for j=1,2,…,m do

(11) A*=A*∪μj//將計算的anchor大小添加到A*中

(12) end for

(13) Until當前anchor大小不再改變或達到最大迭代次數(shù)

2.3 級聯(lián)檢測器與改進的聚焦損失

經(jīng)由自適應邊框生成器指導RPN的錨設計,產(chǎn)生候選區(qū)域后,使用級聯(lián)的目標檢測器完成分類和回歸。如式(6)所示

f(x,b)=fT°fT-1°…°f(x,b)

(6)

式中:T為級聯(lián)的總數(shù),級聯(lián)中的每個回歸器ft根據(jù)對應階段的樣本分布bt進行優(yōu)化,逐級回歸后,使樣本分布更加精確,同時,IOU在回歸過程中被逐級提升。

本文方法的級聯(lián)數(shù)設置為3,在級聯(lián)回歸過程中,將上一級生成的預測邊界框輸出作為感興趣區(qū)域輸入下一個檢測器,最后經(jīng)過全連接層完成分類和回歸,可以精準地實現(xiàn)對布匹瑕疵的分類與定位。級聯(lián)檢測器結(jié)構(gòu)如圖5所示。

圖5 級聯(lián)檢測器結(jié)構(gòu)

在此階段,訓練階段的損失函數(shù)由邊界框回歸損失和分類損失組成,損失函數(shù)如式(7)所示

(7)

式中:N為預測框的數(shù)量,pt表示對anchor的預測置信度,G′i為預測框的位置信息,Gi為目標框位置信息,Lreg采用smoothL1作為損失函數(shù),如式(8)所示,參數(shù)x是預測結(jié)果與真實值的差

(8)

分類置信度損失Lcls是預測類別置信度與目標類別的誤差,布匹瑕疵數(shù)據(jù)集存在不同瑕疵類別的樣本數(shù)量極度不平衡,導致樣本數(shù)較少的類別不能得到充分訓練,造成檢測精度較低。采用Focal loss損失函數(shù)作為分類損失來緩解模型中參與訓練的正負樣本不平衡問題,如式(9)所示

Lcls(pt)=-αt(1-pt)γlog(pt)

(9)

Lcls(pt)=-δt(1-pt)γlog(pt)

(10)

(11)

3 實驗結(jié)果與分析

3.1 實驗環(huán)境與數(shù)據(jù)集

本文實驗的軟硬件環(huán)境配置見表1。

表1 實驗環(huán)境配置

圖6 布匹瑕疵數(shù)據(jù)集

實驗以MS COCO數(shù)據(jù)集的評價標準進行性能評估。使用隨機梯度下降方法作為優(yōu)化器,初始學習率設置為0.0025,沖量設置為0.9,batch size設置為2,權(quán)重衰減設置為0.0001,訓練步數(shù)設置為18 000。為了獲得理想的訓練效果,本文對原始數(shù)據(jù)集采用了水平和垂直翻轉(zhuǎn)、對稱變化等多種數(shù)據(jù)增強方式進行數(shù)據(jù)增強。數(shù)據(jù)增強后的樣本分布見表2。

表2 增強前后數(shù)據(jù)集中的樣本分布

3.2 訓 練

為了驗證本文方法對于布匹瑕疵缺陷檢測的有效性和先進性,在花色布匹瑕疵數(shù)據(jù)集上進行了網(wǎng)絡訓練和結(jié)果分析,圖7為瑕疵圖和模板圖直接相減和由雙路高分辨率特征提取差分后的可視化對比,上圖為瑕疵圖和模板圖直接相減,下圖為采用雙路高分辨網(wǎng)絡將提取到的瑕疵特征和模板特征進行差分,在特征層將瑕疵特征與模板特征做差的效果圖,通過對比發(fā)現(xiàn),直接做差不但無法消除背景,還會破壞瑕疵原本的形態(tài),而在特征層上做差可以保證同區(qū)域內(nèi)相似的背景特征被消除,并同時可以保留瑕疵的特征。

圖7 圖片相減與特征差分對比結(jié)果

圖8是不同網(wǎng)絡的損失曲線。隨著神經(jīng)網(wǎng)絡的迭代次數(shù)增加,損失曲線整體呈現(xiàn)下降趨勢,目標檢測網(wǎng)絡對于花色布匹瑕疵數(shù)據(jù)的判別能力逐漸逼近訓練數(shù)據(jù)集。這表明,本文方法能更好地收斂于布匹瑕疵缺陷數(shù)據(jù)集,并且分類與回歸任務的誤差也較低,這是由于采用雙路高分辨率特征提取在特征層差分有效剔除了無關(guān)背景信息的干擾,利用多尺度特征金字塔轉(zhuǎn)換器,充分學習瑕疵目標的上下文信息,在RPN階段進一步優(yōu)化錨框,利用后續(xù)檢測和回歸。最后在檢測階段,引入改進的聚焦損失函數(shù)來緩解訓練過程中瑕疵類別不平衡導致的分類精度低問題,降低模型對少數(shù)類瑕疵樣本的不敏感性,從而提高花色布匹瑕疵目標的檢測性能。

圖8 損失變化曲線對比結(jié)果

3.3 消融實驗

為了驗證提出的檢測方法中各個模塊的有效性,在基礎網(wǎng)絡的基礎上,融合不同改進點的消融實驗結(jié)果見表3。

表3 消融實驗

(1)基礎網(wǎng)絡(BaselineNet)。基礎網(wǎng)絡為未改進之前的Cascade RCNN,由于復雜花色背景、小瑕疵目標、尺度變化大、類別不平衡等一系列問題的影響,導致最終的檢測性能較差。為了更好地解決這些問題,提高花色布匹瑕疵檢測的準確率和定位精度,分別針對上述不同問題進行改進創(chuàng)新,以下所有的改進均是在此BaselinNet的基礎上進行的。

(2)BN+雙路高分辨率網(wǎng)絡(DCF)。使用雙路高分辨率網(wǎng)絡代替BaselineNet中原始的特征提取網(wǎng)絡,由表可見,相比于基線方法,雙路高分辨率網(wǎng)絡將基線方法改進了1.7個mAP。這說明雙路高分辨率網(wǎng)絡有效的消除復雜花色背景的影響,提取更清晰、更具有代表性的瑕疵特征,得到豐富的瑕疵特征的上下文信息,為檢測模型提供高質(zhì)量特征信息,提高算法對瑕疵的定位與判斷是否為瑕疵的能力。

(3)BN+DCF+多尺度特征金字塔轉(zhuǎn)換器(FPT)。為了進一步提高小目標瑕疵的準確率,在雙路高分辨率網(wǎng)絡的基礎上添加了FPT,以此獲得更多小目標瑕疵特征的細節(jié)信息。由表可見,相比于基線方法,多尺度特征金字塔轉(zhuǎn)換器給基線方法帶來了1.0個mAP,由于多尺度特征金字塔轉(zhuǎn)換器充分捕獲全局信息并且能更好使用高層語義信息對低層的特征進行補充,從而得到語義信息更豐富的特征。

(4)BN+DCF+FPT+自適應邊框生成器(ABG)。考慮到布匹瑕疵長寬比差異大,原RPN中錨點比例設計并不能滿足瑕疵長寬比過于極端的情況,因此,本文通過自適應邊框生成器計算最優(yōu)錨定框的設計,由表可見,自適應邊框生成器給基線方法帶來1.4個mAP,這是因為自適應邊框生成器計算得到了錨定框的尺寸適用于瑕疵極端長寬比的情況最優(yōu)錨定框,使得瑕疵的初始邊框更精確,因此檢測性能得到了提升。

(5)BN+DCF+FPT+ABG+MFL(ours)。為應對布匹數(shù)據(jù)集中瑕疵種類不平衡對檢測結(jié)果的影響,采用改進的聚焦損失函數(shù)時,其mAP的變化幅度1.7%。同時實驗表明,當γ=2、λ=0.5時,模型可取得最好的性能,這說明采用改進的聚焦損失可以有效改善瑕疵類別不平衡對模型檢測性能的影響。

3.4 檢測性能及對比分析

提出的布匹瑕疵檢測方法與目前主流的檢測方法進行實驗對比,在花色布匹瑕疵數(shù)據(jù)集上的檢測結(jié)果顯示本文方法檢測性能優(yōu)于YOLOv3、RetinaNet、EfficientDet等一階段檢測方法,并且對不同大小的瑕疵檢測精度均高于Faster RCNN、Cascade RCNN、IC-RCNN和TC-RCNN等算法,mAP達到了68.5%,對比結(jié)果見表4。

表4 各算法在布匹瑕疵數(shù)據(jù)集上的結(jié)果

由表4可知,與兩階段的目標檢測算法Faster RCNN和Cascade RCNN相比,單階段檢測算法精度方面會差一些,因此文中選擇了兩階段檢測方法,本文方法的mAP達到了68.5%,比目前先進的檢測算法IC-RCNN和TC-RCNN分別提升了3.5%和7.1%,實現(xiàn)了對花色背景干擾下布匹瑕疵高質(zhì)量檢測。

為了更直觀評估模型分類結(jié)果的好壞,圖9為測試瑕疵分類結(jié)果歸一化混淆矩陣,在混淆矩陣中,顏色越深,識別的準確性越高,圖中橫坐標表示預測標簽,縱坐標表示真實標簽,基于混淆矩陣,可以看出本文模型的總體識別準確率較高,但對于漏印這類瑕疵較少的樣本其識別率還有待提升,其分類錯誤的主要原因是由于復雜紋理干擾和瑕疵形狀相似度較高造成的。

圖9 瑕疵樣本分類結(jié)果混淆矩陣

隨后,表5記錄了不同方法訓練和測試所需時間對比結(jié)果,其中,T1為完成訓練集所耗時間,T2為測試所有瑕疵樣本所耗時間,T3為測試單張瑕疵樣本所耗時間。從表5中可以看出,由于本文采用了雙路高分辨率特征提取,導致訓練模型時耗時較長,比Cascade RCNN增加了196 min,這是由于參數(shù)量增多造成的,在測試單張瑕疵樣本時,所需時間為305.67 ms,雖然耗時較其它方法有所增加,但在保證高精度的同時基本可以滿足工廠車間實際的生產(chǎn)要求。

表5 各算法訓練時間和測試時間對比

3.5 檢測結(jié)果呈現(xiàn)

針對布匹瑕疵數(shù)據(jù)集中的幾類問題進行測試,例如復雜花色背景、小目標以及縱橫比懸殊等,如圖10所示,本文改進的方法在上述場景下取得了較高的檢測精度,并且能夠生成緊密的邊界框,這說明本文所提出的方法針對布匹瑕疵數(shù)據(jù)進行了有效設計,達到了較好的泛化能力,對于該數(shù)據(jù)集中存在大量復雜花色背景的瑕疵圖,可以很好消除背景的影響,對于大量的小目標瑕疵可以達到較好的檢測成功率,同時對于尺度變化大和瑕疵樣本較少的類別也能夠生成緊密的包圍框。

圖10 布匹瑕疵檢測效果

4 結(jié)束語

本文針對花色布匹瑕疵檢測存在的問題,提出了雙路高分辨率轉(zhuǎn)換網(wǎng)絡的花色布匹瑕疵檢測方法,該方法通過雙路高分辨率特征提取、優(yōu)化自適應邊框生成和改進聚焦損失,對花色布匹瑕疵檢測的精度有了明顯提高,并且優(yōu)于當前主流的花色布匹瑕疵檢測方法,說明該方法更適用于布匹瑕疵缺陷檢測的情況。未來可以考慮在檢測模型輕量化上進行改進。

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 欲色天天综合网| 国产美女精品一区二区| 国精品91人妻无码一区二区三区| 美女内射视频WWW网站午夜| 久综合日韩| 在线观看免费黄色网址| 久久精品中文字幕免费| 亚洲视屏在线观看| 老司机午夜精品网站在线观看| 国产精品白浆在线播放| 香蕉蕉亚亚洲aav综合| 伊人久久大香线蕉综合影视| 91视频区| av大片在线无码免费| 久久中文无码精品| 在线看免费无码av天堂的| 国产中文一区二区苍井空| 亚洲—日韩aV在线| 日韩精品成人在线| 高清无码一本到东京热| 精品亚洲欧美中文字幕在线看| 高清欧美性猛交XXXX黑人猛交 | 国产高清在线观看91精品| 欧美色综合久久| 久久香蕉国产线| 欧美激情网址| 99在线观看国产| AV老司机AV天堂| 在线观看视频一区二区| 国产精品视屏| 波多野结衣无码视频在线观看| 在线国产综合一区二区三区| 久久香蕉国产线看观看式| 特级精品毛片免费观看| 国产精品香蕉在线观看不卡| 91青青视频| 欧美天堂久久| 国产91在线|日本| 亚洲日本中文字幕乱码中文| 亚洲第一成年网| 青青草原国产免费av观看| 亚洲第一中文字幕| 欧美福利在线| 国产成人精品2021欧美日韩| 风韵丰满熟妇啪啪区老熟熟女| 国产一区自拍视频| 在线观看国产黄色| 91免费国产高清观看| 日韩中文无码av超清| 69av免费视频| 国产乱论视频| 三区在线视频| 99精品国产电影| 亚洲精品动漫| 伊人福利视频| 国产在线一区二区视频| 国产性生大片免费观看性欧美| 亚洲综合久久成人AV| 无码日韩精品91超碰| 国产va免费精品观看| 国产jizz| 黄色网在线| 热99精品视频| 波多野结衣第一页| 欧美中文字幕一区| 国产免费久久精品44| 国产xx在线观看| 日韩在线观看网站| 自偷自拍三级全三级视频| 国产精品v欧美| 无码高清专区| 五月天婷婷网亚洲综合在线| 日本免费精品| 二级特黄绝大片免费视频大片| 91口爆吞精国产对白第三集| 国产午夜精品一区二区三| 国产欧美日韩专区发布| 国产午夜精品一区二区三区软件| 欧美在线视频不卡第一页| 国产在线精品99一区不卡| 高清无码一本到东京热| 囯产av无码片毛片一级|