999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的織物印花分割算法研究

2021-08-23 02:50:38汪坤史偉民李建強(qiáng)彭來(lái)湖
現(xiàn)代紡織技術(shù) 2021年3期
關(guān)鍵詞:深度學(xué)習(xí)

汪坤 史偉民 李建強(qiáng) 彭來(lái)湖

摘 要:針對(duì)織物圖像特征提取和檢測(cè)問(wèn)題,研究了一種基于卷積神經(jīng)網(wǎng)絡(luò)U-net模型的織物印花分割算法,并根據(jù)織物印花的特點(diǎn)對(duì)原有模型進(jìn)行改進(jìn),從而更精確地實(shí)現(xiàn)對(duì)織物印花圖像的分割。實(shí)驗(yàn)選取100張?jiān)伎椢镉』▓D像,并利用人工標(biāo)注的方法標(biāo)注出分割好的圖像,作為訓(xùn)練的標(biāo)簽,將訓(xùn)練圖像和標(biāo)簽通過(guò)翻轉(zhuǎn)、裁剪等數(shù)據(jù)增強(qiáng)算法得到1000張圖像和對(duì)應(yīng)標(biāo)簽進(jìn)行訓(xùn)練。實(shí)驗(yàn)對(duì)比了本文算法和一些傳統(tǒng)分割算法,結(jié)果表明,本文的分割算法能夠更有效地分割出織物印花圖案。

關(guān)鍵詞:織物印花;圖像分割;U-net;深度學(xué)習(xí)

中圖分類(lèi)號(hào):TS101 ?文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1009-265X(2021)03-0045-06

Abstract: Aiming at the problem of fabric image feature extraction and detection, this paper studies a fabric printing segmentation algorithm based on U-net model of convolutional neural network, and improves the original model according to the characteristics of fabric printing so as to more accurately segment the fabric printed image. In the experiment, 100 original fabric printing images were selected, and the segmented images were marked by manual labeling as the training labels. 1000 images and corresponding labels obtained by data enhancement algorithms such as flipping and clipping were trained. The experiment was conducted to compare this algorithm and some traditional segmentation algorithms. The results show that the segmentation algorithm could more effectively segment the fabric printed pattern.

Key words: fabric printing; image segmentation; U-net; deep learning

織物印花是織物生產(chǎn)過(guò)程中重要的環(huán)節(jié),對(duì)于印花質(zhì)量的檢測(cè)必不可少。由于印花圖案復(fù)雜多樣,且大部分具有不規(guī)則性,印花花紋常為隨機(jī)分布,檢測(cè)其質(zhì)量有著很大的難度,而織物背景則相對(duì)簡(jiǎn)單。因此,對(duì)于后續(xù)的織物質(zhì)量檢測(cè)(如疵點(diǎn)檢測(cè)等),印花部分和背景部分的檢測(cè)方法有時(shí)會(huì)有不同,有時(shí)只需考慮印花部分的檢測(cè)。如果能夠精確地將印花圖案從整體織物圖案中分割出來(lái),對(duì)印花部分和背景部分分別檢測(cè),那么無(wú)論是對(duì)于檢測(cè)效率還是檢測(cè)準(zhǔn)確率都有著很大的幫助。

近年來(lái),在圖像分割領(lǐng)域,有著很多不錯(cuò)的成果。傳統(tǒng)圖像分割算法有很多,主要包括以下幾種。

基于閾值的分割,通過(guò)設(shè)置不同的灰度值閾值,將整體圖像按不同灰度等級(jí)分割為不同的區(qū)域。Otsu[1]提出閾值分割領(lǐng)域經(jīng)典的最大類(lèi)間方差法。劉健莊等[2]在Otsu的基礎(chǔ)上提出一種二維閾值分割法,同時(shí)考慮當(dāng)前點(diǎn)的和其相鄰區(qū)域像素點(diǎn)的灰度信息,從而達(dá)到更好的分割效果。

基于聚類(lèi)的分割,將像素點(diǎn)按照一定規(guī)律分為幾個(gè)不同的區(qū)域,并對(duì)每個(gè)像素點(diǎn)進(jìn)行分類(lèi),判斷每個(gè)點(diǎn)所屬的區(qū)域,從而進(jìn)行分類(lèi)。K均值[3]聚類(lèi)通過(guò)分析圖像的顏色信息進(jìn)行聚類(lèi)。模糊C均值[4]算法引入模糊理論,使得算法能夠更好的收斂。

基于區(qū)域生長(zhǎng)[5]的分割,先在圖像中找到若干個(gè)初始點(diǎn),再將初始點(diǎn)鄰域的像素點(diǎn)根據(jù)一定準(zhǔn)則合并形成新的區(qū)域,不斷合并區(qū)域,直到無(wú)法合并為止。

隨著深度學(xué)習(xí)[6]的發(fā)展,各類(lèi)圖像檢測(cè)問(wèn)題都應(yīng)用到深度學(xué)習(xí),其中卷積神經(jīng)網(wǎng)絡(luò)(CNN)[7-8]仿造生物視知覺(jué)構(gòu)造,對(duì)于解決圖像處理問(wèn)題有著很好的效果。本文采用卷積神經(jīng)網(wǎng)絡(luò)U-net[9]模型對(duì)織物印花進(jìn)行分割,并根據(jù)織物印花圖片的特點(diǎn)以及實(shí)驗(yàn)中遇到的問(wèn)題對(duì)模型進(jìn)行了一定的改進(jìn)。經(jīng)過(guò)實(shí)驗(yàn),該分割算法效果很好。

1 改進(jìn)U-net織物印花分割模型

1.1 改進(jìn)U-net模型框架結(jié)構(gòu)

傳統(tǒng)U-net模型常用于語(yǔ)意分割,其模型結(jié)構(gòu)如圖1所示,其結(jié)構(gòu)形如字母“U”,因此該模型被命名為U-net。

如圖1所示,模型左邊為一個(gè)下采樣過(guò)程,可以理解為一個(gè)編碼的過(guò)程,將尺寸較大的原始圖片通過(guò)多層的卷積核卷積并池化壓縮到一個(gè)較小的尺寸,同時(shí)提取出圖像的特征。再通過(guò)右側(cè)上采樣過(guò)程解碼,通過(guò)反卷積將特征圖放大,同時(shí)為了得到更多原始圖像信息,將左側(cè)的一些淺層特征連接到反卷積后的特征圖上,最終將特征圖恢復(fù)到原圖尺寸,從而得到像素級(jí)的分割預(yù)測(cè)圖。

本文使用的織物印花圖案由于花型復(fù)雜多樣,且具有不規(guī)則性,印花大小也不相同,原始U-net模型結(jié)構(gòu)較淺,無(wú)法精確提取到織物印花的特征,得到的分割效果不夠理想,因此對(duì)U-net模型進(jìn)行了一定的改進(jìn),利用更深的VGG16模型取代左側(cè)下采樣部分,并在模型中加入空洞卷積[10]以提高卷積核感受野。改進(jìn)U-net模型整體結(jié)構(gòu)如圖2。

牛津大學(xué)在2014年提出了VGG16模型,該模型的突出特點(diǎn)是簡(jiǎn)單實(shí)用,該模型在圖像分類(lèi)和目標(biāo)檢測(cè)上都有很好的效果。

VGG16模型常被用來(lái)提取圖像特征。圖2中左側(cè)藍(lán)色下采樣結(jié)構(gòu)即為VGG16模型,原VGG16模型共13個(gè)卷積層和3個(gè)全連接層,本文算法舍棄了最后3個(gè)全連接層,只通過(guò)多層卷積從輸入圖片中提取出32×48×512的特征圖作為右側(cè)上采樣的輸入。

相比原U-net左側(cè)下采樣部分,VGG16模型卷積層更多,結(jié)構(gòu)更深,因此能提取到更多輸入織物圖片的細(xì)節(jié)特征。

1.3 空洞卷積

感受野是卷積神經(jīng)網(wǎng)絡(luò)中一個(gè)重要的參數(shù),它表示經(jīng)過(guò)卷積池化后的特征圖中每個(gè)像素點(diǎn)映射到輸入圖片的區(qū)域的大小。很顯然,感受野越大,特征圖上每個(gè)點(diǎn)能蘊(yùn)含越全局的特征。

空洞卷積相比普通卷積,在卷積核的每行每列之間加入空白的行和列,普通卷積和空洞卷積的卷積核如圖3所示。普通3×3卷積核每個(gè)點(diǎn)都表示一個(gè)參數(shù),3×3空洞卷積核只在奇數(shù)行和列有參數(shù),雙數(shù)行和列用零填充。可以看到空洞卷積相比普通卷積在參數(shù)量不變的情況下增大了感受野,同為9個(gè)參數(shù)的3×3卷積核,空洞卷積的感受野增大到了5×5,從而提高了卷積模型的學(xué)習(xí)能力,同時(shí)減小了參數(shù)過(guò)多可能導(dǎo)致的過(guò)擬合問(wèn)題。

改進(jìn)模型在U-net模型左側(cè)增加了多個(gè)空洞卷積。

1.4 激活函數(shù)

卷積為線性過(guò)程,為了提高深層網(wǎng)絡(luò)的表達(dá)能力,需要引入非線性[11]的激活函數(shù)。

U-net常用的激活函數(shù)為ReLU[12]函數(shù),其表達(dá)式為式(1):

ReLU=max(0,x)(1)

ReLU函數(shù)具有計(jì)算速度和收斂速度快的優(yōu)點(diǎn),但由于在輸入為負(fù)時(shí),它的值為零,在某些情況下會(huì)導(dǎo)致一些神經(jīng)元永遠(yuǎn)不會(huì)被激活,導(dǎo)致資源浪費(fèi)。為了避免這個(gè)問(wèn)題,模型采用PReLU[13]激活函數(shù),其表達(dá)式如式(2):

PReLU=max(αx,x)(2)

其中α值很小,一般取0.01,PReLU與ReLU右半部分圖像完全一致,不同點(diǎn)是左半部分不為零,而是一個(gè)很小的負(fù)值,理論上說(shuō),它具有ReLU的優(yōu)點(diǎn),且不存在神經(jīng)元不會(huì)被激活的問(wèn)題。

1.5 損失函數(shù)

分別使用L1損失和L2損失進(jìn)行對(duì)比實(shí)驗(yàn)。設(shè)標(biāo)簽圖片每個(gè)點(diǎn)的標(biāo)簽值為g(i,j),模型輸出圖片每個(gè)點(diǎn)的值為y(i,j),其中i,j分別為像素點(diǎn)的寬和高。w,h分別為圖片的寬和高。

L1損失為:

lossL1=1w·h∑w,hi,jyi,j-gi,j(3)

L2損失為:

lossL2=1w·h∑w,hi,jyi,j-gi,j2(4)

1.6 準(zhǔn)確率評(píng)估

為了更好的評(píng)估花型分割結(jié)果的好壞,引入準(zhǔn)確率評(píng)估如式(5)、式(6)。

acc=1w·h∑w,hi,joi,j⊙g(i,j)(5)

oi,j=1yi,j>0.50yi,j<0.5(6)

g(i,j)為點(diǎn)(i,j)的標(biāo)簽值,屬于前景時(shí)為1,屬于背景時(shí)為0,o(i,j)為輸出y(i,j)經(jīng)過(guò)二值化得到的結(jié)果。

式(5)表示準(zhǔn)確率為標(biāo)簽值和輸出值相同的像素點(diǎn)占總像素點(diǎn)的比率。

2 實(shí)驗(yàn)與分析

2.1 數(shù)據(jù)集與數(shù)據(jù)增強(qiáng)

采用TILDA紡織紋理數(shù)據(jù)庫(kù),并通過(guò)手動(dòng)標(biāo)注的方法對(duì)織物印花進(jìn)行分割,得到訓(xùn)練標(biāo)簽圖,圖4為兩組訓(xùn)練圖片和標(biāo)簽圖。對(duì)原始數(shù)據(jù)集約100張圖片進(jìn)行標(biāo)注,之后通過(guò)翻轉(zhuǎn)、切割等數(shù)據(jù)增強(qiáng)方法將數(shù)據(jù)集擴(kuò)充到1 000張,其中800張作為訓(xùn)練集進(jìn)行訓(xùn)練,其余200張作為測(cè)試集測(cè)試模型預(yù)測(cè)結(jié)果。圖5為數(shù)據(jù)增強(qiáng)中裁剪和翻轉(zhuǎn)示意圖。

2.2 模型訓(xùn)練

2.2.1 實(shí)驗(yàn)環(huán)境

實(shí)驗(yàn)使用Inter(R)Core (TM)i58400 2.8 GHz處理器,GPU為英偉達(dá)GTX1060 6 GB,內(nèi)存為雙通道16 GB;軟件環(huán)境為WIN10 64位,python3.6,tensorflow1.10.0。

2.2.2 模型訓(xùn)練

在上述實(shí)驗(yàn)環(huán)境下對(duì)訓(xùn)練圖片進(jìn)行訓(xùn)練,總共進(jìn)行約600輪迭代,初始學(xué)習(xí)率為0.001,并隨著訓(xùn)練的進(jìn)行,不斷減小學(xué)習(xí)率。分別采用原U-net模型和改進(jìn)U-net模型進(jìn)行訓(xùn)練,同時(shí)比較不同損失函數(shù)對(duì)訓(xùn)練的影響,訓(xùn)練過(guò)程中利用tensorflow可視化工具tensorboard對(duì)訓(xùn)練可視化,監(jiān)測(cè)訓(xùn)練過(guò)程。

訓(xùn)練過(guò)程中學(xué)習(xí)率變化如圖6所示,隨著迭代次數(shù)增加,學(xué)習(xí)率不斷減小。

圖7表示分別使用L1損失函數(shù)和L2損失函數(shù)時(shí),改進(jìn)模型的準(zhǔn)確率對(duì)比。可以看到,隨著迭代次數(shù)增加,準(zhǔn)確率不斷提升,到200輪迭代左右時(shí)準(zhǔn)確率趨于穩(wěn)定,另外,使用L1損失函數(shù)能得到更好的分割結(jié)果。

圖8、圖9表示原U-net和改進(jìn)U-net在訓(xùn)練過(guò)程中損失以及準(zhǔn)確率變化對(duì)比。從圖中可以看到,由于原模型結(jié)構(gòu)較淺,收斂速度相對(duì)較快,但穩(wěn)定后最終結(jié)果無(wú)論是訓(xùn)練損失還是準(zhǔn)確率,改進(jìn)U-net模型相比原模型都有很大的優(yōu)勢(shì)。

2.3 結(jié)果和分析

對(duì)比了不同損失函數(shù)下的分割結(jié)果,同時(shí)對(duì)改進(jìn)模型與原U-net模型的分割結(jié)果進(jìn)行了比較。將測(cè)試集圖片通過(guò)訓(xùn)練好的模型得到輸出矩陣,將矩陣轉(zhuǎn)換為灰度圖像。

從測(cè)試集中選取幾張圖片展示分割結(jié)果,如圖10、圖11所示。

圖10(c)、(d)表示在L1、L2損失下部分測(cè)試圖片的輸出結(jié)果。

從圖9和表1可以看出,使用L1損失函數(shù)時(shí)得到的分割結(jié)果與標(biāo)簽值基本相同,準(zhǔn)確率達(dá)98.33%,而使用L2損失函數(shù)時(shí)分割結(jié)果與標(biāo)簽結(jié)果有一定差距,準(zhǔn)確率為93.55%。

從圖11和表2可以看到,由于原U-net模型網(wǎng)絡(luò)結(jié)構(gòu)較淺,無(wú)法完整提取織物印花信息,分割效果很不理想,分割準(zhǔn)確率為88.67%。

3 結(jié) 論

采用改進(jìn)U-net模型對(duì)織物印花進(jìn)行分割,通過(guò)對(duì)U-net模型的改進(jìn)以及訓(xùn)練參數(shù)的調(diào)節(jié),總體來(lái)說(shuō)能得到比較好的分割結(jié)果。另外,如果有合適且足夠多的訓(xùn)練樣本,分割方法不僅對(duì)織物印花分割,在其他圖像的分割上都能有很好的效果。

當(dāng)然,算法仍然有很多可以改進(jìn)的地方,主要有以下幾點(diǎn)。

a)數(shù)據(jù)集較小,由于采用人工標(biāo)定,人力有限,數(shù)據(jù)集圖片數(shù)量相對(duì)較少,容易產(chǎn)生過(guò)擬合,對(duì)不同種類(lèi)織物圖片泛化能力較差。

b)分割只是對(duì)將印花從背景中分離出來(lái),沒(méi)有對(duì)不同印花進(jìn)行區(qū)分,接下來(lái)主要考慮研究多種類(lèi)的分割。

參考文獻(xiàn):

[1]OTSU N. A Threshold Selection Method from Gray Level Histogram[J].IEEE Trans on System Man and Cybernetics,1979,9(1):62-66.

[2]劉健莊,栗文青.灰度圖像的二維Otsu自動(dòng)閾值分割[J].自動(dòng)化學(xué)報(bào),1993,19(1):101-105.

[3]李鵬飛,張宏偉.基于k-means聚類(lèi)的紡織品印花圖像區(qū)域分割[J].西安工程大學(xué)學(xué)報(bào),2008,22(5):551-554

[4]SARKAR J P, SAHA I, MAULIK U. Rough possibilistic type-2 fuzzy c-means clustering for MR brain image segmentation[J].Applied Soft Computing,2016(46):527-536.

[5]FAN JIANPING, ZENG GUIHUA, Body M, et al. Seeded region growing: an extensive and comparative study[J].Pattern Recognition Letters,2017,26(8):1139-1156.

[6]LECUN Y, BENGIO Y, HINTON G. Deep learning[J].Nature,2015,521(7553):436-444.

[7]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale lmage recognition[J].Computer Science,2014,9(4):23-31.

[8]盧宏濤,張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理,2016,31(1):1-17.

[9]RONNEBERGER O, FISCHER P, BROX T. U-net: Convolutional networks for biomedical image segmentation[C]//International conference on medical image computing and computer-assisted intervention. Springer, Cham,2015:234-241.

[10]YU F, KOLTUN V. Multi-scale context aggregation by dilated convolutions[J].arXiv preprint arXiv:1511.07122,2015.

[11]李明威.圖像分類(lèi)中的卷積神經(jīng)網(wǎng)絡(luò)方法研究[D].南京:南京郵電大學(xué),2016.

[12]GLOROT X, BORDES A, BENGIO Y. Deep sparse rectifier neural networks[C]//Proceedings of the fourteenth international conference on artificial intelligence and statistics.2011:315-323.

[13]HE K, ZHAN X, REN S, et al. Delving deep into rectifiers: surpassing human-level performance on image net classification[C].IEEE. International Conference on Computer Vision,2015:1026-1034.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 巨熟乳波霸若妻中文观看免费| 国产精品蜜芽在线观看| 97国产在线视频| 丁香婷婷激情网| 一级毛片在线直接观看| 亚洲AV成人一区国产精品| 欧美日韩精品一区二区在线线 | 波多野结衣久久高清免费| 久久人体视频| 久久久噜噜噜久久中文字幕色伊伊| 54pao国产成人免费视频| 国产成人免费高清AⅤ| 久久99精品久久久久久不卡| 青草91视频免费观看| 婷婷丁香在线观看| 天天综合网亚洲网站| 欧美国产中文| 国产一区二区网站| 欧美精品一区二区三区中文字幕| 大香网伊人久久综合网2020| 欧美视频在线播放观看免费福利资源| 欧美高清日韩| 国模粉嫩小泬视频在线观看| 丰满人妻被猛烈进入无码| 人妻无码中文字幕一区二区三区| 国产精品无码影视久久久久久久| 亚洲精品福利视频| 理论片一区| 久久永久精品免费视频| 精品国产中文一级毛片在线看| 国产成人精品日本亚洲| 精品国产成人高清在线| 国产成人无码久久久久毛片| 日韩天堂在线观看| 高清无码一本到东京热| 亚洲综合18p| 亚洲综合色婷婷中文字幕| 国产在线精品人成导航| 欧美怡红院视频一区二区三区| 国产手机在线小视频免费观看| 免费国产黄线在线观看| 91色国产在线| 亚洲中文字幕国产av| 国产国语一级毛片| 制服丝袜亚洲| 日韩精品一区二区三区中文无码| 亚洲午夜国产片在线观看| 国产国产人免费视频成18| 一本视频精品中文字幕| 国产精品亚洲五月天高清| 午夜一区二区三区| 日韩在线第三页| 成人在线综合| 久久精品最新免费国产成人| 国产成人一区免费观看| 久热这里只有精品6| 精品国产免费观看| 91口爆吞精国产对白第三集| 国产剧情一区二区| 无码精品国产VA在线观看DVD| 精品欧美视频| av大片在线无码免费| 漂亮人妻被中出中文字幕久久| 国产精品片在线观看手机版| 欧美日韩成人| 97久久超碰极品视觉盛宴| 精品久久人人爽人人玩人人妻| 少妇精品网站| 99视频在线看| 国产日产欧美精品| 青青青伊人色综合久久| 精品综合久久久久久97超人| 婷婷五月在线| 亚洲欧美一区在线| 国产三级国产精品国产普男人| 亚洲一级毛片免费看| 99热这里只有成人精品国产| 国产成人超碰无码| 免费av一区二区三区在线| 亚洲综合经典在线一区二区| 亚洲一区色| 国产v欧美v日韩v综合精品|