999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)+自學(xué)習(xí)的小盒外觀檢測(cè)系統(tǒng)

2022-05-11 23:31:28陳天麗柳盼汪魁謝茜
今日自動(dòng)化 2022年3期
關(guān)鍵詞:機(jī)器視覺深度學(xué)習(xí)

陳天麗 柳盼 汪魁 謝茜

[摘 ? ?要]針對(duì)目前傳統(tǒng)機(jī)器視覺方法配置參數(shù)繁瑣,操作復(fù)雜,存在誤剔或漏剔率偏高,及單一使用深度學(xué)習(xí)的方法檢測(cè)效率偏低等問(wèn)題,文中提出了一種基于深度學(xué)習(xí)+自學(xué)習(xí)的卷包香煙外觀缺陷檢測(cè)系統(tǒng)。利用圖像增強(qiáng)、變換、濾波等方法對(duì)原始圖像進(jìn)行預(yù)處理得到處理后圖像,后對(duì)處理后的圖像進(jìn)行評(píng)估,選擇使用深度學(xué)習(xí)還是自學(xué)習(xí)的方法進(jìn)行檢測(cè)。結(jié)果表明,基于深度學(xué)習(xí)+自學(xué)習(xí)技術(shù)的卷包香煙外觀缺陷檢測(cè)方法比使用傳統(tǒng)的機(jī)器視覺檢測(cè)方法,或單一深度學(xué)習(xí)檢測(cè)方法在檢測(cè)耗時(shí)、準(zhǔn)確率、誤剔率的綜合性能上要優(yōu)越,具有較強(qiáng)的實(shí)用價(jià)值。

[關(guān)鍵詞]機(jī)器視覺;缺陷檢測(cè);深度學(xué)習(xí);自學(xué)習(xí)

[中圖分類號(hào)]TM912 [文獻(xiàn)標(biāo)志碼]A [文章編號(hào)]2095–6487(2022)03–0–05

Design of small box appearance defect detection system

based on deep learning + self-learning

Chen Tian-li,Liu Pan,Wang Kui,Xie Qian

[Abstract]In view of the cumbersome configuration parameters of the traditional machine vision method, the complicated operation, the high false or missed rejection rate, and the low detection efficiency of the single deep learning method,a method of appearance defects detection of cigarette box based on deep learning + self-learning is proposed. Use image enhancement, spatial filtering and other methods to preprocess the original image to obtain the processed image, and then evaluate the processed image, and choose whether to use deep learning or self-learning methods for detection. The results show that the cigarette box appearance defects detection system based on deep learning + self-learning technology is superior to traditional machine vision detection methods or a single deep learning detection method in terms of detection time, accuracy, and false rejection ,and has strong practical value.

[Keywords]machine vision;defects detection;deep learning;self-learning

在當(dāng)前卷煙行業(yè)的包裝機(jī)生產(chǎn)中,小盒外觀檢測(cè)普遍采用機(jī)器視覺的方法進(jìn)行檢測(cè),機(jī)器視覺檢測(cè)方法又分為基于傳統(tǒng)圖像處理檢測(cè)方法及深度學(xué)習(xí)檢測(cè)方法,這兩種方法各有優(yōu)缺點(diǎn)。例如使用傳統(tǒng)檢測(cè)算法,在對(duì)圖像尺寸測(cè)量和對(duì)一些特征較為明顯的固定區(qū)域進(jìn)行檢測(cè)時(shí),其檢準(zhǔn)確率度及效率具有一定優(yōu)勢(shì),但是對(duì)圖像復(fù)雜特征的檢測(cè)效果卻不盡人意。而使用深度學(xué)習(xí)算法對(duì)圖像的一些復(fù)雜特征的檢測(cè)則具有較高準(zhǔn)確率但其檢測(cè)耗時(shí)相對(duì)較長(zhǎng),效率不高。現(xiàn)行業(yè)中普片使用的方案是基于單一的傳統(tǒng)圖像檢測(cè)算法或是深度學(xué)習(xí)檢測(cè)算法,鮮有將這兩種算法的優(yōu)勢(shì)融合在一起進(jìn)行外觀檢測(cè)的方案,其檢測(cè)的綜合效果上還存在一定的不足。

傳統(tǒng)圖像檢測(cè)算法通常的做法是采集1張樣本圖片,然后使用閾值分割及形態(tài)學(xué)算法將缺陷特征篩選出來(lái),這種做法的缺點(diǎn)是采集的樣本單一且需要人工將閾值調(diào)節(jié)到適合的值,其穩(wěn)定性及可操作性不高。本文提出的自學(xué)習(xí)算法則是基于傳統(tǒng)的圖像檢測(cè)算的高層次封裝,通過(guò)采集多張樣本建立特征模型,可實(shí)現(xiàn)很好的檢測(cè)效果。近年來(lái)基于深度學(xué)習(xí)的方法發(fā)展迅猛,越來(lái)越多的科研人員及企業(yè)開始投入到深度神經(jīng)網(wǎng)絡(luò)的研究中。根據(jù)深度神經(jīng)網(wǎng)絡(luò)檢測(cè)框架的不同可以分為兩類:①基于候選窗口的網(wǎng)絡(luò)框架結(jié)構(gòu)。這種網(wǎng)絡(luò)結(jié)構(gòu)首先用設(shè)定的窗口在圖像上遍歷,選出概率較大的目標(biāo)區(qū)域,然后在對(duì)所選區(qū)域進(jìn)行預(yù)測(cè)。這類網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)勢(shì)是精度比較高,但檢測(cè)速度較慢,例如R-CNN、S PP-Net、Fast R-CNN、Faster R-CNN、R-FCN、Mask R-CNN等。②基于回歸的網(wǎng)絡(luò)框架結(jié)構(gòu)。這種結(jié)構(gòu)將檢測(cè)看成回歸問(wèn)題,不需要計(jì)算候選區(qū)域,預(yù)測(cè)一步完成。這類框架檢測(cè)速度比較快,但在精度方面一般弱于基于候選窗口的網(wǎng)絡(luò)結(jié)構(gòu),例如YOLO系列、SSD、DSSD、FSSD、RetinaNet等。基于機(jī)器視覺的方法在工業(yè)檢測(cè)領(lǐng)域有著良好的應(yīng)用背景。付斌設(shè)計(jì)的機(jī)器視覺技術(shù)在煙草包裝設(shè)備上的應(yīng)用,該方案對(duì)單張樣本使用閾值分割確定閾值然后對(duì)缺陷特征篩選,其檢測(cè)效果對(duì)光照環(huán)境的依賴性較高,魯棒性不強(qiáng)。張文、林建南等人設(shè)計(jì)的基于機(jī)器視覺的卷煙污點(diǎn)面積測(cè)量系統(tǒng),該系統(tǒng)使用傳統(tǒng)的圖像算法,檢測(cè)速度快,精度高,但其檢測(cè)的缺陷特征簡(jiǎn)單,滿足不了卷包多種缺陷類型及復(fù)雜特征的缺陷檢測(cè)。陳智斌、農(nóng)英雄、梁冬等人提出了基于深度學(xué)習(xí)的卷煙牌號(hào)識(shí)別方法,該方法使用CenterNet檢測(cè)算法,在檢測(cè)準(zhǔn)確率及模型的魯棒性取得了很好的效果,但是該方法不能兼容卷包檢測(cè)中的一些測(cè)量性質(zhì)的檢測(cè)需求。為了滿足卷包外觀多種缺陷的檢測(cè)需求,同時(shí)在檢測(cè)的準(zhǔn)確率、效率及算法的穩(wěn)定性上達(dá)到最優(yōu)的性能,本文設(shè)計(jì)1種基于深度學(xué)習(xí)+自學(xué)習(xí)技術(shù)的小盒煙包缺陷檢測(cè)系統(tǒng)。

1 系統(tǒng)組成

基于深度學(xué)習(xí)+自學(xué)習(xí)的小盒外觀缺陷檢測(cè)系統(tǒng)包含硬件設(shè)計(jì)和檢測(cè)算法設(shè)計(jì)兩個(gè)主要模塊,其中檢測(cè)算法又包含深度學(xué)習(xí)檢測(cè)算法和自學(xué)習(xí)檢測(cè)。

1.1 硬件單元設(shè)計(jì)

本系統(tǒng)是由鏡頭、光源、工控機(jī)、工業(yè)CCD、光電傳感器、圖像處理軟件及執(zhí)行機(jī)構(gòu)等部分組成,系統(tǒng)的整體架構(gòu)如下圖1所示。系統(tǒng)設(shè)計(jì)的原理是小盒煙包運(yùn)動(dòng)到光電傳感器的位置觸發(fā)相機(jī)拍照,相機(jī)將采集到的煙包圖像數(shù)據(jù)通過(guò)千兆網(wǎng)傳送給工控機(jī),然后圖像處理軟件通過(guò)本文設(shè)計(jì)的算法對(duì)采集到的煙包圖像做缺陷檢測(cè),當(dāng)檢測(cè)到缺陷時(shí),檢測(cè)程序會(huì)通過(guò)工控機(jī)輸出剔除信號(hào)通知執(zhí)行機(jī)構(gòu)執(zhí)行剔除動(dòng)作。

1.2 檢測(cè)算法設(shè)計(jì)

系統(tǒng)的檢測(cè)算法是通過(guò)深度學(xué)習(xí)+自學(xué)習(xí)的方案來(lái)實(shí)現(xiàn),根據(jù)小盒外觀的缺陷類型及背景的復(fù)雜程度來(lái)決定是使用深度學(xué)習(xí)檢測(cè)方法還是自學(xué)習(xí)檢測(cè)方法。檢測(cè)算法流程圖如圖2所示。

1.2.1 深度學(xué)習(xí)模塊

在深度學(xué)習(xí)檢測(cè)模塊中,本文采用的是1種改進(jìn)的深度可分離的YOLO v5檢測(cè)算法,相對(duì)于未改進(jìn)的YOLO v5算法在參數(shù)量和模型大小上有明顯的優(yōu)勢(shì),在檢測(cè)的mAP(均值平均精度)也有提升。

(1)YOLO v5。YOLO v5算法使用1種殘差神經(jīng)網(wǎng)絡(luò)(Darknet-53)作為特征提取層,在花費(fèi)更少浮點(diǎn)運(yùn)算和時(shí)間的情況下達(dá)到與ResNet-152相似的效果。在預(yù)測(cè)輸出模塊,YOLO v5借鑒FPN(Feature Pyramid Network)算法思想,對(duì)多尺度的特征圖進(jìn)行預(yù)測(cè),其結(jié)構(gòu)示意圖如圖3所示。

(2)深度可分離卷積。傳統(tǒng)的卷積算法在做計(jì)算時(shí),每次參數(shù)的更新迭代都會(huì)對(duì)所有通道的對(duì)應(yīng)區(qū)域進(jìn)行計(jì)算,這就使得在卷積計(jì)算過(guò)程中需要涉及大量的模型參數(shù)和更多的浮點(diǎn)運(yùn)算。而深度可分離卷積則是通過(guò)分組卷積的設(shè)計(jì)(每個(gè)通道作為一組),即先對(duì)每個(gè)通道的對(duì)應(yīng)區(qū)域進(jìn)行卷積運(yùn)算,然后再在通道間進(jìn)行信息交互,從而達(dá)到了將通道內(nèi)卷積和通道間卷積分離的目的。

假設(shè)在傳統(tǒng)卷積網(wǎng)絡(luò)算法中,其輸入圖片的尺寸為H×W×N(H代表圖片的高,W代表圖片的寬,N代表圖片的通道數(shù))與C個(gè)尺寸為k×k×N(k×k代表卷積核的高和寬,N代表卷積核的通道數(shù))的卷積核進(jìn)行卷積運(yùn)算時(shí),其輸出特征圖的尺寸為H×W×C(padding=floor(k/2),stride=1)。在不考慮偏置(bias)的情況下,所需參數(shù)量為N×k×k×C,計(jì)算復(fù)雜度為O(H×W×k×k×N×C),卷積過(guò)程如下圖4所示。

在深度可分離卷積中,是將卷積過(guò)程分為深度卷積(Depthwise Convolution)和逐點(diǎn)卷積(Pointwise Convolution)兩個(gè)部分。在深度卷積中,用尺寸大小為k×k卷積核對(duì)輸入的同一通道類進(jìn)行卷積運(yùn)算,提取到的是1個(gè)通道內(nèi)的特征信息,其參數(shù)量為N×k×k,計(jì)算復(fù)雜度為O(H×W×k×k×N),深度卷積不進(jìn)行通道間的信息融合。逐點(diǎn)卷積則是利用C個(gè)尺寸大小為1×1×N的卷積核對(duì)通道間的信息進(jìn)行融合,在實(shí)現(xiàn)通道間信息交互的同時(shí)可調(diào)控通道數(shù)量,其參數(shù)量為N×1×1×C,計(jì)算復(fù)雜度為O(H×W×1×1×N×C),卷積過(guò)程如下圖5所示。

以3×3的卷積核為例,經(jīng)過(guò)改進(jìn)的深度可分離卷積網(wǎng)絡(luò)所需的參數(shù)量?jī)H約為傳統(tǒng)卷積網(wǎng)絡(luò)的1/9,并且運(yùn)算量也降到約為原來(lái)的1/9,在不犧牲算法準(zhǔn)確率的情況下降低了計(jì)算開銷,提升了算法效率。

1.2.2 自學(xué)習(xí)模塊

在自學(xué)習(xí)的缺陷檢測(cè)算法中,通過(guò)學(xué)習(xí)正樣本的特征建立起缺陷檢測(cè)模型,可精確檢測(cè)出煙包常見的缺陷。在實(shí)際使用中還可將誤剔的煙包圖像動(dòng)態(tài)地添加到正樣本圖片中,實(shí)時(shí)優(yōu)化模型。這種通過(guò)學(xué)習(xí)正樣本圖像特征的自學(xué)習(xí)算法,無(wú)論是檢測(cè)準(zhǔn)確性還是操作的方便性,相對(duì)于傳統(tǒng)的基于單張圖片的檢測(cè)算法都具有無(wú)法比擬的優(yōu)越性。自學(xué)習(xí)檢測(cè)方法通過(guò)學(xué)習(xí)若干正樣本的圖像,建立器基于像素點(diǎn)的檢測(cè)模型,在檢測(cè)模型中計(jì)算出樣本圖像像素點(diǎn)的平均值及標(biāo)準(zhǔn)偏差。

像素點(diǎn)平均灰度計(jì)算公式:

M(x,y)=[P1(x,y)+P2(x,y)+……Pn(x,y)]/n (1)

像素點(diǎn)灰度標(biāo)準(zhǔn)偏差計(jì)算公式:

V(x,y)=sqrt(((P1(x,y)-M(x,y))2+(P2(x,y)-M(x,y))2+……(Pn(x,y)-M(x,y))2)/(n-1)) (2)

樣本檢測(cè)模型建立好之后,可以用此模型來(lái)檢測(cè)煙包的缺陷,對(duì)于新輸入的一張煙包圖片,其檢測(cè)算法流程如下。

(1)設(shè)置參數(shù)絕對(duì)閾值A(chǔ)bsThreshold和相對(duì)系數(shù)閾值VarThreshold。

(2)計(jì)算允許正常灰度值的最大值與最小值。

最大值:Gmax(x,y)=M(x,y)+max {AbsThreshold,VarThreshold*V(x,y)} ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (3)

最小值:Gmin(x,y)= M(x,y)-max{AbsThreshold,VarThreshold*V(x,y)} ? (4)

(3)將當(dāng)前值C(x,y)與Gmax(x,y),Gmin(x,y)做對(duì)比,滿足如下條件的像素點(diǎn)將被檢測(cè)為缺陷點(diǎn):

C(x,y)>Gmax(x,y) U C(x,y)<Gmin(x,y) (5)

2 實(shí)驗(yàn)與分析

2.1 試驗(yàn)設(shè)計(jì)

操作系統(tǒng):Window10系統(tǒng)

硬件環(huán)境:CPU型號(hào)為Inter(R) Core(TM) i7-8700;主頻為3.2 GHz安裝內(nèi)存為16 GB;深度學(xué)習(xí)框架是Tensor flow1.14;顯卡配置為1塊 Nvidia GeForce RTX 2080 Ti,顯存為11 GB。具體實(shí)驗(yàn)環(huán)境見表1。

數(shù)據(jù)集選用武漢卷煙廠黃鶴樓軟藍(lán)的煙包圖像,圖像原始分辨率為640*480。該數(shù)據(jù)集中包含正常圖片及漏煙、封簽歪斜、邊口炸裂、邊角折疊4種常見的缺陷圖片(圖6所示),缺陷圖像使用Labimg進(jìn)行標(biāo)注。實(shí)驗(yàn)時(shí)共選用16933圖片進(jìn)行測(cè)試,其中正常圖片5124張,漏煙圖片2955張,封簽歪斜圖片2933張,邊口炸裂圖片2980張,邊口折疊圖片2941張。具體實(shí)驗(yàn)數(shù)據(jù)見表2所示。在實(shí)驗(yàn)中,將圖像裁剪成512*512的大小并輸入到骨干網(wǎng)絡(luò),批量大小(batch size)設(shè)置為8,學(xué)習(xí)率設(shè)定為0.000125,并使用數(shù)據(jù)增強(qiáng)來(lái)提高模型的泛化能力,共訓(xùn)練100個(gè)epoch。

在自學(xué)習(xí)模塊中采集正樣本圖片200張,設(shè)置絕對(duì)閾值A(chǔ)bsThreshold=20,相對(duì)系數(shù)為VarThreshold=2。

2.2 實(shí)驗(yàn)結(jié)果與分析

單一使用深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)數(shù)據(jù)集中的幾種類型圖片進(jìn)行測(cè)試,其準(zhǔn)確率、誤剔率、平均耗時(shí)如表3所示。

單一使用自學(xué)習(xí)的方法對(duì)數(shù)據(jù)集中的幾種類型圖片進(jìn)行測(cè)試,其準(zhǔn)確率、誤剔率、平均耗時(shí)如表4所示。

使用深度學(xué)習(xí)+自學(xué)習(xí)的方法對(duì)數(shù)據(jù)集中的幾種類型圖片進(jìn)行測(cè)試,其準(zhǔn)確率、誤剔率、平均耗時(shí)如表5所示。

由上表測(cè)試數(shù)據(jù)可得出:

(1)封簽歪斜這種缺陷,使用深度學(xué)習(xí)的方法檢測(cè)效果并不理想,其準(zhǔn)確率僅為96.57%,誤剔率為0.11%,而使用自學(xué)習(xí)的方法準(zhǔn)確率可達(dá)100%,誤剔率0.0%。

(2)對(duì)于邊角折疊這種缺陷,由于存在鐳射過(guò)曝與折疊的白色區(qū)域在灰度和形態(tài)上存在一定的相似性,這種使用自學(xué)習(xí)方法在準(zhǔn)確率和誤剔率指標(biāo)上沒(méi)有使用深度學(xué)習(xí)網(wǎng)絡(luò)檢測(cè)的效果好。

(3)對(duì)于封簽歪斜缺陷,使用傳統(tǒng)測(cè)量這種定量方法進(jìn)行檢測(cè)效果更好;對(duì)于邊角折疊這種缺陷,使用擅長(zhǎng)模糊檢測(cè)的深度學(xué)習(xí)網(wǎng)絡(luò)來(lái)做檢測(cè)更合適。

結(jié)論:使用深度學(xué)習(xí)+自學(xué)習(xí)的方法可以充分結(jié)合出兩種檢測(cè)方法的優(yōu)勢(shì),其綜合檢測(cè)效果要優(yōu)于單一使用深度學(xué)習(xí)檢測(cè)方法或單一使用自學(xué)習(xí)檢測(cè)

方法。

3 結(jié)語(yǔ)

本文提出了一種基于深度學(xué)習(xí)+自學(xué)習(xí)的方法來(lái)檢測(cè)小盒外觀表面缺陷。根據(jù)小盒外觀的缺陷類型及缺陷背景的復(fù)雜程度,來(lái)分配使用深度學(xué)習(xí)方法檢測(cè)或使用自學(xué)習(xí)方法檢測(cè),可以充分結(jié)合兩種檢測(cè)方法的優(yōu)勢(shì),使其綜合檢測(cè)效果要優(yōu)于單一使用深度學(xué)習(xí)方法或單一使用自學(xué)習(xí)的方法。在后續(xù)的研究中,研究的重點(diǎn)將集中在決策模塊的開發(fā),使其能根據(jù)缺陷類型及背景的復(fù)雜程度自動(dòng)選擇使用深度學(xué)習(xí)的方法或自學(xué)習(xí)的方法進(jìn)行檢測(cè)。

參考文獻(xiàn)

[1] 李煒,黃心漢,王敏,等.基于機(jī)器視覺的帶鋼表面缺陷檢測(cè)系統(tǒng)[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2003,31(2):72-74.

[2] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7533):436-444.

[3] IGLOVIKOV I,SEFERBEKOV S,BUSLAEV A,et al.TernausNetV2:Fully convolutional network for instance segmentation[C].2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.2018:233-237.

[4] 姚群力,胡顯,雷宏.深度卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測(cè)中的研究進(jìn)展[J].計(jì)算機(jī)工程與應(yīng)用,2018,54(17):1-9.

[5] GIRSHICK R,DONAHUE J,DARRELLAND T,et al.Rich feature hierarchies for accurate object detection andsemantic segmentation[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.2014:580-587.

[6] HE K M,ZHANG X Y,REN S Q,et al.Spatial pyramid pooling in deep convolutional networks for visual recognition[J].IEEE Transactions on Pattern Analysis & Ma-chine Intelligence,2015,37(9):1904-1916.

[7] GIRSHICK R.Fast R-CNN[C].IEEE International Conference on Computer Vision.2015:1440-1448.

[8] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks[C].International Conference on Neural Information Processing Systems,2015:91-99.

[9] CHEN X L,GUPTA A.An implementation of faster R-CNN with study for region sampling[J].arXiv:1702.02138,2017.

[10] DAI J F,LI Y,HE K M,et al.R-FCN:Object detectionvia region-based fully convolutional networks[J].Computer Vision and Pattern Recognition,2016,20:379-387.

[11] HE K M,GKIOXARI G,DOLL R P,et al.Mask R-CNN[C].IEEE International Conference on Computer Vision,2017:2980-2988.

[12] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:Unified,real-time object detection[C].IEEE ?Conference on Computer Vision and Pattern Recognition,2016:779-788.

[13] REDMON J,F(xiàn)ARHADI A.YOLO9000:Better,faster,stronger[C].IEEE Conference on Computer Vision and Pattern Recognition,2017:6517-6525.

[14] REDMON J,F(xiàn)ARHADI A.YOLOv3:An incremental improvement[C].IEEE Conference on Computer Vision and Pattern Recognition,2018:89-95.

[15] LIU W,ANGUELOV D,ERHAN D,et al.SSD:Single shot multibox detector[C].European Conference on Computer Vision,2016:21-37.

[16] FU C Y,LIU W,RANGA A,et al.DSSD:Deconvolutional single shot detector[J].arXiv:1707.06659,2017.

[17] LI Z,ZHOU F.FSSD:Feature fusion single shot multibox detector[J].arXiv:1712.00690,2017.

[18] LIN T Y,GOYAL P,GIRSHICK R,et al.Focal loss for dense object detection [C].Proceedings of the IEEE International Conference on Computer Vision,2017:2980-2988.

[19] 陳治杉,劉本永.基于機(jī)器視覺的晶圓表面缺陷檢測(cè)[J].貴州大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,36(4):68-73.

[20] 姚明海,陳志浩.基于深度主動(dòng)學(xué)習(xí)的磁片表面缺陷檢測(cè)[J].計(jì)算機(jī)測(cè)量與控制,2018,26(9):29-33.

[21] 魏若峰.基于深度學(xué)習(xí)的鋁型材表面瑕疵識(shí)別技術(shù)研究[D].杭州:浙江大學(xué),2019.

[22] 高欽泉,黃炳城,劉文哲,等.基于改進(jìn)CenterNet的竹條表面缺陷檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用:1-8[2021-03-10].

[23] LIN T Y,DOLLáR P,GIRSHICK R,et al.Feature pyramid networks for object detection[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE,2017:936-944.

猜你喜歡
機(jī)器視覺深度學(xué)習(xí)
全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
基于機(jī)器視覺的自動(dòng)澆注機(jī)控制系統(tǒng)的研究
科技視界(2016年26期)2016-12-17 17:31:58
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
大場(chǎng)景三維激光掃描儀在研究生實(shí)踐教學(xué)培養(yǎng)中的應(yīng)用
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于機(jī)器視覺的工件鋸片缺陷檢測(cè)系統(tǒng)設(shè)計(jì)
軟件工程(2016年8期)2016-10-25 15:55:22
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 99视频免费观看| 日韩精品毛片| 91蜜芽尤物福利在线观看| 色综合久久88| 国产久草视频| 亚洲中文制服丝袜欧美精品| 先锋资源久久| 亚洲人成网址| 免费高清自慰一区二区三区| 亚洲视频影院| 亚洲成a∧人片在线观看无码| 色噜噜综合网| 国产男女免费完整版视频| 亚洲最黄视频| 综合社区亚洲熟妇p| 亚洲午夜福利在线| 尤物视频一区| 午夜不卡视频| 最新国产精品鲁鲁免费视频| 国产视频入口| 国产无码性爱一区二区三区| 欧美国产日产一区二区| 亚洲精品日产精品乱码不卡| 色噜噜久久| 欧洲成人在线观看| 亚洲高清中文字幕| 欧美成人亚洲综合精品欧美激情| 欧美区在线播放| 国产9191精品免费观看| 高清久久精品亚洲日韩Av| 久久成人18免费| www成人国产在线观看网站| 亚洲美女高潮久久久久久久| 欧美一区二区三区国产精品| 伊人久久影视| 国产色偷丝袜婷婷无码麻豆制服| 一级香蕉视频在线观看| 99久久婷婷国产综合精| 欧美劲爆第一页| 日本AⅤ精品一区二区三区日| 无码不卡的中文字幕视频| 欧美日韩高清| 久久精品国产精品青草app| 极品国产一区二区三区| 草逼视频国产| 91久久精品国产| 欧美日韩一区二区在线播放 | 久久人人97超碰人人澡爱香蕉| 毛片大全免费观看| 国产丝袜91| 国产精品55夜色66夜色| 中国国产A一级毛片| 色丁丁毛片在线观看| 久久综合成人| 怡红院美国分院一区二区| 人妻少妇久久久久久97人妻| 亚洲国产精品无码AV| 国产成人1024精品| 欧洲亚洲欧美国产日本高清| 黄色网页在线播放| 毛片卡一卡二| 91亚洲精选| 国产视频大全| 欧美激情第一欧美在线| 日韩在线2020专区| 人妻21p大胆| 91精品视频播放| 一级毛片免费高清视频| 久久中文无码精品| 波多野结衣在线一区二区| 国产精品综合久久久| 国产精品va免费视频| 亚洲无码在线午夜电影| 99热这里只有精品国产99| 国产精品3p视频| 99在线免费播放| 亚洲日韩AV无码精品| 99精品视频在线观看免费播放| 精品国产Ⅴ无码大片在线观看81| 人妻91无码色偷偷色噜噜噜| 欧美一级一级做性视频| 国产人人射|