999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于工業工件識別的粗定位研究

2023-12-08 02:39:42高寶林萬國揚葛凌楓
安徽工程大學學報 2023年4期
關鍵詞:特征提取特征檢測

高寶林,萬國揚,江 明*,葛凌楓

(1.高端裝備先進感知與智能控制教育部重點實驗室,安徽 蕪湖 241000;2.安徽工程大學 電氣工程學院,安徽 蕪湖 241000)

伴隨著中國現代化工業的持續發展,具有便捷性、精確性、迅速性、智能化等優點的目標檢測技術被廣泛應用于工業生產各領域,使得我國對產業化人工智能機器人技術需求日益增加。目前工業上主流的目標檢測方法分為兩類,根據不同側重點可分為著重檢測精度的“雙階段(Two-stage)”目標檢測算法和著重實時檢測速率的“單階段(One-stage)”目標檢測算法,側重點不同,應用不同。

雙階段目標檢測代表性算法于2014年開始陸續提出,其中R-CNN[1]、Fast R-CNN[2]和Faster RCNN[3]檢測算法等得到廣泛應用。但該算法雖然極大提升了目標檢測準確率,但繁瑣的兩步走著重于精度而欠考慮檢測速率,實時性欠缺使其算法不足,不能很好地完成工業化實時性要求較高的檢測任務。

為提高模型的實時檢測速率,更好地應用于工業化目標檢測,2015年,Redmon等[4]提出了基于深度學習的YOLO 檢測算法,避免了R-CNN 系列中將檢測任務分兩步走的繁瑣操作,使得檢測速度得到大大提升。為進一步提升檢測精度,Redmon等[5]于2018年提出了YOLO V3(You Only Look Once V3)算法。該算法采用特征金字塔網絡[6](Feature Pyramid Network,FPN)方法融合3個不同尺寸的特征圖層(Feature Map)進行檢測任務,檢測的精度和速率得到了很好得協調及提升,達到工業實時檢測的要求,在當今工業智能化產線中得到了廣泛的應用。

近年,國內外也有很多學者通過改進目標檢測算法來提升目標檢測精度,對本文有許多參考作用。Liu等[7]提出一種基于加權純注意力機制的深度學習模型,采用純注意力機制,引入權重參數,提高模型預測性能;Chen等[8]提出一種AFYOLO 模型,在骨干網的底層引入Dense Net模塊,提出一種新的FPN網絡結構,增強目標信息傳輸能力的同時,提高骨干的特征提取能力;王宸等[9]通過改進Efficient-Net模型,引入特征融合層,對工業鍛粉探傷識別進行了優化,提高模型魯棒性和檢測效率;程婧怡等[10]提出一種改進工業金屬表面的缺陷檢測算法,算法融合淺層特征與深層特征,適用于尺寸小和特征模糊目標檢測,取得了不錯的效果。

本文以工業鑄件數據集作為檢測對象,數據資源采用專業工業相機獲取?;谀壳肮I流水線式工件分揀現狀,全階段只應用一種高階目標檢測算法會導致算法計算量龐大,檢測速率降低等問題。故結合現狀提出一種兩步識別定位模式:首先運用低階算法進行粗定位,再運用高階算法對篩選后的工件進行精定位的方法,提升檢測精確度。本文研究主要針對工件識別定位中粗定位階段YOLO V3算法檢測時存在的識別率偏低等問題,通過不斷優化調整,使得粗定位階段檢測精度有所提升。

1 工業檢測原理及本文研究

本文對工件識別定位研究,旨在應用于大型工業化產線工件識別分揀任務中。檢測原理依據模板匹配原理[11],以已知標定的工件作為模板,通過工業相機實時采集成像,在每幅圖像中依次進行模板匹配,識別出與模板特征信息近似的區域,進而定位目標工件,再進行后續機械臂分揀任務。

在目標檢測算法的選取上,通過綜合考量識別速度和精度,直接使用卷積層更深、更寬的目標檢測算法存在許多問題難以解決。直接使用高階目標檢測算法固然能得到準確識別定位,但是其龐大的計算量,以及多種形狀、尺寸不一的工件,復雜度高,運算量和存儲量以幾何數增長。其檢測速度必然有所下降,誤檢率隨之提升。所以針對于以上問題,提出一種先粗定位、后精定位的兩步識別定位模式。首先選用更加輕量化的目標檢測算法進行粗定位,快速篩選出目標工件信息。再使用卷積深度和寬度更高的目標檢測算法對篩選后的工件進行精準定位分揀。

在粗定位階段最終選取工業廣泛應用的YOLO V3作為初始算法框架,進行初步測試。在實際檢測中發現YOLO V3對本數據集工件的定位精度和檢測速率仍有提升空間,主要體現在主干特征提取網絡對于工件數據集不同大小尺寸、形狀差異過大等問題,不能很好地提取到工件深度信息,同時特征提取環節對不同尺寸的空間特征信息融合也不夠充分,導致實驗結果出現置信度低、多工件誤檢率高等問題。

通過協調算法各模塊功能特性,選取以Efficient-Net網絡[12]代替YOLO V3的Darknet53主干特征提取網絡,引入SPP模塊[13]加深網絡特征提取能力并擴大卷積核感受野,減小計算量的同時提升工件檢測的識別精度和完整度。再通過K-means++算法[14]對Anchor框進行重聚類,應用CIOU 位置損失[15]的方法,獲得了適應于工件數據集的9組錨框,同時提升了損失函數擬合速度,有益于提升非極大值抑制NMS[16]篩選速度,提升粗定位階段檢測精度和檢測速率。

2 改進YOLO V3工件識別定位算法

2.1 YOLO V3目標檢測算法

本文工業檢測系統采用YOLO V3算法框架,YOLO V3算法是基于YOLO 和YOLO V2的改進算法,其在算法精確度、實時檢測能力、系統穩定性方面都有不錯的體現,在工業生產中得到了廣泛應用。算法將圖像進行網格劃分,在每個網格中篩選有用信息,支持數據集多種類別識別檢測,能夠在確保精度的同時獲得更快的檢測速率。該算法以Darknet53結構作為特征提取網絡,張量的尺寸變換通過改變卷積核的步長來實現。網絡采用步長為2的卷積進行下采樣,并在每個卷積層后都附帶一個批歸一化層BN和Leaky Re LU 激活層,減少計算量的同時,保留了圖片的更多信息,再結合殘差模塊提升檢測精度。算法中端采用特征金字塔網絡FPN 結構對不同層次的特征圖進行融合,以實現對不同尺度目標的預測。網絡輸出層采用三層特征圖進行預測,并通過非極大值抑制NMS算法獲得最終的檢測結果。其網絡結構如圖1所示。

圖1 YOLO V3結構圖

2.2 特征提取網絡改進

針對YOLO V3目標檢測算法存在的不足,通過優化網絡主干結構,引入SPP 結構等,用以優化模型,提高檢測能力,改進后總結構圖如圖2所示。

圖2 改進后模型結構圖

通過對多種特征提取網絡進行對比驗證,最終選取Efficient-Net網絡用于工件特征提取。Efficient-Net特征提取網絡以其網絡結構簡單、參數量較少、訓練速度提升等特點被廣泛應用于目標檢測等相關領域,獲得了很好的精確度。Efficient-Net是一個結合神經網絡搜索技術的多維度混合放縮的網絡,通過利用殘差神經網絡加深神經網絡深度,通過改變每一層提取的特征層數,并增大輸入圖片的分辨率,增強了對網絡特征提取的深度和寬度,使得學習和表達的信息更加豐富。其中深度、寬度和分辨率的放大倍率是由一個混合系數φ決定的:

式中,α、β、γ和φ為固定常數。α=1.2,β=1.1和γ=1.15為令φ=1時通過網格搜索獲得的最優常數,從而確定最基本的Efficient-Net-B0模型。在固定α=1.2,β=1.1和γ=1.15后,通過使用不同的φ值,從而計算出B0~B7模型的深度系數、寬度系數和分辨率。而Efficient-Net系列網絡的FLOPS(每秒浮點運算次數)是由(α·β2·γ2)φ決定的。在α·β2·γ2≈2約束下,Efficient-Net系列的FLOPS約等于原來的2φ。

本實驗選用Efficient-Net-B0網絡結構用以提取特征信息,確保檢測精度的同時,減少參數量,提高實時檢測能力。該結構由1個Stem+16個MBConv組成。首先利用Stem 進行初步的特征提取,結構實際包括卷積+標準化+激活函數。其次經過16個MBConv,在MBConv堆疊的過程中完成高效的特征提取。將網絡提取出3個有效特征層代替原有Darknet53網絡提取有效特征層,用以提高對工件深度信息的獲取能力。正是由于Efficient-Net-B0網絡結構清晰簡單、參數量較少等特性,使得訓練速度提升,簡化了訓練復雜度。Efficient-Net-B0網絡結構如圖3所示。

圖3 Efficient-Net-B0流程圖

MBConv是Efficient-Net重要組成模塊,由深度可分離卷積Depth Wise Conv和通道注意力機制SE Net構成,是Efficient-Net網絡進行深度特征提取的關鍵所在。而SE Net結構用以壓縮與激發網絡,網絡通過loss損失獲取特征權重,使得有效的特征通道權重增大,無效或低效的特征通道權重減小的方式分配各通道不同比重,達到更好的檢測效果。算法通過全局平均池化操作實現,將特征圖每個通道特征進行壓縮,再通過學習特征權重,賦予每個通道對應權重值,進而按照特征重要程度匹配對應權重值。其結構圖如圖4所示。

圖4 MBConv結構圖

2.3 引入SPP結構及CIOU

SPP結構是將特征圖分別映射到多種維度空間并將這些多重感受野融合的池化方法,網絡結構對不同輸入尺寸的圖像信息能夠獲得固定長度的輸出。算法通過對不同特征層融合處理,使卷積核感受的視野范圍更加廣闊,豐富了特征圖的表達能力,有利于提取檢測目標的多尺度特征信息。

設輸入尺寸為Win×Hin×Cin,當期望池化層輸出尺寸為n,此時池化不改變Channel,所以Cout=Cin,輸出尺寸為n×n×Cout。

池化層的Kernel Size為:

池化層的Stride為:

池化層的Padding為:

根據卷積層池化層輸出尺寸公式得到:

本文實驗中,在YOLO V3目標檢測算法的Feature Layer 1通道引入SPP結構,空間金字塔池化提取到固定大小的特征,導入全連接層,防止過擬合。

應用CIOU 損失函數,在IOU 的基礎上考慮到真實框和預測框的中心點距離(圖5中的d)與兩個框中最小包裹框的對角線距離(圖5中的c,最小包裹矩形框為圖中虛線部分)的位置關系,真實框與預測框的位置圖如圖5所示。在DIOU 基礎上考慮到在兩個框中心點重合時,c與d的值都不變,引入框的寬高比。

圖5 真實框與預測框位置圖

其中IOU 用來度量目標檢測中預測框與真實框的重疊程度。用預測框A和真實框B的交集除上二者的并集,其公式為:

則CIOU 的表達式為:

CIOU 回歸時的LOSS計算公式為:

式中,ρ2(b,bgt)代表圖5中兩框中心點距離,即為圖中的d、c代表兩框對角線距離;α是權重函數;v用來度量寬高比的一致性。

2.4 K-means++聚類錨框

為克服K-means聚類對初值不穩定的缺點,根據本實驗不同工件類別寬高比,采用K-means++算法對Anchor框重新進行了聚類。K-means++是通過當前樣本點到已有中心點的距離給出該樣本點成為下一個聚類中心的概率,兩點之間距離越大則概率越大,然后根據概率大小抽選下一個聚類中心位置,不斷重復直至抽取K 個聚類中心,如圖6所示。通過K-means++算法獲取的九組錨框尺寸,更加契合本文應用的工件數據集,有利于后續的篩選預測框、交并比計算等算法運行。

圖6 K-means++聚類圖

聚類步驟首先初始化第一個聚類中心點,搜索剩余樣本點,計算每個樣本點到此中心點的距離,記為D(x),D(x)值的大小決定了該樣本點成為下一個中心點概率的大小。繼而采用輪盤法獲取設定的9個聚類中心點。算法公式表示為:

最終通過K-means++聚類算法得到對應工件數據集的九組錨框尺寸如表1所示。

表1 九組錨框尺寸

3 實驗和分析

實驗操作系統為Windows 10,處理器為Intel(R)Core(TM)i7-10700 CPU@2.90 GHz,顯卡NVIDIA GeForce RTX 3060,CUDA 版本選用11.3。模型訓練共迭代500次,批次大小設置為10,初始學習率設置為0.000 1,衰減系數設為0.000 5,降低其泛化性能。

3.1 圖像采集

數據集采集采用專業工業相機,型號為:MV-CA004-10UC。該型號單目相機擁有40萬像素,對檢測工件的輪廓清晰度、拍攝光感度都有很大提升,廣泛應用于工業型圖像數據采集。在實際圖像采集中,共采集分辨率為720×540的工件圖像1 044張,按類別分為object1、object2、object3、object4、object5、object6六類。將訓練集、測試集按照8∶2進行隨機抽選,獲得訓練集835張,測試集209張。六種工件如圖7所示。

圖7 六工件示意圖

3.2 評價標準

本文采用mAP和檢測速率FPS作為模型的評價指標。精確度用來衡量目標檢測的準確度,為計算m AP的參數之一,公式如下:

召回率用來衡量識別過程的漏檢率,公式如下:

其中,式(7)、(8)中,TP表示正確歸類到目標樣本的數量;FP表示錯誤歸類到目標樣本的數量;FN表示識別錯誤的數量。AP值是以Precision作為縱坐標,Recall作為橫坐標于坐標系中所圍成曲線的面積,公式如下:

m AP值為多類AP值的平均值,即平均AP值。計算公式如下:

式中,QR指驗證集個數。

3.3 實驗結論

本文算法改進在無預訓練權重的條件下,對工件數據集進行對比驗證。本文提出的改進算法與YOLO V3系列算法及SSD 和YOLO V4算法檢測結果對比如表2所示。改進算法與原始YOLO V3實物檢測效果對比如圖8所示。

表2 改進算法與原YOLO V3性能對比

圖8 工件檢測實物圖

本文通過對YOLO V3檢測算法功能模塊改進,測評指標mAP提升2.8%,召回率提升4.4%,識別速率提升7/fps,使得在工件識別分揀粗定位階段得到更高的檢測精度和檢測速率,對整體的運行流程及后續的精定位篩選都起到促進作用。

4 結論

為在大型工業化產線工件識別定位中,提升工件的定位精度和檢測速率,提出在粗定位階段運用YOLO V3目標檢測算法作為檢測框架,通過選用更輕量化的主干特征提取網絡,增強卷積核感受野、優化交并比等方法,使得算法學習和表達的信息更加豐富,實現更深的神經網絡特征提取。

相比較于原版YOLO V3網絡結構應用于粗定位階段,改進算法通過選用網絡結構更輕量簡單的Efficient-Net特征提取網絡,通過其殘差神經網絡加深網絡深度與寬度,豐富了特征提取網絡的深度信息。在原算法基礎上再引入SPP結構,運用池化的方法將多重感受野融合,獲取深層的多尺度特征信息。選用CIOU 損失函數,在交并比計算時可以兼顧到多種真實框與預測框位置關系變化,提升定位的準確度。而預處理階段的K-means++算法針對于本數據集工業鑄件的尺寸及形狀,聚類出更加契合的九組錨框,對后續的目標提取、交并比計算都有所幫助。改進后的算法模型在保證了檢測速率的同時,定位精度有所提升,使得在粗定位階段能夠更精確地完成初步篩選任務,為后續的精確定位提供更可靠的分揀來源,降低檢測復雜度,也為優化大型工業化產線工件識別分揀系統提出自己的思路。

猜你喜歡
特征提取特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
小波變換在PCB缺陷檢測中的應用
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 国产噜噜噜| 国内精品九九久久久精品| 小蝌蚪亚洲精品国产| 亚洲综合片| 秋霞一区二区三区| 一区二区午夜| 国产亚洲现在一区二区中文| 亚洲天堂久久新| 99九九成人免费视频精品| 99热这里都是国产精品| 欧美精品v欧洲精品| 97超碰精品成人国产| 波多野结衣爽到高潮漏水大喷| 国产91全国探花系列在线播放| 欧美三级不卡在线观看视频| 国产精品尤物铁牛tv | a级毛片一区二区免费视频| 国产农村妇女精品一二区| 99中文字幕亚洲一区二区| 国产成人a毛片在线| 久久久国产精品免费视频| 亚洲欧美成aⅴ人在线观看| 91亚洲免费视频| 国产成人精品高清不卡在线| 亚洲啪啪网| 日本国产一区在线观看| 香蕉久久国产超碰青草| 国产成人无码AV在线播放动漫| 国产综合色在线视频播放线视| 中文字幕精品一区二区三区视频| 欧美激情综合| 免费aa毛片| 亚洲一区二区精品无码久久久| 国产性生大片免费观看性欧美| 日韩黄色大片免费看| 青青网在线国产| 精品人妻一区二区三区蜜桃AⅤ| 手机在线国产精品| 秋霞午夜国产精品成人片| 欧美成人午夜视频免看| 99热免费在线| 美女扒开下面流白浆在线试听 | 91黄视频在线观看| 日日拍夜夜操| 久久综合丝袜日本网| 国产美女91呻吟求| 亚洲成a人片| 国产精品yjizz视频网一二区| 三上悠亚在线精品二区| 孕妇高潮太爽了在线观看免费| 欧美日韩免费| 一区二区午夜| 波多野结衣视频网站| 天天做天天爱天天爽综合区| 不卡的在线视频免费观看| 国产午夜福利在线小视频| 午夜国产大片免费观看| 日韩精品一区二区三区视频免费看| 亚洲一区二区精品无码久久久| 亚洲系列无码专区偷窥无码| 国产精品青青| 国产精品毛片在线直播完整版 | 97青草最新免费精品视频| 女人18一级毛片免费观看| 欧美一级在线播放| 精品91在线| 日韩不卡高清视频| 久久这里只有精品国产99| 欧美成人A视频| 在线看片国产| 任我操在线视频| 日韩高清欧美| 免费看美女毛片| 99在线观看精品视频| 永久免费无码成人网站| 日韩黄色在线| 久久久久久久久亚洲精品| 日韩精品毛片人妻AV不卡| 欧美综合中文字幕久久| 午夜国产大片免费观看| 美女无遮挡拍拍拍免费视频| 97se亚洲|