尹振漢 任亞飛 張寶池 張帥兵 石義彬











摘? 要:為解決當前軸承質檢人工成本高,效率低的問題,在對現有軸承缺陷檢測算法方案進行研究后,提出了一種基于語義分割的實時在線軸承缺陷識別系統。在六面體黑室中配合高精度電動轉臺采集高質量軸承照片,利用小波SURE自適應閾值去噪法對圖像進行預處理。選用語義分割的方法進行缺陷檢測,在傳統FCN算法的基礎上,提出采用PSPNet分割算法,該算法可以融合更多的全局信息以解決誤分割、漏分割的問題。并對模型進行不斷評估,優化進程。經實驗測得識別準確率高達97.75%,符合工業質檢需求。
關鍵詞:缺陷檢測;語義分割;六面體黑室;小波閾值去噪;PSPNet
中圖分類號:TP273+.4? ? ? ? 文獻標識碼:A文章編號:2096-4706(2022)03-0145-04
Research on Bearing Defect Detection System Based on Semantic Segmentation
YIN Zhenhan, REN Yafei, ZHANG Baochi, ZHANG Shuaibing, SHI Yibin
(Luoyang Institute of Science and Technology, Luoyang? 471023, China)
Abstract: In order to solve the problems of high labor cost and low efficiency of bearing quality inspection, after studying the existing bearing defect detection algorithm scheme, a real-time online bearing defect recognition system based on semantic segmentation is proposed. In the hexahedral black chamber, high quality bearing photos are collected with high-precision electric turntable, and the images are preprocessed by wavelet SURE adaptive threshold denoising method. The semantic segmentation method is selected for defect detection. Based on the traditional FCN algorithm, the PSPNet segmentation algorithm is proposed, which can fuse more global information to solve the problem of false segmentation and missing segmentation. The model is continuously evaluated to optimize the process. The experimental results show that the recognition accuracy is as high as 97.75%, which meets the needs of industrial quality inspection.
Keywords: defect detection; semantic segmentation; hexahedral black chamber; wavelet threshold denoising; PSPNet
0? 引? 言
軸承作為工業裝置中常用的零部件,在機件與機件的相對運動中起到了舉足輕重的作用。軸承套圈的制作工序復雜,包含鍛造、退火、車削、淬火、回火、磨削等工序。近年來,隨著高端制造的快速發展,對軸承產品質量的要求也大為提高。要求軸承套圈表面不能有凹坑、燒傷、裂紋、倒角等缺陷。因為缺陷的存在不僅影響到軸承外觀,更重要的是,在一些高精度器械中,若缺陷嚴重,則可能導致精度不達標,影響與其他零件間的配合,使其性能大大下降,埋下安全隱患。經過實地調研發現,目前國內對于軸承的無損檢測大多使用人工觀察、磁粉檢測、渦流探傷的方式。現場調研表明,人工檢測不但用工量大、效率低,而且由于長時間的工作容易出現漏檢的情況。磁粉檢測法雖然準確率較高,但是檢測前需要對待檢測件進行磁化,檢測結束后還要進行去磁處理,檢測效率相對較低,只適用于產品的抽樣檢測。而常用的渦流探傷檢測技術,雖然是非接觸式的,但是其檢測速度較慢。且不適用于端面倒角大小邊、過車缺陷的檢測。因此,利用機器視覺技術研制出一套能實現在線、實時、準確的檢測軸承套圈外觀缺陷的非接觸式自動化檢測系統是企業迫切需要的。
在對現有軸承缺陷檢測算法方案的研究中發現,識別方法主要有以下兩種,一種是基于圖像處理,另一種是基于機器學習。由于金屬表面反光的問題,利用普通基于圖像處理的算法檢測的準確率受環境的影響較大,且對于語義復雜易混淆的圖像識別效果有待提高。在基于機器學習的算法中,大多神經網絡模型只關注局部的語義信息,而忽視全局信息導致識別準確率不高,無法滿足企業實際的質檢所要求的精度與魯棒性。鑒于以上問題,在硬件方面,本文選擇自主設計檢測系統的機械結構,通過搭建六面體黑室來解決金屬表面反光問題,利用高精度電動旋轉臺配合高清工業相機來拍攝軸承全方位照片,獲得高質量數據集。軟件方面,利用小波SURE自適應閾值去噪法對圖像進行預處理。選用語義分割的方法來進行缺陷檢測,在傳統FCN算法的基礎上采用PSPNet分割算法,可以融合更多的全局信息以解決誤分割、漏分割的問題。通過對模型進行不斷評估,優化進程,最終得到滿足理想預期的識別效果。并在軸承廠中進行大量測試,得到系統檢測軸承缺陷的準確率高達97.75%。在目前現有的識別算法的基礎上有了很大的提高。
1? 圖像獲取與預處理
1.1? 機械結構設計
基于語義分割的軸承在線實時缺陷檢測系統的機器結構,包括照明裝置、工業相機、鏡頭、電動轉盤、框架等,具體配置型號如表1所示。所述照明裝置由相連的面板方燈、柔光布、黑色幕布組成,3個方燈并聯位于正六面體的1、2、3面,燈面敷有柔光布解決因光源太強而出現的曝光和光線不均勻的問題,軸承放置于正六面體黑室最下方第6面的電動轉盤上,通過第5面放置的工業相機對軸承進行拍照,其后第4面采用黑色遮光布做底面使圖像更清晰。整個黑室以黑色遮光布為拍攝底面,周圍附著方燈使光線充滿整個黑室從而解決金屬曲面反光問題。正六面體黑室外套遮光布避免外來陽光的干擾影響整體拍攝效果。結構示意圖如圖1所示。
1.2? 圖像采集
為了獲得高質量圖片,本文選用2 000萬像素、最大幀率5.9 fps的海康MV-CE200-10GM工業相機,并與電動旋轉轉臺配合獲得軸承全方位的圖像。Y200RA60電動轉臺采用緊密軸系,蝸輪,蝸桿傳動模式,旋臺基座采用高精度軸系來保障中心通孔與轉臺旋轉中心的同軸度,轉動穩定性高。在工業視覺圖像處理軟件Halcon19中讀取的軸承圖像,如圖2所示。
1.3? 小波去噪
在圖像的采集、傳輸、接收和處理過程中,不可避免的會產生外部干擾和內部干擾。首先對帶有噪聲的信號進行小波變換,小波變換將傅立葉變換的基換成了有限長的會衰減的小波基。克服了短時傅立葉變換、窗口大小不隨頻率變化等缺點。選擇合適的基本小波,使a(τ)在時域的支撐有限,而a(w)相對集中在頻域,小波變換有能力表征時域頻域的信號的局部特性,這有利于檢測圖像中奇異突出的信號,因此可以更有效地去除噪點。小波去噪公式為:
(1)
小波去噪的原理即將原二維圖像數值信號,用分別在水平和垂直方向進行濾波的方法實現二維小波多尺度分解。經過伸縮和平移等功能提取各尺度的小波系數,將噪聲所產生的小波系數清零,最后通過小波逆變換重構信號得到去噪后圖像。原理流程圖如圖3所示。
本文采用小波閾值去噪的方法去除噪聲,基本思想是將原始信號進行小波變換,得到的信號的小波系數遠大于噪聲的小波系數,通過選取合適的閾值,將高于此閾值的信號產生的小波系數保留,并消除低于此閾值的噪聲產生的小波系數,再經過小波逆變換重構信號即可達到去噪的功能。其中閾值的選擇直接影響去噪的效果。本文分別采用了VisuShink閾值、Minimax閾值、SURE閾值進行去噪實驗,實驗結果如圖4所示。最后本文選擇了SURE無偏估計的自適應閾值,該方法能在最小均方差上快速收斂。相比于其他幾種閾值,其均方差最小,信噪比最大,去噪效果最顯著。
2? 分割網絡設計
2.1? 構建數據集
為了解決特定問題,更好的讓Arduino指令與企業生產實際需求相結合,本文選擇附近軸承廠的30個優質軸承和30個具有不同缺陷的軸承作為樣本,在六面體黑室里,電動轉臺每轉動90°,相機拍攝照片一次。得到總共240張照片作為基礎數據集。為了避免數據集過少而造成分類過度擬合,模型魯棒性低的問題。本文選擇將原有基礎數據集的照片通過[-30°,30°]范圍內任意旋轉的方式,進行數據集的擴充,最后將得到了880張圖片。由于數據量較小,按照6:2:2的比例劃分訓練集、驗證集和測試集。
2.2? 語義分割模型
語義分割算法可以對圖像進行像素級別上的分類,標注出圖像中屬于同一像素類別的對象,在圖像分割和元素檢測上有著很大的應用。為了避免FCN算法因為缺乏結合全局信息的能力而導致了增加了在復雜語境中錯誤分類的可能性。本文采用PSPNet(金字塔場景解析網絡)作為語義分割模型,模型示意圖如圖5所示,它是在FCN的像素預測框架的基礎上加入了全局均值池化操作和局部全局特征融合。模型首先經過預訓練的模型和空洞卷積策略得到圖像的特征圖,然后將其映射到金字塔池化(SPP)模塊中,為了表示不同區域關系,SPP模塊分為四個尺度層級,池化內核覆蓋了圖像的全部、一半和小部分,將每個尺度的語境信息融合。最后將融合發展得到的全局特征與原始數據特征圖連接建立起來,作為最終的金字塔池化全局特性。最后,由一個卷積圖層生成最終的預測圖。該模型最大的優點是其具備理解全局語境信息的能力,可以對不同區域的語境進行聚合。局部和全局的特征的結合可使最終的識別研究結果進行更加安全可靠。此外,在端到端學習中,能夠同時訓練和優化全局金字塔模塊和局部FCN特征,大大降低了計算成本。對于軸承檢測,場景解析可以將圖片中的各種缺陷分門別類,并進行定位,準確率和實用價值高。
2.3? 損失函數設計
本文在損失函數的設計上,考慮到由于所拍攝的軸承的照片中,有缺陷的照片占較小數量。為了解決正負樣本不平衡的問題,常用的方法是在二值交叉熵損失函數前增加權重系數。表達公式為:
(2)
雖然可以通過改變權重系數來改變平衡正負樣本的數量,但在實際拍攝的軸承照片中,大多的照片都是較明顯可分的,而這些樣本的損失很低,最終占據了損失函數的主導地位。而損失函數應該偏向那些易混淆的樣本,像帶有垂直紋理的劃痕、外圈滾道粗磨痕、細小的凹坑等缺陷的軸承樣本。基于以上問題,本文采用了RetinaNet提出的Focal Loss損失函數模型,通過添加調制因子的方式來降低易分模型所占據損失函數的主導地位,公式表示為:
(3)
式(2)解決了正負樣本不平衡的問題,式(3)解決了樣本難易劃分問題。將兩者結合就得到帶權重系數的Focal損失函數,公式為:
(4)
Focal Loss是動態縮放的交叉熵損失函數,隨著對正確分類的置信增加,縮放因子逐漸趨向與0,效果如圖6所示。
3? 實驗結果與分析
3.1? C#交互界面設計
為了方便操作人員對系統的使用,本文選擇采用Visual Studio(VS)和Halcon進行聯合開發,將Halcon的程序以C#的形式導出,然后在VS里利用C#編寫人機交互界面。該界面中的圖形窗口中直接顯示檢測結果。并在文本框中顯示識別結果和單個識別耗時,若有缺陷則顯示缺陷的類型。另外可以選擇批量導入圖片,自動識別模式。記錄含有缺陷的軸承和無缺陷軸承的數量。并將含有缺陷的軸承照片進行記錄并保存,完成對軸承的批量檢測工作。清楚明了,易于操作,大大提升了質檢效率。在交互界面上呈現的識別結果如圖7所示。
3.2? 測試結果及分析
為了進一步驗證本方案的優越性和系統的穩定性,在處理器為11th GenIntel(R) Core (TM) i5-1135 G7 @2.40 GHz機帶RAM為16 GB、64位Windows10操作系統的計算機上運行Visual Studio2017平臺上系統程序,與附近的軸承廠合作分別在中午和晚上進行了大量的測試。
實驗結果表明,通過自主設計的六面體黑室結構能夠有效地解決外界光線的問題,基于PSPNet的語義分割算法識別的準確率較傳統的卷積神經網絡有了很大的提高。本文設計的軸承缺陷檢測系統的平均識別成功率為97.75%。能夠對軸承上的劃痕、燒傷、凹坑、磕碰傷等常見缺陷進行準確識別。該方案可以滿足企業對軸承缺陷進行實時在線檢測的預期。
4? 結? 論
針對軸承缺陷檢測問題,在對現有檢測方案進行研究和實驗分析后,本文選擇自主搭建六面體黑室來解決金屬表面容易出現的反光問題。利用小波SURE自適應閾值去噪法對輸入圖像進行預處理。在語義分割模型的選擇方面,提出了能夠理解全局語境信息的PSPNet網絡模型作為識別方案,采用帶權重系數的Focal損失函數來解決正負樣本不平衡和樣本難易劃分的問題。經過大量的實驗測試得出該系統與現有識別方案相比,在魯棒性和準確率方面都有了很大的提升。其檢測時間和準確率均能夠滿足軸承生產企業的質檢需求。另外設計了智能化易于操作的人機交互界面,應用方便,可以極大地提升質檢效率,具有很強的現實意義。
參考文獻:
[1] 鄧耀力.基于機器視覺的輪轂軸承缺陷檢測方法研究 [J].中國設備工程,2019(13):106-108.
[2] 左羽,陶倩,吳戀,等.基于卷積神經網絡的植物圖像分類方法研究 [J].物聯網技術,2020,10(3):72-75.
[3] 王嫣然,陳清亮,吳俊君.面向復雜環境的圖像語義分割方法綜述 [J].計算機科學,2019,46(9):36-46.
[4] 梁格穎,王文琪,汪文,等.基于空洞卷積的語義圖像分割算法研究 [J].信息通信,2019(6):33-36.
[5] 杜柳青,余永維.磁瓦表面缺陷機器視覺檢測與識別方法 [J].圖學學報,2014,35(4):590-594.
[6] 李超,孫俊.基于機器視覺方法的焊縫缺陷檢測及分類算法 [J].計算機工程與應用,2018,54(6):264-270.
[7] KRIZHEVSKY A,SUTSKEVER L,HINTON G E. ImageNet classification with deep convolutional neural networks [J].Communications of the ACM,2017,60(6):84-90.
作者簡介:尹振漢(2000—),男,漢族,河南信陽人,本科在讀,研究方向:機器視覺。