沈凌云,朱明,郎百和 ,韓太林
(1.中國科學院 長春光學精密機械與物理研究所,長春 130033;2.中國科學院大學,北京 100049;3.長春理工大學 電子信息工程學院,長春 130022)
CTP版是用于激光數字直接制版系統(Computer-To-Plate)快速制版、快速印刷的熱敏型或光敏型版材,其表面的熱敏或光敏涂層精細質量制約著解像度與網點還原率,是影響制版、出版質量的關鍵因素之一。CTP版材在生產過程中可能形成的表面瑕疵(點狀及條狀)能造成批量印品相同的印刷瑕疵[1]。CTP版表面瑕疵顏色各異,形狀不規則,其形成機理較復雜。根據瑕疵的形態特征可將瑕疵分為幾種典型類型:細小點狀(白點、斑點)、細小線狀(劃痕)和不規則條狀(壓痕)。
國外的CTP版材生產線基本都裝備了自動瑕疵在線檢測設備,如日本FUTEC的表面缺陷檢測系統,檢測性能為:對于幅面寬度1.9m,版基厚度0.28mm的卷材,最高線速度250m/min,檢測精度0.25mm,檢測正確率90.5%。國內生產線大多數仍采用人工肉眼觀察檢測方法,工作效率低,檢測精度低。王勤等人設計了CTP版檢測方案,采用單向灰度分布曲線閾值算法,檢測正確率低、線速度低、不適用線狀瑕疵類型。為實現對生產線產品瑕疵的實時控制,快速準確地在線檢測出CTP版表面瑕疵就具有十分重要的意義。
機器視覺的瑕疵檢測方法應用廣泛[3-5],但是傳統的圖像分割算法很難實現對各類瑕疵都具有較好的分割結果。HOU[6]提出了最小類內方差,采用類方差和作為閾值選擇準則,不適合CTP版表面瑕疵的小目標分割;基于背景預測的方法在進行預測估計時,通常所取的樣本數據相對較少,精度較低[7];基于小波、粗糙集、神經網絡等特定理論的圖像分割算法比較復雜,實時性差,硬件實現起來也比較困難[8];基于區域生長的方法需要找到合適的種子像素點、生長準則和生長閾值。該方法需要提供初始的種子參數,不合適的初始參數會導致分割結果不理想;但是基于區域生長算法是像素級的運算處理,對于小目標來說,該方法可以保證分割的精確性。
人類視覺系統具有選擇性注意的特性,廣泛應用于機器視覺和圖像分析領域。基于視覺選擇性注意的自動目標檢測一般先提取圖像初級特征參數生成全局顯著圖,然后對其進行圖像分割從而完成目標的檢測[9]。自 Itti等人[10]提出全局顯著圖的生成方式以來,相繼出現很多顯著圖的生成方法[11-13]。其中,最能凸顯圖像中感興趣目標的GBVS模型是J.Harel等人[14]提出的一種基于圖結構的視覺顯著性檢測算法。該方法首先提取每幅圖像上的顏色、亮度、方向這三種特征向量,然后利用這些特征向量構建動標圖(activation map),最后對這些動標圖進行歸一化,組合得到全局顯著圖。但是該方法沒有考慮顯著區域的大小及其形狀,并且邊界模糊。
針對以上問題,本文提出了一種融合視覺注意機制和區域生長法分割檢測瑕疵,利用視覺顯著圖的注意焦點作為區域分割的種子點,選擇區域生長中的八鄰域搜索的生長準則,結合梯度圖確定合理的生長閾值對其進行區域生長,遵循返回抑制和鄰近優先的準則選擇并轉移注意焦點。實驗結果表明,該方法能克服視覺注意機制檢測的瑕疵區域邊界不準確和區域生長法需要提供初始種子點的問題,能準確檢測出CTP版表面的各類瑕疵,算法具有自適應性。
CTP版表面瑕疵檢測系統主要由標準光源照明系統、被測CTP版運動控制系統、三線彩色線陣CCD拼接成像系統、機器視覺系統、主控計算機及網絡系統等組成,系統結構如圖1所示。系統測量時,首先,采用照明裝置控制標準穩流源發出均勻光照射到被測CTP版表面;然后,通過光學成像系統將CTP版信息在線陣CCD的光敏面上成像,再通過線陣CCD及鏡頭陣列將信號采集后送入計算機,利用本文提出的算法對瑕疵進行識別定位;最后,控制裁刀進行現場的剪切作業。CCD的選取與系統的分辨率有關。CTP版表面瑕疵檢測系統分辨率要求達到0.1mm。

圖1 CTP版表面瑕疵檢測系統示意圖
J.Harel等人提出的基于圖結構的空間注意模型是一種自底向上數據驅動的選擇性視覺注意計算模型。該模型根據Treisman提出的特征整合理論[15],采用多通道多尺度線性濾波器組對輸入圖像進行濾波抽取多方面的初級視覺特征,如亮度、顏色和方向等,構成各個特征維上的顯著子圖,然后對它們進行分析和融合得到全局顯著圖。基于圖結構的空間注意模型全局顯著圖計算過程如下:
(1)提取多個初級視覺特征:文中選用亮度,顏色和方向特征。選用RGB顏色空間顯示圖像,設r、g、b是輸入圖像的紅、綠、藍3個分量,則亮度特征如(1)式所示,顏色特征(紅、綠、藍、黃)分別如(2)至(5)式所示。


因為Gabor函數能很好地模擬人眼的生物作用,所以采用方向為0°、45°、90°和135°的Gabor濾波器組分別對亮度圖像I進行濾波,得到4組方向金字塔圖像。
(2)采用典型高斯金字塔形式對圖像進行多尺度分解:原始圖像被分解為4層(記為0-3層),第0層設置為原始圖像,下一層圖像的形成是通過對上一層圖像進行高斯濾波和1/2下采樣。首先對原始圖像進行高斯濾波,再對濾波后的圖像進行1/2下采樣得到新圖像,依此類推。即各層圖像大小依次為原圖的1,1/2,1/4,1/8。
通過以上兩個步驟對原始圖像進行多尺度和多特征提取后,可分別得到9組4個尺度下的亮度、顏色和方向高斯金字塔分解圖。
(3)利用基于圖的算法計算出亮度、顏色和方向特征圖:首先構造出高斯金字塔分解圖的馬爾科夫矩陣,不同尺度下的高斯金字塔分解圖需要插值到同一尺度下便于計算。假設不同尺度下的不同分解圖為M:[n]2→R,定義M 中任意不同兩點M(i,j)和M(p,q)的差異性為:

M(i,j)和 M(p,q)分別表示點位置(i,j)和(p,q)的特征值。在實驗中常常用來代替,效果也很好。將M中每個像素點都兩兩連接起來,這樣就構建成了全連接圖GA。圖的每個節點代表M中的一個像素,每條邊代表兩個節點之間的權重,定義為:

即權重是由點間的差異和點間的距離共同決定的。其中σ是一個參數,一般取圖像寬度的1/10~1/15,正反方向邊的權重是一樣的。按式(7)構造的權重矩陣稱為圖GA的鄰接矩陣。將從任何節點引出的邊的權重歸一化到[0,1]時,該權重矩陣稱為馬爾科夫矩陣。然后求其馬爾科夫鏈平衡分布,利用隨機游走(random walker)的方法對被訪頻率較低的結點對應的像素賦予較大的顯著值。
(4)計算全局顯著圖:將所有組、所有尺度的高斯金字塔分解圖計算出平衡分布后,將結果歸一化并按照同類特征圖求和平均,然后各特征圖疊加求和,得到全局顯著圖S。
通過計算全局顯著圖S的最大顯著值,獲得注意焦點。
該算法結合基于選擇性視覺注意模型和區域生長算法,完成自動檢測,算法步驟如下:
(1)采用基于選擇性視覺注意模型對待檢測的CTP版圖像進行計算,獲得注意焦點,并將此注意焦點作為區域生長算法的種子像素,同時將該點坐標作為該瑕疵的中心位置;
(2)采用Sobel算子對待檢測的CTP版圖像進行處理,得到梯度圖,計算梯度均值與標準差之和作為生長閾值;
(3)將種子點像素與八領域像素進行比較,將符合生長準則的鄰域像素視為目標區域;
(4)瑕疵被分割后,需要轉移注意焦點,即選擇下一個注意焦點。準則一:已經被選擇過的顯著區域就應該忽略,將這種特性稱為返回抑制;準則二:當出現具有相同顯著值的點,則根據鄰近優先準則進行轉移。利用這兩種準則,循環掃描整幅顯著圖,就能檢測出可能出現的所有瑕疵;
(5)以面積(像素數)特征粗略判定瑕疵類型,檢測到的區域小于10個像素時則認為瑕疵檢測完畢;
根據多次實驗經驗:點狀瑕疵一般大于10個像素而小于100個像素;而條狀瑕疵一般遠大于100個像素。如果第一次檢測到的區域小于10個像素,則認為整幅圖像沒有瑕疵。
CTP版表面瑕疵檢測系統的算法實現硬件平臺為Intel i5 750、主頻2.66GHz的CPU,8G內存PC機,使用VC++結合Matlab圖像處理工具箱函數。
為了驗證方法的有效性,通過生產線圖像采集系統獲得的數據庫中,隨機抽取200張具有瑕疵的樣本圖片,分別具有單個或多個點狀、條狀瑕疵;同時,隨機抽取200張無瑕疵(或瑕疵尺寸小于0.1mm)的樣本圖片。樣本圖片為5616×3744像素。
圖2是一張具有三個瑕疵的樣本圖片(圖中黑圈所示為瑕疵標注位置)。為了使顯示結果更直觀,歸一化截取大小為240×240像素的帶有瑕疵的圖片檢測過程如圖3所示。結果顯示,本文提出的基于視覺注意機制的區域生長分割算法檢測出的瑕疵位置準確。

圖2 帶有3處瑕疵的圖片

圖3 本文方法對具有瑕疵的CTP版檢測過程及結果

圖4 本文方法、Otsu方法及最大熵方法對具有瑕疵的CTP版分割結果
選取四類具有單個典型瑕疵的樣本:白點、黑點、壓痕和劃痕各一張,分別如圖4(a1)、(a2)、(a3)、(a4)所示。將瑕疵區域截取大小為240×240像素的圖片,來比較本文方法、Otsu方法與最大熵方法的分割結果,結果如圖4所示。從圖中可以看出Otsu方法基本不能分割出目標;最大熵方法對點狀瑕疵,如白點和黑點分割效果好,對條狀,如壓痕和劃痕效果較差;本文方法對點狀和條狀瑕疵分割效果均較好。

表1 三種方法運行時間(秒)
三種方法運行時間統計如表1所示,其中百分比是指目標尺寸大小占整個圖像尺寸的比例。通過比較可知:在不同類型的瑕疵圖像檢測中,本文提出的基于視覺注意機制的區域生長分割算法具有自適應性,并且耗時最短;而最大熵方法耗時最長。
基于視覺注意機制的區域生長分割算法對CTP版樣本進行瑕疵區域檢測,檢測結果如表2所示:200張有瑕疵CTP版樣本中,包括315個點狀瑕疵,能檢測出312個,檢測準確率為99.0%;158個條狀瑕疵,能檢測出149個,檢測準確率為94.3%;200張無瑕疵正常圖片樣本能檢測為無瑕疵的圖片數為191張,檢測準確率為95.5%,因此,本文方法的平均準確率達到96.3%。

表2 瑕疵檢測準確率結果
分析了CTP版表面瑕疵檢測系統工作原理與結構設計,提出了CTP版表面瑕疵的基于機器視覺的自適應檢測算法,有效克服了GBVS視覺注意模型檢測到的區域邊界不準確和區域生長法需要提供初始種子點的問題,對多個不同類型瑕疵的檢測具有自適應性,符合人類的視覺注意機制,甚至對于對比度很低的小目標分割要好于人眼觀察的結果。該算法明顯改善了基于對象的圖像分割方法存在主觀、耗時等缺點;算法不需要用戶手動設置閾值,大大提高系統的智能性。
[1]王世勤.印版點狀弊病產生的原因及分析[J].影像技術,2008,(4):33-41.
[2]王勤,王慶有,齊龍.多線陣CCD拼接檢測寬幅PS版表面缺陷的研究[J].光電子·激光,2005,16(11):1350-1354.
[3]吳斌,韓文強,邵震宇.基于機器視覺的微細孔壁缺陷檢測[J].光電子·激光,2012,23(11):2137-2141.
[4]苗語,王艷春,郭乃珠,等.基于邊緣檢測終止條件的區域生長算法[J].長春理工大學學報:自然科學版,2009,32(4):680-682.
[5]沈凌云,郎百和,朱明.一種基于顯著性活動輪廓模型的圖像分割方法[J].長春理工大學學報:自然科學版,2012,35(3):120-123.
[6]Hou Z,Hu Q,Nowinski W L.On minimum variance thresholding[J].Pattern Recognition Letters,2006,27(14):1732-1743.
[7]李凡,劉上乾,洪鳴.基于背景預測的紅外弱小目標檢測新算法[J].西安電子科技大學學報:自然科學版,2009,36(6):1075-1078.
[8]Masooleh M G,Moosavi SAS.An improved fuzzy algorithm forimage segmentation[J].Proceedings ofWorld Academy ofScience,Engineering and Technology,2008,28(4):400-404.
[9]Borji A,Sihite D N,Itti L.Objects do not predict fixations better than early saliency:A re-analysis of Einhaeuser et al.'s data[J].Journal of Vision,2013,13(10):1-4.
[10]Itti L,Koch C,Niebur E.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[11]Hou X,Zhang L.Saliency detection:A spectral residual approach[C].Internaltional Conference on Computer Vision and Pattern Recogintion,2007:1-8.
[12]Achanta R,Hemami S,Estrada F,et al.Süsstrunk.Frequency-tuned salient region detection [C].IEEE International Conference on Computer Vision and Pattern Recognition,2009,1597-1604.
[13]Borji A,Sihite D N,Itti L.Quantitative Analysis of Human-Model Agreement in Visual Saliency Modeling:A Comparative Study[J].IEEE Transactions on Image Processing,2012,1-16.
[14]Harel J,Koch C,Perona P.Graph-based visual saliency[J].NIPS,2007,545-552.
[15]Treisman A M,Gelade G.A feature-integration theory of attention[J].Cognitive Psychology,1980,12(1):97-136.