王春梅 黃風山 任玉松 張付祥 周京博
摘 要:為了實現成排連鑄坯端面機器人貼標時各連鑄坯端面中心坐標的快速提取,提出了先提取連鑄坯端面圖像角點像面坐標,再計算各連鑄坯端面中心像面坐標的研究方案。首先,提出了一種改進型SUSAN角點檢測算法,解決了圖像中相鄰連鑄坯端面圖像邊界間距離過小和連鑄坯端面圖像角為弧形角所造成的角點漏檢問題;然后,提取角點的像面坐標,并確定各封閉區域所包含連鑄坯端面個數;最后,采用一種傾斜連鑄坯端面圖像中心像面坐標的提取方法,計算各連鑄坯端面中心像面坐標。應用以上方法進行成排連鑄坯端面機器人貼標實驗,實驗結果表明,連鑄坯端面水平和豎直方向貼標位置誤差范圍分別為-0.625~0.850 mm和-0.550~0.875 mm,完全滿足企業對多根連鑄坯端面自動貼標位置誤差允許值1 mm的要求。所提視覺方法在理論和實際應用上都是可行的,不僅為連鑄坯端面貼標機器人提供了準確的貼標位置,而且為矩形圖像元素的中心坐標提取提供了一種可靠的方法,具有一定的應用價值。
關鍵詞:圖像處理;成排連鑄坯;中心坐標提取;角點檢測;邊界提取;像面坐標
中圖分類號:TP394.1;TH691.9 文獻標志碼:A
文章編號:1008-1542(2018)03-0268-07
用戶對特殊鋼連鑄坯要求非常嚴格,比如,同一件產品必須使用同一爐軋制出的連鑄坯來生產,所以連鑄坯在出廠前必須進行貼標,以標志不同爐號的產品。目前,國內大多數鋼鐵企業的貼標環節仍由手工完成,常常出現漏貼或錯貼現象,給鋼鐵企業造成了嚴重影響[1]。因此,高精度的連鑄坯端面自動貼標機器人系統成為該領域的一大研究熱點。其中,對連鑄坯端面進行自動識別,實時提取連鑄坯端面中心坐標以制導貼標機器人是其關鍵技術之一[2]。
本文組建了成排多根連鑄坯端面計算機視覺貼標系統,重點研究了成排連鑄坯中各連鑄坯端面中心坐標的提取。因成排連鑄坯成像后連鑄坯端面圖像間會產生黏連,無法直接提取圖像中各連鑄坯端面中心像面坐標,所以采用先提取各封閉區域角點的像面坐標,再計算各連鑄坯端面中心像面坐標的方法。
Harris角點檢測是常用的角點檢測方法,通過求取圖像中各像素點與相鄰像素點間的灰度變化率來確定角點像面坐標,主要用于圖像匹配、拼接等領域[3-7],由于連鑄坯端面邊界不平整,成像后邊界缺陷較多,造成了Harris角點檢測后圖像中雜點太多,后續處理過于復雜;也有一些學者提出使用模版匹配的方法進行角點檢測,通過制作角點圖像標準模板,找到圖像中各角點像面坐標,在棋盤格雙目標定中應用較多[8-10]。但連鑄坯切割過程中連鑄坯角的誤切、生產運輸過程中連鑄坯角的磕碰,均會造成連鑄坯端面成像后角點與理論模板形狀不同,因此影響最終的檢測結果。
與其他角點檢測算法相比,SUSAN角點檢測具有抗噪聲能力強、算法簡單、無需微分運算、角點定位準確等優點[11-15]。針對連鑄坯端面圖像中兩封閉區域相鄰邊界間間隔可能過小以及連鑄坯端面角點成像后為弧形角等具體問題,提出了改進型SUSAN角點檢測算子,成功提取出各封閉圖像區域4個角點的像面坐標。在實際貼標過程中,連鑄坯端面圖像邊界在像面坐標系中往往是傾斜的,因此提出了一種傾斜連鑄坯端面圖像中心像面坐標的提取方法。
1 連鑄坯端面自動貼標系統的構成
連鑄坯端面自動貼標系統的構成如圖1所示,主要由計算機視覺子系統、機器人子系統、上位機控制子系統、供標子系統、供壓子系統構成。在貼標時,首先計算機視覺子系統提取并處理連鑄坯端面圖像,求取每根連鑄坯端面中心像面坐標并通過標定得到世界坐標,然后將得到的世界坐標傳入上位機控制子系統,與此同時,上位機控制子系統控制供標子系統打印并剝離標簽,最后,機器人子系統在供壓子系統的配合下完成取標、貼標動作。
2 圖像預處理
在實際生產過程中連鑄坯采用高溫火焰切割分段,切割后的連鑄坯端面呈暗灰色,反光效果極差,使得成像后連鑄坯端面圖像與背景圖像間相差不大,難以將連鑄坯端面圖像從背景圖像中識別開來,如圖2 a)所示。
首先,通過在計算機視覺定位子系統中增加單色光源和同波段帶通濾光鏡[16],有效增加了圖像中連鑄坯端面圖像與背景圖像間的對比度,如圖2 b)所示。然后,對所采集的連鑄坯端面圖像使用固定閾值進行二值化處理[17]。最后,使用成熟的形態學算法對二值化后的連鑄坯端面圖像進行開運算[18-19],如圖2 c)和圖2 d)所示。
3 連鑄坯端面中心像面坐標的提取
實際生產中,相鄰連鑄坯側面間可能會相互貼合,使得成像后連鑄坯端面圖像產生黏連,在圖像上形成長方形封閉區域(封閉區域內連鑄坯端面個數不確定),無法直接提取各連鑄坯端面中心像面坐標,如圖2 d)所示。本文提出了一種改進型SUSAN角點檢測算子,求取圖像中每個封閉區域4個角點的像面坐標,同時,提出了一種傾斜連鑄坯端面圖像中心像面坐標的提取方法,實現了連鑄坯端面中心像面坐標的提取。
3.1 SUSAN角點檢測算子
SUSAN角點檢測算子采用近似圓形的窗口在圖像上移動,計算窗口內非窗口中心像素灰度值與窗口中心像素灰度值的差值,如果差值在給定的門限范圍內,則認為該像素灰度與中心像素灰度同值[18]。
同值像素組成的區域叫做吸收核同值區USAN(univalue segment assimilating nucleus)。USAN所包含像素點個數與窗口區域總像素點個數的比例值記為n0。當窗口中心像素點在封閉區域內部時,n0較大;當窗口中心像素點在封閉區域邊緣上時,n0較小;當窗口中心像素點在封閉區域角點時,n0更小,如圖3所示。本文在角點檢測前已經對圖像進行了二值化處理,故將門限值設為0[19]。建立類圓形的窗口作為SUSAN算子,其中窗口半徑通過實驗取為15 pixels。
由SUSAN算子原理可知:SUSAN算子檢測到的角點為封閉區域圖像邊緣上的某一像素點,所以,令窗口中心沿著封閉區域邊界像素點移動可有效提高檢測效率。
3.2 改進型SUSAN角點檢測算子
連鑄坯端面圖像中兩封閉區域相鄰邊界間間隔過小,如圖4 a)所示,傳統的SUSAN算子在提取兩封閉區域相鄰邊界上的角點時,窗口同時包含兩封閉區域(不能對兩封閉區域加以區分),導致角點的漏檢;連鑄坯端面角成像后為弧形角,如圖4 b)所示,會導致傳統的SUSAN算子在提取弧形角角點時出現漏檢,想要識別圖像中每個封閉區域4個角點的像面坐標,必須對傳統的SUSAN角點檢測算子進行改進,具體方法如下。
1)使用成熟的邊緣提取算法,提取形態學開運算后的連鑄坯端面圖像中每個封閉區域邊界像素點像面坐標[20],求取每個封閉區域的最小包圍矩形[21](封閉區域邊界像素點像面橫坐標最小值到最大值以及縱坐標最小值到最大值間圍成的圖像區域),用以區分圖像中的每個封閉區域。
2)令窗口中心沿著區分后的每個封閉區域邊界像素點掃描,求得邊界上每個像素點USAN包含本封閉區域像素點個數占窗口區域總像素點個數的比例值n0。
3)圖像中封閉區域角像素點所對應的n0約為1/4,如圖3 c)所示,由于連鑄坯端面角成像后可能為弧形角,而弧形角角像素點的n0大于1/4,如圖5 a)所示。如果直接取每個封閉區域邊界最接近1/4的4個像素點作為角點,可能導致弧形角上的角點漏檢。為了準確得到圖像中封閉區域4個角點,先提取封閉區域邊界像素點n0值小于1/3(通過實驗確定)的像素點,得到4段連續邊界,其中每段邊界包含一個角點,如圖5 b)所示,然后,分別取四段連續邊界內n0值最小的像素點為圖像中封閉區域角點的初始值。
4)利用求得的封閉區域角點初始值將封閉區域邊界像素點分成4部分,分別為封閉區域上下左右4條邊界的像素點。將4條邊界像素點分別代入式(1)—式(3)擬合得到封閉區域4條邊界線,求取封閉區域4條邊界線交點的像面坐標為封閉區域角點像面坐標。
圖像中各封閉區域可能包含多根連鑄坯端面圖像,要求取圖像中各連鑄坯端面圖像中心的像面坐標,必須先求得各封閉區域所包含連鑄坯端面個數。
3.3 封閉區域連鑄坯端面個數的確定
連鑄坯端面理論尺寸已知,其寬高比記為eo。因連鑄坯端面尺寸較大、成像后變形較小,故成像后連鑄坯端面像面寬高比基本保持不變。根據已擬合得到的封閉區域4條邊界線以及求得的封閉區域角點像面坐標計算圖像中封閉區域的像面尺寸。分別將封閉區域左上、右上角點與封閉區域底邊界線代入式(4)得到兩角點與底邊界線間的垂直距離,同理計算得到左下、右下角點與上邊界線間的垂直距離,將求得的4個距離代入式(5)得到圖像中封閉區域的像面高度[AKH-]。同理,求得每個圖像中封閉區域的像面寬度Wi。根據ei=[SX(]Wi[][AKH-][SX)]求得圖像中每個封閉區域的實際像面寬高比,其中i=1,2,…,m,i為圖像中封閉區域從左到右的次序。求得第i個封閉區域所包含的連鑄坯端面個數ti=[SX(]ei[]eo[SX)]。
3.4 傾斜連鑄坯端面圖像中心像面坐標的提取
在圖像采集過程中,由于連鑄坯支撐座、CCD相機固定支架加工裝配的誤差,導致連鑄坯端面在成像后其邊界在圖像中是傾斜的,如圖6所示。當圖像中封閉區域為單根連鑄坯端面圖像時,邊界的傾斜不會影響連鑄坯端面中心像面坐標的求取(單根連鑄坯端面中心像面坐標為端面4個角點像面坐標的平均值),當封閉區域包含多根連鑄坯端面時,必須考慮端面的傾斜成像對連鑄坯端面中心像面坐標求取的影響,具體方法如下。
1)若ti=1證明圖像中第i個封閉區域為一個連鑄坯端面。分別求取此封閉區域4個角點橫、縱像面坐標的平均值作為此封閉區域中心的像面橫、縱坐標。
2)若ti>1,則證明圖像中第i個封閉區域為多個(ti個)連鑄坯端面。
①求取此封閉區域左邊界中點的像面坐標(此封閉區域左上角點和左下角點像面坐標平均值),記為(x0,y0)。
②過(x0,y0)做一條平行于此封閉區域上下邊界線的直線,記為li,其斜率記為[AKc-]i,則封閉區域內包含的所有連鑄坯端面中心像面坐標均在直線li上。將斜率[AKc-]i代入式(6),計算得到li與X軸的夾角β。
③以(x0,y0)為起點,沿直線li向右,此封閉區域中從左到右連鑄坯端面中心像面坐標與(x0,y0)距離依次為[SX(]kWi[]2ti[SX)] [WTBZ]pixels,求得此封閉區域中所有連鑄坯端面中心像面坐標,分別記為(xj,yj),其中j=1,2,…,ti,k=2×(j-1)+1,j值代表此封閉區域中連鑄坯端面中心沿直線li從左至右的次序。根據式(7)—式(8)求得該封閉區域內每根連鑄坯端面中心的像面坐標值。連鑄坯端面中心的像面坐標求取原理如圖7 b)所示。
4 實驗驗證
為了進一步驗證所提方法的可行性和實用性,在實驗室環境下搭建了成排連鑄坯機器人自動貼標系統,如圖7 a)所示。應用所提方法提取各連鑄坯端面中心像面坐標的實際測量值,并通過標定求出多根連鑄坯各端面世界坐標值制導機器人進行貼標,最終貼標效果如圖7 c)所示。其中標簽尺寸為75 mm×30 mm,連鑄坯端面尺寸為150 mm×150 mm。
完成貼標后,分別測量標簽左上、左下角點與連鑄坯左邊界的垂直距離,求得其平均值作為標簽左邊界與連鑄坯左邊界的實際距離,同理得到標簽右邊界與連鑄坯端面右邊界實際距離,求取左右兩實際距離值的差值,得到水平方向貼標誤差。同理,測量并求得豎直方向貼標誤差。實驗數據如表1所示。
通過表1可知,各連鑄坯端面中心水平方向和豎直方向貼標位置誤差范圍分別為-0.625~0.850 mm和-0.550~0.875 mm,完全滿足鋼鐵企業連鑄坯貼標時其中心位置誤差允許值1 mm的要求。
5 結 語
組建了基于機器視覺的成排連鑄坯端面機器人自動貼標實驗驗證系統,研究了連鑄坯端面中心坐標的提取方法。一是針對傳統方法連鑄坯端面角點像面坐標提取時存在角點漏檢問題,提出了改進型SUSAN角點檢測算法,首先提取圖像中每個封閉區域4個角點的像面坐標,再根據封閉區域為一個連鑄坯端面和多個連鑄坯端面兩種情況,分別求取了各連鑄坯端面中心像面坐標;二是提出了一種傾斜連鑄坯端面圖像中心像面坐標的提取方法,實現了多根連鑄坯的各連鑄坯端面中心坐標的自動提取。使用合作鋼廠提供的連鑄坯進行了貼標實驗,實驗結果表明:多根連鑄坯各連鑄坯端面中心水平和豎直方向貼標位置誤差范圍分別為-0.625~0.850 mm和-0.550~0.875 mm,滿足鋼鐵企業連鑄坯貼標時其中心位置誤差允許值1 mm的要求。本文提出的連鑄坯端面中心坐標提取方法的精度在0.7~1.0 mm,隨著客戶對貼標精度要求的不斷提高,在后續的研發工作中要持續改進,從而提高連鑄坯端面中心坐標的提取精度。
參考文獻/References:
[1] 張付祥,蔡立強,李偉峰,等.成捆圓鋼端面自動貼標系統設計[J].河北科技大學學報,2016,37(6):601-608.
ZHANG Fuxiang, CAI Liqiang, LI Weifeng, et al. Design of automatic labeling system on the end surfaces of bundles of round steels[J]. Journal of Hebei University of Science and Technology,2016,37(6):601-608.
[2] 黃風山,秦亞敏,任玉松.成捆圓鋼機器人貼標系統圖像識別方法[J].光電工程,2016, 43(12):168-174.
HUANG Fengshan, QIN Yamin, REN Yusong. The image recognition method on round bales robot labeling system[J]. Opto-Electronic Engineering, 2016, 43(12):168-174.
[3] 李海,張憲民,陳忠.基于直線檢測的棋盤格角點自動提取[J].光學精密工程,2015,23(12):3480-3489.
LI Hai, ZHANG Xianmin, CHEN Zhong. Automatic corner detection of checkerboard based on LSD[J].Optics and Precision Engineering, 2015,23(12):3480-3489.
[4] KOVACS A, SZIRANYI T. Harris function based active contour external force for image segmentation[J]. Journal Pattern Recognition Letters, 2012,33(9):1180-1187.
[5] 王曉輝,程鍵慶,韓瑜.基于Harris的棋盤格角點檢測改進算法[J].電子測量技術,2013,36(10):51-54.
WANG Xiaohui, CHENG Jianqing, HAN Yu. Improved checkerboard corner detection algorithm based on the Harris[J]. Electronic Measurement Technology, 2013,36(10):51-54.
[6] 馮玉朋,曾慶喜,馬杉,等.無人駕駛車輛基于角點和斑點的特征提取算法[J].河北科技大學學報,2017,38(3):237-243.
FENG Yupeng, ZENG Qingxi, MA Shan, et al. A feature extraction algorithm based on corner and spots in self-driving vehicles[J]. Journal of Hebei University of Science and Technology,2017,38(3):237-243.
[7] 龔平,劉相濱,周鵬.一種改進的Harris 角點檢測算法[J].計算機工程與應用,2010,46(11):173-175.
GONG Ping, LIU Xiangbin, ZHOU Peng. Improved Harris-based comer detection algorithm[J]. Computer Engineering and Applications, 2010,46(11):173-175.
[8] 李海超,張廣軍.基于旋轉不變的角點匹配方法[J].紅外與激光工程,2008,37(3):561-564.
LI Haichao, ZHANG Guangjun. Novel corner matching algorithm based on rotational invariants[J]. Infrared and Laser Engineering, 2008,37(3):561-564.
[9] XU Yi, ZHOU Jun, ZHOU Yuanhua. Measurement of disparity based on sparse-to-dense matching approach[J]. Infrared and Laser Engineering, 2003, 32(6): 630-634.
[10]賈旭,薛定宇,崔建江.基于尺度、距離、旋轉測度的角點匹配算法[J].東北大學學報(自然科學版),2010,31(12):1689-1692.
JIA Xu, XUE Dingyu, CUI Jianjiang. Corners matching algorithm based on measures of scale, distance and rotation[J]. Journal of Northeastern University(Natural Science), 2010,31(12):1689-1692.
[11]QU Zhiguo, WANG Peng, GAO Yinghui, et al. Fast SUSAN edge detector by adapting step-size[J]. Optik, 2013,124(8):747-750.
[12]王巍,趙紅蕊.面向影像匹配的SUSAN角點檢測[J].遙感學報,2011,15(5):940-956.
WANG Wei, ZHAO Hongrui. The improvement of SUSAN for image matching[J]. Journal of Remote Sensing, 2011,15(5):940-956.
[13]張映權,王瓊華,李大海,等.改進的SUSAN角點檢測算法[J].現代電子技術,2009,32(20):42-44.
ZHANG Yingquan, WANG Qionghua, LI Dahai, et al. Improved SUSAN corner detection algorithm[J]. Modern Electronics Technique, 2009,32(20):42-44.
[14]吳一全,王凱.基于SUSAN算子和角點判別因子的目標邊緣檢測[J].中國科學院大學學報,2016,33(1):128-134.
WU Yiquan, WANG Kai. Target edge detection based on SUSAN operator and corner discriminant factor[J]. Journal of University of Chinese Academy of Sciences, 2016,33(1):128-134.
[15]GAO Chao, ZHUN Hongjun, GUO Yongcai. Analysis and improvement of SUSAN algorithm[J]. Signal Processing, 2012,92(10):2552-2559.
[16]魯波,黃堅,朱子偉.基于機器視覺的LED陣列自動分選系統設計[J].杭州電子科技大學學報,2010,30(5):29-32.
LU Bo, HUANG Jian, ZHU Ziwei. Design of LED array automatic sorting system based on the machine vision[J]. Journal of Hangzhou Dianzi University, 2010,30(5):29-32.
[17]黃風山. 光筆式單攝像機三維坐標視覺測量系統關鍵技術的研究[D]. 天津:天津大學, 2005.
HUANG Fengshan. Study on the Key Technique of Single Camera 3D Coordinate Vision Measurement System Using a Light Pen[D]. Tianjin: Tianjin University,2005.
[18]章國紅,辛斌杰. 圖像處理技術在紗線毛羽檢測方面的應用[J].河北科技大學學報,2016,37(1):76-82.
ZHANG Guohong, XIN Binjie. Application of image processing technology in yarn hairiness detection[J]. Journal of Hebei University of Science and Technology, 2016,37(1):76-82.
[19]鄧仕超,黃寅. 二值圖像膨脹腐蝕的快速算法[J].計算機工程與應用,2017,53(5):207-211.
DENG Shichao, HUANG Yin. Fast algorithm of dilation and erosion for binary image[J]. Computer Engineering and Applications, 2017,53(5):207-211.
[20]姜黎,吳偉仁,張之敬,等. 微小型結構件顯微圖像邊緣的自動識別[J].光學精密工程,2013,21(1):224-232.
JIANG Li, WU Weiren,ZHANG Zhijing,et al. Automatic detection of micro image edges for micro accessories[J]. Optics and Precision Engineering, 2013,21(1):224-232.
[21]王佳坤. 基于最小矩形包圍的圖像歸一化研究[J].科學技術與工程,2013,13(25):7577-7579.
WANG Jiakun. Image toward normalization study based on the smallest rectangle surrounded[J]. Science Technology and Engineering, 2013,13(25):7577-7579.