999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于粗定位-精匹配的雙目視覺(jué)目標(biāo)定位方法

2021-11-03 07:02:56杜玉曉鄭曉森陳祎杭王小橋王公東鐘楠
自動(dòng)化與信息工程 2021年5期
關(guān)鍵詞:特征

杜玉曉 鄭曉森 陳祎杭 王小橋 王公東 鐘楠

基于粗定位-精匹配的雙目視覺(jué)目標(biāo)定位方法

杜玉曉1鄭曉森1陳祎杭1王小橋2王公東2鐘楠2

(1.廣東工業(yè)大學(xué)自動(dòng)化學(xué)院,廣東 廣州 510006 2.廣東海信電子有限公司,廣東 江門 529000)

為提高雙目視覺(jué)系統(tǒng)定位精度,提出一種基于粗定位-精匹配的雙目視覺(jué)目標(biāo)定位方法。利用Canny邊緣檢測(cè)算法對(duì)左、右圖像中的目標(biāo)物體進(jìn)行識(shí)別,提取目標(biāo)物體最大、最小矩形區(qū)域,從而實(shí)現(xiàn)目標(biāo)物體的粗定位。采用SIFT算法得到左、右圖像中目標(biāo)的特征點(diǎn);用RANSAC得到精確匹配點(diǎn),并計(jì)算出左、右圖像中物體之間的透視變換關(guān)系;根據(jù)透視變換關(guān)系確定左圖像的目標(biāo)特征點(diǎn)在右圖像目標(biāo)潛在匹配點(diǎn)的位置,得到目標(biāo)物體的三維位姿及質(zhì)心坐標(biāo),從而實(shí)現(xiàn)目標(biāo)物體的精匹配。實(shí)驗(yàn)結(jié)果表明:本文方法平均測(cè)距誤差為4.6 mm,平均耗時(shí)為1.265 s,相比SIFT、SURF特征匹配定位方法,具有定位精度高、運(yùn)行時(shí)間短的特點(diǎn)。

雙目立體視覺(jué);粗定位;精匹配;SIFT算法;RANSAC;透視變換

0 引言

隨著機(jī)器人自主化的不斷深入,對(duì)機(jī)器視覺(jué)技術(shù)的要求也不斷提高。以往機(jī)器視覺(jué)主要通過(guò)像素灰度和梯度獲取圖像信息,但三維圖像信息更為豐富。雙目立體視覺(jué)技術(shù)通過(guò)模擬人類的視覺(jué)結(jié)構(gòu),獲取物體不同角度的圖像,利用投影點(diǎn)之間的視差恢復(fù)物體的空間坐標(biāo),實(shí)現(xiàn)目標(biāo)三維空間位置的測(cè)量。該技術(shù)主要基于三角測(cè)量原理,為非接觸式測(cè)量,具有成本低、結(jié)構(gòu)簡(jiǎn)單、效率高等特點(diǎn),廣泛應(yīng)用于機(jī)器人導(dǎo)航、機(jī)器人工業(yè)生產(chǎn)、農(nóng)業(yè)采摘及三維場(chǎng)景感知等場(chǎng)合,實(shí)現(xiàn)機(jī)器人在未知環(huán)境中快速、準(zhǔn)確地識(shí)別目標(biāo)物體信息,規(guī)劃可行路徑,完成基于視覺(jué)的任務(wù)。目前,雙目立體視覺(jué)技術(shù)已成為自主機(jī)器人技術(shù)的關(guān)鍵組成部分[1-2]。

雙目立體視覺(jué)技術(shù)的核心是雙目視覺(jué)定位的精度,正確獲取目標(biāo)的位置、位姿,關(guān)鍵在于選取立體空間位置一致的左、右圖像中的同名特征點(diǎn),即立體匹配。立體匹配方式主要分為基于全局的立體匹配、基于局部的立體匹配和基于特征的立體匹配。本文采用基于特征的立體匹配,通過(guò)提取左、右圖像的局部特征點(diǎn)進(jìn)行匹配來(lái)實(shí)現(xiàn)目標(biāo)定位,如Harris角點(diǎn)、尺度不變特征變換(scale invariant feature transform, SIFT)、快速魯棒性特征(speed up robust feature, SURF)、加速分割測(cè)試特征(features from accelerated segment test, FAST)等。其中,SIFT因?qū)Τ叨取⑿D(zhuǎn)、光照等變化有良好的魯棒性而廣泛應(yīng)用[3],但其計(jì)算復(fù)雜度較高,實(shí)時(shí)性差。SURF在保證匹配率的基礎(chǔ)上,改善了SIFT算法實(shí)時(shí)性差的問(wèn)題[4]。在SIFT和SURF算法基礎(chǔ)上,學(xué)者不斷進(jìn)行改進(jìn),以期通過(guò)提高特征匹配率和縮短匹配時(shí)間來(lái)提升雙目視覺(jué)定位系統(tǒng)的定位精度和實(shí)時(shí)性[5-9]。但上述特征提取方法存在2個(gè)問(wèn)題:1)提取目標(biāo)多個(gè)特征點(diǎn),導(dǎo)致立體匹配計(jì)算量大、實(shí)時(shí)性差;2)無(wú)法得到精確、連續(xù)的視差圖,且在最后定位時(shí),大多只能以多個(gè)特征點(diǎn)的均值作為定位點(diǎn),并非目標(biāo)中心點(diǎn);只能獲取目標(biāo)在攝像頭坐標(biāo)系下的深度距離(軸方向),無(wú)法精確獲取目標(biāo)的水平距離(軸方向)和垂直距離(軸方向)。

為解決上述問(wèn)題,本文提出一種基于粗定位-精匹配的雙目視覺(jué)目標(biāo)定位方法。在粗定位階段,快速獲取目標(biāo)區(qū)域,并分析目標(biāo)區(qū)域的中心點(diǎn)及關(guān)鍵角點(diǎn)信息;在精匹配階段,在目標(biāo)區(qū)域內(nèi)提取精確的匹配點(diǎn)并擬合出左、右目標(biāo)區(qū)域的透視變換關(guān)系;最后通過(guò)相似三角形原理,還原目標(biāo)的位置信息。

1 雙目視覺(jué)系統(tǒng)

在雙目視覺(jué)系統(tǒng)中,通常使用水平左、右攝像機(jī)從不同角度獲取目標(biāo)圖像,并利用視差原理重建目標(biāo)的三維信息[10-14]。平行雙目視覺(jué)測(cè)距模型如圖1所示。

圖1 平行雙目視覺(jué)測(cè)距模型

式中為攝像機(jī)的物理焦距。

由此可得目標(biāo)物體在主攝像機(jī)(左攝像機(jī))坐標(biāo)系中的坐標(biāo)為

因此,只要能找到左、右2個(gè)攝像機(jī)圖像中的任意一點(diǎn)的相應(yīng)匹配特征點(diǎn),就可以計(jì)算出該點(diǎn)的實(shí)際三維坐標(biāo),從而還原三維場(chǎng)景。

1.1 攝像機(jī)標(biāo)定與校準(zhǔn)

要近似達(dá)到理想的平行雙目攝像模型的關(guān)鍵在于攝像機(jī)的標(biāo)定與校準(zhǔn)。標(biāo)定攝像機(jī)的內(nèi)外參數(shù)[15-16]包括圖像中心坐標(biāo)、左、右攝像機(jī)焦距、旋轉(zhuǎn)矩陣、平移向量等。標(biāo)定系統(tǒng)主要涉及4個(gè)坐標(biāo)系:世界坐標(biāo)系、攝像機(jī)坐標(biāo)系、圖像坐標(biāo)系和像素坐標(biāo)系。在不同坐標(biāo)系下,物體坐標(biāo)都不一樣,但各個(gè)坐標(biāo)系之間能通過(guò)攝像機(jī)外部參數(shù)旋轉(zhuǎn)矩陣和平移向量來(lái)實(shí)現(xiàn)相互之間的轉(zhuǎn)變,其相互關(guān)系如圖2所示。

圖2 坐標(biāo)系的變換關(guān)系

像素坐標(biāo)系與圖像坐標(biāo)系之間的變換關(guān)系為

式中×(單位mm)為像素點(diǎn)的物理大小。

攝像機(jī)獲取的空間任意點(diǎn),通過(guò)坐標(biāo)系間相互轉(zhuǎn)換即可得出點(diǎn)在世界坐標(biāo)系下的坐標(biāo)為

1.2 極線約束

常用的匹配約束條件有極線約束、連續(xù)性約束、相似性約束、唯一性約束和順序一致性約束[17]。其中極線是較為可靠、有效的幾何約束條件,因此本文采用極線約束。

空間中的任意一點(diǎn),通過(guò)雙目視覺(jué)系統(tǒng)左、右攝像機(jī)捕獲圖像,分別在左、右立體圖像上有1個(gè)對(duì)應(yīng)點(diǎn)。根據(jù)射影幾何原理,三維空間中同一點(diǎn)的2個(gè)對(duì)應(yīng)點(diǎn)存在極線約束關(guān)系——左(右)圖中的投影點(diǎn)在右(左)圖中對(duì)應(yīng)點(diǎn)位置一定被約束在一條直線上,這條線被稱作為極線[18]。將三維空間中的點(diǎn)(,,)投影至2個(gè)重合平面l、r,分別交于點(diǎn)1、2。由此點(diǎn)、1、2所構(gòu)成的平面與2個(gè)投影平面分別相交于極線1、2,如圖3所示。

圖3 雙目立體匹配模型

2 目標(biāo)定位系統(tǒng)

本文定位算法框架結(jié)構(gòu)如圖4所示。從優(yōu)化搜索策略出發(fā),本文采用Canny邊緣檢測(cè)算法對(duì)目標(biāo)區(qū)域進(jìn)行粗定位,以避免不必要的特征提取和匹配的龐大計(jì)算量,具有較好的實(shí)時(shí)性和魯棒性,并通過(guò)邊緣輪廓獲取質(zhì)點(diǎn)。精匹配階段,在目標(biāo)區(qū)域提取SIFT,并通過(guò)隨機(jī)抽樣一致性算法(random sample consensus,RANSAC)獲取優(yōu)質(zhì)的匹配結(jié)果,建立左右區(qū)域的透視變換關(guān)系,從而利用平行雙目視覺(jué)模型恢復(fù)目標(biāo)物體的三維重構(gòu)及計(jì)算目標(biāo)物體質(zhì)心的三維坐標(biāo)位置。這樣既具有粗定位快速的特點(diǎn),又有精匹配結(jié)果較高一致性的特點(diǎn)。

2.1 粗定位

在粗定位階段,左、右圖像采用Canny邊緣檢測(cè)算法進(jìn)行目標(biāo)識(shí)別,提取目標(biāo)物體輪廓并得到左、右目標(biāo)中心點(diǎn),用于下一階段的像素搜索范圍的壓縮。

圖4 定位算法框架

Canny邊緣檢測(cè)算法具有效果好、誤碼率低、精度高等特點(diǎn),得到的邊緣寬度是單個(gè)像素寬度。首先,用3×3的高斯平滑濾波器對(duì)圖像進(jìn)行卷積,等效于降采樣,得到圖像(,);然后,計(jì)算圖像(,)像素點(diǎn)的梯度和方向,圖像梯度計(jì)算可轉(zhuǎn)化成像素灰度變化,計(jì)算公式為

對(duì)圖像像素鄰域4個(gè)方向(?45°, 0°, 45°, 90°)進(jìn)行非極大值抑制,即中心像素點(diǎn)與鄰域上4個(gè)方向的像素點(diǎn)進(jìn)行幅值比較,若最大,保留;否則舍去。對(duì)梯度圖像采用雙閾值方法檢測(cè)并接連邊緣,分別選取2個(gè)閾值1和2(1<2),若像素點(diǎn)的梯度值>2,則此像素點(diǎn)為邊緣特征點(diǎn);若像素點(diǎn)梯度值<1,則此像素為非特征點(diǎn);當(dāng)2>梯度值>1,則需判斷此中心點(diǎn)8鄰域點(diǎn)中,是否有滿足梯度值>2的點(diǎn),若有,則該像素點(diǎn)也為邊緣特征點(diǎn)。

通過(guò)立體校正的雙目平行攝像機(jī),在極線約束下,左、右圖像的特征匹配點(diǎn)在同一水平線上(即縱坐標(biāo)相等),因此匹配搜索范圍降到一維。但考慮校正后左、右圖像仍可能存在像素誤差,匹配初始像素

2.2 精匹配

精匹配完整地建立了左、右區(qū)域的精確關(guān)系。

SIFT算法基本原理是對(duì)二維圖像構(gòu)建尺度空間,分析每層圖像的局部特征并找到極值點(diǎn),排除易受干擾點(diǎn)和低對(duì)比度的極值點(diǎn);再使用該點(diǎn)鄰域內(nèi)的信息來(lái)描述特征點(diǎn)信息;從而得到具有旋轉(zhuǎn)、光照和尺度不變性的特征點(diǎn)[19]。

SIFT算法主要有5個(gè)步驟[20]:

1)構(gòu)建尺度空間;

2)尺度空間局部極值檢測(cè);

3)排除易受干擾極值點(diǎn);

4)確定每個(gè)特征點(diǎn)方向;

5)特征點(diǎn)描述子生成。

一般特征點(diǎn)描述計(jì)算4×4窗口中8個(gè)方向的梯度信息,共有128維方向信息,運(yùn)算量較大,運(yùn)算時(shí)間長(zhǎng),無(wú)法達(dá)到實(shí)時(shí)性要求。此時(shí)若直接用透視變換求取關(guān)系矩陣代價(jià)過(guò)高,且粗匹配存在大量誤匹配點(diǎn),使后續(xù)結(jié)果誤差較大。于是引入RANSAC假設(shè)數(shù)據(jù)內(nèi)群來(lái)計(jì)算合適的內(nèi)群模型。RANSAC可從一組包含“局外點(diǎn)”的觀測(cè)數(shù)據(jù)集中,通過(guò)迭代方式估計(jì)數(shù)學(xué)模型的參數(shù)[21]。當(dāng)有效數(shù)據(jù)占絕大多數(shù)時(shí),可通過(guò)最小二乘法來(lái)擬合參數(shù)和誤差。

3 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)平臺(tái)采用Intel Core i7-7700HQ @2.80 GHz的PC機(jī),在VS2017上用C++與OpenCV進(jìn)行調(diào)試。圖像采集使用HBV-1780平行雙目攝像機(jī),視場(chǎng)角、焦距為72°/3.6 mm,圖像分辨率為640×480像素。

3.1 雙目標(biāo)定結(jié)果

在目標(biāo)定位前,需要對(duì)雙目攝像機(jī)進(jìn)行標(biāo)定,包括左、右攝像機(jī)內(nèi)參和外參(2個(gè)攝像機(jī)的相對(duì)位置關(guān)系)。本文采用張正友棋盤標(biāo)定法進(jìn)行標(biāo)定。實(shí)驗(yàn)采集標(biāo)定板左、右圖像14組,提取棋盤點(diǎn)進(jìn)行標(biāo)定,得到攝像機(jī)參數(shù)如表1所示。

表1 攝像機(jī)標(biāo)定參數(shù)

3.2 粗定位目標(biāo)識(shí)別

把左攝像機(jī)作為參考坐標(biāo)系來(lái)描述空間信息,采用粗定位方法實(shí)現(xiàn)目標(biāo)的粗定位,左、右圖像目標(biāo)識(shí)別結(jié)果如圖5所示。利用粗定位方法分別找到左、右圖像目標(biāo)的邊緣,繪制最小外接輪廓、最大外接輪廓及中心位置,提取目標(biāo)區(qū)域位置,并保留相關(guān)信息供后續(xù)使用。粗定位目標(biāo)識(shí)別平均執(zhí)行時(shí)間為396 ms。

圖5 粗定位目標(biāo)識(shí)別結(jié)果

3.3 精匹配

在粗定位基礎(chǔ)上,左、右區(qū)域分別提取SIFT特征點(diǎn),單純通過(guò)SIFT算法確定2個(gè)圖像的透視變換關(guān)系過(guò)程比較復(fù)雜且結(jié)果不盡人意,如圖6所示。采用RANSAC找到優(yōu)質(zhì)的匹配點(diǎn),從初匹配的105對(duì)匹配點(diǎn)中選取30對(duì)匹配準(zhǔn)確的匹配點(diǎn)組,如圖7所示,此過(guò)程耗時(shí)669 ms。

圖6 SIFT特征點(diǎn)匹配結(jié)果

圖7 RANSAC精確匹配結(jié)果

通過(guò)透視變換找到左、右攝像機(jī)成像區(qū)域的對(duì)應(yīng)關(guān)系。透視變換是將圖像投影到新的視平面,通過(guò)透視變換找到一個(gè)3×3的投影矩陣來(lái)描述左、右區(qū)域的關(guān)系,從而可通過(guò)矩陣找到左圖像素點(diǎn)對(duì)應(yīng)特征點(diǎn)在右圖中的位置,并快速地還原出圖像位置。透視變換公式為

通過(guò)精確的匹配點(diǎn)得到透視變換矩陣,從而可求右圖對(duì)應(yīng)像素點(diǎn)位置;再通過(guò)透視變換,用SURF提取特征,并使用KNN進(jìn)行匹配,可得到113對(duì)精確的匹配點(diǎn)對(duì),如圖8所示。

圖8 透視變換后精確的匹配點(diǎn)

3.4 定位結(jié)果及分析

根據(jù)左、右區(qū)域的透視變換關(guān)系,可求視差圖,如圖9所示,三維重構(gòu)圖如圖10所示。

圖9 視差圖

圖10 三維重構(gòu)圖

由于深度與視差成反比,當(dāng)視差很小時(shí),即使其發(fā)生非常小的變化,都會(huì)使深度發(fā)生很大變化;同樣當(dāng)深度很大,深度變化不明顯時(shí),視差基本不會(huì)變化,因此視差變化不明顯。這和前面的理論相吻合,所得視差也可以求出目標(biāo)的深度信息。

通過(guò)邊緣檢測(cè)提取的最小輪廓(4個(gè)角點(diǎn))及質(zhì)點(diǎn),并通過(guò)透視變換關(guān)系計(jì)算它們?cè)谌S空間的坐標(biāo),實(shí)測(cè)數(shù)據(jù)如表2所示,實(shí)測(cè)坐標(biāo)-截面結(jié)果圖如圖11所示。本文算法求取目標(biāo)位置和實(shí)際測(cè)量誤差在7 mm以內(nèi),平均誤差為0.676%。

表2 實(shí)測(cè)深度數(shù)據(jù)與實(shí)際值對(duì)比

圖11 實(shí)測(cè)坐標(biāo)X-Y截面結(jié)果圖

本文方法分別與基于SIFT、SURF特征匹配定位方法進(jìn)行比較。在定位精度方面,各方法平均測(cè)距誤差依次為:4.6 mm、12.6 mm、13.6 mm。由此可知,本文方法測(cè)距精度有明顯優(yōu)勢(shì)。在實(shí)時(shí)性方面,各方法平均耗時(shí)分別為:1.265 s、5.801 s、3.526 s。本文方法候選匹配點(diǎn)數(shù)量減少,耗時(shí)也相應(yīng)減少,同時(shí)精匹配過(guò)程誤匹配的概率也減少。

4 結(jié)語(yǔ)

本文提出基于粗定位-精匹配的雙目視覺(jué)定位方法,在粗定位階段采用Canny邊緣檢測(cè)獲取目標(biāo)區(qū)域和目標(biāo)質(zhì)心。在精匹配階段,以目標(biāo)區(qū)域?yàn)樗阉鞣秶蟪鲎笥覅^(qū)域的透視變換關(guān)系,最后利用匹配結(jié)果恢復(fù)目標(biāo)的位置及質(zhì)點(diǎn)空間坐標(biāo),實(shí)現(xiàn)了目標(biāo)的精確定位。該方法用于雙目立體視覺(jué),定位誤差較小且定位實(shí)時(shí)性高,在一定的范圍內(nèi)可以實(shí)現(xiàn)目標(biāo)精確快速定位,具有一定的應(yīng)用價(jià)值。

[1] 杜娟,邱海濤.基于共享坐標(biāo)系的雙目立體匹配算法實(shí)現(xiàn)[J].自動(dòng)化與信息工程,2020,41(5):7-11.

[2] 王浩,馬振書(shū),穆希輝,等.危險(xiǎn)品彈藥遙操作搬運(yùn)機(jī)器人的研究與開(kāi)發(fā)[J].科學(xué)技術(shù)與工程,2007,7(3):393-395,405.

[3] 肖健.SIFT特征匹配算法研究與改進(jìn)[D].重慶:重慶大學(xué), 2012.

[4] 韓峰,李曉斌.基于改進(jìn)SURF算法的雙目視覺(jué)定位[J].電視技術(shù),2015,39(23):22-25,30.

[5] 李耀云,賈敏智.基于Harris-SIFT算法的雙目立體視覺(jué)定位[J].電視技術(shù),2013,37(9):23-25,29.

[6] 朱镕杰,朱穎匯,王玲,等.基于尺度不變特征轉(zhuǎn)換算法的棉花雙目視覺(jué)定位技術(shù)[J].農(nóng)業(yè)工程學(xué)報(bào),2016,32(6):182-188.

[7] 韓峰,韓文靜.一種改進(jìn)SURF算法的視覺(jué)定位[J].電光與控制,2016,23(7):29-33.

[8] 程佳兵,鄒湘軍,陳明猷,等.多類復(fù)雜水果目標(biāo)的通用三維感知框架[J].自動(dòng)化與信息工程,2021,42(3):15-20.

[9] 惠記莊,羅麗,楊永奎,等.基于SURF-BRISK的目標(biāo)識(shí)別匹配與定位方法研究[J].長(zhǎng)安大學(xué)學(xué)報(bào)(自然科學(xué)版),2016, 36(3):93-101.

[10] 羅桂娥.雙目立體視覺(jué)深度感知與三維重建若干問(wèn)題研究[D].長(zhǎng)沙:中南大學(xué),2012.

[11] 李先祥,陳思琪,肖紅軍,等.基于SGBM算法與BM算法的三維重建分析[J].自動(dòng)化與信息工程,2019,40(5):6-12.

[12] 徐昱琳,楊永煥,李昕,等.基于雙目視覺(jué)的服務(wù)機(jī)器人仿人機(jī)械臂控制[J].上海大學(xué)學(xué)報(bào)(自然科學(xué)版),2012,18(5): 506-512.

[13] ZHAO Peng, NI Guoqiang. Simultaneous perimeter measure- ment for 3D object with a binocular stereo vision measure- ment system[J]. Optics & Lasers in Engineering, 2010,48(4): 505-511.

[14] 項(xiàng)榮,應(yīng)義斌,蔣煥煜,等.基于雙目立體視覺(jué)的番茄定位[J].農(nóng)業(yè)工程學(xué)報(bào),2012,28(5):161-167.

[15] ZHAO Z J, LIU Y C, ZHANG Z Y. Camera calibration with three noncollinear points under special motions[J]. IEEE Transactions on Image Processing, 2008,7(12):2393-2402.

[16] 藍(lán)福明,楊宜民.基于OpenCV和本質(zhì)矩陣的雙目立體視覺(jué)攝像機(jī)標(biāo)定方法[J].自動(dòng)化與信息工程,2012,33(6):4-7.

[17] 時(shí)洪光,張鳳生,鄭春蘭.基于圖像校正與灰度相關(guān)性的立體匹配算法研究[J].機(jī)械,2010,37(8):15-17,33.

[18] 王敏行.一種雙目視覺(jué)的精準(zhǔn)立體匹配算法[J].科學(xué)技術(shù)創(chuàng)新,2019(13):7-9.

[19] LOWE D G. Distinctive image feature from scale-invariant key point [J].Computer Vision, 2004,60(2):91-110.

[20] 盧洪軍.基于雙目視覺(jué)移動(dòng)機(jī)器人目標(biāo)的檢測(cè)與定位[D].沈陽(yáng):沈陽(yáng)工業(yè)大學(xué),2017.

[21] 梁遠(yuǎn)芳,林苗婷,葛坤,等.基于改進(jìn)的SIFT特征的數(shù)字圖像無(wú)縫拼接技術(shù)[J].福建電腦,2014,30(6):9-12,18.

Binocular Vision Target Location Method Based on Coarse Location and Fine Matching

Du Yuxiao1Zheng Xiaosen1Chen Yihang1Wang Xiaoqiao2Wang Gongdong2Zhong Nan2

(1.College of Automation, Guangdong University of Technology, Guangzhou 510006, China 2.Hisense Electronics Co., Ltd. Jiangmen 529000, China)

In order to improve the localization accuracy of binocular vision system, a binocular vision target localization method based on coarse localization fine matching is proposed. Canny edge detection algorithm is used to recognize the target object in the left and right images, and the maximum and minimum rectangular regions of the target object are extracted, so as to realize the rough positioning of the target object. SIFT algorithm is used to obtain the feature points of the target in the left and right images; The exact matching points are obtained by RANSAC, and the perspective transformation relationship between the objects in the left and right images is calculated; According to the perspective transformation relationship, the position of the target feature point of the left image at the potential matching point of the target in the right image is determined, and the three-dimensional pose and centroid coordinates of the target object are obtained, so as to realize the fine matching of the target object. The experimental results show that the average ranging error of this method is 4.6 mm and the average time is 1.265 s. Compared with sift and surf feature matching positioning methods, this method has the characteristics of high positioning accuracy and short running time.

binocular stereo vision; coarse location; fine matching; SIFT algorithm; RANSAC; perspective transformation

杜玉曉,男,1973年生,工學(xué)博士,副教授,主要研究方向:自動(dòng)化裝備與集成技術(shù)、生物電信號(hào)檢測(cè)及處理技術(shù)。E-mail: yuxiaodu@gdut.edu.cn

鄭曉森(通信作者),男,1993年生,碩士研究生,主要研究方向:雙目視覺(jué),圖像處理等。E-mail: 362389141@qq.com

陳祎杭,男,1997年生,碩士研究生,主要研究方向:工業(yè)機(jī)器人、智能制造。

王小橋,男,1979年生,大專,主要研究方向:工業(yè)機(jī)器人與視覺(jué)測(cè)量技術(shù)。

王公東,男,1979年生,大專,主要研究方向:工業(yè)機(jī)器人與視覺(jué)測(cè)量技術(shù)。

鐘楠,男,1998年生,工學(xué)學(xué)士,主要研究方向:工業(yè)機(jī)器人與視覺(jué)測(cè)量技術(shù)。

TP391.41

A

1674-2605(2021)05-0002-07

10.3969/j.issn.1674-2605.2021.05.002

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對(duì)比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠(chéng)的四個(gè)特征
詈語(yǔ)的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 在线免费亚洲无码视频| 欧美成a人片在线观看| 四虎永久免费在线| 欧美人人干| 免费在线一区| 欧美亚洲日韩不卡在线在线观看| 亚洲中文字幕97久久精品少妇| 国产欧美亚洲精品第3页在线| 人妻少妇乱子伦精品无码专区毛片| 72种姿势欧美久久久久大黄蕉| 国产乱子伦视频在线播放| 免费全部高H视频无码无遮掩| 999精品在线视频| 久久 午夜福利 张柏芝| 国产美女91视频| 国产福利在线免费观看| 久久久精品久久久久三级| 精品国产美女福到在线直播| 无遮挡国产高潮视频免费观看| 亚洲欧美另类久久久精品播放的| 2020最新国产精品视频| 亚洲无码高清视频在线观看| 在线看国产精品| 国产亚洲精品精品精品| 亚洲成aⅴ人在线观看| 99中文字幕亚洲一区二区| 国产女人在线视频| 久久情精品国产品免费| 国产精品熟女亚洲AV麻豆| 精品综合久久久久久97超人该| 婷婷五月在线| 久久久久人妻一区精品| 国产精品内射视频| 国产成人精彩在线视频50| 久久久精品无码一区二区三区| 在线观看国产精品一区| 久久久久亚洲av成人网人人软件 | 久久夜色精品| 亚洲成人在线免费观看| 91精品国产一区| 91国内在线视频| 久久精品这里只有精99品| 少妇精品在线| 久久综合色播五月男人的天堂| 无码又爽又刺激的高潮视频| 岛国精品一区免费视频在线观看 | 91网站国产| 老司机精品久久| 无码免费试看| 久久性妇女精品免费| 亚洲高清在线天堂精品| 在线观看无码av免费不卡网站 | 亚洲一区二区成人| 高清久久精品亚洲日韩Av| 九九视频免费在线观看| 日韩经典精品无码一区二区| 日本一区二区三区精品视频| 欧美午夜久久| 久久亚洲高清国产| 亚洲精品无码久久久久苍井空| 久久国产高清视频| 亚洲欧美在线综合一区二区三区 | 美女被狂躁www在线观看| 免费jjzz在在线播放国产| 青青青视频91在线 | 欧美国产中文| 喷潮白浆直流在线播放| 国内熟女少妇一线天| 国产欧美在线观看一区 | 免费高清毛片| 国产亚洲精品yxsp| 亚洲,国产,日韩,综合一区| 国产在线观看91精品| 国产一区二区三区在线无码| 成年人久久黄色网站| 国产精品尤物在线| 毛片网站在线播放| 人妖无码第一页| 青青草91视频| 99免费在线观看视频| 久久这里只有精品66| 91在线无码精品秘九色APP|