999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙目視覺(jué)的水面障礙物識(shí)別算法

2018-09-26 11:34:32韓佳穎周楠

韓佳穎 周楠

摘要:為了實(shí)現(xiàn)無(wú)人艇對(duì)水面障礙物的定位,將雙目視覺(jué)技術(shù)應(yīng)用于障礙物圖像識(shí)別與定位,提出一種改進(jìn)的雙目識(shí)別的快速算法。該算法基于HSI顏色空間和SURF 特征原理實(shí)現(xiàn)特征點(diǎn)的提取,運(yùn)用多類約束條件對(duì)匹配點(diǎn)對(duì)進(jìn)行篩選,提高匹配效率。

關(guān)鍵詞:雙目識(shí)別;特征匹配;識(shí)別算法

中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2018)05-0140-02

雙目識(shí)別技術(shù)作為立體視覺(jué)的前沿科學(xué)在工業(yè)自動(dòng)化生產(chǎn)、人機(jī)交互和虛擬現(xiàn)實(shí)等諸多領(lǐng)域都得到了廣泛應(yīng)用[1]。目前在雙目識(shí)別技術(shù)的研究中,特征的提取和匹配是關(guān)鍵技術(shù),主流采用SURF特征點(diǎn)提取和匹配算法,但是通過(guò)SURF特征匹配識(shí)別目標(biāo),會(huì)使圖像特征點(diǎn)數(shù)量多,運(yùn)算量較大,實(shí)時(shí)性較差。無(wú)人艇水面實(shí)時(shí)避障過(guò)程中,障礙物的距離信息是需要提取的主要信息,由此改進(jìn)SURF特征匹配算法,優(yōu)化特征點(diǎn)對(duì)匹配的約束條件,提高匹配速度和精度,為無(wú)人艇的自動(dòng)航行和避障提供一種有效技術(shù)。

1 雙目識(shí)別與定位基本原理

雙目識(shí)別與定位的常規(guī)過(guò)程包括:圖像獲取、攝像機(jī)標(biāo)定與矯正、特征提取、特征匹配和立體重構(gòu)[2]。本文實(shí)現(xiàn)主要流程如下:

(1)通過(guò)雙目攝像頭來(lái)獲得二維圖像;(2)采用SURF原理獲得左右圖像匹配的特征點(diǎn)對(duì),特征提取前進(jìn)行圖像預(yù)處理,便于特征提取;(3)利用三類約束條件進(jìn)行左右圖像中對(duì)應(yīng)特征點(diǎn)對(duì)的篩選;其中特征點(diǎn)對(duì)篩選和匹配是本文研究的關(guān)鍵問(wèn)題。

2 特征提取與匹配

2.1 圖像預(yù)處理

攝像頭獲取的圖像常采用RGB顏色空間描述,相比于RGB空間,HSI顏色空間用色調(diào)、色飽和度和亮度來(lái)細(xì)分顏色空間,有助于目標(biāo)物體的分離。采用圖像分割方法,容易將目標(biāo)物體從背景中分離出來(lái),分離后圖像特征提取的計(jì)算量大大減小[3]。

2.2 基于SURF的特征點(diǎn)提取與匹配

Speeded Up Robust Features(SURF)[4],是一種穩(wěn)健的局部特征點(diǎn)檢測(cè)和描述算法,是對(duì)David Lowe在1999年提出的Sift算法的改進(jìn)[5]。

SURF特征點(diǎn)的提取和匹配由4個(gè)步驟組成(1)檢測(cè)特征點(diǎn);(2)選取特征點(diǎn)主方向;(3)生成特征描述符;(4)SURF特征點(diǎn)匹配。

3 特征匹配點(diǎn)對(duì)的篩選

雙目識(shí)別技術(shù)在機(jī)器人的傳感器中已得到廣泛應(yīng)用。利用它可以計(jì)算攝像機(jī)可拍攝范圍內(nèi)任意一點(diǎn)的三維坐標(biāo),其關(guān)鍵在于對(duì)應(yīng)點(diǎn)的匹配[6]。通過(guò)SURF特征匹配獲得的匹配點(diǎn)對(duì)數(shù)據(jù)量大,實(shí)時(shí)性較差,需要對(duì)匹配點(diǎn)進(jìn)行進(jìn)一步篩選。

3.1 誤匹配原因分析

在左右圖像匹配中,受攝像頭差異、畸變和特征不一致性、精度等諸多因素影響,特征點(diǎn)匹配過(guò)程中會(huì)出現(xiàn)誤匹配。一般有兩種誤匹配:一對(duì)多和匹配到錯(cuò)誤的特征點(diǎn)。前者一般是由于圖像中存在多個(gè)區(qū)域亮度信息分布近似的點(diǎn),導(dǎo)致左圖像中的一個(gè)特征點(diǎn)可與右圖像中的多個(gè)特征點(diǎn)匹配。后者一般是由于特征點(diǎn)局部信息近似,導(dǎo)致左圖像中的特征點(diǎn)匹配到了與之無(wú)關(guān)的特征點(diǎn)。因而需要對(duì)匹配點(diǎn)對(duì)進(jìn)行篩選,增強(qiáng)匹配點(diǎn)對(duì)的準(zhǔn)確率,提高計(jì)算的精度。

3.2 約束條件

本文設(shè)定三類約束:針對(duì)一對(duì)多的誤匹配,采用唯一性約束原理排除此類誤匹配;針對(duì)匹配到錯(cuò)誤特征點(diǎn)的誤匹配,采用局部極線約束和左右坐標(biāo)約束減少誤匹配。

(1)唯一性約束條件。對(duì)于左圖像中的特征點(diǎn),在右圖中與之匹配的點(diǎn)若存在,則是唯一的[7]。左圖中的特征點(diǎn)一旦匹配到右圖特征點(diǎn),則停止匹配。

(2)局部極限約束條件。極線約束常用于特征匹配[8],應(yīng)用極線約束可以大大減少匹配到錯(cuò)誤匹配點(diǎn),但左右圖像特征點(diǎn)互相映射,增大了算法的運(yùn)算量,不適用于實(shí)時(shí)系統(tǒng)中。所以本文采用局部極線約束,不做投影變換,選用合理閾值來(lái)減少第二類誤匹配,方法如下:

根據(jù)上述雙目攝像頭特點(diǎn),左右圖像在縱向 y 軸上存在一個(gè)左、右目標(biāo)點(diǎn)的匹配搜索區(qū)域,如式(1)所示。

其中,yl、yr分別為左、右匹配點(diǎn)自y軸坐標(biāo)。若T取值太小(接近0),則蛻化為極線約束。這使得正確匹配點(diǎn)對(duì)被大量濾除;當(dāng)T取值太大,則不能濾除錯(cuò)誤匹配點(diǎn)對(duì),需要通過(guò)試錯(cuò)法來(lái)獲取T。

(3)左右坐標(biāo)約束條件。左右坐標(biāo)差可表示為:

其中,zc為目標(biāo)點(diǎn)在攝像機(jī)坐標(biāo)系中的z坐標(biāo),b為基線的長(zhǎng)度,f為焦距,ds為像素的物理尺寸,xl為目標(biāo)點(diǎn)在左圖像中x坐標(biāo),xr為該目標(biāo)點(diǎn)在右圖像中對(duì)應(yīng)的x坐標(biāo)。如式2所示,需滿足左右圖像橫坐標(biāo)xl與xr的差值為正。

4 實(shí)驗(yàn)結(jié)果與分析

采用索尼1300萬(wàn)像素Exmor RSTM堆棧式圖像傳感器,獲取左右攝像頭圖像后處理過(guò)程如圖1(a-c)所示。本文采用局部極線約束條件,大大減少了匹配算法的計(jì)算量。

在matlab環(huán)境下分別進(jìn)行SURF匹配、SURF加上局部約束條件后以及SURF加上三類約束條件后匹配的匹配點(diǎn)對(duì)數(shù)量,如表1所示,通過(guò)三類約束能夠修正誤匹配點(diǎn)對(duì)。經(jīng)過(guò)唯一性約束、局部極線約束和左、右坐標(biāo)約束后,誤匹配點(diǎn)對(duì)數(shù)量大大減少,不僅減少了目標(biāo)深度數(shù)據(jù)的計(jì)算量,提高系統(tǒng)時(shí)效性,還能提高深度計(jì)算數(shù)據(jù)的精度。

5 結(jié)語(yǔ)

本文采用雙目攝像頭,通過(guò)改進(jìn)SURF匹配算法,實(shí)現(xiàn)水面障礙物識(shí)別。首先對(duì)圖像進(jìn)行預(yù)處理,提取有用特征圖像,然后基于SURF特征原理實(shí)現(xiàn)特征點(diǎn)的提取和匹配,運(yùn)用優(yōu)化的三類約束條件,對(duì)誤匹配的特征點(diǎn)對(duì)進(jìn)行篩選,獲得有效的特征點(diǎn)對(duì)。該算法能夠應(yīng)用于水面無(wú)人艇障礙物識(shí)別與距離測(cè)量,深度的測(cè)量范圍主要由攝像頭的像素量決定。本文所識(shí)別的障礙物為遠(yuǎn)處小型障礙物,障礙物的深度信息視為各處基本一致,測(cè)量快速有效,但對(duì)于大型障礙物,各處深度信息變化較大,有效的特征點(diǎn)對(duì)的選取仍是值得研究的問(wèn)題。

參考文獻(xiàn)

[1]尚倩.基于雙目立體視覺(jué)的目標(biāo)識(shí)別與定位[D].北京交通大學(xué),2011.

[2]唐獻(xiàn)獻(xiàn).基于雙目立體視覺(jué)的目標(biāo)識(shí)別與定位研究[D].哈爾濱理工大學(xué),2017.

[3]高麗,令曉明.基于數(shù)學(xué)形態(tài)學(xué)的HSI空間彩色邊緣檢測(cè)方法[J].光電工程,2010,(4):125-129.

[4]H Bay,A Ess, T Tuytelaars ,LV Gool. SURF: Speeded Up Robust Feature[J].Computer Vision & Image Understanding, 2008,110(3):346-359.

[5]蘇勇剛,高茂庭.基于分布式并行計(jì)算的SIFT算法[J].現(xiàn)代計(jì)算機(jī),2016,(20):18-23.

[6]肖婷,文懷興,夏田.基于雙目視覺(jué)技術(shù)的挖掘機(jī)智能化控制系統(tǒng)[J].工程機(jī)械,2007,(3):4-7.

[7]向登寧,鄧文怡,燕必希,等.利用極線約束方法實(shí)現(xiàn)圖像特征點(diǎn)的匹配[J].北京信息科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2002,(4):21-25.

[8]陳潔,高志強(qiáng),密保秀,陳會(huì).引入極線約束的SURF特征匹配算法[J].中國(guó)圖象圖形學(xué)報(bào),2016,(8):1048-1056.

主站蜘蛛池模板: 国产综合网站| 国产精品九九视频| 国产精品部在线观看| 老熟妇喷水一区二区三区| 中国黄色一级视频| 最新国产网站| 欧美日韩亚洲国产| 久热精品免费| 又大又硬又爽免费视频| 91无码人妻精品一区| 欧美成人第一页| 91久久精品日日躁夜夜躁欧美| 日韩最新中文字幕| aaa国产一级毛片| 日韩毛片免费观看| 国产精品女主播| 久草视频精品| 国产成人麻豆精品| 26uuu国产精品视频| 国产嫖妓91东北老熟女久久一| 亚洲成av人无码综合在线观看| 国产成人精品视频一区二区电影 | 国产区免费| 伊人大杳蕉中文无码| 精品无码视频在线观看| 亚洲精品手机在线| 99精品在线视频观看| 欧美va亚洲va香蕉在线| 国产精品香蕉在线| 欧美日韩一区二区在线免费观看| 亚洲精品制服丝袜二区| 国产第一页屁屁影院| 精品久久久久久久久久久| 国产日韩久久久久无码精品| 欧美日本在线一区二区三区| 精品视频福利| 超碰精品无码一区二区| 一级毛片在线直接观看| 成人91在线| 日本欧美一二三区色视频| 欧美精品在线观看视频| 午夜三级在线| 亚洲日本韩在线观看| 亚洲综合色婷婷中文字幕| 精品自窥自偷在线看| 亚洲最猛黑人xxxx黑人猛交 | 天天色天天综合| 色综合五月婷婷| 国产在线一区二区视频| 精品国产自在现线看久久| 91无码视频在线观看| 欧美午夜理伦三级在线观看| 97在线碰| 国产高潮流白浆视频| 色欲综合久久中文字幕网| 欧美a在线视频| 国产成人综合网| 亚洲一区二区日韩欧美gif| 无码啪啪精品天堂浪潮av| 精品偷拍一区二区| 亚洲专区一区二区在线观看| 精品少妇人妻一区二区| 999国产精品永久免费视频精品久久| 欧美精品xx| 久久semm亚洲国产| 国产丝袜精品| 欧美日韩第二页| 天天综合天天综合| 久久精品丝袜高跟鞋| 亚洲精品制服丝袜二区| 亚洲女同一区二区| 久久综合干| 天堂在线视频精品| 任我操在线视频| 中文字幕欧美日韩| 欧美天堂在线| 91国内视频在线观看| a级毛片免费网站| 国产一区二区三区精品欧美日韩| 在线免费亚洲无码视频| 久久精品这里只有国产中文精品| 99999久久久久久亚洲|