999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種用于無人船海面障礙物測距的雙目視覺系統(tǒng)

2020-01-14 02:30:18李方旭金久才李立剛戴永壽
艦船科學(xué)技術(shù) 2019年12期
關(guān)鍵詞:特征

李方旭,金久才,張 杰,,李立剛,戴永壽

(1.中國石油大學(xué)(華東)海洋與空間信息學(xué)院,山東 青島 266580;2.自然資源部第一海洋研究所海洋物理與遙感研究室,山東 青島 266061)

0 引 言

無人船作為一種新型無人水面平臺,具有體積小、機(jī)動性強(qiáng)、不易被敵軍船只發(fā)現(xiàn)的優(yōu)點(diǎn),逐漸成為對敵偵察、海上維權(quán)的重要作戰(zhàn)手段[1-2]。自主避障是無人船在超視距、遙控?zé)o效狀態(tài)下安全航行的關(guān)鍵。無人船只有準(zhǔn)確檢測周圍海域中的障礙物,如礁石、浮標(biāo)、船舶等,才能自主規(guī)劃出安全、最優(yōu)的避碰路徑。

目前,無人船用避障檢測手段以激光雷達(dá)[3]、航海雷達(dá)[4]為主,分別用于檢測定位近、遠(yuǎn)距離的海面障礙物。從無人船安全角度考慮,快速準(zhǔn)確定位近距離障礙物目標(biāo)則更為重要,但價(jià)格適中的激光雷達(dá)激光線數(shù)少,角分辨率低,易漏檢體積較小的障礙物,如橡皮艇、礁石等。美國太空與海戰(zhàn)系統(tǒng)中心的Larson J.等[5]將雙目視覺引入了無人船避障檢測領(lǐng)域中,僅通過處理、匹配船載雙目相機(jī)拍攝的海上可見光圖像,即可測得前方障礙物的位置信息,具有實(shí)施成本低、角分辨率高的優(yōu)點(diǎn)。雙目視覺因此成為近年來無人船避障檢測領(lǐng)域中的研究熱點(diǎn)。Shin B.S.等[6]以海天線為界對雙目視覺三維重建出的點(diǎn)云數(shù)據(jù)進(jìn)行海平面擬合,根據(jù)點(diǎn)云相對于海平面的高度、數(shù)量信息檢測定位海面障礙物。Sinisterra A.J.等[7]首先采用基于在線學(xué)習(xí)機(jī)制的方法檢測單目圖像中的障礙物,然后匹配雙目圖像對應(yīng)點(diǎn),根據(jù)成像幾何關(guān)系測得障礙物的位置信息。立體匹配是雙目視覺海面障礙物測距的關(guān)鍵。多數(shù)學(xué)者匹配雙目圖像對應(yīng)點(diǎn)時(shí)采用了基于區(qū)域的立體匹配方法[6-8]。然而,無人船體的不規(guī)則晃動,增大了雙目圖像間海面障礙物的尺度、亮度差異,易導(dǎo)致此類方法匹配出現(xiàn)歧義,降低雙目視覺測距的準(zhǔn)確性。

為提高立體匹配的準(zhǔn)確性,本文提出一種改進(jìn)的AKAZE 特征匹配方法,通過提取、匹配非線性尺度空間中障礙物的輪廓角點(diǎn),可以在尺度、亮度存在差異的條件下準(zhǔn)確測得海面障礙物的位置信息。利用本文所提方法研發(fā)出一種具有防水、防鹽等性能的適用于無人船海上工作環(huán)境的寬基線雙目視覺系統(tǒng)SV-100。在青島市膠州灣開展了該系統(tǒng)的測試驗(yàn)證實(shí)驗(yàn),結(jié)果表明該系統(tǒng)在100 m 內(nèi)的測距誤差小于6 m。

1 改進(jìn)的AKAZE 特征匹配方法

本章介紹一種改進(jìn)的AKAZE 特征匹配方法。給定校正后的雙目圖像,基于非線性擴(kuò)散濾波原理,采用快速顯示擴(kuò)散方案構(gòu)建非線性尺度空間,保護(hù)障礙物輪廓結(jié)構(gòu)并使得特征提取具有尺度不變性。根據(jù)被測像素與圖像域、尺度域中鄰域圓像素的灰度差提取障礙物輪廓角點(diǎn),抑制波浪邊緣、海面反光等背景干擾因素。最后,采用FREAK 算法計(jì)算特征描述向量,依據(jù)極線約束準(zhǔn)則搜索雙目圖像的匹配點(diǎn)。基于上述方法流程,可準(zhǔn)確提取、匹配障礙物的輪廓角點(diǎn),從而為后續(xù)雙目視覺障礙物測距提供準(zhǔn)確的視差數(shù)據(jù)。

1.1 尺度空間特征提取

受風(fēng)、浪、流等因素的影響,雙目相機(jī)會隨無人船船體發(fā)生不規(guī)則晃動,造成雙目圖像間海面障礙物的尺度、亮度存在差異,易造成匹配歧義。SIFT,SURF,AKAZE 等算法于尺度空間中提取具有尺度不變性的特征點(diǎn),提高了立體匹配的魯棒性[9]。AKAZE算法基于非線性濾波和快速顯式擴(kuò)散方案構(gòu)建非線性尺度空間,使圖像濾波自適應(yīng)于邊緣結(jié)構(gòu),保護(hù)了圖像的局部精度[10]。但該算法比較提取特征點(diǎn)時(shí)需計(jì)算尺度空間中每一像素的歸一化黑塞矩陣行列式值,計(jì)算復(fù)雜度高,且劃定的像素鄰域范圍小,造成特征提取隨機(jī)性強(qiáng),受波浪邊緣、海面反光等背景因素影響大。

針對上述問題,本文將FAST 算法[11]提取角點(diǎn)的原理應(yīng)用在非線性尺度空間特征點(diǎn)的提取中。通過提取輪廓角點(diǎn),以減少干擾點(diǎn)的數(shù)量。

1)分別提取不同尺度圖像中的特征點(diǎn),即先于圖像域中提取特征點(diǎn)。計(jì)算被測像素與所在尺度圖像中半徑為3 鄰域圓上16 個像素的灰度差,統(tǒng)計(jì)灰度差大于閾值εk的像素?cái)?shù)量N,若N 大于鄰域圓上像素總數(shù)量的3/4,則判定被測像素為該尺度圖像中的特征點(diǎn),像素?cái)?shù)量N 的計(jì)算公式如下:

式中:S 為以被測像素為圓心劃定的半徑為3 鄰域圓上像素的集合;x 為鄰域圓上的像素;p 為被測像素;I 為像素的灰度。

2)為保證提取出的特征點(diǎn)具有尺度不變性,需再于尺度域中提取特征點(diǎn)。將提取出的每一尺度圖像的特征點(diǎn)分別與上下相鄰尺度圖像半徑為3 鄰域圓像素的灰度進(jìn)行比較,如圖1 所示。

針對相鄰尺度圖像與被測圖像分辨率不同的情況,需將鄰域圓半徑乘以兩圖像分辨率間的比例系數(shù)后,再進(jìn)行灰度比較。若各鄰域圓上與被測點(diǎn)灰度差大于閾值εk的像素?cái)?shù)量超過該圓上像素總量的3/4,則保留該特征點(diǎn)。

為增強(qiáng)后續(xù)特征點(diǎn)描述向量間的差異性以提高匹配的準(zhǔn)確率,本文方法對提取出的特征點(diǎn)群進(jìn)行采樣,僅提取出圖像局部區(qū)域中分值最高的特征點(diǎn)。根據(jù)尺度參數(shù)將尺度空間中的特征點(diǎn)重映射至原圖像,采用非極大值抑制方法去除大小為3×3 像素的圖像塊中除分值最大的特征點(diǎn)外的其他特征點(diǎn),分值V 的計(jì)算公式如下:

式中:Pk為特征點(diǎn);Sbright為特征點(diǎn)鄰域圓上大于特征點(diǎn)灰度的像素集合;Sdark為特征點(diǎn)鄰域圓上小于特征點(diǎn)灰度的像素集合,特征點(diǎn)鄰域圓的半徑為3。

1.2 特征描述向量計(jì)算

提取出尺度空間特征點(diǎn)后,采用FREAK 算法計(jì)算特征描述向量。該算法仿生人類視網(wǎng)膜中神經(jīng)元細(xì)胞的分布模式,以鄰域內(nèi)相關(guān)性較小像素的灰度差為依據(jù)描述特征點(diǎn),能夠提高描述向量間的差異性[12]。具體流程如下:

1)以特征點(diǎn)為中心對鄰域像素進(jìn)行采樣。采樣點(diǎn)共43 個,由內(nèi)向外分布為6 層,如圖2 所示。黑色圓心為采樣點(diǎn),灰色圓圈為采樣點(diǎn)感受野。

圖 2 采樣點(diǎn)分布情況Fig.2 Distribution of sampling points

2)完成采樣后,對感受野進(jìn)行高斯濾波。根據(jù)采樣點(diǎn)灰度信息確定特征點(diǎn)方向。如圖3 所示。FREAK算法從43 個采樣點(diǎn)組成的903 個采樣點(diǎn)對中選取了45 個中心對稱的采樣點(diǎn)對用以計(jì)算特征點(diǎn)的方向 Od,計(jì)算公式如下:

式中:G 為采樣點(diǎn)對集合;M 為采樣點(diǎn)對數(shù);Por1和Por2分別為采樣點(diǎn)對中2 個采樣點(diǎn)的坐標(biāo);I 為高斯濾波后采樣點(diǎn)的灰度。

3)FREAK 算法于903 個采樣點(diǎn)對中篩選出512 個相關(guān)性較小的采樣點(diǎn)用于計(jì)算二進(jìn)制描述向量:

圖 3 用于計(jì)算特征點(diǎn)方向的采樣點(diǎn)對Fig.3 Sample point pairs for calculating the direction of the feature

式中:Pα為采樣點(diǎn)對;N 為二進(jìn)制特征描述向量的維數(shù);函數(shù)T 定義如下:

式中:Pαr1和Pαr2代表采樣點(diǎn)對中2 個采樣點(diǎn)的坐標(biāo)。

1.3 雙目圖像特征匹配

相比于多幅單目圖像的配準(zhǔn),雙目圖像特征點(diǎn)的匹配可利用固有的極線約束關(guān)系來縮小特征點(diǎn)的搜索范圍。對于平行校正后的雙目圖像而言,僅需沿著行方向自左向右搜索匹配代價(jià)最小的點(diǎn)即可,由于FREAK 算法計(jì)算得到的描述向量為二進(jìn)制類型,所以采用漢明距離作為匹配代價(jià)的計(jì)算公式:

式中:d 為兩特征描述向量間的漢明距離,Ai和Bi分別為兩特征向量對應(yīng)位的數(shù)值,為異或運(yùn)算符?;谏鲜隽鞒?,以左目圖像為參考圖像,右目圖像為匹配圖像,完成特征點(diǎn)匹配后,再以右目圖像為參考圖像,匹配左目圖像。若2 次特征匹配結(jié)果相同,則保留匹配對,進(jìn)而確定雙目圖像特征點(diǎn)間的一一對應(yīng)關(guān)系。

2 寬基線雙目視覺系統(tǒng)

由于雙目視覺的測距精度與左、右相機(jī)間的基線長度成正相關(guān),因此綜合考慮擬研發(fā)無人船的內(nèi)部安裝條件,船寬為2.5 m,設(shè)計(jì)搭建了基線長度為1.8 m的雙目視覺系統(tǒng),并命名為SV-100,如圖4 框線內(nèi)所示。該系統(tǒng)主要由1 280×960 分辨率的CMOS 工業(yè)面陣相機(jī)、8 mm 焦距的鏡頭、IP66 等級的室外防護(hù)罩、三腳支架及工控機(jī)組成。

圖 4 雙目視覺系統(tǒng)Fig.4 Stereo vision system

其中,工業(yè)相機(jī)的數(shù)據(jù)接口為千兆以太網(wǎng)口GigE,可實(shí)時(shí)向工控機(jī)傳輸照片流,保證雙目圖像的同步采集。室外防護(hù)罩具備防水、放鹽的功能,可保障雙目視覺系統(tǒng)在復(fù)雜海況下正常工作。為準(zhǔn)確獲取無人船前方的海面障礙物的位置信息,以規(guī)劃出安全、最優(yōu)的避障行駛路徑,本系統(tǒng)海面障礙物測距的流程如圖5 所示。

圖 5 無人船雙目視覺系統(tǒng)測距流程圖Fig.5 Flow chart of obstacle ranging for USVs based on the stereo vision system

1)采用Bought 算法極線校正船載左、右目相機(jī)采集的雙目圖像,實(shí)現(xiàn)對應(yīng)點(diǎn)行對準(zhǔn);

2)采樣改進(jìn)的AKAZE 特征匹配方法提取、匹配雙目圖像中海面障礙物的輪廓角點(diǎn),并計(jì)算對應(yīng)點(diǎn)視差;

3)根據(jù)成像幾何關(guān)系測得障礙物的位置信息。該方法基于Opencv 3.1.0 開源計(jì)算機(jī)視覺庫實(shí)現(xiàn),編程語言為C++,運(yùn)行環(huán)境為Windows 7。

3 實(shí)驗(yàn)驗(yàn)證及結(jié)果分析

為驗(yàn)證SV-100 雙目視覺系統(tǒng)海面障礙物測距的準(zhǔn)確性,開展實(shí)驗(yàn)測試。實(shí)驗(yàn)期間,采用德國Continental AG 公司研發(fā)的ARS408 型毫米波雷達(dá)作為SV-100 測距準(zhǔn)確性的驗(yàn)證手段。ARS408 型毫米波雷達(dá)是一種緊湊型V 波段77 GHZ 的長距傳感器,探測范圍可達(dá)250 m,測距誤差小于0.4 m,具有靈敏度高、性能穩(wěn)定的優(yōu)點(diǎn)。ARS408 安裝于雙目相機(jī)中間,在與雙目相機(jī)的公共視場內(nèi),獲取前面障礙物的位置信息。

實(shí)驗(yàn)場景中,選定了一個浮標(biāo)為被測障礙物,驅(qū)動實(shí)驗(yàn)船駛行駛至距離浮標(biāo)約30 m,60 m,80 m 及100 m 處停機(jī),控制雙目視覺系統(tǒng)、毫米波雷達(dá)獲取上述位點(diǎn)浮標(biāo)的距離測量數(shù)據(jù)。以毫米波雷達(dá)數(shù)據(jù)為基準(zhǔn),驗(yàn)證雙目視覺系統(tǒng)于不同范圍內(nèi)的測距誤差。雙目相機(jī)采集的可見光圖像如圖6 所示。

圖 6 浮標(biāo)的雙目圖像Fig.6 Binocular images of the buoy

經(jīng)定點(diǎn)測量,上述位點(diǎn)浮標(biāo)的點(diǎn)云分布情況如圖7 所示。雙目視覺重建出的點(diǎn)云中干擾點(diǎn)數(shù)量少,原因在于經(jīng)過改進(jìn)后的AKAZE 特征匹配方法通過提取、匹配具有視覺意義的輪廓角點(diǎn),有效抑制了波浪邊緣的干擾。隨著測距范圍的增大,障礙物于圖像中的占像素比例逐漸減小,部分特征點(diǎn)的匹配中出了歧義,導(dǎo)致重建的點(diǎn)跡分布不規(guī)則。但從整體上看,在100 m 范圍內(nèi),雙目視覺系統(tǒng)與毫米波雷達(dá)測得的點(diǎn)云僅存在較小的位置差異。

圖 7 障礙物點(diǎn)跡分布情況Fig.7 Distribution of the obstacle point cloud

以毫米波雷達(dá)與雙目視覺系統(tǒng)測得點(diǎn)云質(zhì)心間的縱向距離為參考依據(jù),繪制雙目視覺系統(tǒng)的測距誤差曲線,如圖8 所示。

圖 8 雙目視覺系統(tǒng)測距誤差曲線Fig.8 Ranging error curve of the stereo vision system

雙目視覺系統(tǒng)于60 m 處的測距誤差為2.04 m,誤差占比為3.4%,于100 m 處的誤差為5.65 m,誤差占比為5.7%。經(jīng)與毫米波雷達(dá)數(shù)據(jù)比對,說明雙目視覺系統(tǒng)于100 m 范圍內(nèi)障礙物測距的準(zhǔn)確性高,能夠?yàn)闊o人船避碰路徑規(guī)劃提高準(zhǔn)確的障礙物位置信息。

4 結(jié) 語

針對無人船體不規(guī)則晃動,導(dǎo)致雙目視覺海面障礙物測距過程中立體匹配出現(xiàn)歧義的問題,提出一種改進(jìn)的AKAZE 特征匹配方法。通過提取、匹配非線性尺度空間中障礙物的輪廓角點(diǎn),從而可準(zhǔn)確測得海面障礙物的位置信息。利用本文所提方法研發(fā)出一種具有防水、防鹽等性能的適用于無人船海上工作環(huán)境的寬基線雙目視覺系統(tǒng)SV-100。測試實(shí)驗(yàn)結(jié)果表明,該系統(tǒng)在100 m 內(nèi)的測距誤差小于6 m,能夠?yàn)闊o人船避碰路徑規(guī)劃提供較為準(zhǔn)確的障礙物位置信息。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠的四個特征
詈語的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 国产成人一级| 国产9191精品免费观看| WWW丫丫国产成人精品| 在线观看国产精品第一区免费| 亚洲AV无码久久精品色欲| 麻豆国产精品一二三在线观看| 一本大道无码日韩精品影视| 亚洲有无码中文网| www欧美在线观看| 91久久天天躁狠狠躁夜夜| 日韩福利在线观看| 国产免费久久精品99re丫丫一| 国产国语一级毛片| 26uuu国产精品视频| 国产人在线成免费视频| 欧美精品v欧洲精品| 久久婷婷人人澡人人爱91| 秘书高跟黑色丝袜国产91在线| 无码内射在线| 真人高潮娇喘嗯啊在线观看| 精品亚洲国产成人AV| 婷婷久久综合九色综合88| 欧美激情福利| 黄色网站不卡无码| 日本不卡在线| 伊人成色综合网| 国产成人高清在线精品| 91亚洲免费视频| 中文字幕欧美日韩| 久青草免费在线视频| 超碰aⅴ人人做人人爽欧美 | 97色伦色在线综合视频| 国产拍在线| 久996视频精品免费观看| 丝袜无码一区二区三区| 99视频精品全国免费品| 一本一本大道香蕉久在线播放| 久综合日韩| 国产精品污污在线观看网站| 国产欧美日韩综合在线第一| 免费观看三级毛片| 91小视频版在线观看www| 黄色网站不卡无码| 免费无码AV片在线观看国产| 亚洲国产综合精品一区| 日本久久免费| 日韩精品亚洲人旧成在线| 午夜精品影院| 狠狠色噜噜狠狠狠狠色综合久| 国产成熟女人性满足视频| 国产精品微拍| 亚洲毛片在线看| 国产精品不卡永久免费| 国产人免费人成免费视频| 久青草免费在线视频| 亚洲最新网址| 一本一道波多野结衣av黑人在线| 97在线观看视频免费| 9丨情侣偷在线精品国产| 欧美.成人.综合在线| 蜜臀av性久久久久蜜臀aⅴ麻豆| 久久精品嫩草研究院| 久久人搡人人玩人妻精品一| 色亚洲激情综合精品无码视频| 无码福利日韩神码福利片| 又粗又硬又大又爽免费视频播放| 美女视频黄又黄又免费高清| 亚洲大尺码专区影院| 久草国产在线观看| 欧美黄色网站在线看| 国产极品美女在线观看| 日韩无码白| 青青草一区二区免费精品| 青青青国产视频手机| 国内精品九九久久久精品| 亚洲激情区| 国产毛片基地| 欧美午夜视频| 中文字幕在线观| 亚洲免费成人网| 精品国产www| 欧美亚洲国产精品第一页|