999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進雙目視覺立體匹配算法

2016-05-03 03:38:30西安科技大學厙向陽
電子世界 2016年7期

西安科技大學 劉 森 厙向陽

?

一種改進雙目視覺立體匹配算法

西安科技大學劉森厙向陽

【摘要】獲取同一場景的立體圖像對是實現雙目立體成像的關鍵問題。針對傳統的固定窗口圖像區域匹配算法復雜度高的問題,提出一種改進的基于區域增長的立體匹配算法—基于線增長的立體匹配算法。仿真實驗表明,該算法在滿足實驗需求的情況下提高了匹配速度。

【關鍵詞】立體視覺;立體匹配;匹配算法

1 引言

雙目立體視覺是機器視覺的重要形式之一。立體匹配是雙目面立體視覺中最重要也是最復雜的部分[1]。然而,由于匹配的不確定性,立體匹配問題始終沒有統一的解決方案。雙目立體匹配主要是通過匹配算法從立體圖像對中找出匹配點并得到視差圖,然后利用三角幾何關系計算空間中物點的深度信息,從而生成深度圖[2]。

目前較為常用的立體匹配算法是基于區域的匹配算法,基于區域增長的立體匹配算法對紋理信息比較豐富的圖像有比較好的效果[3-4],但是也存在著運算量較大,執行速度較慢,確定極線方程的計算過程過于復雜和算法復雜度較高等問題。

為了能降低雙目立體匹配算法的復雜度,同時保證匹配的可靠性。本文針對傳統的基于區域增長算法復雜度高的問題,給出了一種基于線增長的立體匹配算法。仿真實驗表明所給算法具有良好的可靠性和很好的時效性。

2 基于線增長的立體匹配算法

立體圖像對的立體匹配算法在執行過程中對部分像素點重復計算,造成該算法復雜度較高。由于立體圖像只在行的方向上有偏差,為了減少其算法的復雜度,只需在行方向上進行區域增長。因此,只用查找根點的下一個鄰接點來進行區域增長,如圖1所示。將算法中只在行方向上進行區域增長稱為線增長。

圖1 線增長方式

改進后的算法步驟如下:

Step1.根點選擇。在不屬于任何一個增長區域的行中選擇一個像素點,然后通過誤差量計算公式:

求該點誤差量。

如果誤差量不大于VLG(Lin Growing Threshold),將該點設為根點,將其誤差設為區域誤差。

Step2.計算根點在行方向上的右相鄰點與根點的誤差量。如果誤差量等于或小于VLG,將該點劃分到該區域。否則,標記該點;

Step3.將歸入該區域的點設為新的根點,轉Step2,直到該次區域生長完成。

Step4.判斷所有像素點是否已計算,如果還有點沒有計算,轉Step1,否則,算法結束。

3 通過平均誤差閾值機制來過濾不可靠的視差估計

在立體匹配過程中存在一些噪音,這些噪音使得立體匹配的可靠性大幅度降低,為了提高立體匹配的可靠性,運用平均誤差機制過濾不可靠的視差估計值。

將雙目立體圖像對作差之后得到的圖像就是兩幅圖像之間的不同部分,然后進行二值化操作得到視差圖d,視差圖d的誤差值Ed表達式為:

視差圖d的可靠度的平均值Rd定義為:

其中,Ne為預先設定的誤差值。Sd是誤差量為Ne的像素點個數。

對在物體邊界的點來說,它很可能被圖像中的錯誤對象掩蓋。這樣的視差圖就會包含了一些不可靠的信息,這些不可靠的差異信息可以從不能忽視的高誤差量Ed得到。為了增加所得視差圖d的可靠性,采用式(4)過濾掉一些在d中的不可靠差異信息,經過過濾的視差圖d0可表示為:

經過過濾不可靠信息后的視差圖d0的誤差值設為,則有:

采用過濾掉不可靠差異信息的d0比d更加可靠。式(5)中,設置了針對Ne的差異信息來代表沒有被判斷的區域,包含Ne區域的Ed的值在計算Rd時被排除在外。Ve用來判斷誤差量的閾值是否可靠,為了自動定義Ve,我們采用以下方法:

在式(6)中,a代表采用濾波方法所得到可靠值的偏差系數。降低a的值會使d更加可靠。但是由于忽略圖像中更多的差異點,所以說在降低a的同時會損壞視差圖。

4 實驗結果

為了驗證本文算法的有效性,以心臟模型的立體圖像對(圖2)進行仿真實驗并對實驗結果進行比對。編程環境:MATLAB 7.0,硬件環境:Pentinum(R) Dual-Core CPU T4400,內存2G的計算機上使用MATLAB 7.0對原有算法和改進算法進行實現。數據來源:項目組前期工作數據。

圖2 左右立體圖像對

通過在實驗中進行參數設置,分別得出了在不同算法和在相同算法的不同參數下立體匹配的可靠性和時間的數據。

圖3中橫軸1、2分別代表的是基于區域的匹配結果和基于行增長匹配所得結果(VLG=180)的匹配可靠性。

圖3 可靠性比較

圖4中橫軸1、2分別代表的是基于區域的匹配算法和基于線增長匹配算法(VLG=180)在實現過程中所消耗的時間。

實驗結果表明基于區域匹配算法的可靠性相對比較好,但是其時間消耗最大,超過了7.24s。當VLG=180時,本文算法可靠度相比基于區域匹配算法和基于點的匹配算法有所下降,但是完全滿足實驗需求,該算法突出特性在于它的時間消耗相比傳統區域增長算法大幅下降,只有不到2.18s,降低了三倍。

基于線增長的匹配算法在滿足可靠性要求的情況下將時間消耗大幅度降低,達到了實驗的期望數據。

圖4  時間消耗(單位:s)

5 結論

本文對基于區域的立體匹配算法做了詳細分析,發現傳統的區域增長匹配算法的復雜度較高,最后通過將待匹配圖像中的某幾行像素設定為一個執行區域(即線增長中的“線”)依次進行立體匹配,實驗結果表明,在能夠滿足需求的匹配可靠性的前提下我們的算法復雜大幅縮小,取得了滿意的效果。

參考文獻

[1]趙亮亮.雙目立體視覺中的圖像匹配技術研究[D].南京航空航天大學,2007.

[2]何仁杰.雙目立體視覺區域局部匹配算法的改進及其實現[J].現代電子技術,2009(12):68-70.

[3]張輝,張麗艷.面向三維點云測量的雙目立體匹配算法[J].南京航空航天大學學報,2009,41(5):588-594.

[4]陳登,白洪歡.Census立體匹配算法的DSP實現[J].科技通報2008.6:860-865

[5]徐奕,周軍,周源華.立體視覺匹配技術[J].計算機工程與應用,2003,39(15):388-392.

劉森,男,碩士,主要研究領域為計算機圖形學、圖像處理。

厙向陽,男,教授,主要研究領域為大數據和機器學習。

作者簡介:

通訊作者:

主站蜘蛛池模板: 国产精选小视频在线观看| 五月婷婷丁香色| 精品91视频| 91九色国产在线| 午夜无码一区二区三区| 亚洲无码视频图片| 国产凹凸视频在线观看| 国产成人乱无码视频| 久久中文无码精品| 国产原创第一页在线观看| 免费观看国产小粉嫩喷水| 国产系列在线| 日韩性网站| a级毛片免费看| 精品福利视频导航| 高清欧美性猛交XXXX黑人猛交| 天天躁夜夜躁狠狠躁躁88| 国内精品九九久久久精品| aa级毛片毛片免费观看久| 人妻丝袜无码视频| 在线看国产精品| 国产精鲁鲁网在线视频| 热九九精品| 亚洲第一黄色网| 中文字幕2区| 久青草国产高清在线视频| 国产乱码精品一区二区三区中文| 中文字幕首页系列人妻| 久久99久久无码毛片一区二区| 亚洲人在线| 国产不卡国语在线| 国产人前露出系列视频| 亚洲全网成人资源在线观看| 久久福利片| 九九久久99精品| 国内精品一区二区在线观看| 欧美视频在线不卡| 亚洲人在线| 91无码视频在线观看| 黄色污网站在线观看| 免费中文字幕在在线不卡| 99re视频在线| 免费一级无码在线网站 | 91麻豆精品国产91久久久久| 久久不卡国产精品无码| 重口调教一区二区视频| 色妞www精品视频一级下载| 精品国产美女福到在线直播| 欧美日韩午夜| 欧美日韩中文国产| 91丨九色丨首页在线播放| 国内精品免费| 在线观看国产精品日本不卡网| 99尹人香蕉国产免费天天拍| 国产精品欧美日本韩免费一区二区三区不卡| 国产浮力第一页永久地址| 欧美人在线一区二区三区| 国产成人8x视频一区二区| 国产一级二级三级毛片| 国产日韩丝袜一二三区| 欧美区国产区| 在线观看国产小视频| 日本国产精品一区久久久| 亚洲欧洲自拍拍偷午夜色| 波多野结衣视频网站| 日韩大乳视频中文字幕| 狂欢视频在线观看不卡| 国产人成在线视频| 国产成人精彩在线视频50| 手机精品视频在线观看免费| 成年片色大黄全免费网站久久| 国产成人无码AV在线播放动漫 | 国产丝袜啪啪| 毛片网站观看| 97se亚洲综合不卡| 亚洲国产综合自在线另类| 国产精品人成在线播放| 久久精品视频亚洲| 国产亚洲精品97AA片在线播放| 特级做a爰片毛片免费69| 亚洲视屏在线观看| 亚洲一区黄色|