999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于置信度的深度圖融合方法

2016-02-13 07:03:30董鵬飛
現代計算機 2016年35期
關鍵詞:深度融合方法

董鵬飛

(四川大學計算機學院,成都 610065)

一種基于置信度的深度圖融合方法

董鵬飛

(四川大學計算機學院,成都 610065)

在三維重建過程中,由于受到噪聲影響,計算出的深度圖精度無法保證。針對此問題,提出一種基于置信度的抗噪融合方法。首先對每幅深度圖來進行修正,并利用一致性原理來剔除錯誤點并填補某些空洞。然后通過保留在自身鄰域內具有最高置信度的三維點,以刪除冗余。最后將深度圖反投影到三維空間,采用迭代最小二乘法優化三維點并剔除離群點。通過在測試數據集上與其他算法比較,驗證此方法的有效性。

多目立體視覺;三維重建;深度圖融合

0 引言

多視角三維重建的目的是從多幅二維圖像當中恢復目標場景的3D模型,是計算機視覺領域中重要的研究課題之一,并且在最近幾年也受到了越來越多的關注。根據Seitz等人的研究[1],現有的多視角三維重建算法可以分為四類:基于特征點擴展的方法[2],該方法首先提取和匹配一系列特征點重建出較稀疏的點云,然后將稀疏點云向周圍擴展得到稠密的點云;基于體素的方法[3],該方法在一個三維立體中計算出代價函數,并且從這些立體中提取出目標物體表面;基于表面演化的方法[4],該方法通過最小化能量方程來迭代估計出目標物體表面;基于深度圖融合的方法[5-6],該方法首先計算出每幅圖像的深度圖,然后通過融合這些深度圖來獲取最終的三維模型。在所有的算法中,基于深度圖融合算法具有較高的精確度和靈活性,更適用于絕大多數場景的重建[1,5]。

一般來說,基于深度圖融合的三維重建方法可以分為兩個步驟:①計算每幅圖像所對應的深度圖。②將這些深度圖融合成為一個三維模型。目前,已有許多研究者在深度圖計算方面做出了杰出的工作。Goesele等人利用了基于窗口的投票方法,但是這種方法只能得到匹配度較高的像素對[7]。Bradley等人通過尺度可變的窗口來增加匹配的像素對,從而使深度計算更加準確[8]。Shuhan Shen等人提出了一種有效的基于塊的匹配算法,得到每幅圖像的深度圖[5]。

本文提出了一種基于置信度的深度圖融合方法,能夠比較準確地融合那些被噪聲干擾的深度圖像。在此算法中,本文將圖像序列和它們所對應的深度圖像與攝像機參數作為輸入,將具有法向量的稠密三維點云作為輸出。此算法總共可以分為三個步驟:①修正深度圖。②刪除冗余。③深度圖融合。

1 算法描述

在算法開始階段,本文首先采用Seitz提供的Bundler[9]對原圖像作標定,目的是獲取對應的攝像機的內外參數。然后,利用這些參數信息,采用PM框架計算出所有圖像對應的深度圖[10]。

1.1 深度圖修正

由于基于PM框架的深度圖計算是以一副圖像為參考圖像進行深度估計,這也就是說每幅深度圖的計算是無法并行,這就會導致一個問題,就是同一場景在不同深度圖中不匹配。因此,本算法需要對已計算的深度圖進行再次修正。給定圖像R中的某個像素位置pr,能夠得到三個與之有關系的三維點PI(pi),PR(pr),PI(pr→i),并且獲得這三個點相對于圖像R的深度DR(PR(pr)),DR(PI(pi)),DR(PI(pr→i))。根據實際情況來看,如果有兩幅圖像可以觀察到同一個點,這也就是說,當DR(PI(pi))和DR(PR(pr))的相對差充分小的情況下,并且DI(PI(pr→i))和DI(PR(pr))的相對差也充分小,那么本文便可判定在pr處圖像R和圖像I是相互連續的。本文利用[11]和[12]中提供的方法定義圖像R在pr處的一致性比率RR(pr),如公式(1)。

由于低一致性比率也表示估計的深度值有較大可能是不準確的,因此,在算法開始之前先丟掉一致性比率較小的深度值。然后,利用公式(2)得到d*來更新原來的深度值。

其中,權重的定義如[11]中所示。

1.2 刪除冗余

在將所有深度圖融合為一個單一的3D模型之前,需要對所有深度圖進行冗余信息剔除。為此,本文提出了一種新算法來實現這個目的。

該方法首先利用深度圖將原始圖像中每個像素點反投影到三維空間中,然后對每個三維點賦予一個置信度。本文綜合考慮了三個影響因素來定義置信度:①匹配誤差。判斷三維點估計地是否準確最直觀的辦法就是計算深度時的匹配誤差,估計地越精確,誤差就會越小。②場景離攝像機中心的距離。因為對于較近的場景,拍攝的圖像可以保留較完整的細節信息,重建的三維點也就越準確。③攝像機基軸和場景視角的夾角、場景表面法向量與場景視角的夾角。當夾角越接近于零,估計的深度值就會越準確。

對于每個三維點,綜合考慮以上三個因素,最終獲得對應的的置信度。之后,本文在互為冗余的點集中,選擇出具有最大置信度的點作為最終點。另外,為了減少選擇的誤差,若在前一輪中已經選出了某點作為最終點,那么在接下來的選擇中便不再刪除此點。具體過程如圖1所示。

考慮新型拓撲結構的統一潮流控制器五端功率注入模型//吳熙,殷天然,祁萬春,蔡暉,蔣平,陳琛//(19):155

1.3 深度圖融合

在以上的處理過程中,本文只是從局部考慮,每次只對一幅深度圖進行處理,這樣的過程將會導致不可能刪除所有的冗余點和離群點。那么本文將從全局出發對三維模型進行二次優化,提高重建結果的精度。

本文首先利用深度圖,將所有圖像的所有像素點反投影到三維空間中去,獲得一個初始點云。為了加快刪除冗余信息的速度提高算法的效率,本文首先對初始點云進行重新采樣,減少初始點云中點的個數。之后,本文利用類似[12]的方法從全局考慮對點云進行整體優化。優化過程如下:對點云中任意一點P,假設法向量為nP,P的鄰域內所有三維點所組成的集合為NP。利用公式(3)對其進行迭代優化,在迭代開始階段,假設初始值P0=P,如果算法在不超過最大迭代次數k時就可以收斂到NP范圍內,就用迭代優化之后的三維點代替原來的三維點,否則便將此點作為離群點,進行刪除。

圖1 刪除冗余信息的過程

其中,權重的定義由[12]給出。

2 實驗結果與分析

圖2 [6]中方法和本文方法進行比較的結果。

本文實驗使用了C.Strecha提供的標準數據集Fountain和Herziesu[14]。為了證明本文算法與其他算法相比,具有更好的性能和更高的準確性,本文首先將與[6]中方法在上述數據集上進行定性地比較,比較結果如圖2所示,圖(a)中的點云是[6]中方法獲得的,圖(b)中的點云是本文方法獲得的。在每幅子圖中,左邊對應的是場景對應的完整三維點云,為了更好地區分兩種算法的結果,本文將完整點云在某些局部區域進行放大,對應于圖像的右邊。由圖可以看到,本文方法獲得的三維點云具有更高的準確性和完整度。

另外,本文認為定性的比較結果無法充分地說明此算法的性能。因此,本文又對這兩種方法進行定量地比較,首先,利用開源工具對點云進行處理,得到估計的點云與實際之間的誤差。最后可畫出兩種算法的誤差比值可視圖像,如圖3所示。在圖中我們可以看到,兩者的比值始終大于1,甚至可以超過3。也就是說這,本文方法重建的結果更加精確可信。

通過以上定性和定量的比較,我們可以看到由本文提出的基于置信度的深度圖融合算法可以較好地融合被噪聲干擾的深度圖。

圖3 方法[6]與本文方法的比較結果

參考文獻:

[1]Seitz S M,Curless B,Diebel J,et al.A Comparison and Evaluation of Multiview Stereo Reconstruction Algorithms[C].Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2006,1:519-528.

[2]Furukawa Y,Ponce J.Accurate,Dense,Robust Multiview Stereopsis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(8):1362-1376.

[3]George V,Carlos H E,Torr P H S,et al.Multiview Stereo Via Volumetric Graph-Cuts and Occlusion Robust Photo-Consistency[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(12):2241-2246.

[4]Cremers D,Kolev K.Multiview Stereo and Silhouette Consistency Via Convex Functionals Over Convex Domains[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(6):1161-1174.

[5]Shen Shuhan.Accurate Multiple View 3D Reconstruction Using Patch-Based Stereo for Large-Scale Scenes[J].IEEE Transactions on Image Processing,2013,22(5):1901-1914.

[6]劉怡光,易守林,吳鵬飛等.一種新的大場景三維重建算法[J].四川大學學報(工程科學版),2015,47(6):91-96.

[7]Goesele M,Curless B,Seitz S M.Multi-View Stereo Revisited[J].Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2006,2(2):2402-2409.

[8]Bradley D,Boubekeur T,Heidrich W.Accurate Multi-View Reconstruction Using Robust Binocular Stereo and Surface Meshing[C]. Proceedings of 2008 IEEE Conference on Computer Vision and Pattern Recognition.Anchorage:IEEE,2008:1-8.

[9]Snavely N,Seitz S M,Szeliski R.Photo Tourism:Exploring Photo Collections in 3D[J].ACM Transactions on Graphics(TOG),2006,25(3)

[10]Bleyer M,Rhemann C,Rother C.PatchMatch Stereo-Stereo Matching with Slanted Support Windows[C].Proceedings of the British Machine Vision Conference.Dundee:BMVA Press,2011,11:1-11.

[11]Wei J,Resch B,Lensch H P A.Multi-view Depth Map Estimation with Cross-View Consistency[C].Proceedings of the British Machine Vision Conference.Nottingham:BMVA Press,September 2014.

[12]Bailer C,Finckh M,Lensch H.Scale Robust Multi View Stereo[C].Proceedings of the 12th European Conference on Computer Vision.Volume Part III.Springer-Verlag,2012:398-411.

[13]Strecha C,von Hansen W,Van Gool L,et al.On Benchmarking Camera Calibration and Multi-View Stereo for High Resolution Imagery[C].Proceedings of 2008 IEEE Conference on Computer Vision and Pattern Recognition.Anchorage:IEEE,2008:1-8.

Fusion of Depth Maps with Confidence of Points

DONG Peng-fei

(College of Computer Science,Sichuan University,Chengdu 610065)

In the process of 3D reconstruction,due to the influence of noise,the calculation precision of depth cannot be guaranteed.Introduces an antinoise fusion method that takes advantage of the confidence of 3D points.This method first performs a refinement process on every depth map to enforce consistency over its neighbors,which can remove most errors and fill many holes simultaneously.After refinement,it deletes redundancies of every point by retaining the point that its confidence is maximal in its neighbors.Finally,it obtains a point cloud by merging all depth maps and uses an iterative least square algorithm to further eliminate the noise points.The quality performance of the proposed method is evaluated on several data sets and the comparison with other algorithm.

Multiple View Stereo;3D Reconstruction;Fusion of Depth Maps

1007-1423(2016)35-0066-04

10.3969/j.issn.1007-1423.2016.35.014

董鵬飛(1992-),男,河南洛陽人,碩士,研究方向為計算機視覺、三維重建

2016-11-18

2016-12-05

猜你喜歡
深度融合方法
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
深度理解一元一次方程
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
深度觀察
深度觀察
深度觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 久久久久无码国产精品不卡| 老司国产精品视频91| 久久夜色精品| 国产人前露出系列视频| 国产主播福利在线观看| 亚洲精品色AV无码看| 亚洲av无码成人专区| 国产美女精品一区二区| 国产你懂得| 亚洲国产日韩一区| 久久久久久久久久国产精品| 色视频国产| 国产91蝌蚪窝| 91青青在线视频| 福利在线不卡| 91精品国产自产在线老师啪l| 亚洲成人77777| 亚洲丝袜第一页| 国产最新无码专区在线| 亚洲看片网| 91精品国产自产91精品资源| 久久精品无码国产一区二区三区 | 麻豆AV网站免费进入| 亚洲欧洲美色一区二区三区| 亚洲精品无码在线播放网站| 伊人久久婷婷五月综合97色| 中文字幕欧美日韩高清| 夜夜操国产| a毛片免费看| 国产成人免费高清AⅤ| 亚洲香蕉久久| 国产精品成人一区二区| 激情在线网| 国产中文在线亚洲精品官网| 亚洲一级色| 天天躁夜夜躁狠狠躁图片| 中国国产A一级毛片| 日韩人妻无码制服丝袜视频| 国产成人一区在线播放| 欧美日韩国产综合视频在线观看| 免费a在线观看播放| 日韩在线第三页| 日韩在线中文| 日本午夜网站| 亚洲综合二区| 四虎国产永久在线观看| 国产凹凸视频在线观看| 日韩中文无码av超清| 大陆精大陆国产国语精品1024| 国产经典在线观看一区| 国产美女91呻吟求| 欧美午夜在线播放| 四虎永久免费地址| 国产自产视频一区二区三区| 青青操视频免费观看| 欧美第二区| 久久青草视频| 毛片免费观看视频| 麻豆精品在线播放| 午夜国产理论| 狠狠做深爱婷婷久久一区| 久久香蕉国产线| 国产成人亚洲精品色欲AV| 成人一级黄色毛片| 久久香蕉国产线看精品| 欧美日韩久久综合| 国产另类视频| 2020久久国产综合精品swag| 中文字幕亚洲精品2页| 亚洲国产成人自拍| 精品中文字幕一区在线| 国产精品hd在线播放| 国产视频只有无码精品| 久久网综合| 日韩精品高清自在线| 国产成人禁片在线观看| 色妞永久免费视频| 欧美人与牲动交a欧美精品| 在线欧美日韩国产| 亚洲毛片网站| 国产美女主播一级成人毛片| 一级做a爰片久久免费|