999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進的空間體素融合方法及其在線重建

2018-03-21 09:43:56王劍飛林金花王璐
湖南大學學報·自然科學版 2018年2期

王劍飛 林金花 王璐

摘 要:目前,隨著深度傳感器的更新發展,使得三維重建的在線方法得以實現.在線重建的難點在于如何能夠在保證較好的重建效果和重建規模的前提下,實時地將多個動態重疊深度圖轉化成一個三維模型.針對這一問題,本文算法基于空間索引策略構建了一種存取高效的空間體素數據結構,改進了傳統體積融合方法中的規則分層網格數據結構,對隱含表面數據進行實時存取與更新的同時,實現大尺度的在線三維重建.這些表面數據僅在觀測時存儲,并且高效地流入和流出索引表,實現了傳感器運動過程中的在線場景重建.算法通過在GPU(Graphics Processing Pipeline)上完成深度圖預處理,攝像姿態估計,深度圖融合和表面繪制幾個核心階段,實現對細粒度的細節和大尺度的環境進行交互式實時重建.通過實驗表明,改進后的重建系統能夠在保證重建質量與重建性能的同時,平均重建時間為21.6 ms,ICP姿態估計15次,用時8.0 ms,平均幀繪制速率提高13.3%,實現了對大尺度場景的實時三維重建.

關鍵詞:在線; 空間索引; 數據結構; GPU; 實時重建

中圖分類號:TP391.41文獻標志碼:A

Abstract:At present, with the development of the depth sensor, the on-line method of 3D reconstruction is realized. The difficulty of the online reconstruction is how to convert multiple dynamic overlapping depth maps into a three-dimensional model in real time under the premise of better reconstruction effect and reconstruction scale. To solve this problem, this paper constructed an efficient spatial voxel data structure based on the spatial index strategy, improving the hierarchical grid data structure of the traditional volume fusion method and realizing the real-time access to the hidden surface data. These surface data are only stored during the observation to achieve the sensor movement in the process of online scene reconstruction. The algorithm performs interactive real-time reconstruction of fine-grained detail and large-scale environment by completing several core stages, such as depth map preprocessing, camera pose estimation, depth map fusion and surface rendering, on the GPU (Graphics Processing Pipeline). The experimental results show that the average reconstruction time is 21.6 ms, the ICP pose estimation is 15 times, and the average frame rendering rate is increased by 13.3% when the reconstruction time is 8.0 ms and the reconstruction time is 21.6 ms, realizing the real - time 3D reconstruction of large scale scenes.

Key words:online; spatial index; data structure; GPU; real-time reconstruction

三維重建是計算機視覺與圖形學的重要研究領域,隨著深度攝像機的廣泛使用,使得三維重建獲得了新的發展勢頭.由于這些設備能夠實時輸出帶有噪聲的深度圖,使得最近的研究重點是如何使用這種深度攝像機獲得在線表面重建.在線表面重建在計算機交互式應用領域表現良好,例如,增強現實(AR),其中真實世界的幾何信息可以與3D(three dimension)圖形融合并實時渲染;自主指導機器人重建及其對周圍環境的快速響應;或者在3D打印過程中實現向用戶提供即時反饋[1-2].

傳統重建方法[3-4]大多基于一組完整的三維點坐標實現重建,而在線重建是將多個重疊深度圖增量融合成一個不斷精進的三維表示.為了達到較好的實時重建性能,重建質量與重建規模不受影響,出現了許多先進的基于GPU硬件加速的在線方法,這些方法通常采用不同類型的底層數據結構,在重建速度、規模和質量方面都具有不同程度的相互抵償.

參數重建方法[5-6]簡單地平均重疊樣本,并通過對表面拓撲的簡單假設來實現點和局部多邊形的連接.同時出現的網格拉鏈方法[7]為每個表面區域選擇一個深度圖,并去除重疊區域中的冗余三角形進而實現網格縫合.這些方法通過點的局部平均化來處理噪聲,但是在異常值和高曲率的區域表現不佳.因此出現了多種非直連多邊形網格的三維重建方法.

基于點的重建方法[8]通過合并重疊點來實現重建,從而避免推斷連通性.由于大多數深度傳感器的輸出是三維點樣本,使得基于點的三維重建更加容易,例如針對單個小對象的掃描系統[9].由于重建規模較小,使得小規模高質量的三維重建得以實現.較大尺度場景的三維重建通常需要降低重建速度或質量來實現[10].這種方法使用簡單的非結構化表示,可以緊密地映射到深度傳感器,但是缺乏直接重建表面的能力.對小物體的高質量在線重建已經得以實現[11],但是大尺度重建需要以重建質量或速度為代價[12].

基于高度圖的表示方法[13]支持連接表面數據的高效壓縮,使用更緊湊的2.5維度的連續表面表示來實現三維重建,這種方法尤其適用于大型建筑物的重建[14],并且可以有效擴展到更大尺度的場景,但是無法實現對復雜模型的三維重建.

基于體積數據結構的重建方法(VRM,Volume Reconstruction Method)對三角測量的傳感器噪聲特性進行有效估計,支持增量更新,不對表面數據進行拓撲壓縮,對于給定的樣本進行累加平均,可以得到較好的重建效果和重建速度[15-17].然而,這種方法依賴于存取低效的規則體素網格,反而限制了重建規模.

為解決體積重建方法的空間限制問題,出現了多種重建方法.Keller等人[18]使用基于點的表示方法來加強體積融合的質量,雖然擺脫了空間數據結構的限制,但重建質量隨之降低[19].

同時出現了移動體積方法[20],擴展了基于深度傳感器融合的GPU渲染管線[21].這種方法在攝像機運動過程中使用GPU管線并行處理體素流,釋放了用于存儲新近數據的空間.然而這些數據流是單向有損的,即當表面數據被壓縮到網格時,無法從主機回流到GPU,并且算法仍然使用規則網格結構,這意味著數據流必須保持較小,才能確保精細的重建質量.這使得重建被限制在鄰近幾何體的場景重建,由深度傳感器得到的全范圍數據沒有得到充分利用.

規則體素網格的限制使得許多研究人員進一步尋求更加有效的體積數據結構.例如,基于稀疏空間體素的體積表示方法[22],用于大數據集的外核流架構[23].這些分層數據結構被應用到三維重建的難點在于:在重建過程中需要對基礎數據進行實時更新.例如,Zeng等人[24]實現了一個9到10級的八叉樹結構,將傳感器融合管線擴展到8m*8m*2m的室內空間.Ptzold等人[25]進一步提出了一種基于GPU的八叉樹體素網格表示方法,實現了對無網格外核體素的實時重建.然而,這些方法需要構建復雜的八叉樹結構,計算復雜度隨之增加,指針訪問的額外開銷較大[26-27].

基于深度傳感器融合的三維重建方法使用體積重建方法中的規則體素網格來重建表面,存儲空間占用量較大,并需要同時密集地表示空白的空間和表面,重建的難點是如何在不降低質量的情況下重建大尺度的場景.

針對分層數據結構在體積融合過程中存在的計算過度復雜的問題,本文提出了一種新的實時表面重建方法,支持大尺度高質量的三維重建.本文算法兼具體積方法的優點,但不依賴于受存儲約束的體素網格,同時無需分層數據結構的計算開銷.與傳統分層數據結構不同,本文算法基于一種存取高效的空間索引策略,對隱含表面數據進行實時融合.表面數據被密集存儲在觀測單元格中,同時數據可以高效地流入或流出索引表,從而在傳感器運動過程中進一步實現可伸縮重建.本文給出了一種基于空間索引策略的空間體素數據結構,通過對基礎數據的不斷更新,實現了對細粒度和大尺度場景的交互式重建.

1 相關概念與理論

體積重建方法(VRM,Volume Reconstruction Method)將深度圖轉換成帶符號的距離場,通過疊加平均得到一個規則體素網格,并使用等值面多邊形或光線投射來生成隱式函數的零級集合,從中提取最終的重建表面,實現對三維物體的重建.

體積重建方法在體數據結構中存儲一個隱式帶符號距離場(SDF,Signed Distance Field),這里假設輸入一組深度圖,且有一個規則的密集體素網格,深度傳感器在網格的中心點處被初始化,并使用ICP變量[28]來估計傳感器的剛性六自由度(6DoF,Six Degree-of-Freedom).網格中的每個體素都包含兩個數值:帶符號距離和權值.對于單個的深度圖,傳感器均勻地掃描物體表面,剔除掉視錐體以外的體素,將全部體素的中心點投影到深度圖中,接著更新體數據結構中的SDF值,實現深度圖到網格的數據融合.投影到同一像素點的所有體素成為深度樣本的貢獻分支.每個體素都存儲了一個從體素中心到觀測表面測量的帶符號距離值,其中帶符號距離為正值,表示觀測在前,反之為負,零值表示在觀測表面的邊界面.

為了降低計算成本,VRM方法引入了截斷式帶符號距離場(TSDF,Truncated Signed Distance Field)概念,僅在被觀測表面周圍的區域中存儲帶符號距離.該區域的尺寸可以調節,并將傳感器噪聲近似表示成一個基于深度的高斯方差.只有該區域內的體素的TSDF值被加權平均后更新,從而獲得一個表面估計.最后,作為每個深度樣本的貢獻分支,但在截斷區域之外的體素被明確的標記為自由空間.

VRM方法截斷表面周圍的SDF,存儲在規則體素網格中的大部分數據被標記為自由空間或不可見空間.因此問題的關鍵是:基于TSDF表示方法的稀疏特性建立一種存取高效的數據結構.

本文算法對傳統的體積重建方法進行擴充,通過建立一種快速有效的空間查找數據結構,遞增地將噪聲深度圖融合到指定存儲單元,實現對隱含表面數據的存儲、訪問和更新,在保證重建質量與重建速度的同時,實現了對三維曲面的大尺度重建.

2 本文算法概述

本文算法的核心是建立一個基于空間索引策略[29]的空間體素數據結構,并在傳感器運動過程中,使用GPU渲染管線實現對大尺度場景的實時重建.由于重建物體的幾何特性是未知的并且連續變化的,本文提出的空間體素數據結構能夠對TSDF進行動態存儲與更新,可以高效處理索引表的沖突問題,進而實現可伸縮的體積重建過程.本文提出的空間體素數據結構的核心功能主要有以下幾個方面:

主站蜘蛛池模板: www精品久久| 鲁鲁鲁爽爽爽在线视频观看| 波多野结衣无码AV在线| 毛片久久久| 久久亚洲AⅤ无码精品午夜麻豆| 国产午夜看片| av天堂最新版在线| 91热爆在线| 成人在线观看一区| 亚洲天堂.com| 欧美成人第一页| 人妻熟妇日韩AV在线播放| 欧美一级大片在线观看| 国产18在线| 国产后式a一视频| 女人18毛片水真多国产| 看国产一级毛片| 91无码人妻精品一区| 中文字幕不卡免费高清视频| 日韩在线第三页| 国产成人精品视频一区二区电影 | 激情网址在线观看| 亚洲男人的天堂在线观看| 97一区二区在线播放| 国产91丝袜在线观看| 一级一级一片免费| 国产99视频精品免费视频7| 国产手机在线ΑⅤ片无码观看| 日韩欧美国产另类| 中文字幕在线看| 婷婷五月在线| 在线欧美一区| 精品国产网站| 怡红院美国分院一区二区| 日韩精品专区免费无码aⅴ| 亚洲婷婷六月| 亚洲成肉网| 国产精品午夜福利麻豆| 精品無碼一區在線觀看 | 伊人成人在线| 久久精品国产999大香线焦| 亚洲日韩久久综合中文字幕| 91在线无码精品秘九色APP| 亚洲人妖在线| 亚洲国产成人在线| 91色综合综合热五月激情| 97国产在线视频| 国产男人的天堂| 国内精品久久久久鸭| 极品国产一区二区三区| 日韩欧美国产另类| 午夜啪啪福利| 久久天天躁夜夜躁狠狠| 国产97视频在线观看| 精品免费在线视频| 国产精品私拍99pans大尺度| 丰满人妻久久中文字幕| 啊嗯不日本网站| 无码国产偷倩在线播放老年人| 色综合久久无码网| 中文字幕久久波多野结衣 | 亚洲久悠悠色悠在线播放| 精品小视频在线观看| 国产成人高精品免费视频| 亚洲经典在线中文字幕| 日韩少妇激情一区二区| 在线观看免费国产| 国产精品夜夜嗨视频免费视频| 国产69精品久久久久妇女| 亚洲乱码视频| 精品91视频| 精品无码国产一区二区三区AV| 欧美69视频在线| 爽爽影院十八禁在线观看| 国产成人高清精品免费软件| 国产精品黑色丝袜的老师| 久久久久久午夜精品| 五月激激激综合网色播免费| 色婷婷色丁香| 五月天婷婷网亚洲综合在线| 91精品人妻互换| 网友自拍视频精品区|