999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于完整可見性模型的改進魯棒OctoMap

2017-07-31 17:47:12袁培燕李永鋒
計算機應用 2017年5期
關鍵詞:深度模型

劉 晙,袁培燕,李永鋒

(1.河南工學院 計算機科學與技術系,河南 新鄉 453002; 2.河南師范大學 計算機與信息工程學院,河南 新鄉 453007;3.96367部隊,青海 德令哈 817099)

基于完整可見性模型的改進魯棒OctoMap

劉 晙1*,袁培燕2,李永鋒3

(1.河南工學院 計算機科學與技術系,河南 新鄉 453002; 2.河南師范大學 計算機與信息工程學院,河南 新鄉 453007;3.96367部隊,青海 德令哈 817099)

(*通信作者電子郵箱liujun_hbtm@tom.com)

從移動機器人自主導航對3D地圖精度的需求出發,在魯棒OctoMap的基礎上提出一種基于完整可見性模型的改進魯棒OctoMap并應用于基于Kinect的RGB-D同時定位與地圖創建(SLAM)中。首先,通過考慮相機和目標體素的相對位置關系及地圖分辨率進行可連通性判斷,獲得滿足可連通性的相鄰體素的個數及位置;其次,根據不同的可連通性情況分別建立目標體素的可見性模型,從而構建普適性更強的完整可見性模型,有效克服了魯棒OctoMap可見性模型的局限性,提高了建圖精度;再次,使用基于高斯混合模型的Kinect深度誤差模型代替簡單深度誤差模型,進一步克服傳感器測量誤差對地圖精度的影響,降低了地圖的不確定性;最后,結合貝葉斯公式和線性插值算法來更新八叉樹中每個節點的實際占用概率,從而構建基于八叉樹的立體占用地圖。實驗結果表明,所提方法有效克服了Kinect傳感器深度誤差對地圖精度的影響,降低了地圖的不確定性,其建圖精度較魯棒OctoMap有明顯的提高。

3D地圖;魯棒OctoMap;高斯混合模型;八叉樹;立體占用地圖

0 引言

自主導航是移動機器人執行各項任務的基礎和前提。移動機器人實現自主導航需要預先知道所在環境的地圖信息,從而可以進行自定位和路徑規劃。機器人同時定位與地圖創建(Simultaneous Localization And Mapping, SLAM)技術完成了移動機器人對未知環境的地圖構建。然而,傳統的SLAM方法多是使用激光或聲納進行二維地圖的創建[1-4]。隨著機器人移動空間的拓展,出現了空中機器人和水下機器人,二維地圖已經不能滿足這類機器人導航的需要。即使是地面移動機器人,有些較為高大的機器人也需要三維地圖來判斷環境的空間結構,從而進行精確的導航。因此,三維地圖的精確建立引起了廣大學者的關注[5-8]。

目前常用的三維地圖表示方法有點云地圖(Point cloud map)[9-10]、高程地圖(Elevation map)[11-12]和立體占用地圖(Volumetric occupancy map)[13-15]等。其中:點云地圖存儲了所有的空間點坐標,其對硬盤和內存的消耗均較大,且對于機器人來說不易區分障礙和空閑的區域,難以用于機器人導航。高程地圖只存儲每一柵格的表面高度,有效克服了點云地圖高消耗的缺點,但其無法表示環境中的復雜結構,因此多適用于室外導航。立體占用地圖多是基于八叉樹構建的,其類似于二維地圖中的柵格地圖,使用立方體的狀態(空閑,占用,未知)來表示該立方體中是否有障礙。其中,OctoMap[16-17]作為一種基于八叉樹的地圖表示方法,建立了體素的占用概率模型,提高了地圖的表示精度,且其地圖壓縮方法極大地減少了地圖對內存和硬盤的需求,代表了當前三維地圖表示方法中的較高水準。Schauwecker等[18]在OctoMap的基礎上提出了一種基于可見性模型和傳感器深度誤差模型的魯棒OctoMap并應用于基于雙目立體相機的SLAM中,有效克服了傳感器深度誤差對地圖精度的影響,并通過與OctoMap比較體現了所提方法的有效性; 然而,魯棒OctoMap的可見性模型未考慮相機和目標體素的相對位置關系,具有一定的局限性,會導致建圖精度不高。

本文針對魯棒OctoMap可見模型的局限性,提出一種基于完整可見性模型的改進魯棒OctoMap并將其應用于基于Kinect的RGB-D SLAM中。首先,考慮相機和目標體素的相對位置關系及地圖分辨率進行可連通性判斷,從而獲得滿足可連通性的相鄰體素的個數及位置;其次,針對可連通性的不同情況,分別建立相機到目標體素的可見性模型,從而構建普適性更強的完整可見性模型;再次,使用基于高斯混合模型的Kinect深度誤差模型代替文獻[18]中的簡單深度誤差模型,進一步提高地圖精度;最后,結合貝葉斯公式和線性插值算法來更新八叉樹中每個節點的實際占用概率,最終構建基于八叉樹的立體占用地圖。對比實驗表明,本文方法的建圖精度較魯棒OctoMap有明顯的提高。

1 魯棒OctoMap可見性模型及其局限性

對于立體雙目攝像頭和Kinect等傳感器,其深度值均具有較大的誤差,對所建地圖精度影響較大。在基于八叉樹的地圖中,部分區域由于遮擋造成不可見,因此這些區域的所有測量值均是有誤差的。針對這兩種情況,Schauwecker等[18]提出了一種基于可見性模型和傳感器深度誤差模型的魯棒OctoMap并應用于基于雙目立體相機的SLAM中,有效克服了傳感器深度誤差對地圖精度的影響,提高了地圖的精度。

1.1 魯棒OctoMap可見性模型

基于八叉樹的地圖表示方法就是使用小立方體的狀態(空閑、占用、未知)來表示地圖中的障礙物,其中每一個小立方體稱為一個體素。假設體素v與體素a、b、c相鄰,如圖1所示。如果體素a、b、c狀態均為占用,則體素v可視為局部閉合,稱該事件為Cv。根據文獻[18],事件Cv發生的概率為:

P(Cv)=min{P(Oa),P(Ob),P(Oc)}

(1)

其中:P(Oa)、P(Ob)、P(Oc)分別表示體素a、b、c被占用的概率。

定義從傳感器發出的射線R能穿過一系列體素到達體素vi為事件Vvi,即表示體素vi可見。根據文獻[18],事件Vvi發生的概率取決于事件Cvi和事件Vvi-1,其中vi-1表示沿射線方向靠近傳感器一側的體素vi的前一個體素。另外,假設體素vi-1不可見則vi必然不可見,于是P(Vvi)的計算公式如下:

(2)

圖1 體素相鄰模型Fig. 1 Neighboring voxel model

1.2 可見性模型的局限性分析

Schauwecker等[18]雖然考慮了體素的可見性對地圖精度的影響,但其可見性模型并未考慮相機與體素v的相對位置關系,導致計算出來的P(Vvi)是不準確的。下面舉例說明該可見性模型的局限性。

如圖2,假設相機位置為點o,且P(Oa)=1,P(Ob)=0,P(Oc)=0,即體素a完全占用,體素b和c完全空閑, 則根據式(2)可以得出P(Vvi)>0,即表示體素v部分可見。而實際情況如圖2所示,體素a完全占用,因此射線無法穿過體素a到達體素v。而射線從點o發出,沿直線經過體素b或c根本無法到達體素v。因此,實際情況表示體素v不可見,即P(Vv)=0。

圖2 魯棒OctoMap可見性模型局限性分析示意圖Fig. 2 Sketch diagram of limitations of visibility model of robust OctoMap

通過分析可以看出,文獻[18]中的可見性模型沒有考慮相機與體素v的相對位置,不能準確表達體素v的可見性,因此該模型具有一定的局限性,會對地圖精度造成較大的影響。

2 改進魯棒OctoMap

本文針對Schauwecker等[18]的可見性模型的局限性,考慮相機與體素v的相對位置關系及地圖分辨率,提出了一種完整可見性模型,可以準確描述體素v的可見性。此外,針對Kinect傳感器的特點,采用基于高斯混合模型的深度誤差模型代替文獻[18]中的深度誤差模型,更準確地表達Kinect傳感器的深度值。基于以上兩點,本文提出了一種基于完整可見模型和Kinect深度誤差模型的改進魯棒OctoMap,以克服傳感器深度誤差對地圖精度的影響,進一步提高建圖的精度,算法流程如圖3所示。

2.1 可連通性判斷

完整可見性模型充分考慮了相機和目標體素的相對位置,有效克服了魯棒OctoMap中可見性模型的局限性,其關鍵點就是在建立可見性模型之前先對目標體素、相鄰體素以及相機三者進行可連通性判斷。若從相機發出的射線能夠穿過目標體素的相鄰體素而到達目標體素,則稱目標體素、相鄰體素和相機三者可連通;反之,則稱三者不可連通。

圖3 算法流程Fig. 3 Algorithm flow

根據傳感器和目標體素的相對位置并考慮地圖分辨率,可以確定滿足可連通性的相鄰體素的個數及其位置,總體上分為三種情況,如圖4所示,其對應的滿足可連通性的相鄰體素的個數分別為1,2,3。

圖4 可連通性示意圖Fig. 4 Sketch map of connectivity

假設目標體素的中心坐標為(xv,yv,zv),相機的坐標為(xo,yo,zo),地圖分辨率為r,則可通過判斷三者之間的關系確定相機和目標體素之間的可連通性情況,從而確定滿足可連通性的相鄰體素的個數及其位置。

情況1 若(xv,yv,zv)、(xo,yo,zo)和r滿足式(3)~(5)其中之一,則可以判定相機和目標體素之間的可連通性為圖4(a)。

(3)

(4)

(5)

情況2 若(xv,yv,zv)、(xo,yo,zo)和r滿足式(6)~(8)其中之一,則可以判定相機和目標體素之間的可連通性為圖4(b)。

(6)

(7)

(8)

情況3 若(xv,yv,zv)、(xo,yo,zo)和r滿足式(9),則可以判定相機和目標體素之間的可連通性為圖4(c)。

(9)

判斷完相機和目標體素的可連通性情況之后,其對應的滿足可連通性的相鄰體素的個數也就隨之確定了。然后根據(xv,yv,zv)、(xo,yo,zo)和r的具體關系可以判斷目標體素的位置。

2.2 完整可見性模型

通過判斷目標體素的可連通性可知,目標體素的可見性取決于滿足可連通性的相鄰體素的可見性和占用狀態。當滿足可連通性的相鄰體素可見且狀態為空閑時,目標體素才可見。因此本文根據可連通性的情況分類,建立了完整可見性模型。

情況1 當可連通性滿足圖4(a)時,只有一個相鄰體素滿足可連通性條件,體素v可見就意味著體素a可見且狀態為空閑,因為體素a的可見性與其狀態是相互獨立的,所以體素v的可見性概率P(Vv)可通過式(10)計算獲得:

(10)

情況2 當可連通性滿足圖4(b)時,有兩個相鄰體素滿足可連通性條件,體素v可見就意味著體素a、b中至少有一個可見且狀態為空閑,因為體素a、b的可見性與其狀態是相互獨立的,所以體素v的可見性概率P(Vv)可通過式(11)計算獲得:

(11)

情況3 當可連通性滿足圖4(c)時,有三個相鄰體素滿足可連通性條件,體素v可見就意味著體素a、b、c中至少有一個可見且狀態為空閑,因為體素a、b、c的可見性與其狀態是相互獨立的,所以體素v的可見性概率P(Vv)可通過式(12)計算獲得:

(12)

2.3 基于高斯混合模型的Kinect傳感器深度誤差模型

Schauwecker等[18]建立雙目立體相機的深度誤差模型,即深度誤差跟深度值的平方成正比,該模型同樣適用于Kinect傳感器。根據文獻[19]的研究,Kinect深度值的標準差與其期望存在下列關系:假設各像素點的深度值z相互獨立,則z的不確定性為:

(13)

實際上,各像素的深度值不一定相互獨立,因此式(13)具有一定的不合理性。Dryanovski等[20]提出一種基于高斯混合模型的Kinect傳感器深度誤差模型,且在文獻[20]中驗證了該模型相對于式(13)的簡單深度誤差模型具有更高的可靠性;尤其是在物體邊緣,基于高斯混合模型的深度誤差模型表現出突出的優勢。

因此,本文采用基于高斯混合模型的Kinect傳感器深度誤差模型來代替文獻[18]中的簡單深度誤差模型。

假設1 Kinect深度值z滿足下列關系:

2)假設各像素點深度值與其相鄰像素點深度值有關。

當系統滿足假設1時,z的不確定性可以根據高斯混合模型估計得到。本文采用如下高斯核

(14)

可以得出Kinect深度圖中像素(m,n)處z的均值和方差為:

(15)

i∈[m-1,m+1],j∈[n-1,n+1]

其中:(m,n)表示像素坐標,μ表示均值,σ2表示方差。

2.4 實際占用概率計算

要構建基于八叉樹的三維地圖,需要計算每個體素的實際占用概率P(Ov)。文獻[16-17]提出的OctoMap是基于概率表示的八叉樹,具有可更新性。本文在完整可見性模型和Kinect深度誤差模型的基礎上,結合貝葉斯公式和線性插值算法來更新八叉樹中每個節點的實際占用概率。

對于Kinect傳感器的一條射線R的反射點q=(x,y,z),則射線R路過的體素的實際占用概率都要更新。對于遠離q點的體素和靠近q點的體素分別采用貝葉斯公式和線性插值的方法進行更新。

對于遠離q點的體素,實際占用概率更新方法采用貝葉斯公式,即:

(16)

(17)

(18)

(19)

其中,P(Iv)表示點q在障礙物內部的概率,由文獻[18]知,根據q點的深度值及其不確定性可預先制作一個P(Iv)的離散表,從而將其作為一個先驗概率。

當SLAM過程完成時,將通過式(18)和式(19)計算的八叉樹每一節點的實際占用概率作為最終的占用概率,從而構建立體占用地圖。

3 實驗與分析

本文以一個模擬室內場景為實際場景,如圖5所示。使用現有RGB-D SLAM算法進行建圖,分別使用點云地圖(圖6)、魯棒OctoMap(圖7)和改進魯棒OctoMap(圖8)來表示地圖。其中,本文實驗中所用參數和魯棒OctoMap所用參數如表1所示。

圖5 模擬室內場景實物圖Fig. 5 Physical map of simulated indoor scene

圖6 模擬室內場景點云圖Fig. 6 Point cloud map of simulated indoor scene

表1中魯棒OctoMap的參數選取參考文獻[18],而改進魯棒OctoMap的實驗參數是根據經驗調試獲得的。

表1 實驗參數表Tab. 1 Table of parameters in the experiments

圖7 模擬室內場景魯棒OctoMapFig. 7 Robust OctoMap of simulated indoor scene

圖8 模擬室內場景改進魯棒OctoMapFig. 8 Improved robust OctoMap of simulated indoor scene

圖7和圖8中,藍色的點表示占用概率P(Ov)接近0.5,即在該體素地圖的不確定性較大,深色的點表示確定的已占用體素,即P(Ov)接近1。通過對比圖7和圖8(a)可以看出,改進魯棒OctoMap較魯棒OctoMap淺色的點明顯減少,極大地降低了地圖的不確定性,提高了地圖的精度,驗證了高斯混合誤差模型的有效性。其中,淺色的點在物體邊緣的對比效果更加突出,這與文獻[20]的結論是一致的。

目前針對地圖的確定性問題,還沒有公認的定量描述形式。為了更精確地描述本文對地圖確定性的提高,本文提出一個定量描述地圖確定性的公式:

(20)

其中:P(Ovi)表示體素vi的占用概率,N表示地圖中的體素個數,Q表示評價結果,其取值范圍為0~1。Q越接近1,表示地圖的確定性越高。

使用上述評價方法對魯棒OctoMap和圖8(a)中的改進魯棒OctoMap的評價結果分別為0.72和0.86,可以看出改進魯棒OctoMap較魯棒OctoMap確定性提高了19.4%。

從實物圖中可以看出,建圖過程中部分區域被遮擋(黑色方框中標定板背面區域),標定板后方區域為不可見,而圖7和圖8(a)中顯示背后仍有部分區域可見,足以說明該可見性模型的局限性,而圖8(b)中使用完整可見性模型的改進魯棒OctoMap標定板背后幾乎沒有可見區域,表明本文的完整可見性模型更加精確,可適用于任意遮擋情況。

圖8(c)是同時使用完整可見性模型和高斯混合誤差模型的最終建圖效果,可以看出地圖不確定性較低,且其遮擋問題也得到了較好的解決,地圖精度較高,驗證了本文方法的可行性和有效性。

本文增加了可連通性判斷,且在建立可見性模型中情況3的計算量也較改進前有所增加。為檢驗本文算法的實時性,對魯棒OctoMap和改進魯棒OctoMap進行耗時比較。經過測量,該場景體積為74.8 m3,本文采用地圖分辨率為1 cm3,則共有體素7.48×107個。本文采用筆記本配置為i3處理器,4 GB內存。經測試,改進前魯棒OctoMap耗時52.8 s,改進魯棒OctoMap耗時57.6 s,耗時稍有增加但對建圖的實時性影響不大。

4 結語

本文從移動機器人自主導航中對3D地圖精度的需求出發,在Schauwecker等[18]魯棒OctoMap的基礎上,提出了一種基于完整可見性模型的改進魯棒OctoMap并應用于基于Kinect的RGB-D SLAM中。一方面,本文通過考慮相機和目標體素的相對位置關系及地圖分辨率,從而分情況建立了完整可見性模型,克服了魯棒OctoMap中可見性模型的局限性。另一方面,本文采用基于高斯混合模型的Kinect深度誤差模型代替文獻[18]中的簡單深度誤差模型,從而有效降低了地圖的不確定性。實驗表明,本文的改進魯棒OctoMap所建地圖較原有方法具有更高的精度。

References)

[1] KOCH R, MAY S, MURMANN P, et al. Identification of transparent and specular reflective material in laser scans to discriminate affected measurements for faultless robotic SLAM[J]. Robotics and Autonomous Systems, 2016, 87: 296-312.

[2] 宋宇, 李慶玲, 康軼非, 等. 平方根容積 Rao-Blackwillised 粒子濾波 SLAM 算法[J]. 自動化學報, 2014, 40(2): 357-367.(SONG Y, LI Q L, KANG Y F, et al. SLAM with square-root cubature Rao-Blackwillised particle filter[J]. Acta Automatica Sinica, 2014, 40(2): 357-367.)

[3] FOSSEL J D, TUYLS K, STURM J. 2D-SDF-SLAM: a signed distance function based SLAM frontend for laser scanners[C]// Proceedings of the 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, NJ: IEEE, 2015: 1949-1955.

[4] 張文玲, 朱明清, 陳宗海. 基于強跟蹤 UKF 的自適應 SLAM 算法[J]. 機器人, 2010, 32(2): 190-195.(ZHANG W L, ZHU M Q, CHEN Z H. An adaptive SLAM algorithm based on strong tracking UKF[J]. Robot, 2010, 32(2): 190-195.)

[5] 張毅, 汪龍峰, 余佳航. 基于深度信息的移動機器人室內環境三維地圖創建[J]. 計算機應用, 2014, 34(12): 3438-3440.(ZHANG Y, WANG L F, YU J H. Depth-image based 3D map reconstruction of indoor environment for mobile robots[J]. Journal of Computer Applications, 2014, 34(12): 3438-3440.)

[6] HENRY P, KRAININ M, HERBST E, et al. RGB-D mapping: using depth cameras for dense 3D modeling of indoor environments[C]// Proceedings of the 12th International Symposium on Experimental Robotics. Berlin: Springer, 2010: 22-25.

[7] 王可, 賈松敏, 徐濤, 等. 基于混合位姿估計模型的移動機器人三維地圖創建方法[J]. 控制與決策, 2015, 30(8): 1504-1508.(WANG K, JIA S M, XU T, et al. Mobile robot 3D map building based on hybrid pose estimation model[J]. Control and Decision, 2015, 30(8): 1504-1508.)

[8] BRIALES J, GONZLEZ-JIMéNEZ J. Fast global optimality verification in 3D SLAM[EB/OL].[2016-06-20].http://www.riuma.uma.es/xmlui/bitstream/handle/10630/12249/main.pdf?sequence=3.

[9] ENGELHARD N, ENDRES F, HESS J, et al. Real-time 3D visual SLAM with a hand-held RGB-D camera[EB/OL].[2016-06-20].http://vision.in.tum.de/_media/spezial/bib/engelhard11euron.pdf.

[10] FIORAIO N, KONOLIGE K. Real-time visual and point cloud SLAM[EB/OL].[2016-06-20].http://dosen.narotama.ac.id/wp-content/uploads/2015/02/Realtime-visual-and-point-cloud-slam.pdf.

[11] HERBERT M, CAILLAS C, KROTKOV E, et al. Terrain mapping for a roving planetary explorer[C]// Proceedings of the 1989 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 1989: 997-1002.

[12] BAIRD C A. Elevation map-referenced mechanism for updating vehicle navigation system estimates: U.S. Patent 4939663[P]. 1990-07-03.

[13] MARTIN C, THRUN S. Real-time acquisition of compact volumetric 3D maps with mobile robots[C]// Proceedings of the 2002 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2002: 311-316.

[14] LI X, GUO X, WANG H, et al. Harmonic volumetric mapping for solid modeling applications[C]// Proceedings of the 2007 ACM Symposium on Solid and Physical Modeling. New York: ACM, 2007: 109-120.

[15] PAILLé G P, POULIN P. As-conformal-as-possible discrete volumetric mapping[J]. Computers & Graphics, 2012, 36(5): 427-433.

[16] WURM K M, HORNUNG A, BENNEWITZ M, et al. OctoMap: a probabilistic, flexible, and compact 3D map representation for robotic systems[EB/OL].[2016-06-20].http://first-mm.eu/files/wurm10octomap.pdf.

[17] HORNUNG A, WURM K M, BENNEWITZ M, et al. OctoMap: An efficient probabilistic 3D mapping framework based on octrees[J]. Autonomous Robots, 2013, 34(3): 189-206.

[18] SCHAUWECKER K, ZELL A. Robust and efficient volumetric occupancy mapping with an application to stereo vision[C]// Proceedings of the 2014 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2014: 6102-6107.

[19] KHOSHELHAM K, ELBERINK S O. Accuracy and resolution of Kinect depth data for indoor mapping applications[J]. Sensors, 2012, 12(2): 1437-1454.

[20] DRYANOVSKI I, VALENTI R G, XIAO J. Fast visual odometry and mapping from RGB-D data[C]// Proceedings of the 2013 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2013: 2305-2310.

This work is partially suppotted by the National Natural Science Foundation of China (U1404602), the Funded Project of Key Teachers in Colleges and Universities of Henan Province (2011GGJS-198),the Science and Technology key research project of Education Department of Henan Province (14A520045) .

LIU Jun,born in 1981, M.S., lecturer. His research interests include mobile robot simultaneous localization and mapping.

YUAN Peiyan, born in 1978, Ph.D., associate professor. His research interests include mobile opportunistic network.

LI Yongfeng, born in 1989, M.S. . His research interests include mobile robot simultaneous localization and mapping.

Improved robust OctoMap based on full visibility model

LIU Jun1*, YUAN Peiyan2, LI Yongfeng3

(1.DepartmentofComputerScience&Technology,HenanInstituteofTechnology,XinxiangHenan453002,China;2.CollegeofComputer&InformationEngineering,HenanNormalUniversity,XinxiangHenan453007,China;3.Troops96367,DelinghaQinghai817099,China)

An improved robust OctoMap based on full visibility model was proposed to meet accuracy needs of 3D map for mobile robot autonomous navigation and it was applied to the RGB-D SLAM (Simultaneous Localization And Mapping) based on Kinect. First of all, the connectivity was judged by considering the the relative positional relationship between the camera and the target voxel and the map resolution to get the number and the location of adjacent voxels which met connectivity. Secondly, according to the different connectivity, the visibility model of the target voxel was built respectively to establish the full visibility model which was more universal. The proposed model could effectively overcome the limitations of the robust OctoMap visibility model, and improve the accuracy. Next, the simple depth error model was replaced by the Kinect sensor depth error model based on Gaussian mixture model to overcome the effect of the sensor measurement error on the accuracy of map further and reduce the uncertainty of the map. Finally, the Bayesian formula and linear interpolation algorithm were combined to update the occupancy probability of each node in the octree to build the volumetric occupancy map based on a octree. The experimental results show that the proposed method can effectively overcome the influence of Kinect sensor depth error on map precision and reduce the uncertainty of the map, and the accuracy of map is improved obviously compared with the robust OctoMap.

3D map; robust OctoMap; Gaussian mixture model; octree; volumetric occupancy map

2016-10-13;

2017-01-10。 基金項目:國家自然科學基金資助項目(U1404602);河南省高等學校青年骨干教師計劃項目(2011GGJS-198);河南省教育廳科學技術重點研究項目(14A520045)。

劉晙(1981—),男,湖北天門人,講師,碩士,主要研究方向:移動機器人視覺定位與地圖創建; 袁培燕(1978—),男,河南鄧州人,副教授, 博士,CCF會員,主要研究方向: 移動機會網絡; 李永鋒(1989—),男,河南焦作人,碩士,主要研究方向:移動機器人視覺定位與地圖創建。

1001-9081(2017)05-1445-06

10.11772/j.issn.1001-9081.2017.05.1445

TP242

A

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 色综合久久88色综合天天提莫 | 一级做a爰片久久免费| 亚洲精品视频网| 免费毛片网站在线观看| 午夜无码一区二区三区| 婷婷激情亚洲| 国产凹凸视频在线观看| 人妻丰满熟妇av五码区| 亚洲欧洲日产国码无码av喷潮| 尤物特级无码毛片免费| 色香蕉影院| 婷婷成人综合| 国产精品一区二区国产主播| 国产成人亚洲精品无码电影| 青青草原国产av福利网站| 伊人精品成人久久综合| 亚洲视频色图| 久久99国产精品成人欧美| 成人在线观看一区| 国产男女免费视频| 狠狠做深爱婷婷久久一区| 五月天久久综合| 国产激情第一页| 日韩麻豆小视频| 亚洲日韩日本中文在线| 国产成人无码AV在线播放动漫| 亚洲精选无码久久久| 青青青视频91在线 | 东京热一区二区三区无码视频| 成人在线欧美| 国产精品偷伦视频免费观看国产| 亚洲一区二区约美女探花| 激情综合激情| 国产美女在线观看| 日韩精品高清自在线| 中文字幕在线欧美| 夜夜高潮夜夜爽国产伦精品| 三上悠亚精品二区在线观看| 美女毛片在线| 国产一区二区三区在线精品专区| 中文字幕无码制服中字| 亚洲精品无码人妻无码| 无码高清专区| 国产欧美中文字幕| 亚洲永久视频| 91福利一区二区三区| 国产午夜福利亚洲第一| 国产精品天干天干在线观看| 97国产在线视频| 熟妇人妻无乱码中文字幕真矢织江 | 亚洲欧美h| 三级国产在线观看| 欧美啪啪一区| 欧美日韩国产一级| 青青青国产精品国产精品美女| 54pao国产成人免费视频| 超级碰免费视频91| 毛片一级在线| 日韩福利在线观看| 国产人在线成免费视频| av色爱 天堂网| 欧美亚洲一区二区三区在线| 亚洲中文字幕在线精品一区| 欧洲日本亚洲中文字幕| 97国产精品视频人人做人人爱| 不卡无码网| 波多野结衣一二三| 国内精品自在欧美一区| 精品五夜婷香蕉国产线看观看| 无码精品福利一区二区三区| 22sihu国产精品视频影视资讯| 久久中文字幕不卡一二区| 露脸一二三区国语对白| 四虎综合网| 东京热高清无码精品| 国产成人做受免费视频| 国产日韩欧美精品区性色| 性视频久久| 亚洲女同欧美在线| 色综合色国产热无码一| 伊人色在线视频| 午夜a视频|