999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多傳感器的移動機器人可定位性估計與自定位

2017-12-22 09:03:53孫自飛錢堃馬旭東戴先中
智能系統(tǒng)學(xué)報 2017年4期
關(guān)鍵詞:環(huán)境

孫自飛,錢堃,2,馬旭東,2,戴先中,2

(1.東南大學(xué) 自動化學(xué)院,江蘇 南京 210096; 2.復(fù)雜工程系統(tǒng)測量與控制教育部重點實驗室,江蘇 南京 210096)

多傳感器的移動機器人可定位性估計與自定位

孫自飛1,錢堃1,2,馬旭東1,2,戴先中1,2

(1.東南大學(xué) 自動化學(xué)院,江蘇 南京 210096; 2.復(fù)雜工程系統(tǒng)測量與控制教育部重點實驗室,江蘇 南京 210096)

針對有人干擾的動態(tài)室內(nèi)環(huán)境,利用可定位性估計理論提出一種RGB-D傳感器輔助激光傳感器的移動機器人可靠自定位方法。利用RGB-D傳感器信息快速檢測人的位置區(qū)域,并通過坐標(biāo)轉(zhuǎn)換計算激光掃描數(shù)據(jù)中的動態(tài)障礙物影響因子,結(jié)合離散化Fisher信息矩陣在線估計觀測信息的可定位性矩陣;同時通過預(yù)測模型協(xié)方差矩陣評價里程計信息的可靠性,從而動態(tài)補償觀測信息對粒子集的影響。在典型含多人運動的動態(tài)室內(nèi)環(huán)境中實驗,結(jié)果驗證了本文方法能夠提高機器人自定位的準(zhǔn)確性和可靠性。

動態(tài)環(huán)境;自主定位;RGB-D傳感器;Fisher信息矩陣;人體檢測;可定位性;在線估計;移動機器人

服務(wù)機器人長期工作在與人共處的環(huán)境中,針對采用車載激光、視覺等各種傳感器實現(xiàn)的機器人自定位,人的運動會對其定位的準(zhǔn)確性造成影響,甚至導(dǎo)致定位失敗。

以往解決方法大多從改進算法本身入手,由于經(jīng)典粒子濾波算法無法補償動態(tài)環(huán)境中未建模障礙物對機器人定位產(chǎn)生的干擾,R.Valencia等[1]在經(jīng)典的蒙特卡羅定位的基礎(chǔ)上利用已知的靜態(tài)地圖和在感知更新階段建立的短期地圖進行基于正態(tài)分布變換[2]的蒙特卡羅定位,以補償環(huán)境發(fā)生短期變化時對定位精度產(chǎn)生的干擾,該算法滿足實時性并具有一定的魯棒性,但是沒有考慮靜態(tài)地圖發(fā)生永久性變化的情況。J.R?wek?mper等[3]將蒙特卡羅定位[4]、KLD采樣和使用掃描配準(zhǔn)[5]的精細定位結(jié)合起來,在不改變環(huán)境條件的情況下實現(xiàn)機器人移動作業(yè)。這種方法雖然精度高但是實現(xiàn)起來復(fù)雜而且實時性難以保證。文獻[6]通過對觀測模型可定位性和基于里程計的預(yù)測模型協(xié)方差兩個指標(biāo)的在線估計,動態(tài)調(diào)節(jié)兩者在粒子集[7]位姿修正中的比重。這種方法滿足一定的實時性,但是對于動態(tài)障礙物影響因子的計算需要離線獲得,并沒有利用傳感器數(shù)據(jù)來實時地更新未建模目標(biāo)的分布信息。

以上算法都是單一地利用激光傳感器,僅通過算法改進提高動態(tài)環(huán)境下的定位精度。近年來,更多的研究者傾向于使用多傳感器的信息融合技術(shù)[8]。尤其是隨著機器視覺的發(fā)展,將視覺與激光傳感器結(jié)合使用為動態(tài)環(huán)境下機器人定位提供了新思路,如段鵬等[9]采用分布式激光雷達和視覺攝像機,將基于自然特征的場景識別技術(shù)與Monte Carlo方法有機結(jié)合,提出了一種實時的服務(wù)機器人位姿估計方法。本文考慮到當(dāng)環(huán)境中未建模動態(tài)障礙物主要為人時,從激光傳感器讀數(shù)中檢測人腿存在一定困難,而RGB-D傳感器相比普通視覺攝像機,不僅提供場景的顏色信息,還提供深度信息,因此利用RGB-D傳感器能夠快速檢測人體軀干的位置及區(qū)域[10-11],并利用投影后的人體軀干點云估算激光數(shù)據(jù)受人腿干擾的范圍。但Kinect傳感器的精度卻比激光傳感器低,因此如何發(fā)揮兩者各自優(yōu)勢、研究一種更易于實現(xiàn)的動態(tài)環(huán)境下可靠、快速地機器人自定位方法,是問題的關(guān)鍵。

為此,本文考慮環(huán)境中的人為主要未建模動態(tài)障礙物,提出一種基于多傳感器的可定位性在線估計方法,并用于解決機器人可靠自定位問題。利用RGB-D傳感器對人體的實時檢測結(jié)果,估算激光數(shù)據(jù)是由人腿干擾引起的范圍,并使用高斯模型估計該范圍內(nèi)每一束激光上的存在未建模動態(tài)障礙物的先驗概率。解決了動態(tài)障礙物影響因子和動態(tài)可定位性矩陣在線估計問題,使動態(tài)可定位性矩陣更加真實可靠地反映環(huán)境中的未建模動態(tài)障礙物。

1 總體方法

由于RGB-D傳感器與激光傳感器精度存在較大差異,本文并不是將兩者數(shù)據(jù)直接融合,而是在可定位性理論框架下利用RGB-D傳感器信息輔助激光傳感器下的動態(tài)可定位性在線估計,從而既不丟失激光傳感器定位精度,又能避免較為困難地從激光讀數(shù)中檢測人腿。即利用RGB-D傳感器對人體的檢測結(jié)果估計每一束激光讀數(shù)中存在未建模動態(tài)障礙物的概率,利用動態(tài)可定位性估計和預(yù)測模型協(xié)方差對粒子集進行校正[12]。兩種傳感器之間的位置關(guān)系和總體方法如圖1所示。

(a)激光傳感器和RGB-D傳感器的位置關(guān)系

(b)總體方法流程 圖1 兩種傳感器的位置關(guān)系和總體方法Fig.1 Positional relationship of two sensors and method outline

激光傳感器和RGB-D傳感器之間的位置關(guān)系用旋轉(zhuǎn)矩陣R和平移矩陣T表示,圖1(a)描述了本文實驗平臺中兩種傳感器之間的位置關(guān)系,其中:

2 利用多傳感器信息的可定位性估計

2.1 動態(tài)可定位性矩陣估計

靜態(tài)可定位性矩陣是基于統(tǒng)計學(xué)理論中的Fisher信息矩陣提出的,F(xiàn)isher信息提供了觀測信息中蘊含關(guān)于待估參數(shù)信息量大小的度量。針對服務(wù)機器人依靠激光數(shù)據(jù)和先驗地圖進行位姿估計,A. Censi[13]依據(jù)圖2的機器人模型將Fisher信息矩陣定義為式(2)所示的激光掃描到環(huán)境表面斜率的函數(shù)。

圖2 機器人在全局地圖中的模型Fig.2 Robot model in global map

如圖2所示,機器人在參考位置P0=x0,y0,θ0已知的前提下,設(shè)激光測距儀實際獲取的第i個激光束的長度為ri,掃描到已知柵格為事件A,掃描到未知障礙物為事件B,則根據(jù)貝葉斯公式,該激光點掃描到已知柵格的概率為

設(shè)第i個激光束的全局坐標(biāo)位置(xi,yi)為

則p(ri|A)=μxiyi。μxiyi為原始地圖中(xi,yi)處的柵格概率值,將1-p(A|ri)定義為未知障礙物影響因子si,si值越大該激光數(shù)據(jù)對機器人可定位性的提高越小。

2.2 利用RGB-D感知的未建模動態(tài)障礙物概率估計

由于激光傳感器與Kinect傳感器的數(shù)據(jù)已通過坐標(biāo)轉(zhuǎn)換進行了對齊,本文采用Kinect傳感器實現(xiàn)視野中的快速人體檢測。在RGB-D數(shù)據(jù)中使用HOG+SVM[14]方法實現(xiàn)移動機器人作業(yè)場景中人體的檢測并得到關(guān)于人體的點云數(shù)據(jù)。

每一簇關(guān)于人體的點云經(jīng)過點云投影和坐標(biāo)變換到激光坐標(biāo)系下后,利用其中的三維信息確定激光數(shù)據(jù)是由人體干擾引起的角度范圍:對于每一簇對齊后的人體點云數(shù)據(jù)pi|pi=(xi,yi),i=1,2,…,n,計算每一個點云對應(yīng)的角度θi,即

并得到每一簇人體點云的統(tǒng)計信息,即角度θi,i=1,2,…,n的最大和最小值θmax和θmin。當(dāng)使用RGB-D傳感器檢測到場景中存在n個人時,用同樣的方法確定n對θmax和θmin,記做(θkmin,θkmax),k=1,2,…,n。對于一個特定范圍本文用高斯模型確定該范圍內(nèi)每一束激光上的未建模動態(tài)障礙物概率并記為εi(i表示第i束激光),如圖3所示。

圖3 未建模動態(tài)障礙物概率估計Fig.3 Estimating the probability of unmodeled obstacles

則整個視場中激光束的未建模動態(tài)障礙物的概率估計為εi,可以用式(6)計算:

式中:φi為第i束激光的角度,μk和σk可用pmax、pmin、θkmax、θkmin唯一確定。若場景中出現(xiàn)提取出來的兩簇點云有重疊的情形(圖4)。

圖4 點云數(shù)據(jù)有重疊情形Fig.4 Cases where point clouds are overlapped

重疊區(qū)域中的每一束激光在兩個高斯模型中對應(yīng)兩個不同的概率值,分別為εi1和εi2。

μk和σk可以用pmax、pmin、θkmax、θkmin唯一確定(k=1,2),則該激光束對應(yīng)的未建模動態(tài)障礙物概率估計為

由于p(B)表示激光掃描到未建模動態(tài)障礙物的概率,與εi的物理含義相同,則式(3)可重寫為

式中:p(A)=1-p(B),p(B)為環(huán)境中存在未知障礙物的先驗概率。本文中p(B)通過RGB-D傳感器對人體的實時檢測來獲取,進而解決動態(tài)障礙物影響因子的在線計算問題,使si更加可靠的反映環(huán)境中未建模的動態(tài)障礙物。在得到動態(tài)障礙物影響因子后,結(jié)合靜態(tài)可定位性矩陣可得到動態(tài)可定位性矩陣D(P)(式(11)),D(P)兼顧原始地圖和局部動態(tài)信息的影響,反映機器人在P處的可定位性。

3 位姿修正與更新

經(jīng)典粒子濾波定位算法依賴里程計數(shù)據(jù)進行預(yù)測更新,依賴激光數(shù)據(jù)進行感知更新。當(dāng)環(huán)境中存在動態(tài)障礙物時,粒子集權(quán)重更新依據(jù)丟失;而里程計信息由于累積誤差也不能單獨用于機器人定位。為此本文估計機器人的觀測模型可定位性矩陣以及文獻[6]中詳細介紹的預(yù)測模型協(xié)方差codo,t,并使用其修正方法將兩者作為權(quán)重指標(biāo),調(diào)節(jié)粒子集依據(jù)觀測模型對預(yù)測位姿的修正值:設(shè)t時刻粒子濾波通過預(yù)測模型得到的機器人位姿為

式中:Pt-1為上一時刻定位結(jié)果,Δut為里程計在該周期的輸入量,fodo為運動模型。在預(yù)測模型基礎(chǔ)上,通過觀測信息對粒子權(quán)重進行更新,得到新的粒子集{pPF,t,wt},pPF,t為粒子的位姿,wt為粒子權(quán)重。新的表示機器人位姿的粒子集為

式中:zi為激光測距儀的觀測值,M為地圖信息。粒子集根據(jù)觀測信息對預(yù)測位姿的修正值為ΔPobs,t=PPF,t-Podo,t。t時刻的觀測模型可定位性矩陣為DPF,t,當(dāng)觀測模型可定位性矩陣DPF,t的行列式較大時,粒子集可以較精確反映機器人位姿概率分布,然而當(dāng)觀測模型可定位性較低時,粒子集權(quán)重分配干擾嚴重,定位可靠性降低。

利用預(yù)測模型協(xié)方差和觀測模型可定位性指標(biāo)動態(tài)調(diào)節(jié)基于觀測信息對預(yù)測位姿的修正值:

式中:k1為比例系數(shù),調(diào)節(jié)觀測模型可定位性矩陣與預(yù)測模型協(xié)方差的權(quán)重比例關(guān)系。由此可知,在動態(tài)環(huán)境中,觀測模型可定位性較低,機器人位姿主要依賴里程計信息減小觀測噪聲對定位精度產(chǎn)生的影響;動態(tài)環(huán)境中未知障礙物較少時,機器人觀測模型可定位性較高,粒子集根據(jù)觀測信息修正預(yù)測位姿,消除里程計的累積誤差,保證全局定位穩(wěn)定性。

4 實驗結(jié)果

本文實驗所采用的硬件平臺如圖5所示。

圖5 Turtlebot移動平臺Fig.5 Turtlebot mobile platform

激光測距儀為Hokuyo的URG-04LX-UG01,其距離為0.02~5.60 m。采用ROS[15](Robot operating system)中間件對移動平臺內(nèi)置里程計數(shù)據(jù)、激光數(shù)據(jù)、點云數(shù)據(jù)等進行封裝,利用OpenNi中間件控制Kinect傳感器獲取場景的三維視覺信息,并通過PCL(point cloud library)[16-17]實現(xiàn)人體檢測,進而輔助激光測距儀進行機器人自定位。采用gmapping功能包[18]創(chuàng)建實驗環(huán)境的柵格地圖(圖6)。

圖6 環(huán)境模型和機器人行走軌跡Fig.6 Environment model and robot trajectory

為得到對比實驗結(jié)果,控制機器人從初始狀態(tài)運動到固定軌跡的起始點完成最初的位姿估計,位姿均方差的收斂過程如圖7所示,然后在結(jié)構(gòu)化環(huán)境和動態(tài)環(huán)境中控制機器人沿著固定軌跡行走(圖6),并分別采用經(jīng)典的蒙卡羅定位和本文提出的改進方法得到位姿跟蹤過程中的誤差,最后以跟蹤結(jié)果的均方差為標(biāo)準(zhǔn)對這4種定位結(jié)果進行比較。

圖7 定位均方差收斂過程Fig.7 Convergence process of localization error

4.1 結(jié)構(gòu)化環(huán)境中的對比實驗

首先在結(jié)構(gòu)化環(huán)境中(沒有人體干擾的情況下)控制機器人沿著設(shè)定好的軌跡行走(如圖6),使機器人盡可能遍歷整個環(huán)境,分別使用經(jīng)典定位算法和本文提出的改進算法得出機器人在行走過程中x方向和y方向的定位均方差,如圖8所示。

通過對圖(8)的觀察可知:兩種定位方法在結(jié)構(gòu)化環(huán)境中整體定位效果相差不多,x方向和y方向的定位均方差在3~5 cm之間;改進的定位算法源于經(jīng)典的粒子濾波算法,當(dāng)環(huán)境整體的可定位性較好時,其修正方法決定了改進的方法與經(jīng)典的算法功能等效;但是當(dāng)移動機器人的定位周期在200~300之間時,經(jīng)典定位算法的兩個方向的定位均方差都出現(xiàn)了變大的趨勢,而改進的方法沒有出現(xiàn)這種現(xiàn)象。這是因為當(dāng)定位周期在200~300之間時,機器人運動到圖6中的A區(qū)域,該區(qū)域環(huán)境結(jié)構(gòu)雜亂而地圖創(chuàng)建效果差,影響機器人的定位精度使其定位均方差增大但是改進的定位方法中的可定位性矩陣會對地圖的創(chuàng)建效果進行評估,在這個區(qū)域中的可定位性較小,主要依靠里程計進行定位,使定位均方差不會出現(xiàn)較大的變動。

(a)x方向定位均方差對比

(b)y方向定位均方差對比 圖8 x和y方向定位均方差對比Fig.8 Comparison of localization error in x and y-axis

4.2 動態(tài)環(huán)境中的對比實驗

在有人干擾的動態(tài)環(huán)境中控制機器人沿著上述的固定路線行走,分別采用經(jīng)典算法和本文提出的改進方法進行評估,真實場景如圖9所示,圖10為定位過程中兩幀激光和點云數(shù)據(jù),圖9圖10均包含人體相互重疊和沒有人體相互重疊兩種情況。對于檢測出的人體點云有相互重疊的情形按照式(9)所示計算動態(tài)障礙物影響因子并用于機器人定位。

圖9 移動機器人定位的動態(tài)場景Fig.9 Robot localization in dynamic environment

(a)無重疊情況下的激光數(shù)據(jù)和點云數(shù)據(jù)

(b)有重疊情況下的激光數(shù)據(jù)和點云數(shù)據(jù) 圖10 含人體點云坐標(biāo)轉(zhuǎn)換后數(shù)據(jù)的激光掃描實例Fig.10 Example of laser scan data containing point clouds after coordinate transform

經(jīng)典定位算法和本文改進算法的對比效果如圖11。

(a)x方向定位均方差對比

(b)y方向定位均方差對比 圖11 x和y方向定位均方差對比Fig.11 Comparison of localization error in x and y-axis

從圖11中可以發(fā)現(xiàn),當(dāng)機器人在前100個運行周期中經(jīng)典的粒子濾波算法以典型的性能進行定位,兩個方向上的定位均方差在4 cm左右。而在100~200個運行周期中經(jīng)典算法定位均方差出現(xiàn)增大的趨勢:在機器人的定位場景中有人出現(xiàn),干擾了機器人的激光傳感器讀數(shù),進而影響感知更新使其粒子更加發(fā)散。在第200~300個運行周期中,還是由于地圖創(chuàng)建效果的原因使粒子在原來的基礎(chǔ)上繼續(xù)發(fā)散。由圖11中的統(tǒng)計數(shù)據(jù)可以看到,在這兩個階段,兩個方向的定位均方差最大已經(jīng)達到10 cm以上,而最小的也在4 cm以上,定位性能嚴重下降。觀察本文提出的改進算法的定位結(jié)果,發(fā)現(xiàn)雖然部分均方差在5 cm以上不及經(jīng)典算法在靜態(tài)環(huán)境中的性能,但在相同環(huán)境中比經(jīng)典方法更具魯棒性:可定位性矩陣不僅對靜態(tài)的結(jié)構(gòu)化環(huán)境進行評價,還對環(huán)境中的未知障礙物(人)進行檢測和評估,當(dāng)環(huán)境中未知障礙物增多而影響激光數(shù)據(jù)時,通過粒子集的動態(tài)修正減少感知更新對粒子集的影響,使機器人主要依靠預(yù)測更新進行定位,以保證改進定位算法在動態(tài)環(huán)境中的魯棒性。

5 結(jié)束語

針對動態(tài)環(huán)境下移動機器人定位性能下降甚至失效的問題,提出了一種利用RGB-D傳感器輔助激光傳感器的動態(tài)可定位性在線估計方法,并用于移動機器人可靠自定位。本算法一方面通過RGB-D傳感器對人體的檢測并利用可定位性矩陣估計人體對激光數(shù)據(jù)的影響;另一方面通過預(yù)測模型的協(xié)方差矩陣估計里程計數(shù)據(jù)的可信度,進而融合這兩個矩陣對機器人位姿進行修正。在結(jié)構(gòu)化環(huán)境和動態(tài)環(huán)境中分別使用這兩種方法進行測試評估,實驗結(jié)果表明了本文所提出的算法對提高動態(tài)環(huán)境下移動機器人定位性能的有效性,同時結(jié)果也表明改進的算法保證了定位系統(tǒng)在多人運動干擾情況下的魯棒性。

[1]SAARINEN J, ANDREASSON H, STOYANOV T, et al. Normal distributions transform Monte-Carlo localization(NDT-MCL)[C]//2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. Tokyo, Japan, 2013: 382-389.

[2]VALENCIA R, SAARINEN J, ANDREASSON H, et al. Localization in highly dynamic environments using dual-timescale NDT-MCL[C]//2014 IEEE International Conference on Robotics and Automation (ICRA). Hong Kong, China, 2014: 3956-3962.

[4]DELLAERT F, FOX D, BURGARD W, et al. Monte Carlo localization for mobile robots[C]//Proceedings of the 1999 IEEE International Conference on Robotics and Automation. Detroit, USA, 1999: 1322-1328.

[5]CENSI A. An ICP variant using a point-to-line metric[C]// 2008 IEEE International Conference on Robotics and Automation. Pasadena, USA, 2008: 19-25.

[6]王煒. 移動機器人的可定位估計及其應(yīng)用[D].上海:上海交通大學(xué), 2012: 21-43.

WANG Wei. Localizability estimation for mobile robot and its application[D]. Shanghai:Shanghai JiaoTong University, 2012: 21-43.

[7]苗少帥,周峰. IMM迭代無跡Kalman粒子濾波目標(biāo)跟蹤算法[J]. 重慶郵電大學(xué)學(xué)報:自然科學(xué)版, 2015, 27(01): 44-48.

MIAO Shaoshuai, ZHOU Feng. IMM iterated unscented Kalman particle filter algorithm for target tracking[J]. Journal of Chongqing university of posts and telecommunications: natural science edition, 2015, 27(01): 44-48.

[8]張闖,郭晨. 二階自適應(yīng)權(quán)值粒子濾波的多傳感器信息融合[J]. 哈爾濱工程大學(xué)學(xué)報, 2016, 37(10): 1347-1352.

ZHANG Chuang, GUO Chen. Multi-sensor information fusion of a particle filter on the basis of a two-stage adaptive weight[J]. Journal of Harbin engineering university, 2016, 37(10): 1347-1352.

[9]段鵬. 與人共融的家庭服務(wù)機器人定位與導(dǎo)航[D].濟南: 山東大學(xué), 2015: 39-58.

DUAN Peng. Localization and navigation of home service robot in considering of human-robot harmony[D]. Ji′nan, China: Shandong University, 2015: 39-58.

[10]CHOI W, PANTOFARU C, SAVARESE S. Detecting and tracking people using an RGB-D camera via multiple detector fusion[C]//2011 IEEE International Conference on Computer Vision Workshops. Barcelona, Spain, 2011: 1076-1083.

[11]SPINELLO L, ARRAS K O. People detection in RGB-D data[C]//2011 IEEE/RSJ International Conference on Intelligent Robots and Systems. San Francisco, USA, 2011: 3838-3843.

[12]王勇, 陳衛(wèi)東, 王景川,等. 面向擁擠環(huán)境的移動機器人改進粒子濾波定位[J]. 機器人, 2012, 34(5): 596-603.

WANG Yong, CHEN Weidong, WANG Jingchuan, et al. Improved particle filter localization in crowded environments for mobile Robots[J]. Robot, 2012, 34(5): 596-603.

[13]CENSI A. On achievable accuracy for range-finder localization[C]//2007IEEE International conference on Robotics and Automation. Roma, Italy, 2007: 4170-4175.

[14]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, USA, 2005: 886-893.

[15]ROS[EB/OL]. [2016-05-14].http://wiki.ros.org/.

[16]RUSU R B, COUSINS S. 3D is here: Point Cloud Library (PCL)[C]//2011 IEEE International Conference on Robotics and Automation (ICRA). Shanghai, China, 2011: 1-4.

[17]MUNARO M, et al. News articles[EB/OL]. [2016-04-26]. http://www.pointclouds.org/news/.

[18]GERKEY B. Gmapping[EB/OL]. [2016-06-18]. wiki.ros.org/gmapping.

Self-localizationofmobilerobotindynamicenvironmentsbasedonlocalizabilityestimationwithmulti-sensorobservation

SUN Zifei1, QIAN Kun1,2, MA Xudong1,2, DAI Xianzhong1,2

(1.School of Automation, Southeast University, Nanjing 210096, China; 2.Key Laboratory of Measurement and Control of Complex Systems of Engineering, Ministry of Education, Nanjing 210096, China )

Based on the localizability estimation theory, in this paper, we propose a new method for the reliable self-localization of mobile robots in a disturbed dynamic indoor environment by the adoption of an RGB-D sensor to assist the laser scanner. People’s location areas are rapidly detected in RGB-D data, which are then transformed to the laser sensor coordinate to compute the influence of the dynamic obstacles on the laser data. In combination with the discrete Fisher information matrix, we estimate the localizability matrix of the observation information online. In addition, we assess the reliability of the information in odometers by the covariance matrix of the prediction model, thereby dynamically compensating for the effect of the observation information on the particle set. We conducted experiments in a dynamic indoor environment and the results confirm the accuracy and reliability of the proposed robot localization method.

dynamic environment; self-localization; RGB-D sensor; Fisher information matrix; people-detecting; localizability; online estimation; mobile robot

2016-07-08.網(wǎng)絡(luò)出版日期2017-04-07.

國家自然科學(xué)基金項目(61573100,61573101);中央高校基本科研業(yè)務(wù)費專項基金(2242013K30004).

錢堃. E-mail:kqian@seu.edu.cn.

10.11992/tis.201607007

http://kns.cnki.net/kcms/detail/23.1538.tp.20170407.1734.002.html

TP24

A

1673-4785(2017)04-0443-07

中文引用格式:孫自飛,錢堃,馬旭東,等.多傳感器的移動機器人可定位性估計與自定位J.智能系統(tǒng)學(xué)報, 2017, 12(4): 443-449.

英文引用格式:SUNZifei,QIANKun,MAXudong,etal.Self-localizationofmobilerobotindynamicenvironmentsbasedonlocalizabilityestimationwithmulti-sensorobservationJ.CAAItransactionsonintelligentsystems, 2017, 12(4): 443-449.

孫自飛,男,1990年生,碩士研究生,主要研究方向為移動機器人定位。

錢堃,男,1982 年生,副教授,IEEE會員、中國自動化學(xué)會會員,主要研究方向為服務(wù)機器人技術(shù),主持國家自然科學(xué)基金項目2項并參與多項省部級科研項目,發(fā)表學(xué)術(shù)論文40余篇。

馬旭東,男,1962年生,教授,主要研究方向為網(wǎng)絡(luò)化移動機器人、工業(yè)機器人與工業(yè)自動化,先后承擔(dān)或參加國家、省部級科研項目15項,橫向合作課題20項,發(fā)表學(xué)術(shù)論文80余篇。

猜你喜歡
環(huán)境
長期鍛煉創(chuàng)造體內(nèi)抑癌環(huán)境
一種用于自主學(xué)習(xí)的虛擬仿真環(huán)境
孕期遠離容易致畸的環(huán)境
不能改變環(huán)境,那就改變心境
環(huán)境與保護
環(huán)境
孕期遠離容易致畸的環(huán)境
高等院校環(huán)境類公選課的實踐和探討
掌握“三個三” 兜底環(huán)境信訪百分百
我國環(huán)境會計初探
中國商論(2016年33期)2016-03-01 01:59:38
主站蜘蛛池模板: 久无码久无码av无码| 欧美一区二区人人喊爽| 久久毛片网| 97视频精品全国在线观看| 国产日韩精品欧美一区喷| 美女扒开下面流白浆在线试听| 日本高清成本人视频一区| 99久久人妻精品免费二区| 亚洲人成高清| 欧美日韩精品在线播放| 在线日韩日本国产亚洲| 97一区二区在线播放| 国产精品美女网站| 日本在线视频免费| 少妇极品熟妇人妻专区视频| 欧美午夜在线播放| 欧美日本中文| 亚洲精品自产拍在线观看APP| 九色免费视频| 亚洲欧美另类中文字幕| 在线无码av一区二区三区| 国产一区二区三区精品欧美日韩| 亚洲首页国产精品丝袜| 日韩AV无码免费一二三区| 国内精品视频区在线2021| 无码内射中文字幕岛国片| 91av成人日本不卡三区| 成人毛片免费观看| 国产jizz| av在线手机播放| 成人午夜免费视频| 91蝌蚪视频在线观看| 久久www视频| 亚洲国产成人在线| 97在线国产视频| 草草影院国产第一页| 亚洲综合婷婷激情| 欧美日韩va| 免费激情网站| 亚洲天堂2014| 99精品高清在线播放| 99re在线观看视频| 国产浮力第一页永久地址| a级毛片免费看| 中文字幕久久亚洲一区| 极品国产一区二区三区| 亚洲精品国产首次亮相| 国产视频你懂得| 在线观看国产精品一区| 国产福利一区在线| 欧美性色综合网| 四虎永久在线| 国产午夜一级淫片| 亚洲精品综合一二三区在线| 国产嫖妓91东北老熟女久久一| 久久人人97超碰人人澡爱香蕉 | 免费激情网址| 国产亚洲视频播放9000| 91福利国产成人精品导航| 久久九九热视频| 婷婷激情亚洲| AV网站中文| 欧美日韩福利| 国产主播喷水| 亚洲精品va| 欧美一区精品| 在线视频亚洲欧美| 免费xxxxx在线观看网站| 在线视频亚洲欧美| 曰AV在线无码| 香蕉99国内自产自拍视频| 中文字幕av无码不卡免费 | 欧美亚洲综合免费精品高清在线观看| 久草视频精品| 波多野结衣无码视频在线观看| 精品国产毛片| 成AV人片一区二区三区久久| 亚洲娇小与黑人巨大交| 99色亚洲国产精品11p| 免费人成又黄又爽的视频网站| 亚洲AⅤ永久无码精品毛片| 欧美日韩中文字幕二区三区|