999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合Wi-Fi與激光的機器人室內大型環境SLAM

2025-04-10 00:00:00熊壯劉冉郭林肖宇峰
計算機應用研究 2025年3期

摘 要:同步定位與地圖構建(SLAM)是實現移動機器人自主導航定位的關鍵。針對室內大型環境下激光SLAM閉環檢測容易產生錯誤閉環,導致機器人位姿估計誤差較大的問題,提出了一種融合Wi-Fi與激光信息的圖優化SLAM算法。首先,構建Wi-Fi指紋序列與激光子地圖;然后,根據每對指紋序列的相似度均值和標準差篩選用于閉環檢測的激光子地圖。在此基礎上,提取所篩選子地圖的特征點并匹配,以確定激光閉環;最后,通過圖優化方法融合里程計與激光閉環,優化機器人的軌跡并構建全局地圖。在170 m×30 m和180 m×80 m的室內環境中采集了三組數據,對所提算法性能進行驗證。實驗結果顯示,所提算法的定位精度在三組數據上分別達到0.78 m、0.67 m和0.89 m,與激光SLAM算法相比分別提升了48.6%、53.1%和68.7%,證明所提算法有效提高了室內大型環境下激光SLAM的位姿估計精度。

關鍵詞:Wi-Fi指紋序列;激光子地圖篩選;閉環檢測;圖優化;同步定位與地圖構建

中圖分類號:TP242.6"" 文獻標志碼:A"" 文章編號:1001-3695(2025)03-022-0812-06

doi:10.19734/j.issn.1001-3695.2024.06.0244

Large-scale indoor environment SLAM for mobile robot based on Wi-Fi and LiDAR

Xiong Zhuanga,b,Liu Rana,b,Guo Lina,b,Xiao Yufenga,b

(a.School of Information Engineering,b.Robot Technology Used for Special Environment Key Laboratory of Sichuan Province,Southwest University of Science amp; Technology,Mianyang Sichuan 621000,China)

Abstract:SLAM is crucial for the autonomous navigation and positioning of robots.Aiming at the problem of considerable pose estimation errors for robots,which were caused by incorrect loop closures in LiDAR SLAM within large-scale indoor environments,this paper proposed a graph-based SLAM algorithm that fused Wi-Fi and LiDAR information.Initially,the algorithm constructed Wi-Fi fingerprint sequences and LiDAR submaps.Subsequently,it selected LiDAR submaps for loop closure detection based on the mean and standard deviation of similarity between each pair of fingerprint sequences.Then,it extracted feature points from the selected submaps and matched them to confirm LiDAR loop closure.Ultimately,using a graph optimization approach,odometry and LiDAR loop closures were fused to optimize the robot’s trajectory and construct a global map.Three datasets were collected in 170 m×30 m and 180 m×80 m indoor environments to verify the performance of the proposed algorithm.The experimental results show that positioning accuracy values of proposed algorithm in three datasets reach 0.78 m,0.67 m,and 0.89 m,which give improvements of 48.6%,53.1%,and 68.7% when compared to the LiDAR SLAM algorithm,demonstrating its effectiveness for enhancing pose estimation accuracy in large-scale indoor environments.

Key words:Wi-Fi fingerprint sequence;LiDAR submap selection;loop closure detection;graph optimization;simulta-neous localization and mapping(SLAM)

0 引言

隨著機器人技術的不斷發展,機器人在日常生活中的應用越來越普遍,例如商場服務[1]、安全巡檢[2]、物流倉儲[3]和危險環境搜救[4]等,這些應用場景對機器人在室內大型環境中的定位與導航提出了更高的要求。SLAM技術[5]能夠通過機器人自身的傳感器實時感知周圍環境,并同時構建環境地圖和進行自我定位,因此成為了解決室內環境導航定位問題的主流方案之一。SLAM大體上可以采用濾波和圖優化兩種方法來實現。基于濾波的SLAM[6]通常使用遞歸貝葉斯濾波器來維護機器人和地圖的狀態估計,數據處理速度較快,適用于實時性要求較高的場景。然而,在大型室內環境中,這種方法容易受到累積誤差的影響。基于圖優化的SLAM[7]將采集數據構成一個由頂點和約束邊組成的姿態圖,并建立誤差函數,通過最小化誤差函數來優化機器人的軌跡,從而有效解決大型室內環境SLAM問題。閉環檢測[8]是圖優化SLAM的核心環節,正確可靠的閉環檢測能夠修正機器人里程計的漂移,使得地圖保持全局一致性。

在實際應用中,通常使用不同類型的傳感器來實現SLAM,包括慣性測量單元(inertial measurement unit,IMU)、里程計、超寬帶(ultra-wideband,UWB)、視覺傳感器、激光雷達和Wi-Fi。IMU和里程計適用于測量機器人短時間內的位姿變化,但長時間使用會產生不可避免的累積誤差[9]。UWB雖然可以獲得較高的定位精度,但其硬件成本較高,部署難度較大[10]。基于視覺的方法通過匹配視覺特征來估計機器人的姿態,但視覺傳感器對環境光照條件敏感,在光線不足或過強的環境中性能較差[11]。

相較于視覺傳感器,激光雷達具有更高的測量精度,同時不受環境光照變化的影響。Gmapping[12]、Cartographer[13]是比較流行的激光SLAM解決方案,Gmapping算法使用粒子濾波作為一種自適應策略來更新機器人位姿,但是在特征匱乏的環境下(長直走廊)可靠性較低。Cartographer算法融合了激光雷達與IMU的信息,通過圖優化SLAM來消除累積誤差,但計算資源占用相對較高。Jiang等人[14]提出了一種激光雷達點云平面算法,實現了激光點云之間相對位姿的準確估計,但在點云數據量過大時,算法時間開銷明顯增加。Cattaneo等人[15]提出一種深度學習網絡LCDNet,實現了高效魯棒的位姿估計,然而該網絡需要大量的樣本數據進行訓練優化,構建難度與成本高。在大型室內環境中,因為復雜的環境特征容易產生錯誤的閉環信息,導致位姿估計出現較大誤差[16],激光SLAM效果不佳。

近些年來,以Wi-Fi為代表的無線傳感器因其成本較低、覆蓋廣等優勢而受到關注,現有的Wi-Fi網絡基礎設施可用于實現低成本的室內定位[17]。通過Wi-Fi接入點(access point,AP)的信號強度(receive signal strength,RSS),可以大致識別出機器人是否訪問過某個區域[18],因為每個AP的硬件地址是唯一的。基于Wi-Fi指紋的定位方法依賴于指紋地圖,然而在大型室內環境中,人工創建指紋地圖非常繁瑣且成本高昂[19]。Huang等人[20]提出了一種基于信號強度與位置模型的Wi-Fi SLAM,但由于Wi-Fi信號的不穩定性,該模型的構建難度大且魯棒性差。總體而言,由于Wi-Fi信號在室內環境中易受到阻擋和干擾,基于Wi-Fi的室內定位方法的定位精度通常不高[21]。

考慮到每種傳感器的局限性,研究人員設計了基于多傳感器的SLAM方法,通過處理不同傳感器的數據來減少單一傳感器測量誤差帶來的不確定性,從而構建全局一致的環境地圖[22]。Liu等人[23]提出了一種將IMU與UWB測距信息結合的系統,用于未知環境中多個用戶之間的相對定位。然而,IMU產生的累計誤差導致該系統定位精度不足。Zhang等人[24]將激光雷達與IMU進行融合,利用IMU消除了激光雷達的運動畸變,修正了機器人姿態估計,但該方法容易受到IMU測量噪聲的影響。Ismail等人[25]提出了一種融合激光與Wi-Fi的兩層圖優化SLAM算法,實現了機器人位姿的準確估計。然而由于觀測約束過多,該算法的計算效率較低。Stathoulopoulos等人[26]提出了一種融合激光雷達和Wi-Fi傳感器的冗余系統,利用兩種傳感器的互補優勢預測定位結果,為地下礦井定位提供了有效的解決方案。然而,Wi-Fi信號受到環境多徑效應的干擾,導致該系統產生了較大定位誤差。

在室內大型環境中,由于閉環檢測的挑戰,機器人使用激光SLAM進行定位的精度較差。現有Wi-Fi設備在室內大型環境中分布廣泛且成本較低,可以快速識別機器人是否經過某個區域。因此,為了提升室內大型環境下激光SLAM的位姿估計精度,本文提出了一種融合Wi-Fi與激光信息的圖優化SLAM算法。首先,算法在連續時間內利用滑動窗口構建Wi-Fi指紋序列和激光子地圖。之后,通過計算每對指紋序列的相似度均值和標準差,篩選出用于閉環檢測的激光子地圖。然后,提取篩選出的子地圖的特征點并匹配,以獲取激光閉環。最后,通過圖優化方法融合里程計數據和激光閉環,糾正里程計漂移并構建全局地圖。實驗結果表明,本文算法在三組數據上的定位精度分別達到0.78 m、0.67 m以及0.89 m,與激光SLAM算法相比,分別提高了48.6%、53.1%和68.7%。

1 算法設計

本文提出的融合Wi-Fi與激光信息的圖優化SLAM算法主要包括基于Wi-Fi指紋序列的激光子地圖篩選和融合里程計與激光閉環的圖優化兩個部分。首先,機器人搭載傳感器分別采集里程計數據、激光數據與Wi-Fi數據。通過設置滑動窗口,在連續時間內構建Wi-Fi指紋序列。同時,對激光掃描進行匹配,并使用相同長度的滑動窗口構建激光子地圖。然后,計算每對指紋序列中指紋點的相似度,生成相似度矩陣。根據相似度矩陣計算相似度的均值和標準差,并將它們與設定閾值比較,從而篩選出對應的激光子地圖進行閉環檢測。最后,使用AKAZE算法提取和匹配所篩選子地圖的特征點,以獲取激光閉環信息。將激光閉環與里程計數據融合構建姿態圖,通過圖優化方法調整姿態圖,修正里程計誤差,并構建全局地圖。整個算法流程如圖1所示。

1.1 基于Wi-Fi指紋序列的激光子地圖篩選

1.1.1 計算指紋序列相似度的均值和標準差

Wi-Fi指紋信息包含在實驗場景中采集到的來自AP的信號強度RSS,將t時刻在環境中位置xt采集到的Wi-Fi指紋表示為Ft={ft,xt}。其中,采集的指紋信息ft包含t時刻掃描到Z個AP的硬件地址以及對應的信號強度ft={ft,1,ft,2,…,ft,Z}。為了估計兩個指紋點位置的接近程度,本文采用了如式(1)所示的余弦相似度方法。

S(F1,F2)=Scos(F1,F2)=∑Zz=1(f1,z·f2,z)∑Zz=1(f1,z)2·∑Zz=1(f2,z)2

(1)

指紋點F1與F2的余弦相似度在0~1,相似度為0表示兩個指紋完全不具備相似性,相似度為1表示兩個指紋完全相似。相似度值越大,表示指紋相似性越強,兩個指紋點在空間上的位置越接近。由于Wi-Fi信號易受環境多徑效應的干擾,僅計算單對指紋點的相似度來判斷兩個指紋點位置接近程度的可靠性較低。為了解決這一問題,本文將單個指紋點擴展為指紋序列。指紋序列包含多個指紋點,其信息量相比單個指紋點更加豐富,能夠更全面地表達環境的特征。

連續時間內,設置一個固定長度w的滑動窗口,將采集Wi-Fi指紋切割成指紋序列。假設當前構建了兩個指紋序列L=l1,l2,…,lM和K=k1,k2,…,kN,首先對兩個序列中的指紋點進行遍歷配對,得到M×N對指紋組合。然后,根據式(1)計算所有指紋組合的余弦相似度,并構造一個相似度矩陣S。S包含了M×N對指紋組合的相似度數據,如圖2所示。

基于構建的相似度矩陣S,通過式(2)(3)計算相似度的均值與標準差。

μ=∑Mm=1∑Nn=1S(lm,kn)M×N

(2)

σ=∑Mm=1∑Nn=1(S(lm,kn)-μ)2M×N

(3)

1.1.2 篩選激光子地圖

指紋序列相似度的均值表示一對指紋序列中所有指紋點相似度的平均值,而標準差則衡量相似度數據分布的離散程度。當兩個指紋序列位于同一位置,指紋序列的相似度均值通常較高且標準差較低,表明機器人經過了同一個場景。通過選擇合適的相似度閾值Sth和標準差閾值σth,可以篩選出位于同一位置的指紋序列。

L和K在同一位置μgt;Sth且σlt;σthL和K不在同一位置其他情況

(4)

如式(4)所示,當相似度均值μ大于設定的相似度閾值Sth,同時標準差σ小于標準差閾值σth時,可以識別出指紋序列L和K處在同一位置,從而判斷機器人訪問了同一個場景。如果L和K的相似度均值與標準差不滿足這兩個閾值條件,則識別出兩個指紋序列不在同一位置,判斷機器人沒有經過同一個場景。

與此同時,算法利用關聯掃描匹配(correlative scan ma-tching,CSM)[27]方法實現激光掃描匹配。在概率框架下,CSM將每幀激光掃描與已知子地圖進行配準,其中的觀測概率指標用于衡量預測掃描結果與實際掃描結果的匹配程度。通過最大化觀測概率,可以計算出機器人在已知子地圖中的最佳位姿。

連續時間內,算法同樣在固定長度w的滑動窗口內構建激光子地圖(由占用柵格地圖表示)。首先,采用Bresenham算法[28],結合機器人位姿和采集的激光掃描數據,計算每個柵格的占用概率。然后,根據貝葉斯濾波器更新柵格的占用概率。根據不同占用概率,將柵格的占用狀態分為障礙物占用、障礙物未占用和未知三種。

通過計算指紋序列L和K的相似度均值和標準差,成功識別出它們處于同一位置時,算法會在候選子地圖中搜索與指紋序列L和K相對應的子地圖,通過檢測并匹配這些子地圖的特征點來確定激光閉環。對于不滿足此條件的子地圖,則不會進行處理。這樣就能通過Wi-Fi信息有效篩選出用于閉環檢測的激光子地圖。

1.2 融合里程計與激光閉環的圖優化

1.2.1 基于子地圖特征點匹配的激光閉環檢測

激光閉環檢測采用了特征點匹配算法,首先將子地圖轉換為灰度圖像,然后基于OpenCV中的AKAZE算法提取視覺特征點,最后對這些特征點進行匹配,計算機器人的相對位姿。如式(5)所示,AKAZE算法通過檢測圖像中像素點的Hessian矩陣是否包含局部最大值來確認特征點。該算法檢測特征點的速度快,檢測的特征點在旋轉、尺度和光照變化方面具有較強的魯棒性,并且在不同分辨率的圖像中表現出更強的顯著性。

LIHessian=σ2I,norm(LIxxLIyy-LIxyLIxy)

(5)

其中:σ2I,norm表示圖像的縮放尺度;LIxx表示圖像坐標系中像素點I在x方向的二階微分;LIyy表示圖像坐標系中像素點I在y方向的二階微分;LIxy是二階交叉微分。當LIHessian取得最大值時,表示像素點I是圖像中的一個特征點。提取到子地圖特征點后,應用OpenCV中的AffineBestOf2NearestMatcher函數對特征點進行匹配,計算兩張子地圖圖像之間的仿射變換Timage和一致性置信度。置信度越高,表示特征點匹配越精準可靠,激光閉環可信度也越高,圖3展示了子地圖及其特征點提取和匹配的示例。由于將機器人的位姿設置為子地圖的原點,所以將仿射變換Timage與子地圖圖像的分辨率scale相乘,即可得到全局坐標系下機器人的相對位姿變換Trobot。

Trobot=scale×Timage

(6)

1.2.2 基于圖優化的機器人軌跡優化

圖優化方法將SLAM表述為一個最大似然估計問題,構建一個由頂點與邊組成的位姿圖來描述機器人與環境的關系。其中,頂點表示機器人位姿,邊則表示相鄰時刻的里程計記錄數據或是不相鄰時刻觀測信息推斷出的閉環約束。如式(7)所示,圖優化的目的是調整頂點X*的值以更好地滿足里程計邊和激光閉環邊的約束。

arg minX∑ti=2(Zii-1-ii-1(Xi-1,Xi))TΩii-1(Zii-1-ii-1(Xi-1,Xi))里程計約束+

∑t(i,j)∈C(Zji-ji(Xi,Xj))T Ωji(Zji-ji(Xi,Xj))激光閉環約束

(7)

其中:Xi和Xj表示機器人在時刻i和j的位姿(包括二維位置和方向);Zii-1和Zji是兩個頂點之間的實際觀測值,分別表示相鄰頂點(Xi-1,Xi)之間由里程計記錄的相對位姿變換、不相鄰頂點(Xi,Xj)之間由激光閉環產生的相對位姿變換。此外,ii-1(Xi-1,Xi)表示相鄰頂點(Xi-1,Xi)之間里程計的預測值,ji(Xi,Xj)是基于不相鄰頂點(Xi,Xj)之間激光子地圖特征點匹配產生的位姿變換預測值。Ωii-1表示里程計約束中的信息矩陣,Ωji表示了激光閉環約束中的信息矩陣,C表示激光閉環約束集合。圖優化方法在相鄰頂點之間添加基于里程計的邊,在不相鄰頂點之間添加基于激光的邊作為約束條件,使用圖優化(general graph optimization,g2o)[29]中的列文伯格-馬夸爾特算法作為求解器,最小化里程計約束與激光閉環約束的殘差,從而實現機器人軌跡的優化。

2 實驗結果與分析

2.1 實驗平臺與環境

為了驗證本文算法的性能,在校園內一個占地面積約170 m×30 m的地下停車場進行實驗。機器人從實驗場景中的不同位置出發,以0.4 m/s的平均速度移動,采集了兩組數據。在這兩組數據中,機器人的累計移動距離分別為1 256.81 m和1 369.37 m。兩條運動路線差異顯著,一條經過了包含大量停車位的中心區域,另一條集中在復雜的邊緣區域,例如停車場的入口、出口和車道等。為了增加實驗的復雜性和對算法的干擾因素,將實驗場景的面積從170 m×30 m擴展到180 m×80 m,使機器人的運動路線盡可能復雜化并覆蓋整個實驗場景,以模擬室內大型環境中復雜多變的情況。與此同時,將機器人的累計運動距離增加到2 726.31 m,以測試算法在長時間下運行的穩定性。基于這些調整,采集了第三組數據。數據采集平臺如圖4所示。

實驗使用了Clearpath Husky UGV機器人,機器人通過底盤的編碼器采集里程計數據,數據采集頻率為10 Hz。機器人上裝備了型號為Hokuyo UST-20LX的激光雷達(雷達掃描頻率40 Hz、最大掃描距離20 m、測量角度范圍270°、角度分辨率0.25°)用于采集激光數據。機器人位姿真實值使用自適應蒙特卡羅定位(adaptive Monte Carlo localization,AMCL)獲得。此外,機器人前端放置了5部小米手機,每部手機都以0.5 Hz的頻率采集Wi-Fi數據。本文采用平均定位精度作為算法性能的評估指標,即經過SLAM算法優化后的機器人軌跡與真實值之間的歐氏距離。

2.2 實驗分析

2.2.1 不同相似度閾值與標準差閾值對算法性能的影響

本文算法中,采用不同的相似度閾值Sth和標準差閾值σth會對算法性能產生一定的影響。首先設置標準差閾值σth為0.2,滑動窗口長度w為10 s,調節相似度閾值Sth進行了多組測試。測試結果見表1。

表1的實驗結果表明,當相似度閾值設置過高或過低時,算法的定位精度都會下降。相似度閾值設置為0.9時,算法在三組數據上的定位精度分別是8.95 m、7.72 m和11.36 m,定位精度最差。而當相似度閾值設置為0.1時,算法在三組數據上的定位精度分別是1.93 m、2.05 m和3.17 m,定位精度仍然較差。相似度閾值設為0.3時,算法在三組數據中的定位精度分別是0.96 m、0.87 m和1.34 m,定位精度最佳。

總體而言,相似度閾值對算法的激光閉環數與定位精度有顯著影響,高閾值將導致閉環數量減少,從而降低定位精度;而低閾值會產生大量閉環約束,雖然增加了閉環數量,但也引入了更高的不確定性,同樣導致算法定位精度下降。基于表1的結果,將相似度閾值Sth設置為0.3,滑動窗口長度w為10 s,調節標準差閾值σth以測試算法性能,實驗結果見表2。

表2結果顯示,在數據集1中,當標準差閾值設置為0.2時,算法的定位精度是0.96 m。當標準差閾值設置為0.4時,算法在數據集2和3的定位精度分別是0.83 m和1.21 m。與之相比,當標準差閾值設置為1.0時,算法在三組數據上的定位精度分別是1.47 m、1.4 m和2.06 m。這表明,隨著標準差閾值的增加,算法的定位精度逐漸降低。原因是較高的標準差閾值雖然能獲取更多的激光閉環,但是激光閉環數的增加可能導致算法接受不準確的閉環信息,從而降低定位精度。

2.2.2 不同子地圖篩選方法對算法性能的影響

本文算法中,基于Wi-Fi指紋序列的激光子地圖篩選方法對算法的激光閉環數和定位精度具有關鍵作用。為了評估該方法的效果,增加了一種基于Wi-Fi指紋序列相似度最大值的子地圖篩選方法。在圖2的相似度矩陣中,遍歷計算的相似度數據,選擇最大相似度Smax表示一對指紋序列的相似度。當Smax大于設定的相似度閾值Sth時,判斷機器人經過同一場景,當Smax小于預設閾值Sth時,判斷機器人未經過同一場景。然后,設計了相關實驗評估兩種子地圖篩選方法對算法性能的影響。

對于不同的數據集,最合適的閾值參數有所不同。根據表1、2的實驗結果,對于數據集1,相似度閾值Sth與標準差閾值σth分別設置為0.3和0.2;對于數據集2和3,相似度閾值Sth與標準差閾值σth分別設置為0.3和0.4。實驗中,通過調節滑動窗口長度w,測試了兩種子地圖篩選方法對算法定位精度以及獲取激光閉環數量的影響,結果記錄在表3中。

表3結果顯示,隨著滑動窗口長度w的增加,激光閉環的數量也逐漸增加,因為在更大的滑動窗口范圍內,算法能獲取更多的激光閉環。然而,窗口長度的增大并不總是能提升定位精度。具體而言,最大相似度方法在三組數據中的最佳定位精度分別是0.86 m、0.84 m和1.43 m,而本文算法在三組數據中的最佳定位精度分別是0.78 m、0.67 m和0.89 m,可以證明本文算法在兩種子地圖篩選方法中表現更優,其定位精度普遍優于最大相似度方法。

2.2.3 本文算法與其他算法的性能比較

為了驗證本文算法相較于其他定位算法的性能,在三組數據上比較了幾種不同定位算法的性能。這些定位算法包括基于里程計的定位算法、基于激光的SLAM算法[30]以及基于Wi-Fi的SLAM算法[31]。定位算法的相關參數根據表1~3中的測試結果進行了設置:對于數據集1,相似度閾值為0.3,標準差閾值為0.2,滑動窗口長度為20 s;對于數據集2和3,相似度閾值為0.3,標準差閾值為0.4,滑動窗口長度為20 s。實驗記錄了激光SLAM與本文算法在閉環檢測上的耗時,并測試了幾種不同定位算法的定位精度。相關實驗結果展示在表4、5中。

表4的結果顯示,隨著滑動窗口長度增加,兩種算法的閉環檢測耗時都在逐漸增加。在滑動窗口長度w設置為20 s的情況下,本文算法在三組數據中的閉環檢測耗時分別是1 361.64 s、1 416.74 s以及3 609.38 s。相比之下,激光SLAM算法的閉環檢測耗時分別是2 280.13 s、2 209.79 s以及4 663.86 s。與激光SLAM算法相比,本文算法的閉環檢測耗時分別減少了40.3%、35.9%與22.6%。通過不同數據集的測試實驗可以看出,本文算法能夠減少閉環檢測的耗時,從而提高SLAM的執行效率。

表5的結果顯示,基于里程計的定位算法在三組數據上的定位精度分別是19.49 m、12.33 m和32.41 m,由于無法消除累計誤差,定位精度非常差。基于Wi-Fi的SLAM算法在三組數據上的定位精度分別是3.09 m、2.36 m和5.02 m,盡管該算法融合了里程計和Wi-Fi閉環約束來優化機器人軌跡,但在大型室內環境中,Wi-Fi信號容易受到阻擋和干擾,導致定位精度不足。基于激光的SLAM算法在三組數據上的定位精度分別是1.52 m、1.43 m和2.85 m,受錯誤激光閉環的影響,定位精度有所降低。本文算法在三組數據上的定位精度分別是0.78 m、0.67 m和0.89 m,相較于激光SLAM算法,分別提升了48.6%、53.1%和68.7%。這些結果證明了本文算法能夠有效提高室內大型環境中激光SLAM的位姿估計精度。圖5展示了幾種定位算法在三組數據上的定位軌跡。

最后,通過結合本文算法優化后的機器人軌跡與采集的激光掃描數據,構建了三組數據的全局地圖,從圖6可以看出,本文算法生成的全局地圖質量較高,沒有明顯的傾斜或扭曲現象,能夠較好地反映室內大型環境的真實情況。

3 結束語

本文提出了一種融合激光與Wi-Fi信息的圖優化SLAM算法。在移動機器人上搭載了里程計、智能手機和激光雷達,采集里程計數據、Wi-Fi數據與激光數據。首先,構建Wi-Fi指紋序列與激光子地圖,計算每對指紋序列中指紋點相似度的均值與標準差,篩選出用于閉環檢測的激光子地圖。然后,提取相應子地圖的特征點并進行匹配,以確定激光閉環。最后,通過圖優化方法融合里程計與激光閉環,對機器人軌跡進行優化,構建全局地圖。在170×30 m和180×80 m的室內環境中,采集了三組數據進行驗證。結果表明,本文算法的定位精度在三組數據中分別是0.78 m、0.67 m和0.89 m,相較于激光SLAM算法,定位精度分別提高了48.6%、53.1%和68.7%。實驗結果證明了所提算法能夠提升室內大型環境下激光SLAM的位姿估計精度。后續工作將考慮融合激光雷達與其他傳感器,進一步提升機器人的位姿估計精度,并將構建的地圖應用于室內定位與導航。

參考文獻:

[1]Satake S,Hayashi K,Nakatani K,et al.Field trial of an information-providing robot in a shopping mall[C]//Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems.Piscataway,NJ:IEEE Press,2015:1832-1839.

[2]Sweatt M,Ayoade A,Han Qi,et al.Wi-Fi based communication and localization of an autonomous mobile robot for refinery inspection[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2015:4490-4495.

[3]Wu Chong,Gong Zeyu,Tao Bo,et al.RF-SLAM:UHF-RFID based simultaneous tags mapping and robot localization algorithm for smart warehouse position service[J].IEEE Trans on Industrial Informa-tics,2023,19(12):11765-11775.

[4]Ebadi K,Bernreiter L,Biggie H,et al.Present and future of SLAM in extreme environments:the DARPA SubT challenge[J].IEEE Trans on Robotics,2023,40:936-959.

[5]Cadena C,Carlone L,Carrillo H,et al.Past,present,and future of si-multaneous localization and mapping:toward the robust-perception age[J].IEEE Trans on Robotics,2016,32(6):1309-1332.

[6]Grisetti G,Tipaldi G D,Stachniss C,et al.Fast and accurate SLAM with Rao-Blackwellized particle filters[J].Robotics and Autonomous Systems,2007,55(1):30-38.

[7]張洪華,劉璇,陳付豪,等.基于圖優化的SLAM后端優化研究與發展[J].計算機應用研究,2019,36(1):11-17.(Zhang Honghua,Liu Xuan,Chen Fuhao,et al.Research and development of SLAM back-end optimization based on graph optimization[J].Application Research of Computers,2019,36(1):11-17.)

[8]Folkesson J,Christensen H I.Closing the loop with graphical SLAM[J].IEEE Trans on Robotics,2007,23(4):731-741.

[9]Brossard M,Bonnabel S.Learning wheel odometry and IMU errors for localization[C]//Proc of International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2019:291-297.

[10]賀軍義,吳夢翔,宋成,等.基于UWB的密集行人三維協同定位算法[J].計算機應用研究,2022,39(3):790-796.(He Junyi,Wu Mengxiang,Song Cheng,et al.Three-dimensional cooperative location algorithm of dense pedestrians based on UWB[J].Application Research of Computers,2022,39(3):790-796.)

[11]Park S,Schps T,Pollefeys M.Illumination change robustness in direct visual SLAM[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2017:4523-4530.

[12]Grisetti G,Stachniss C,Burgard W.Improved techniques for grid mapping with Rao-Blackwellized particle filters[J].IEEE Trans on Robotics,2007,23(1):34-46.

[13]Hess W,Kohler D,Rapp H,et al.Real-time loop closure in 2D LiDAR SLAM[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2016:1271-1278.

[14]Jiang Jianwen,Wang Jikai,Wang Peng,et al.LiPMatch:LiDAR point cloud plane based loop-closure[J].IEEE Robotics and Automation Letters,2020,5(4):6861-6868.

[15]Cattaneo D,Vaghi M,Valada A.LCDNet:deep loop closure detection and point cloud registration for LiDAR SLAM[J].IEEE Trans on Robotics,2022,38(4):2074-2093.

[16]Wu Yuanqing,Zhao Jiajun.A robust and precise LiDAR-inertial-GPS odometry and mapping method for large-scale environment[J].IEEE/ASME Trans on Mechatronics,2022,27(6):5027-5036.

[17]Tan Sheng,Ren Yili,Yang Jie,et al.Commodity Wi-Fi sensing in ten years:status,challenges,and opportunities[J].IEEE Internet of Things Journal,2022,9(18):17832-17843.

[18]Bisio I,Pan R L C,Lavagetto F,et al.Smartphone-based automatic place recognition with Wi-Fi signals for location-aware services[C]//Proc of IEEE International Conference on Communications.Pisca-taway,NJ:IEEE Press,2012:4943-4948.

[19]Jang B,Kim H.Indoor positioning technologies without offline fingerprinting map:a survey[J].IEEE Communications Surveys amp; Tutorials,2019,21(1):508-525.

[20]Huang J,Millman D,Quigley M,et al.Efficient,generalized indoor Wi-Fi GraphSLAM[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2011:1038-1043.

[21]Yang Chouchang,Shao Huairong.Wi-Fi-based indoor positioning[J].IEEE Communications Magazine,2015,53(3):150-157.

[22]Wagner R,Birbach O,Frese U.Rapid development of manifold-based graph optimization systems for multi-sensor calibration and SLAM[C]//Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems.Piscataway,NJ:IEEE Press,2011:3305-3312.

[23]Liu Ran,Yuen C,Do T N,et al.Cooperative relative positioning of mobile users by fusing IMU inertial and UWB ranging information[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2017:5623-5629.

[24]Zhang Yi.LILO:a novel LiDAR-IMU SLAM system with loop optimization[J].IEEE Trans on Aerospace and Electronic Systems,2022,58(4):2649-2659.

[25]Ismail K,Liu Ran,Qin Zhenghong,et al.Efficient WiFi LiDAR SLAM for autonomous robots in large environments[C]//Proc of the 18th International Conference on Automation Science and Engineering.Piscataway,NJ:IEEE Press,2022:1132-1137.

[26]Stathoulopoulos N,Pagliari E,Davoli L,et al.Redundant and loosely coupled LiDAR-Wi-Fi integration for robust global localization in autonomous mobile robotics[C]//Proc of the 21st International Confe-rence on Advanced Robotics.Piscataway,NJ:IEEE Press,2023:121-127.

[27]Olson E B.Real-time correlative scan matching[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2009:4387-4393.

[28]Cohen-Or D,Kaufman A.3D line voxelization and connectivity control[J].IEEE Computer Graphics and Applications,1997,17(6):80-87.

[29]Kümmerle R,Grisetti G,Strasdat H,et al.G2o:a general framework for graph optimization[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2011:3607-3613.

[30]Yu Jincheng,Tong Jianming,Xu Yuanfan,et al.SMMR-explore:submap-based multi-robot exploration system with multi-robot multi-target potential field exploration method[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2021:8779-8785.

[31]秦正泓,劉冉,肖宇峰,等.基于Wi-Fi指紋序列匹配的機器人同步定位與地圖構建[J].計算機應用,2022,42(10):3268-3274.(Qin Zhenghong,Liu Ran,Xiao Yufeng,et al.Simultaneous localization and mapping for mobile robots based on Wi-Fi fingerprint sequence matching[J].Journal of Computer Applications,2022,42(10):3268-3274.)

主站蜘蛛池模板: 99久久精品国产麻豆婷婷| 亚洲久悠悠色悠在线播放| 亚洲一级毛片免费观看| 国产亚洲视频在线观看| 亚洲区欧美区| 麻豆精品视频在线原创| 国产一区二区三区在线观看视频 | 青青草91视频| 国产精品分类视频分类一区| 欧美日本视频在线观看| 人妻21p大胆| 日韩av无码精品专区| 亚洲人成影院在线观看| 一级爆乳无码av| 真人免费一级毛片一区二区| 99视频精品在线观看| a亚洲天堂| 蜜臀AVWWW国产天堂| 五月天久久综合| 国产成人你懂的在线观看| 国产福利一区在线| 国产精品无码AⅤ在线观看播放| 国产人前露出系列视频| 国产69囗曝护士吞精在线视频| 中文字幕调教一区二区视频| 久久无码av一区二区三区| 丰满少妇αⅴ无码区| 国产丰满成熟女性性满足视频| 亚洲不卡av中文在线| 亚洲狠狠婷婷综合久久久久| 亚洲日韩在线满18点击进入| 91青青视频| 大香伊人久久| 日韩无码真实干出血视频| 亚洲成人网在线播放| 亚洲日本一本dvd高清| 欧美成人午夜视频免看| 免费高清毛片| 无码高潮喷水在线观看| 亚洲精品第五页| 久久国产V一级毛多内射| 国产精品99在线观看| a级毛片一区二区免费视频| 亚洲三级成人| 98精品全国免费观看视频| 国产成人精品无码一区二| 国产网站免费观看| 伊人久久影视| 国产激情影院| 自慰高潮喷白浆在线观看| 99久久婷婷国产综合精| 亚洲成a人在线播放www| 日本AⅤ精品一区二区三区日| 这里只有精品在线播放| yjizz国产在线视频网| 欧美激情视频二区| 青青青伊人色综合久久| 亚洲伦理一区二区| 色综合久久无码网| 国产导航在线| 欧美激情一区二区三区成人| 欧美乱妇高清无乱码免费| 亚洲欧美综合在线观看| 国产成年无码AⅤ片在线| 国产精品久久精品| 亚洲人在线| 91综合色区亚洲熟妇p| 成年人福利视频| 国产精品亚欧美一区二区三区| 国产99久久亚洲综合精品西瓜tv| 99爱视频精品免视看| 国产玖玖视频| www.youjizz.com久久| 最新亚洲av女人的天堂| 国产精品美女自慰喷水| 欧美午夜在线观看| 毛片在线看网站| 午夜欧美理论2019理论| 久久久精品国产亚洲AV日韩| 国产精品网址你懂的| 美女视频黄又黄又免费高清| 无码有码中文字幕|