999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種多源數據融合的機器人導航技術

2023-06-26 07:20:50陳孟元
導航定位學報 2023年3期
關鍵詞:深度規劃融合

郭 麗,陳孟元,付 明

一種多源數據融合的機器人導航技術

郭 麗1,陳孟元2,付 明3

(1. 安徽電子信息職業技術學院,安徽 蚌埠 233030;2. 安徽工程大學,安徽 蕪湖 241000;3. 安徽財經大學,安徽 蚌埠 233030)

針對移動機器人在導航過程中存在的建圖不精確、效率低下等問題,提出一種多源數據融合的移動機器人導航方法:利用擴展卡爾曼濾波融合激光雷達和深度相機的環境信息,通過位姿傳感器獲取機器人的位姿和加速度信息,提出基于激光雷達、深度相機和慣性測量單元數據融合的地圖構建方法;并兼顧全局探測與局部求精的平衡,采用改進原子軌道搜索算法進行全局規劃,利用動態窗口法完成局部避障。實驗結果表明,多源數據融合建立的地圖更接近于真實場景,改進后的融合算法未知障礙實時避障成功率達到98%,能夠提升機器人自主導航效率。

數據融合;原子軌道搜索算法;動態窗口;移動機器人;導航

0 引言

隨著計算機系統、傳感器等技術的發展,移動機器人已廣泛應用于倉儲、工業、醫療等領域[1-3]。導航技術作為機器人領域內核心技術之一,主要分為定位、環境搭建及路徑規劃。

傳統即時定位與地圖構建(simultaneous localization and mapping,SLAM)方法僅僅依賴單一傳感器進行實時定位和建圖,導致系統魯棒性差,導航效率低。多種傳感器數據融合可以為移動機器人定位建圖提供更好的數據支持,彌補單傳感器檢測的缺陷,從而提高導航系統的準確性和魯棒性。在傳感器數據融合方面,濾波算法通常用于數據融合[4]。常見的濾波方法有貝葉斯濾波[5]、粒子濾波[6]、擴展卡爾曼濾波(extended Kalman filter,EKF)[7]等。

路徑規劃是指基于多源感知數據,在環境中生成無碰撞路徑,以保證機器人安全高效完成作業。在路徑規劃方法中,二維幾何搜索法是最成熟的路徑規劃方法。此外,還有一些廣泛使用的算法,如蟻群算法[8]、A*算法[9]、RRT算法[10]、人工勢場法[11]等。原子軌道搜索算法(atomic orbital search,AOS)是Azizi M提出的最新的智能算法之一[12]。該算法主要是基于量子力學及原子模型行為進行搜索獲取最優解,具有尋優能力強、收斂速度快等優勢,可較好地應用于路徑規劃;但其同時也存在著易陷入局部最優等問題。

基于目前研究的成果,為改善機器人依靠單一傳感器定位及建圖效果差等問題,同時提升路徑規劃算法效率,設計出一種基于多源數據融合的移動機器人導航方法:一方面,搭建一種基于激光雷達(light detection and ranging,LiDAR)、深度相機和慣性測量單元(inertial measurement unit,IMU)融合的實時定位建圖方法;另一方面,融合改進AOS算法及動態窗口法(dynamic window approach,DWA)進行路徑規劃,實現移動機器人的實時高效導航。

1 傳感器建模

1.1 LiDAR模型

LiDAR數學模型主要有光束模型和似然場模型。因為機器人所處環境較為復雜,位姿微小變動就導致期望值發生巨大改變,對光束模型影響較大;因此實際場景中主要采用似然場模型。似然場模型基本原理是對環境進行高斯模糊,如圖1所示。設表示目標點坐標與環境中障礙物之間的最小距離,那么LiDAR觀測模型可以表示為

式中:m為地圖;ε為高斯分布函數;Δd為運動過程中畸變的測量距離。

1.2 深度相機模型

本文采用KinectV2深度相機進行研究,對其成像過程進行建模。假設實際環境中一點通過小孔在成像平面為,表示在相機坐標系---下的小孔,成像平面坐標系?-?-?中心到點的距離為。此時的坐標為[,,]T,經過成像后點?的坐標為[,,]T,在真實情況下,經過小孔模型后的成像需要進一步轉換成像素點。假設像素平面坐標系上?點的坐標為[,]T, 則其與像素坐標系間的轉換表達式為

式中:為相機內部參數矩陣;當相機移動時,為當前相機坐標系下位姿;w為世界坐標系下位姿;和為相機的外參數;、分別為像素平面橫坐標及縱坐標;為笛卡爾坐標系軸的坐標。

深度相機通過飛行時間法來測量像素的距離:相機朝環境各物體發出脈沖,然后得到從發射到接收所耗時間,以此確定物體與當前位置的距離。其具體成像模型如圖2所示。圖中:pixel為像素坐標;p、p為像素坐標系中橫坐標及縱坐標;film為圖像坐標;f、f為圖像坐標系中橫坐標及縱坐標;camera為相機坐標;c、c、為圖像坐標系中橫坐標、縱坐標及高度坐標;world為相機坐標;w、w、w為真實世界坐標系中橫坐標、縱坐標及高度坐標。

在日常場景中會在相機前放透鏡來提升拍攝質量,這同時會導致成像與真實場景出現偏差。假設平面上一點的坐標為[,]T,對應的極坐標為[,]T,其中為極徑,為極角。透鏡造成的畸變為徑向畸變,表示當前坐標朝著方向偏移。將相機透鏡安裝過程中存在的誤差叫做切向畸變,指在角度上存在的偏移。可以通過不同的畸變參數對徑向畸變和切向畸變進行矯正,具體表達式為

圖2 深度相機模型

式中:[,]T為矯正前坐標;[,]T為矯正后坐標;徑向畸變矯正參數為1和2,利用參數1矯正圖像中心畸變較小的位置,2則可以矯正圖像邊緣畸變較大的位置;1、2為切向畸變矯正參數。

當深度相機收集到環境圖像后,因為圖像中包含許多信息,需要根據圖像特征從中選擇出有代表性的點,然后再處理,這種方法稱為特征點法。在眾多的特征點法中選擇快速特征檢測法(features from accelerated segment test,FAST)以加速檢測。在檢測出特征點后,要對比相機前后圖像間的位姿,就要對2幅圖像上的特征點進行關聯,即特征匹配過程。傳統的特征匹配方法計算量大,所耗資源多;因此本文利用光流法匹配特征。基于稀疏光流法(Lucus-Kanade,LK),使用反向組合光流來實現圖像配準,其具體流程如下:

步驟3)計算得到海森矩陣。

步驟4)按照圖形變換的表達式,計算得出的變換((;)),并計算誤差((;))-()。

步驟7)重復步驟4)~6),直至滿足Δ≤,為一個很小的正數。

光流法可以有效降低錯誤匹配的概率,但是仍可能存在少部分誤匹配的數據,對此本文利用隨機抽樣一致性法(random sample consensus,RANSAC)進行剔除。具體流程如下:

步驟1)從特征集中任意選擇4個不共線的數據,計算出變換矩陣,記作模型。

步驟2)計算出特征集中所有樣本與的投影誤差,如果其值小于閾值,則放于內點集合。

步驟3)若此時內點集樣本數目多于最佳內點集合I, 則令I=,并更新迭代次數。

步驟4)判斷當前迭代數是否達到最大迭代數,若是則輸出內點集;反之,繼續循環上述步驟。

1.3 IMU模型

相比于LiDAR和深度相機,IMU獲得的機器人位姿信息更加準確。本文所采用的IMU觀測模型為

式中:上標a為加速度;為角速度;g為陀螺儀;F為正交;為各軸誤差變換矩陣;為尺度因子;Q為非正交;表示零偏誤差;為其他誤差。

2 多傳感器數據融合建圖

在機器人導航領域,SLAM的問題可以簡單描述為:在未知環境中的機器人,可以根據位姿和地圖信息估計自身的位姿,并能夠在行駛過程中構建地圖,從而實現自主導航[13-15]。SLAM問題的運動模型可表示為

式中:x為機器人位姿;z為系統觀測值;(·)為系統運動函數;(·)為系統觀測函數;u為系統控制值;w為系統過程噪聲;v為系統觀測噪聲。

本文提出一種基于多傳感器數據融合的建圖方法,以解決環境中低障礙物無法感知的問題。該算法擬實現LiDAR、深度相機、IMU的信息融合,避免單一傳感器導致的檢測精度低的問題,提高SLAM 算法的準確性和穩定性。整個算法過程主要分為4個部分,即傳感器標定、數據預處理、EKF數據融合、建圖與回環檢測。

在機器人的硬件設備中,傳感器是最基本的硬件之一,它能夠幫助機器人獲取周圍環境信息,從而更好地進行導航。本文機器人設備共搭載LiDAR、深度相機和IMU 3種類型傳感器,基于上述傳感器模型,獲取環境觀測數據并對其進行標定。

2.1 數據預處理

數據預處理旨在將深度相機采集的圖像轉換成LiDAR數據,從而更好地進行下步一數據融合。轉換原理如圖3所示。

圖3 數據轉換原理

轉換步驟如下:

1)對采集的深度圖像進行有效區域的劃分,從而得到待處理的深度圖像(,)。

2)通過深度圖像(,)和相機參數模型,獲取深度相機的各像素在坐標系中的坐標(,,)。

3)將空間點云(,,)投影到激光掃描區域,計算圖中角的角度。計算公式為

激光的掃描范圍是[,],激光束被分成個部分,激光數據用激光[]表示,投射到陣列中的點的索引值為,二者具體表達式如下:

2.2 基于EKF算法的數據融合

當單獨使用深度相機或LiDAR進行地圖構建時,由于單一傳感器的缺陷,會有一定的誤差。因此,本文利用EKF將深度相機數據和LiDAR數據進行融合,以提高定位的精度。在使用EKF進行數據融合時,由于LiDAR比深度相機的測量更為精準,因此將深度相機的測量值作為當前時刻的系統預測值,將LiDAR的測量值作為系統測量值,從而保證數據融合的準確性。EKF數據融合的步驟如下:

1)預測操作。首先,設置好機器人的位置,并計算出其與起始點的誤差協方差。使用深度相機收集的機器人行駛數據,將該值作為此時系統輸入值u,預測后一個時刻的位姿,并計算預測值的誤差協方差。具體表達式如下:

2)數據關聯。在將深度相機和LiDAR數據融合之前,需要將它們的數據進行聯接,以防止二者數據錯配。根據獲得的觀測信息之間的馬氏距離,判斷2個傳感器獲得的數據之間的相關性。具體表達式如下:

式中:為可靠性;τ為測量的位置誤差;l為LiDAR的測量值;c為深度相機的測量值。

3)更新狀態。首先,需要算出卡爾曼增益K,然后用數據測量值校正原始系統預測值。同時,通過K計算出數據融合的最佳預估值,并得出此時的誤差協方差。具體表達式如下:

式中:為變換矩陣;為測量的高斯噪聲的協方差矩陣。

2.3 地圖構建和回環檢測

根據EKF融合后的數據與圖優化法搭建環境。利用迭代最近點(iterative closest point,ICP)算法將當前激光點云數據與子地圖進行匹配,獲得姿態變換關系,形成閉環約束插入到后端優化中。假設當前幀的LiDAR特征點為P,通過EKF融合得到的機器人位置坐標點為圓心,為姿態距離檢測的半徑。檢測到的目標幀的點云,如果與當前姿勢的距離小于,則作為待檢測的點云P。然后對和運行ICP算法,輸出姿勢矢量,并計算出檢測到的姿態在歷史姿態中的位置k。最后,在k-1和k幀之間對機器人姿勢進行優化和修正,并輸出修正后的姿勢軌跡和地圖。其中ICP匹配算法具體如下:

1)選擇掃描點集P,目標點集P,并對點云集進行預處理。

2)進行匹配操作,構造轉換矩陣。

3)利用奇異值分解(singular value decomposition,SVD)方法,分解計算得出轉換矩陣。

4)判斷P映射到P上點集與P中相應點集的距離平方和是否小于收斂誤差或者是否達到最大迭代次數,若是則停止迭代,反之繼續迭代。

3 移動機器人路徑規劃算法

3.1 基于改進AOS算法的全局路徑規劃

針對傳統AOS算法初始化種群不足,導致收斂過慢和探解的精度不高的問題,提出2種改進方案:一是混沌種群初始化策略,豐富初代種群;二是引入自適應非線性光子速率,使得探測與尋優可靈活切換,提高全局規劃路徑的精度。

1)初始化改進。傳統AOS算法是基于高斯分布來初始化電子在原子核周圍電子云的層級。改進后的AOS是基于混沌映射進行電子初始化,表達式為

式中:為階次;為原子核周圍電子的總量,也即搜索空間候選解的數量;為候選解的位置。

根據原子軌道模型,每個軌道的電子都有自身能級狀態,在數學模型中將每個電子的能量值作為候選解的目標函數值,有

式中:為包含個電子目標函數值的向量;E為第個候選解的能量值。各能量層級的電子的位置向量和目標函數值表達式如下:

原子須根據每一層候選解的位置和目標函數值來確定從該電子層中移除電子所需的能量,這個能量稱之為結合能。通過計算解空間內所有候選解的平均位置和平均能量值來確定原子所需的結合態S和結合能E,其表達式如下:

2)光子速率改進。AOS的全局搜索階段為表示光子對原子核周圍電子的作用,對每個電子在(0,1)范圍內生成一個均勻分布的隨機數與參數光子速率R進行比較。原算法的R為一個定值參數,并不能合理切換探測與尋優的過程,因此引入非線性化函數修正光子速率,為

式中:0為光子對電子的作用的概率;為隨機變量。當

式中為隨機數向量。

AOS的局部尋優階段,此時≥R,則存在光子對電子的作用,再根據光子的發射或吸收,考慮電子在原子核周圍不同層間的運動。此時候選解的位置更新過程為

3.2 七階mini-Snap軌跡優化

傳統路徑平滑算法解析能力要求高、規劃時間長。因此本文利用mini-Snap軌跡參照點,在路徑附近插入平衡點,從而盡可能減少和原軌跡之間的偏移量,提升優化質量。mini-Snap軌跡平滑算法表達式如下:

式中:為時間;為軌跡系數。其目標函數為:

3.3 局部路徑規劃

DWA可以實現局部路徑規劃和實時避障。移動機器人運行過程中不存在速度空間組(v,ω),可以在窗口區域時間內模擬出機器人的可行軌跡。結合全局規劃計算評價函數,確保最終局部路徑規劃也是全局最優路徑。本文采用的評價函數如下:

式中:(,)為路徑最終方向與終點之間的角度差;(,)為靜態障礙與當前路徑之間的最短距離;(v,ω)為未知障礙與當前路徑之間的最短距離;(,)為機器人速度評價函數;1、2、3、4為4種因素的權重系數。

3.4 算法流程

本文導航算法流程如圖4所示。

圖4 算法流程

4 實驗與結果分析

基于機器人操作系統(robot operating system,ROS)及Kobuki移動平臺對算法進行驗證和分析。同時配備二維LiDAR、深度相機(Kinect V2)、慣性導航、微機等設備,如圖5所示。其他運行條件為Windows11系統、AMD R7-5800H處理器、16GB運行內存。其他相關數據如表1所示。

圖5 實驗移動平臺

表1 實驗參數設置

4.1 建圖仿真及分析

1)實驗場景建圖。實驗場景通過添加水桶、紙箱等作為障礙物,如圖6(a)所示。其中障礙物2的高度低于車載LiDAR的安裝高度,障礙物1、3高于LiDAR高度,而障礙物4與LiDAR的安裝高度一致。為驗證本文提出的方法的可靠性,在模擬環境中進行了地圖構建實驗。圖6(b)是僅使用LiDAR的環境地圖,圖6(c)是僅使用深度相機的環境地圖。圖6(d)是數據融合后的環境地圖。

圖6 建圖實驗結果

從圖6中可以看出,由于受LiDAR裝置高度的影響,無法檢測到障礙物2,因此通過掃描獲得的地面數據不完整,導致測繪精度低。深度相機比LiDAR可以獲得更多的環境信息。然而,深度相機的檢測精度很容易受到環境光的影響,導致目標檢測精度低,構建的地圖模糊。本文通過將深度相機和LiDAR的探測數據進行融合構建地圖,比較可知,二者數據融合后建立的環境優于單一傳感器建圖。主要是因為本文算法將二者優勢互補,使得建立的地圖信息更加精確。因此本文算法建立的環境圖更加接近真實環境,有利于機器人更好地進行導航。

2)定位精度分析。為檢驗本文算法定位精度及魯棒性,在室內環境、走廊環境2種場景下,分別基于單一LiDAR、單一深度相機及本文算法進行定位建圖實驗。比較機器人行駛中各方向上均方根誤差(root mean square error,RMSE),具體結果如表2所示。

表2 定位結果

由表2可知,本文算法在2種場景下,相較于單一的LiDAR及深度相機定位方法,在各個方向上的RMSE值均更小,定位精度更優,無論是室內場景或是長廊場景均有較強魯棒性,具有良好的建圖表現。

4.2 路徑規劃仿真及分析

在進行實車實驗前,首先對算法進行仿真測試,驗證改進算法的性能。先后對改進AOS算法與基本AOS法進行仿真對比,結果如圖7所示,指標對比如表3所示。

圖7中,各算法均規劃出無碰路徑;但具體而言,改進AOS算法相較于傳統AOS、文獻[11]算法在路徑長度方面分別縮短約2.6%及1.3%,規劃時間上分別減少約17.6%及8.7%。另外,改進前AOS及文獻[11]算法的路徑存在較多轉彎點,在實際運行過程中對機器人的轉彎能力要求較高。而經過七階mini-Snap平滑后的本文算法則相對更加平滑,沒有尖銳轉彎點,同時能更快到達目標點。

圖7 已知障礙環境仿真圖

表3 指標對比

在環境中設置未知障礙檢驗本文算法局部規劃性能,結果如圖8所示。從圖中可看出:全局路徑上不存在未知障礙物時,算法直接執行全局最優路徑;當原線路出現未知障礙物時,執行動態窗口局部避障策略,根據檢測到的未知障礙物數據,更新局部目標點,對障礙物進行繞行,同時對目標點實施追蹤;當繞行完成后,會根據最近的局部目標點返回全局最優路徑。由表4可知,本文算法相較文獻[9]、文獻[11]算法,路徑長度分別減少2.8%和3.8%,規劃時間分別減少14.6%和13.1%。

圖8 含未知障礙環境仿真圖

表4 指標對比

4.3 實車導航實驗

為進一步驗證本文算法性能,根據4.1節中的實際環境進行100次實車實驗,其中一次結果如圖9所示。圖9(a)為在已知障礙環境下3種算法結果,圖9(b)為含未知障礙環境下本文算法結果。

圖9 實車實驗結果

根據圖9可知,各算法都能夠避開障礙物,到達環境中的目標位置,但本文算法路徑更為平滑簡短。另外,當全局路徑上存在未知障礙物時,采用本文算法的機器人在行駛過程中可利用DWA進行實時避障,并保持向全局最優路徑的終點方向前進,從而使得機器人的行駛更加安全平穩且路徑規劃效率更高。

進行多次實驗,對各算法路徑長度及行駛時間平均值進行對比,對未知障礙物規避次數進行統計,結果如表5所示。本文算法相較于文獻[9]、文獻[11]算法在路徑長度方面分別縮短約10.1%及12.4%,行駛時間上分別減少約13.9%及31.5%,且本文算法未知障礙規避率達98%,文獻[9]、文獻[11]算法分別只有71%與76%。表明本文算法在真實動態場景下的規劃效率更高,避障能力明顯提升。

表5 指標對比

5 結束語

為解決機器人在復雜環境下的自主導航問題,設計了一種基于多源數據融合的機器人導航方法。主要結論如下:

1)相比單一數據來源,采用LiDAR、深度相機、IMU多源數據融合的方法,可獲取更全面的環境信息,地圖構建更為精準,可避免光影影響下的模糊成像問題,對各種高度、形狀的物體均可準確識別并建圖。

2)針對傳統AOS算法存在的不能兼顧全局最優與局部精度和拐點多等問題,設計了多種策略進行改進,同時采用DWA算法進行局部規劃,避免無法跳出局部最優,提高了路徑規劃效率。實驗結果顯示:在靜態仿真中,本文算法相較于對比算法,路徑長度縮短約1.3%~2.6%,規劃時間減少約8.7%~17.6%;動態仿真中,本文算法相較于對比算法,路徑長度減少約2.8%~3.8%,規劃時間減少約13.1%~14.6%;實車試驗中,本文算法相較于對比文獻算法,路徑長度縮短約10.1%~12.4%,行駛時間減少約13.9%~31.5%,未知障礙規避成功率提升至98%。驗證了所提算法的先進性和有效性。

未來可以嘗試引入新的融合算法及路徑規劃方法,使得導航效率進一步提升。

[1] MA X, GONG R, TAN Y B, et al. Path planning of mobile robot based on improved PRM based on cubic spline[J]. Wireless Communications and Mobile Computing, 2022, 45-51.

[2] WANG K, YANG Y M, LI R X. Travel time models for the rackmoving mobile robot system[J]. International Journal of Production Research, 2020, 58(14): 4367-4385.

[3] LIAN Y D. A spatio-temporal constrained hierarchical scheduling strategy for multiple warehouse mobile robots under industrial cyber–physical system[J]. Advanced Engineering Informatics, 2022, 5:52-59.

[4] CECCHERINI S, ZOPPETTI N, CARLI B. An improved formula for the complete data fusion[J]. Atmospheric Measurement Techniques, 2022, 15(23) : 7039-7048.

[5] CHAMPION T, GRZES M, BOWMAN H. Branching time active inference with bayesian filtering[J]. Neural Computation, 2022, 34(10) :11-13.

[6] KOTSUKI S, MIYOSHI T, KONDO K, et al. A local particle filter and its Gaussian mixture extension implemented with minor modifications to the LETKF[J]. Geoscientific Model Development, 2022, 15(22) : 8325-8348.

[7] 張雯濤, 吳飛, 朱海. 自適應強跟蹤AST-ESKF無人車室內導航算法[J]. 導航定位學報, 2022, 10(4): 34-42.

[8] 許倫輝, 曾豫豪. 基于改進ACO和三次B樣條曲線的路徑規劃[J]. 計算機仿真, 2022, 39(7): 407-411.

[9] XIANG D, LIN H X, OUYANG J, et al. Combined improved A* and greedy algorithm for path planning of multi-objective mobile robot[J]. Scientific Reports, 2022, 12(1): 455-461.

[10] 笪晨, 宋天麟, 施維. 多策略模式下RRT算法的優化[J]. 組合機床與自動化加工技術, 2022(12): 128-131, 135.

[11] LI J C, FANG Y W, CHEN H Y, et al. Unmanned aerial vehicle formation obstacle avoidance control based on light transmission model and improved artificial potential field[J]. Transactions of the Institute of Measurement and Control, 2022, 44(16): 3229-3242.

[12] AZIZI M. Atomic orbital search: a novel metaheuristic algorithm[J]. Applied Mathematical Modelling, 2021, 93(1): 59-67.

[13] YATHARTH A, TUSHAR N, UTKARSH S, et al. Depth reconstruction based visual SLAM using ORB feature extraction[J]. Journal of Image and Graphics, 2022, 10(4): 88-95.

[14] ZHANG X G, ZHANG Z H, WANG Q, et al. Using a two-stage method to reject alse loop closures and improve the accuracy of collaborative SLAM systems[J]. Electronics,2021, 10(21): 74-85.

[15] WANG J Y, YASUTAKA F. High accuracy real-time 6D SLAM with feature extraction using a neural network:paper[J]. IEEE Journal of Industry Applications, 2021, 10(5): 512-519.

A robot navigation technology with multi-source data fusion

GUO Li1, CHEN Mengyuan2, FU Ming3

(1. Anhui Vocational College of Electronics & Information Technology, Bengbu, Anhui 233030, China; 2. Anhui Polytechnic University, Wuhu, Anhui 241000, China;3. Anhui University of Finance and Economics, Bengbu, Anhui 233030, China)

Aiming at the problems of inaccuracy and low efficiency of map construction in the navigation process of mobile robot, the paper proposed a robot navigation method based on multi-source data fusion: the extended Kalman filter was used to integrate the environment information of the laser radar and the depth camera, the pose and acceleration information of the robot was obtained by the pose sensor, and a map construction method based on the data fusion of the laser radar, the depth camera and the inertial measurement unit was proposed; then in order to balance global detection and local refinement, the improved atomic orbit search algorithm was used for global planning, and the dynamic window method was used for local obstacle avoidance. Result showed that the map built by multi-source data fusion would be closer to the real scene, and the success rate of real-time obstacle avoidance of unknown obstacles could be increased to 98% with the improved fusion algorithm, which would help improve the autonomous navigation efficiency of the robot.

data fusion; atomic orbital search algorithm; dynamic window; mobile robot; navigation

郭麗, 陳孟元, 付明. 一種多源數據融合的機器人導航技術[J]. 導航定位學報, 2023, 11(3): 96-104.(GUO Li, CHEN Mengyuan, FU Ming. A robot navigation technology with multi-source data fusion[J]. Journal of Navigation and Positioning, 2023, 11(3): 96-104.)

10.16547/j.cnki.10-1096.20230313.

P228;TP242

A

2095-4999(2023)03-096-09

2022-12-23

國家自然科學基金(61903002);安徽省質量工程重大項目(2020zdxsjg029);安徽省教育廳重點項目(gxyqZD2021110);安徽省高校人文社會科學研究重點項目(SK2019A0920);安徽省高校優秀青年人才支持計劃重點項目(gxyqZD2018131);安徽省職業教育創新發展試驗區項目(WJ-PTZT-041);安徽省質量工程人工智能技術應用專業教學創新團隊項目(2021jxtd024);安徽省質量工程教學示范課項目(2020SJJXSFK021)。

郭麗(1982—),女,安徽壽縣人,碩士,副教授,研究方向為計算機技術、導航技術等。

猜你喜歡
深度規劃融合
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
深度理解一元一次方程
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
深度觀察
深度觀察
深度觀察
規劃引領把握未來
快遞業十三五規劃發布
商周刊(2017年5期)2017-08-22 03:35:26
主站蜘蛛池模板: 最新午夜男女福利片视频| 日韩av电影一区二区三区四区| 久久亚洲高清国产| 欧美成人看片一区二区三区 | 亚洲综合经典在线一区二区| 就去色综合| 伊人久久久久久久久久| 亚洲欧美成人网| 国产美女91视频| 精品亚洲国产成人AV| 狠狠亚洲婷婷综合色香| 99精品视频在线观看免费播放| 午夜色综合| 91无码网站| 久久久久无码精品国产免费| 蜜桃视频一区| 婷婷丁香在线观看| 内射人妻无码色AV天堂| 欧美激情综合一区二区| 亚洲swag精品自拍一区| 午夜毛片免费观看视频 | 亚洲精品在线观看91| www.av男人.com| 麻豆精品视频在线原创| 欧美午夜理伦三级在线观看| 亚洲中文字幕久久无码精品A| 国产高颜值露脸在线观看| 亚洲天堂视频在线观看免费| 久久精品66| 国产亚洲精| 亚洲国产成熟视频在线多多| 亚洲手机在线| 欧美h在线观看| 亚洲国产日韩视频观看| 精品久久人人爽人人玩人人妻| 亚洲三级片在线看| 亚洲激情区| 中国美女**毛片录像在线 | 亚洲国产看片基地久久1024| 波多野结衣一区二区三区四区视频| 综合网久久| 东京热一区二区三区无码视频| 国产一级毛片在线| 97精品久久久大香线焦| 免费无码网站| 欧美a在线视频| 亚洲乱码在线播放| 亚洲色成人www在线观看| 91在线无码精品秘九色APP| 一本无码在线观看| 欧美日本在线观看| 国产麻豆精品久久一二三| 国内精品自在自线视频香蕉| 国产男女XX00免费观看| 熟妇人妻无乱码中文字幕真矢织江 | 国产欧美性爱网| 中文字幕天无码久久精品视频免费 | 久久伊人久久亚洲综合| a免费毛片在线播放| 国产区成人精品视频| 91久久精品国产| 国产va在线| 国产丝袜啪啪| 国产一级在线播放| 视频一本大道香蕉久在线播放 | 99久久精品美女高潮喷水| 91精品免费久久久| 亚洲av无码人妻| 四虎成人精品| 99久久精品国产自免费| vvvv98国产成人综合青青| 久久国产黑丝袜视频| 日韩人妻少妇一区二区| 国产黑丝一区| 国模私拍一区二区 | 一级毛片网| 99久久精品免费视频| 一级一级一片免费| 自慰高潮喷白浆在线观看| 亚洲一区二区三区麻豆| 精品成人免费自拍视频| 国产福利在线免费|