999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于動態分級的自適應運動目標處理SLAM算法

2023-12-31 00:00:00王富強王強李敏楊盼
計算機應用研究 2023年8期

摘 要:針對移動機器人在動態環境中視覺同時定位和地圖構建(visual simultaneous localization and mapping,VSLAM)精度低、魯棒性差的問題,提出了一種自適應運動目標處理SLAM算法(adaptive dynamic SLAM,AD-SLAM)。基于對極幾何約束的場景動態分級前端實時感知運行環境的動態變化。通過基于幾何約束和運動概率的低動態環境動態特征和基于語義分割的高動態環境動態目標處理消除運動目標。在計算機視覺數據集TUM上進行實驗驗證,結果表明提出方案在復雜動態環境中保證算法實時性的前提下提升了移動機器人建圖過程中定位的精度和魯棒性。

關鍵詞:同時定位和地圖構建;動態環境;動態分級;對極幾何;語義分割;運動概率

中圖分類號:TP242.6 文獻標志碼:A 文章編號:1001-3695(2023)08-018-2361-06

doi: 10.19734/j.issn.1001-3695.2022.11.0800

Adaptive moving object processing SLAM algorithm based on scene dynamic classification

Wang Fuqiang, Wang Qiang Li Min, Yang Pan

(School of Transportation amp; Logistics Engineering, Wuhan University of Technology, Wuhan 430063, China)

Abstract:Aiming at the problem of low accuracy and poor robustness of visual simultaneous localization and mapping (VSLAM) in dynamic environment, this paper proposed an adaptive dynamic SLAM (AD-SLAM). The scene dynamic classification front-end based on epipolar geometry constraint perceived the dynamic changes of the working environment in real time. This method used the dynamic feature culling in low dynamic environment based on geometric constraints and moving probability and the dynamic target processing in high dynamic environment based on semantic segmentation to eliminate moving objects. Experimental verification on the computer vision dataset TUM shows that the proposed method can improve the accuracy and robustness of localization in the mapping process of mobile robots while ensuring the real-time performance of the algorithm.

Key words:SLAM; dynamic environment; dynamic classification; epipolar geometry; semantic segmentation; moving probability

0 引言

近年來,自動駕駛、無人機、移動機器人等智能領域受到廣泛關注。視覺同時定位和地圖構建(VSLAM)作為移動機器人、自動駕駛和虛擬現實的關鍵技術,通過設備上搭載的傳感器感知周圍環境,實現自我定位并增量式構建環境地圖。相較于激光雷達,相機價格低廉、信息豐富的特點具有顯著優勢,現有的VSLAM方案在基于靜態環境假設條件下已經取得顯著的研究成果,如基于特征點法的ORBSLAM[1]、基于直接法的LSD-SLAM[2]等,能在靜態環境下準確定位并建立稀疏或稠密地圖。然而,在實際環境中動態場景是普遍的,當機器人運行在動態未知的新環境時,不可避免會觀測到運動的人或物體,這些運動對象會嚴重影響機器人的位姿估計精度甚至導致定位和建圖失效,靜態世界的理想假設嚴重限制了VSLAM的應用范圍。為提高VSLAM在復雜動態環境中的魯棒性,擴大VSLAM的應用場景,近年來相關學者對傳統SLAM方案進行了改進,主要分為基于對極幾何[3]和光流[4]的幾何方法,以及基于深度學習的方法兩類。

基于幾何的方法[5~8]判斷像素級特征點的動態性。Wang等人[9]對室內動態環境下RGB-D SLAM進行研究,通過深度圖聚類把圖像分成若干區域,將RGB圖像上的特征點投影到聚類后的深度圖上判斷區域動態性,但是如何確定圖像幀準確的聚類數是難點。林凱等人[10]利用RGB-D圖的深度信息,建立基于重投影深度差值的累積模型分割場景動靜態區域,賦予動靜區域特征點不同的權重進行優化。魏彤等人[11]根據圖像深度和顏色信息進行場景區域分割,結合稀疏動態特征信息標記動態區域,當動態目標和背景的顏色或深度相近時會出現錯誤分割。以上基于幾何的方法分割結果準確度低,且僅能處理包含少量動態特征的場景,若環境中存在大量的動態目標將會失效。

基于深度學習的方法將圖像識別、語義分割和實例分割應用到SLAM系統,識別圖像的先驗運動信息。何召蘭等人[12]利用Mask R-CNN[13]生成掩模信息對特征點進行篩選,識別并剔除預先訓練好的幾種潛在運動目標,然而Mask R-CNN復雜、計算量大,不能滿足SLAM系統的實時性要求。Yu等人[14]在ORBSLAM2三線程的基礎上添加語義分割和稠密語義地圖構建線程,把分割圖上存在一定數量動態點的對象視為動態目標,最終建立八叉樹地圖,但僅把人當做潛在的運動目標,與現實場景不符。Cui等人[15]利用語義分割輔助對極幾何約束檢測環境中的運動信息,在ORBSLAM2跟蹤線程前添加語義光流動態特征檢測和剔除模塊,實現語義和幾何的緊耦合約束。Li等人[16]提出運動概率傳播模型,將幾何模型和語義分割結果轉換為觀測概率,用貝葉斯更新關鍵點的運動概率,剔除潛在運動概率高的關鍵點。Bescos等人[17]提出DynaSLAM,基于ORBSLAM2添加動態目標檢測和背景補償模塊,利用Mask R-CNN語義分割潛在運動物體。Cheng等人[18]提出DM-SLAM,在初始化時利用Mask R-CNN分割圖像幀,僅利用位于靜態背景區域的絕對靜態點進行相機位姿初始化,重點研究了雙目和RGB-D相機模式,利用光流法和重投影誤差區分靜點和動點,在高動態場景下提高了位姿估計的精度。Fan等人[19]針對室內動態環境在ORBSLAM2的基礎上引入BlitzNet語義分割網絡區分圖像背景區域和潛在動態區域,用背景區域的匹配點極線約束定位潛在動態區域上的靜態點,并利用深度圖的集合信息對原始語義分割掩膜進行修正,但該方法只能適用于室內環境深度相機模式,絕大多數場景不適用對環境條件要求嚴格的深度相機。常規基于深度學習的方法順序分割所有普通幀或關鍵幀,跟蹤線程需要等待耗時最長的語義分割結果,導致系統的運行速度很大程度上受深度學習網絡的限制。針對常規基于語義分割的動態SLAM存在的語義分割阻塞問題,Liu等人[20]基于ORB-SLAM3的RGB-D方案,添加并行運行的語義線程和基于語義的優化線程,語義分割線程采取每次從關鍵幀序列中選取最前和最后兩幀進行分割的策略,跟蹤線程不再需要等待每幀的語義分割結果,在一定程度上減輕了跟蹤線程的阻塞問題。然而該分割策略會隨時間累積未知語義信息的關鍵幀數目,導致語義信息更新慢,容易誤判特征點動態性,存在較大累積誤差的問題。針對語義分割網絡模型規模大、比較耗時且難以滿足實時性要求的問題,Su等人[21]基于ORBSLAM2設計基于輕量級目標檢測網絡YOLOv5的動態目標檢測線程,但目標檢測得到的候選框包含大范圍背景圖像,無法精確分割動態目標輪廓,盡管額外添加了光流處理解決框內動態特征識別的問題,但在檢測框內仍然容易出現動態誤判點。Xing等人[22]將環境中的動態元素分為短期動態和長期動態兩類,為減少MobileNet V2 SSD語義分割網絡計算量,只對關鍵幀進行語義分割,普通幀則通過粒子濾波跟蹤前一關鍵幀的動態目標位置,該策略在一定程度上提升了SLAM系統的實時性。

綜合相關研究,幾何法動態SLAM原理簡單,常用于靜態或低動態環境SLAM處理少量噪聲特征點。典型基于深度學習的方法引入Mask R-CNN和YOLO等語義分割和目標檢測網絡識別潛在運動物體,利用靜態背景上特征進行跟蹤和建圖,避免了動態物體引發的特征誤匹配和包含大誤差的數據關聯。無論是幾何法處理動態特征還是典型基于深度學習的動態SLAM方案存在以下問題:

a)單純基于幾何的動態特征處理方法只能應對包含少量動態點的場景,且無法利用圖像的高級語義信息協助判斷動態物體和建立包含語義信息的高級地圖;

b)由于深度學習網絡規模較大,無差別對所有圖像幀進行分割計算會導致跟蹤線程長時間等待語義信息的阻塞現象,不能滿足SLAM系統運行實時性要求,且難以分辨分割輪廓邊緣特征點動態性。

未知動態環境下性能最優的動態目標處理方式因環境特性而不同,當機器人運行在動態性較低的環境中,無差別語義分割所有圖像幀對計算資源造成浪費,而高動態環境下純幾何方法缺少的語義信息無法處理大范圍運動物體,因此需要在不同環境下通過語義分割協同幾何方法識別運動目標和異常噪聲點。為了使機器人在SLAM過程中能夠感知運行環境的動態性,根據所處環境自適應選擇合理的動態特征處理策略,設計了基于對極幾何的場景動態分級前端,系統根據當前運行環境的動態級別自適應執行基于累積運動概率的低動態場景特征處理策略和基于語義分割的高動態場景運動目標處理算法,通過更新地圖點運動概率的方式傳遞動態信息,減少地圖點動態性的誤判,根據動態性自適應語義分割降低了分割網絡對SLAM系統實時性的影響,改進的AD-SLAM算法在保證機器人定位精度的前提下減少了語義分割計算量,提升了系統的定位精度、實時性和魯棒性。

1 算法流程

本文提出的動態SLAM算法是基于ORBSLAM2設計的,系統框架如圖1所示。典型的ORBSLAM2由跟蹤線程、局部建圖線程和閉環檢測線程三個線程組成。理想情況下,提取相機輸入圖像幀的FAST關鍵點并計算BRIEF描述子,由此組成的ORB特征點提取速度快,具有良好的旋轉不變性和亮度魯棒性。跟蹤線程通過特征匹配,計算圖像幀間的相對變換,估計相機位姿;局部建圖線程處理跟蹤線程傳遞的關鍵幀,生成新的地圖點并剔除冗余關鍵幀;閉環線程通過檢測閉環,判斷機器人是否回到之前到過的位置,根據閉環檢測結果進行全局BA優化。

在跟蹤線程前添加場景動態分級前端,跟蹤線程融入動態目標檢測和動態地圖點優化剔除處理。動態分級前端提取上一幀圖像的Harris角點,通過光流法加速匹配當前圖像幀角點,由前后兩幀圖像的匹配角點計算得到初步基礎矩陣,利用對極幾何約束計算匹配角點的運動一致性,根據匹配角點的動態率劃分當前所處環境為高動態或低動態。高動態環境中存在較大的運動目標,通過語義分割RGB圖引入高級語義信息識別顯著動態物,獲得圖像中運動物體的種類和位置。高動態場景語義分割后和低動態場景用幾何約束和隨機樣本一致性(random sample consensus,RANSAC)剔除少量動態特征和噪聲點,同時不斷更新地圖點的運動概率。若檢測運動概率更新后的地圖點為動態,在跟蹤優化階段進行刪除。剔除異常動態特征點和地圖點后再進行后續的位姿估計和后端優化,實現SLAM在動態環境下的穩定運行。

2 基于動態分級的自適應運動目標處理SLAM算法

2.1 基于對極幾何的場景動態分級

機器人定位和建圖過程中相機拍攝相鄰兩幀圖像時間間隔很短,幀率30 fps拍攝的兩幀圖片時間僅相差33 ms,可以滿足光流法的灰度不變假設。為加快場景動態分級速度,采用光流法跟蹤相鄰兩幀圖像的Harris角點,快速得到前后幀的角點匹配關系,根據匹配關系計算相機運動基礎矩陣F。

2.2 基于極線約束和累積運動概率的低動態場景處理

2.3 基于語義分割的高動態場景運動物體處理

動態分級模塊判斷當前環境為高動態,圖像中存在較大運動目標,提取當前圖像幀ORB特征,用恒速跟蹤模型加速特征匹配,同時把RGB圖傳入語義分割線程分割得到相同尺寸的語義分割掩膜。用位于靜態物體和背景圖像上的絕對靜態點計算初步基礎矩陣,為保證跟蹤質量,盡可能保留更多的靜態點,用絕對靜態點計算的基礎矩陣檢驗分割出的潛在運動目標上的疑似動態點,如果潛在運動物體上的特征點為靜態,認為潛在動態目標在此刻沒有運動,保留特征點為靜態特征,對應地圖點的動態觀測次數保持不變。剔除存在動態特征的潛在運動目標上的ORB特征點,更新動態特征關聯地圖點的動態觀測次數,保留經過篩選的靜態特征RANSAC計算基礎矩陣F,為防止語義分割輪廓邊界特征和個別異常特征的動態性出現誤判,再采用低動態場景下基于對極幾何相互投影極線的方法判斷剩余特征點的動態性,更新兩種方式判斷的動靜特征關聯地圖點的累積運動概率,得到可靠的靜態匹配特征和地圖點用于下一步的相機位姿估計和非線性優化,保證VSLAM系統在動態環境中穩定運行。

3 實驗與分析

為檢驗提出方法的有效性,將設計的動態環境下自適應運動目標處理AD-SLAM算法分別于改進前的ORBSLAM2算法和目前表現較為優秀的幾種動態SLAM算法作對比。在公開數據集TUM[24]上進行實驗測試,該數據集包含一系列現實場景拍攝的圖像集,并提供相機拍攝過程中的真實運動軌跡。選取TUM數據集中四個經典的靜態和動態場景序列,freiburg1_xyz圖像序列是靜態場景,由相機在一張靜態的辦公桌前沿xyz方向移動拍攝所得。freiburg3_sitting_xyz圖像序列是低動態場景,相機沿xyz方向拍攝,有兩位工作人員坐在桌子前交談并伴隨打手勢。freiburg3_walking_static圖像序列是高動態場景,相機在拍攝過程中保持靜止,環境中有人來回走動。 freiburg3_walking_xyz圖像序列是高動態場景,相機在拍攝過程中沿xyz方向移動,伴隨有兩個人來回走動。實驗過程中的硬件為個人計算機,主要參數CPU為酷睿i5-10300H,GPU 為 4 GB內存GTX1650 Ti,操作系統為Ubuntu 18.04。用TUM數據集中的圖像恢復不同動態環境下相機拍攝過程,在相同條件下多次運行得到ORBSLAM2算法、本文改進的AD-SLAM算法以及其他改進算法的定位結果,分別與數據集提供的軌跡真值進行對比得到算法的定位精度和運行時間數據。

3.1 評價指標

采用絕對軌跡誤差(absolute trajectory error,ATE),相對位姿誤差(relative pose error,RPE)和每幀圖像的平均跟蹤時間(mean tracking time,MTT)作為評價SLAM定位精度和實時性的指標。ATE是在運動過程中每一時刻的相機估計位姿和該時刻相機真實位姿的絕對誤差,用于評價SLAM系統的定位精度。RPE包括旋轉相對位姿誤差和平移相對位姿誤差,是單位時間內位姿變化的差值,用于評價SLAM系統的漂移。MTT是平均每幀圖像的跟蹤時間,用于評價系統的時間效率。

3.2 定位精度評估

3.2.1 與ORBSLAM2比較

分別在四個數據集上運行ORBSLAM2和AD-SLAM。ORBSLAM2作為公認經典和穩定的特征點法SLAM系統,在靜態世界假設條件下表現出優異的效果。以下展示了在靜態數據集序列freibury1_xyz和動態數據集序列freibury3_walking_xyz中的運行結果對比圖。靜態序列freiburg1_xyz中ORBSLAM2和AD-SLAM的運行結果如圖5所示,freiburg3_walking_xyz高動態場景序列中兩種SLAM算法運行結果如圖6所示。ATE圖中黑色線表示相機真實運動軌跡,藍色線是SLAM計算的相機運動軌跡,紅色線表示每一幀時刻相機的絕對偏差。從圖5、6的ATE軌跡圖可以看出,ORBSLAM2在靜態環境中可以得到比較準確的相機估計運動軌跡,然而當場景中存在動態目標時,絕對軌跡誤差最大處達到1 m以上,位姿估計出現嚴重偏差,機器人視覺定位失敗。本文AD-SLAM不僅能在freibury1_xyz低動態環境中計算得到準確的位姿,在freiburg3_walking_xyz高動態序列中依然能夠穩定運行,計算得到和相機真實運動軌跡接近的預測運動軌跡。

定量評估算法的各項指標,表2比較了AD-SLAM和ORBSLAM2的絕對軌跡誤差ATE。結果表明ORBSLAM2魯棒性很差,在高動態場景中受運動物體影響較大,導致定位效果急劇下降,freiburgs_walking_xyz高動態序列的平均絕對軌跡誤差達到0.61 m。AD-SLAM在低動態場景下定位精度相比ORBSLAM2提升效果不明顯,在freibury1_xyz和freibury3_sitting_xyz場景定位精度分別提升2.3%和8.77%,是因為ORBSLAM2在低動態環境已經達到了較高的定位精度,可提升空間不大;在高動態環境中AD-SLAM的定位效果提升顯著,freiburg3_walking_static和freiburg3_walking_xyz場景的平均絕對軌跡誤差分別降低了98.37%和97.87%。

表3對比了AD-SLAM和ORBSLAM2的平移相對位姿誤差,實驗結果表明,AD-SLAM相較于ORBSLAM2估計位姿的相對位姿平移漂移量顯著下降,尤其在高動態環境中漂移分別下降91.13%和94.29%。表4對比了AD-SLAM和ORBSLAM2的旋轉相對位姿誤差,實驗數據表明,針對指標旋轉相對位姿誤差,相比ORBSLAM2,本文AD-SLAM在高動態環境下有顯著的定位提升效果,freiburg3_walking_static和freiburg3_walking_xyz序列的旋轉相對位姿誤差降低了85.76%和91.79%。

3.2.2 與其他動態SLAM算法比較

近年來相關學者對動態環境下視覺SLAM進行了研究,為驗證本文算法的有效性,將AD-SLAM算法與目前表現較為優秀的幾種動態SLAM算法DynaSLAM[17]、DS-SLAM[14]、RDS-SLAM[20]和Blitz-SLAM[19]進行對比如表5所示,表中比較了幾種動態SLAM算法定位絕對軌跡誤差(ATE)的均方根誤差(RMSE),“-”表示文獻中沒有對應數據集的運行結果,由表中結果可得,在freiburg1_xyz和freiburg3_sitting_xyz場景中,本文AD-SLAM算法取得了最佳的定位效果,在freiburg3_walking_static和freiburg3_walking_xyz場景中,本文算法相比DS-SLAM、RDS-SLAM和Blitz-SLAM具有更小的定位誤差,DynaSLAM的定位效果略好于本文算法,但差距很小效果相當,原因是數據集中的動態目標主要是人,而DynaSLAM算法直接將人上特征點刪除,在該數據集上效果表現較好,但當環境中存在其他類別移動物體時效果會下降。

3.3 實時性評估

對提出的動態AD-SLAM算法和普通語義分割SLAM算法運行實時性進行比較。文獻[17]中DynaSLAM在freiburg3_walking_halfsphere和freiburg3_walking_rpy數據集的平均每幀跟蹤時間分別為0.334 s和0.236 s,平均運行耗時接近AD-SLAM的3倍。表6給出了AD-SLAM算法和DS-SLAM語義分割SLAM算法在同一計算平臺平均每幀圖像的跟蹤時間。實驗結果表明,本文AD-SLAM算法在運行效率上提升效果明顯, DS-SLAM無論在高動態環境還是低動態場景,每幀圖像的跟蹤時間差異性很小,平均0.178 s。本文AD-SLAM實時感知環境動態性,在不同動態環境下的自適應處理策略有效提升了系統的運行時間效率,在低動態場景序列freiburg1_xyz的運行速度相比DS-SLAM提升了40.51%,序列freiburg3_sitting_xyz的實時性提升了34.64%,在高動態場景,序列freiburg3_walking_static和freiburg3_walking_xyz的實時性對比DS-SLAM分別提升了36.67%和5.65%。

綜合算法的定位精度和實時性,在動態未知的復雜動態環境下,本文提出的AD-SLAM算法相較于ORBSLAM2和動態DynaSLAM、DS-SLAM等算法,不僅顯著提高了機器人VSLAM定位的精度,而且相比常規語義分割動態SLAM算法在運行實時性上取得了明顯的改善,提升了SLAM系統的精度、魯棒性和實時性。

4 結束語

針對復雜動態環境下視覺SLAM定位精度低、魯棒性差的問題,本文提出基于場景動態分級的自適應多策略同時定位與建圖算法AD-SLAM。首先根據對極幾何約束實時判斷運行環境為高動態和低動態場景,在高動態場景語義分割協同極線約束剔除動態目標上大量動態特征點和少量異常噪聲點,在低動態場景引入極線約束剔除少量的動態外點,更新維護地圖點的累積運動概率,消除了動態特征和地圖點對相機位姿估計的影響。在公開數據集TUM上對算法進行了驗證,實驗結果表明本文算法在未知動態環境下的定位精度和魯棒性有顯著提升,且相比僅語義分割的SLAM算法,算法的實時性得到了改善。下一步工作,將進行復雜動態環境下的高精度地圖構建和維護。

參考文獻:

[1]Mur-Artal R,Montiel J M M,Tardos J D. ORBSLAM: a versatile and accurate monocular SLAM system[J]. IEEE Trans on Robotics,2015,31(5): 1147-1163.

[2]Engel J,Schps T,Cremers D. LSD-SLAM: large-scale direct mono-cular SLAM[C]// Proc of European Conference on Computer Vision. Cham: Springer,2014: 834-849.

[3]Hartley R,Zisserman A. Multiple view geometry in computer vision[M]. Cambridge: Cambridge University Press,2003.

[4]Lucas B D,Kanade T. An iterative image registration technique with an application to stereo vision[C]// Proc of the 7th International Joint Conference on Artificial Intelligence. San Francisco,CA: Morgan Kaufmann Publishers Inc.,1981: 674-679.

[5]Kundu A,Krishna K M,Sivaswamy J. Moving object detection by multi-view geometric techniques from a single camera mounted robot[C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ: IEEE Press,2009: 4306-4312.

[6]Li Shile,Li Donghui. RGB-D SLAM in dynamic environments using static point weighting[J]. IEEE Robotics and Automation Letters,2017,2(4): 2263-2270.

[7]Dai Weichen,Zhang Yu,Li Ping,et al. RGB-D SLAM in dynamic environments using point correlations[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2022,44(1): 373-389.

[8]Bahraini M S,Bozorg M,Rad A B. SLAM in dynamic environments via ML-RANSAC[J]. Mechatronics,2018,49: 105-118.

[9]Wang Runzhi,Wan Wenhui,Wang Yongkang,et al. A new RGB-D SLAM method with moving object detection for dynamic indoor scenes[J]. Remote Sensing,2019,11(10): 1143.

[10]林凱,梁新武,蔡紀源. 基于重投影深度差累積圖與靜態概率的動態RGB-D SLAM算法[J]. 浙江大學學報: 工學版,2022,56(6): 1062-1070. (Lin Kai,Liang Xinwu,Cai Jiyuan. Dynamic RGB-D SLAM algorithm based on reprojection depth difference cumulative map and static probability[J]. Journal of Zhejiang University: Engineering Science,2022,56(6): 1062-1070.)

[11]魏彤,李緒. 動態環境下基于動態區域剔除的雙目視覺SLAM算法[J]. 機器人,2020,42(3): 336-345. (Wei Tong,Li Xu. Bino-cular vision SLAM algorithm based on dynamic region elimination in dynamic environment[J]. Robot,2020,42(3): 336-345.)

[12]何召蘭,何乃超,張慶洋,等. 基于實例分割的視覺SLAM算法[J]. 計算機工程與設計,2020,41(10): 2791-2796. (He Zhaolan,He Naichao,Zhang Qingyang,et al. Visual SLAM algorithm based on instance segmentation[J]. Computer Engineering and Design,2020,41(10): 2791-2796.)

[13]He Kaiming,Gkioxari G,Dollár P,et al. Mask R-CNN[C]// Proc of IEEE International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2017: 2961-2969.

[14]Yu Chao,Liu Zuxin,Liu Xinjun,et al. DS-SLAM: a semantic visual slam towards dynamic environments[C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ: IEEE Press,2018: 1168-1174.

[15]Cui Linyan,Ma Chaowei. SOF-SLAM: a semantic visual SLAM for dynamic environments[J]. IEEE Access,2019,7: 166528-166539.

[16]Li Ao,Wang Jikai,Xu Meng,et al. DP-SLAM: a visual SLAM with moving probability towards dynamic environments[J]. Information Sciences,2021,556: 128-142.

[17]Bescos B,Facil J M,Civera J,et al. DynaSLAM: tracking,mapping,and inpainting in dynamic scenes[J]. IEEE Robotics and Automation Letters,2018,3(4): 4076-4083.

[18]Cheng Junhao,Wang Zhi,Zhou Hongyan,et al. DM-SLAM: a feature-based SLAM system for rigid dynamic scenes[J]. ISPRS International Journal of Geo-Information,2020,9(4): 202.

[19]Fan Yingchun,Zhang Qichi,Tang Yuliang,et al. Blitz-SLAM: a semantic SLAM in dynamic environments[J]. Pattern Recognition,2022,121: 108225.

[20]Liu Yubao,Miura J. RDS-SLAM: real-time dynamic SLAM using semantic segmentation methods[J]. IEEE Access,2021,9: 23772-23785.

[21]Su Peng,Luo Suyun,Huang Xiaoci. Real-time dynamic SLAM algorithm based on deep learning[J]. IEEE Access,2022,10: 87754-87766.

[22]Xing Zhiwei,Zhu Xiaorui,Dong Dingcheng. DE-SLAM: SLAM for highly dynamic environment[J]. Journal of Field Robotics,2022,39(5): 528-542.

[23]Badrinarayanan V,Kendall A,Cipolla R. SegNet: a deep convolutio-nal encoder-decoder architecture for image segmentation[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(12): 2481-2495.

[24]Sturm J,Engelhard N,Endres F,et al. A benchmark for the evaluation of RGB-D SLAM systems[C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ: IEEE Press,2012: 573-580.

主站蜘蛛池模板: 最新国产午夜精品视频成人| 精品久久综合1区2区3区激情| 国产亚洲精品自在线| 五月综合色婷婷| 国产精品欧美日本韩免费一区二区三区不卡| 91麻豆精品视频| 噜噜噜久久| 久久77777| 国产精品漂亮美女在线观看| 精品久久久久久中文字幕女| 亚洲国产精品一区二区第一页免 | 黄色网站在线观看无码| 亚洲日本一本dvd高清| 日韩国产综合精选| 国产精品久久久久久久久kt| 97成人在线视频| 国产成人综合在线观看| 人与鲁专区| 亚洲综合香蕉| 国产屁屁影院| 国产高清不卡视频| 无码高潮喷水在线观看| 99精品一区二区免费视频| 国产99视频在线| 精品欧美视频| 欧美精品黑人粗大| 色一情一乱一伦一区二区三区小说| 亚洲男人的天堂在线观看| 视频国产精品丝袜第一页| 天堂va亚洲va欧美va国产 | 国产精品九九视频| 国产精品成人一区二区不卡| 亚洲永久色| 青青国产视频| 国产丰满大乳无码免费播放| 国产黄网永久免费| 国产99视频精品免费视频7 | 这里只有精品在线| 欧美成人综合视频| 国产精品视频观看裸模| 国产无码制服丝袜| 97国内精品久久久久不卡| 亚洲人成影视在线观看| 国产00高中生在线播放| 日韩一级二级三级| 国产99热| 国产午夜在线观看视频| 中国成人在线视频| 欧美三级日韩三级| 九色91在线视频| 亚洲欧美日韩中文字幕在线一区| 国产亚洲第一页| 国产成人精品一区二区三在线观看| 久久人搡人人玩人妻精品| 欧美日本中文| 在线va视频| 在线播放91| 欧美日韩一区二区在线播放| 久久99国产精品成人欧美| 91久久国产综合精品| 91色老久久精品偷偷蜜臀| av一区二区三区在线观看 | 波多野结衣一区二区三区四区视频| 8090成人午夜精品| 操国产美女| 国产极品美女在线播放| 久久精品国产电影| 色综合中文| 国产精品女主播| 色有码无码视频| 久久www视频| 日本成人精品视频| 秋霞午夜国产精品成人片| 国产亚洲高清在线精品99| 黄色福利在线| a天堂视频在线| 欧美日韩中文国产va另类| 91亚洲精选| 视频二区亚洲精品| 美女扒开下面流白浆在线试听 | 91娇喘视频| 91亚洲视频下载|