999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

動態環境下融合輕量級YOLOv5s 的視覺SLAM

2022-08-12 02:30:00伍子嘉
計算機工程 2022年8期
關鍵詞:特征檢測系統

伍子嘉,陳 航,彭 勇,宋 威

(1.江南大學 物聯網工程學院,江蘇 無錫 214122;2.江南大學 人工智能與計算機學院,江蘇 無錫 214122)

0 概述

同步定位與地圖構建(Simutaneous Localization and Mapping,SLAM)是指機器人在未知環境中通過自身攜帶的傳感器進行環境感知和周圍環境的三維重建。機器人搭載的傳感器常見的有相機、激光傳感器、慣性傳感器,由于相機采集的圖像具有更豐富的色彩紋理信息,且相機價格低廉、體積小、功耗較低,所以應用較廣泛。由相機作為主要傳感器的系統被稱為視覺SLAM 系統[1]。

現有的視覺SLAM 系統主要分為依靠特征點進行匹配并構建稀疏地圖的特征點法,及利用最小化光度誤差構建稠密地圖的直接法。CAMPOS 等[2]在ARTAL 等[3]的基礎上發布了基于特征點法的ORBSLAM3 方法,這是特征點法的代表。文獻[4]中的DTAM 系統使用直接法實現實時稠密三維重建,文獻[5]中的LSD-SLAM 系統利用圖像灰度實現定位和半稠密點云地圖構建。直接法的實現是基于同一像素點的灰度值在各個圖像中固定不變這一假設,但由于光照變化、相機自動曝光等因素的影響,這一假設很難實現,因此基于直接法的SLAM 系統穩定性較差。

將視覺SLAM 系統與深度學習技術相結合可以有效利用圖像中的語義信息,提高系統的定位建圖精度。文獻[6]的SLAM++系統可以將硬件采集到的點云信息與事先構建好的高質量3D 模型數據庫進行對比,將匹配成功的物體模型插入地圖中,但該系統的缺點是只能構建數據庫中存在的物體模型。文獻[7]提出將目標檢測網絡與傳統的單目SLAM相結合,令目標檢測框結合先驗知識選出場景中的動態物體,并將邊界框內的特征點全部剔除。但由于目標檢測框框選出的范圍大于動態物體的范圍,因此會造成動態目標周圍的靜態特征點也被誤剔除,導致系統精度下降。DynaSLAM 系統[8]將語義分割網絡MASK-RCNN[9]與多視圖幾何相結合,實現對動態目標的檢測和剔除。文獻[10]提出DS-SLAM系統,在ORB-SLAM2 的基礎上結合了SegNet 語義分割網絡[11],去除了環境中運動的人的影響,同時可以構建語義八叉樹地圖,但是語義分割比較耗時,無法達到實時性的效果。

針對現有視覺SLAM 系統在動態環境下普遍存在精度較低或實時性較差的問題,本文提出一種面向動態環境下的視覺SLAM 系統,通過融合輕量級YOLOv5s 網絡,減小模型的大小。此外,將目標檢測網絡與光流法相結合,剔除SLAM 系統前端的動態特征點,提高系統在動態環境下的定位精度。

1 系統框架

1.1 ORB-SLAM 系統

ORB-SLAM 系統的推出代表著主流特征點法SLAM的高峰,包括ORB-SLAM2與ORB-SLAM3系統。

1.1.1 ORB-SLAM3 系統

相比ORB-SLAM2 系統,ORB-SLAM3 系統融合了IMU 傳感器,提升了整個SLAM 系統的定位及建圖精度。如圖1 所示,ORB-SLAM3 系統具有跟蹤、局部建圖、閉環檢測3 個并行線程。跟蹤線程負責ORB 特征點的提取和匹配,通過最小化重投影誤差來估計2 幀間的相對位姿[2]。局部建圖線程負責對得到的關鍵幀進行管理,通過集束調整(Bundle Adjustment,BA)來優化局部地圖中所有幀的位姿。閉環檢測線程通過關鍵幀檢測整個地圖是否發生閉合的回環,并通過位姿圖優化不斷矯正累積的漂移誤差。當通過詞袋模型檢測到閉環后,會開啟第4線程進行全局優化。

圖1 ORB-SLAM3 系統線程與結構Fig.1 Threads and structure of ORB-SLAM3 system

1.1.2 改進的ORB-SLAM 系統

為提升ORB-SLAM 系統在動態環境下的精度與魯棒性,本文在該系統原有的3 個并行線程的基礎上增加了目標檢測模塊與光流模塊作為第4 個線程。

在傳統的跟蹤線程中如果提取的ORB 特征點一直處于運動狀態,那么這些點在特征點匹配計算位姿的過程中將會不斷給系統帶來積累誤差,最終導致定位失敗。如圖2 所示,在跟蹤線程中加入目標檢測與光流線程,檢測并剔除動態目標上的動態ORB 特征點,使其不參與相機位姿計算,僅留下靜態特征點參與位姿計算。

圖2 傳統的跟蹤線程與改進的跟蹤線程Fig.2 Traditional trace threads and improved trace threads

1.2 目標檢測網絡Mobilenetv3-YOLOv5s

在結合深度學習的SLAM 方法中,實時性尤為重要。本文首先考慮將基于像素的語義分割方法與SLAM 系統相結合,但實驗發現基于像素的語義分割方法難以實時運行。因此,本文引入基于深度學習的目標檢測網絡來檢測環境中潛在的運動對象,通過融合輕量級網絡進一步改進,該方法以較高的運行速度滿足了SLAM 系統的實時性要求。但單獨的目標檢測網絡的方形目標檢測框通常會框選出不屬于動態目標上的特征點,本文通過引入光流法可以有效解決該問題。

1.2.1 目標檢測網絡YOLOv5s

YOLO 是一種基于回歸的目標檢測算法,是目前應用最廣泛的目標檢測算法之一。它將目標檢測作為回歸問題求解,直接從一張輸入圖片獲得預測物體的邊界框位置及其分類,在保證準確率的同時兼顧了實時性,在速度與精度上達到了良好平衡。YOLOv5 目前仍在迭代更新,包含YOLOv5s、YOLOv5m、YOLOv5l、YOLO5x 共4 個版本。不同版本之間的主要區別在于深度及特征圖的寬度不同,可以很方便地在其配置文件中通過調整depth_multiple 與width_multiple 兩個參數的大小進行配置。

YOLOv5s 網絡是YOLOv5 系列中深度、特征圖寬度最小的網絡。其模型參數量約為7.5M,在V100GPU 上,每張圖片推理速度僅為0.002 s,即幀率為500 frame/s,完全滿足實時檢測的需求。

與先前的目標檢測網絡相比,YOLOv5 對整個網絡的各個部分均作出了改進,包括在輸入端采用Mosaic 數據增強、自適應錨框計算、自適應圖片縮放,在Backbone 中引入Focus 結構與CSP 結 構,在Neck 中使用FPN+PAN 的結構,在輸出端中采用GIOU_Loss 作為目標檢測框的損失函數,同時引入了NMS 非極大值抑制機制。

1.2.2 輕量級網絡MobileNet-V3

傳統的卷積神經網絡對內存需求大、運算量大,導致其無法在移動設備上實時運行。如VGG16 網絡的權重為490M,Resnet-152 層網絡的權重有644M。MobileNet 網絡[13]是專注于移動端設備的輕量級CNN 網絡,相比于傳統的卷積神經網絡,在準確率小幅降低的前提下大幅減少了模型參數與運算量。在Imagenet 數據集上相比VGG16 網絡的準確率減少了0.9%,但模型參數只有VGG16 網絡的1/32。其參數量大幅減小的原因主要是其引入了深度(Depthwise,DW)卷積、逐點(Pointwise,PW)卷積。如圖3 所示,DW 卷積與PW 卷積相結合構成了深度可分離卷積(Depthwise Separable Convolution,DSC)。圖3 中,DF表示輸入特征矩陣的高和寬;M表示輸入特征矩陣的深度;DK表示卷積核的大小;N為輸出特征矩陣的深度;默認卷積步距為1。MobileNet 網絡中卷積核大小一般為3×3,所以理論上普通卷積計算量是深度可分離卷積的8~9 倍。

圖3 深度可分離卷積Fig.3 Deep separable convolution

普通卷積的計算量與深度可分離卷積的計算量之比如式(1)所示:

MobileNet-V1 被推出 后,Google 公司先 后推出了MobileNet-V2[14]和MobileNet-V3。圖4 所示的MobileNet-V3 網絡相比前代最大的特點首先是使用了神經網絡架構搜索(Neural Architecture Search,NAS)技術,其次是更新了Block,使用了h-swish 激活函數,在深層網絡中,這可以減小計算量,提高網絡精度。同時,引入基于壓縮獎懲網絡(Squeeze and Excitation,SE)模塊,注意力機制能夠在訓練過程中在特征圖上自行分配權重,使網絡從全局信息出發選擇性地放大有價值的特征通道,并能抑制無用的特征通道用以提高網絡的性能。最后,MobileNet-V3 還減少了第1 個卷積層的卷積核個數,精簡了Last Stage。

圖4 MobileNet-V3 網絡的結構Fig.4 Structure of MobileNet-V3 network

1.2.3 輕量級目標檢測網絡MobileNetV3-YOLOv5s

為實現YOLOv5s 網絡的輕量化,本文采用MobileNetV3-Small 取 代YOLOv5s 的Backbone 特 征提取網絡,MobileNetV3-Small 網絡結構如表1所示。

表1 MobileNetV3-Small 網絡結構Table 1 MobileNetV3-Small network structure

如表1 所示,MobileNetV3-Small 的網絡結構中有多個含有卷積層的塊。其中:conv2d 表示正常的卷積層;bneck 即MobileBlock,表示卷積層,BN 層和激活函數的組合;NBN 表示不使用BN 層;SE 表示是否使用注意力模塊;NL 表示非線性激活函數的類型;HS 表示h-swish 激活函數;RE 表示ReLU 激活函數;S表示步長;K參數表示這一層是模型中的第幾個Block,相對輸入的縮放是多少,“—”表示該層并沒有被使用到,所以并無參數。

將MobileNetV3-Small 取 代YOLOv5s 的Backbone特征提取網絡,并將各層所需特征圖調整對齊,YOLOv5s 的Neck 所需的3 種不同尺度的特征圖分別從3-P3/8、8-P4/16、11-P5/32 處引出,如 圖5所示。

圖5 改進的YOLOv5s BackboneFig.5 Backbone of improved YOLOv5s

1.3 ORB 特征點與光流法

1.3.1 ORB 特征點提取

常見的特征點有SIFT[15]、SURF[16]、ORB[17]等,這些特征點有的很精確,有的在光照變化下仍具有相似的表達,但實用的SLAM 系統主要考慮實時性問題。在同一幅圖像中同時提取1 000 個特征點,SIFT 約花費5 228.7ms,SURF 約花費217.3 ms,ORB約花費15.3 ms[18]。由此可以看出,ORB 特征點在速度方面提升明顯,對于實時性要求很高的SLAM 系統來說是一個很好的選擇。

ORB-SLAM 系統在提取特征點時,建立了一個8 層的圖像金字塔來實現尺度不變性,每層之間的比例為1.2 倍,在金字塔的每一層上檢測特征點,將每一層的ORB 特征點均檢測完畢后,會將所有特征點按比例投影至最底層。

1.3.2 光流法

光流法是一種描述像素在不同圖像幀之間運動狀態的方法。在動態目標上,同一個像素會在圖像中運動,通過光流法可以追蹤固定像素的運動過程。其中,描述整幅圖像中部分像素運動狀態的稱為稀疏光流,描述所有像素運動狀態的稱為稠密光流。稠密光流以Hom-Schunck 光流為代表。稀疏光流以Lucas-Kanade[19]光流為主,也稱為LK 光流。本文為減少計算量,只計算SLAM 系統的視覺里程計提取到的ORB 特征點的光流場,所以采用了LK 光流。

LK 光流的成立基于3 種假設:圖像中的像素亮度(灰度)在連續幀間不會發生變化;幀間的時間間隔相對較短;相鄰像素具有相似的運動。如圖6 所示,圖像的灰度可以視為時間的函數:在t時刻,位于圖像中(x,y)處的ORB 特征點的灰度可以寫為I(x,y,t)。

圖6 LK 光流Fig.6 LK optical flow

根據光流法的灰度不變假設:同一個特征點的灰度值在各個圖像中是固定不變的。對于t時刻位于(x,y)處的特征點,在t+dt時刻將移動至(x+dx,y+dy)處。

根據灰度不變假設可得:

對式(2)等號左側進行泰勒展開,保留一階項,得到式(3):

根據灰度不變假設,特征點在t與t+dt時刻的灰度值相等,可得:

兩邊同時除以dt可得:

式(5)中dx/dt為特征點在X軸上的運動速度,而dy/dt為在Y軸上的速度,分別記為u、v。?I/?x為圖像在該點處X軸方向的梯度,?I/?y則是在Y軸方向的梯度,分別記為Ix、Iy。把特征點灰度對時間的變化量記為It,將其寫成矩陣形式,如式(6)所示:

僅憑式(6)無法計算出特征點的速度u、v,必須引入額外的約束。在LK 光流中,以特征點為中心假設一個6×6 的窗口,內部36 個像素具有相同的運動。此方程是1 個超定方程,常用最小二乘法求解,如果一次迭代效果不佳,可以多迭代幾次即可求解u、v。

將圖像金字塔中所有的特征點向下迭代進行光流計算,每個特征點的光流信息(u,v)將會被記錄到ORB-SLAM 系統內部記錄特征點信息的結構體中,并用于下一步動態ORB 特征點的剔除。

1.4 運動目標檢測與動態ORB 特征點的剔除

之所以要將目標檢測網絡與光流法相結合,一方面是因為僅從目標檢測的結果來看,只能基于先驗知識間接判斷物體是否運動。對于靜止的汽車、貼在墻上的人像畫等此類目標,上面的特征點均會被識別成動態特征點。另一方面是因為目標檢測網絡檢測出來的區域是一個規則的方形區域,而實際生活中的動態目標常常是一個邊界不規則物體。如果粗暴地直接將目標檢測框中圈出的目標區域內特征點全部去除的話,會刪除一部分靜態特征點,導致SLAM 系統匹配出的特征點數量大幅減少,影響定位精度。當動態目標占據較大畫幅時甚至會導致初始化失敗或者跟蹤失敗。

MobileNetV3-YOLOv5s目標檢測網絡對圖像進行推理后生成的預測框由位置參數x、y、w、h以及置信度和分類結果6 個參數組成。x、y分別為預測框的中心與原圖像的相對值,w和h表示預測框的長和寬與原圖像的相對值。置信度代表該預測框內包含某物體的可信度以及預測框位置的準確度。分類結果則根據訓練時使用的數據集所包含的物體類別決定。

如圖7 所示,以預測框A為例,本文首先將其位置參數x、y、w、h轉換為預測框左上方和右下方頂點在原圖像下的坐標,分別設為(XA1,YA1),(XA2,YA2)(在原圖像中,左上方頂點為坐標原點,向右設為X軸正方向,向下設為Y軸正方向)。

圖7 特征點分布示意圖Fig.7 Distribution schematic diagram of feature points

將目標檢測網絡輸出的參數轉換為目標檢測框在原圖像下坐標的公式,如式(8)所示:

其中:l為原圖像的寬;d為原圖像的高。

預測框內所包含的ORB 特征點均是基于先驗知識判斷的待定動態特征點,預測框之外均為靜態特征點。首先假設所有的特征點集合為P={p1,p2,…,pn},待定動態特征點集合R={r1,r2,…,rn},靜態特征點集合為O={o1,o2,…,on},P=R∪O。集合R內所有特征點都將參與動態特征點的篩選,每個特征點的坐標信息(x,y)由ORB-SLAM 系統前端計算所得,在X與Y軸方向上的速度信息(u,v)由光流法計算所得。由于在實際應用場景中,不僅圖像中的動態目標運動會產生光流信息,畫面的背景(靜態特征點)也會隨著相機本身的運動產生光流信息,所以需要先依照式(9)計算集合O內所有靜態特征點的平均運動速度,即背景運動速度。

其中:U和V分別為在X與Y軸方向上的平均運動速度。

利用背景運動速度可以對集合R內所有待定動態特征點進行篩選,如式(10)所示。

其中:l為判斷集合內特征點是否為動態特征點的自適應閾值,如果大于該閾值則判定為動態特征點,否則判定為靜態特征點。動態特征點在計算位姿時將會全部被刪除,不參與重投影計算位姿。

2 實驗與結果分析

本文采用慕尼黑工業大學提供的RGB-D數據集系列中5個數據集進行測試,分別為sitting_xyz、walking_static、walking_xyz、walking_halfsphere、walking_rpy。該系列分為高動態場景和低動態場景。在高動態場景中,人在場景中會持續行走;在低動態場景中,人坐在椅子上,沒有明顯的動作。數據集名稱中的static、xyz、halfsphere、rpy分別代表4種不同的相機運動方式:相機基本靜止;相機沿X、Y、Z軸移動;相機在直徑為1 m 的半球表面移動以及相機在翻滾、俯仰和偏航軸上旋轉。

數據集中的真實軌跡由一個運動捕捉系統獲得,該系統包括多臺高速攝像機與慣性測量系統,能夠實時獲取相機位置與姿態的數據。因此該數據集被大多數視覺SLAM 研究人員采用,作為評估視覺SLAM 系統的標準數據集之一。

為加快深度學習模型的收斂速度,在本實驗中,目標檢測網絡的訓練在一臺服務器上運行,其CPU為AMD Ryzen 9 3900X,內存為128 GB,GPU 為RTX3090,顯存為24 GB。其他所有實驗均運行在1臺PC 上,CPU 為AMD Ryzen 7 5800H,內存為16 GB,GPU 為RTX 3060 Laptop,顯存為6 GB。系統環境為Ubuntu 18.04,采用CUDA 11.1,深度學習框架PyTorch 1.9.0 裝載在Anaconda 的虛擬環境中。目標檢測實驗運行軟件為Pycharm。目標檢測網絡采用Python3.6 編寫,SLAM 部分采用C++編寫。

2.1 光流法實驗

由圖8(a)可知,因為相機本身的運動導致背景畫面的運動,使傳統的光流法在并沒有運動目標的情況下也追蹤到了大量的光流信息。由圖8(b)、圖8(c)可知,背景運動與人物運動的光流方向不一致,利用該特性,可以有效提取出運動目標的特征點。圖8(d)為經過算法篩選后的預期效果,可以觀察到全部光流信息均來自于運動的人。

圖8 光流法檢測動態特征點示例Fig.8 Examples of dynamic feature point detection by optical flow method

2.2 動態目標檢測實驗

目標檢測網絡采用VOC-2007 數據集訓練,該數據集包含人、公交車、汽車、自行車、椅子在內的20 種不同物體,本次訓練中訓練集包含7 867 張圖片,將MobileNetV3-YOLOv5s 網絡訓練了1 000 個epoch,batch_size 設置為128,學習率為0.003 2,余弦退火超參數為0.12,學習率動量為0.843,權重衰減系數為0.000 36。訓練過程中利用可視化工具Tensorboard 得到的損失函數變化如圖9 所示,可以觀察到預測框、類別、置信度的損失均在穩步下降,為了達到較好的訓練效果,隨后又將batch size 減小并進行了訓練,直至模型收斂。

圖9 訓練過程中損失函數可視化Fig.9 Visualization of loss function during training

利用MobileNetV3-YOLOv5s 網絡對圖片進行檢測,檢測效果示例如圖10 所示。預設動態場景中運動物體均為人,所以將目標檢測網絡設置為只檢測人,檢測效果如圖11 所示,可以觀察到在圖11(b)中人物僅露出雙腿的情況下,目標檢測網絡也能將其準確框選出來。

圖10 MobileNetV3-YOLOv5s 檢測效果示例Fig.10 Detection effect examples of MobileNetv3-YOLOv5s

圖11 運動中的人的檢測效果示例Fig.11 Detection effect examples of people in motion

對walking_rpy 數據集中的910 張圖片進行檢測推理,不同目標檢測網絡在GPU 與CPU 上的模型參數量、算力要求、推理時間、幀率表現如表2 與表3 所示,所有測試均進行5 次,最終結果取平均值。可以觀察到,利用MobileNetv3-Small 網絡取代YOLOv5s的Backbone 特征提取網絡使模型參數量減少了51.88%,算力要求減少了63.42%,在CPU 上推理速度提升了53.06%。

表2 在GPU 上的實驗結果Table 2 Experiment results on GPU

表3 在CPU 上的實驗結果Table 3 Experiment results on CPU

2.3 位姿估計誤差分析實驗

位姿估計誤差分析實驗采用evo工具將ORB-SLAM系統所估計的相機位姿CameraTrajectory.txt 與數據集所給的真實位姿groundtruth.txt 進行測試對比。測試指標為絕對軌跡誤差(Absolute Trajectory Error,ATE),ATE 指標直接計算相機位姿的真實值與估計值之差,可以非常直觀地反映算法精度和軌跡的全局一致性。

實驗中計算了均方根誤差(Root Mean Squared Error,RMSE)和標準偏差(Standard Deviation,STD)。其中均方根誤差用于描述觀測值與真實值的偏差,易受到較大或偶發錯誤的影響,所以能更好地反應系統的魯棒性。標準差評價估計軌跡相較于真實軌跡的離散程度,能夠反映系統的穩定性。

實驗將ORB-SLAM3 系統與本文系統在高動態場景中的4 個數據集以及sitting_xyz 數據集上進行定量比較,計算時在旋轉、平移與尺度縮放這3 個尺度上對齊,結果如表4 所示,表中每組實驗均進行了2 次,最終結果取平均值。

表4 ORB-SLAM3 與本文系統的絕對軌跡誤差對比Table 4 Comparison of absolute trajectory error between ORB-SLAM3 and system in this paper

令ORB-SLAM3 的誤差為m,本文系統的誤差為n,則相對提升率R的計算公式為:

由表4 可知,與ORB-SLAM3 系統相比,本文系統在5 個數據集下RMSE 的平均提升率達80.16%。對于在walking_static 與walking_rpy 這2 個數據集下的提升效果不如其他3 個數據集這一問題,通過觀察目標檢測網絡處理后的圖片與系統運行時的實際狀態發現,在walking_static 數據集中,有相當一部分圖像幀中人物占據畫幅面積太大,導致檢測到的靜態特征點較少。而在walking_rpy 數據集中由于圖像大幅旋轉且畫面模糊,部分人像未能被目標檢測網絡框選出來,最終導致了估計精度下降。

圖12、圖13 所示分別為ORB-SLAM3 系統與本文系統在walking_halfsphere、walking_xyz 兩個數據集下的估計軌跡與誤差分布圖(彩色效果見《計算機工程》官網HTML 版)。

圖12 ORB-SLAM3 系統估計的軌跡與誤差分布Fig.12 Trajectory and error distribution estimated by ORB-SLAM3 system

圖13 本文系統估計的軌跡與誤差分布Fig.13 Trajectory and error distribution estimated by improved system

圖12 和圖13 每組圖像中的子圖(a)、圖(c)分別為在walking_halfsphere 數據集下的計算結果,每組圖像中的子圖(b)、圖(d)分別為在walking_xyz 數據集下的計算結果,從圖中可以較明顯地觀察到本文系統所估算出的位姿和真實軌跡十分接近,相比ORB-SLAM3系統,各類誤差值均有一個數量級的減小。

將本文所設計的視覺SLAM 系統與其他動態場景下的SLAM 系統進行對比,包括基于語義分割網絡的DynaSLAM 和DS-SLAM 系統、通過優化關鍵幀之間的位姿圖計算最小化光度和深度誤差來獲得約束條件的DVO-SLAM[20]、基于光流法的動態SLAM 方 法OFD-SLAM[21]以及MR-SLAM[22],對 比結果如表5 所示,其中“—”表示原論文中并未對這一數據集進行測試,加粗部分代表最佳結果,次佳結果下方用下劃線示意,從表中可以發現最佳與次佳結果主要來自于DynaSLAM與本文系統。Mask-RCNN 在Nvidia Tesla M40 GPU 上處理每張圖片需要195 ms,相比使用MASK-RCNN 的Dyna SLAM 系統,本文系統實時性更高,且ATE 指標相差非常小,可以認為性能相當。

表5 不同系統的絕對軌跡誤差對比Table 5 Comparison of absolute trajectory error between different system

3 結束語

本文提出一種面向動態環境的視覺SLAM 系統,使用輕量級網絡MobileNetV3 作為目標檢測網絡YOLOv5s 的主干網絡,以減少模型參數量和算力需求,提升在CPU 上的推理速度。通過將目標檢測網絡與光流法相結合用于ORB-SLAM 系統的前端,剔除動態特征點。在TUM 數據集上的實驗結果表明,相比ORB-SLAM3 系統,本文系統位姿估計精度提升了80.16%,相比DS-SLAM、DVOSLAM、DynaSLAM 等典型的動態SLAM 系統,本文系統在實時性與精度上均有部分提升。下一步將對網絡模型進行剪枝蒸餾,將網絡移植到性能更差的移動端設備上,同時加強對模型的訓練,有效利用目標檢測提取出的語義信息進行稀疏語義地圖的構建,從而優化系統,使其能適用于更高層次的機器人定位工作。

猜你喜歡
特征檢測系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
主站蜘蛛池模板: 国产97公开成人免费视频| 午夜不卡福利| 亚洲第一色网站| 狠狠色丁香婷婷| 伊人91在线| 99精品视频在线观看免费播放 | 综合网天天| 九九视频在线免费观看| 欧美激情综合一区二区| 国产一区二区在线视频观看| 亚洲国产无码有码| 一级黄色欧美| 538精品在线观看| 2019年国产精品自拍不卡| 亚洲中文在线看视频一区| 欧美日韩国产综合视频在线观看| 在线综合亚洲欧美网站| 91福利在线观看视频| 99免费在线观看视频| AV熟女乱| 婷婷午夜天| 人妻免费无码不卡视频| 久久综合丝袜日本网| 18禁影院亚洲专区| 99热国产这里只有精品无卡顿"| 97久久超碰极品视觉盛宴| 99久久婷婷国产综合精| 国产女人综合久久精品视| 欧洲欧美人成免费全部视频| 色视频久久| 在线观看欧美精品二区| 黄色成年视频| 亚洲一区二区视频在线观看| 亚洲欧美成人| 亚洲无线视频| 九九九九热精品视频| 亚洲经典在线中文字幕| 欧美视频免费一区二区三区| 欧美a在线看| 成人在线视频一区| 精品少妇人妻av无码久久| 亚洲第一福利视频导航| 99精品免费在线| 久久亚洲美女精品国产精品| 国产精品无码久久久久AV| 国产特级毛片| 国产精品亚洲片在线va| 老司国产精品视频| 国产主播喷水| 日韩无码黄色| 欧美啪啪网| 激情无码视频在线看| 日本欧美中文字幕精品亚洲| 中文成人在线视频| 波多野结衣视频网站| 国产伦精品一区二区三区视频优播| 在线视频亚洲色图| 高清不卡毛片| 青草视频网站在线观看| 一本二本三本不卡无码| 亚洲二区视频| 欧美日韩精品综合在线一区| 国产成人午夜福利免费无码r| 2019年国产精品自拍不卡| 久久国产精品娇妻素人| 大陆国产精品视频| 国产区精品高清在线观看| 日本黄色不卡视频| 综合色区亚洲熟妇在线| 秘书高跟黑色丝袜国产91在线| 午夜性刺激在线观看免费| 国产电话自拍伊人| 999精品在线视频| 国产精品亚洲va在线观看 | 亚洲一道AV无码午夜福利| 国产成人做受免费视频| 欧洲高清无码在线| 色婷婷电影网| 久久成人免费| 亚洲 日韩 激情 无码 中出| 亚洲成人网在线观看| 青青青国产视频|