999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

單目視覺慣性的同時定位與地圖構建綜述

2020-07-26 14:23:53瑚琦蔡文龍盧定凡姜敏
軟件導刊 2020年7期
關鍵詞:深度學習

瑚琦 蔡文龍 盧定凡 姜敏

摘 要:在機器人領域,同時定位與地圖構建(SLAM)是導航定位的關鍵技術。單目視覺傳感器由于結構簡單、成本低且能獲取豐富的視覺信息,被廣泛應用于SLAM。隨著無人機、AR設備以及自動駕駛汽車技術的快速發展,視覺慣性SLAM(VI-SLAM)技術得到了越來越多人的關注。針對VI-SLAM,從濾波與非線性優化的角度出發,首先介紹相關算法理論框架,然后分析幾種具有代表性的單目VI-SLAM算法創新點及實現方案,并通過EuRoC MAV數據集評估各算法優劣,最后結合深度學習與語義SLAM,對SLAM未來發展趨勢進行探討。

關鍵詞:視覺慣性SLAM;濾波;非線性優化;深度學習

DOI:10. 11907/rjdk. 192271 開放科學(資源服務)標識碼(OSID):

中圖分類號:TP301 文獻標識碼:A 文章編號:1672-7800(2020)007-0275-06

Survey on Monocular Visual Inertial SLAM Algorithms

HU Qi1,2,CAI Wen-long1,2,LU Ding-fan1,2,JIANG Min1,2

(1.School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology;

2.Shanghai Key Lab of Modern Optical System, Shanghai 200093, China)

Abstract:In the field of robotics, simultaneous localization and mapping (SLAM) is the key technology for navigation and positioning. Monocular vision sensors are widely used in SLAM due to their simple structure, low cost, and access to rich visual information. With the rapid development of drones, AR equipment and self-driving cars, visual inertial SLAM (VI-SLAM) technology has received more and more attention. For VI-SLAM, from the filtering-based and optimization-based perspective, the basic theory of algorithm implementation is introduced first. Secondly, the innovation points and implementation schemes of several representative monocular VI-SLAM algorithms are analyzed. Then, the advantages and disadvantages of each algorithm are evaluated through the EuRoC MAV dataset. Finally, combined with deep learning and semantic SLAM, the future development trend of SLAM is discussed.

Key Words:VI-SLAM; filter; nonlinear optimization; deep learning

0 引言

同時定位與地圖構建(Simultaneous Localization and Mapping,SLAM)是指搭載特定傳感器的主體在未知環境中移動,對自身進行定位并構建增量式地圖的技術[1]。根據傳感器的不同,分為激光SLAM和視覺SLAM。激光SLAM使用的激光雷達結構單一,且價格昂貴,一般需要結合其它傳感器才能有效工作。基于視覺的同時定位與地圖構建(Vision-based Simultaneous Localization and Mapping,VSLAM)利用視覺傳感器獲取圖像數據,通過多視圖幾何對其進行處理,得到機器人位置。VSLAM有多種視覺傳感器方案,一般以RGB-D深度傳感器、雙目傳感器與單目傳感器為主。其中,單目傳感器在過去30多年中對SLAM的研究起到了重要的推動作用,MonoSLAM[2]是第一個實時單目VSLAM,LSD-SLAM[3]是直接法第一次成功應用于單目VSLAM,ORB-SLAM[4]是現有VSLAM中功能最完善、易用的。然而,隨著無人機、人工智能以及自動駕駛技術在機器人領域的快速發展,僅采用單一傳感器的VSLAM由于在動態環境下容易出現誤匹配問題而無法勝任復雜場景,于是VI-SLAM應運而生。視覺慣性SLAM(Visual-Inertial SLAM,VI-SLAM)是一種結合視覺傳感器和慣性測量單元(Inertial Measurement Unit,IMU)估計移動平臺位姿(位置和姿態)變化的技術,該技術主要分為濾波和非線性優化兩種。本文重點研究單目VI-SLAM,首先系統分析幾種具有代表性的濾波VI-SLAM和非線性優化VI-SLAM,然后通過實驗評估各算法性能,最后探討SLAM未來發展趨勢。

1 濾波法

濾波法在早期SLAM研究中占據主要地位,基于濾波的VI-SLAM一般使用EKF[5]。EKF在假設馬爾可夫性的前提下,通過維護狀態量均值和協方差確定最大后驗概率分布,從而解決非線性系統模型的估計問題。

1.1 EKF框架

基于EKF框架的VI-SLAM分為預測和更新兩部分。IMU能夠得到三軸加速度和三軸角速度,根據式(1)的運動方程,用上一時刻的狀態[xt-1]預測當前時刻的狀態[xt]。

其中,[ut]是已知的輸入變量,噪聲[ωt]滿足零均值的高斯分布[ωt~Ν(0,Rt)],[Rt]為協方差,待估計的狀態變量[xt]是一個16維向量。

其中,[IWq]為從世界坐標系到IMU坐標系的四元數,[WpI]、[WvI]對應于世界坐標系的旋轉和速度,[bg]、[ba]分別為陀螺儀和加速度計的偏差(bias)。

由于受到噪聲干擾,隨著時間的增加,預測階段得到狀態變量的準確性會不斷下降,而視覺傳感器通過式(3)的觀測方程對預測結果進行更新,能夠有效減少誤差。

其中,[xt]為待優化的狀態變量,觀測過程中的噪聲[vt]滿足零均值的高斯分布[vt~Ν(0,Qt)],[Qt]為協方差。

完整的預測及更新過程如下:

(1)預測:

(2)更新:

其中,[F]、[H]為雅克比矩陣,[Pt]為后驗概率。

1.2 單目濾波VI-SLAM

視覺傳感器與IMU在進行數據融合時,按照將圖像特征信息加入狀態向量的方式分為松耦合和緊耦合。松耦合雖然運行速度快,但是無法糾正視覺測量引入的尺度漂移,在視覺定位困難的地方魯棒性不強;緊耦合是指將IMU狀態變量與相機狀態變量合并在一起,共同構建運動方程和觀測方程,然后進行狀態估計。緊耦合具有定位精度高、魯棒性強的優點,因而被廣泛應用于單目濾波VI-SLAM中[6-9]。其中,MSCKF[8]、ROVIO[9]是當下最流行的。

1.2.1 MSCKF

MSCKF是一個基于多狀態EKF約束的VI-SLAM,該算法應用于谷歌Tango,至今尚未開源。傳統EKF-SLAM進行數據融合時,狀態向量保存當前圖像幀的位姿、速度及地圖點(Map Points),然后用IMU作預測,再通過視覺傳感器的觀測誤差進行更新。MSCKF預測過程與傳統EKF-SLAM相同,其創新點在于更新過程。在更新之前每接收到一幀圖像信息,便將狀態向量加入到按時間排序的滑動窗口中,只有當地圖點被多個圖像幀同時觀測到才進行更新。從2007年提出MSCKF至今,該算法因具有計算復雜度低及魯棒性強等優點,被廣泛應用于智能手機、掃地機器人等小型化場景中。

1.2.2 ROVIO

ROVIO是蘇黎世大學Ethz ASL實驗室于2015年提出的基于EKF框架的單目VI-SLAM算法。該算法通過IMU預測狀態向量,利用視覺的光度誤差約束對狀態向量進行更新。ROVIO的獨到之處在于將地圖點的空間位置信息拆分成兩項,一項是由方向角和傾斜角組成的二維向量(bearing vector),另一項是逆深度(inverse depth)。這種構造方式使得獲取的數據在初始化階段不會產生延遲,從而能夠有效提高系統的魯棒性和精度。

當獲取到一組最新的加速度計數據和陀螺儀數據時,ROVIO通過卡爾曼預測對得到的數據進行處理。卡爾曼預測(Kalman prediction)需要完成3項工作:一是預測當前時刻的狀態變量[x],得到均值的先驗[x-],使用多次迭代的EKF得到更準確的狀態向量[xiter],并結合相機模型計算特征點在當前幀上的像素坐標[pi],用于計算下一幀圖像的像素位置;二是預測協方差的先驗[p-],并將[x-]和[p-]傳遞給視覺更新過程,當接收到一幀最新的圖像時,需要對狀態向量進行更新,并剔除異常點;三是更新Warping Matrix,用來校正不同視角下的圖像映射變化,得到第i個地圖點的[Di]在當前時刻的增量。最后通過地圖點[Di]和像素坐標[pi]得到當前幀的光度誤差[e],通過多次迭代求解雅克比矩陣和誤差項,得到位姿的最優估計。

2 非線性優化

基于非線性優化的VI-SLAM主要依靠多視圖幾何技術[10]對視覺傳感器采集的數據進行處理,而當相機因快速移動得不到清晰圖像時,可以利用IMU測得的數據作為先驗信息對整個系統進行校正。計算非線性優化的單目VI-SLAM主要包括初始化、前端、后端和回環檢測4部分。

2.1 初始化

初始化主要為系統提供一個精確的尺度信息,而該尺度信息估計的好壞直接決定了SLAM能否正常運行。由于單目相機不能直接得到深度信息,所以估計出來的位移與周圍環境相差一個尺度,這種現象稱為單目的尺度不確定性(Scale Ambiguity)。針對這種問題有多種解決方法,VI-SLAM的解決思路是對IMU進行預積分[11],利用運動學方程估計出相對運動距離,并通過非線性優化求解出環境地圖的真實尺度,該方法由于精度高而被廣泛應用于單目VI-SLAM。其它方法如文獻[12]通過不同角度觀測環境中的同一點,利用三角測量的方法確定該點距離,但該方法對視差選取要求嚴格;文獻[13]提出逆深度(Inverse Depth)方法,將深度的倒數加入狀態變量中進行更新,該方法雖然能夠得到一個比較精確的結果,但會占用更多的計算資源;文獻[14]采用速度傳感器和GPS直接得到尺度信息的方案,但該方案不適用于室內等場景。

2.2 前端

前端稱為視覺里程計,它根據相鄰圖像信息粗略估計出相機運動,給后端提供位姿初始值。其中,待估計的位姿[T∈SE(3)]包括旋轉矩陣[R]和平移向量[t]。

[T=Rt01,R∈SO(3),t∈R3] (6)

前端按是否需要提取特征,分為特征點法和直接法。特征點由關鍵點與描述子組成,關鍵點是特征點在圖像中的位置,描述子描述了該關鍵點周圍像素的位置。特征點法如圖1所示。

由圖1可知,特征點法利用式(7)的針孔相機投影模型將三維世界地圖點[pu]映射到二維圖像平面。

其中,[u0]、[v0]為主點坐標,[fu]、[fv]為焦距。當從兩幀連續的圖像之間得到匹配好的特征點時,通過八點法[15]求得位姿T。當得到特征點[u]與對應的深度[du]時,通過式(8)的反投影模型得到3D地圖點[pu],用PNP求得位姿T。

直接法如圖2所示,直接法以第一幀圖像C1為參考,通過光度不變原理預測上一幀像素點P1在當前圖像幀C2的位置P2。當得到匹配好的像素點之后,采取與特征點相同的方式求取位姿。

直接法根據地圖點P的來源不同,分為稀疏直接法、半稠密直接法與稠密直接法3類。

(1) 在稀疏直接法中,P來自稀疏關鍵點,一般使用幾百至上千個關鍵點,不計算描述子,同時假設關鍵點周圍像素是不變的。

(2) 在半稠密直接法中,P來自部分像素,由于像素梯度為0的地圖點不會對運動估計有任何貢獻,因此只考慮帶有梯度的像素點,舍棄像素梯度不明顯的地方。

(3)在稠密直接法中,需要對所有地圖點P進行計算。

2.3 后端

由于位姿T在李群SE(3)下的奇異性,進行后端優化需要將其轉換為李代數[se(3)]下的[ξ]。

式(10)表示以特征點為前端的代價函數,誤差項為重投影誤差,式(11)表示以直接法為前端的代價函數,誤差項為光度誤差。通過對式(10)、式(11)進一步構建最小二乘目標函數,使用高斯牛頓法或Levenberg-Marquardt法迭代估計位姿T的最優解。

其中,[ei]是特征點[p1]、[p2]之間的光度誤差。

其中,[z]是測量值,[z]是估計值,[z]是兩者的重投影誤差。

2.4 回環檢測

雖然后端能夠估計最大后驗誤差,但其誤差會隨著時間一直疊加,使得整個SLAM估計結果的可靠性不斷降低,而回環檢測提供兩種思路解決該問題:一方面,由于累計誤差的影響,遞推得到的位姿差別很大,而回環檢測能夠提供當前數據與所有歷史數據的關聯,當系統兩次經過同一位置時,可以認為這兩次的位姿相等,然后校正其它圖像幀的位姿,以此降低累計誤差的影響;另一方面,在視覺傳感器跟蹤地圖點丟失之后,還可以利用回環檢測進行重定位。因此,回環檢測能夠有效提高SLAM算法的精度和魯棒性。

2.5 非線性優化VI-SLAM

在基于非線性優化的VI-SLAM算法中,捆集調整(Bundle Adjustment,BA)[16]是極其重要的一部分。BA利用圖優化技術,沿著目標函數梯度下降方向[Δx]對狀態向量的估計值進行優化,使得整體誤差下降到一個極小值。在以上優化過程中,關鍵在于如何通過求解線性增量方程[HΔx=g]得到[Δx]。由于BA需要計算大量特征點和位姿,因此對H矩陣直接求逆將十分耗費資源。主流處理方法是:利用H矩陣的稀疏性對當前圖像幀的無用信息進行邊緣化(Marginalization)處理,并通過滑動窗口(Sliding Window)減少累積誤差。

近年來,機器人領域出現了許多單目非線性優化VI-SLAM算法[17-21],其中,OKVIS[19]、VI-ORB[20]、VINS[21]是最常見的。

2.5.1 OKVIS

OKVIS是Leutenegger等提出的基于非線性優化的VI-SLAM,其特點在于選擇關鍵幀及邊緣化準則。算法基本思想是盡可能保存當前關鍵幀的有用信息,對信息量少的圖像幀進行邊緣化,并保留其與關鍵幀之間的約束,進而通過兩幀圖像之間的特征匹配與IMU采樣數據積分估計相機位姿和地圖點。

2.5.2 VI-ORB

VI-ORB是在ORB-SLAM2[22]基礎上融合IMU的定位算法,其計算過程包括跟蹤(Tracking)、局部建圖(Local Mapping)和回環檢測(Loop Closing)3部分。與ORB-SLAM2相比,VI-ORB的主要特點在于局部地圖中優化方式不一樣。整個局部地圖中需要優化的狀態量包括固定的N幀圖像以及由N幀圖像共同觀測到的地圖點(Map Poings)。其中,ORB-SLAM2只優化包含視覺誤差的關鍵幀,而VI-ORB根據局部地圖是否更新優化視覺重投影誤差和IMU測量誤差,且存在以下兩種情況:

(1)當局部地圖進行更新時,首先構建整體優化狀態向量,包括旋轉、平移速度、位移、加速度計偏置和陀螺儀偏置,然后通過視覺重投影誤差和IMU測量誤差優化當前幀狀態向量,上一幀圖像的狀態量和地圖點不會進行優化,而是作為約束項優化當前幀狀態向量。

(2)當局部地圖沒有更新時,地圖點不會進行優化,而是作為約束項優化下一時刻的狀態量,將優化結果作為先驗數據邊緣化當前時刻的狀態量。

2.5.3 VINS

VINS是香港科技大學沈劭劼團隊提出的單目實時VI-SLAM,是目前非常先進的單目VI-SLAM算法。VINS主要分為5部分:數據預處理、初始化、后端、回環檢測及全局位姿優化。

(1)數據預處理與初始化為系統提供初始地圖和尺度信息。數據預處理包括對圖像和IMU的預處理。其中,在圖像處理層面,前端提取圖像Harris角點,利用金字塔光流跟蹤相鄰幀,通過RANSAC[23]去除奇異點,并通知后端進行處理;在IMU預處理層面,將IMU數據進行積分,得到當前時刻的位姿和速度,同時計算相鄰幀的預積分增量、預積分誤差的雅克比矩陣和協方差項。初始化利用SFM進行純視覺估計滑動窗口內所有圖像幀的位姿及3D點逆深度,并與IMU預積分進行對齊,求解初始化參數。

(2)后端對狀態向量[χ]進行非線性優化,為系統提供一個可靠的位姿估計。

其中,[xk]表示第k幀圖像時刻的IMU狀態,包括位置、速度、世界坐標系下的IMU方向以及IMU坐標系下的加速度計與陀螺儀偏移。n表示關鍵幀數目,m表示滑動窗口中的特征總數,λm是第m個特征的逆深度,[xbc]表示相機在IMU坐標系下的位姿。

后端通過最小化先驗誤差和所有觀測誤差的馬氏距離之和得到最大后驗估計,求解滑動窗口內所有幀的狀態變量。

其中:

式(13)中第一項來自邊緣化后的先驗誤差,第二項來自IMU觀測誤差,第三項來自視覺誤差。

(3)回環檢測及全局位姿優化為系統構建全局一致的軌跡和地圖。回環檢測使用BoW模型挑選回環候選圖像幀,通過匹配BRIEF描述子建立局部滑動窗口關鍵幀與回環候選圖像幀之間的聯系。當回環檢測成功后,對整個系統的運動軌跡進行全局位姿優化。

3 算法評估

VI-SLAM已應用于眾多領域的狀態估計問題,為了與現有開源算法的效率和精度進行對比,挑選4種被廣泛使用的單目VI-SLAM算法OKVIS、ROVIO、VI-ORB、VINS進行實驗,通過對比均方根誤差(Root Mean Square Error,RMSE)評估各算法優劣。該實驗在配置為Intel Xeon E5-2609 V2 × 4 @2.50 GHz 16 Gb RAM的計算機上運行,使用EuRoC MAV數據集[24]對上述單目VI-SLAM算法進行測試,測試結果通過evo工具(https://github.com/MichaelGrupp/evo)進行評估。EuRoC MAV數據集分為Machine Hall(MH)、Vicon Room 1(V1)、Vicon Room 2(V2) 3個場景,共有11個序列,序列數字大小代表算法執行難度。

對表1中各VI-SLAM算法實驗結果進行分析可以得到:

(1)OKVIS可以完成各序列的測試要求,總體精度與魯棒性能夠滿足實際需求。

(2)ROVIO沒有表現出很好的性能,其在運行過程中產生的RMSE平均值最大,相比其它算法,該算法的準確性和效率都有待提高。

(3)VI-ORB雖然在V2_03_diff序列中無法正常運行,但該算法在其它序列中表現出很好的精度與效率。

(4) VINS的性能是4種算法中最好的,該算法在運行過程中產生的RMSE平均值只有0.116 9m,但需要占用很高的計算資源。

4 發展趨勢

4.1 深度學習與SLAM

深度學習作為一種端到端的方法,可以應用于SLAM的前端和回環檢測。基于深度學習的SLAM前端無需特征提取,使得整個計算過程更加簡潔、直觀[25]。Costante等[26]利用卷積神經網絡學習圖像數據的最優特征,在應對相機快速運動造成的圖像模糊問題中表現出很好的魯棒性。回環檢測本質上是場景識別問題,傳統方法使用BoW模型進行回環檢測,而基于深度學習的SLAM通過神經網絡學習圖像中的深層特征,因此具有更高的識別率[27]。Hou[28]利用caffe框架下的AlexNet模型進行特征提取,在光照變化明顯的環境下,使用深度學習的特征描述能夠迅速提取特征信息,并大幅提升精度。但目前深度學習只能應用于SLAM的某些子模塊,如何將深度學習技術應用于整個SLAM系統是未來發展的主要趨勢。

4.2 語義SLAM

語義SLAM是指SLAM在建圖過程中從幾何和內容兩個層次感知世界,對地圖內容進行抽象理解。Li等[29]利用DeepLab-v2中的CNN架構預測像素級的物體類別標簽,結合條件隨機場對生成的單目半稠密三維語義地圖進行正則化。地圖的語義生成與SLAM過程是相互促進的兩部分,語義可以幫助SLAM緩解特征依賴,獲得更高層次的感知,SLAM可以幫助語義在移動機器人場景下進行目標識別[30]。語義與SLAM的結合使得機器人能夠獲取更高層次的感知,從而能夠處理更復雜的任務。

5 結語

VI-SLAM是一種結合視覺傳感器與慣性測量單元估計移動平臺位置和姿態變化的技術,由于VI-SLAM使用的傳感器具有結構簡單、成本低的優點,因此在定位和建圖領域有著廣泛應用,包括移動機器人、自動駕駛汽車、無人駕駛飛行器及自主水下航行器等。然而,VI-SLAM為了獲得較高的準確性與更強的魯棒性,需要耗費大量計算資源,從而限制了其在小型化和輕量化場景中的應用。因此,在未來的發展中,VI-SLAM需要在現有框架基礎上作進一步完善與拓展,為資源受限的系統提供一些有效策略以解決以上問題。

參考文獻:

[1] 周彥,李雅芳,王冬麗,等. 視覺同時定位與地圖創建綜述[J]. 智能系統學報,2018,13(1):97-106.

[2] DAVISON A J,REID I D,MOLTON N D,et al. MonoSLAM:real-time single camera SLAM[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1052-1067.

[3] ENGEL J, SCH?PS T, CREMERS D. LSD-SLAM: large-scale direct monocular SLAM [C]. European Conference on Computer Vision. Springer, Cham, 2014: 834-849.

[4] MUR-ARTAL R,MONTIEL J M M, TARDOS J D. ORB-SLAM: a versatile and accurate monocular SLAM system [J].? IEEE Trans on Robotics, 2015, 31(5): 1147-1163.

[5] BAILEY T,NIETO J,GUIVANT J,et al. Consistency of the EKF-SLAM algorithm [C]. Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems,2006: 3562-3568.

[6] LYNEN S,SATTLER T,BOSSE M, et al. Get out of my lab: large-scale, real-time visual-inertial localization [C]. Robotics: Science and Systems,2015.

[7] SCHNEIDER T, DYMCZYK M, FEHR M, et al. Maplab: an open framework for research in visual-inertial mapping and localization [J]. IEEE Robotics and Automation Letters,2018,3(3):1418-1425.

[8] MOURIKIS A I,ROUMELIOTIS S I. A multi-state constraint Kalman filter for vision-aided inertial navigation [C]. Proceedings of IEEE International Conference on Robotics and Automation,2007:3565-3572.

[9] BLOESCH M,OMARI S,HUTTER M,et al. Robust visual inertial odometry using a direct EKF-based approach [C]. IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). IEEE,2015: 298-304.

[10] HARTLEY R,ZISSERMAN A.Multiple view geometry in computer vision [M]. Cambridge: Cambridge University Press, 2004.

[11] FORSTER C,CARLONE L, Dellaert F, et al. IMU preintegration on manifold for? efficient visual-inertial maximum-a-posteriori estimation [C]. Robotics Science and Systems,2015.

[12] Davison A J. Real-time simultaneous localisation and mapping with a single camera[C]. IEEE International Conference on Computer Vision (ICCV),IEEE, 2003.

[13] MONTIEL J,CIVERA J,DAVISON A J. Unified inverse depth parametrization for monocular SLAM [C].? Robotics: Science and Systems, 2006.

[14] AGRAWAL M, KONOLIGE K. Real-time localization in outdoor environments using stereo vision and inexpensive GPS [C]. The 18th International Conference on Pattern Recognition (ICPR 06),2006.

[15] HARTLEY R I. In defense of the eight-point algorithm [J].? IEEE Trans on Pattern Analysis and Machine Intelligence, 1997, 19(6): 580-593.

[16] TRIGGS B, MCLAUCHLAN P F, HARTLEY R I, et al. Bundle adjustment—a modern synthesis [C]. International Workshop on Vision Algorithms.Springer, Berlin, Heidelberg,1999:298-372.

[17] CONCHA A, LOIANNO G,KUMAR V,et al.Visual-inertial direct SLAM[C]. IEEE International Conference on Robotics and Automation (ICRA). IEEE,2016:1331-1338.

[18] KEIVAN N,PATRON-PEREZ A,SIBLEY G. Asynchronous adaptive conditioning for visual-inertial SLAM [C]. Experimental Robotics. Springer, Cham, 2016: 309-321.

[19] LEUTENEGGER S,LYNEN S, BOSSE M,et al. Keyframe-based visual-inertial odometry using nonlinear optimization [J]. The International Journal of Robotics Research, 2015, 34(3): 314-334.

[20] MURARTAL R, TARDOS J D. Visual-inertial monocular SLAM with map reuse [J].? International Conference on Robotics and Automation, 2017, 2(2): 796-803.

[21] QIN T, LI P, SHEN S, et al. VINS-Mono: a robust and versatile monocular visual-inertial state estimator [J].? IEEE Trans on Robotics, 2018, 34(4): 1004-1020.

[22] MURARTAL R,TARDOS J D.ORB-SLAM2:An open-source SLAM system for monocular,stereo,and RGB-D cameras [J]. IEEE Trans on Robotics,2017,33(5):1255-1262.

[23] FISCHLER M A, BOLLES R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography [J].? Communications of The ACM, 1981, 24(6): 381-395.

[24] BURRI M, NIKOLIC J, GOHL P, et al. The EuRoC micro aerial vehicle datasets [J].? The International Journal of Robotics Research, 2016, 35(10): 1157-1163.

[25] 趙洋,劉國良,田國會,等. 基于深度學習的視覺SLAM綜述[J]. 機器人,2017,39(6):889-896.

[26] COSTANTE G, MANCINI M, VALIGI P, et al. Exploring representation learning with CNNs for frame-to-frame ego-motion estimation [J].? IEEE Robotics and Automation Letters, 2015(1): 18-25.

[27] 羅順心,張孫杰. 基于深度學習的回環檢測算法研究[J]. 計算機與數字工程,2019,47(3):497-502.

[28] HOU Y, ZHANG H, ZHOU S. Convolutional neural network-based image representation for visual loop closure detection [C]. IEEE International Conference on Information and Automation. IEEE, 2015: 2238-2245.

[29] LI X, BELAROUSSI R. Semi-dense 3D semantic mapping from monocular slam[DB/OL].? https://arxiv.org/pdf/1611.04144.pdf.

[30] 白云漢. 基于SLAM算法和深度神經網絡的語義地圖構建研究[J]. 計算機應用與軟件,2018,35(1):183-190.

(責任編輯:黃 健)

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产乱码精品一区二区三区中文| 区国产精品搜索视频| av在线无码浏览| 久久精品国产免费观看频道| 色婷婷成人| 国产在线啪| 暴力调教一区二区三区| 欧美不卡在线视频| 日日噜噜夜夜狠狠视频| 免费国产高清视频| 日本免费高清一区| 性视频一区| 久久青青草原亚洲av无码| 9啪在线视频| 久久久久夜色精品波多野结衣| 国产成+人+综合+亚洲欧美| 国产精品久久久久久久久久98| 国产精品成人一区二区不卡| 国产自无码视频在线观看| 最新午夜男女福利片视频| 伊人久久婷婷| 久久人搡人人玩人妻精品| 色哟哟色院91精品网站| 国产91丝袜| 日本成人不卡视频| 久久精品人人做人人爽97| 亚洲精品在线影院| 国产高清无码麻豆精品| 午夜电影在线观看国产1区| 亚洲高清中文字幕在线看不卡| 日本一区高清| 午夜不卡视频| 免费看a级毛片| 区国产精品搜索视频| 茄子视频毛片免费观看| 国产又粗又猛又爽视频| 日本午夜精品一本在线观看| 日韩国产黄色网站| 美女被躁出白浆视频播放| 日韩高清成人| 91系列在线观看| 亚洲成人播放| 国产亚洲男人的天堂在线观看| 亚洲欧美日韩另类在线一| 国产女人在线| 视频二区亚洲精品| 在线中文字幕网| 白浆视频在线观看| 国产在线观看人成激情视频| 国产自无码视频在线观看| 伊人91在线| 伊人久久青草青青综合| 日本欧美一二三区色视频| 亚洲一区二区三区麻豆| 国产精品99久久久| 亚洲欧美另类视频| 五月天久久综合| 亚洲人精品亚洲人成在线| 天天综合网亚洲网站| 美女被操91视频| 久久精品国产精品国产一区| 在线毛片网站| 91无码人妻精品一区| 亚洲国产综合自在线另类| 日本少妇又色又爽又高潮| 亚洲天堂自拍| 亚洲日韩在线满18点击进入| 亚洲黄色成人| 国内自拍久第一页| 国产精品女主播| 亚洲精品国产自在现线最新| 毛片免费在线视频| 91精品免费久久久| 国内黄色精品| 国产视频 第一页| 欧洲高清无码在线| 日韩第八页| 欧美色香蕉| 国产成人免费视频精品一区二区| 丁香综合在线| 91国内外精品自在线播放| 91在线日韩在线播放|