999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視覺同時(shí)定位與地圖創(chuàng)建綜述

2018-03-12 01:45:00周彥李雅芳王冬麗裴廷睿
智能系統(tǒng)學(xué)報(bào) 2018年1期
關(guān)鍵詞:特征優(yōu)化方法

周彥,李雅芳,王冬麗,裴廷睿

(湘潭大學(xué) 信息工程學(xué)院,湖南 湘潭 411105)

移動(dòng)機(jī)器人為實(shí)現(xiàn)自主導(dǎo)航,面臨著在哪里、到哪里、怎么去3個(gè)需要解決的關(guān)鍵問題。“在哪里”是機(jī)器人對(duì)自身的定位,后兩個(gè)問題即機(jī)器人需要解決的路徑規(guī)劃問題。對(duì)自主移動(dòng)機(jī)器人來說,定位是重中之重,是路徑規(guī)劃的基石。在定位中,機(jī)器人首當(dāng)其沖的任務(wù)便是感知周圍的環(huán)境,并對(duì)之加以描述。移動(dòng)機(jī)器人的定位和地圖創(chuàng)建已成為了機(jī)器人領(lǐng)域的熱點(diǎn)研究問題[1-2]。目前,已經(jīng)有了很多有效方法來解決已知環(huán)境中(有環(huán)境先驗(yàn)信息)機(jī)器人自主定位與已知機(jī)器人位置情況下的地圖創(chuàng)建問題[1]。然而在很多環(huán)境中,機(jī)器人無法利用全局定位系統(tǒng)進(jìn)行定位,而且事先獲取環(huán)境先驗(yàn)信息很困難,甚至是不可能的[3],此情此景下,機(jī)器人需要在沒有環(huán)境先驗(yàn)信息的情況下,在移動(dòng)過程中一邊計(jì)算自身位置,一邊構(gòu)建環(huán)境地圖,于是移動(dòng)機(jī)器人的同時(shí)定位與地圖創(chuàng)建(SLAM)問題[4-5]應(yīng)運(yùn)而生。

SLAM也稱為CML (concurrent mapping and localization),最先由Smith Self和Cheeseman于1986年提出[5-6]。這一理論是實(shí)現(xiàn)真正全自主移動(dòng)機(jī)器人的關(guān)鍵已經(jīng)成為共識(shí)[7-8]。SLAM以傳感器作為劃分標(biāo)準(zhǔn),主要分為激光、視覺兩大類。其中,激光SLAM研究較早,理論和工程均比較成熟,視覺SLAM尚處于實(shí)驗(yàn)室研究階段[1]。SLAM早期研究側(cè)重于使用濾波理論來最小化運(yùn)動(dòng)物體的位姿和地圖路標(biāo)點(diǎn)的噪聲。自21世紀(jì)以來,學(xué)者們借鑒運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)SfM(structure from motion)中的方式[9],以優(yōu)化理論為基礎(chǔ)求解SLAM問題,該方法通常以位姿圖的形式描述機(jī)器人各時(shí)刻的狀態(tài),又稱為基于圖優(yōu)化的SLAM,在VSLAM領(lǐng)域中取得了主導(dǎo)地位[10-11]。

1 VSLAM存在的問題分析

1.1 特征點(diǎn)提取、描述與匹配

圖像的特征一般可劃分為點(diǎn)特征、直線特征以及邊緣、輪廓特征,其中線、邊緣、輪廓等特征在高維空間進(jìn)行處理,計(jì)算量大;點(diǎn)特征對(duì)遮擋相對(duì)魯棒、提取速度快并且識(shí)別性好,所以應(yīng)用較多。局部特征點(diǎn)不僅能夠保留圖像重要特征信息,而且也使得信息的數(shù)據(jù)量減少,使計(jì)算速度和匹配速度都加快,因此基于特征的VSLAM普遍采用點(diǎn)特征。圖1標(biāo)出了可作為圖像特征的部分。

圖 1 可作為圖像特征的部分:角點(diǎn)、邊緣、斑點(diǎn)Fig. 1 Parts that can be used as image features: corner,edge, blob

斑點(diǎn)和角點(diǎn)是局部特征點(diǎn)中比較流行的兩種。斑點(diǎn)的重要特征是與周圍區(qū)域有顏色和灰度上的差別。斑點(diǎn)檢測(cè)方法應(yīng)用最廣泛的是利用高斯拉普拉斯算子檢測(cè)的方法(LOG),以及利用像素點(diǎn)海森矩陣(二階微分)及其行列式值的方法(DOH)。角點(diǎn)描述的是兩條邊的交點(diǎn),其檢測(cè)方法常用Harris角點(diǎn)檢測(cè)算法和FAST角點(diǎn)檢測(cè)算法。對(duì)特征點(diǎn)的描述有浮點(diǎn)型特征描述子和二進(jìn)制字符串特征描述子。提取特征點(diǎn)后需對(duì)兩幅圖像進(jìn)行特征匹配,特征匹配采用計(jì)算描述子間距離的方法,距離越小相似性越高。對(duì)于浮點(diǎn)型描述子采用歐氏距離,對(duì)于二進(jìn)制字符型描述子使用漢明距離(Hamming distance),漢明距離指兩個(gè)描述子(二進(jìn)制串)不同位數(shù)的個(gè)數(shù)。當(dāng)特征點(diǎn)數(shù)量非常大時(shí),快速近似最近鄰(FLANN)算法[12]能夠滿足SLAM的實(shí)時(shí)性需求。

常用的特征提取和匹配算法有SIFT算法、SURF算法和ORB算法。SIFT[13]算法中使用斑檢測(cè)方法和浮點(diǎn)型特征描述子,在建立高斯差分空間金字塔的基礎(chǔ)上提取出具有尺度不變性的特征點(diǎn),然后對(duì)特征點(diǎn)鄰域內(nèi)的點(diǎn)的梯度方向進(jìn)行直方圖統(tǒng)計(jì)。特征點(diǎn)的主方向就是直方圖中比重最大的方向,必要時(shí)可選一個(gè)輔方向。SIFT特征集旋轉(zhuǎn)不變性、尺度不變性、對(duì)圖像變形和光照魯棒等優(yōu)點(diǎn)于一身,不足之處是計(jì)算量大,計(jì)算速度慢,需要在GPU加速的情況下才可滿足SLAM的實(shí)時(shí)性需求。SURF[14]算法是對(duì)SIFT算法的改進(jìn),使用基于DoH的斑點(diǎn)特征檢測(cè)方法;在特征點(diǎn)的描述上,SURF算法通過積分圖,利用兩個(gè)方向上的Harr小波模板進(jìn)行梯度計(jì)算,然后對(duì)鄰域內(nèi)點(diǎn)的梯度方向以扇形的方式進(jìn)行統(tǒng)計(jì),得到特征點(diǎn)的主方向。SURF算法速度快且穩(wěn)定性好,應(yīng)用也較為廣泛。Ethan-Rublee在2011年提出的ORB[15]算法使用改進(jìn)的FAST特征點(diǎn)檢測(cè)算法,ORB的特征描述子采用改進(jìn)后的二進(jìn)制字符串特征描述子BRIEF[16]。由于采用速度極快的二進(jìn)制描述子,ORB使得整個(gè)圖像特征提取的環(huán)節(jié)大大加速。

1.2 特征點(diǎn)深度獲取

單目相機(jī)無法直接獲取深度信息,深度信息通過反深度法(inverse depth)、三角測(cè)量(三角化)、粒子濾波法等來獲取。Civera等[17]提出了反深度法,該方法旨在減少深度分布非高斯性的影響。反深度法為獲得較好的線性效果,在EKF系統(tǒng)里使用深度的倒數(shù)進(jìn)行更新。三角測(cè)量最早由高斯提出,是指通過在兩個(gè)不同地點(diǎn)觀察同一個(gè)點(diǎn)的夾角,確定出該點(diǎn)的距離(深度)。使用關(guān)鍵幀與稀疏捆集調(diào)整(sparse bundle adjustment,SBA)框架的 VSLAM 系統(tǒng),如文獻(xiàn)[18-21],均采用了該方法。Davison等[22]采用的Particle Filter方法會(huì)在特征所在的深度方向上生成多個(gè)粒子, 通過粒子的匹配、更新來得到特征點(diǎn)深度的概率分布,不足之處是容易增加系統(tǒng)的不一致性,致使最后概率估計(jì)發(fā)散。

雙目相機(jī)一般由左和右兩個(gè)水平放置的相機(jī)組成,通過同步采集到的左右相機(jī)的圖像,計(jì)算圖像之間的視差,來估計(jì)每一個(gè)像素的深度。

圖2中,OL、OR為左右相機(jī)的光圈中心,黑色框?yàn)槌上衿矫妫琭為焦距,uL、uR為成像的平面坐標(biāo),uR為負(fù)數(shù)。根據(jù)幾何關(guān)系,由相似三角形P-PLPR和 P-OL-OR, 得

整理得

式中d為P在左眼相機(jī)圖像和右眼相機(jī)圖像中的橫坐標(biāo)之差,叫做視差。根據(jù)視差就可以估計(jì)一個(gè)像素離相機(jī)的距離z。

圖 2 雙目相機(jī)模型Fig. 2 Binocular camera model

深度相機(jī)主動(dòng)測(cè)量每個(gè)像素的深度直接獲取深度信息[23]。目前的RGB-D相機(jī)按原理可分為兩大類,即通過紅外結(jié)構(gòu)光(structured light)來測(cè)量像素距離和通過飛行時(shí)間法(time of flight, ToF)測(cè)量像素距離。在結(jié)構(gòu)光原理中,相機(jī)向探測(cè)目標(biāo)發(fā)射一束光線(通常是紅外光),根據(jù)返回的結(jié)構(gòu)光圖案,計(jì)算像素離自身的距離。在ToF中,相機(jī)向目標(biāo)發(fā)射脈沖光,然后根據(jù)發(fā)送到返回之間的光束飛行時(shí)間,確定物體離自身的距離。在測(cè)量深度之后,RGB-D相機(jī)完成深度與彩色圖像像素之間的配對(duì),輸出一一對(duì)應(yīng)的彩色圖和深度圖。圖3 是RGB-D相機(jī)的原理圖。

圖 3 RGB-D相機(jī)原理圖Fig. 3 Schematic of RGB-D camera

1.3 數(shù)據(jù)關(guān)聯(lián)的優(yōu)化問題

SLAM中數(shù)據(jù)關(guān)聯(lián)是對(duì)兩個(gè)路標(biāo)(VSLAM中路標(biāo)指圖像特征)進(jìn)行匹配,確定它們是否對(duì)應(yīng)環(huán)境中的同一物體。在大方向上,特征匹配解決了SLAM中的數(shù)據(jù)關(guān)聯(lián)問題,但這個(gè)過程中帶有誤差,所以對(duì)圖像特征匹配的結(jié)果優(yōu)化是必要的,主要方法有固定區(qū)域匹配、Active Matching、1-Point RANAC、幾何約束等。

PTAM(parallel tracking and mapping)[18]及其改進(jìn)算法主要使用固定區(qū)域匹配的方法。PTAM假定前后兩幀圖像中像素距離在一個(gè)閾值內(nèi),超出這個(gè)閾值就認(rèn)為是錯(cuò)誤匹配,該法適用于特征點(diǎn)距離相機(jī)稍遠(yuǎn)、深度變化不大的場(chǎng)合,不適用于相機(jī)快速運(yùn)動(dòng)的場(chǎng)合。

基于EKF濾波的VSLAM系統(tǒng)多采用Davison提出的Active Matching[24]方法。Active Matching方法中,在使用EKF系統(tǒng)運(yùn)動(dòng)模型獲得系統(tǒng)狀態(tài)預(yù)測(cè)的基礎(chǔ)上,估計(jì)環(huán)境中的特征點(diǎn)在相機(jī)中的投影位置,再進(jìn)一步處理即可得到圖像中特征點(diǎn)的分布區(qū)域。此方法對(duì)相機(jī)的絕大部分運(yùn)動(dòng)情況魯棒,但如果出現(xiàn)相機(jī)姿態(tài)估計(jì)協(xié)方差較大的情況,易產(chǎn)生大的特征匹配估計(jì)區(qū)域,可能匹配錯(cuò)誤。

為去除Active Matching中的錯(cuò)誤匹配,Civera、Grasa等提出1-Point RANSAC[25-26]方法。該方法用隨機(jī)選擇的一個(gè)匹配點(diǎn)的匹配信息來更新相機(jī)姿態(tài),之后計(jì)算其他匹配點(diǎn)與估計(jì)圖像位置的距離,并判斷這個(gè)距離是否在一定的閾值范圍內(nèi),若不在,被認(rèn)為是外點(diǎn)并剔除它,最后利用得到的內(nèi)點(diǎn)集來更新整個(gè)濾波器狀態(tài)。該方法主要應(yīng)用在基于EKF濾波的SLAM系統(tǒng)中,由于頻繁地更新系統(tǒng)狀態(tài),運(yùn)算時(shí)間代價(jià)比較大。

幾何約束方法利用 PNP(perspective N points)[27]、對(duì)極幾何[28]等剔除誤匹配點(diǎn)。該方法因利用幾何求解,不需要頻繁更新系統(tǒng)狀態(tài),故而能獲得較好的系統(tǒng)運(yùn)行速度。但是對(duì)于不同的情況該方法需要具體問題具體分析,使用相對(duì)應(yīng)的幾何約束條件,相應(yīng)地增加了系統(tǒng)的復(fù)雜性。

1.4 累積誤差

SLAM 中的誤差來源主要為里程計(jì)誤差、觀測(cè)誤差和錯(cuò)誤的數(shù)據(jù)關(guān)聯(lián)帶來的誤差3個(gè)方面。在VSLAM 中,環(huán)境的先驗(yàn)信息和機(jī)器人的位置都是未知的,位置誤差(視覺里程計(jì)誤差)不能根據(jù)環(huán)境先驗(yàn)信息得到有效糾正,故而隨著機(jī)器人運(yùn)動(dòng)距離的增大位置誤差也逐漸累積。位置誤差的增大會(huì)造成錯(cuò)誤的數(shù)據(jù)關(guān)聯(lián),相應(yīng)的特征標(biāo)志的誤差也跟著增大;反過來,機(jī)器人的位置誤差因?yàn)閰⒖剂擞姓`差的特征也會(huì)增大。因此,里程計(jì)誤差與特征標(biāo)志之間相互影響使整個(gè)VSLAM系統(tǒng)產(chǎn)生累積誤差,無法保證地圖和軌跡的全局一致性。圖4 中,累積誤差使得估計(jì)軌跡和真實(shí)軌跡相差很大。當(dāng)前VSLAM系統(tǒng)多采用回環(huán)檢測(cè)的方式減小這一誤差。回環(huán)檢測(cè)是指機(jī)器人識(shí)別出曾經(jīng)到達(dá)過的場(chǎng)景的能力,當(dāng)機(jī)器人看到兩張相似圖片時(shí),計(jì)算圖像數(shù)據(jù)的相似性,如果回環(huán)檢測(cè)成功,可以顯著地減小累積誤差。回環(huán)檢測(cè)在VSLAM中意義重大,既關(guān)系到估計(jì)的地圖和軌跡在長(zhǎng)時(shí)間下的正確性,也可在跟丟時(shí)進(jìn)行重定位,大大增強(qiáng)了系統(tǒng)的魯棒性。

圖 4 真實(shí)軌跡與出現(xiàn)累積誤差的軌跡Fig. 4 Real track and track with accumulated error

2 VSLAM實(shí)現(xiàn)方法

VSLAM的實(shí)現(xiàn)方法分為基于濾波器的方法和基于圖優(yōu)化的方法。其中,基于濾波器的方法只估計(jì)當(dāng)前時(shí)刻的位姿,是一種增量式算法;基于圖優(yōu)化的方法根據(jù)所有觀測(cè)到的信息,對(duì)整個(gè)機(jī)器人運(yùn)動(dòng)軌跡進(jìn)行估計(jì)。前者又稱為在線SLAM,后者又稱為全SLAM(FULL SLAM)。表1 給出了常用的開源VSLAM方案,其中有使用濾波方法的,也有使用優(yōu)化方法的,本文2.1和2.2節(jié)將對(duì)典型方案詳述。

表 1 常用開源VSLAM方案Table 1 Commonly used open source VSLAM solutions

2.1 基于濾波器的實(shí)現(xiàn)方法

2.1.1 基于擴(kuò)展卡爾曼濾波器(extended kalman filter, EKF)的EKF-VSLAM

21世紀(jì)之前, SLAM中的狀態(tài)估計(jì)主要使用濾波的方法。在 SLAM 中,系統(tǒng)的狀態(tài)由機(jī)器人的位姿和地圖信息(路標(biāo))組成。用卡爾曼濾波器(KF)實(shí)現(xiàn)SLAM必須遵循運(yùn)動(dòng)方程和觀測(cè)方程都符合線性高斯模型、系統(tǒng)的狀態(tài)服從高斯分布這兩個(gè)假設(shè)。基于KF的 SLAM 由系統(tǒng)狀態(tài)預(yù)測(cè)和更新兩步組成,與此同時(shí),對(duì)地圖進(jìn)行加入新路標(biāo)、刪除舊路標(biāo)等操作。KF中,假設(shè)系統(tǒng)都是線性的,但是現(xiàn)實(shí)中,機(jī)器人的運(yùn)動(dòng)模型與觀測(cè)模型往往都是非線性的。對(duì)此,通常采用一階泰勒展開來近似表示非線性模型的擴(kuò)展卡爾曼濾波器(extended Kalman filter,EKF)方法來實(shí)現(xiàn)SLAM。

卡爾曼濾波器是實(shí)現(xiàn) SLAM 的基本方法之一[29]。其協(xié)方差矩陣描述了機(jī)器人的位置和地圖的不確定信息。當(dāng)機(jī)器人連續(xù)觀測(cè)到環(huán)境中的特征標(biāo)志時(shí),所有協(xié)方差矩陣子陣的行列式呈單調(diào)遞減。每一時(shí)刻機(jī)器人能觀測(cè)到路標(biāo)不會(huì)很多,只有少數(shù)幾個(gè)。基于卡爾曼濾波器的 SLAM 的時(shí)間復(fù)雜度為O(n2),n表示地圖中的特征標(biāo)志數(shù)[30]。為了達(dá)到降低 SLAM 的時(shí)間復(fù)雜度的目的,Leonard 等[31]提出了 DSM (decoupled stochastic mapping) 方法。DSM中機(jī)器人位置估計(jì)被各子地圖分別保存,當(dāng)機(jī)器人從1個(gè)子地圖運(yùn)動(dòng)到另1個(gè)子地圖時(shí),將前1個(gè)子地圖的信息以EKF的方式傳送給后1個(gè)子地圖。Williams 等[32]提出的基于 CLSF (constrained local submap filter)的 SLAM 方法涉及全局坐標(biāo)已知的子地圖,首先構(gòu)建出這些子地圖,然后機(jī)器人運(yùn)動(dòng)過程中只利用觀測(cè)信息更新自身位置和局部子地圖中的特征標(biāo)志,并且在時(shí)效范圍內(nèi)向全局地圖傳遞局部子地圖信息。Guivant等[33]提出了1種沒有任何信息丟失的 SLAM 優(yōu)化算法 CEKF ( compressed extended Kalman filter)。在CEKF中,已觀測(cè)到的地圖路標(biāo)一分為二分成A 與 B兩部分,比較特別的是,用A來記錄活動(dòng)子地圖(機(jī)器人當(dāng)前位置的鄰域)。當(dāng)機(jī)器人在A 中運(yùn)動(dòng)時(shí),機(jī)器人的位置與地圖A 通過觀測(cè)信息得到實(shí)時(shí)更新,與此同時(shí),地圖 B受到子觀測(cè)信息的影響被遞歸地記錄;當(dāng)機(jī)器人運(yùn)動(dòng)到A的區(qū)域之外時(shí),觀測(cè)信息被傳送給子地圖 B,地圖 B進(jìn)行一次性更新,新的活動(dòng)子地圖同時(shí)被創(chuàng)建。

為了降低SLAM的時(shí)間復(fù)雜度,Thrun等[34]也提出去相關(guān)的方法,即基于稀疏信息濾波器 (sparse extended information filter,SEIF) 的 SLAM 方法,該方法中,只對(duì)約束關(guān)系進(jìn)行局部更新,這種局部更新使得信息矩陣近似于系數(shù)矩陣,有效降低SLAM的時(shí)間復(fù)雜度。

Davison[35]于2007年提出的MonoSLAM,是第一個(gè)基于EKF方法實(shí)時(shí)的單目VSLAM系統(tǒng),雖然初步解決了實(shí)時(shí)的問題,能夠在線創(chuàng)建稀疏地圖,漂移多少仍然不能確定,目前已經(jīng)停止對(duì)其的開發(fā)。

圖5 是基于EKF的單目VSLAM流程圖。

圖 5 基于EKF的單目VSLAM流程圖Fig. 5 Flowchart of EKF-based monocular VSLAM

2.1.2 基于粒子濾波器的FastSLAM

M. Montemerlo等[36-37]提出了1種基于粒子濾波器(particle filter, PF) 的FastSLAM 方法。 Fast-SLAM 包含了機(jī)器人定位和特征標(biāo)志位置估計(jì)兩個(gè)過程。粒子濾波器法中機(jī)器人可能的運(yùn)動(dòng)路徑用粒子表示,1個(gè)粒子對(duì)應(yīng)著1種可能,每條路徑的好壞由利用觀測(cè)信息計(jì)算得到的粒子權(quán)重來評(píng)價(jià)。對(duì)于每個(gè)粒子來說機(jī)器人的運(yùn)動(dòng)路徑是確定的,故特征標(biāo)志之間相互獨(dú)立且其觀測(cè)信息只與機(jī)器人的位姿有關(guān)。FastSLAM 的時(shí)間復(fù)雜度為O (kn) ,其中k為粒子個(gè)數(shù)[30]。用樹形數(shù)據(jù)結(jié)構(gòu)優(yōu)化后的時(shí)間復(fù)雜度可以達(dá)到O (k log n)[30]。 FastSLAM能夠比較好地表示機(jī)器人的非線性 、非高斯運(yùn)動(dòng)模型。

EKF存在非線性誤差,且需要存儲(chǔ)、維護(hù)和更新狀態(tài)量的均值和方差。如果把路標(biāo)也加入狀態(tài)的話,由于V SLAM中路標(biāo)數(shù)量很大,這個(gè)存儲(chǔ)量是相當(dāng)大的,且與狀態(tài)量呈平方增長(zhǎng)(因?yàn)橐鎯?chǔ)協(xié)方差矩陣)。因此,EKF普遍被認(rèn)為不適用于大型場(chǎng)景。PF采樣所需的粒子數(shù)量,隨維度的增加呈指數(shù)增長(zhǎng),所以僅限于低維的問題,對(duì)高維問題不適用。除此之外,濾波器方法在一定程度上假設(shè)了馬爾可夫性,如果當(dāng)前幀與很久之前的幀有關(guān)(例如回環(huán)),那么濾波器就會(huì)難以處理這種情況。因?yàn)闉V波這些明顯的缺點(diǎn),在同等計(jì)算量的情況下,非線性優(yōu)化的方法(現(xiàn)代SLAM系統(tǒng))可以取得更好的效果[10]。

另外,在2011年濾波方面出現(xiàn)了基于RFS(random finite set)的方法[38]。RFS是濾波中新興的潮流[38],RFS是以集合為元素的集合,此集合中的元素及元素個(gè)數(shù)都是隨機(jī)變量。文獻(xiàn)[38]對(duì)環(huán)境地圖和傳感器觀測(cè)信息用RFS建模,構(gòu)造聯(lián)合目標(biāo)狀態(tài)變量的RFS。依據(jù)貝葉斯濾波框架,利用概率假設(shè)密度濾波(probability hypothesis density, PHD)[39]實(shí)現(xiàn)對(duì)機(jī)器人位姿和環(huán)境地圖同時(shí)估計(jì)。該算法避免了數(shù)據(jù)關(guān)聯(lián)的問題,相對(duì)于EKF和PF能更有效地表達(dá)SLAM問題。

2.2 現(xiàn)代SLAM系統(tǒng):基于非線性優(yōu)化的方法

現(xiàn)代SlAM系統(tǒng)分為兩個(gè)部分:前端和后端[1]。前端提取傳感器數(shù)據(jù)構(gòu)建模型用于狀態(tài)估計(jì),后端根據(jù)前端提供的數(shù)據(jù)進(jìn)行優(yōu)化。這個(gè)架構(gòu)如圖6所示。

圖 6 典型SLAM系統(tǒng)Fig. 6 Typical SLAM system

當(dāng)前SLAM事實(shí)標(biāo)準(zhǔn)形成來源于Lu和Milios[40],它是Gutmann和Konolige[41]研究的后續(xù)。典型的SLAM系統(tǒng)如圖6 所示,前端進(jìn)行特征提取、數(shù)據(jù)關(guān)聯(lián)和初值優(yōu)化。前端的數(shù)據(jù)關(guān)聯(lián)模塊包括1個(gè)短期(局部)數(shù)據(jù)關(guān)聯(lián)模塊和1個(gè)長(zhǎng)期(回環(huán))數(shù)據(jù)關(guān)聯(lián)模塊。通常意義下的數(shù)據(jù)關(guān)聯(lián)問題在SLAM中是指遞增定位與建圖過程中如何確定當(dāng)前連續(xù)的傳感器觀測(cè)之間或者當(dāng)前時(shí)刻的觀測(cè)與最近所創(chuàng)建的局部地圖中特征間的關(guān)聯(lián)關(guān)系,這也稱為短期(局部)數(shù)據(jù)關(guān)聯(lián);回環(huán)檢測(cè)中的數(shù)據(jù)關(guān)聯(lián)研究機(jī)器人沿不同的路徑回到某一循環(huán)的起點(diǎn)時(shí),如何確定當(dāng)前創(chuàng)建的局部地圖中的特征與以前所創(chuàng)建的循環(huán)起點(diǎn)處地圖中的特征間的關(guān)聯(lián)關(guān)系,這稱為長(zhǎng)期(回環(huán))數(shù)據(jù)關(guān)聯(lián)。短期的數(shù)據(jù)關(guān)聯(lián)模塊負(fù)責(zé)關(guān)聯(lián)傳感器中連續(xù)的觀測(cè)值對(duì)應(yīng)的特征:得到1幀圖像數(shù)據(jù)后,對(duì)其進(jìn)行預(yù)處理,篩選出關(guān)鍵幀,對(duì)圖像進(jìn)行特征提取、匹配以及運(yùn)動(dòng)求解并得到局部地圖,也就是視覺里程計(jì)(visual odometry,VO);長(zhǎng)期的數(shù)據(jù)關(guān)聯(lián)負(fù)責(zé)將新的觀測(cè)值關(guān)聯(lián)到舊的路標(biāo)上,也就是回環(huán)(loop closure)。

前端對(duì)視覺傳感器得到的圖像的處理考慮兩幀的信息,出現(xiàn)錯(cuò)誤匹配后便無法進(jìn)行,視覺里程計(jì)也存在累積誤差;后端用來解決這些問題,對(duì)全局進(jìn)行優(yōu)化。后端優(yōu)化不僅僅考慮相鄰兩幀之間的信息,而且把所有幀(包括很久之前的狀態(tài))的信息都考慮進(jìn)來,其本質(zhì)上是1個(gè)線性最小二乘問題。與此同時(shí),后端也將信息反饋給前端用于回環(huán)檢測(cè)、驗(yàn)證等。上述優(yōu)化問題在SLAM中表示成圖(圖論意義上的圖)的形式。1個(gè)圖由若干個(gè)頂點(diǎn),以及連接著這些頂點(diǎn)的邊組成;用頂點(diǎn)表示優(yōu)化變量,用邊表示誤差項(xiàng)。于是對(duì)任意1個(gè)上述形式的非線性最小二乘問題可以構(gòu)建與之對(duì)應(yīng)的1個(gè)圖。后端優(yōu)化工具常用g2o、Google Ceres、GTSAM等。

2.2.1 基于特征提取的VSLAM

2007年,Klein等[18]提出的PTAM (parallel tracking and mapping)是基于關(guān)鍵幀的單目VSLAM系統(tǒng)。PTAM提出并實(shí)現(xiàn)了跟蹤與建圖過程的并行化。這是視覺SLAM中首次出現(xiàn)前后端的概念,對(duì)后來許多視覺SLAM系統(tǒng)的設(shè)計(jì)提供了方向。PTAM將姿態(tài)跟蹤和建立地圖設(shè)計(jì)為兩個(gè)線程:姿態(tài)跟蹤線程(前端)不修改地圖,只是用已知地圖來快速跟蹤;建立地圖線程(后端)引入關(guān)鍵幀機(jī)制,把若干個(gè)關(guān)鍵幀串起來繼而優(yōu)化其軌跡和地圖,此過程專注于地圖的建立、維護(hù)和更新。PTAM在選取關(guān)鍵幀、匹配特征、估計(jì)相機(jī)位置方面十分出色,PTAM在重定位上(跟蹤失敗后需要進(jìn)行重定位以繼續(xù)跟蹤)也表現(xiàn)突出,然而該算法沒有設(shè)計(jì)回環(huán)檢測(cè)部分,且缺少幀數(shù)過多時(shí)的處理,視圖不變特性較差,魯棒性不夠,需要人工干預(yù)地圖的構(gòu)建過程。

RGBD-SLAM-V2[42]是 F. Endres在 2014年提出的一種使用深度相機(jī)計(jì)算SLAM的系統(tǒng)。RGBDSLAM-V2前端提取3-D點(diǎn)的圖像特征,進(jìn)行匹配,渲染點(diǎn)云,后端建立位姿圖并用g2o進(jìn)行優(yōu)化,最后輸出地圖。RGBD-SLAM-V2僅使用深度相機(jī)——RGBD相機(jī),同時(shí)采用SLAM領(lǐng)域里的圖像特征提取、回環(huán)檢測(cè)、點(diǎn)云、圖優(yōu)化等目前非常流行的技術(shù),效果良好,但特征點(diǎn)提取、點(diǎn)云渲染都是費(fèi)時(shí)的環(huán)節(jié),算法實(shí)時(shí)性有待改進(jìn)。

2015年,ORB-SLAM[43]算法被提出。ORBSLAM整合當(dāng)前各種主流的方式計(jì)算SLAM,是現(xiàn)代SLAM系統(tǒng)中非常完善且易用的算法之一。ORBSLAM整個(gè)系統(tǒng)都是圍繞著ORB特征實(shí)現(xiàn)的,對(duì)輸入的圖像信息處理時(shí)使用ORB特征,在視覺里程計(jì)與回環(huán)檢測(cè)環(huán)節(jié)使用ORB字典。ORB-SLAM創(chuàng)新地使用實(shí)時(shí)跟蹤特征點(diǎn)線程、局部捆集優(yōu)化線程以及全局位姿圖的回環(huán)檢測(cè)與優(yōu)化線程三線程完成SLAM,能夠確保地圖與軌跡的全局一致性。其中,實(shí)時(shí)跟蹤特征點(diǎn)線程對(duì)每幀新來的圖像提取ORB特征,并與最近的關(guān)鍵幀比較,計(jì)算特征點(diǎn)的位置并粗略估計(jì)相機(jī)位姿;局部捆集優(yōu)化線程求解1個(gè)包括局部空間內(nèi)的特征點(diǎn)與相機(jī)位姿的BA(bundle adjustment)問題;全局位姿圖的回環(huán)檢測(cè)與優(yōu)化線程對(duì)全局的地圖關(guān)鍵幀進(jìn)行回環(huán)檢測(cè),消除累積誤差。繼PTAM的雙線程結(jié)構(gòu)之后,ORB-SLAM的三線程結(jié)構(gòu)又給研究者帶來新的思路。相比于PTAM,ORB-SLAM有著更為寬松的關(guān)鍵幀選取策略。ORB-SLAM在優(yōu)化位姿時(shí)循環(huán)優(yōu)化4次,確保得到更多的正確匹配。所有的這些改進(jìn)使得ORBSLAM具有更好的魯棒性,即使在較差的場(chǎng)景也能順利工作。ORB-SLAM2[44]提供單目、雙目和RGBD接口,這使得它具有更好的泛用性。然而,ORB的建圖部分只含有稀疏的地圖點(diǎn),只能滿足定位需求,用于導(dǎo)航就不足了。另外,整個(gè)ORB-SLAM系統(tǒng)都采用特征點(diǎn)進(jìn)行計(jì)算,對(duì)于每張圖都要計(jì)算ORB特征,這使得ORB-SLAM系統(tǒng)非常耗時(shí)。2.2.2 基于直接法的VSLAM

特征點(diǎn)法在VSLM中占據(jù)著主流地位,但關(guān)鍵點(diǎn)的提取與描述子的計(jì)算非常耗時(shí),而且使用特征點(diǎn)時(shí),只使用到特征點(diǎn)的信息,其他的像素點(diǎn)都被忽略了。針對(duì)這些缺點(diǎn),出現(xiàn)了直接法VSLAM,該法既不必提取關(guān)鍵點(diǎn)也不必計(jì)算描述子,而是基于灰度不變假設(shè),根據(jù)像素來直接計(jì)算相機(jī)運(yùn)動(dòng)。直接法是從光流[45]演變而來的,光流描述了像素在圖像中的運(yùn)動(dòng),而直接法則附帶1個(gè)相機(jī)運(yùn)動(dòng)模型。直接法中,假設(shè)在各個(gè)視角下,1個(gè)空間點(diǎn)成像的灰度值是恒定不變的。該方法直接根據(jù)像素亮度信息,估計(jì)相機(jī)的運(yùn)動(dòng)。直接法完全舍去了關(guān)鍵點(diǎn)提取和描述子計(jì)算,不僅避開了耗時(shí)的特征提取,而且保留了所有特征信息。

文獻(xiàn)[46]里的DTAM(dense tracking and mapping),繼續(xù)使用關(guān)鍵幀的架構(gòu),但對(duì)關(guān)鍵幀的處理與傳統(tǒng)的特征點(diǎn)提取大相徑庭。DTAM中的直接法(direct method)在默認(rèn)環(huán)境亮度不變的前提下,對(duì)每一個(gè)像素的深度數(shù)據(jù)進(jìn)行反深度(inverse depth)計(jì)算和不斷優(yōu)化,從而建立稠密地圖并且穩(wěn)定地跟蹤。 DTAM準(zhǔn)、穩(wěn),但對(duì)每一個(gè)像素都計(jì)算使得實(shí)時(shí)計(jì)算困難,需通過GPU加速。

文獻(xiàn)[47]中J. Engel等在2014年提出了LSDSLAM(large-scale direct monocular SLAM),LSDSLAM是直接法在單目SLAM中的實(shí)現(xiàn)。LSD-SLAM放棄了BA (bundle adjustment)的方法,利用直接法構(gòu)建了半稠密地圖,可在實(shí)時(shí)應(yīng)用中運(yùn)行,非常適合機(jī)器人使用。LSD-SLAM對(duì)相機(jī)內(nèi)參和相機(jī)曝光非常敏感,且相機(jī)快速運(yùn)動(dòng)時(shí)不容易跟蹤。LSD-SLAM中相機(jī)定位的精度明顯比PTAM和ORB低[43]。在回環(huán)檢測(cè)部分,目前尚未有在直接法上實(shí)現(xiàn)的回環(huán)檢測(cè)方式,LSD-SLAM仍需依賴基于特征的回環(huán)檢測(cè)方法。

文獻(xiàn)[48]中Forster等提出了介于直接方式和基于特征的方法之間的半直接法SVO。SVO中特征點(diǎn)與直接法混合使用,跟蹤一些關(guān)鍵點(diǎn)(無描述子的角點(diǎn)),然后用直接法,根據(jù)這些關(guān)鍵點(diǎn)周圍的信息,估計(jì)相機(jī)的運(yùn)動(dòng)和位置。SVO不必計(jì)算描述子,處理的信息少,速度極快,在4軸飛行器上效果很好。然而,SVO為了速度和輕量化,沒有回環(huán)檢測(cè)、后端優(yōu)化部分,這導(dǎo)致了SVO必然存在累計(jì)誤差,且跟丟后難以重定位。

直接法可以構(gòu)建半稠密乃至稠密的地圖,而特征點(diǎn)法因?yàn)樽陨砭窒奘菬o法做到的。對(duì)比稀疏的點(diǎn)云地圖,比如 ORB-SLAM或PTAM,構(gòu)建稠密的地圖對(duì)相機(jī)定位和導(dǎo)航意義更加深刻,作用也更加突出。直接法只要求有像素梯度即可估計(jì)相機(jī)運(yùn)動(dòng),而無須特征點(diǎn)。上文中的DTAM和LSD-SLAM可以對(duì)環(huán)境進(jìn)行稠密或半稠密的地圖構(gòu)建,相機(jī)位姿通過圖像像素的灰度直接優(yōu)化。直接法避開了提取特征這一繁瑣和耗時(shí)的過程,大大提高了系統(tǒng)效率,且在圖像模糊、低紋理環(huán)境和高頻紋理的情況下有著更好的魯棒性。

然而,直接法有其局限性。這些方法采用一個(gè)表面反射模型,灰度值不變這一嚴(yán)苛的假設(shè)需要嚴(yán)格遵守。灰度間的差異計(jì)算是直接法賴以實(shí)現(xiàn)的基礎(chǔ),如果環(huán)境亮度或者圖像整體灰度變化,例如環(huán)境突然發(fā)生光線變換或者相機(jī)突然調(diào)整曝光參數(shù),整體的圖像就會(huì)變亮或變暗,于是灰度不變假設(shè)不再成立,算法失敗。梯度不明顯的像素對(duì)環(huán)境重構(gòu)的精度影響很大,對(duì)于非深度相機(jī)需要更多的觀測(cè)信息以彌補(bǔ)深度的不確定性。直接法可能會(huì)受到快門、自動(dòng)增益和自動(dòng)曝光的影響,而且對(duì)相機(jī)的圖像采集速率也有較高的要求。相反,基于特征的VSLAM方法得益于其較好的視圖不變特性,可以在更寬的條件下匹配特征、捆集調(diào)整和優(yōu)化相機(jī)位姿。文獻(xiàn)[49]也指出了特征點(diǎn)法相比直接法的優(yōu)勢(shì)。

3 結(jié)束語

綜上所述,隨著機(jī)器視覺技術(shù)的興起,VSLAM成為機(jī)器人領(lǐng)域越來越熱的問題,該領(lǐng)域的研究者們致力于降低算法復(fù)雜度 、減小誤差、提高效率和精度、提高魯棒性等。但是在以下幾個(gè)方面還需要更進(jìn)一步研究。

1)靜態(tài)環(huán)境到動(dòng)態(tài)環(huán)境

目前,大部分VSLAM系統(tǒng)仍然局限于研究理想情況下的靜態(tài)環(huán)境,然而事與愿違,現(xiàn)實(shí)中的環(huán)境通常是復(fù)雜的動(dòng)態(tài)環(huán)境,在動(dòng)態(tài)環(huán)境下研究VSLAM具有重要的意義。動(dòng)態(tài)環(huán)境中在語義地圖下做VSLAM是一個(gè)可選擇的方法。利用語義地圖先判斷物體是否為可動(dòng)物體,然后繼續(xù)下一步的動(dòng)作。

2)與人工智能相結(jié)合的VSLAM實(shí)現(xiàn)方法

可以將人工智能領(lǐng)域的方法引入到VSLAM中[50],尋找更有效的VSLAM算法,如文獻(xiàn)[51]。上文提及的語義地圖也可嘗試用深度學(xué)習(xí)的方式實(shí)現(xiàn)。

3)多傳感器融合

本文所提到的算法都是在僅用相機(jī)作為傳感器的前提下,而在算法的實(shí)用方面,僅用單一傳感器的VSLAM有固有局限,如相機(jī)快速運(yùn)動(dòng)下不容易跟蹤、難以處理動(dòng)態(tài)的障礙物等,因此,將不同的傳感器數(shù)據(jù)融合起來進(jìn)行互補(bǔ),可使系統(tǒng)更加魯棒、精度更高。例如,慣導(dǎo)組合的VSLAM更能適用于復(fù)雜的場(chǎng)景。慣性傳感器(IMU)能夠測(cè)量傳感器本體的加速度和角速度,與相機(jī)傳感器互補(bǔ),兩者融合之后能得到更完善的VSLAM系統(tǒng),然而如何有效結(jié)合這兩者是值得深入探討的問題。

4)多機(jī)器人協(xié)作

對(duì)于單個(gè)機(jī)器人的VSLAM系統(tǒng)已經(jīng)有不少的解決方案,然而多機(jī)器人VSLAM領(lǐng)域還有通信拓?fù)洹⑷蝿?wù)規(guī)劃和地圖融合等方面有待研究[52]。

上述VSLAM發(fā)展方向中,結(jié)合深度學(xué)習(xí)的VSLAM和多傳感融合VSLAM將在SALM領(lǐng)域占據(jù)重要地位;動(dòng)態(tài)環(huán)境下的VSLAM和多機(jī)器人協(xié)作VSLAM仍需砥礪前行。

[1]CADENA C, CARLONE L, CARRILLO H, et al. Simultaneous localization and mapping: present, future, and the robust-perception age[Z]. Computer science, 2016.

[2]FUENTES-PACHECO J, RUIZ-ASCENCIO J, RENDóNMANCHA J M. Visual simultaneous localization and mapping: a survey[J]. Artificial intelligence review, 2015, 43(1):55–81.

[3]于金霞, 王璐, 蔡自興. 未知環(huán)境中移動(dòng)機(jī)器人自定位技術(shù)[M]. 北京: 電子工業(yè)出版社, 2011.YU Jinxia, WANG Lu, CAI Zixing. Self-localization technologies of mobile robot in unknown environment[M].Beijing: Publishing House of Electronics Industry, 2011.

[4]劉浩敏, 章國鋒, 鮑虎軍. 基于單目視覺的同時(shí)定位與地圖構(gòu)建方法綜述[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2016,28(6): 855–868.LIU Haomin, ZHANG Guofeng, BAO Hujun. A survey of monocular simultaneous localization and mapping[J]. Journal of computer-aided design and computer graphics, 2016,28(6): 855–868.

[5]SMITH R, SELF M, CHEESEMAN P. Estimating uncertain spatial relationships in robotics[J]. Machine intelligence and pattern recognition, 1988, 1(5): 435–461.

[6]SMITH R C, CHEESEMAN P. On the representation and estimation of spatial uncertainty[J]. The international journal of robotics research, 1986, 5(4): 56–68.

[7]CSORBA M. Simultaneous localisation and map building[D]. Oxford: University of Oxford, 1997: 699–704.

[8]DISSANAYAKE M W M G, NEWMAN P, CLARK S, et al. A solution to the simultaneous localization and map building (SLAM) problem[J]. IEEE transactions on robotics and automation, 2001, 17(3): 229–241.

[9]AGARWAL S, SNAVELY N, SIMON I, et al. Building Rome in a day[C]//Proceedings of the 12th IEEE International Conference on Computer Vision. Kyoto, Japan, 2009:72–79.

[10]STRASDAT H, MONTIEL J M M, DAVISON A J. Realtime monocular SLAM: why filter?[C]//Proceedings of 2010 IEEE International Conference on Robotics and Automation. Anchorage, AK, USA, 2010: 2657–2664.

[11]梁明杰, 閔華清, 羅榮華. 基于圖優(yōu)化的同時(shí)定位與地圖創(chuàng)建綜述[J]. 機(jī)器人, 2013, 35(4): 500–512.LIANG Mingjie, MIN Huaqing, LUO Ronghua. Graphbased SLAM: a survey[J]. Robot, 2013, 35(4): 500–512.

[12]MUJA M, LOWE D G. Fast approximate nearest neighbors with automatic algorithm configuration[C]//Proceedings of the 4th International Conference on Computer Vision Theory and Applications. Lisboa, Portugal, 2009:331–340.

[13]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision,2004, 60(2): 91–110.

[14]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF)[J]. Computer vision and image understanding, 2008, 110(3): 346–359.

[15]RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C]//Proceedings of 2011 IEEE International Conference on Computer Vision.Barcelona, Spain, 2011: 2564–2571.

[16]CALONDER M, LEPETIT V, STRECHA C, et al. BRIEF:binary robust independent elementary features[C]//Proceedings of the 11th European Conference on Computer Vision. Heraklion, Crete, Greece, 2010: 778–792.

[17]CIVERA J, DAVISON A J, MONTIEL J M M. Inverse depth parametrization for monocular SLAM[J]. IEEE transactions on robotics, 2008, 24(5): 932–945.

[18]KLEIN G, MURRAY D. Parallel tracking and mapping for small AR workspaces[C]//Proceedings of the 6th IEEE and ACM International Symposium on Mixed and Augmented Reality. Nara, Japan, 2007: 225–234.

[19]KLEIN G, MURRAY D. Improving the agility of keyframe-based SLAM[C]//Proceedings of the 10th European Conference on Computer Vision. Marseille, France, 2008:802–815.

[20]WEISS S, SIEGWART R. Real-time metric state estimation for modular vision-inertial systems[C]//Proceedings of 2011 IEEE International Conference on Robotics and Automation. Shanghai, China, 2011: 4531–4537.

[21]JAMA M, SCHINSTOCK D. Parallel tracking and mapping for controlling VTOL airframe[J]. Journal of control science and engineering, 2011, 2011: 413074.

[22]DAVISON A J. SLAM with a single camera[C]//Proceedings of Workshop on Concurrent Mapping and Localization for Autonomous Mobile Robots in Conjunction with ICRA. Washington, DC, USA, 2002.

[23]祝風(fēng)翔. 基于圖像的深度獲取方法研究[D]. 杭州, 中國:浙江大學(xué), 2016.ZHU Fengxiang. Depth map acquisition method study based on image[D]. Hangzhou, China: Zhejiang University,2016.

[24]DAVISON A J. Active search for real-time vision[J]. Proceedings of the 10th IEEE International Conference on Computer Vision. Beijing, China, 2005: 66–73.

[25]CIVERA J, GRASA O G, DAVISON A J, et al. 1-point RANSAC for EKF-based structure from motion[C]//Proceedings of 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems. St. Louis, MO, USA,2009: 3498–3504.

[26]CIVERA J, GRASA O G, DAVISON A J, et al. 1-Point RANSAC for extended Kalman filtering: application to real-time structure from motion and visual odometry[J].Journal of field robotics, 2010, 27(5): 609–631.

[27]GUERRA E, MUNGUIA R, BOLEA Y, et al. Validation of data association for monocular SLAM[J]. Mathematical problems in engineering, 2013, 2013: 671376.

[28]EADE E, DRUMMOND T. Scalable monocular SLAM[C]//Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York, NY, USA, 2006: 469–476.

[29]LEONARD J J, DURRANT-WHYTE H F. Simultaneous map building and localization for an autonomous mobile robot[C]//Proceedings of Intelligence for Mechanical Systems, Proceedings IROS’91. IEEE/RSJ International Workshop on Intelligent Robots and Systems’91. Osaka, Japan,1991: 1442–1447.

[30]羅榮華, 洪炳镕. 移動(dòng)機(jī)器人同時(shí)定位與地圖創(chuàng)建研究進(jìn)展[J]. 機(jī)器人, 2004, 26(2): 182–186.LUO Ronghua, HONG Bingrong. The progress of simultaneous localization and mapping for mobile robot[J]. Robot, 2004, 26(2): 182–186.

[31]LEONARD J J, FEDER H J S. Decoupled stochastic mapping[J]. IEEE journal of oceanic engineering, 2001, 26(4):561–571.

[32]WILLIAMS S B. Efficient solutions to autonomous mapping and navigation problems[D]. Sydney, Australia: University of Sydney, 2001.

[33]GUIVANT J E, NEBOT E M. Optimization of the simultaneous localization and map-building algorithm for realtime implementation[J]. IEEE transactions on robotics and automation, 2001, 17(3): 242–257.

[34]THRUN S, LIU Yufeng, KOLLER D, et al. Simultaneous localization and mapping with sparse extended information filters[J]. The international journal of robotics research, 2004, 23(7/8): 693–716.

[35]DAVISON A J, REID I D, MOLTON N D, et al. Mono-SLAM: real-time single camera SLAM[J]. IEEE transactions on pattern analysis and machine intelligence, 2007,29(6): 1052–1067.

[36]MONTEMERLO M, THRUN S, KOLLER D, et al. Fast-SLAM: a factored solution to the simultaneous localization and mapping problem[C]//Proceedings of the 18th International Conference on Artificial Intelligence. Pittsburgh, PA, USA, 2002: 2004.

[37]MONTEMERLO M, THRUN S. Simultaneous localization and mapping with unknown data association using FastSLAM[C]//Proceedings of 2003 IEEE International Conference on Robotics and Automation. Taipei, Taiwan,China, 2003: 1985–1991.

[38]MULLANE J, VO B N, ADAMS M D, et al. A random-finite-set approach to Bayesian SLAM[J]. IEEE transactions on robotics, 2011, 27(2): 268–282.

[39]ADAMS M, VO B N, MAHLER R, et al. SLAM gets a PHD: new concepts in map estimation[J]. IEEE robotics and automation magazine, 2014, 21(2): 26–37.

[40]LU F, MILIOS E. Globally consistent range scan alignment for environment mapping[J]. Autonomous robots,1997, 4(4): 333–349.

[41]GUTMANN J S, KONOLIGE K. Incremental mapping of large cyclic environments[C]//Proceedings of 1999 IEEE International Symposium on Computational Intelligence in Robotics and Automation. Monterey, CA, USA, 1999:318–325.

[42]ENDRES F, HESS J, STURM J, et al. 3-D mapping with an RGB-D camera[J]. IEEE transactions on robotics, 2014,30(1): 177–187.

[43]MUR-ARTAL R, MONTIEL J M M, TARDOS J D. ORBSLAM: a versatile and accurate monocular SLAM system[J]. IEEE transactions on robotics, 2015, 31(5):1147–1163.

[44]MUR-ARTAL R, TARDóS J D. ORB-SLAM2: an opensource SLAM system for monocular, stereo, and RGB-D cameras[J]. IEEE transactions on robotics, 2017, 23(5):1255–1262.

[45]BLESER G, HENDEBY G. Using optical flow as lightweight SLAM alternative[C]//Proceedings of the 8th IEEE International Symposium on Mixed and Augmented Reality. Orlando, FL, USA, 2009: 175–176.

[46]NEWCOMBE R A, LOVEGROVE S J, DAVISON A J.DTAM: dense tracking and mapping in real-time[C]//Proceedings of 2011 IEEE International Conference on Computer Vision. Barcelona, Spain, 2011: 2320–2327.

[47]ENGEL J, SCH?PS T, CREMERS D. LSD-SLAM: largescale direct monocular SLAM[C]//Proceedings of the 13th European Conference on Computer Vision. Zurich,Switzerland, 2014: 834–849.

[48]FORSTER C, PIZZOLI M, SCARAMUZZA D. SVO: fast semi-direct monocular visual odometry[C]//Proceedings of 2014 IEEE International Conference on Robotics and Automation. Hong Kong, China, 2014: 15–22.

[49]TORR P H S, ZISSERMAN A. Feature based methods for structure and motion estimation[M]. TRIGGS B, ZISSERMAN A, SZELISKI R. Vision Algorithms: Theory and Practice. Berlin, Heidelberg, Germany: Springer, 2000:278–294.

[50]林輝燦, 呂強(qiáng), 張洋, 等. 稀疏和稠密的VSLAM的研究進(jìn)展[J]. 機(jī)器人, 2016, 38(5): 621–631.LIN Huican, LYU Qiang, ZHANG Yang, et al. The sparse and dense VSLAM: a survey[J]. Robot, 2016, 38(5):621–631.

[51]GAO Xiang, ZHANG Tao. Unsupervised learning to detect loops using deep neural networks for visual SLAM system[J]. Autonomous robots, 2017, 41(1): 1–18.

[52]張國良, 湯文俊, 曾靜, 等. 考慮通信狀況的多機(jī)器人CSLAM問題綜述[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(10):2073–2088.ZHANG Guoliang, TANG Wenjun, ZENG Jing, et al. An overview on the cooperative SLAM problem of multi-robot systems considering communication conditions[J].Acta automatica sinica, 2014, 40(10): 2073–2088.

猜你喜歡
特征優(yōu)化方法
超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国内黄色精品| 日本免费一级视频| 亚洲中文字幕av无码区| 麻豆AV网站免费进入| 99精品国产电影| 久久99精品久久久久久不卡| 韩国自拍偷自拍亚洲精品| 国产欧美日韩91| 久久大香香蕉国产免费网站| 中文字幕1区2区| 国产精品自在在线午夜| 亚洲熟妇AV日韩熟妇在线| 欧美视频免费一区二区三区| 日本三级欧美三级| 久久亚洲国产视频| jijzzizz老师出水喷水喷出| 九九热视频精品在线| 成人午夜视频免费看欧美| 国产香蕉在线视频| 四虎国产永久在线观看| 在线观看热码亚洲av每日更新| 国产真实乱人视频| 欧美va亚洲va香蕉在线| 久久亚洲日本不卡一区二区| 亚洲国产成人综合精品2020| 国产精品分类视频分类一区| 欧美a级完整在线观看| 亚洲人成在线精品| 免费无码AV片在线观看国产| 国产成人精品高清不卡在线| 91精品国产91久久久久久三级| 性视频久久| 中文字幕无码电影| 夜夜爽免费视频| 中日韩一区二区三区中文免费视频 | 欧美午夜视频| 囯产av无码片毛片一级| 日本中文字幕久久网站| 欧美日韩一区二区在线播放| 一本大道无码日韩精品影视| 亚洲欧美另类视频| 成人免费网站在线观看| 亚洲最黄视频| 国产精品一区二区在线播放| julia中文字幕久久亚洲| 2020久久国产综合精品swag| 热99精品视频| 亚洲国产看片基地久久1024 | …亚洲 欧洲 另类 春色| 四虎影视8848永久精品| 欧美午夜理伦三级在线观看| 无码日韩精品91超碰| 日日摸夜夜爽无码| 国产成人一区在线播放| 人妻中文久热无码丝袜| 一级毛片免费的| 又爽又大又光又色的午夜视频| 久操线在视频在线观看| 久久99精品久久久久纯品| 福利姬国产精品一区在线| 亚洲一区第一页| 久久综合色88| 精品久久高清| 国产色伊人| 亚洲国产天堂久久综合226114| 人妻丝袜无码视频| 久久久久国产一级毛片高清板| 国产成本人片免费a∨短片| 久久亚洲高清国产| 欧美性爱精品一区二区三区| 全免费a级毛片免费看不卡| 久久精品国产国语对白| 色综合久久久久8天国| 国产激情无码一区二区APP| 国产伦片中文免费观看| 免费可以看的无遮挡av无码| 日本精品影院| 一本久道久久综合多人| 亚洲侵犯无码网址在线观看| 欧美亚洲国产视频| 欧美日韩第三页| 91午夜福利在线观看精品|