999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于事件相機的定位與建圖算法:綜述

2021-08-28 04:55:18馬艷陽葉梓豪劉坤華陳龍
自動化學報 2021年7期

馬艷陽 葉梓豪 劉坤華 陳龍

感知自身在空間中的位置、方向、速度以及周圍環境信息,是自動駕駛系統、移動機器人等無人系統進行自主導航、路徑規劃[1]等任務的前提.因此,同時定位與建圖(Simultaneous localization and mapping,SLAM)技術[2]被廣泛應用于自動駕駛、移動機器人、無人機、增強現實[3]等領域.在SLAM 算法中常用的傳感器包括全球導航衛星系統(Global navigation satellite system,GNSS)、慣性導航系統(Inertial navigation system,INS)、激光雷達(Light detection and ranging,Lidar)、毫米波雷達(Radio detection and ranging,Radar)、相機等.相較于其他傳感器,相機具有體積小、成本低、易部署、低功耗、能夠提供豐富的信息等優點;但由于其視野受限、容易受光照影響,同時無法直接獲得深度信息,基于視覺的定位與建圖[4?6]方法比其他傳感器的方法更復雜.因此,視覺SLAM 一直是SLAM 領域里備受關注的研究方向.

單目相機無法獲得深度信息,這不僅使單目SLAM 算法更復雜,而且導致通過單目SLAM 算法得到的相機位姿和地圖具有尺度不確定性.而利用多個相機之間的內參(Intrinsic) 和外參(Extrinsic),則可以將多個相機組成雙目或多目相機系統;然后,根據多目相機系統對同一點的組合觀測,再利用三角測量的原理便可以計算出該點的深度.早在2003 年,Olson 等[7]便使用這種方法進行相機的位姿估計.然而由于計算量較大,三角測量通常只能針對稀疏的特征點;對所有像素進行三角測量和深度恢復,需要有額外的設備和算法來支持.隨著傳感器技術的發展,以微軟的Kinect[8]為代表的RGB-D 相機可以通過紅外結構光或飛行時間法(Time of flight,TOF)來直接獲取場景中的三維信息,使得RGB-D 相機成為視覺SLAM 中代替雙目相機的可選方案[9].除此之外,一些研究者結合相機和IMU 兩種傳感器來構建視覺?慣性系統(Visualinertial system,VIS)[10?11],利用視覺信息修正IMU的累積誤差,同時利用IMU 提供的線加速度和角速度獲得相機的絕對位姿,為視覺里程計提供良好的位姿初值,并且可以為圖像進行運動矯正.視覺SLAM 技術發展至今,領域內已經有許多經典的算法,其中基于純視覺的代表性算法有PTAM[12]、ORB-SLAM[13?14]、SVO[15]、LSD-SLAM[16?17]等,基于視覺?慣性系統的代表性工作有MSCKF[18]、OKVIS[19]以及香港科技大學研發的VINS[20]等.

盡管相機憑借其自身的優勢,在SLAM 領域中被廣泛地應用,但是傳統的CMOS[21]相機(Active pixel sensor,APS)存在著不少缺陷:每個像素需要統一時間曝光,快速運動時圖像容易產生運動模糊;相機獲取信息的頻率受曝光時間的限制;在高動態范圍(High dynamic range,HDR)的場景下容易出現圖像部分過曝或部分欠曝的現象,導致場景細節丟失.這些缺陷的存在限制了視覺SLAM 的使用場景,因此一類新型的基于事件的動態視覺相機進入了SLAM 研究者們的視野.基于事件的相機(簡稱事件相機)是一類異步(Asynchronous)的相機[22],它的誕生是受到了生物視網膜的啟發.事件相機不再像傳統的相機那樣需要外部信號來觸發像素統一曝光而獲得完整的圖像,而是每個像素單獨檢測相對光照變化,并輸出光照變化的像素地址?事件(Address-event,AE)流.圖1[47]為帶一個黑色圓點的勻速旋轉圓盤在事件相機中產生地址?事件流的示意圖.其中X、Y軸張成像素地址空間,不同時刻被激發的像素點在時空上形成一條螺旋線.

圖1 事件相機輸出的地址?事件流[47]Fig.1 Address-event stream output by event-based camera[47]

傳統相機的曝光時間是固定的,即便某個像素上的光照沒有發生變化,它也會重復曝光.這種工作原理導致傳統相機輸出的圖像有高延遲、高冗余的缺點.而事件相機只輸出由光照變化所觸發的“事件”,因此其輸出的事件流是稀疏的、低延遲以及低冗余的.此外,事件相機在高動態范圍的場景下也能良好地工作.有著上述的優勢,事件相機在運動物體追蹤[23?25]、光流估計[26?29]、高動態范圍圖像重建[30]等問題上都得到成功的應用.

本文將對事件相機及其在SLAM 領域的算法做詳細的介紹,文章結構如下:第1 節將介紹不同類型的事件相機;第2 節將介紹與分析基于事件相機的定位與建圖算法;用于定位與建圖算法的事件相機數據集將在第3 節介紹;最后,第4 節是總結與展望.

1 不同種類的事件相機及其工作原理

1.1 事件相機概況

事件相機的出現,可以追溯到1992 年,Mahowald 在他的博士論文[31]中提出了一種新型視覺傳感器“硅視網膜”(“Silicon retina”).這是首個輸出地址?事件流的視覺傳感器,但它只是事件相機的雛形;像素面積過大導致它無法被實際使用.在隨后幾十年的發展中,越來越多像素面積更小,填充因數(Fill factor)更大的事件相機被研發出來[32].其中被廣泛接受并使用的可分為以下三類:DVS(Dynamic vision sensor)、ATIS(Asynchronous time based image sensor)、DAVIS(Dynamic and active pixel vision sensor).DVS 是輸出只有事件流的事件相機,而ATIS 和DAVIS 除了能夠輸出事件流,還能夠輸出灰度信息.上述三種事件相機已經有商用產品的版本,包括iniVation 公司的DVS128[34]、DAVIS240[39],Prophesee 公司的ATIS[37],CelePixel 公司的CeleX-IV[40].除此之外,考慮到無論是自然界動物的視覺還是傳統的APS 相機都可以獲取顏色信息,研究者們嘗試利用濾鏡或分色棱鏡,將顏色信息融入到事件相機中[41?43].不過這方面的工作仍處在學術研究的階段.本節的后續部分將對DVS、ATIS、DAVIS 這三種事件相機的工作原理進行介紹.

1.2 DVS

DVS 是只輸出地址?事件流(簡稱事件流)的一類事件相機[33?35],它的單個像素結構和工作原理簡化圖分別如圖2[34]以及圖3[34]所示.其工作原理與傳統的APS 相機截然不同:每個像素單獨地檢測照射到該像素上的光強對數(Log intensity)的變化,并根據光強對數的變化異步地輸出變亮(“ON”)或者變暗(“OFF”)事件.更具體地說,當某個像素激發一個變亮或變暗事件時,它會通過重置操作(Reset)來記錄當前時刻的光強對數,并持續檢測光強對數的變化.一旦某個時刻的光強對數相較于記錄中的光強對數的增大或減小量超過一定的閾值,該像素會激發一個新的變亮或變暗事件,并記錄新的光強對數.由像素陣列激發的事件,經過外圍器件的處理后便可以發送給上位機.

圖2 DVS 像素結構原理圖[34]Fig.2 Abstracted DVSpixel core schematic[34]

圖3 DVS 工作原理圖[34]Fig.3 Principle of DVS operation[34]

通常,DVS 輸出的事件e k包含該事件發生的像素地址、時間和事件的類型(極性).即e k(x k,t k,p k),其中xk(x k,y k)T,表示像素地址;t k表示該事件發生的時間;pk ∈{+1,?1}表示事件的極性,pk+1 為變亮事件,反之則為變暗事件.規定在像素xk在t k時刻的光強對數表示為L(x k,t k)ln(I(x k,t k)),其中I表示光照強度.事件e k被激發,意味著像素x k上的光強對數與該像素上一次激發事件時的光強對數之差,達到了預先設置的閾值±C,即:

其中

?t k表示從像素x k上次激發事件開始經過的時間.

上述的事件生成模型,僅考慮了沒有噪聲的理想情況.實際上,任何相機都會受到噪聲的影響,包括來自感光器的外部噪聲以及內部電路產生的噪聲,DVS 也不例外.通過設置閾值C,可以調節DVS 對噪聲的敏感度:閾值C越大,DVS 對噪聲越不敏感,但是DVS 捕捉到的事件也會相應地減少.閾值C越小,DVS 捕捉到的事件越多,但信噪比會嚴重降低.

在某個像素上的光照強度的改變,通常是由兩種情況造成的:場景亮度的改變、場景中的物體或相機自身發生了移動.并且,當場景亮度變化越快、場景中的物體或相機自身移動越快時,單位時間內DVS 產生的事件就越多.事件源源不斷地從DVS中異步地輸出,形成事件流.根據硬件和設計的不同,DVS 輸出速率可高達300 Meps(Events per second,eps)[35],延遲可低至3 微秒[39],動態范圍可達130 d B.這樣的特性讓DVS 在捕捉高速運動的物體、應對高動態范圍的光照環境、低延遲控制等應用上有著巨大的優勢.

1.3 ATIS

單純的DVS 輸出的事件流,只提供了事件的像素地址、事件和極性,而ATIS 不僅能輸出上述信息,還能輸出發生事件的像素的灰度值[36?37].ATIS 的像素結構可以劃分為兩個子像素(以下簡稱甲、乙子像素):甲子像素包含完整的DVS 像素結構,它可以感應光強對數的變化并激發相應的事件;在甲子像素激發事件的同時,它還會激發乙子像素進行“曝光”.ATIS 像素中的乙子像素的曝光方式,與傳統APS 相機像素的曝光方式不同.傳統相機的曝光方式是預置曝光時間,通過測定曝光后電容兩端的電壓來確定像素的灰度值.因此,光照強度越大、曝光時間越長,像素的灰度值越大.而ATIS 像素中的乙子像素采用一種基于時間的異步曝光方式:甲子像素激發事件的同時,乙子像素內的一個電容被重置為高電平.隨著乙子像素持續受到光照,電容兩端的電壓下降,其兩端電壓從高電平下降到低電平所需的時間決定了該像素的灰度值.電壓下降時間越短,說明該像素上光照強度越強,灰度值越高;下降時間越長,則說明灰度值越低.像素的灰度信息是以獨立的事件流的形式輸出的.這種由事件觸發的基于時間的曝光方式,使得ATIS 相機在高動態范圍的場景下也能獲得較好的灰度圖(傳統APS 相機容易過曝或欠曝).并且只有產生事件的像素會輸出灰度信息,減少了信息的時間冗余和空間冗余.然而ATIS 相機也有一定的缺陷:在亮度過低的情況下曝光時間過長.當曝光時間超過了下一次時間觸發的時間,電容會被強行重置導致曝光異常終止,從而導致信息丟失.型預測位姿和用觀測模型校正位姿[44].預測位姿所使用的運動模型為隨機擴散模型,而校正位姿使用的觀測模型則是作者提出的指數遞減模型.傳統相機所拍攝的圖像幀之間是獨立的,而DVS 所輸出的事件流中,每一個事件并不是獨立的,作者正是針對該特性提出了指數遞減的事件觀測模型.此外,算法每一次位姿預測都是基于單個事件的,這種方式利用了DVS 相機低延遲的特性,使定位算法的延遲更低、響應更快.在文獻[44]的實驗中,機器人在地面上進行二維運動,并且相機固定朝向天花板,天花板上有預先布置好的紋理,機器人到天花板的距離需要預先設定,同時需要為算法提供天花板紋理的地圖.

2013 年,Weikersdorfer 等對文獻[44]中的文章進行拓展[45],在粒子濾波的框架外維護了一個動態地圖.在粒子濾波的每一次迭代中,先用上一次迭代產生的地圖進行位姿的更新,再用更新后的位姿來更新地圖.這使得算法從一個單純的定位算法拓展為同時定位與建圖算法,不再需要提供先驗的地圖,移動機器人可以進行定位與建圖.在文獻[45]的基礎上,作者結合碰撞檢測器搭建了機器人空間自主探索系統[46].系統利用文獻[45]中的算法進行定位和建圖,并利用碰撞開關來探測墻壁和障礙物,再利用啟發式的算法進行路徑規劃.文獻[44?46]中,機器人都只在室內的地面上做3 自由度的運動,并且要求天花板上有特殊的紋理作為算法的前置條件,這些缺陷限制了算法在實際環境中的應用.

Mueggler 等在2014 年提出了一種基于事件流的6 自由度定位算法[47],該算法建立于一個假設:DVS 所檢測到的事件是由地圖中灰度變化強烈的

1.4 DAVIS

DAVIS[38?39]相機也是一種能夠輸出事件流和灰度信息的時間相機,它是DVS 相機和傳統的APS 相機的結合體.DAVIS 像素也分為兩個子結構,其中一個子結構用于監測光照變化的事件,而另一個子結構像傳統的APS 相機一樣進行同步的曝光.不同于ATIS 的是,DAVIS 像素的兩個子結構是共用同一個感光器的,而ATIS 像素的兩個子像素有各自的感光器.因此,DAVIS 相機的像素面積較ATIS 相機的像素面積更小,前者的填充因數較后者的更大.通過DAVIS 獲取的灰度圖,和通過傳統APS 相機獲取的灰度圖一樣,具有時間冗余性和空間冗余性,并且無法承受高動態范圍的環境.因此,從功能上看,DAVIS 只是DVS 和APS 的簡單結合體.

2 基于事件相機的定位與建圖算法

從2012 年開始,機器人領域逐漸出現基于事件相機和事件流的定位與建圖算法的研究.它們對事件流的使用方式各不相同,并且其中的部分算法結合了其他傳感器數據,取得了良好的效果.本節將按照算法中使用的傳感器和數據作為分類的依據,對基于事件相機的定位與建圖算法做詳細的介紹.最后,我們將本節中介紹的算法概要匯總整理至表1.

表1 文中敘述的部分基于事件相機的SLAM 算法及應用Table 1 Event-based SLAM algorithms and applications

2.1 基于純事件流

Weikersdorfer 等在2012 年提出了一種基于事件流與粒子濾波的定位算法[44].常規的基于粒子濾波的定位算法迭代主要分為兩個步驟,即用運動模邊緣產生的.因此算法以預先建好的三維邊緣地圖為輸入,將地圖中的邊和它產生的事件聯系起來.在初始化階段,算法累積一定的事件點形成初始事件圖像幀,并在該圖像上用Hough 變換進行直線檢測,根據檢測到的線段將事件點與地圖中的邊緣形成關聯.

在算法的位姿追蹤階段,算法根據產生的事件持續更新事件與地圖邊緣的關聯,將地圖中的邊重投影到像素平面坐標系,并最小化投影后的邊與相關聯的事件的平方和誤差,從而計算出相機的位姿P,下文的式(3)用數學語言概括了這個過程.其中,l代表事件相機像素平面某條線段,它是地圖中的線段L l在像素平面的投影,el,i表示與線段l關聯的第i個事件.

算法實驗是在空中機器人(無人機)上進行的:實驗中機器人在空中進行快速的翻轉,而算法能很好地跟蹤機器人的位姿.然而,文章實驗中用到的地圖較為簡單:在白墻上貼了一個黑色的正方形,而且機器人一直面朝這個正方形.這種形狀簡單,邊緣明顯的場景為算法的運行提供了便利,作者并沒有驗證算法在復雜場景下的魯棒性.

Kim 等提出了一種基于事件流和拓展卡爾曼濾波的定位與建圖算法[48].文章分別使用了三個不同的拓展卡爾曼濾波器(Extended Kalman filter,EKF)來估計相機的6 自由度位姿、場景的灰度信息以及場景的深度信息.三個濾波器交錯運行,每一個濾波器輸出的結果都會被用在其他兩個濾波器中.算法僅使用DVS 事件流,對相機位姿的估計,場景灰度的估計以及深度的估計都有著良好的效果.但在文章的實驗中,事件相機都是在一個很小的范圍內移動的(在幾十厘米內來回擺動),而且相機的朝向也沒有很大的變化,對場景深度和灰度的估計不僅需要對場景同一區域進行多次重復觀測,還需要較長時間才能收斂.這些限制可能導致算法無法在相機進行長距離運動的情況下運行.

2016 年,Rebecq 等將事件流累積成事件圖像幀,提出了基于事件圖像幀的定位與建圖算法EVO[49].在算法的建圖部分,Rebecq 等使用了他們在2016年提出的基于事件的空間掃描法[50].基于事件的空間掃描法將傳統圖像三維重建中常用的空間掃描法拓展到事件相機中,算法可以總結為三個步驟:

1)根據相機的運動軌跡和記錄的對應時刻產生的事件,利用相機的內參,將對應的事件投影到空間中,形成一條經過相機光心和成像平面上該事件位置的射線.

2)選取一個參考視角,基于參考視角建立視差空間圖(DSI),統計DSI 中的每個體素被所有射線經過的次數.

3)根據DSI 的統計結果來確定某個體素中是否存在物體,從而完成三維重建.

算法[49]中定位的部分,則是將一定個數的事件累積成事件圖像幀,并用事件圖像幀與當前已經建出的三維半稠密地圖作匹配,從而計算出相機的當前位姿.文章中的實驗表明,在室內外環境、高動態范圍環境以及相機快速運動的情況下,算法都具有良好的表現.作者用開關燈模擬亮度劇烈變化,EVO 也能良好地進行位姿追蹤.唯一的問題在于,將事件累積成事件圖像幀的過程,會在一定程度上增加算法的延遲,這就浪費了DVS 低延遲的特性.

2019 年,Bryner 等提出了一種新的基于非線性優化的定位算法[51].與傳統的優化特征點重投影誤差的思路不同的是,Bryner 等設計了一種基于光強變化圖像(Intensity-change image)的誤差函數.如圖4 所示,算法根據輸入的三維光度地圖和當前估計的相機位姿,用GPU 計算出當前相機位姿下的灰度圖和深度圖,然后對灰度圖提取邊緣,同時根據估計相機速度求出對深度圖求出光流圖,再結合邊緣圖和光流圖構造估計的光強變化圖算法根據事件生成模型,對事件流進行積分獲得測量的光強變化圖?L(u).對和?L(u) 歸一化后求差值,便得到了光強變化誤差.最后,算法根據光強變化誤差來優化估計的相機位姿以及相機速度,直到優化收斂.算法在實驗中的精度表現十分優異:在合成數據下算法的角度誤差低于0.52°,在真實數據下算法的角度誤差低于3.84°.然而由于優化的過程復雜,算法無法做到實時運行,甚至比實時慢了2~3 個數量級.

圖4 Bryner 算法工作流程[51]Fig.4 The workflow of Bryner's algorithm[51]

2.2 基于事件流與傳統圖像

Censi 等結合使用DVS 和普通相機,提出了一種基于濾波的視覺里程計[52].文章提出了一種結合了普通相機輸出的灰度圖和DVS 輸出的事件流的觀測模型.其中心思想是,DVS 輸出的事件流是由場景中灰度梯度較大的區域產生的,而這些區域在灰度圖中能直接獲取.因此,算法利用事件流與作者提出的觀測模型相結合,追蹤兩個普通圖像幀之間的相機位姿,使定位算法的延遲比普通的基于圖像的視覺里程計更低.經過作者的實驗,該算法在姿態估計上有較好的表現,但對位移的估計表現不佳.

Weikersdorfer 等基于他們在文獻[45]中的工作,結合使用DVS 和RGB-D 相機,提出了一種6自由度的定位與建圖算法[53].與前面的工作一致,該算法的核心也是粒子濾波算法,不過粒子中位姿由原先的二維位姿拓展為三維位姿.對RGB-D 相機和DVS 相機標定內外參后,利用RGB-D 相機提供的深度圖構建深度映射,為DVS 輸出的事件提供深度,從而將濾波器中粒子的狀態從二維空間提升到三維空間.類似文獻[45],算法也維護了一個動態地圖,地圖由三維體素網格構成,采用和文獻[45]中類似的更新方式.在實驗中,該算法的最低誤差達到3.1 cm(RMSE);在不使用GPU 加速地情況下,算法運行速度也能達到實時的20 倍.算法的不足之處在于,相比起低延遲、高響應速度的DVS,RGB-D 提供的深度圖是有延遲的;這就意味著在快速運動的情況下,根據深度映射計算出的事件的深度是不夠準確的.

Tedaldi 等在2016 年提出了一種結合圖像和事件流的特征點檢測與追蹤算法[54].該算法使用DAVIS 相機作為傳感器,在灰度圖上進行特征點檢測,并利用事件流來對特征點進行追蹤.在特征點提取階段,算法對相機輸出的原始灰度圖使用Canny 算子進行邊緣提取,形成邊緣圖;同時,對原始灰度圖提取Harris 角點,作為特征點;然后對以特征點為中心的方形區塊內的邊緣圖進行二值化,形成模型點集(Model point set),作為特征點的描述子以供后續的特征點追蹤.在特征點追蹤階段,算法將特征點的描述子區塊內發生的事件累積形成數據點集(Data point set),然后將數據點集和描述子的模型點集使用ICP 算法進行幾何上的配準,解算出特征點移動.

Kueng 等的工作[55]中使用了文獻[54]中的算法進行特征點提取和追蹤,然后和常規的基于優化的視覺里程計類似,用深度濾波器來估計特征點的深度,并且用最小化重投影誤差的方式來解算相機的位姿.文中的特征點追蹤算法有著很高的時空分辨率,使得定位延遲低.不過限于DAVIS 中APS部分的自身缺陷,在特征點提取和邊緣提取的過程中還是會受到運動模糊的影響,并且APS 部分所能承受的動態范圍仍然有限,這限制了算法的適用場景.

2.3 基于事件與IMU

Zhu 等在2017 年提出基于特征和卡爾曼濾波的VIO 方法[56],在傳統的VIO 算法上進行了改進,從事件流中提取特征點在圖像中的移動軌跡并使用濾波方法將該軌跡與IMU 的測量數據融合,完成相機的位姿估計.在文獻[56]中,系統將單個特征點和多個與其空間相鄰的事件關聯起來并完成追蹤[57].得到特征點在圖像中的移動軌跡后,使用多狀態約束的卡爾曼濾波器[58]將特征點軌跡與IMU 信息相結合,最終得到估計的相機位姿模型,并不斷通過新獲取的IMU 數據以及高頻的事件流對位姿模型進行更新和修正.文章中的實驗表明,使用事件相機來進行特征追蹤較傳統視覺相機而言擁有更小的漂移誤差,在長距離追蹤中擁有更好的效果.但由于實驗采用了迭代的EM 算法來進行特征的追蹤,開銷較大,因此算法無法做到在常規算力平臺(如筆記本電腦)及載具中實時運行.

使用濾波方法的SLAM 系統的定位和建圖的精度會因為線性化過程導致的誤差的累積而迅速降低.針對這個現象,Rebecq 等在2017 年提出基于事件幀和非線性優化的定位與建圖算法[59].這個算法的主要思想是將連續的事件流通過給定長度的時間窗口劃分成事件幀,基于事件幀進行非線性優化完成位姿追蹤.首先,將從事件相機得到的連續事件流拆分成一組重疊的時間窗口,將同窗口內的事件流累計成一個事件幀,并通過IMU 采集到的數據對得到的事件幀進行運動補償[60].對于修正完成的事件幀,使用經典的FAST 角點檢測方法[61]和Lucas-Kanade 追蹤方法[62]提取和追蹤其中的特征點,得到用于相機位姿估計的特征點移動軌跡.最后,使用非線性優化方法[63]將由特征點的移動軌跡與來自IMU 的數據結合,將IMU 誤差項以完全概率的方式與特征重投影誤差緊耦合,優化聯合了重投影誤差和IMU 誤差的非線性代價函數,周期性地改進相機的軌跡和3D 界標的位置.文章中通過實驗驗證了其方法可在普通筆記本上完成實時的6自由度位姿追蹤以及3D 地標的稀疏圖還原.

在2018 年,Rebecq 等繼續對他們在文獻[59]中的工作進行拓展,首次提出了將事件流、標準圖像幀以及IMU 測量數據三者緊耦合融合的狀態估計方法[64].方法同時對來自事件相機的事件幀和來自標準相機的圖像幀進行了特征點的追蹤,并將二者的追蹤結果都作為非線性優化方法的輸入并完成相機位姿的估計.在文獻[64]中,作者在四旋翼無人機上搭載了事件相機以及標準相機,在光源高頻切換、高速旋轉的幾種極端情況下對提出的特征點追蹤方法進行了測試,并實驗證明了論文提出的方法在多種極端情況下(高動態光照場景和高速運動)均具有優秀的性能,并且能夠在算力有限的平臺上完成實時計算.同時,該方法也擁有更高的準確度,與僅基于事件幀以及IMU 的方法[59]相比提升了130%,與僅基于標準圖像幀以及IMU 的方法相比提升了85%.

當前主流的VIO 算法大多是基于特征的,即從事件中提取特征點的移動軌跡并與IMU 的數據融合完成位姿的追蹤.Mueggler 等則在2018 年提出了一個不依賴特征點的新方法:使用連續的時間框架描述基于事件相機的VIO 過程[65].與基于特征的傳統VIO 算法不同,文獻[65]中應用了連續時間框架[66?67],直接應用事件流中的時間和位置屬性,將事件和相機位姿建立對應關系,使用平滑參數模型來描述相機的位姿變化情況.最后,使用三次樣條插值、視覺-慣性束調整等優化方法來完成模型的優化,減少存儲開銷,提高計算效率.文章中的實驗顯示在普通算力平臺下方法無法實現實時運行,需要通過使用高算力平臺(如多GPU)來達到實時運行的結果.

3 事件相機數據集

在硬件方面,事件相機目前在市場上并不普及,種類少且價格昂貴.因此,關于事件相機的開源數據集是算法開發和測試的重要工具.好的數據集不僅可以幫助研究者避免硬件系統搭建的麻煩,還可以幫助研究者對算法進行客觀準確的評估.本節總結了用于定位與建圖的事件相機數據集,并對其進行簡要介紹,最后將數據集的概要歸納至節末的表2 中.

表2 DVS 公開數據集Table 2 Dataset provided by event cammera

文獻[53]的工作中,作者開放了實驗用的數據集.數據集中包含了eDVS 相機和RGB-D 相機輸出的事件流、彩色圖像以及深度圖像.相機在室內環境做6 自由度的運動,相機位姿的真值則是通過運動采集系統獲取的.

文獻[28]中使用內置IMU 的DAVIS 相機,采集了在室內環境下相機做純旋轉運動的數據,相機姿態的真值是通過對陀螺儀的輸出進行角度積分獲取的.

文獻[68]中,作者使用一個地面機器人和一個云臺搭載了DAVIS 和RGB-D 相機,提供了機器人在室內運動采集的數據以及作者合成的數據.由于云臺只能進行偏航角和俯仰角方向的旋轉,相機的運動只有4 自由度.相機位姿的真值是結合機器人的里程計以及云臺的角度計算出來的.

文獻[69] 提供了多場景的DAVIS 及其內置IMU 的數據,數據集包括室內數據、室外數據以及合成數據.室內數據的真值來自運動采集系統,而室外數據部分作者并未提供真值.

文獻[70]提供了長距離室外道路場景的DAVIS 數據,由于該數據集原本目的是自動駕駛的車輛控制,數據集提供了多種車輛控制信息,但并未提供準確的6 自由度位姿真值,相機位置只能通過車載GPS 提供的經緯度信息來獲取.

文獻[71]中,作者搭建了多傳感器的數據采集系統,該系統包含了一對內置IMU 的DAVIS 相機、一對內置IMU 的RGB 相機、一個16 線的激光雷達以及一個GPS 傳感器.作者采集了多種場景的數據,包括室內、室外、室內外切換、白天和黑夜.除此之外,數據采集系統搭載于不同的載具:4 軸飛行器、汽車、摩托車以及手持.作者利用室內運動采集系統和室外運動采集系統等方法提供了真值.該數據集不僅滿足了第2 節中所包含的類型的算法研究需求,還滿足了雙目事件視覺算法研究的需求.同時,多場景和多載具的數據也大大方便了對算法適應性和魯棒性的驗證.

文獻[72]使用了三個地面機器人,每個地面機器人搭載了一對內置IMU 的DAVIS 相機,以及一個RGB-D 相機.三個地面機器人在室內地面上同時運動,并由運動采集系統采集機器人的位姿.

文獻[51,73]的作者也將他們實驗中所使用的DAVIS 數據開放出來.

上述數據集都提供了相機運動的真值,可以用于對基于事件相機的定位與建圖算法進行評估.值得注意的是,文獻[28]中相機只做三維空間中的旋轉運動;文獻[69]中的相機運動缺少豎直方向的位移和滾轉旋轉;文獻[72]中相機只有水平位移和偏航旋轉.這三個數據集相機運動均未達到6 自由度,不能夠全面地評估基于事件相機定位與建圖算法的性能.文獻[70]雖然相機運動達到了6 自由度,但數據集提供的真值只包含其中兩個自由度的信息.研究者在選用以上4 個數據集時,須注意與其他數據集搭配使用.此外,文獻[72]為同一場景下,多機器人同時采集的數據,可以用于基于事件相機的多智體協同定位與建圖的研究.除了用于對基于事件相機的定位與建圖算法的研究,上述數據集中部分也可以用于對基于事件相機的深度估計、基于事件相機的運動分割等方面的研究.例如,文獻[71,73]給出了深度圖的真值,可以用于研究基于事件相機的深度估計算法.文獻[68]給出了二維圖像運動場真值,文獻[73]給出了精確的場景內物體運動軌跡,可以用于研究基于事件相機的運動分割算法.

4 總結與展望

本文以基于事件相機的定位與建圖算法為中心,介紹了事件相機的種類及其工作原理,介紹了一些具有代表性的、基于事件相機的定位與建圖算法,以及與事件相機定位與建圖相關的數據集.盡管已經有許多基于事件相機的定位與建圖算法被提出來,但它們仍存在問題.比如說,文獻[55]中的算法仍然受到了APS 相機的限制,無法應對快速運動;文獻[49]中的算法要把事件流累積成事件圖像幀,浪費了事件相機低延遲的特性;文獻[48]中的算法被局限于小范圍的相機運動;文獻[51]中的算法需要很長時間才能收斂,并且需要預先建立精確的三維光度地圖.

總的來說,基于純事件流的定位建圖算法存在的問題主要在于,微小時間內事件相機獲取的信息較少,這是由事件相機的分辨率、信噪比以及帶寬所決定的.這導致基于純事件流的定位建圖算法或要求場景或相機運動簡單,或需要通過累積事件流形成事件圖像幀.前者使得算法的實用性下降,而后者則犧牲了事件相機低延遲的優良特性.基于事件流與傳統圖像的定位建圖算法存在的問題在于,對傳統APS 相機的依賴導致算法仍會受到相機延遲、運動模糊、高動態范圍環境的影響.而基于事件相機和IMU 的算法是目前表現最佳的一類算法,既保持了VIO 低延遲、高頻輸出的優勢,又結合了事件相機可以應對低光照和高動態范圍環境的優良特性.然而IMU 的使用會為算法帶來額外的成本.

從本文介紹的算法可以看出,事件相機可以應用于實現低延遲的定位與建圖算法,可以幫助克服視覺傳感器受運動模糊和高動態范圍環境的影響,可以提升視覺定位與建圖算法的精度.但是對于如何利用事件相機進行回環檢測,降低累積誤差,并沒有很好的研究工作.在未來的研究中,有望對事件相機做進一步的挖掘,實現更加完善魯棒的定位與建圖算法.

主站蜘蛛池模板: 国产欧美日韩资源在线观看| 无码有码中文字幕| 日韩在线中文| 国产91小视频在线观看| 亚洲欧美成人综合| 国产亚洲精| 欧美日韩一区二区在线免费观看 | 色一情一乱一伦一区二区三区小说 | 国产啪在线91| 国产18在线播放| 天天综合色天天综合网| a级毛片免费在线观看| 69视频国产| 欧美日本激情| 国产福利观看| 国产成人精品免费视频大全五级| 国产亚洲欧美在线专区| 波多野结衣中文字幕一区| 国产亚洲精久久久久久久91| 色亚洲成人| 亚洲综合久久成人AV| 无码电影在线观看| 亚洲国产高清精品线久久| 色精品视频| 久久五月视频| 国产欧美中文字幕| 人妻中文久热无码丝袜| 国产高清不卡| 激情无码字幕综合| 无码丝袜人妻| 欧美精品高清| 国产成人久视频免费| 2021国产在线视频| 原味小视频在线www国产| 国产精品林美惠子在线播放| 亚洲三级成人| 欧美精品另类| 无码福利视频| 欧美色伊人| 国产成人91精品免费网址在线| 亚卅精品无码久久毛片乌克兰| 丁香婷婷在线视频| 欧美精品影院| 任我操在线视频| 日本成人不卡视频| 国产精品爆乳99久久| 色综合热无码热国产| 亚洲av无码片一区二区三区| av尤物免费在线观看| 国产精品久久自在自2021| 天天色天天综合| 喷潮白浆直流在线播放| 久久无码高潮喷水| 国产成人亚洲综合A∨在线播放| 亚洲三级视频在线观看| 亚洲日本中文字幕天堂网| 欧美三级视频网站| 四虎永久在线| 国产综合精品一区二区| 国产欧美日韩另类精彩视频| 国产综合欧美| 亚洲成a人片77777在线播放| 亚洲愉拍一区二区精品| 国产精品自在在线午夜区app| www.99精品视频在线播放| 欧美日韩中文国产va另类| 日本不卡免费高清视频| 国产h视频免费观看| 国产97公开成人免费视频| 老司国产精品视频| 国产91精品久久| 欧美国产日韩在线播放| 国产精欧美一区二区三区| 国产精品欧美在线观看| 国产在线麻豆波多野结衣| 四虎免费视频网站| 国产成人狂喷潮在线观看2345| 欧美劲爆第一页| 欧美精品在线看| 亚洲妓女综合网995久久| 亚洲另类第一页| 国产黑丝视频在线观看|