999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于寬度自編碼器的VSLAM快速回環檢測方法

2022-12-31 00:00:00尚朝輝丁德銳魏國亮蔡潔
計算機應用研究 2022年12期

收稿日期:2022-03-21;修回日期:2022-06-06" 基金項目:國家自然科學基金資助項目(61973219)

作者簡介:尚朝輝(1998-),男,河南三門峽人,碩士研究生,主要研究方向為視覺SLAM、計算機視覺;丁德銳(1981-),男(通信作者),安徽合肥人,教授,博導,博士,主要研究方向為視覺SLAM、智能算法、圖像處理(deruiding2010@usst.edu.cn);魏國亮(1973-),男,河南新鄉人,教授,博導,博士,主要研究方向為非線性系統優化、機器視覺、隨機系統;蔡潔(1996-),女,江蘇徐州人,博士研究生,主要研究方向為視覺SLAM.

摘 要:回環檢測對于視覺同步定位和建圖(visual simultaneous localization and mapping,VSLAM)系統減小累計誤差和重定位具有重要意義。為縮短回環檢測在線運行時間,同時滿足準確率召回率需求,提出了一種基于寬度自編碼器的快速回環檢測算法(fast loop closure detection-broad autoencoder,FLCD-BA)。該檢測算法改進了寬度學習網絡,通過無監督的方式從輸入數據中自主學習數據特征,進而運用于回環檢測任務。與傳統的深度學習方法不同,該網絡使用偽逆的嶺回歸算法求解權重矩陣,通過增量學習的方法實現網絡的快速重構,從而避免了整個網絡的重復訓練。所提算法在三個公開數據集上進行了實驗,無須使用GPU設備,且網絡的訓練時間相比詞袋模型以及深度學習的方法有較大縮短。實驗結果表明該算法在檢測回環時具有較高的準確率和召回率,測試中每幀的平均運行時間僅需21 ms,為視覺SLAM系統的回環檢測提供了一種新算法。

關鍵詞:視覺同步定位和建圖;回環檢測;寬度學習;自編碼器

中圖分類號:TP242"" 文獻標志碼:A

文章編號:1001-3695(2022)12-049-3825-05

doi:10.19734/j.issn.1001-3695.2022.03.0179

Fast loop closure detection method for VSLAM based on broad autoencoder

Shang Chaohuia,Ding Deruia,Wei Guoliangb,Cai Jiec

(a.School of Optical-Electrical amp; Computer Engineering,b.Business School,c.College of Science,University of Shanghai for Science amp; Technology,Shanghai 200093,China)

Abstract:Loop closure detection is important for VSLAM systems to reduce cumulative errors and perform re-localization.In order to shorten the loop closure detection online runtime while meeting the accuracy recall rate requirement,the paper proposed a fast loop closure detection algorithm using broad autoencoder (FLCD-BA).The algorithm improved broad learning architecture to learn feature representations autonomously from the input data in an unsupervised manner,and then accomplished loop closure detection tasks.Differing from the traditional deep learning methods,the network used a pseudo-inverse ridge regression algorithm to solve the weight matrix and achieved fast reconfiguration of the network by incremental learning without retraining the entire network.The proposed algorithm experimented on three public datasets without using GPU devices,and the training time of the network greatly reduced compared to bag-of-words models as well as deep learning methods.The experimental results show that the algorithm has high accuracy and recall in detecting loop closure,and the average running time per frame in the test is only 21 ms,which provides a new algorithm for loop closure detection in visual SLAM systems.

Key words:VSLAM;loop closure detection;broad learning;autoencoder

0 引言

隨著圖像處理技術的進步和相機設備的快速發展,視覺同步定位和建圖(VSLAM)技術受到了眾多科研工作者和企業的關注。受益于相機設備的廉價和便攜性,VSLAM技術在增強現實(augmented reality,AR)、虛擬現實(virtual reality,VR)、工業機器人、無人駕駛[1,2]等領域具有廣泛的應用前景。在經典VSLAM框架中,回環檢測的作用是判斷機器人是否經過同一地點,減小系統由于長時間運行產生的累積誤差,快速的回環檢測有助于系統高效完成重定位,而重定位的實時性對于SLAM系統更新實時位姿十分重要 [3]。因此,回環檢測對于VSLAM系統意義重大。如果不考慮機器人的位姿信息,只依據相機傳感器得到的圖像信息時,回環檢測就退化為圖像檢索問題。這種基于圖像外觀的回環檢測可以分為以下三種[4]:

a)基于詞袋模型的方法,例如Cummins等人[5]提出的FAB-MAP算法,采用Chow Liu樹代替樸素貝葉斯來近似視覺詞匯之間的關系,通過計算概率得到可靠的回環。DBoW2[6]建立了一個離散二進制描述子空間的詞典樹,使用二值詞袋向量描述一張圖像,并通過樹結構加速幾何驗證,在保證了較高召回率的同時縮短了執行時間,并在多個SLAM系統[7,8]中得到了應用。

b)基于局部特征的方法,Lowe[9]提出尺度不變特征變換(scale invariant feature transform,SIFT)局部特征,具備較好的尺度和光照不變性。

c)基于全局描述子的方法,一種廣泛使用的全局描述子是Gist[10],使用Gabor濾波器在不同方向和頻率上提取信息生成圖像的全局描述,但其計算速度難以達到實時性的要求。另外還有基于組合特征的方法,如文獻[11,12]提出的局部特征聚合描述向量(vector of locally aggregated descriptors,VLAD);基于深度學習的方法同樣也被用于提取特征,文獻[13]使用AlexNet中不同層的特征作為全局描述子,實驗表明網絡的高層特征具有更好的視角魯棒性。

近年來,基于深度學習的回環檢測方法發展迅速,Chen等人[14]首先介紹了基于Overfeat網絡生成的特征作為全局描述子的概念,其性能優于當時最先進的地點識別系統,然而,由于得到的網絡描述子太大而無法實現實時閉環。文獻[15]利用ConvNet特征匹配路標點對應的子區域,提高了全局圖像描述子的性能,同樣地,這種方法無法實時運行。NetVLAD[16]是一個依賴于谷歌街景地圖的地理標簽來訓練圖像的架構,可以得到更加緊湊的全局描述。文獻[17]將卷積神經網絡和NetVLAD架構相結合,開發了一種新的回環檢測方法,但提取圖像描述子十分耗時。文獻[18]使用在Places365數據集[19]上訓練的VGG16卷積網絡作為回環檢測中的特征提取器。然而,這些方法都依賴于監督學習,需要大量的標記圖像。文獻[20]引入了一種堆疊去噪自編碼器架構,該方法效果優于FAB-MAP2.0[21],但訓練和提取特征速度依然較慢。文獻[22]提出CALC(convolutional autoencoder for loop closure)方法,建立了一個輕量無監督自編碼器結構,對圖像的HOG(histogram of oriented gradient)[23]特征進行重構,對視角和光照均有較強的魯棒性,但必須借助GPU設備才能實時運行。

相比于傳統人工設計的描述子,基于深度學習的方法可以得到更多樣魯棒的圖像特征,但巨量的網絡參數求解十分復雜,需要大量的數據在GPU設備上進行訓練以及多次迭代尋優,這個過程將耗費大量的時間。文獻[24]提出的寬度學習方法可以在不使用GPU設備的情況下,快速完成網絡的訓練和圖像分類任務。文獻[25]在此基礎上添加新的隱藏層,實驗證明可以提取到更高深層的特征。文獻[26]將傳統的寬度學習結構改進為自編碼器進行特征提取,并應用于人臉圖像分類。本文方法在傳統的寬度學習網絡中加入具有降維作用的特征提取層,并將結構改進為自動編碼器,以無監督的形式進行訓練,提出了基于寬度自編碼器的回環檢測算法(fast loop closure detection-broad autoencoder,FLCD-BA)。與傳統的卷積網絡相比,寬度自編碼器無須多次迭代求解,可以在CPU上短時間內完成訓練,FLCD-BA以寬度自編碼器的中間層作為輸出,提取的全局特征在進行回環檢測時具有較高的準確率和召回率,其運行速度滿足回環檢測實時性的要求。

1 FLCD-BA算法概述

FLCD-BA算法的主要流程可分為三部分,如圖1所示。首先對輸入圖像進行預處理,然后通過訓練完成的寬度自編碼器提取全局圖像特征,將特征向量在線添加至回環數據庫,最后通過計算余弦距離得到回環候選幀,根據時間一致性約束來驗證回環候選幀。與傳統的深度學習方法不同,該網絡使用偽逆的嶺回歸算法求解權重矩陣,通過增量學習的方法實現網絡的快速重構,從而減少整個網絡的重復訓練。

2 圖像特征提取

2.1 圖像幀預處理

當系統得到輸入圖像I時,首先需要對圖像進行預處理,以得到合適的寬度自編碼器輸入數據,其流程如圖2所示。首先通過雙三次插值方法將輸入圖像的尺寸放縮到固定大小,并將三通道圖像轉為單通道的灰度圖,隨后按照式(1)(2)將圖像像素進行歸一化和標準化。

I(x,y) = I(x,y)255(1)

I(x,y)=I(x,y)-μσ(2)

其中:x、y代表像素位置;μ代表圖像像素均值;σ代表圖像像素標準差。

2.2 寬度自編碼器網絡

與傳統的寬度網絡結構相比,本文主要作出如下改進:a)設計了一個新的隱藏層將映射特征和增強節點進行降維,用于提取更加緊湊的特征;b)結合自動編碼器的思想,以無監督的方式進行學習,構建寬度自編碼網絡。如圖3所示,改進的寬度自編碼器結構共有四層組成。為了進行無監督學習,假設輸入層和恢復層的數據均為經過預處理后的數據集X,映射特征如式(3)所示。

Zi=φ(XWei+βei) i=1,…,n(3)

其中:X∈Euclid Math TwoRApa×b,a代表圖像樣本數,b表示每個圖片樣本的維度;Wei是隨機矩陣,矩陣元素取值在[-1,1]內;βei代表偏置項;φ為激活函數。為克服式(3)求解特征的隨機性,使用稀疏自編碼器求解圖像特征,可以表示為

J(W1)=arg minW1‖ZW1-X‖22+λ‖W1‖1(4)

其中:W1是稀疏自編碼器要求解的權重矩陣;Z為自編碼器期望得到的稀疏特征。通常,式(4)可采用交替方向乘子法(ADMM)[24]進行迭代優化求解W1,即可得到映射特征集合Zn≡[Z1,…,Zn],則第m組增強節點Hm可通過非線性映射表示:

Hm=ξ(ZnWhm+βhm)(5)

其中:Whm是隨機生成的正交矩陣;βhm為偏置項;ξ為非線性激活函數。因此由寬度節點層得到輸出層的信息可以表示為

Op=

ε([Z1,…,Zn|ξ(ZnWh1+βh1),…,ξ(ZnWhm+βhm)]Wg+βg)=ε([Z1,…,Zn|H1,…,Hm]Wg+βg)=

ε([Zn|Hm]Wg+βg)(6)

式(6)是由寬度節點層得到輸出層的信息,權重Wg依然是隨機生成的正交矩陣,βg為偏置項,ε表示非線性激活函數。新加入的輸出層不僅可以改善網絡性能,而且可以有效避免傳統寬度學習方法帶來的隱藏層特征維度過高等問題[27],進而能夠有效地對特征降維,提高特征匹配的效率。

最后,本文算法將通過恢復層的信息計算權重矩陣Wf,可以表示為

Wf=O+pX(7)

其中:O+p代表輸出層節點Op的偽逆,可由嶺回歸方法[24]計算

O+p=limλ→0(λI+OpOTp)-1OTp(8)

其中:I代表單位矩陣;λ是嶺回歸的正則化系數。將式(6)~(8)聯立即可求得Wf。

Wf=limλ→0(λI+(ε([Zn|Hm]Wg+βg))

(ε([Zn|Hm]Wg+βg))T)-1·

(ε([Zn|Hm]Wg+βg))T(9)

本文設計的寬度自編碼器結構在進行網絡訓練時,僅需要學習權重矩陣Wf,利用嶺回歸方法能夠快速計算偽逆,無須像傳統的神經網絡進行反向傳播和迭代優化網絡誤差,極大縮短了訓練時間,并且不存在梯度消失或爆炸的問題。

2.3 增量學習

寬度學習網絡的一大優勢是可以進行增量學習,從而實現網絡的快速重構[27]。傳統的寬度學習網絡通過增量學習實現映射特征和增強節點的增量,以提取到更寬的特征,FLCD-BA的結構則是在輸出層進行增量學習,通過改變輸出的圖像描述子維度改善網絡特征提取能力。

圖3中向輸出層增加節點數的部分展示了本文算法中增量學習的作用,使用分塊矩陣求解偽逆可以避免重新使用嶺回歸進行偽逆計算,因此增量學習所耗費的時間極短。在基礎的網絡訓練完成后,由式(6)可知

Op=ε([Zn|Hm]Wg+βg)(10)

Op+k=[Op|ε([Zn|Hm]Wg+k+βg+k)](11)

其中:Op+k代表增加節點后的輸出層節點,由初始的輸出節點Op和新生成的增量節點構成;ε([Zn|Hm]Wg+k+βg+k)即代表隨機生成的增量節點,按照式(12)更新偽逆矩陣。

(Op+k)+=(Op)+-DBT

BT(12)

這里D=(Op)+ε([Zn|Hm]Wg+k+βg+k),

BT=(C)+if C≠0

(1+DTD)-1DT(OP)+if C=0(13)

其中:C=ε([Zn|Hm]Wg+k+βg+k)-OpD,新的權重矩陣為

Wf+k=Wf-DBTXBTX(14)

根據式(14)即可快速進行權重矩陣的更新,當更改網絡結構時,不需要重新對網絡進行訓練,分塊矩陣求解偽逆的計算量也遠小于嶺回歸的求解方式。在更新權重矩陣后,即可計算增量學習下的圖像特征描述子。

2.4 特征提取與相似度計算

當自編碼網絡訓練完成后,便可以通過訓練得到的權重快速求解圖像的特征描述子。假設輸入圖像I,首先將按照圖2所示流程進行預處理,并將像素矩陣轉換為向量,即I(1,x×y),則特征描述子D可以表示為

D=IWf(15)

顯然特征D的維度與輸出層的節點數相同,假設寬度節點層的映射節點數為M,增強節點數為E,則輸出層節點數O可以表示為

O=α(M+E)(16)

閾值α取值在(0,1],當α=1時,代表輸出層與寬度節點層的節點數相同,αlt;1時具有降低特征維度的作用,得到相比傳統的寬度學習網絡更加高層抽象的特征。

假設圖像1特征描述子D1,圖像2特征描述子D2,本文使用余弦距離計算特征相似度,即

score=D1·D2‖D1‖‖D2‖=∑Oi=1Di1×Di2∑Oi=1(Di1)2×∑Oi=1(Di2)2(17)

余弦相似度的取值為[-1,1],評分越高代表圖像越相似。當圖像描述子之間的相似度評分大于閾值時,就認為有可能是回環圖像。

3 在線檢索與驗證

3.1 檢索閾值約束

當在線運行回環檢測系統時,輸入的圖像具有一定的時間順序,因此添加進入數據庫的圖像特征以及索引信息也具有對應的時間順序。當系統的運行時間較短時,SLAM系統需要一定時間進行初始化,另外數據庫圖像數量也較少,并不需要執行回環檢測,認為只有當數據庫大小大于閾值χ時,系統才進行相似度計算以及驗證。

由于時間上鄰近的圖像勢必具有相似性,但這些圖像對VSLAM系統減小累計誤差或進行重定位并無幫助,通常不認為這些圖像是回環圖像。因此,本文引入閾值T,在進行回環檢測時,距離當前圖像T個索引之內的數據庫信息不進行檢索,以確保不會匹配到鄰近圖像。

3.2 時間一致性約束驗證

僅僅通過相似度閾值計算后的回環候選集中可能存在誤匹配,為剔除錯誤匹配,本文通過時間一致性驗證的方法進行回環驗證。

通常認為場景之間的回環關系并不是單張圖像之間的關系,當回環發生時,其相鄰圖像也應該滿足約束,其評分應當大于對應的相似度閾值。即當圖像Ic與It是回環時,Ic-1,Ic-2,…,Ic-k和It-1,It-2,…,It-k也應該是回環,k是設定的應該是回環的連續圖像數,在本文后續實驗中取k=3。

4 實驗結果與分析

為評估FLCD-BA算法的性能,本章介紹了實驗環境和評價指標,通過實驗說明了算法關鍵參數的選取,并和四種回環檢測算法進行了對比,分別是DBoW2、VGG-NetVLAD、VGG16-Places365以及CALC方法,最后展示了增量學習對描述子特征提取的改進作用。

4.1 實驗環境和評價指標說明

本文所有實驗均在同一臺計算機上進行,主要配置包括:CPU為Intel i7-11800H處理器,主頻2.3 GHz,內存16 GB,VGG-Places365、VGG-NetVLAD和CALC方法使用Nvidia RTX3060-6G Laptop GPU進行加速,其余實驗均使用CPU進行計算。

實驗測試使用了city center[28]、Malaga07[29]和KITTI[30]三個公開的數據集,其中city center數據集是由牛津大學移動機器人團隊發布的用于視覺SLAM回環檢測的評估數據集,Malaga07是由Blanco等人收集的記錄城市道路場景的高精度數據集,KITTI是自動駕駛領域的常用數據集。其具體描述見表1,圖4顯示了三個數據集中的部分圖像。

本實驗將以運行時間作為效率評價的指標,使用回環檢測中常用的準確率(precision)和召回率(recall)評估各個算法的效果,計算公式如下:

precision=TPTP+FP

recall=TPTP+FN(18)

其中:TP代表真陽性閉環,即檢測結果中正確的閉環個數;FP代表假陽性閉環,是算法檢測錯誤的回環個數;FN代表假陰性閉環,表示沒有檢測出的閉環數目。通常用準確率召回率曲線(PR曲線)直觀地展示算法的效果。與其他分類算法不同,在回環檢測問題中更加關注具有100%準確率時的召回率。

4.2 實驗關鍵參數設置

FLCD-BA算法的映射特征節點維數、增強節點維數以及參數α共同影響網絡特征提取的效果。圖5給出了當映射特征節點數800,增強節點數為9 000時,在city center數據集上不同α值下,準確率100%時的最大召回率和訓練時間的變化曲線。正如圖中所示,當映射節點和增強節點維數固定時,α增大會導致要求解的偽逆矩陣維度越大,訓練所需時間就會越長,但α值太小將導致所得到的描述子維度太低,無法保留足夠的信息,造成回環檢測的召回率下降,因此,在之后的實驗中為平衡訓練時間和回環檢測效果,本文選定參數α=0.667。

圖6展示了在city center數據集上,不同映射節點和增強節點個數下的PR曲線,M代表映射節點維度,E代表增強節點數。可以看到,當節點數增多時,最大召回率有增大趨勢,但是節點維度太大將會降低網絡的效率,在后續的對比實驗中,映射節點數和增強節點數分別選擇900和10 000。根據4.3.2節中的平均運行時間,本文方法處理一張圖像的時間不會超過50 ms,通常認為系統啟動運行5 s內不會發生回環,對應數據庫中的描述子數量不會超過100,因此這里選取數據庫檢索閾值χ=100,T=80。

4.3 對比實驗

為驗證FLCD-BA算法的有效性,本節將在公開數據集上與四組方法對比,從準確率、召回率、訓練時間以及在線回環檢測的平均用時三個方面進行說明。

4.3.1 準確率召回率比較

如圖7所示,在city center數據集上,FLCD-BA算法僅落后于最新的VGG-NetVLAD和VGG16-Places365方法,而在Malaga數據集下具有最佳的表現。

4.3.2 時間性能評估

寬度自編碼器網絡結構簡單,訓練過程可以在CPU上快速實現。本文使用KITTI數據集中選擇的2萬張圖像作為訓練集對比訓練時間,并基于訓練結果,統計了在KITTI05序列上100%準確率時對應的最大召回率。對基于深度學習的VGG16-Places365方法,使用GPU訓練50個epoch,學習率設置為0.001,批處理的大小為8,DBoW2的詞典參數為k=10,l=6。如表2所示,FLCD-BA算法用時139 s,雖然精度相比深度學習方法有所下降,但訓練時間大幅降低,適合用于低算力場景。一方面低算力平臺無法實時運行大型網絡,另一方面小數據集情況下無法很好地完成深度學習的訓練任務,因此相比深度學習,本文方法能更好地適用于設備算力不足情況下的小數據集回環檢測任務。

表3展示了五種算法處理每張圖像的平均用時,CALC方法具有最短的特征提取和檢索驗證時間,但其需要依賴于GPU的高速并行計算;VGG-NetVLAD盡管其檢索驗證時間極短,但其特征提取的時間無法滿足實時性的要求;FLCD-BA雖然落后于CALC方法,但對設備的要求更低,僅需要CPU就可以實時運行,更適合用于對硬件體積有限制的場景。

4.4 增量學習效果

增量學習具有快速重構自編碼器,改善網絡特征提取能力的作用。本文以映射節點數700,增強節點數8 000,α=0.667為網絡的基礎參數,即輸出層的節點數為5 800,表4給出了每次增加不同節點數量時對訓練時間和召回率的影響,其中第一行代表基礎網絡的效果,第一列代表的是自編碼器輸出層的節點數量,并給出了精度100%時的最大召回率。從表4可以看出,增量學習的訓練時間遠快于基礎網絡訓練的時間,從而實現網絡的快速重構。

5 結束語

本文提出一種基于寬度自編碼器的快速回環檢測算法(FLCD-BA),寬度自編碼器網絡以無監督的方式快速完成訓練,通過增量學習算法實現網絡的快速重構,以簡單有效的方式提取圖像特征。本文算法在公開數據集上進行測試,與四種先進的回環檢測算法進行比較,具有較高的準確率和召回率,即使在CPU環境下也能保證實時性。接下來的工作重點是將本文算法移植到SLAM框架上進行測試。

參考文獻:

[1]陳常,朱華,由韶澤.基于視覺的同時定位與地圖構建的研究進展[J].計算機應用研究,2018,35(3):641-647.(Chen Chang,Zhu Hua,You Shaoze.Survey on vision-based simultaneous localization and mapping[J].Application Research of Computers,2018,35(3):641-647.)

[2]李少朋,張濤.深度學習在視覺SLAM中應用綜述[J].空間控制技術與應用,2019,45(2):1-10.(Li Shaopeng,Zhang Tao.A survey of deep learning application in visual SLAM[J].Aerospace Control and Application,2019,45(2):1-10.)

[3]劉強,段富海,桑勇,等.復雜環境下視覺SLAM閉環檢測方法綜述[J].機器人,2019,41(1):112-123,136.(Liu Qiang,Duan Fuhai,Sang Yong,et al.A survey of loop closure detection method of visual SLAM in complex environments[J].Robot,2019,41(1):112-123,136.)

[4]Garcia-Fidalgo E,Ortiz A.Methods for appearance-based loop closure detection:applications to topological mapping and image mosaicking[M].New York:Springer International Publishing,2018.

[5]Cummins M,Newman P.FAB-MAP:probabilistic localization and mapping in the space of appearance[J].International Journal of Robotics Research,2008,27(6):647-665.

[6]Gálvez-López D,Tardos J D.Bags of binary words for fast place recognition in image sequences [J].IEEE Trans on Robotics,2012,28(5):1188-1197.

[7]Qin Tong,Li Peiliang,Shen Shaojie.VINS-Mono:a robust and versatile monocular visual-inertial state estimator[J].IEEE Trans on Rob-otics,2018,34(4):1004-1020.

[8]Campos C,Elvira R,Rodríguez J J G,et al.ORB-SLAM3:an accurate open-source library for visual,visual-inertial,and multimap SLAM[J].IEEE Trans on Robotics,2021,37(6):1874-1890.

[9]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[10]Oliva A,Torralba A.Building the gist of a scene:the role of global image features in recognition[J].Progress in Brain Research,2006,155:23-36.

[11]Jégou H,Douze M,Schmid C,et al.Aggregating local descriptors into a compact image representation [C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2010:3304-3311.

[12]Jégou H,Perronnin F,Douze M,et al.Aggregating local image descriptors into compact codes[J].IEEE Tran on Pattern Analysis and Machine Intelligence,2011,34(9):1704-1716.

[13]Sünderhauf N,Shirazi S,Dayoub F,et al.On the performance of convnet features for place recognition[C]//Proc of IEEE/RSJ Internatio-nal Conference on Intelligent Robots and Systems.New York:IEEE Press,2015:4297-4304.

[14]Chen Zetao,Lam O,Jacobson A,et al.Convolutional neural network-based place recognition[EB/OL].(2014-11-06)[2022-04-04].https://arxiv.org/abs/1411.1509.

[15]Sünderhauf N,Shirazi S,Jacobson A,et al.Place recognition with convnet landmarks:viewpoint-robust,condition-robust,training-free[M]//Hsu D.Robotics:Science and Systems XI.2015:1-10.

[16]Arandjelovic R,Gronat P,Torii A,et al.NetVLAD:CNN architecture for weakly supervised place recognition[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.New York:IEEE Press,2016:5297-5307.

[17]李昂,阮曉鋼,黃靜,等.融合卷積神經網絡與VLAD的閉環檢測方法[J].計算機應用與軟件,2021,38(1):135-142.(Li Ang,Ruan Xiaogang,Huang Jing,et al.Loop closure detection algorithm based on convolutional neural network and VLAD[J].Computer Applications and Software,2021,38(1):135-142.)

[18]楊孟軍,蘇成悅,陳靜,等.基于卷積神經網絡的視覺閉環檢測研究[J].廣東工業大學學報,2018,35(5):31-37.(Yang Mengjun,Su Chengyue,Chen Jing,et al.Loop closure detection for visual SLAM using convolutional neural networks[J].Journal of Guangdong University of Technology,2018,35(5):31-37.)

[19]Zhou Bolei,Lapedriza A,Khosla A,et al.Places:a 10 million image database for scene recognition[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2017,40(6):1452-1464.

[20]Gao Xiang,Zhang Tao.Unsupervised learning to detect loops using deep neural networks for visual SLAM system[J].Autonomous Robots,2017,41(1):1-18.

[21]Cummins M,Newman P.Appearance-only SLAM at large scale with FAB-MAP 2.0[J].The International Journal of Robotics Research,2011,30(9):1100-1123.

[22]Merrill N,Huang Guoquan.Lightweight unsupervised deep loop closure[EB/OL].(2018-05-24).https://arxiv.org/abs/1805.07703.

[23]Dalal N,Triggs B.Histograms of oriented gradients for human detection [C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2005:886-893.

[24]Chen C L P,Liu Zhulin.Broad learning system:an effective and efficient incremental learning system without the need for deep architecture[J].IEEE Trans on Neural Networks and Learning Systems,2018,29(1):10-24.

[25]Zhou Qingmei,He Xiping.Broad learning model based on enhanced features learning[J].IEEE Access,2019,7:42536-42550.

[26]楊雷超.基于寬度學習網絡的人臉識別[D].秦皇島:燕山大學,2020.(Yang Leichao.Face recognition based on broad learning network[D].Qinhuangdao:Yanshan University,2020.)

[27]任長娥,袁超,孫彥麗,等.寬度學習系統研究進展[J].計算機應用研究,2021,38(8):2258-2267.(Ren Chang’e,Yuan Chao,Sun Yanli,et al.Research of broad learning system[J].Application Research of Computers,2021,38(8):2258-2267.)

[28]Paul R,Newman P.FAB-MAP 3D:topological mapping with spatial and visual appearance [C]//Proc of IEEE International Conference on Robotics and Automation.New York:IEEE Press,2010:2649-2656.

[29]Blanco J L,Moreno F A,Gonzalez J.A collection of outdoor robotic datasets with centimeter-accuracy ground truth[J].Autonomous Robots,2009,27(4):327-351.

[30]Geiger A,Lenz P,Urtasun R.Are we ready for autonomous driving? The KITTI vision benchmark suite[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2012:3354-3361.

主站蜘蛛池模板: 中日韩欧亚无码视频| 秋霞一区二区三区| 亚洲黄网视频| 亚洲欧美极品| 亚洲第一视频免费在线| 久久美女精品| 国产高清在线精品一区二区三区| 亚洲欧美不卡中文字幕| 国产精品色婷婷在线观看| 黄色网址免费在线| 亚洲色图欧美视频| 色妞www精品视频一级下载| 亚洲欧美成人综合| 色九九视频| 呦视频在线一区二区三区| 亚洲综合极品香蕉久久网| 亚洲欧美自拍一区| 99尹人香蕉国产免费天天拍| 精品久久高清| 999福利激情视频| 国产精品深爱在线| 五月天综合婷婷| 蜜臀AV在线播放| 亚洲中久无码永久在线观看软件 | 无码中文AⅤ在线观看| 2021精品国产自在现线看| 国产人成在线视频| 成人国产精品网站在线看| 91人人妻人人做人人爽男同| 无码aaa视频| 91久久国产热精品免费| av无码久久精品| 亚洲精品日产精品乱码不卡| 69国产精品视频免费| 日韩在线影院| 台湾AV国片精品女同性| 国产一级妓女av网站| 亚洲无码不卡网| 欧美性精品不卡在线观看| 日韩精品亚洲人旧成在线| 性视频久久| 亚洲精品少妇熟女| 欧美一级高清免费a| 亚洲中文字幕在线观看| 亚洲美女一区| 欧美色伊人| 无码精品国产dvd在线观看9久| 亚洲无码视频一区二区三区| 久一在线视频| 国产粉嫩粉嫩的18在线播放91| a毛片在线播放| 国产成人亚洲无码淙合青草| 久久特级毛片| 婷婷综合色| 中国国产A一级毛片| 青青青视频91在线 | 色亚洲成人| 国产成人久久777777| 亚洲日韩高清在线亚洲专区| 一本大道视频精品人妻| 亚洲福利视频一区二区| 天天综合色网| 欧美色视频日本| 黄色网页在线播放| 视频二区国产精品职场同事| 亚洲 成人国产| 在线精品亚洲国产| 亚洲91精品视频| 亚洲精品国产综合99| 国产激爽大片高清在线观看| 美女无遮挡免费网站| 亚洲午夜福利精品无码| 最新国产网站| 国产va欧美va在线观看| 日本亚洲成高清一区二区三区| 亚洲啪啪网| 国产在线精彩视频论坛| 成人午夜精品一级毛片| 久久99久久无码毛片一区二区| 91久久偷偷做嫩草影院电| 国产精品视频白浆免费视频| 内射人妻无码色AV天堂|