999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

大規(guī)模城市環(huán)境下視覺位置識別技術(shù)的研究

2021-08-12 08:33:02王紅君郝金龍岳有軍
計算機應(yīng)用與軟件 2021年8期

王紅君 郝金龍 趙 輝,2 岳有軍

1(天津市復(fù)雜系統(tǒng)控制理論及應(yīng)用重點實驗室 天津 300384)2(天津農(nóng)學(xué)院 天津 300384)

0 引 言

近年來,位置識別在機器視覺和機器人領(lǐng)域中得到了極大的關(guān)注。2014年以來,國際機器人與自動化會議(ICRA)和國際計算機視覺與模式識別會議(CVPR)中多次設(shè)置視覺位置識別相關(guān)研討會[1]。

位置識別可廣泛應(yīng)用于定位與地圖構(gòu)建(SLAM)、自動駕駛、機器人導(dǎo)航、增強現(xiàn)實和圖片地理定位等技術(shù)。比如,在SALM技術(shù)中,位置識別可以應(yīng)用于回環(huán)檢測環(huán)節(jié)?;丨h(huán)檢測是移動機器人抑制累計誤差的關(guān)鍵,通過識別對同一位置的重新訪問,機器人可以進(jìn)行姿態(tài)和全局地圖的優(yōu)化,提高系統(tǒng)的精度和穩(wěn)定性。

在大規(guī)模城市環(huán)境下,往往存在著光照變化(圖1)、攝像機拍攝角度變化(圖2)、移動物體(圖3)、建筑物和地表外觀改變(圖4)等。然而傳統(tǒng)圖像特征如SIFT、SURF、BRIEF、FAST和ORB已經(jīng)無法應(yīng)對這種環(huán)境條件的劇烈變化。

圖1 光照變化

圖2 攝像機拍攝角度變化

圖3 移動物體(人車等)

圖4 建筑物和地表外觀改變

近些年隨著卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,各種CNN如AlexNet[2]、VGG[3]、GoogLeNet[4]和ResNet[5]等越來越多地被用來進(jìn)行圖像特征提取。這些方法被廣泛應(yīng)用于物體檢測追蹤、場景識別、人體動作識別和語義識別等領(lǐng)域。同樣CNN也被應(yīng)用到視覺位置識別中,2016年CVPR上Arandjelovic等[6]提出了一種可進(jìn)行端到端訓(xùn)練的視覺位置識別網(wǎng)絡(luò)NetVLAD。NetVLAD嘗試解決了大規(guī)模視覺地點識別的問題,實驗表明,其在Pittsburgh和Tokyo 24/7數(shù)據(jù)集上,效果明顯優(yōu)于傳統(tǒng)的圖像表示算法,并且超越了當(dāng)時最先進(jìn)的圖像描述方法VLAD。

從FaceNet[7]與SENet[8]中得到啟發(fā)提出一種基于SENet改進(jìn)的ResNet[5]的視覺位置識別方法PlaceNet。通過引入注意力機制,使得ResNet擁有更高的精度。同時使用自建大規(guī)模數(shù)據(jù)集進(jìn)行訓(xùn)練使得網(wǎng)絡(luò)的魯棒性更強。

1 相關(guān)理論

1.1 深度殘差網(wǎng)絡(luò)

深度殘差網(wǎng)絡(luò)(Deep Residual Network,ResNet)由He等[5]提出,并在ImageNet比賽分類任務(wù)上獲得第一名。因為它結(jié)構(gòu)簡單但識別能力強,圖像檢測、分割和識別等領(lǐng)域的很多方法都是在ResNet50或者ResNet101的基礎(chǔ)上完成的。ResNet 由若干個基礎(chǔ)塊或瓶頸模型組成,其結(jié)構(gòu)如圖5所示。不同數(shù)量的基礎(chǔ)塊或瓶頸模型組成了不同深度的ResNet。本文使用101層的ResNet來對圖像進(jìn)行特征提取。

圖5 基礎(chǔ)塊與瓶頸模型的結(jié)構(gòu)圖

1.2 SENet

胡杰團(tuán)隊(WMW)在CVPR 2017上提出了壓縮激勵網(wǎng)絡(luò)(Squeeze-and-Excitation Networks,SENet),利用SENet,一舉取得最后一屆 ImageNet 2017 競賽 Image Classification 任務(wù)的冠軍,在ImageNet數(shù)據(jù)集上將top-5 error降低到2.251%,原先的最好成績是2.991%[8]。

圖6 SE block結(jié)構(gòu)圖

1.3 FaceNet

2015年Schroff等[7]提出了FaceNet,其使用深度卷積網(wǎng)絡(luò)進(jìn)行人臉識別,實現(xiàn)了人臉識別系統(tǒng)的端到端學(xué)習(xí)。先將人臉圖像通過卷積神經(jīng)網(wǎng)絡(luò)直接映射到特征空間,再通過三元組損失(Triplet Loss),使得相同身份的所有面部之間的歐氏平方距離變小,而來自不同身份的面部圖像之間的歐氏平方距離變大。這樣就可以通過人臉圖像映射后的特征向量間的歐氏平方距離來判斷是不是同一個人。圖7為FaceNet的基本結(jié)構(gòu)。

圖7 FaceNet的基本結(jié)構(gòu)

2 基于SENet改進(jìn)的ResNet

本文使用ResNet的瓶頸模型來搭建PlaceNet。SENet的核心操作是壓縮與激勵。為了將SENet嵌入ResNet中,使用全局平均池化來進(jìn)行壓縮操作,使用兩次全連接來進(jìn)行激勵操作。通過第一次全連接將通道數(shù)降到輸入的1/16,然后使用ReLU激活函數(shù)激活后進(jìn)行第二次全連接將輸出恢復(fù)到原來的通道數(shù),最后通過Sigmoid激活函數(shù)激活后經(jīng)過Scale操作加權(quán)到輸入的每一個通道上。改進(jìn)后的瓶頸模型結(jié)構(gòu)如圖8所示。

圖8 改進(jìn)后的瓶頸模型結(jié)構(gòu)

3 PlaceNet

與FaceNet類似,本文使用改進(jìn)后的ResNet101進(jìn)行視覺位置識別,實現(xiàn)了視覺位置識別的端到端學(xué)習(xí)。先通過改進(jìn)后的ResNet101將圖片映射到特征空間。再通過三元組損失使得不同地點特征向量間的標(biāo)準(zhǔn)歐氏距離變大,相同地點特征向量間的歐氏平方距離變小。這樣就可以用圖片特征向量間的歐氏平方距離來判斷圖片的相似度,進(jìn)而再判斷兩幅圖片的拍攝地是否相同。

PlaceNet的基本結(jié)構(gòu)如圖9所示,其中每一個Block的基本結(jié)構(gòu)相同,只是其瓶頸結(jié)構(gòu)重復(fù)次數(shù)和輸出通道數(shù)不同。Block1到Block4的瓶頸結(jié)構(gòu)重復(fù)次數(shù)分別是3、4、23和3,而輸出通道數(shù)分別為256、512、1 024和2 048。

圖9 PlaceNet的基本結(jié)構(gòu)

整個視覺位置識別系統(tǒng)的結(jié)構(gòu)如圖10所示。通過PlaceNet對所有的數(shù)據(jù)庫圖片進(jìn)行映射得到它們的特征向量,然后建立KD樹。同樣得到待查詢圖片的特征向量之后使用最鄰近匹配獲得最相似的匹配項,如果它們的特征向量間距小于閾值即匹配成功,反之則不成功。

圖10 整個系統(tǒng)的結(jié)構(gòu)

4 PlaceNet的訓(xùn)練

4.1 數(shù)據(jù)集

有關(guān)視覺位置識別的數(shù)據(jù)集并不多,其中一部分包含可訓(xùn)練圖片較少,還有一部分私有不可獲取。所以,本文選擇自建數(shù)據(jù)集。從谷歌街景中使用Python爬蟲在世界范圍爬取了紐約、東京、吉隆坡三個城市100萬幅街景圖片。將同一地點按偏航角(Yaw)從0°到360°每隔5°爬取72組街景圖片。東京數(shù)據(jù)集中的部分圖片如圖11所示。

圖11 東京某地同Yaw角拍攝的3幅不同時間的圖片

在數(shù)據(jù)集中每幅圖片都包含GPS坐標(biāo)信息,把GPS坐標(biāo)距離小于等于10 m的圖片看作同一地點拍攝的圖片,大于10 m的為不同地方拍攝的圖片,這樣就可以選出可用于訓(xùn)練的圖片三元組。選取東京街景數(shù)據(jù)集中拍攝偏航角為0°、90°、180°和270°四組圖片共計62 450幅圖片當(dāng)作訓(xùn)練集。

4.2 損失函數(shù)

在PlaceNet的訓(xùn)練中選取損失函數(shù)的關(guān)鍵是要體現(xiàn)出圖片之間的差異,用來監(jiān)督訓(xùn)練,這種關(guān)聯(lián)變量因數(shù)據(jù)集的特征而定,在自建的東京街景數(shù)據(jù)集上使用GPS坐標(biāo)比較合適。使用Triplet損失函數(shù)[7]進(jìn)行PlaceNet的訓(xùn)練,Triplet損失函數(shù)為:

(1)

4.3 訓(xùn)練過程

在PlaceNet的訓(xùn)練中有一些重要參數(shù)需要根據(jù)數(shù)據(jù)集進(jìn)行針對設(shè)置。將訓(xùn)練迭代次數(shù)設(shè)置為30萬。采用指數(shù)衰減學(xué)習(xí)率,將初始學(xué)習(xí)率設(shè)置為2.0E-4,在迭代次數(shù)為13 000次時開始衰減。將輸出特征向量維度設(shè)置為256。訓(xùn)練時的損失與TOP3精度隨迭代次數(shù)變化的曲線如圖12和圖13所示。

圖12 損失與隨迭代次數(shù)變化曲線

圖13 TOP3精度與隨迭代次數(shù)變化曲線

5 實驗與分析

5.1 實驗平臺與測試集

驗證實驗在一臺圖像處理服務(wù)器上進(jìn)行,該服務(wù)器配備了64 GB的運行內(nèi)存、48個2.20 GHz 的英特爾至強CPU、2張12 GB顯存的GeForce GTX 1080Ti 顯卡。在該實驗平臺上搭建深度學(xué)習(xí)環(huán)境Anaconda3以及深度學(xué)習(xí)框架TensorFlow進(jìn)行實驗。

測試集選取公共數(shù)據(jù)集SL(St Lucia Multiple Time of Day)[9]和自建數(shù)據(jù)集KL(Kuala Lumpur)。SL數(shù)據(jù)集采集于澳大利亞昆士蘭州圣盧西亞郊區(qū)的一條道路,其查詢數(shù)據(jù)庫含有7 045幅車載攝像機拍攝的圖片,待匹配圖片集有6 709幅車載攝像機拍攝的圖片。KL數(shù)據(jù)集為在谷歌街景爬取馬來西亞吉隆坡的街景照片,其查詢數(shù)據(jù)庫含有9 574幅街景圖片,待匹配圖片集含有1 064幅街景圖片。

5.2 可行性驗證實驗

如果前N個檢索到的數(shù)據(jù)庫圖像中的至少一個與查詢圖像拍攝地的距離小于等于10 m,則認(rèn)為查詢圖像被準(zhǔn)確召回。然后針對不同的N值繪制準(zhǔn)確召回的比例曲線。在KL和SL測試集上進(jìn)行測試,得到兩個曲線如圖14和圖15所示。

圖14 本文方法在KL上準(zhǔn)確召回率隨N的變化曲線

圖15 本文方法在SL上準(zhǔn)確召回率隨N的變化曲線

可以看出在KL和SL測試集上相同的候選項個數(shù)N下,嵌入SENet的PlaceNet比未嵌入SENet的PlaceNet有著更高的準(zhǔn)確召回率。這說明了通過嵌入SENet把注意力機制引入的PlaceNet,提高了PlaceNet在視覺位置識別任務(wù)上的精度。

5.3 對比實驗

同樣在KL和SL測試集上進(jìn)行測試,測試結(jié)果如圖16和圖17所示。

圖16 不同方法在KL上準(zhǔn)確召回率隨N的變化曲線

圖17 不同方法在SL上準(zhǔn)確召回率隨N的變化曲線

從圖16可以看出在KL測試集上使用TokyoTM、pitts30k訓(xùn)練集的NetVLAD的準(zhǔn)確召回率十分相近,在N=1到N=11時低于使用KL訓(xùn)練集的NetVLAD的召回精度。而嵌入SENet的PlaceNet準(zhǔn)確召回率一直最高,在N=1時更是高出0.36。從圖17可以看出在SL測試集上使用TokyoTM、pitts30k訓(xùn)練集的NetVLAD的準(zhǔn)確召回率,前者比后者多約0.05,同時都低于使用KL訓(xùn)練集的NetVLAD的召回精度。而嵌入SENet的PlaceNet召回精度一直最高,且比使用TokyoTM、pitts30k訓(xùn)練集的NetVLAD的召回精度高出0.4。

從結(jié)果上來看在不同測試集上PlaceNet都比NetVLAD擁有更高的召回精度。在自建數(shù)據(jù)集KL上訓(xùn)練得到的NetVLAD模型的召回精度比NetVLAD在原有數(shù)據(jù)集訓(xùn)練得到模型的召回精度高,說明本文數(shù)據(jù)集更適用于視覺地點識別任務(wù)的訓(xùn)練。同時PlaceNet匹配一幅圖片平均耗時1.9 ms而NetVLAD則需要300 ms,表明PlaceNet匹配效率更高。

6 結(jié) 語

在大規(guī)模城市環(huán)境下,為提高視覺位置識別的精度,本文提出一種新的視覺位置識別網(wǎng)絡(luò)PlaceNet。實驗表明,大規(guī)模城市環(huán)境下PlaceNet在面對光照變化、攝像機拍攝角度變化、存在移動物體、建筑物和地表外觀改變時,仍然可以準(zhǔn)確地進(jìn)行視覺位置識別;在同樣的大規(guī)模城市環(huán)境下,PlaceNet比NetVLAD擁有更高的精度和匹配效率。

主站蜘蛛池模板: 久久婷婷色综合老司机| 波多野结衣无码AV在线| 香蕉久久国产精品免| 亚洲欧美在线综合一区二区三区| 91网红精品在线观看| 国产精品免费久久久久影院无码| 中文字幕av无码不卡免费| 日韩成人在线视频| 一边摸一边做爽的视频17国产 | 欧洲极品无码一区二区三区| 久久婷婷综合色一区二区| 国产高清国内精品福利| 午夜电影在线观看国产1区| 91精品专区国产盗摄| 欧美亚洲欧美| 亚洲一级毛片免费看| 亚洲精品视频免费看| 国产精品浪潮Av| 久久鸭综合久久国产| 亚洲欧美一区二区三区蜜芽| 综合色亚洲| 国产成人综合久久精品下载| 中文国产成人精品久久一| 国产成人综合久久精品下载| 欧美性久久久久| 国产青青操| 亚洲精品第五页| 国产视频大全| 久久性妇女精品免费| www.精品国产| 国产网站免费观看| 999国产精品| 欧美一区二区三区国产精品| 亚洲精品午夜天堂网页| 久久国产精品影院| 伊人久久大香线蕉aⅴ色| 免费在线看黄网址| 日本AⅤ精品一区二区三区日| 青青草一区| av尤物免费在线观看| 国产超薄肉色丝袜网站| 欧美性猛交一区二区三区| 亚洲婷婷在线视频| 园内精品自拍视频在线播放| 久久香蕉国产线看精品| 亚洲欧洲日韩久久狠狠爱| 亚洲精选无码久久久| 国产午夜一级毛片| 国产一级在线播放| 日本一区高清| 亚洲AV电影不卡在线观看| 久久久久久高潮白浆| 日本午夜视频在线观看| 少妇被粗大的猛烈进出免费视频| 亚洲区欧美区| 麻豆精品视频在线原创| 久草网视频在线| 99精品免费在线| 91小视频版在线观看www| 色婷婷在线播放| 亚洲国产亚综合在线区| 色婷婷色丁香| 欧美亚洲网| 91精品视频播放| 国产H片无码不卡在线视频| 久久频这里精品99香蕉久网址| 日韩精品成人在线| 欧美人与性动交a欧美精品| 国产亚洲第一页| 久久久久亚洲Av片无码观看| 青青国产视频| 波多野结衣一区二区三区AV| 一级香蕉人体视频| 华人在线亚洲欧美精品| 欧美性爱精品一区二区三区| 伊人国产无码高清视频| 国产成年女人特黄特色毛片免 | 国产丝袜91| 国产一二三区视频| 日韩美女福利视频| 日本一区高清| 五月丁香伊人啪啪手机免费观看|