999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于目標檢測和PnP的移動終端室內定位方法

2019-12-03 01:45:06劉振耀李瑞東潘軍道
測繪通報 2019年11期
關鍵詞:檢測信息

劉振耀,李瑞東,潘軍道

(中國科學院空天信息研究院,北京100094)

導航定位是基于位置服務研究的熱點,當前室外GNSS定位已經足以提供成熟的定位服務,但室內定位技術仍處于起步階段,尚沒有一種技術占據絕對的優勢[1]。根據應用需求的不同,室內定位技術分為消費級和工業級兩種[2]。消費級的定位精度要求在1~3 m,要求與移動智能終端兼容;工業級的定位精度要求在厘米到分米級,一般不考慮與現有的智能終端兼容。室內定位技術種類眾多,主要包括基于無線信號的定位、慣性導航和基于視覺的定位等?;跓o線信號的定位包括UWB定位、RFID定位、偽衛星定位、地磁定位、WiFi指紋等[3]。基于無線信號的定位方式容易受到復雜室內環境的干擾和非視距誤差的影響等,穩定性能差,而且往往需要架設基站或建立指紋數據庫,限制了應用場景。慣性導航[4]通過內置傳感器可以實現自主導航,但限制了移動終端的行動,且低成本的MEMS用于獨立的導航漂移誤差太大,一般不用于單獨的移動終端的定位導航。

基于視覺的定位方法定位精度高,能夠提供豐富的場景信息,避免了無線信號受非視距誤差的影響,且能夠與移動智能終端更好地兼容,成為眾多室內定位方式中消費級應用較為新穎的模式之一。深度學習算法是當前計算機視覺領域主流的目標檢測算法,它依賴多層神經網絡學習圖像的層次化特征表示,與傳統檢測方法相比,可以實現更高的準確率[5]。傳統的基于目標檢測的室內定位是將目標的位置信息作為拍攝者的位置,本質上屬于鄰近定位的一種,存在較大的位置誤差。因此本文提出一種基于目標檢測和PnP(perspective-n-point)相結合的移動終端室內定位方法,通過Mask-RCNN網絡實現目標檢測,然后采用PnP算法求取相機準確的位姿信息,最后給出基于以上原理的定位系統設計和實現方案。

1 基于Mask-RCNN網絡的目標檢測

目標檢測是計算機視覺中常見的問題之一,近年來隨著人工智能和深度學習的興起,基于深度學習的目標檢測方法在識別準確率、速度、性能等方面都有了極大的改善[6],而這些突破性進展背后的主要技術支持正是深度學習中的卷積神經網絡。卷積神經網絡,主要包括輸入層、卷積層、池化層、全連接層和Softmax層5個部分[7]。一些經典的卷積神經網絡架構可以用公式表示為

輸入層→(卷積層+→池化層?)+→全連接層+

式中,“卷積層+”表示一層或多層卷積層;“池化層?”表示沒有或有一層池化層。卷積層和池化層的組合也可以是一個或多個,在多輪卷積層和池化層之后,卷積神經網絡可以跟隨一層或多層全連接層,最后通過Softmax層輸出目標識別結果概率分布。

在CVPR 2014年中文獻[8]提出了R-CNN,使用了卷積神經網絡進行特征提取,并使用邊框回歸進行目標包圍框的修正。R-CNN顛覆了以往的目標檢測方案,精度大大提升;但訓練煩瑣,對時間和內存的消耗很大。

文獻[9]于2015年提出Fast R-CNN,對R-CNN進行了改進,取代R-CNN的串行特征提取方式,直接采用一個神經網絡對全圖提取特征,除了選擇性搜索(selective search),其他部分都可以合在一起訓練,但耗時的selective search依舊存在。

Faster R-CNN[10]繼承于Fast R-CNN,通過引入區域建議網絡Region Proposal Network(RPN)取代selective search,提高了區域提取的精度及網絡訓練速度,是當時應用較廣的檢測框架。

Mask-RCNN[11]是基于Faster-RCNN架構擴展出的卷積網絡,該網絡結構較容易實現和訓練,可以很方便地應用于目標檢測和分割中,彰顯了機器學習計算機視覺領域在2017年的最新成果。Mask-RCNN不僅保留了Faster-RCNN從端到端的網絡結構優勢,而且在每個興趣點ROI上加一個用于預測分割掩碼的分層,稱為掩碼層(mask branch),并改良了ROI Pooling,提出了ROI Align,使該層并行于已有邊界層和分類層,提高了檢測精度[12-13]。Mask-RCNN訓練簡單,只需要在Faster-RCNN的基礎上增加一個較小的開銷,運行速度可達5FPS,網絡框架結構如圖1所示。

2 EPnP算法

PnP求解算法是指通過多對3D與2D匹配點,在已知或未知相機內參的情況下求解相機外參的算法。PnP問題有很多求解的方法,如P3P、直接線性變換(DTL)、EPnP、UPnP等, 以及構建最小二乘問題并迭代求解[5]。EPnP需要4對不共面的3D與2D匹配點,是目前較好的PnP求解方法。本文采用EPnP[14]算法進行試驗。

參考點與控制點在世界坐標系下的關系為

(1)

式中,αij為齊次重心坐標。由線性關系在歐氏變化下的不變形可得

(2)

設K為相機的內參矩陣,可以通過標定獲得。設{μi}i=1,2,…,n為參考點{pi}i=1,2,…,n的像素坐標,則

(3)

(4)

因此可得

(5)

(6)

MX=0

(7)

式中,X的解為矩陣M的核空間,即

(8)

式中,Vi為MTM對應零特征值的特征向量;N為MTM核空間的維數;βi為待定系數。對于透視投影模型,N=1,求得其零空間特征向量,可以得到虛擬控制點的相機平面坐標

X=βV

(9)

(10)

其中控制點之間的距離關系可表示為

(11)

(12)

求解得到4個虛擬控制點在相機參考坐標下的坐標,計算3D參考點在相機參考坐標系下的坐標,然后使用迭代最近點(iterative closest point,ICP)算法即可求出相機位姿。

3 基于目標檢測和PnP結合的移動終端室內定位方法

本文提出的室內定位方法分為前期目標數據庫的構建和后期目標檢測及終端定位兩個階段。前期通過采集含有各種目標的視頻或圖像信息得到滿足要求的神經網絡參數模型,同時采集含有目標圖像的RGBD信息,用于后期的PnP算法。后期借助前期得到的參數模型對待定位圖像進行目標檢測,如果確認圖像含有某個目標信息,則通過調用該目標的RGBD信息,利用PnP算法得到待求圖像的準確的位姿信息,如圖2所示。

前期目標數據庫的構建階段主要包括以下幾個步驟:

(1) 建立統一的室內坐標系統,測量得出目標的位置及深度相機拍攝點位置。

(2) 利用已知位姿的深度相機采集含有目標圖像的RGBD信息并保存,用于后期的PnP的算法;深度相機位置信息通過步驟(1)得出,姿態信息可以通過慣導模塊求解。

(3) 采集場景中可識別目標的圖像信息。

(4) 用深度學習框架對采集得到的圖像信息進行訓練并得到滿足要求的參數模型。

后期目標檢測及終端定位階段主要包括以下幾個步驟:

(1) 輸入待定位的圖像。

(2) 用深度學習框架借助之前得到的參數模型對輸入的圖像進行目標檢測,得到檢測結果。

(3) 如果含有目標信息,則通過調用該目標的RGBD信息,利用PnP算法得到待求圖像的準確的位姿信息;如包含多個目標,則取各目標計算出的位置均值為終端的位置。

(4) 將圖像的位置信息在底圖上渲染后返回或根據起點/終點信息進行路徑規劃,并將路徑規劃結果在底圖上渲染后返回。

4 試驗與結果分析

4.1 目標檢測試驗

本目標檢測試驗的數據集利用自采的新技術基地圖片。數據集共有4類目標,訓練圖片1095張,測試圖像50張;訓練使用的GPU型號為Nvidia 1080Ti,顯存11 GB,訓練160輪次。目標檢測結果如圖3所示。

準確率是對目標檢測結果的總體評價,等于被正確檢測的目標個數與測試圖像總數的比值,準確率越高說明算法檢測效果越好。設準確率為P,則計算公式為

(13)

式中,Ni為目標檢測正確的圖像個數;N為圖像總數。

結果分析:測試圖像50張共包含測試樣本數62個,準確識別出的測試樣本數為61個,檢測準確率為98.3%。

基于以上原理在安卓和IOS開發了源起導航APP,目前主要基于新技術基地綜合樓進行室內定位,功能和場景較為單一,后續需要在此基礎上進行完善,同時研究如何減少數據采集的工作量。如圖4所示。

4.2 PnP定位試驗

4.2.1 數據1

數據1為基于TUM rgbd_dataset_freiburg1_xyz數據集圖片數據。TUM是機器視覺和SLAM經典的數據集,自帶ground-truth軌跡,可以進行誤差比對。本文試驗截取4張含有相同目標(電腦)照片的RGBD信息,以及其已知真實位姿。在該方法中,姿態信息可以求出,但對基于移動終端的室內定位來說,姿態并不是重要的信息。本文試驗重點關注位置信息,姿態信息的相關數據及比對不包含在試驗內。如圖5所示。

真實的位置信息及以第1張為基準的位置差見表1。

表1 真實的位置信息及以第1張為基準的位置差

以各單張圖片的位姿作為轉化參數,通過PnP算法計算出其他各張圖片在世界坐標系下的位置及位置誤差的結果,見表2—表5。

表2 以1.png位姿為轉化參數的PnP算法結算結果

表3 以2.png位姿為轉化參數的PnP算法結算結果

表4 以3.png位姿為轉化參數的PnP算法結算結果

表5 以4.png位姿為轉化參數的PnP算法結算結果

結果分析:將測量值與真實值在3個軸方向進行比較可知,X軸最大誤差為0.30 m,Y軸最大誤差為0.05 m,Z軸最大誤差為0.02 m內,滿足移動終端室內定位的需求。

4.2.2 數據2

數據2為真實場景試驗。在中科院新技術基地綜合樓四樓實驗室采集了一組數據進行真實場景試驗,采用的設備為Kinect2深度相機,基于SDK編寫同時采集配準的彩色圖和深度圖信息。

采集的試驗數據如圖6所示。R_1.png、R_2.png和R_3.png采集電腦周圍局部的RGBD信息。為簡化試驗,以拍攝R_1.png時相機坐標系作為世界坐標系。結果見表6、表7。

相片xyzR_1.png000R_2.png-0.50-0.65R_3.png00-0.65

表7 PnP算法結算出的結果

由表可知,通過PnP算法求解出的位置與真實位置單軸最大差值在0.35 m以內,綜合考慮試驗過程中基準位置誤差、深度信息采集誤差等,對于手持式移動終端來說,該結果滿足室內定位1~3 m的要求。

5 結 語

本文提出了一種基于目標檢測和PnP相結合的移動終端室內定位方法,對于消費級的移動終端是一種簡單有效的室內定位手段。但本文試驗較為簡單,PnP解算中相片采用同一個設備,且Kinect相機經過嚴格的標定。后續將針對智能終端設備進行試驗,同時考慮將該方案在終端APP中進行實現。

猜你喜歡
檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 1769国产精品视频免费观看| 久久久久久高潮白浆| 真实国产精品vr专区| 中文毛片无遮挡播放免费| 91九色最新地址| 国产真实二区一区在线亚洲| 欧洲亚洲欧美国产日本高清| 视频二区亚洲精品| 欧美激情视频一区| 野花国产精品入口| 国产欧美日韩综合在线第一| 国产剧情一区二区| 国产日本欧美亚洲精品视| 亚洲人成日本在线观看| 亚洲国产精品久久久久秋霞影院| 亚洲最大福利视频网| 精品黑人一区二区三区| 成年午夜精品久久精品| 色哟哟国产精品一区二区| 四虎永久免费网站| 国产精品熟女亚洲AV麻豆| 国产小视频a在线观看| 国产欧美日韩va另类在线播放| m男亚洲一区中文字幕| 久久精品这里只有国产中文精品| 中日韩欧亚无码视频| 综合网天天| 中文字幕首页系列人妻| 久久久久无码国产精品不卡| 亚洲一区色| 国产亚洲现在一区二区中文| 久久天天躁狠狠躁夜夜2020一| 9丨情侣偷在线精品国产| 不卡无码网| 国产麻豆另类AV| 亚洲人成亚洲精品| 亚洲成肉网| 精品无码国产一区二区三区AV| 亚洲 欧美 日韩综合一区| 免费一级无码在线网站 | 久久亚洲美女精品国产精品| 人妻精品久久无码区| 香蕉国产精品视频| 91在线一9|永久视频在线| 青青操国产| AV网站中文| 国产精品2| 久久精品娱乐亚洲领先| 最新午夜男女福利片视频| 成人午夜视频在线| 亚洲AV成人一区国产精品| 67194亚洲无码| 亚洲综合狠狠| 91色在线观看| 久热中文字幕在线| 亚洲欧美h| 国产精品丝袜在线| 国产美女无遮挡免费视频| 亚洲国产成人精品无码区性色| 精品视频第一页| 直接黄91麻豆网站| 精品一区二区三区水蜜桃| 国产成人精品免费视频大全五级| 欧美伊人色综合久久天天| 午夜欧美在线| 五月婷婷导航| 伊人成人在线视频| 欧美人人干| 成人在线欧美| 无码 在线 在线| 久久99精品国产麻豆宅宅| 一本色道久久88| 亚欧美国产综合| 黄色一级视频欧美| 亚洲另类国产欧美一区二区| 91久久夜色精品| 99久久人妻精品免费二区| 精品久久久久久成人AV| 欧美成人亚洲综合精品欧美激情| 另类综合视频| 啪啪国产视频| 毛片基地视频|