999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于紅外視覺/激光雷達融合的目標識別與定位方法

2021-05-18 11:51:52鄭欣悅賴際舟范婉舒
導航定位與授時 2021年3期
關鍵詞:深度

鄭欣悅,賴際舟,呂 品,袁 誠,范婉舒

(南京航空航天大學自動化學院,南京 211106)

0 引言

近年來,隨著深度學習技術的不斷發展,計算機視覺在自動駕駛、智能機器人等領域得到了廣泛應用[1]。目標識別是計算機視覺中的重要基礎任務之一,通過目標識別算法能夠得到感興趣的目標物體在圖像中的準確位置,從而為載體下一步的信息融合決策奠定基礎,提升整體的感知與導航能力。

可見光圖像的成像分辨率高,能夠提供較多的紋理細節信息,且具有大規模數據集進行算法訓練,因此當前的大多數目標識別算法都是針對常規光照環境下的可見光圖像進行識別。然而,可見光圖像容易受到環境光照影響,在弱光和黑暗環境下無法提供有效信息,不再適合作為可靠的圖像信息源。與此相比,紅外圖像具有抗干擾能力強、不受光照影響的特點,能夠在弱光和黑暗環境下工作,可作為復雜光照場景下目標識別算法的信息源[2]。

傳統的目標識別算法往往采用人工特征如HOG特征[3]、SIFT特征[4]、Haar特征[5]進行圖像特征提取,并采用線性分類器如支持向量機(Sup-port Vector Machine,SVM)[6]進行分類。此類方法以特定的方式對圖像的多個區域逐個進行特征提取分類,因此識別速度相對較慢且泛化性能不足。近年來,基于深度學習的目標識別方法采用卷積神經網絡作為自適應特征提取模塊,能夠達到更好的識別性能。當前的主流目標識別算法主要分為兩階段目標識別與單階段目標識別。兩階段目標識別算法首先生成候選區域,在此基礎上進行檢測框的預測,具有代表性的算法有R-CNN(Region CNN)[7]、Fast R-CNN[8]和Faster R-CNN[9]等。然而,由于此類算法將目標識別任務分為了兩個階段,因此整體檢測速度較慢。針對此問題,單階段目標識別算法在原始圖像上直接進行檢測框的生成與回歸,有效提高了目標識別算法的實時性,具有代表性的算法有SSD(Single Shot MultiBox Detector)[10]和Yolo(You Only Look Once)[11]等。此類基于深度學習的目標識別算法通常需要大量的數據進行神經網絡的訓練,否則往往會陷入過擬合,無法應用在實際環境中。為進一步提高目標識別算法的泛化性能,文獻[12]提出了數據增強概念,在原始圖像數據上進行多種幾何變換與色彩變換,在數據量一定的情況下有效提升了最終算法性能。對于紅外目標識別算法,算法訓練數據往往難以獲得,因此通過數據增強手段進行數據集的擴充是提高數據訓練效果的一種有效手段。

針對圖像的目標識別算法僅能夠獲取目標物體在二維平面圖像中的位置,無法得知該物體的實際尺度。因此,若要估計物體的相對位置和絕對位置,還需通過測距手段獲取其與載體的相對距離。激光雷達根據激光器發射的脈沖激光反射成像進行相對測距,精度能夠達到厘米級。因此,將相機與激光雷達進行數據融合,可以獲得目標物體的尺度信息,從而對其相對位置進行解算。然而,激光雷達的點云信息相對紅外圖像較為稀疏,無法得到稠密的深度圖像。此外,由于激光雷達在垂直方向上的掃描范圍有限,部分圖像上會出現深度缺失。針對該問題,文獻[13]采用多個激光雷達數據融合的方式,但增加了設備成本與體積。文獻[14]利用激光雷達時間序列數據進行點云融合,進而進行深度估計,但其存在一定的時間延遲。

本文一方面針對紅外圖像訓練數據較為稀缺的問題,引入部分可見光圖像進行算法訓練,進而遷移到紅外圖像領域;同時提出了基于Reinhard顏色遷移的數據增強方法,降低了可見光圖像與紅外圖像之間的色域差異,從而提高了算法模型的遷移能力。另一方面,針對紅外圖像與激光雷達數據融合后深度圖較為稀疏的問題,本文在單目視覺深度估計的基礎上,利用激光雷達的深度數據對其進行修正,從而獲取準確的稠密深度圖,提高了對小目標的相對定位能力。

1 基于數據增強的紅外目標檢測算法

傳統的Yolov3算法往往不考慮不同域的數據分布特點,對于訓練數據僅采用較少的色域變換。因此,若使用此增強方法變換后的圖像到本文所針對的紅外目標識別領域,將無法為算法提供充分的有效圖像信息。因此,本文在傳統Yolov3算法的基礎上,引入基于Reinhard顏色遷移的數據增強方法。在訓練階段,對額外的可見光數據進行特定色域變換,并送入所搭建的特征提取網絡進行算法訓練,從而確定待識別目標物體在圖像中的位置。整體算法流程如圖1所示。

圖1 基于Reinhard數據增強的紅外目標識別算法流程

1.1 紅外目標檢測神經網絡架構設計

為有效提取紅外圖像中待識別物體的特定特征,本文搭建如圖2所示的特征提取網絡。其主要由卷積層和殘差塊組成,并在卷積層后增加批量歸一化層與激活函數層。卷積層主要是為了實現高效特征提取,增大感受野;批量歸一化層用來加速與穩定訓練;激活函數層用來提高網絡的非線性擬合能力。

圖2 紅外目標識別特征提取網絡結構

殘差塊則是在前三者的基礎上增加了跨層連接部分,其結構如圖3所示。對于網絡輸入x,與常規的神經網絡模塊需要去擬合H(x)=x不同,殘差塊只需要去擬合F(x)=H(x)-x即可,降低了網絡訓練的難度。本文共設置23個殘差塊,這樣可以在保證網絡特征提取能力的同時依然保持高效的梯度信息傳輸,使得網絡能夠更快收斂。

圖3 殘差塊網絡結構

對于以416×416分辨率輸入網絡的圖像,此網絡一共進行了5次下采樣,輸出13×13、26×26、52×52這3個尺度的特征圖,實現對不同尺度目標的識別。后續經過上采樣操作后進行特征融合,實現淺層特征層融合深層語義信息,進一步提高了算法多尺度目標識別的能力。

1.2 基于Reinhard顏色遷移的數據增強方法

在目標識別領域,紅外圖像數據源較為稀缺。若僅使用已有的紅外圖像數據進行算法訓練,通常不具備良好的遷移能力,實際環境應用效果較差。因此,本文采用Reinhard顏色遷移算法,在可見光數據上進行數據增強處理,增加訓練數據的多樣性,從而提高算法的實際遷移能力。

Reinhard顏色遷移算法通過計算源圖像與目標圖像之間的顏色特征,確定一個線性變換,使得源圖像與目標圖像之間在lαβ色彩空間具有相同的均值和方差。因此,針對已有的可見光圖像數據,可根據紅外數據對其進行色彩空間的轉換,具體表述如下。

設可見光圖像與紅外圖像的三通道對應均值為μsL、μsa、μsb、μrL、μra、μrb,對應標準偏差值為σsL、σsa、σsb、σrL、σra、σrb,定義可見光圖像與紅外圖像三通道對應的L、a、b值分別為Ls、as、bs、L′、a′、b′。則通過

(1)

即可完成對可見光圖像的色域轉換,降低其與紅外圖像色域之間的數據分布差異,擴充訓練數據集。

1.3 紅外目標檢測訓練預測過程

對于特征提取網絡輸出的3個不同尺度的特征圖,在每個網格上設計生成3個不同寬高比的先驗框。對于每個先驗框,設Px、Py、Pw、Ph為先驗框在對應特征圖上的中心坐標和對應寬高,神經網絡會輸出對應的先驗框偏移量tx、ty、tw、th。對于輸入圖片,Gx、Gy、Gw、Gh為真實框在某個特征圖上的中心坐標和對應寬高,則通過

(2)

即可計算出預測的邊界框與物體真實框之間的差距。具體的待優化函數表示為

(3)

通過優化此函數進行反向梯度傳播,即可實現神經網絡參數的優化更新。

2 基于稠密深度的目標相對定位方法設計

傳統方法首先對紅外圖像數據與激光雷達點云數據進行聯合標定校準,得到對應的外參矩陣,從而將點云數據進行坐標系轉換與投影。然而,通過此途徑只能得到較為稀疏的深度圖。因此,本文同時將紅外圖像數據送入單目深度估計網絡,獲取對此圖像的深度估計。隨后,對由兩種方式獲取的深度圖進行融合,以獲取精度較高的稠密深度圖。對于在目標檢測模塊已獲取的目標物體在圖像中的位置,利用視覺成像進行坐標解算,實現對該物體的絕對位置計算,整體流程如圖4所示。

圖4 紅外目標相對定位算法流程

2.1 紅外視覺與激光雷達深度數據融合方法

(4)

進而可以通過相機內參矩陣獲取二維深度圖像。

圖5 Velodyne 64線激光雷達投影深度圖

然而,當激光雷達點云較為稀疏時,僅采用插值補全的方法難以獲取較理想的深度圖;且對于小目標而言,由于其體積較小,在成像平面上也占有較小的面積。在目標檢測算法結果與雷達點云投影深度圖對齊后,往往有更少的深度點投影在物體表面。相對于大物體而言,更加難以直接進行位置坐標解算。因此,本文采用Monodepth2為基本的深度估計算法,對于單張圖像,該算法能夠估計出其逐像素的深度值,滿足實際的開發需求。通過對基于此算法獲取的深度圖與激光雷達點云投影深度圖進行融合,得到最終的稠密深度圖,為后續的物體位置解算提供基礎。

設d(i,j)為深度估計算法獲取到的位置(i,j)處的深度值,則融合后的深度可表示為

(5)

其中,D(i,j)表示融合后位置(i,j)處的深度值;d1(i,j)和d2(i,j)分別表示激光雷達點云轉換和單目深度估計算法獲取到的位置(i,j)處的深度值;c1和c2分別表示滑動窗口內存在的深度值個數;λ1和λ2用來控制融合占比。

2.2 基于融合深度圖的目標相對定位

設O-x-y-z為相機坐標系,其中O為相機光心,空間中一點P在相機坐標系下的坐標為[X,Y,Z]T,若點P對應成像平面上的點P′的坐標為[X′,Y′,Z′]T,則

(6)

其中,f為相機焦距。

設O-u-v為像素坐標系,其固定在成像平面上,O點位于圖像左上角,u軸向右與x軸平行,v軸向下與y軸平行。若像素坐標在u軸上縮放了α倍,在v軸上縮放了β倍,且坐標系原點平移了[cx,cy]T,則P′點坐標與像素坐標[u,v]T的關系為

(7)

令αf=fx,βf=fy,可得

(8)

通過齊次坐標改寫為矩陣形式可得

(9)

其中,K為相機內參矩陣,通過標定獲得。以此則可以解算出待檢測物體在空間中的絕對位置坐標(X,Y,Z),從而實現相對定位功能。

3 試驗驗證與分析

為驗證本文提出算法的有效性,采用無人車在室內與室外進行物體識別與相對定位試驗。試驗場景如圖6所示,無人車搭載了海康威視紅外攝像頭和Ouster32三維激光雷達。其中,紅外攝像頭能夠提供分辨率為1280×720的紅外圖像,采樣頻率25Hz;激光雷達的掃描距離為0.25~120m,垂直掃描范圍為45°,采樣頻率10Hz。試驗過程中隨機放置目標物體,并使用全站儀對目標物體和無人車進行定位,其定位精度優于1cm,從而為算法評估提供了位置基準。

圖6 無人車平臺與測試環境

3.1 目標識別試驗

對于目標識別試驗,共設置包含手雷、彈藥箱、人、水壺、對講機、背包、槍和滅火器在內的八類目標物體。在數據采集階段采用紅外攝像頭進行紅外圖像拍攝,并額外拍攝部分可見光圖像。對于紅外圖像數據劃分訓練集與測試集,可見光數據則用于數據增強試驗,以此進行算法性能分析和比較,其類別與數量如表1所示。

表1 目標識別數據集

對于某一可見光圖像,隨機從紅外圖像中采樣作為目標域進行顏色遷移增強,本文列出兩組可見光圖像、增強圖像以及紅外域圖像,如圖7所示。從圖7中可以看出,基于Reinhard顏色遷移后的圖像與紅外圖像更加近似,理論上能夠為算法訓練提供更多有效數據。

(a)原始圖像(Original image)

為驗證本文提出的數據增強算法的有效性,共進行兩組目標識別對比試驗,分別為基礎數據增強(Basic Augmentation)試驗和額外數據增強(Extra Augmentation)試驗,同時保持其他試驗參數不變。基礎數據增強試驗采用原始Yolov3的數據增強算法,額外數據增強試驗采用引入Reinhard顏色遷移后的數據增強算法。

對于目標識別算法的性能,采用平均精度均值(mean Average Precision,mAP)進行衡量,mAP為各類物體識別結果的平均準確度(Average Precision,AP),mAP越高,則識別效果越好。經算法訓練測試,mAP值如表2所示。

表2 不同數據增強條件下Yolov3算法識別結果

通過表2數據可以看出,在引入基于Reinhard顏色遷移的數據增強算法后,整體算法的mAP從0.86提升到了0.91,提升5.8%。

圖8中,前4個為室內場景下部分物體的識別結果,后4個為室外場景下部分物體的識別結果,其中顯示的物體檢測信息分別表示類別、置信度以及在慣性測量單元(Inertial Measurement Unit, IMU)坐標系下的(X,Y,Z)坐標位置。

圖8 目標識別結果與點云投影可視化

3.2 目標相對定位試驗

圖8所示為雷達點云投影后的效果圖,可以看出投影后點云在圖像中較為稀疏,且部分缺失。為驗證深度融合算法的有效性,選取10個物體的定位結果,采用全站儀對物體的位置進行測量作為其位置參考基準。

表3 目標相對定位誤差(*表示為小物體)

圖9 原始算法定位失效情況

通過上述試驗,可以看出:

1)對于待定位的10個物體,若僅依靠激光雷達給出的距離信息,無法對其中的較小物體進行位置坐標解算。而本文提出的基于稠密深度的目標相對定位算法則有效解決了原始算法定位失效的情況,實現了所有物體的相對定位。

2)本文算法降低了包含小目標在內的物體平均定位誤差,由0.127m降低為0.110m,定位精度提高了13.4%。

4 結論

本文針對黑暗和弱光環境下的目標識別與定位任務搭建了算法平臺模型,引入可見光數據基于顏色遷移算法進行數據增強處理,在此基礎上與激光雷達點云信息進行融合以獲取物體尺度信息,從而對識別物體進行位置解算。算法分析與試驗結果表明:

1) 基于Reinhard顏色遷移算法增強后的可見光數據能夠有效應用于紅外目標識別算法的訓練過程,提升了最終的目標識別結果。

2) 基于融合后的稠密深度圖獲取的物體尺度進行位置解算,能夠有效提升對于小目標的定位能力,降低定位誤差。

猜你喜歡
深度
深度理解不等關系
四增四減 深度推進
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
芻議深度報道的深度與“文”度
新聞傳播(2016年10期)2016-09-26 12:14:59
提升深度報道量與質
新聞傳播(2015年10期)2015-07-18 11:05:40
微小提議 深度思考
主站蜘蛛池模板: 国产视频a| 国产成人毛片| 91口爆吞精国产对白第三集 | 国产精品片在线观看手机版| 欧美亚洲第一页| 好久久免费视频高清| AV在线天堂进入| 国产乱子伦一区二区=| 亚洲六月丁香六月婷婷蜜芽| 这里只有精品在线播放| 九色视频最新网址| 色综合天天操| 久久精品丝袜| 国产亚洲美日韩AV中文字幕无码成人| 亚洲熟妇AV日韩熟妇在线| 日韩国产黄色网站| 欧美日韩第三页| 91视频青青草| 99久久精品无码专区免费| 凹凸国产熟女精品视频| 精品久久久久无码| 国产精品女在线观看| 亚洲成人播放| 成人噜噜噜视频在线观看| 成年免费在线观看| 香蕉国产精品视频| 国产不卡一级毛片视频| 国产白浆视频| 天天综合天天综合| 国产精品lululu在线观看| 丁香婷婷激情网| 免费毛片视频| 成年人国产网站| 国产乱人乱偷精品视频a人人澡| 视频国产精品丝袜第一页| 国产偷倩视频| 人妻丰满熟妇αv无码| а∨天堂一区中文字幕| 亚洲精品国产精品乱码不卞| 欧美成人二区| 天堂久久久久久中文字幕| 亚洲视频a| 日韩免费中文字幕| 久久久久免费精品国产| 四虎影视无码永久免费观看| 91麻豆国产在线| 色综合中文字幕| 91久久偷偷做嫩草影院免费看| 成人福利在线看| 亚洲一级毛片在线观| 国产导航在线| 97国产精品视频人人做人人爱| 国产精品55夜色66夜色| 亚洲日韩在线满18点击进入| 亚洲av无码人妻| 老司国产精品视频91| 国产免费高清无需播放器| 国产乱人视频免费观看| 色135综合网| 日本草草视频在线观看| 日韩黄色大片免费看| 免费国产在线精品一区| 久久熟女AV| 五月婷婷亚洲综合| 亚洲二三区| 久久国产精品无码hdav| 亚洲国产成熟视频在线多多| 亚洲欧美综合精品久久成人网| 蜜芽国产尤物av尤物在线看| 熟妇人妻无乱码中文字幕真矢织江 | 亚洲精品成人7777在线观看| 欧美色图久久| 成人综合网址| 伊人久久大香线蕉aⅴ色| 国产主播在线观看| 四虎国产精品永久一区| 免费在线播放毛片| 成年A级毛片| 国产成人91精品| 亚洲国产日韩在线观看| 国产精品3p视频| 国模极品一区二区三区|