999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Yolov5的快速雙目立體視覺測距研究

2021-07-20 04:20:51張仲楠霍煒廉明楊磊
青島大學學報(工程技術版) 2021年2期
關鍵詞:深度學習

張仲楠 霍煒 廉明 楊磊

摘要: ?針對傳統雙目測距方法存在的需要對攝像頭進行標定、立體匹配算法時間復雜度高等問題,本文主要對快速雙目立體視覺測距進行研究。給出了雙目測距原理,提出了一種基于Yolov5的目標檢測算法和徑向基函數神經網絡相結合的雙目測距方法,建立了基于徑向基函數神經網絡的距離預測模型,并采用神經網絡中的徑向基函數神經網絡進行距離預測。實驗結果表明,經過訓練的優化模型,能實時目標檢測、快速計算出目標距離,實時性大幅增加,預測距離的精度可達977%。同時,徑向基函數神經網絡與卷積神經網絡相結合的方法,在雙目測距中具有速度快、精度高的特點。該方法無需對攝像頭進行標定,充分利用目標檢測得到的信息,簡化圖像匹配算法。該研究對自主移動機器人和無人駕駛汽車具有重要意義。

關鍵詞: ?目標檢測; 雙目立體視覺; 深度學習; Yolov5

中圖分類號: TP391.41 ?文獻標識碼: A

2.2 Yolov5目標檢測與特征提取

Yolov5[16]相比于Yolov3[1718]和Yolov4[1920]具有更快的速度,占用更小的內存空間和更高的準確率。使用配置環境更簡單的PyTorch生態系統,在Colab notebook上運行Tesla P100,速度可達140 幀/s。本實驗選取滅差、面積比和類別標簽作為Yolov5模型的輸出特征。

將雙目攝像頭獲得的圖像進行Yolov5處理,得到可視化圖像,并以圖片左上角為原點,水平向右為x軸正方向,豎直向下為y軸正方向,以像素為單位建立圖像坐標系。Yolov5目標檢測輸出示意圖如圖5所示。

3 基于徑向基函數神經網絡的距離預測模型

本實驗采用神經網絡中的徑向基函數神經網絡進行距離預測。將表1中得到的輸出特征作為徑向基函數網絡的輸入特征,其輸出特征是物體與相機的距離,已知滅差、面積比重、長、寬、高5個特征預測距離,這

本數據中選擇中心點(記憶樣本),利用聚類算法,得到中心點;二為監督學習,輸入樣本經過RBF徑向基神經網絡,將求得的預測距離與實際距離之間誤差進行權值調整。對全部534個樣本拆分成2個Batch,每個Batch有267個樣本,共訓練100個Epoch,對訓練過程可視化,損失函數與準確率隨迭代次數變化曲線如圖8所示。

由圖8可以看出,損失函數一直在減小,說明徑向基函數神經網絡已經很好的擬合了預測距離的非線性函數。同時,準確率在增大,并隨著訓練的Epoch的增大,逐漸趨近于100%。

4 實驗結果

本實驗將每個樣本的實際距離、預測距離和誤差進行對比,部分預測值與實際值對比結果如表2所示。

由此可以計算出,全部534個樣本的均方誤差為27%。在不同硬件平臺下,雙目測距方法的運行速度如表3所示。由表3可以看出,在型號為CPUi78550U的環境下,速度為21幀/s,使用1張英偉達顯卡RTX 1080Ti,其速度可實現43幀/s,該速度可以滿足實時性要求。

5 結束語

本文提出了一種基于Yolov5的目標檢測算法和徑向基函數神經網絡相結合的雙目測距方法。由于RBF徑向基函數神經網絡運算量較小,所以將Yolov5與RBF結合后的推理速度與Yolov5比相差不大,保證了實時性,同時,因為RBF徑向基函數神經網絡可以擬合任意復雜的非線性函數,所以預測距離的精度得以保證。由實驗數據可知,經過學習訓練之后,預測距離的準確程度與傳統的像素匹配方式預測距離相比,更加便捷,預測均方誤差僅為27%,實時性接近于Yolov5。本實驗存在的不足之處是采集的數據集全部為單個目標,即雙目攝像頭拍攝的場景中只有一個目標物體,對于多目標物體的場景測距問題解決方法與單目標物體場景類似,但對于多個物體的邊框匹配需要引入一些匹配算法,這也是本實驗今后深入研究的方向。

參考文獻:

[1] 孔令富, 李林, 張廣志. ?一種并聯機器人雙目主動視覺監測平臺避障方法的研究[J]. 燕山大學學報, 2009, 33(3): 189193.

[2] 曾德懷, 謝存禧, 張鐵, 等. 行走機器人的超聲波測距系統的研究[J]. 機械科學與技術, 2004, 23(5): 613616.

[3] 趙棟, 劉立人, 王吉明, 等. 基于光子數目比較的激光測距法[J]. 光學學報, 2006, 26(7): 10911096.

[4] 劉曉龍, 楊廣京, 羅楊宇, 等. 嵌入式移動機器人紅外路標定位模塊研究[J]. 計算機工程, 2013, 39(3): 203208.

[5] 劉科, 謝敬輝, 李卓, 等. 被動式光學測距誤差分析[J]. 光學技術, 2005, 31(4): 586587.

[6] 岳榮剛, 王少萍, 李凱, 等. 基于相似原理的新型雙目測距法[J]. 光電工程, 2008, 35(4): 6468.

[7] Li H G, Jin M, Zou L Y. A new binocular stereo visual servoing model[C]∥Workshop on Computational Intelligence and Industrial Application, 2008. PACIIA′08. PacificAsia. Wuhan, China: IEEE Computer Society, 2009.

[8] Marr D P T. Cooperative computation of stereo disparity[J]. Science, 1976, 194(4262): 283287.

[9] Veksler O. Stereo correspondence with compact windows via minimum ratio cycle[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2002, 24(12): 16541660.

[10] Lowe D G. Distinctive image features from scaleinvariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91110.

[11] Etriby S, AlHamadi A, Michaelis B. Dense stereo correspondence with slanted surface using phasebased algorithm[C]∥IEEE International Symposium on Industrial Electronics. Vigo, Spain: IEEE, 2007: 18071814.

[12] Ryan T W, Gray R T, Hunt B R. Prediction of correlation errors in stereopair images[J]. Optical Engineering, 1980, 19(3): 312322.

[13] Klaus A, Sormann M, Karner K. Segmentbased stereo matching using belief propagation and a selfadapting dissimilarity measure[C]∥International Conference on Pattern Recognition. Graz, Austria: IEEE, 2006: 15.

[14] Wang L, Yang R G, Gong M L. Realtime stereo using approximated joint bilateral filtering and dynamic programming[J]. Journal of RealTime Image Processing, 2012, 9(3): 447461.

[15] Liu X Y, Li T H, Yu G H. Adaptive stereo matching algorithms for color stereo images[J]. Journal of Computer Applications, 2011, 31(1): 163166.

[16] Deng H F, Cheng J H, Liu T, et al. Research on iron surface crack detection algorithm based on improved YOLOv4 network[C]∥2nd International Conference on Artificial Intelligence and Computer Science. Hangzhou, China: Published under Licence by IOP Publishing Ltd, 2020: 2526.

[17] Tang C, Zhang G, Hu H G, et al. An improved YOLOv3 algorithm to detect molting in swimming crabs against a complex background[J]. Aquacultural Engineering, 2020, 91: 102115102124.

[18] Pang L, Liu H, Chen Y, et al. Realtime concealed object detection from passive millimeter wave images based on the YOLOv3 algorithm[J]. Sensors, 2020, 20(6): 16781693.

[19] Bochkovskiy A, Wang ChienYao, Mark Liao HongYuan. Yolov4: optimal speed and accuracy of object detection[C]∥Institute of Information Science Academia. Sinica, Taiwan: CVPR, 2020: 117.

[20] Chen W, Zhong X T, Zhang J. Optimization research and defect object detection of aeroengine blade boss based on Yolov4[C]∥2020 3rd International Conference on Modeling Simulation and Optimization Technologies and Applications. Beijing, China: Published under licence by IOP Publishing Ltd, 2021: 012076012084.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产一二三区在线| 亚洲国产精品日韩专区AV| 九月婷婷亚洲综合在线| 高潮爽到爆的喷水女主播视频| 国产极品粉嫩小泬免费看| 天堂网国产| 一级毛片在线免费视频| 午夜精品区| 第一区免费在线观看| 亚洲中文字幕在线精品一区| 欧美成人免费午夜全| 欧美性久久久久| 91精品国产一区| 欧美激情伊人| 亚洲色成人www在线观看| 久久精品嫩草研究院| 久久亚洲美女精品国产精品| 久久久久国产精品嫩草影院| 无码丝袜人妻| 丁香婷婷激情网| 色婷婷电影网| 中文字幕乱码二三区免费| 重口调教一区二区视频| 欧美日韩在线亚洲国产人| 色网在线视频| 成人午夜天| 午夜a视频| 国产浮力第一页永久地址| 91香蕉国产亚洲一二三区| 谁有在线观看日韩亚洲最新视频| 亚洲人成网站18禁动漫无码| 午夜国产大片免费观看| 精品自窥自偷在线看| 嫩草国产在线| 一级全免费视频播放| 热久久综合这里只有精品电影| 5555国产在线观看| 亚洲综合色吧| 青青网在线国产| 丁香五月激情图片| 成人av专区精品无码国产| 暴力调教一区二区三区| 色婷婷综合激情视频免费看| 精品人妻系列无码专区久久| 国产人妖视频一区在线观看| www.精品国产| 99热亚洲精品6码| 亚洲欧美一区二区三区图片| 久久婷婷国产综合尤物精品| 日韩欧美视频第一区在线观看| 国产不卡在线看| 国产免费精彩视频| 国产免费羞羞视频| 成人毛片免费在线观看| 波多野结衣一区二区三区AV| 一级毛片视频免费| 国产精品自在自线免费观看| 欧美国产日韩另类| 全部无卡免费的毛片在线看| 欧美A级V片在线观看| 青青青亚洲精品国产| 九九九久久国产精品| 99久久国产综合精品2020| 日韩A∨精品日韩精品无码| 久久这里只精品热免费99| 亚洲国产亚洲综合在线尤物| 老汉色老汉首页a亚洲| 无码日韩人妻精品久久蜜桃| 99福利视频导航| 国产精品主播| 国模视频一区二区| 国产精品深爱在线| 熟妇人妻无乱码中文字幕真矢织江 | 欧美不卡视频一区发布| 国产网站一区二区三区| 福利在线一区| 日本高清免费一本在线观看| 亚洲日韩精品欧美中文字幕| 久久99国产综合精品1| 亚洲欧美精品日韩欧美| 国产va在线观看| 国产精品亚洲一区二区三区z |