999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視覺識別手勢指令實現(xiàn)無人機飛行控制

2024-03-19 05:17:40劉潤萱龍斌關(guān)源王二凱張勇王鶴
電子制作 2024年5期
關(guān)鍵詞:指令動作檢測

劉潤萱,龍斌,關(guān)源,王二凱,張勇,王鶴

(1.遼寧科技大學(xué) 機械工程與自動化學(xué)院,遼寧鞍山,114051;2.遼寧福鞍重工股份有限公司,遼寧鞍山,114016)

0 引言

傳統(tǒng)無人機交互控制系統(tǒng)中,通常采用的語音識別技術(shù),以及各種傳感器信息融合技術(shù)基本是將傳感器采集來的信號轉(zhuǎn)化為較有限的指令,然后通過指令驅(qū)動機器人執(zhí)行事先定義好的運動或操作[1~2]。這樣的交互方式操作較為刻板,一定程度上限制了人機交互的靈活性與直觀性。要使無人機能夠更好地工作,深度學(xué)習(xí)技術(shù)必然是其重要的研究和應(yīng)用方向[3]。

手勢識別類似于人體動作識別,常用的基于深度學(xué)習(xí)的方法有,基于圖像序列的LSTM 動作識別、基于3D 卷積的視頻分類以及基于關(guān)鍵點的動作識別。在基于圖像序列的LSTM 動作識別方面,楊萬鵬等[4]提出了一種特征級融合的LSTM 和CNN 方法。該方法將獨立的傳感器數(shù)據(jù)依次接入到LSTM 層和卷積組件層用于特征提取,之后匯聚起多傳感器的特征再進行動作分類。張儒鵬等[5]提出了O-Inception結(jié)構(gòu),并將其與LSTM 進行了融合,進而提出了OI-LSTM動作識別模型。實驗結(jié)果表明,所提出的OI-LSTM 動作識別模型,在WISDM 和UCI 兩個數(shù)據(jù)集上其準確率比當前最先進的方法分別提高了約4%和1%。在基于3D 卷積的視頻分類方面,劉巖石等[6]提出一種改進的三維卷積神經(jīng)網(wǎng)絡(luò)模型。該模型將傳統(tǒng)的3D CNN 網(wǎng)絡(luò)結(jié)構(gòu)拆分為空間流和時間流進行數(shù)據(jù)運算,并借鑒ResNet 網(wǎng)絡(luò)的設(shè)計思想,減少參數(shù)設(shè)置,避免梯度消失。實驗結(jié)果表明,文中模型在保證識別精度的條件下,訓(xùn)練速度得到了大幅提升。在基于關(guān)鍵點的動作識別方面,劉源[7]提出了一種基于目標分割網(wǎng)絡(luò)的人體關(guān)鍵點檢測方法,以提高人體關(guān)鍵點的檢測精度。尹建芹等[8]提出了時序直方圖的概念用以建模關(guān)鍵點序列。再通過比較軌跡間關(guān)鍵點序列的相似性,完成動作識別任務(wù)。

本文提出一種基于深度學(xué)習(xí)技術(shù),即YOLOv5(You Only Look Once)的手勢指令智能識別方法。利用該方法無人機根據(jù)人的手勢指令執(zhí)行相應(yīng)的飛行動作,為無人機的交互式控制提供技術(shù)支持。

1 YOLOv5 算法

YOLOv5 與之前的模型相比,它的識別速度和準確率都有了明顯提高,成為目標識別的最佳選擇[9],其網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。主要的改進思路如下:

圖1 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)圖

輸入端:在模型訓(xùn)練階段,提出了一些改進思路,主要包括Mosaic 數(shù)據(jù)增強、自適應(yīng)錨框計算、自適應(yīng)圖片縮放;

Backbone:融合其他檢測算法中的一些新思路,主要包括:Focus 結(jié)構(gòu)與CSP 結(jié)構(gòu);

Neck:目標檢測網(wǎng)絡(luò)在Backbone 與最后的Head 輸出層之間往往會插入一些層,YOLOv5 中添加了FPN+PAN結(jié)構(gòu);

Prediction:輸出層的錨框機制與YOLOv4 相同,主要改進的是訓(xùn)練時的損失函數(shù)GIOU_Loss,以及預(yù)測框篩選的DIOU_nms。

2 手勢指令模型構(gòu)建

采用YOLOv5 算法實現(xiàn)手勢指令檢測主要有三個階段:第一階段為數(shù)據(jù)集采集,第二階段為模型訓(xùn)練,最后為模型驗證。

2.1 數(shù)據(jù)集

本文要實現(xiàn)無人機的飛行動作主要有:啟動、起飛、降落、懸停,以及向上/下/左/右/前/后飛5cm。無人機的飛行動作對應(yīng)的手勢指令分別為:OK 手勢,大拇指向上,大拇指向下,拳頭,以及手勢一/二/三/四/五/六。具體對應(yīng)關(guān)系如表1 所示。

表1 無人機飛行動作與手勢的對應(yīng)關(guān)系

為了提高模型訓(xùn)練的效率,在訓(xùn)練前調(diào)整每張圖片大小為同一尺寸,每張圖像像素大小設(shè)置為600×600。訓(xùn)練集、驗證集和測試集按照7:1:2 的比例隨機分配和規(guī)劃。該自制手勢行為數(shù)據(jù)集樣本數(shù)量大約有200 張圖片。在進行正式訓(xùn)練手勢數(shù)據(jù)集前,首先通過Labelme 軟件對每張圖片進行手勢類別標注,生成帶有位置信息的XML 文件,標明每張圖片所對應(yīng)的標簽,將全部的訓(xùn)練圖片標注完成后放入訓(xùn)練集文檔中,至此完成數(shù)據(jù)集的制作。

2.2 模型訓(xùn)練

使用YOLOv5 訓(xùn)練模型進行訓(xùn)練,在進行了200 次迭代后達到了收斂,訓(xùn)練結(jié)果如圖2 所示。從圖2 中可以看出,模型隨著訓(xùn)練次數(shù)的增多很快就達到了收斂狀態(tài),Loss 值也逐漸趨于穩(wěn)定,達到了期望的數(shù)值。Precision 和Recall曲線的波動較小表明模型訓(xùn)練的效果較好,可認為模型具有較好的精確度和穩(wěn)定性。并且訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集的損失函數(shù)基本都減小到了0.01 以下。經(jīng)過訓(xùn)練,最終模型的準確率達到了90%以上。

圖2 模型訓(xùn)練收斂曲線

2.3 模型驗證

為了驗證模型的性能,這里采用F1 分數(shù),Precision 值,Recall 值和mAP 值四個指標來評估所訓(xùn)練的模型。四個指標的作用和具體計算方式可參見文獻[10]。驗證的結(jié)果如圖3~6 所示。從圖3 可以看到F1 曲線很“寬敞”且頂部接近1,說明在測試集上表現(xiàn)得很好(既能很好地查全,也能很好地查準)的置信度閾值區(qū)間很大。從圖4 可以看出當判定概率超過置信度閾值時,各個手勢識別的準確率。當置信度越大時,手勢檢測越準確,但是這樣就有可能漏掉一些判定概率較低的真實樣本。從圖5 可以看出當置信度越小的時候,手勢檢測的越全面,即手勢檢測不容易被漏掉,但容易誤判。從圖6 可以看出mAP 曲線的面積接近1,也就是說所訓(xùn)練出的模型在準確率很高的前提下,基本能檢測到全部的手勢類別。因此通過四個指標的曲線圖可知,所訓(xùn)練出的模型具有良好手勢識別的性能。

圖3 F1 曲線

圖4 Precision 曲線

圖5 Recall 曲線

圖6 mAP 曲線

為了進一步驗證模型的性能,將與原先數(shù)據(jù)集中人物、場景均不同的全新的100 個樣本的測試集放進訓(xùn)練好的模型中進行測試。結(jié)果表明,模型在測試集上表現(xiàn)良好。通過圖7 混淆矩陣分析可知,模型對這10 種手勢都達到了良好的檢測效果。一部分樣本由于圖片背景過于復(fù)雜而導(dǎo)致識別錯誤,例如具有較強的反射光背景或者是圖片像素過低所造成的。

圖7 混淆矩陣

2.4 模型對比

為了進一步驗證Yolov5 在數(shù)據(jù)集上的性能優(yōu)越性,構(gòu)建了ResNet,VGG16 和RCNN 三個深度學(xué)習(xí)算法手勢指令檢測模型,使用上述的測試集進行訓(xùn)練和評估,與Yolov5進行對比測試,實驗結(jié)果如圖8 所示。由圖8 可以直接看出,在本文構(gòu)建的手勢數(shù)據(jù)集上,RCNN,VGG16 和ResNet 分別獲得了90.6%,92.1%和93.2%的準確率,而Yolov5算法的準確率在對比實驗中最高,為96.4%,能夠更好地滿足手勢指令的檢測要求,為控制無人機提供更加準確的手勢指令。

圖8 不同深度學(xué)習(xí)算法的對比

3 實驗驗證

實驗平臺采用的是大疆Tello 無人機,此無人機支持Python 編程,并提供Python API 接口。同時提供了Tello SDK,其能夠通過Wi-Fi UDP 協(xié)議與無人機連接,讓用戶可以通過文本指令控制無人機。圖9 為使用YOLOv5 作為檢測模型對手勢指令的檢測效果。從檢測結(jié)果可以明顯看出,該模型對10 種手勢指令都具有良好的識別效果,并且無人機能夠根據(jù)識別出的手勢指令執(zhí)行相應(yīng)的飛行動作。

圖9 實際識別手勢指令的效果

4 結(jié)論

本文為了實現(xiàn)視覺識別手勢指令以控制無人機飛行運動,建立了基于YOLOv5 算法的識別模型。具體結(jié)論如下:第一,采用測試集對模型進行驗證。驗證結(jié)果顯示所建立的模型對10 種手勢指令具有較高的識別準確率;第二,在無人機應(yīng)用驗證顯示所建立的模型對手勢指令識別準確率在90%以上。

猜你喜歡
指令動作檢測
聽我指令:大催眠術(shù)
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
ARINC661顯控指令快速驗證方法
LED照明產(chǎn)品歐盟ErP指令要求解讀
電子測試(2018年18期)2018-11-14 02:30:34
動作描寫要具體
畫動作
動作描寫不可少
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 国产香蕉一区二区在线网站| 丝袜美女被出水视频一区| 国产黄网站在线观看| 久久国产乱子伦视频无卡顿| 日本91视频| 动漫精品中文字幕无码| 黄色网站不卡无码| 少妇人妻无码首页| 国产在线日本| 99国产在线视频| 国产爽爽视频| 国产精品lululu在线观看| 好久久免费视频高清| 欧美 国产 人人视频| 日本三级黄在线观看| 久久亚洲欧美综合| 午夜精品久久久久久久无码软件| 国产原创自拍不卡第一页| 中文成人无码国产亚洲| 亚洲精品国产日韩无码AV永久免费网 | av在线无码浏览| 中文字幕免费在线视频| 色丁丁毛片在线观看| 国产成人福利在线视老湿机| 国产女人喷水视频| 国产精品无码一区二区桃花视频| 91九色国产在线| 亚洲人成亚洲精品| 五月婷婷亚洲综合| 成人午夜免费观看| 国产综合欧美| 美女一级免费毛片| 99re在线视频观看| 日本一本在线视频| 中文字幕在线观看日本| 成人噜噜噜视频在线观看| 好吊妞欧美视频免费| 亚洲精品手机在线| 国产精品美女网站| 狠狠躁天天躁夜夜躁婷婷| 婷婷午夜天| 国产人碰人摸人爱免费视频| 无码久看视频| 欧美一级夜夜爽www| 黄色三级毛片网站| 亚洲va在线观看| 成人一级免费视频| 99国产精品一区二区| 成人在线亚洲| 67194亚洲无码| 一区二区三区精品视频在线观看| 爱色欧美亚洲综合图区| 亚洲最猛黑人xxxx黑人猛交| 色天天综合久久久久综合片| 在线观看av永久| 国产一区二区人大臿蕉香蕉| 国产乱码精品一区二区三区中文| 萌白酱国产一区二区| 亚洲无码视频喷水| 国产日本一线在线观看免费| 久久香蕉国产线看精品| 日本午夜影院| 一区二区自拍| 日韩一级毛一欧美一国产 | 欧美另类精品一区二区三区| 国产精品久久久久久久伊一| 国产欧美日韩资源在线观看| 免费全部高H视频无码无遮掩| 婷婷综合缴情亚洲五月伊| 91视频免费观看网站| 久久亚洲精少妇毛片午夜无码| 亚洲中文在线看视频一区| 国产精品白浆在线播放| 日韩小视频在线观看| 制服丝袜一区| 精品成人一区二区| 亚洲欧洲日产无码AV| 国产美女自慰在线观看| 欧美国产在线精品17p| 青青草久久伊人| 亚洲无码不卡网| 国产成人8x视频一区二区|