999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Jetson的機器人智能安全防護系統設計*

2023-01-10 03:25:48萬燕英陳澤濤劉文波
機電工程技術 2022年12期
關鍵詞:區域檢測系統

萬燕英,陳澤濤,劉文波

(廣州鐵路職業技術學院信息工程學院,廣州 510430)

0 引言

目前機器人在工業生產、商業服務等領域發揮著重要作用,是企業增效降本的有效手段之一。據國際機器人聯合會(IFR)統計數據顯示,截止到2020年,全球工業機器人的運營存量創下了300多萬臺的新紀錄。隨著工業化進程不斷深入,出現了較多的人機共融場景,如圖1所示。人機共融是指人和機器人同處一個自然空間里工作,緊密協調地共同完成工作。人機共融生產方式,不再是人類單純地下指令給機器人,而是讓機器人變成人類的伙伴。在傳統的工業機器人逐漸取代單調、重復性高、危險性強的工作之時,人機共融的理念也將會慢慢滲入各個工業領域[1-3]。因此,人機共融、人機協作將是機器人未來最重要的發展趨勢。

圖1 工業生產之人機共融場景

人機共融的顯著特征是機器人和環境高度適應,在非結構動態環境能更好地理解人的行為意圖,并在一定的規則下實現人機、機器人群體間的交互與協同作業。這對機器人安全防護技術提出了更高的要求,機器人安全防護手段也成為實現人機共融的核心技術指標之一[4-6]。

機器視覺技術作為人工智能的一個重要分支,已被廣泛應用于各類智能安防、先進輔助駕駛等領域。它可獲取物體的尺寸數據,具有識別精度高、幾何特征突出、數據信息豐富等特點[7-8]。同時,隨著視覺傳感器大規模制造,其硬件成本也已較低。因此,本文設計基于Jet-son的機器人智能安全防護系統,利用機器視覺技術來預測機器人與人類之間可能發生的碰撞,并控制機器人及時響應減速或停機指令以避免人機碰撞,保障人機安全。

1 系統總體結構及工作原理

本系統主要包括主體和磁吸式法蘭兩部分,主體通過自身顆粒強磁鐵背板直接吸附在機器人上方的磁吸式法蘭上,以實現快速安裝部署和主體的位置調節。如圖2所示,系統通過網線與POE交換機連接,且POE交換機為其供電。系統主體用于投射機器人工作區域以直觀警示、實時監控是否有人員非法闖入機器人工作區域等。上位機通過VNC軟件可遠程連接至本系統,用以設置機器人工作區域、調整投影燈的警示范圍、轉儲監控視頻、調整兩自由度云臺監控視角等。

圖2 系統應用示意圖

當系統檢測到人員非法進入機器人工作區域時,則驅動語音報警模塊發出一定頻率的警告信號、同時發送指令至機器人控制器使機器人減速或停機。無人員入侵時,本系統不影響機器人的正常工作。

2 硬件設計

本系統硬件部分主要包括主處理器模塊、冗余處理器模塊、投影燈警示模塊、視覺傳感器模塊、語音報警模塊、通訊模塊、電源模塊、數據存儲模塊、看門狗模塊、兩自由度云臺模塊、顆粒強磁鐵背板模塊等,其組成框圖如圖3所示。

圖3 系統硬件組成框圖

2.1 處理器模塊

由于系統屬于安全等級較高的設備,其自身的可靠性極為重要。因此,采用主處理器和冗余處理器的雙機架構。

選用低成本、高性能、高能效的AI處理器Jetson Nano為主控,其內置一塊四核Cortex-A57 CPU和一塊128核Maxwell架構的GPU。高性能的GPU為深度學習算法提供算力強勁的運行載體,在運行多個神經網絡AI算法的同時,可處理來自多個高清傳感器的數據。Jetson Nano不僅提供了以太網、USB2.0/3.0、HDMI、MIPI CSI、SPI、UART、GPIO等豐富的硬件接口,而且還支持一系列主流的AI框架和算法,如TensorFlow、PyTorch等,使開發人員能夠方便地將AI模型和框架集成到產品中,快速實現圖像識別、目標檢測、姿勢估計、語義分割、視頻增強和智能分析等強大功能[9]。

冗余處理器使用STM32F407ZGT6,兩個處理器間通過串行SPI總線方式進行定期數據交互和校驗。當某一處理器發生數據校驗出錯或未響應時,另一處理器立即通過RS485總線或安全IO觸發外部報警信號,使得外部被監控對象緊急停機,并輸出異常報警信號。

2.2 通訊模塊

通訊模塊用于和機器人控制器進行控制命令交互。為適應各類機器人控制器接口,本系統提供以太網、RS485、安全IO模塊3種方式。其中,以太網采用TCP/IP協議通訊,RS485采用Modbus協議通訊,安全IO模塊采用PNP三線常閉電平信號通訊。如圖4所示,Jetson Nano以太網單元的外圍電路只需增加網絡變壓器和RJ45連接器。

圖4 系統以太網單元電路圖

2.3 視覺傳感器模塊

視覺傳感器用于實時監控機器人工作區域。本系統選用有效像素約808萬的背照式CMOS視覺傳感器IMX219,其視場角可達160°,能滿足拍攝幀率180幀/s高速視頻,具有高靈敏度、高幀率拍攝等特點。視覺傳感器模塊通過CSI接口和Jetson Nano連接,其硬件電路如圖5所示。

圖5 系統視覺單元電路圖

2.4 云臺及投影燈模塊

兩自由度云臺模塊用于調節視覺傳感器的視角,包括偏航角度軸、俯仰角度軸。每軸均采用34型步進電機來驅動,通過Jetson Nano GPIO引腳發送脈沖信號至步進電機驅動芯片LV8728MR來控制電機轉動。如圖6所示,視覺傳感器安裝于云臺俯仰軸上,俯仰軸再安裝于偏航軸上,則視覺傳感器可獲得2自由度的運動控制。

圖6 系統云臺模塊結構示意圖

投影燈警示模塊用于投射機器人工作區域、警示人員禁止闖入,通過黃、紅兩種燈光顏色將機器人工作區域投影為黃色報警區域、紅色報警區域,并通過調節鏡片距離來設定投影區域的范圍。

3 軟件設計

本系統軟件基于Ubuntu18 OS環境開發,主要包括人員入侵檢測算法和外設控制程序兩部分。其中人員入侵檢測采用深度學習方法實現,具體而言,YOLO算法檢測人員、DeepSORT算法進行人員定位和軌跡跟蹤[10]。外設控制程序包括雙CPU冗余控制、云臺驅動、視頻壓縮存儲、語音播報、可靠性冗余校核、外部通訊、參數配置、系統日志以及主框架程序等。軟件架構如圖7所示。

圖7 軟件架構示意圖

3.1 人員入侵檢測算法設計

YOLO是當前發展最為迅速的目標檢測算法。相比二階段算法如Faster-RCNN,一階段YOLO算法通過省略粗定位過程而調整骨干網絡可獲得更優性能[11],尤其是基于PyTorch框架的YOLOv5兼顧了輕量級和高準確度的特點。

DeepSORT是多目標跟蹤中常用到的一種算法。相較于常規的基于特征的圖像處理算法,該算法具有重復檢測更穩定、算法結構更簡單的特點,特別在目標交叉時ID交換和目標消失后重識別的問題上有較好效果。

故本系統選用YOLOv5和DeepSORT作為人員入侵目標檢測算法模型。

3.1.1 算法流程

算法總體流程是:首先,Jetson Nano讀取視覺傳感器的視頻流,并將每幀視頻數據寫入視頻隊列。其次,YOLOv5算法從隊列中取出當前數據幀送入主干網絡Backbone。Backbone負責運動目標的特征提取,包括Focus、BttlenCSP、SPP三個模塊。再次,由頸部網絡Neck對主干網絡所提取的特征進行增強,所采用的模塊是PANet路徑聚合結構。然后,頭部網絡Head分別對原圖像進行了8倍、16倍和32倍下采樣,并分別生成3個不同大小的特征向量,用來檢測不同大小的目標。最后,由DeepSORT算法對YOLOv5算法輸出的預測框信息進行目標特征建模、匹配和跟蹤,輸出人員入侵的檢測結果。算法工作流程如圖8所示。

圖8 算法流程圖

3.1.2 YOLO算法實現

(1)軟件環境搭建

選取操作系統為Ubuntu18.04,在Ubuntu環境下通過指令分別安裝軟件包:Anaconda3、PyTorch1.8.0、Python3.8、Cuda10.2、cuDnn8.2.0。以PyTorch為例,其安裝過程如下:

S1.創建一個新的名為yolov5_wyy的虛擬環境:

conda create-n yolov5_wyy python==3.7

source activate yolov5_wyy

S2.安裝PyTorch,torchvision:

conda install pytorch==1.8.0 torchvision==0.9.0

S3.驗證pytorch和torchvision是否正確安裝完。

(2)模型訓練

按照如圖9所示數據存儲的目錄格式,對包含人員的機器人作業圖片進行處理和存儲。人員標注采用labelimg軟件,其中圖片和標簽文件的名字一一對應,標簽文件的形式為類別、中心點x、中心點y、邊框寬度w、邊框高度h。

圖9 數據存儲的目錄格式

修改yolov5_wyy目錄下面的data和models兩個模板文件,在yolov5_wyy.yaml文件中修改factory、robots、nc以及names四行,分別對應的是訓練圖片的路徑、驗證圖片的路徑、總數量以及類別。然后在models目錄下面修改yolov5s.yaml文件,主要修改nc變量。最后,通過以下命令即可訓練本文所需模型:python train.py--img 640--batch 16–epochs 5--data./data/yolov5_wyy.

.yaml--cfg./models/yolov5s.yaml--weights weighs/yolov5s.pt。

(3)模型測試

模型訓練完成后,將runs/exp/weights下的模型(文件名后綴為pt)復制在yolov5文件夾下。運行命令:python detect.py--weights yolov5_wyy.pt--source../project_train_data/

/images/Robots_img,對模型進行測試。

3.1.3 DeepSORT算法實現

本系統基于Yolov5_DeepSort_Pytorch開源軟件實現人員的定位和追蹤,其代碼可從該地址獲取:https://github.com/mikel

-brostrom/Yolov5_DeepSort_Pytorch.git。

Yolov5_DeepSort_Pytorch的DeepSORT算法流程主要包括4個階段[12]。

(1)檢測階段:分析YOLOv5輸入的視頻幀,識別屬于特定類型的對象,給出分類和坐標。

(2)軌跡處理和狀態估計階段:提取表觀特征和運動特征,表觀特征用于比對以避免ID Switch,運動特征便于卡爾曼濾波對其進行預測;同時,使用軌跡預測器預測該目標的下一個位置。

(3)相關性度量階段:表觀特征和運動特征用來計算兩個目標之間的相似性。

(4)級聯匹配階段:計算前后兩幀目標之前的匹配程度(利用匈牙利算法和級聯匹配),為每個追蹤到的目標分配ID。

本文結合YOLOv5目標檢測和DeepSORT目標追蹤算法,通過設置基本閾值參數控制軌跡預測的歐式距離,以實現人員入侵檢測和跟蹤功能。

3.2 外設控制程序設計

外設控制程序主要包括雙CPU冗余控制、云臺驅動、外部通訊、視頻處理、語音播報、參數配置及日志等。

(1)雙CPU冗余控制

為提高系統可靠性,本系統采用Jetson Nano和STM32F407ZGT6構成雙機冗余控制方式。Jetson Nano為主處理器,STM32F407ZGT6處于熱備形式,兩者通過SPI總線通訊[13]。利用校驗算法相互監視對方的運行狀況和通訊情況,一旦發現對方故障,當即發出報警,經過RS485總線或安全IO接口控制機器人停機,并將異常狀態信息寫入系統日志。

(2)云臺驅動

設計PWM線程任務控制GPIO分別輸出脈沖和方向信號至LV8728MR,以驅動步進電機轉動。其工作流程是,第一次上電開機時,系統控制每個軸的步進電機往正方向運行到機械限位,并將機械限位設定為原點位置。然后根據系統已保存的參數,運行至工作角度。在遠程調整模式下,通過上位機可以點動每個軸,以設定最佳的視覺傳感器監控位置。

(3)外部通訊

通訊模塊包括USB、以太網、RS485以及安全IO接口。USB用于U盤方式拷貝監控視頻等文件。以太網用于連接上位機軟件進行參數配置,也可連接機器人輸出監控信號。以太網作為監控信號輸出時,采用TCP/IP協議與機器人通訊。Jetson Nano和STM32F407ZGT6同時擁有對RS485和安全IO的控制權,在系統正常時,僅由Jetson Nano輸出信號。當系統故障時,STM32F407ZGT6通過RS485和安全IO同時輸出報警信號。

(4)視頻處理

視頻處理模塊創建3個線程,T1線程負責讀取視頻流,T2線程進行YOLOv5算法處理,T3線程負責壓縮和存儲視頻流數據。

T1線程利用OpenCV庫接口函數從視覺傳感器獲取視頻流,將每幀視頻數據先后寫入到Q1、Q2隊列中。其中Q1送至T3進行視頻處理和存儲,Q2送至T2進行YOLOv5算法處理。當算法檢測到人員入侵時,T2線程將添加檢測框的視頻幀數據送至T3進行標記處理和存儲。

(5)語音播報

語音播報模塊根據人員入侵檢測結果播報對應的語音提示,系統中事先存儲錄制好的音頻文件,通過調用Ubuntu系統提供的音頻播放API實現語音播放功能。

(6)參數配置及日志

為方便遠程或遠距離調試參數以及查看系統日志文件,本系統提供VNC后臺服務供上位機PC遠程連接,用戶僅需在上位機PC上安裝VNC軟件,輸入智能防護系統的IP地址即可遠程操控其參數和日志文件。

4 實驗與分析

為測試系統的有效性,搭建了基于安全防護系統的機器人測試平臺。通過設定機器人警示區、危險區等不同工作區域以驗證對入侵人員識別以及分級報警的準確性。

機器人工作區域分為3個部分,最外圓和中間圓之間的環形區域為警示區,當系統檢測到人員進入該區域將控制機器人減速。中間圓和最內圓之間的環形區域為危險區,一旦系統監測到人員入侵該區域則驅使機器人立即停止運行。

測試結果如圖10—12所示。圖10顯示,當機器人工作區域沒有人或者人員處于警示區之外時,系統不影響機器人的正常工作。此時,系統將實時追蹤該入侵人員的動態位置但不發出任何報警指令。

圖10 機器人正常工作狀態

由圖11可知,當人員局部或全部處于警示區內時,系統控制機器人減速到額定速度的30%。若人員局部或全部處于危險區內,系統驅使機器人立即停機。如圖12所示,人員在危險區的位置發生變化時,機器人位姿已不再變化,處于停止狀態。

圖11 人員入侵警示區域后機器人減速

圖12 人員入侵危險區域后機器人停機

實驗結果表明,本系統能夠有效區分人員和運動的機器人,準確識別、定位及跟蹤入侵機器人工作區域的人員,并可靠控制機器人響應相應的安全處理措施。

5 結束語

本文針對人機共融、協同作業場景的安全防護問題,設計了一種基于Jetson和深度學習算法的智能安全防護系統。該系統利用Jetson作為主控平臺,搭建視覺傳感器、網絡通訊、視頻存儲、云臺驅動等外圍模塊。借助YOLO和DeepSORT算法實現了人員的實時且準確的識別、定位及跟蹤。系統通過投影燈分級投射機器人工作區域以警示,在檢測到人員闖入時語音報警,并控制機器人減速或停止運行以避免人機碰撞。本系統安裝部署簡單、魯棒性高、識別準確、使用友好,為提高人機安全提供了一種有效手段,對人機協作普遍推廣具有積極地促進作用。

猜你喜歡
區域檢測系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
小波變換在PCB缺陷檢測中的應用
關于四色猜想
分區域
主站蜘蛛池模板: 小说区 亚洲 自拍 另类| 欧美一级在线播放| 高清无码手机在线观看 | 免费a在线观看播放| 国产日韩精品欧美一区灰| 久久黄色毛片| 亚洲精品制服丝袜二区| 人妻无码一区二区视频| 国产精品深爱在线| 国产三区二区| 亚洲中文久久精品无玛| 亚洲区第一页| 国产一在线观看| 全部毛片免费看| 一区二区三区国产| 成年女人a毛片免费视频| 国产无码性爱一区二区三区| 99久久成人国产精品免费| 国内老司机精品视频在线播出| 国产a在视频线精品视频下载| 国产在线观看成人91| 99re精彩视频| 欧美在线一二区| 精品人妻无码中字系列| 毛片视频网址| 色婷婷综合激情视频免费看| 欧美日韩午夜| 超碰91免费人妻| 99久久99视频| 日本亚洲欧美在线| 最新加勒比隔壁人妻| 日韩区欧美国产区在线观看| 亚洲天堂2014| 99re这里只有国产中文精品国产精品 | 国产一区二区三区精品欧美日韩| 国产人成在线视频| 日本午夜三级| 国产青榴视频| 成·人免费午夜无码视频在线观看 | 欧美国产综合视频| 人妻少妇久久久久久97人妻| 欧美一区二区精品久久久| 四虎影视8848永久精品| 在线综合亚洲欧美网站| 就去色综合| 国产激情国语对白普通话| 99re这里只有国产中文精品国产精品| 国产成人啪视频一区二区三区 | 国产系列在线| 456亚洲人成高清在线| 强奷白丝美女在线观看| 激情乱人伦| 91精品视频网站| 九九九国产| 亚洲无码日韩一区| 在线播放真实国产乱子伦| 国产夜色视频| 亚洲欧美天堂网| 国产极品粉嫩小泬免费看| 国产精品.com| 久久一级电影| 一级毛片a女人刺激视频免费| 国产成人亚洲无码淙合青草| 久久6免费视频| 欧美国产精品不卡在线观看| 国产乱子伦视频三区| 国产在线观看第二页| 伊人激情综合网| 国产精品短篇二区| 国产香蕉国产精品偷在线观看| 97精品国产高清久久久久蜜芽| 无码人妻热线精品视频| 69免费在线视频| 日韩欧美中文字幕在线韩免费| 老司机精品久久| 国产91精品久久| 在线观看亚洲精品福利片| 香蕉eeww99国产精选播放| 国产91精品久久| 成人欧美在线观看| 国产成人综合在线视频| 欧美国产视频|