999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于目標檢測技術的自動售貨機商品識別系統設計

2023-05-06 16:16:02李書閣趙鵬舉程詩妍湯紅輝
無線互聯科技 2023年24期

李書閣 趙鵬舉 程詩妍 湯紅輝

摘要:針對傳統的商品識別方法導致自動售貨機空間利用率低、附加成本高等問題,文章提出一種基于YOLOv5s的輕量化商品圖像檢測方法,并在此基礎上,構建了一個基于圖像識別的自動售貨機商品識別系統,以達到降低運營成本、優化購物體驗的目的。

關鍵詞:目標檢測;商品識別;輕量化網絡;系統架構

中圖分類號:TP315? 文獻標志碼:A

0 引言

自動售貨機可以在無人值守的情況下提供自動化銷售服務,在我國的酒店、車站等公共場所隨處可見,已發展成為智能零售系統的典型代表。傳統的自動售貨機商品識別方法主要有重力感應、射頻識別、機械裝置分隔等,此類自動售貨機結構復雜,空間利用率低,商品種類受限,成本較高,顧客通常不能打開柜門自由選擇商品,購物體驗較差。隨著圖像處理和計算機視覺技術的不斷發展,基于圖像的商品識別技術得到廣泛研究。每張自動售貨機的商品圖像一般都包含多種類型的多個商品,利用計算機視覺領域的目標檢測技術可以找出一張圖像中所有感興趣的商品,獲取每個商品在圖像中的具體位置坐標,進而識別出每種商品的類別和數量。由于自動售貨機中商品種類較多,外觀、形狀各異,還可能存在遮擋情況,商品圖像采集受光照、角度影響大,因此,基于目標檢測技術的自動售貨機商品識別面臨極大挑戰。

1 基于目標檢測技術的商品識別方法

1.1 目標檢測技術

商品識別一般利用目標檢測技術,確定圖像中所有商品所處的位置、類別和數量。傳統的目標檢測方法采用基于特征的圖像匹配識別技術,手工設計特征對目標進行檢測,常用的方法有ORB、HOG、LBP、SIFT、SURF等[1]。由于手工設計的特征受光照、視角等因素影響,無法準確表達目標特征,魯棒性較低,檢測效果不理想。為了更好地解決這些問題,基于深度學習的目標檢測方法開始被應用于商品識別的研究。基于深度學習的目標檢測方法按照處理流程不同可以劃分為2種:兩階段檢測算法和單階段檢測算法。兩階段檢測算法在第一階段先生成候選框并進行候選框的篩選,第二階段根據候選框計算目標物體的所屬類別概率,判斷候選框內是否包含待檢測的物體目標,常見的算法有R-CNN[2]、SPP-Net[3]、Fast R-CNN[4]等。單階段檢測算法不需要生成候選框,直接回歸預測目標框的位置坐標和目標的分類概率,常見的算法有YOLO[5]、SSD[6]等。上述目標檢測算法網絡參數量和運算量特別大,難以部署到計算能力有限的嵌入式設備。

近年來,許多學者開展基于深度學習的目標檢測模型的輕量化研究,減少模型的參數量和計算量,易于部署到嵌入式設備進行高效的目標檢測。龔惟新等[7]引入C3HB模塊和交叉注意力模塊實現 YOLOv5s模型的輕量化。楊小岡等[8]使用MobileNetv3結構重構YOLOv5模型的主干網絡﹐并添加MNtECA特征提取網絡對模型進行壓縮和加速。本文綜合考慮商品識別系統的檢測精度和速度,以及在自動售貨機嵌入式系統的部署需求,選擇YOLOv5s模型作為商品識別方案,并在此基礎上提出一種輕量化的商品識別算法。

1.2 商品識別方法

YOLOv5s模型框架是YOLO系列的改進結構,性能表現優異。作為一種單階段的目標檢測算法,YOLOv5s由4個部分組成:Input、Backbone、Neck和Head。為了實現YOLOv5s的輕量化并保持良好的網絡性能,首先采用網絡模型Shufflenetv2[9]替換YOLOv5s原來的主干網絡,輕量化的Shufflenetv2網絡可以減小模型參數量和計算量。然后,在模型主干網絡中引入注意力機制(Convolutional Block Attention Module,CBAM)[10],提取圖像中的關鍵信息,提高目標檢測精度。最后,利用Focal-EIoU Loss[11]代替CIoU Loss,在IoU基礎上引入目標框和預測框的長寬信息,解決CIoU中長寬比等比例變化懲罰失效的問題,更加關注高質量的分類樣本,提高對難分類樣本的學習能力,減少漏檢或者誤檢的情況。

為了實現基于深度學習的商品檢測,系統必須建立商品圖像數據集。在自動售貨機每層隔板頂部安裝一個廣角攝像頭,選取10種商品按隨機位置和角度擺放,以單張拍攝的方式采集至少500張商品圖像。為了擴充圖像數據集,還需將拍攝的圖像隨機進行拉伸、旋轉、模糊、鏡像等處理,然后使用LabelImg工具進行標注,并將數據集文件保存為VOC格式,最后按照7∶2∶1的比例將數據集劃分為3部分:訓練集、驗證集及測試集。搭建深度學習環境,將商品圖像數據集輸入輕量化后的YOLOv5s模型中訓練學習300個Epoch,生成最終學習結果。

2 自動售貨機商品識別系統設計

2.1 系統開發環境

為了開發基于深度學習的商品圖像目標檢測網絡模型,本文在Windows10 64位操作系統中,利用Anaconda3搭建深度學習環境,使用CUDA11.8、Python3.9和Pytorch 2.0.0搭建開發環境。利用???? PyCharm 2022.2.4和PyQt5開發自動售貨機商品識別應用界面,利用嵌入式輕量化的數據庫工具SQLite3開發商品信息數據庫,系統可靠性高、可移植性好。開發商品識別系統的計算機采用Intel Core i7-13700KF CUP處理器,配置NVIDIA GeForce RTX 3060 GPU(顯存12 GB)和32 GB DDR4內存。自動售貨機配置瑞薩RZ/G2L嵌入式開發板,可以實現商品識別網絡模型的移植和部署。

2.2 系統架構設計

自動售貨機商品識別系統由設備層、網絡層、平臺層和應用層組成,系統框架如圖1所示。設備層由攝像頭、稱重傳感器、溫度傳感器、門鎖感應器及其他感應裝置組成,負責售貨機關鍵部件控制和數據采集。攝像頭用于采集商品圖像數據,并將采集的數據分類存放于文件系統;稱重傳感器實時監測和采集每個隔板上貨物的質量信息。門鎖感應器實時監測售貨機柜門開閉情況。網絡層由TCP/IP協議的以太網和4G/5G移動網構成數據傳輸通道,負責系統各層功能模塊之間的信息交互。平臺層由文件系統、數據庫和搭建Pytorch運行環境的服務器組成,負責設備層的數據存儲管理和統一調度控制,同時為應用層提供計算服務。應用層由后臺應用層和終端應用層2部分組成。后臺應用層包括商品圖像采集、訓練學習和檢測識別等模塊。圖像采集模塊負責商品圖像和商品屬性信息的采集,并存入文件系統;商品圖像訓練學習模塊負責基于深度學習的目標檢測模型的訓練學習,導入商品圖像訓練數據集后自動學習,并將最終學習結果保存到文件系統;商品圖像檢測識別模塊利用最終學習得到的網絡模型檢測實時采集的商品圖像,獲取圖像中包含的商品種類和數量信息,然

后從數據庫中查詢相應的商品信息并計算商品總價。終端應用層主要針對自動售貨機的多元化應用場景,提供如掃碼購物、商品圖像識別等多種不同類型的服務功能。

2.3 系統工作流程

首先,在平臺層利用服務器制作商品圖像數據集,商品種類發生變化時,還要及時補充新增商品的圖像數據并完成圖像的標注。每次新增商品的圖像數據都要進行商品圖像訓練學習,并將最終學習得到的網絡模型移植到自動售貨機的嵌入式系統。系統工作流程如圖2所示。顧客購物時,通過掃碼打開售貨機柜門,觸發稱重傳感器進行重力計算,并開啟攝像頭拍攝商品圖像,根據商品圖像識別售貨機每層商品的種類和數量。顧客選取商品關閉柜門后,再次觸發稱重傳感器稱重和攝像頭拍攝,根據此時拍攝的商品圖像檢測識別每層剩余商品的種類和數量。根據圖像識別信息統計顧客購物前后商品種類和數量的差值,根據稱重信息統計商品重量的差值,然后匯總商品銷售信息并按照銷量與售價計算總價,顧客結算之后,向顧客推送結算信息并完成購物過程。通過稱重傳感器進行重力計算,可以對商品的類別與數量變化進行輔助驗證,提高商品識別的準確性和可靠性。

3 系統測試與驗證

為了評估最終訓練學習得到的網絡模型的檢測精度,本文利用測試集對網絡模型進行評估,采用平均精度均值(Mean Average Precision,mAP)來評估網絡模型的分類和定位性能,mAP是評價目標檢測模型性能的常用指標。測試結果表明,輕量化后的YOLOv5s網絡模型訓練300個Epoch后,在測試集上可達到94.1% mAP,能夠準確地預測圖片中商品的位置和類別,具有良好的預測效果。將最終訓練學習得到的網絡模型移植到自動售貨機的瑞薩RZ/G2L嵌入式開發板中,以此構建基于圖像的商品識別系統。

4 結語

本文提出一種基于YOLOv5s的輕量化商品圖像檢測方法,并依此構建一個基于圖像識別的自動售貨機商品識別系統。具體設計如下:首先,采用輕量化網絡Shufflenet-V2替換YOLOv5s原來的主干網絡,引入注意力機制提取圖像中的關鍵信息,利用Focal-EIoU Los代替CIoU Loss提高目標檢測精度,構建一種輕量化的目標檢測算法,并部署在自動售貨機的嵌入式系統中實現商品識別。其次,利用輕量化的YOLOv5s模型構建一種自動售貨機商品識別系統,可以實現掃碼開門購物,無感自動結算,提升顧客的購物體驗。最后,利用測試集對網絡模型進行評估測試,測試結果表明,本文提出的輕量化商品圖像檢測模型具有良好的識別效果。

參考文獻

[1]RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB:an efficient alternative to SIFT or SURF[C].Proc of International on Computer Vision.Washington DC:IEEE Computer Society,2011.

[2]GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C].Columbus:2014 IEEE Conference on Computer Vision and Pattern Recognition,2014.

[3]HE K,ZHANG X,REN S,et al.Spatial pyramid pooling in deep convolutional networks for visual recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015(9):1904-1916.

[4]GIRSHICK R.Fast R-CNN [C].Columbus:2015 IEEE International Conference on Computer Vision,2015.

[5]LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot multibox detector[C].Amsterdam:European Conference on Computer Vision,2016.

[6]REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C].Las Vegas:2016 IEEE Conference on Computer Vision and Pattern Recognition,2016.

[7]龔惟新,楊珍,李凱,等.基于改進YOLOv5s的自然環境下獼猴桃花朵檢測方法[J].農業工程學報,2023(6):177-185.

[8]楊小岡,高凡,盧瑞濤,等.基于改進YOLOv5的輕量化航空目標檢測方法[J].信息與控制,2022(3):361-368.

[9]MA N,ZHANG X,ZHENG H T,et al.Shufflenet v2:Practical guidelines for efficient cnn architecture design[C].Berlin:Proceedings of the European conference on computer vision,2018.

[10]WOO S,PARK J,LEE J Y,et al.Cbam:convolutional block attention module[C].Berlin:Proceeding of the European Conference on Computer Vision,2018.

[11]ZHANG Y F,REN W,ZHANG Z,et al.Focal and efficient EIoU loss for accurate bounding box regression[J].Neuro Computing,2022(506):146-157.

(編輯 何 琳編輯)

Commodity recognition system design for vending machine based on object detection technologyLi? Shuge, Zhao? Pengju, Cheng? Shiyan, Tang? Honghui

(Chongqing College of Electronic Engineering, Chongqing 401331, China)

Abstract: In response to the problems of low space utilization and high additional costs caused by traditional commodity recognition methods used in vending machines, a lightweight commodity image detection method based on YOLOv5s is proposed. A commodity recognition system for vending machine based on image recognition is constructed to reduce operating costs and optimize shopping experience on this basis.

Key words: object detection; commodity recognition; lightweight net; system architecture

主站蜘蛛池模板: 91久久精品国产| 亚洲国产看片基地久久1024| 国产老女人精品免费视频| 在线观看网站国产| 欧美综合成人| 国产精品毛片一区| 色综合天天操| 五月天在线网站| 制服丝袜无码每日更新| 自偷自拍三级全三级视频| 国产96在线 | 欧美不卡在线视频| 免费观看三级毛片| 一本色道久久88| 91福利一区二区三区| 日本免费新一区视频| 麻豆国产在线不卡一区二区| 国产美女主播一级成人毛片| 欧美国产成人在线| 一区二区影院| 亚洲人成影院在线观看| 91口爆吞精国产对白第三集| 国产丝袜无码一区二区视频| 亚洲无码高清免费视频亚洲| 国产黑丝一区| 欧美日韩成人| 久久女人网| 亚洲水蜜桃久久综合网站| 99精品免费欧美成人小视频| 日韩在线播放中文字幕| 国产网站免费看| 人禽伦免费交视频网页播放| 日本亚洲国产一区二区三区| 国产午夜福利片在线观看| 最新日韩AV网址在线观看| 久热中文字幕在线| 午夜视频免费一区二区在线看| 欧美一级大片在线观看| 国产精品极品美女自在线| 久久国产精品国产自线拍| 婷婷综合色| 国产精品香蕉| 久久久亚洲色| 亚洲色图欧美在线| 无码aaa视频| 深爱婷婷激情网| 亚洲美女一区二区三区| 97se亚洲综合在线韩国专区福利| 中文字幕无码制服中字| 日韩国产黄色网站| 中文字幕永久在线观看| 精品無碼一區在線觀看 | 欧美精品高清| 毛片免费在线视频| 欧美另类第一页| 五月激激激综合网色播免费| 国产精品无码影视久久久久久久| 香蕉视频在线观看www| 男女精品视频| 亚洲熟女中文字幕男人总站| 97一区二区在线播放| 国产午夜看片| 狠狠综合久久久久综| 欧美人与性动交a欧美精品| 国产9191精品免费观看| 激情乱人伦| av在线人妻熟妇| 亚洲成a人片| 在线观看国产黄色| 日韩在线网址| 成人第一页| 成人午夜网址| 国产在线自揄拍揄视频网站| 日韩精品亚洲一区中文字幕| 亚洲永久色| 国产欧美日韩精品第二区| 亚洲精品无码久久毛片波多野吉| 国产二级毛片| 超级碰免费视频91| 色综合中文字幕| 欲色天天综合网| 在线精品亚洲一区二区古装|