999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的垃圾圖像分類模型的研究

2021-07-12 09:00:10洪樹亮巴麗合亞卡里布汗程麗娟
新型工業化 2021年3期
關鍵詞:分類深度檢測

洪樹亮,巴麗合亞·卡里布汗,程麗娟

(新疆工程學院,新疆 烏魯木齊 830023)

0 引言

為將垃圾分類真正落實到每個人身上,積極引導市民參與垃圾分類,提升居民的垃圾分類意識,同時將加強社區定時定點的督導工作,引導社區居民進行準確的垃圾分類,增強人們垃圾分類意識的同時更需要提升垃圾分類的技術。傳統的目標檢測主要以人工特征檢測算法為主,通常用滑動窗口的方式,即一個窗口,在檢測圖片上滑動進行依次選取感興趣區域,分別對滑動的每個窗口進行特征提取,比如SIFT,HOG等特征提取算法進行提取特征,之后對提取的特征利用機器學習算法,比如支持向量機等進行分類,最終得到該窗口是否包含某一類物體。

1 相關工作

隨著卷積神經網絡(CNN)在2012年的興起,目標檢測開始了在深度學習下進行分類識別。在深度學習下,目標檢測的效果比傳統手工特征效果更加突出。目前,基于深度學習的檢測算法依然是目標檢測的主流。

深度學習目標檢測的框架主要分為兩類:兩階段(Two Stages)算法和單階段(One Stage)。兩階段(Two Stages)目標檢測算法首先由算法生成一系列作為樣本的候選框,再通過卷積神經網絡進行樣本分類,常見的算法有R-CNN、Fast R-CNN、Faster R-CNN等。單階段(One Stage)不需要產生候選框,直接將目標框定位的問題轉化為回歸問題處理,無需候選區域(Region Proposal),常見的算法有YOLO、SSD等。

R-CNN[1]是目標檢測的開山之作,首先由Selective Search圖像聚類算法生成大約2000個區域候選框(Region Proposal),將生成的每個區域候選框(Region Proposal)分別送入到CNN進行特征提取,接著送入全連接網絡,最后使用SVM線性分類器進行分類,檢測準確率較傳統的目標檢測提高了很多,但檢測運行時間比較慢。

Fast R-CNN[2]是在R-CNN基礎上進行改進,將生成的候選區域(Region Proposal)整體送入CNN,同樣使用SVM線性分類器進行分類,檢測速度較R-CNN有明顯提升。

Faster R-CNN[3]是在Fast R-CNN基礎上進行改進,將R-CNN和Fast R-CNN生成候選區域(Region Proposal)的Selective Search圖像聚類算法用RPN網絡替代,最大的優勢在于共用Faster R-CNN的Backbone,在準確率和檢測速度較Fast R-CNN有較大提升。

YOLOv3[4]算法也借鑒了Faster R-CNN算法的思想,檢測準確率比Faster R-CNN要低,但在檢測速度上較Faster R-CNN更勝一籌。

對于上述兩種方式,基于候選區域(Region Proposal)的方法在檢測準確率和定位精度上占優,基于端到端(End-to-End)的算法速度占優。本文基于深度學習的垃圾圖像分類,涉及到檢測準確率、定位精度、算法速度以及小樣本目標檢測,實驗結果驗證,采用改進YOLOv3深度學習架構垃圾圖像分類模型的效果最優。

2 YOLOv3算法原理

本文YOLOv3使用的基礎網絡是Darknet-53,Darknet-53深度學習框架有著非常好的圖像識別的效果[5],網絡結構如圖1。

YOLOv3算法的基本思想,一般使用416×416大小的圖片作為輸入,首先進行特征提取生成固定大小的特征圖,主干網絡使用Darknet-53結構,最后得到特征圖大小為13×13、26×26、52×52,YOLOv3的網絡結構圖如圖2[5]。

圖1中的DBL是YOLOv3的基本組件,Darknet53的卷積層后接Batch Normalization(BN)和Leaky ReLU。除最后一層卷積層外,在YOLOv3中BN和Leaky ReLU共同構成了最小組件。

圖1 Darknet-53網絡結構

圖2 YOLOv3網絡結構圖

主干網絡中使用了5個resn結構,n代表數字,有res1,res2, ,res8等等,表示這個res_block里含有n個res_unit,這是YOLOv3的大組件。從YOLOv3開始借鑒了ResNet的殘差結構,使用這種結構可以讓網絡結構更深。

輸入圖像分成13×13的grid cell,接著如果真實框中某個object的中心坐標落在某個grid cell中,那么就由該grid cell來預測該object。每個object有固定數量的bounding box,YOLOv3中有三個bounding box,使用邏輯回歸確定用來預測的回歸框。

邊框回歸主要是解決目標框和錨框之間的相對位置關系,通過邊框回歸使得錨框更接近目標框,提高目標檢測的準確度,邊框回歸如圖3[5]。

圖3 邊框回歸圖

邊框回歸公示如下所示:

3 數據集訓練

人工智能快速發展,相關的框架、算法等層出不窮,要檢驗一個算法的好壞,就需要用有關的數據集進行實驗,目前一些AI領域公開的數據集,如COCO,ImageNet等數據集,用戶可以在AI算法項目中直接使用,使用訓練好的模型測試自己的數據集,同樣地,用戶可以建立自己的數據集在AI算法上訓練和測試[6]。

建立數據集:

第一步,準備圖片。本文主要以生活垃圾分類為主,先從網上下載生活垃圾圖片,每個種類下載200張左右即可,保存在YOLOv3相應的目錄下。第二步,用Labellmg標注圖片,標注文件為.txt格式,與圖片同名。第三步,制作訓練數據和測試數據集文件。用下面的Python腳本文件制作訓練數據集文件“train.txt”和測試數據集文件“test.txt”。第四步,創建類別名文件,文件夾的每一行是一個對象的名稱。第五步,數據集配置文件。第六步,模型配置。第七步,下載Darknet源碼。第八步,啟動YOLOv3模型訓練。第九步,測試訓練模型。

4 實驗結果

本文垃圾圖像分類YOLOv3算法在深度學習中的tensorflow2.0和Open CV平臺。本實驗首先使用COCO數據集訓練的模型進行測試,COCO數據集主要是針對目標檢測所創建的數據庫,類別比較豐富,可以用COCO數據集訓練的參數對自己建立的數據集進行測試[7]。其次使用自己創建的數據集在改進YOLOv3進行訓練和測試,利用改進YOLOv3算法精度要高。通過實驗驗證了改進YOLOv3用于垃圾圖像目標檢測的可行性和高效性,但存在數據較少、目標標注引入干擾背景的問題, 后續的工作可以針對數據集進行優化擴展。

5 結語

隨著視覺大數據的出現,單階段的YOLOv3深度學習算法的準確率相比兩階段Faster R-CNN深度學習算法要低,但是在檢測快速性上YOLOv3更勝一籌,本文提出了使用YOLOv3算法進行垃圾圖片的識別和分類,系統使用自己建立數據集,用于對象檢測的模式預測和訓練算法。

猜你喜歡
分類深度檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
深度理解一元一次方程
分類討論求坐標
深度觀察
深度觀察
深度觀察
數據分析中的分類討論
主站蜘蛛池模板: 777午夜精品电影免费看| 无码aaa视频| 亚洲狠狠婷婷综合久久久久| 玖玖精品在线| 伊人婷婷色香五月综合缴缴情| 久久精品中文字幕免费| 制服丝袜在线视频香蕉| 日韩久久精品无码aV| 日韩在线观看网站| 狠狠色成人综合首页| 91精品国产91欠久久久久| 亚洲丝袜第一页| 国产欧美中文字幕| 91色综合综合热五月激情| a级毛片网| 亚洲中文字幕在线一区播放| 精品少妇人妻一区二区| 中日韩一区二区三区中文免费视频| 亚洲中字无码AV电影在线观看| 欧洲av毛片| 无码AV高清毛片中国一级毛片| 曰AV在线无码| 欧美精品伊人久久| 日本高清有码人妻| 97人人做人人爽香蕉精品| 日本亚洲成高清一区二区三区| 欧美高清视频一区二区三区| 国产白浆一区二区三区视频在线| 亚洲国产一区在线观看| 无码国产偷倩在线播放老年人| www欧美在线观看| 欧美日韩一区二区三区在线视频| 国产拍在线| aaa国产一级毛片| 亚洲av无码久久无遮挡| 国产精品久久久久久久久| 丁香五月激情图片| 在线观看网站国产| 婷婷综合色| 免费播放毛片| 国产在线八区| 国产99久久亚洲综合精品西瓜tv| 国产区在线观看视频| 欧美中文一区| 色婷婷在线播放| 免费国产在线精品一区| 无码AV动漫| 91网址在线播放| 91麻豆精品国产91久久久久| 永久免费无码日韩视频| 毛片网站在线看| 国产网站在线看| a毛片免费在线观看| 国产99精品视频| 在线精品自拍| 欧美日本视频在线观看| 狠狠躁天天躁夜夜躁婷婷| 欧美激情福利| 国产精品人莉莉成在线播放| 精品免费在线视频| 97色婷婷成人综合在线观看| 国产网站免费看| 成人91在线| 国产精品片在线观看手机版| 国产福利一区二区在线观看| 视频一区视频二区中文精品| 国产资源站| 日韩毛片基地| 久久永久视频| 久久一级电影| 精品无码专区亚洲| 亚洲国产91人成在线| 国产亚洲欧美在线视频| 中文字幕首页系列人妻| 欧美精品v日韩精品v国产精品| 欧美另类精品一区二区三区| 91精品日韩人妻无码久久| 怡春院欧美一区二区三区免费| 亚洲天堂自拍| 在线播放国产99re| 国产精品夜夜嗨视频免费视频| 欧美一级黄片一区2区|