999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于遷移學習的可回收生活垃圾圖像分類識別研究

2020-06-28 02:00:54鄭譽煌戴冰燕熊澤琿陳釗
廣東第二師范學院學報 2020年3期
關(guān)鍵詞:分類模型

鄭譽煌, 戴冰燕, 熊澤琿, 陳釗

(1. 廣東第二師范學院 教務(wù)處, 廣東 廣州 510303;2. 廣東第二師范學院 物理與信息工程系, 廣東 廣州 510303)

0 引言

據(jù)世界銀行2018年發(fā)布的《垃圾何其多2.0》報告顯示,全球垃圾2016年大約為20億噸,到2050年將增至34億噸,而現(xiàn)在1/3的固體垃圾被公開傾倒或焚燒,垃圾回收處理有著巨大的生態(tài)收益. 生活垃圾包括人們在日常生活或為生活提供服務(wù)的活動中產(chǎn)生的固體廢物. 生活垃圾中的可回收垃圾包括金屬、紙類、塑料、玻璃等,占城市生活垃圾40%,是可回收垃圾的主要部分.

可回收垃圾的循環(huán)利用對我國經(jīng)濟的可持續(xù)發(fā)展有著重要意義. 當前的垃圾回收需要人們手動分類垃圾,找到一種自動分類垃圾的方法,提高垃圾回收的效率,不僅會產(chǎn)生顯著的社會效益,而且有巨大的經(jīng)濟效益. 為了提高可回收生活垃圾識別的準確率,研究人員嘗試利用圖像處理、機器學習等方法自動識別玻璃瓶、廢紙、紙盒、易拉罐等常見生活廢品. 利用圖像處理技術(shù)獲取垃圾圖像的特征后,再利用深度學習網(wǎng)絡(luò)[1]、支持向量機、K 近鄰分類器[2]、主成分分析(PCA )方法[3]等方法對垃圾圖像特征向量進行分類.

現(xiàn)有基于機器學習的可回收生活垃圾識別,核心是采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)引入局部連接、權(quán)值共享、池化操作、非線性激活等方法,允許網(wǎng)絡(luò)從數(shù)據(jù)中自動學習特征,比傳統(tǒng)機器學習方法具有更強大的特征學習和特征表達能力. 如YOLO[1]、MobileNet[4]、AlexNet[5]、VGG19[6]、ResNet50[7]等,在相應(yīng)的數(shù)據(jù)集領(lǐng)域有較好的效果. 但在可回收生活垃圾圖像數(shù)據(jù)集上,這些深度卷積神經(jīng)網(wǎng)絡(luò)模型存在訓練耗時長、準確率不高等問題. 為此本文利用遷移學習方法,將ResNet18預(yù)訓練模型在ImageNet大型圖像數(shù)據(jù)集上學習得到的圖像分類共性知識,遷移到可回收生活垃圾圖像識別模型中,通過組合試驗與對比,分析優(yōu)選模型的參數(shù),以期提高新分類模型的訓練效率與識別準確率,為進一步開發(fā)智能垃圾分類系統(tǒng)等機器提供分類模型支持.

1 實驗數(shù)據(jù)集

本研究的圖像數(shù)據(jù)集以Gary Thung和Mindy Yang[5]創(chuàng)建的垃圾圖像數(shù)據(jù)集為基礎(chǔ),該數(shù)據(jù)集由1 989張圖片組成,分為玻璃、紙張、塑料、金屬、紙皮5個類別,所有圖片的大小調(diào)整到512×84. 由于數(shù)據(jù)集的圖像數(shù)量較少,從Kaggle網(wǎng)站中的waste_pictures數(shù)據(jù)集中抽取2 485張相同類型的圖像,最終形成4 474張圖片的實驗數(shù)據(jù)集. 每個類別的樣圖如圖1所示. 這些圖像能較好表達生活垃圾被回收時的狀態(tài),例如變形的瓶子、皺褶的紙張等. 每類大約有500~900張圖像,每張照片的燈光和姿勢都不一樣,每個圖像都執(zhí)行了圖像增強技術(shù). 這些技術(shù)包括圖像的隨機旋轉(zhuǎn)、隨機亮度控制、隨機平移、隨機縮放和隨機剪切. 選擇變換的圖像是為了考慮回收材料的不同方向,并最大化數(shù)據(jù)集的規(guī)模.

a.紙皮b.玻璃c.廢紙d.易拉罐e.塑料瓶

圖1 數(shù)據(jù)集中拉圾類別的樣圖

2 遷移學習

遷移學習(Transfer Learning)的概念[8]自1995年在NIPS5專題討論會上被提出后,受到學術(shù)界的廣泛關(guān)注. 考慮到大部分數(shù)據(jù)或任務(wù)存在相關(guān)性,通過遷移學習,可以將訓練好的模型參數(shù)通過某種方式分享給新模型,從而提高并優(yōu)化模型的學習效率. 本研究基于ResNet18模型進行遷移學習,ResNet18模型在大型圖像數(shù)據(jù)集ImageNet 上獲得了充分訓練,學習了圖像分類識別所需的大量特征,可用于可回收生活垃圾分類識別問題. 采用基于ImageNet數(shù)據(jù)集的ResNet18預(yù)訓練模型,就不用重新訓練可回收生活垃圾分類的實驗數(shù)據(jù)集,只要把ResNet18預(yù)訓練模型遷移到實驗數(shù)據(jù)集,即可獲取相同的效果,保證識別的精度,提高訓練速度.

2.1 ResNet18模型結(jié)構(gòu)

圖2 ResNet18模型結(jié)構(gòu)

2.2 遷移學習模型

圖3 遷移學習模型

3 結(jié)果與分析

模型訓練與測試均是在Matlab 2019a的深度學習框架下完成的. 硬件環(huán)境:Intel i7-8750H @2.20GHz CPU,32GB內(nèi)存;Nvidia RTX2070 GPU,8GB 顯存. 軟件環(huán)境:CUDA Toolkit 9.0,CUDNN V7.0;Matlab Deep Learning Toolbox;Windows 10 64bit 操作系統(tǒng). 模型訓練與測試均通過GPU 加速. 對于遷移學習模型訓練,主要有Epoch、Batch Size和Learning Rate參數(shù).

1)Epoch:一個Epoch指代所有的數(shù)據(jù)送入網(wǎng)絡(luò)中完成一次前向計算及反向傳播的過程,隨著Epoch數(shù)量的增加,神經(jīng)網(wǎng)絡(luò)中權(quán)重更新迭代的次數(shù)增多.

2)Batch Size:Batch是每次送入網(wǎng)絡(luò)中訓練的一部分數(shù)據(jù),而Batch Size就是每個Batch中訓練圖片樣本的數(shù)量. 為了在內(nèi)存效率和內(nèi)存容量之間尋求最佳平衡,Batch Size應(yīng)該進行精心設(shè)置,優(yōu)化網(wǎng)絡(luò)模型的性能及速度.

3)Learning Rate:是深度學習中重要的參數(shù),其決定著訓練樣本的識別精度,合適的Learning Rate能夠使訓練樣本的識別精度在合適的時間內(nèi)達到一個理想值.

隨機把可回收生活垃圾數(shù)據(jù)集中每一類別圖片的70%分為訓練集、另外30%作為測試集. 上述3個參數(shù)分別取3個不同值時,共完成27次實驗,每次實驗中訓練模型的耗時和模型的測試精度如表1所示. 為了綜合評價每種參數(shù)組合的效果,對精度和耗時做歸一化處理,作為精度和耗時的得分,將精度得分和耗時得分分別按0.6和0.4加權(quán)平均,可得綜合得分. 根據(jù)綜合得分,可見Epoch、Batch Size和Learning Rate參數(shù)組合分別取(5,32,10-3)和(10,32,10-3)時,遷移學習效果最好.

考慮到訓練過程中可能存在的隨機誤差,對(5,32,10-3)和(10,32,10-3)這兩個組合,再重復(fù)進行4次實驗,可得表2的實驗數(shù)據(jù). 可見這兩個參數(shù)組合所得的遷移模型精度比較接近,但(5,32,10-3)組合的訓練耗時比(10,32,10-3)組合少得多. 圖4和圖5是兩個組合訓練時的過程曲線. 可見,在Batch Size和Learning Rate取得合適的值時,Epoch的增加可以提高一定的精度,但是訓練耗時會增加很多. 圖中迭代次數(shù)是由訓練集數(shù)量和Batch Size相除取整而得.

由于(10,32,10-3) 組合精度較高,而且比較穩(wěn)定,訓練耗時適中,因該對此組合的模型分類結(jié)果作進一步分析,形成如表3所示的混淆矩陣.

由表3 的混淆矩陣可知,模型的平均分類準確率為93.76%,預(yù)測準確率從高到低依次是紙皮、廢紙、塑料瓶、玻璃、易拉罐. 由混淆矩陣可以看出,分類錯誤主要為玻璃、易拉罐和塑料瓶之間的誤判. 由于玻璃外觀和塑料比較接近,易拉罐表面有金屬反光,在特定的視角有可能被誤判. 紙皮和廢紙的識別準確率較高,出現(xiàn)錯誤也主要是對兩者直接的相互誤判.

針對文獻[5]的數(shù)據(jù)集,文獻[5]和[7]所提出分類方法識別準確率分別是63%和87%;采用本文基于文獻[5]擴展數(shù)據(jù)集,文獻[5]和[7]的分類方法識別準確率分別是85.9%和92.12%,都小于本文所提出的分類模型精度(93.37%).

表1 實驗數(shù)據(jù)

精度/%100806040200100150200250300350400450500050Epoch1迭代次數(shù)Epoch2Epoch3Epoch4Epoch5每次迭代的訓練精度每次迭代的驗證精度Final

圖4 (5,32,10-3)組合訓練過程

圖5 (5,32,10-3)組合訓練過程

表3 混淆矩陣

4 結(jié)論

針對現(xiàn)有的可回收垃圾分類識別方法存在的識別精度不高的問題,本文利用遷移學習方法調(diào)整了ResNet18預(yù)訓練模型的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),并對可回收垃圾圖像識別進行了分類實驗,對Epoch、Batch Size和Learning Rate參數(shù)對模型性能的影響進行了對比分析,得到如下結(jié)論:

1)被遷移學習調(diào)整后的ResNet18預(yù)訓練模型,可以較好地自動提取可回收垃圾圖像特征,具有較高的分類性能,平均識別準確率達到93.37%.

2)遷移學習可以充分利用在大型ImageNet數(shù)據(jù)集上學習已得到的分類知識,在保證不少于90%的識別準確率的條件下,訓練時間小于10 min.

3)Epoch、Batch Size和Learning Rate參數(shù)取(5,32,10-3)和(10,32,10-3)組合時,可取得比較好的訓練效果.

目前的模型局限于背景簡單的可回收垃圾圖像,實際應(yīng)用可能是多種垃圾混合在一起. 今后應(yīng)進一步豐富可回收垃圾圖像數(shù)據(jù)集,建立混合垃圾圖像的分類與識別模型,以進一步提升可回收垃圾圖像模型的識別準確率.

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 国产成人精品午夜视频'| 新SSS无码手机在线观看| 久久精品中文无码资源站| 中文字幕无线码一区| 99久久精彩视频| 精品亚洲麻豆1区2区3区| 久久精品波多野结衣| 伊人久久大线影院首页| 四虎精品国产AV二区| 在线亚洲小视频| 免费一级无码在线网站| 国产一级毛片网站| 国产在线观看91精品亚瑟| 国产成人一区二区| 成年人久久黄色网站| 71pao成人国产永久免费视频| 免费av一区二区三区在线| 综合色区亚洲熟妇在线| 免费视频在线2021入口| 99久久精品美女高潮喷水| 亚洲欧美一级一级a| 欧美黄网站免费观看| 国产91全国探花系列在线播放| 国产精品无码久久久久AV| 波多野结衣在线一区二区| 91精品网站| 全午夜免费一级毛片| 亚洲第一网站男人都懂| 国模私拍一区二区| 天堂va亚洲va欧美va国产| 男女性午夜福利网站| 九色在线视频导航91| 成人午夜天| 亚洲美女操| 日韩成人在线网站| 欧美成人A视频| 国产在线第二页| 亚洲无卡视频| 国产小视频a在线观看| 性色生活片在线观看| yjizz国产在线视频网| 夜色爽爽影院18禁妓女影院| 亚洲欧洲日韩久久狠狠爱| 欧美亚洲国产视频| 亚洲视频免费在线看| 国产精品亚洲一区二区三区z| jizz国产视频| 99re精彩视频| 亚洲一区波多野结衣二区三区| 九九九九热精品视频| 国产午夜人做人免费视频| 国产av色站网站| 欧美天堂久久| 97在线碰| 成人福利在线视频| 九九热这里只有国产精品| 免费中文字幕在在线不卡| 欧美在线黄| 99热免费在线| 免费全部高H视频无码无遮掩| 精品91视频| 久久免费成人| 亚洲天堂久久| 台湾AV国片精品女同性| 亚洲欧美日韩另类在线一| 色九九视频| 亚洲综合激情另类专区| 国内精品免费| 美女免费精品高清毛片在线视| 视频在线观看一区二区| 在线免费观看AV| 日本欧美午夜| 99尹人香蕉国产免费天天拍| 国产男人的天堂| 最新午夜男女福利片视频| 日本一区二区三区精品国产| 国产精品九九视频| 亚洲无码高清视频在线观看| 国产精品不卡片视频免费观看| 国产亚洲视频免费播放| 麻豆国产原创视频在线播放 | 亚洲国产精品一区二区第一页免 |