999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機(jī)制的小樣本啤酒花病蟲(chóng)害識(shí)別*

2021-04-09 01:46:02陸雅諾陳炳才
關(guān)鍵詞:模型

陸雅諾,陳炳才,2

(1.新疆師范大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,烏魯木齊市,830054;2.大連理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,遼寧大連,116024)

0 引言

啤酒花作為制作啤酒的重要原材料,在我國(guó)的新疆、內(nèi)蒙等地被廣泛的種植。其中,在新疆地區(qū)的產(chǎn)地主要分布于天山和阿爾泰山的山間。啤酒花種植結(jié)構(gòu)落后和品種單一等特點(diǎn)導(dǎo)致病蟲(chóng)害迅速漫延,很大程度上影響了啤酒花種植的產(chǎn)量和品質(zhì)。因此,本文針對(duì)于啤酒花病蟲(chóng)害提出智能診斷方法,在提高啤酒花的產(chǎn)量和品質(zhì)同時(shí)達(dá)到智慧農(nóng)業(yè)的理念[1]。

隨著啤酒花的產(chǎn)量穩(wěn)定上升,人工治理病蟲(chóng)害的工作變得異常的機(jī)械和枯燥[2]。傳統(tǒng)的人工分揀工作是通過(guò)肉眼去觀察啤酒花葉片的特征進(jìn)行篩選,人工篩選的局限性促使著智能時(shí)代的發(fā)展,因此人們?yōu)榱颂岣弋a(chǎn)量,根據(jù)機(jī)器視覺(jué)[3]所具有的高效、精確等特點(diǎn)著手于研究植物表面的更深層的特征的提取,利用遷移學(xué)習(xí)的方法來(lái)進(jìn)行智能診斷與綜合防治相結(jié)合,從而有效提高啤酒花種植品質(zhì)。在圖像識(shí)別領(lǐng)域,Amara等[4]采用深度學(xué)習(xí)方法實(shí)現(xiàn)了自動(dòng)化的香蕉病害葉片分類,田有文等[5]利用圖像處理技術(shù)和傳統(tǒng)SVM識(shí)別方法研究了葡萄葉部病害的識(shí)別,實(shí)驗(yàn)結(jié)果表明傳統(tǒng)SVM識(shí)別方法比起神經(jīng)網(wǎng)絡(luò)識(shí)別效果更顯著。吳雪等[6]利用數(shù)據(jù)增強(qiáng)的卷積神經(jīng)網(wǎng)絡(luò)火災(zāi)識(shí)別的方法對(duì)火災(zāi)進(jìn)行識(shí)別,在小樣本使用卷積神經(jīng)網(wǎng)絡(luò)中很有意義。Mnih等[7]提出了基于RNN的循環(huán)視覺(jué)注意模型,將注意力機(jī)制運(yùn)用于MNIST數(shù)字圖像分類任務(wù)中。Wang等[8]提出了基于注意力機(jī)制的殘差注意力模塊引入到圖像分類領(lǐng)域簡(jiǎn)化了模型結(jié)構(gòu),加快了訓(xùn)練速度。

本研究中,在深度學(xué)習(xí)的基礎(chǔ)上,通過(guò)在便于優(yōu)化的ResNet網(wǎng)絡(luò)中加入注意力模塊來(lái)對(duì)RGB三個(gè)通道加以權(quán)重來(lái)找到更為重要的特征通道,并進(jìn)行實(shí)驗(yàn)及測(cè)試,從而提高小樣本下的啤酒花病蟲(chóng)害智能識(shí)別的準(zhǔn)確度。

1 原理與方法

1.1 ResNet網(wǎng)絡(luò)

ResNet是由He-Kaiming等人在2015年提出的一個(gè)網(wǎng)絡(luò)模型[9]。目前,ResNet已經(jīng)在圖像分類問(wèn)題中超越VGG,成為一般計(jì)算機(jī)視覺(jué)領(lǐng)域的基礎(chǔ)特征提取網(wǎng)絡(luò)。ResNet使用了殘差單元,這樣一方面減少了參數(shù)數(shù)量,另一方面在網(wǎng)絡(luò)中增加了直連通道,增加了CNN對(duì)特征的學(xué)習(xí)能力。相比于之前的VGG網(wǎng)絡(luò),參數(shù)少,層數(shù)深和分類識(shí)別效果優(yōu)秀等特點(diǎn)使得它至今為止仍然是比較經(jīng)典且使用的網(wǎng)絡(luò)之一。基于SE模塊的網(wǎng)絡(luò)模型殘差模塊如圖1所示。

圖1 基于SE模塊的ResNet殘差學(xué)習(xí)模塊

1.2 注意力機(jī)制概述

常見(jiàn)的注意力機(jī)制有兩種類型,一種是通道注意力,如SE模塊[10],一種是空間注意力,如空間變換器網(wǎng)絡(luò)。通道注意力旨在學(xué)習(xí)更多的判別性特征,其中SE模塊就是一種經(jīng)典的通道注意力方法,它通過(guò)找到通道之間的相互關(guān)系從而自適應(yīng)去改變通道特征響應(yīng)。相比于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),該模型大大減少了計(jì)算量。空間注意力旨在了解更多細(xì)節(jié)特征,空間變換器網(wǎng)絡(luò)STN它明確地允許對(duì)數(shù)據(jù)進(jìn)行空間操作,并允許對(duì)數(shù)據(jù)進(jìn)行處理,以增強(qiáng)模型的幾何不變性,它可以插入到任何現(xiàn)有的卷積架構(gòu)中,并且只需要進(jìn)行很少的修改。

注意力機(jī)制可以幫助模型為輸入X的不同部分賦予不同的權(quán)重,提取出更多關(guān)鍵的和更具區(qū)分性的信息,使模型具有更高的精度。同時(shí),也不會(huì)給模型帶來(lái)額外的計(jì)算和存儲(chǔ)。注意力按照關(guān)注點(diǎn)大致可以分為軟注意力和硬注意力兩種。軟注意力更注重通道和空間,且軟注意力是確定性的。它可以利用模型計(jì)算梯度進(jìn)行正向傳播和反向更新來(lái)學(xué)習(xí)模型權(quán)重,通過(guò)訓(xùn)練可以直接生成權(quán)重。硬注意力與軟注意力不同的是,它更傾向于隨機(jī)預(yù)測(cè),也就是說(shuō),硬注意更關(guān)注離散的位置信息,強(qiáng)調(diào)模型的動(dòng)態(tài)變化。因此,硬注意力很難采用端到端的訓(xùn)練方法來(lái)形成,多是通過(guò)強(qiáng)化學(xué)習(xí)來(lái)實(shí)現(xiàn)。本文中,我們采用的是軟注意力[11]。不通

1.2.1 注意力機(jī)制原理及公式

(1)

其中Sa代表每個(gè)a通道的權(quán)重;這些加權(quán)特征映射到訓(xùn)練網(wǎng)絡(luò)中,可以使分類器更加關(guān)注對(duì)圖像分類結(jié)果有幫助的信息,而忽略或弱化不相關(guān)的信息。

1.2.2 注意力機(jī)制在模型中的應(yīng)用

注意力機(jī)制可以提高網(wǎng)絡(luò)對(duì)自己感興趣的區(qū)域提取能力,同時(shí)也可以提升網(wǎng)絡(luò)識(shí)別精度。本文提出在ResNet經(jīng)典網(wǎng)絡(luò)上添加注意力模塊,并加以改進(jìn)模型參數(shù),最終形成適合啤酒花識(shí)別分類任務(wù)的網(wǎng)絡(luò)結(jié)構(gòu)A-ResNet50和A-ResNet101,如圖2所示。

基于注意力機(jī)制的ResNet50和ResNet101(如圖2)的核心就是模型內(nèi)部虛線框框起來(lái)的注意力層,全連接層以及Softmax分類層。具有了注意力模塊的網(wǎng)絡(luò)具有更強(qiáng)大的特征提取能力,與此同時(shí),ResNet網(wǎng)絡(luò)層數(shù)深度優(yōu)勢(shì)使其分類效果更加顯著。

圖2 基于注意力機(jī)制的啤酒花識(shí)別深度殘差網(wǎng)絡(luò)框架結(jié)構(gòu)

1.3 遷移學(xué)習(xí)

遷移學(xué)習(xí)[14]通過(guò)從相關(guān)領(lǐng)域的數(shù)據(jù)中提取有利信息,解決了跨領(lǐng)域?qū)W習(xí)問(wèn)題。更重要的是,通過(guò)解決訓(xùn)練數(shù)據(jù)與數(shù)據(jù)分布相同或標(biāo)簽有限的情況,遷移學(xué)習(xí)可以極大地提高學(xué)習(xí)性能,不能保證網(wǎng)絡(luò)足以避免數(shù)據(jù)過(guò)度擬合。近年來(lái),遷移學(xué)習(xí)技術(shù)已主要應(yīng)用于模式識(shí)別的各個(gè)分支,例如細(xì)粒度識(shí)別,圖像識(shí)別和圖像分類任務(wù)[15]。

2014年,Donahue J等[16]提出使用輔助大型對(duì)象數(shù)據(jù)庫(kù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),與使用簡(jiǎn)單線性分類器相比,該卷積神經(jīng)網(wǎng)絡(luò)可以自主學(xué)習(xí)特征以實(shí)現(xiàn)足夠的泛化能力。因此,本文的主要思想是通過(guò)用源數(shù)據(jù)中訓(xùn)練出的模型來(lái)提取圖片特征,再將訓(xùn)練好的模型中所有特征提取層的參數(shù)凍結(jié),僅替換后面的全連接層,如圖3所示。最后,調(diào)整輸出層的模型以適應(yīng)啤酒花病蟲(chóng)害識(shí)別和分類的任務(wù)。在基于參數(shù)的傳遞的基礎(chǔ)上,這種傳遞技術(shù)保留了預(yù)訓(xùn)練模型出色的特征提取能力,因此與基于傳統(tǒng)的復(fù)雜多核學(xué)習(xí)相比,可以提高識(shí)別精度和泛化能力。

圖3 基于遷移學(xué)習(xí)的啤酒花分類模型訓(xùn)練過(guò)程

2 小樣本圖像識(shí)別

2.1 材料與方法

本研究以五種不同種類的啤酒花病蟲(chóng)害作為研究對(duì)象。因?yàn)檗r(nóng)業(yè)領(lǐng)域數(shù)據(jù)不易獲取,且實(shí)地拍攝圖片噪聲較大以及諸多因素有關(guān),因此本研究采用的數(shù)據(jù)集一部分是從google圖像中收集的,一部分是從從社交媒體論壇中的個(gè)體種植者收集的,這樣不僅可以增加模型訓(xùn)練的泛化性還增加了模型的可靠性。本實(shí)驗(yàn)共采集原始圖像1 102張,每張圖片均是在自然光照條件下通過(guò)相機(jī)拍攝所得到,且分辨率大小不一,其中霜霉病166張,白粉病106張,健康528張,營(yíng)養(yǎng)病52張,蟲(chóng)害病250張。這5類圖片分別放置不同文件夾中,且標(biāo)上標(biāo)簽,標(biāo)簽0代表霜霉病,標(biāo)簽1代表白粉病,標(biāo)簽2代表健康,標(biāo)簽3代表營(yíng)養(yǎng)病,標(biāo)簽4代表蟲(chóng)害病,如圖4所示。用于遷移學(xué)習(xí)使用的是Imagenet數(shù)據(jù)集里面的植物葉片圖集。本試驗(yàn)將收集好的數(shù)據(jù)集圖片尺寸統(tǒng)一裁剪成224像素×224像素的,然后再進(jìn)行模型的訓(xùn)練。

表1 啤酒花圖像數(shù)據(jù)集分布表

圖4 啤酒花病蟲(chóng)害數(shù)據(jù)集

2.2 圖像增強(qiáng)

2.2.1 圖像預(yù)處理

由于深度殘差網(wǎng)絡(luò)含大量的參數(shù),所以存在過(guò)擬合的風(fēng)險(xiǎn)。在小樣本的前提下,數(shù)據(jù)集的訓(xùn)練樣本不足成了當(dāng)前首要解決的問(wèn)題,最直接的方法就是增加數(shù)據(jù)訓(xùn)練樣本。為了提高網(wǎng)絡(luò)模型的魯棒性 并減少過(guò)擬合,需采用數(shù)據(jù)增強(qiáng)策略來(lái)擴(kuò)大訓(xùn)練數(shù)據(jù)集。圖5為數(shù)據(jù)預(yù)處理操作,首先從采集的圖像中隨機(jī)選擇80%用于訓(xùn)練,20%用于測(cè)試,然后把預(yù)訓(xùn)練數(shù)據(jù)集中的圖片進(jìn)行翻轉(zhuǎn)鏡像和旋轉(zhuǎn)變換操作,再增加隨機(jī)噪聲,把訓(xùn)練圖像集擴(kuò)充到4 397幅,作為擴(kuò)充的訓(xùn)練數(shù)據(jù)集。最后采用雙線性差值法把圖像縮放到224像素×224像素。

圖5 數(shù)據(jù)預(yù)處理操作

2.2.2 直方圖均衡化

為了實(shí)現(xiàn)小樣本的圖像識(shí)別工作,本文引入了圖像的數(shù)據(jù)增強(qiáng),不僅擴(kuò)充的數(shù)據(jù)集的樣本數(shù)量,還改善了圖像的視覺(jué)效果,使得樣本圖像的特征更易被提取。常見(jiàn)的數(shù)據(jù)增強(qiáng)方法包括以下:灰度變換、直方圖處理、空間濾波等。在本實(shí)驗(yàn)中采用了直方圖均衡化的方法。

直方圖均衡化是多種空間域處理技術(shù)的基礎(chǔ)。直方圖均衡化操作主要通過(guò)增強(qiáng)對(duì)比度從而補(bǔ)償圖像在視覺(jué)上難以區(qū)分灰度級(jí)的差別[17],它的優(yōu)點(diǎn)是可以直觀的看出來(lái)圖像的變化且可以通過(guò)其變換函數(shù)使其變成一個(gè)可逆的過(guò)程,做到原始和變換后的直方圖相互轉(zhuǎn)換。

對(duì)于一幅像素為N×N的圖像,假設(shè)其灰度級(jí)變化范圍在[0,L-1]之間,像素值取值范圍在{0,1,…,L-1}之間,圖像中灰度值r出現(xiàn)的概率即為該圖像的直方圖[18]。

(2)

式中:N×N——圖像中像素的總數(shù),本文選用224像素×224像素;

na——圖像中灰度值為ra的像素點(diǎn)個(gè)數(shù)。

在圖像處理中,變換函數(shù)的計(jì)算公式

(3)

直方圖均衡化方法可以對(duì)高對(duì)比度的圖像進(jìn)行降低對(duì)比度,使得其圖像特征更加容易被提取。通過(guò)圖6可以看出直方圖均衡化的效果。

(a)處理前

3 試驗(yàn)與結(jié)果分析

本研究設(shè)計(jì)不同數(shù)據(jù)集比例試驗(yàn)對(duì)比,圖像數(shù)據(jù)擴(kuò)充對(duì)模型的影響和注意力機(jī)制對(duì)模型的影響三組實(shí)驗(yàn)。

3.1 試驗(yàn)環(huán)境

試驗(yàn)環(huán)境參數(shù)見(jiàn)表2。

表2 試驗(yàn)環(huán)境

3.2 模型準(zhǔn)備與超參數(shù)設(shè)置

首先搭建好ResNet網(wǎng)絡(luò),載入下載好的ResNet50和ResNet101的模型權(quán)重文件,將特征提取層凍結(jié)住,去除掉原始ResNet網(wǎng)絡(luò)的全局平均池化層和FC層,在基本的模型中嵌入了通道注意力模塊層,使得特征獲得不同的權(quán)重,然后添加新的全局平均池化層和FC層以便于后續(xù)模型的訓(xùn)練。作為本次遷移學(xué)習(xí)的預(yù)訓(xùn)練模型,當(dāng)然訓(xùn)練之前需要設(shè)置一些參數(shù),例如學(xué)習(xí)率設(shè)置為0.01~0.001 5之間,經(jīng)實(shí)驗(yàn)之后選取0.001作為最終的學(xué)習(xí)率。學(xué)習(xí)率作為一個(gè)非常重要的超參數(shù),它表示模型權(quán)重更新的速率,設(shè)置過(guò)大即代價(jià)函數(shù)波動(dòng)太大,實(shí)驗(yàn)結(jié)果不夠準(zhǔn)確;設(shè)置過(guò)小則網(wǎng)絡(luò)模型收斂效果不理想,導(dǎo)致訓(xùn)練時(shí)間增加。另外一個(gè)超參數(shù)Drop_out一般設(shè)置為隨機(jī)失活30%~50%的神經(jīng)元,經(jīng)過(guò)交叉驗(yàn)證之后,選取50%的失活率模型收斂效果最好。softmax分類個(gè)數(shù)設(shè)置為5,滿足本研究五種病蟲(chóng)害種類的識(shí)別分類任務(wù)。為了更加方便地查看模型訓(xùn)練過(guò)程,訓(xùn)練過(guò)程中,每隔10個(gè)epoch設(shè)立一個(gè)檢查點(diǎn),對(duì)驗(yàn)證集中數(shù)據(jù)進(jìn)行驗(yàn)證,輸出驗(yàn)證準(zhǔn)確率,最后保存精度最高的模型。

3.3 損失函數(shù)

在神經(jīng)網(wǎng)絡(luò)中損失函數(shù)有很多,例如:0~1 Loss,Cross Entropy Loss,Hinge Loss,Softmax cross entropy Loss等。在不同情況下使用不同的損失函數(shù)可以使得模型學(xué)習(xí)到更多的特征,若損失函數(shù)很小,表明機(jī)器學(xué)習(xí)模型與數(shù)據(jù)真實(shí)分布很接近,則模型性能良好;若損失函數(shù)很大,表明機(jī)器學(xué)習(xí)模型與數(shù)據(jù)真實(shí)分布差別較大,則模型性能不佳。本文中我們選取Softmax Loss損失函數(shù)。

(4)

式中:k——類別個(gè)數(shù);

s——正確類別對(duì)應(yīng)的Softmax輸入;

S——正確類別對(duì)應(yīng)的Softmax輸出。

(5)

Softmax Loss的曲線如圖7所示。

圖7 Softmax Loss曲線圖

當(dāng)s?0時(shí),Softmax近似可以看為線性函數(shù);當(dāng)s?0時(shí),Softmax則趨向于零。Softmax受異常點(diǎn)的干擾較小,故本文使用Softmax Loss損失函數(shù)。

3.4 試驗(yàn)評(píng)價(jià)準(zhǔn)則

本文的試驗(yàn)評(píng)價(jià)準(zhǔn)則是采用的計(jì)算機(jī)視覺(jué)領(lǐng)域公認(rèn)的average_acc評(píng)價(jià)指標(biāo)評(píng)價(jià)模型分類的結(jié)果和常用于統(tǒng)計(jì)學(xué)中評(píng)估一致性的Kappa系數(shù)方法,average_acc定義公式

(6)

式中:nb——樣本類別總數(shù),本文中取5;

a——類別標(biāo)簽,本文中標(biāo)簽0代表霜霉病,標(biāo)簽1代表白粉病,標(biāo)簽2代表健康,標(biāo)簽3代表營(yíng)養(yǎng)病,標(biāo)簽4代表蟲(chóng)害病;

na——類別為a的樣本總數(shù);

naa——類別a正確預(yù)測(cè)為第a類的樣本總數(shù)。

Kappa系數(shù)常被應(yīng)用于解譯遙感精度和評(píng)價(jià)兩個(gè)空間圖的相似程度[19]。本研究采用Kappa系數(shù)驗(yàn)證病蟲(chóng)害圖像識(shí)別的精度,其定義公式

(7)

(8)

pn——SUM(第i類真實(shí)樣本數(shù)×第i類預(yù)測(cè)出來(lái)的樣本數(shù))/樣本總數(shù)平方;

d1,d2,…,dn——每一類的真實(shí)樣本個(gè)數(shù);

f1,f2,…,fnb——預(yù)測(cè)出來(lái)的每一類的樣本個(gè)數(shù);

C——樣本總數(shù)。

3.5 不同數(shù)據(jù)集比例實(shí)驗(yàn)對(duì)比

影響模型過(guò)擬合的不僅僅是樣本的數(shù)據(jù)量,而對(duì)于一個(gè)全新的數(shù)據(jù)集,不同比例的訓(xùn)練測(cè)試集也會(huì)對(duì)模型訓(xùn)練效果產(chǎn)生極大的影響。所以將數(shù)據(jù)集的樣本劃分為三種比例:80%-20%(80%的樣本用于訓(xùn)練)、70%-30%(70%的樣本用于訓(xùn)練)、60%-40%(60%的樣本用于訓(xùn)練)(表3)。從理論上來(lái)說(shuō)應(yīng)盡可能多的設(shè)置樣本比例,這樣實(shí)驗(yàn)偏差對(duì)結(jié)果的影響就會(huì)越小,可以選擇一個(gè)更為精確的訓(xùn)練測(cè)試集的比例用于訓(xùn)練,鑒于實(shí)驗(yàn)條件有限,只選了這三個(gè)具有代表性的比例。

表3 不同數(shù)據(jù)集比例試驗(yàn)結(jié)果

可以看出8∶2的識(shí)別率比起其他比例,這也通過(guò)實(shí)驗(yàn)說(shuō)明了當(dāng)樣本數(shù)據(jù)集一定時(shí),訓(xùn)練集的樣本越多,模型就更能獲取其特征。在后續(xù)試驗(yàn)中,為了保證模型具有優(yōu)秀的識(shí)別能力,故采用訓(xùn)練集測(cè)試集比例為8∶2。

3.6 圖像數(shù)據(jù)擴(kuò)充與注意力機(jī)制對(duì)模型的影響

針對(duì)于本文中的小樣本數(shù)據(jù)集,我們采用了經(jīng)過(guò)數(shù)據(jù)擴(kuò)充和未數(shù)據(jù)擴(kuò)充的原始圖集進(jìn)行試驗(yàn)比較其準(zhǔn)確率和損失率。由圖8可以看出,相比于未數(shù)據(jù)擴(kuò)充的原始數(shù)據(jù)集,經(jīng)過(guò)數(shù)據(jù)擴(kuò)充的數(shù)據(jù)集在在經(jīng)過(guò)相同epoch的訓(xùn)練迭代之后,平均準(zhǔn)確率為85.78%,而未數(shù)據(jù)擴(kuò)充的平均準(zhǔn)確率為83%,實(shí)驗(yàn)表明,經(jīng)過(guò)數(shù)據(jù)擴(kuò)充的實(shí)驗(yàn)準(zhǔn)確率有所提升,達(dá)到了將近3個(gè)百分點(diǎn)。數(shù)據(jù)擴(kuò)充不僅提升了模型的魯棒性,也提高了模型識(shí)別的準(zhǔn)確率。

就本文而言,由于遷移學(xué)習(xí)使得模型已經(jīng)在ImageNet數(shù)據(jù)集上訓(xùn)練得到了很好的特征提取能力,這必然的削弱了數(shù)據(jù)集在本次訓(xùn)練中的作用。但是經(jīng)過(guò)數(shù)據(jù)擴(kuò)充的較為數(shù)據(jù)擴(kuò)充的測(cè)試準(zhǔn)確提升了3個(gè)百分點(diǎn),其中的原因可能是原訓(xùn)練集樣本中只包含了1 000 張圖片,并且分布不均勻。數(shù)據(jù)擴(kuò)充給神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練提供了圖集基礎(chǔ),所以說(shuō)保證一定量的訓(xùn)練數(shù)據(jù)集還是很重要的。

分別對(duì)3種預(yù)訓(xùn)練模型進(jìn)行遷移學(xué)習(xí),測(cè)試準(zhǔn)確率曲線如圖8所示,可以看出A-ResNet101網(wǎng)絡(luò)的收斂速度要慢于A-ResNet50,AlexNet最慢,但是最后的準(zhǔn)確率卻是優(yōu)于A-ResNet50的,通過(guò)觀察圖9可知,在50個(gè)epoch之后,準(zhǔn)確率趨于平穩(wěn)不變,但是仍然存在測(cè)試準(zhǔn)確率的上下波動(dòng)情況,在曲線上我們可以看到很多個(gè)山突,這也就是局部最優(yōu)解,基于訓(xùn)練集的數(shù)據(jù)所計(jì)算的梯度值可能使得每一次參數(shù)的變換都朝著局部最優(yōu)解靠攏,而局部最優(yōu)解相較于全局最優(yōu)解差的很多,因此導(dǎo)致曲線上下波動(dòng);其次,學(xué)習(xí)率過(guò)大或者過(guò)小都會(huì)影響訓(xùn)練模型的效率,學(xué)習(xí)率過(guò)低,loss曲線即出現(xiàn)線性緩慢下降趨勢(shì);學(xué)習(xí)率過(guò)高,loss曲線即出現(xiàn)水平不變趨勢(shì)。從圖中可以看出,A-ResNet50模型的loss曲線呈現(xiàn)先降后緩慢下降再趨于平穩(wěn)狀態(tài),這符合了一個(gè)優(yōu)秀模型的loss曲線分布。

(a)未數(shù)據(jù)擴(kuò)充acc曲線

(a)A-Resnet101 loss曲線

利用不同的深度的ResNet和AlexNet分別做基于注意力機(jī)制的遷移學(xué)習(xí),病蟲(chóng)害識(shí)別模型識(shí)別的效果如表4所示,不加Attention模塊的ResNet50模型和AlexNet由于參數(shù)量少,在每輪訓(xùn)練時(shí)間上有著很快的速度,基于我們的實(shí)驗(yàn)評(píng)價(jià)準(zhǔn)則,準(zhǔn)確率和Kappa指數(shù)不高,所以這并不是一個(gè)處理小樣本啤酒花病蟲(chóng)害數(shù)據(jù)集的好的模型。剩下的兩個(gè)模型都添加了注意力模塊,在準(zhǔn)確率上驗(yàn)證集和測(cè)試集均有著較高的精度,A-ResNet50模型為96.21%和93.27%,A-ResNet101模型為95.89%和93.11%,損失率分別為0.215 1和0.338 4,且Kappa指數(shù)達(dá)到了0.902 8和0.899 6,達(dá)到了分類一致性的最佳程度。在每輪訓(xùn)練的時(shí)間上,由于ResNet101模型的深度更深,使得參數(shù)多于ResNet50,故訓(xùn)練的時(shí)間也是要長(zhǎng)于A-ResNet50模型的。結(jié)果表明,在綜合考慮準(zhǔn)確率,Kappa指數(shù)和模型訓(xùn)練時(shí)間下,A-ResNet50模型是要優(yōu)于對(duì)照實(shí)驗(yàn)中的其他模型的,表明該方法可以有效且高精度的完成啤酒花病蟲(chóng)害分類識(shí)別工作。

表4 基于ResNet50、ResNet101+Attention和AlexNet的病蟲(chóng)害識(shí)別模型識(shí)別結(jié)果

4 結(jié)論

在本文中,小樣本數(shù)據(jù)集問(wèn)題成為了深度學(xué)習(xí)提高模型性能的難題,針對(duì)于小樣本啤酒花病蟲(chóng)害識(shí)別問(wèn)題,提出了基于注意力機(jī)制的小樣本學(xué)習(xí)方法為解決啤酒花病蟲(chóng)害識(shí)別的問(wèn)題提供了一種途徑。首先使用遷移學(xué)習(xí)的方法來(lái)對(duì)圖像特征進(jìn)行提取,經(jīng)過(guò)注意力模塊使得特征有了其相應(yīng)的權(quán)重,再通過(guò)直方圖均衡化進(jìn)行數(shù)據(jù)增強(qiáng)操作來(lái)執(zhí)行分類工作。通過(guò)多組對(duì)比實(shí)驗(yàn)可以表明,本文提出的方法在啤酒花病蟲(chóng)害識(shí)別上有著良好的分類效果,其中A-ResNet50和A-ResNet101模型在測(cè)試集上的準(zhǔn)確率達(dá)到了93.27%和93.11%,Kappa指數(shù)達(dá)到了0.902 7和0.899 6,其識(shí)別準(zhǔn)確率和Kappa指數(shù)均優(yōu)于傳統(tǒng)方法,實(shí)現(xiàn)了啤酒花病蟲(chóng)害智能識(shí)別的要求。這對(duì)以后的針對(duì)于小樣本問(wèn)題卷積神經(jīng)網(wǎng)絡(luò)的使用具有重要意義。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 最新日韩AV网址在线观看| 欧美日韩国产一级| 四虎影视国产精品| 丁香六月激情综合| 精品99在线观看| 国产三级国产精品国产普男人| 国产黄色片在线看| 激情五月婷婷综合网| 欧洲成人在线观看| 日韩毛片免费观看| 国产精品无码AV片在线观看播放| 日韩午夜片| 亚洲国产综合精品中文第一| 国产精品尹人在线观看| 国产肉感大码AV无码| 亚洲黄色激情网站| 高清无码手机在线观看| 国产一区二区三区精品久久呦| 黄色福利在线| 日韩av无码DVD| 国内a级毛片| 青青草91视频| 91亚洲精品国产自在现线| 国产精品开放后亚洲| 99国产在线视频| 亚洲国产日韩在线成人蜜芽| 高清久久精品亚洲日韩Av| 欧美午夜久久| 亚洲精品男人天堂| www.99在线观看| 97久久超碰极品视觉盛宴| 国产成熟女人性满足视频| 久久综合一个色综合网| 国产精品视频导航| 国产精品无码一二三视频| 日韩精品免费在线视频| 亚洲成a∧人片在线观看无码| 国产在线精彩视频二区| 日本免费a视频| 少妇精品网站| 亚洲国产一区在线观看| 亚洲日韩高清在线亚洲专区| 亚洲中文在线看视频一区| 99伊人精品| 国产成人喷潮在线观看| 中文字幕人妻无码系列第三区| 思思热精品在线8| 欧美日韩精品在线播放| 国产真实二区一区在线亚洲| 成人小视频网| 专干老肥熟女视频网站| 国产又爽又黄无遮挡免费观看| 99精品国产自在现线观看| 不卡视频国产| 精品国产自在在线在线观看| 欧美日韩精品一区二区在线线| 国产91小视频| 久久香蕉国产线看观看亚洲片| 欧美天天干| 最新国产你懂的在线网址| 国产成人凹凸视频在线| 久久久久国产一级毛片高清板| 亚洲第七页| 日本亚洲国产一区二区三区| 视频国产精品丝袜第一页| 四虎成人免费毛片| 狼友视频国产精品首页| 亚洲不卡影院| 高潮爽到爆的喷水女主播视频| 国产91熟女高潮一区二区| 欧美激情第一区| 91色国产在线| 国产在线观看精品| 日韩福利在线观看| 久久国产精品国产自线拍| 亚洲欧美日韩中文字幕在线| 99精品热视频这里只有精品7| 亚洲全网成人资源在线观看| 国产色网站| 婷婷亚洲最大| 久久综合伊人 六十路| 日韩色图区|