999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN和Transformer的綠豆干旱脅迫識別模型

2025-03-04 00:00:00蔣東山劉金洋張浩淼李士叢羅仔秋余驥遠李潔陳新袁星星高尚兵
江蘇農業學報 2025年1期

收稿日期:2024-04-07

基金項目:國家食用豆產業技術體系崗位科學家項目(CARS-09-G13);江蘇省種業揭榜掛帥項目[JBGS(2021)004];江蘇省研究生實踐創新計劃項目(SJCX24_2146)

作者簡介:蔣東山(1998-),男,江蘇南京人,碩士,研究方向為深度學習、計算機視覺。(E-mail)dongshanJiang2022@163.com。劉金洋為共同第一作者。

通訊作者:高尚兵,(E-mail)11060036@hyit.edu.cn;袁星星,(E-mail)20090049@jaas.ac.cn

摘要:為了解決傳統綠豆干旱脅迫識別方法存在識別率低、時效性差的問題,本研究建立了基于卷積神經網絡(CNN)和轉換器(Transformer)的綠豆干旱脅迫識別模型Mungbean-droughtNet。該模型采用雙分支結構,利用全局特征提取模塊(GFEM)分支和局部特征提取模塊(LFEM)分支分別從輸入圖像提取局部特征和全局特征。最后利用多層感知器(MLP)模塊將局部特征和全局特征進行融合,實現分類。在實際數據分析中,共采集14536張干旱脅迫下的綠豆葉綠素熒光圖像,分為HR、R、MR、S、HS和對照6類。利用Mungbean-droughtNet模型對葉綠素熒光圖像數據集進行分析,結果表明,Mungbean-droughtNet模型對測試集中葉綠素熒光圖像的平均識別準確率為95.57%,平均精度為98.18%,平均召回率為98.40%,平均F1分數為98.28%。和目前先進模型EfficientNetV2和SwinTransformer相比,Mungbean-droughtNet模型準確率分別提高了3.56個百分點和2.62個百分點,表現出更強的魯棒性和更好的識別效果。本研究結果為綠豆干旱脅迫研究和耐旱基因挖掘提供了基礎。

關鍵詞:綠豆;干旱脅迫;卷積神經網絡;轉換器;圖像識別;葉綠素熒光圖像

中圖分類號:S522文獻標識碼:A文章編號:1000-4440(2025)01-0087-14

DroughtstressrecognitionmodelofmungbeanbasedonCNNandTransformer

JIANGDongshan1,2,3,LIUJinyang2,3,ZHANGHaomiao1,2,LIShicong2,LUOZaiqiu1,YUJiyuan1,2,LIJie1,2,CHENXin2,YUANXingxing2,4,GAOShangbing1,4

(1.FacultyofComputerandSoftwareEngineering,HuaiyinInstituteofTechnology,Huai’an223003,China;2.InstituteofEconomicCrops,JiangsuAcademyofAgriculturalSciences,Nanjing210014,China)

Abstract:Toaddresstheissuesoflowrecognitionrateandpoortimelinessintraditionalmethodsforidentifyingdroughtstressinmungbeans,thisstudyestablishedamungbeandroughtstressrecognitionmodelnamedMungbean-droughtNetbasedonconvolutionalneuralnetwork(CNN)andtransformer.Themodelemployedadual-branchstructure,utilizedtheglobalfeatureextractionmodule(GFEM)branchandthelocalfeatureextractionmodule(LFEM)branchtoextractlocalandglobalfeaturesfromtheinputimages,respectively.Finally,multilayerperceptron(MLP)modulewasusedtofusethelocalandglobalfeaturesforclassification.Intheactualdataanalysis,atotalof14536chlorophyllfluorescenceimagesofmungbeansunderdroughtstresswerecollectedandclassifiedintosixcategories,includingHR,R,MR,S,HSandthecontrolgroup.TheMungbean-droughtNetmodelwasappliedtoanalyzethechlorophyllfluorescenceimagedataset,theresultsshowedthattheMungbean-droughtNetmodelachievedanaveragerecognitionaccuracyof95.57%,anaverageprecisionof98.18%,anaveragerecallratioof98.40%,andanaverageF1-scoreof98.28%forthechlorophyllfluorescenceimagesinthetestset.ComparedwiththecurrentadvancedmodelsEfficientNetV2andSwinTransformer,theaccuracyoftheMungbean-droughtNetmodelincreasedby3.56percentagepointsand2.62percentagepoints,respectively,demonstratingstrongerrobustnessandbetterrecognitionperformance.Thisstudyprovidesafoundationforresearchonmungbeandroughtstressandtheexcavationofdrought-resistantgenes.

Keywords:mungbean;droughtstress;convolutionalneuralnetwork;transformer;imagerecognition;chlorophyllfluorescenceimage

綠豆[Vignaradiata(L.)Wilczek]屬豆科豇豆屬一年生直立草本植物,在中國有2000多年的栽培史,是重要的雜糧作物[1]。綠豆富含維生素、礦物質和活性物質,具有抗菌、抗腫瘤、降血壓和解毒等作用,屬于藥食同源作物[2]。然而,在中國北方干旱半干旱區,綠豆栽培區常受到干旱的影響,干旱已成為綠豆生長過程中的主要非生物脅迫。研究結果表明,中國每年因干旱造成的損失約占各類自然災害損失總額的70%,直接經濟損失占國民生產總值的3%~6%[3-4]。目前,傳統的干旱診斷方法如土壤水分監測和農業氣象預報等,主要基于對土壤和氣象的間接監測,易出現準確性低和滯后問題[5]。此類方法往往依賴專家經驗,難以實現自動化和智能化,因而在大規模監測和應用中受到限制。葉綠素熒光參數作為植物響應環境變化的內在指標,被廣泛用于植物逆境脅迫的研究,通過分析葉綠素熒光參數的變化評估植物干旱脅迫狀態是一種可靠的方法[6]

為解決傳統方法識別準確率低、時效性差等問題,國內外學者將機器學習技術引入生物和非生物脅迫識別中。岳煥然等[7]提取了不同干旱脅迫狀態的玉米圖像的顏色和紋理特征,并利用BP神經網絡對玉米干旱脅迫狀態進行識別,研究結果表明,該模型對玉米干旱脅迫狀態的識別準確率均超過90%。Naik等[8]分別將10種機器學習方法用于大豆缺鐵黃化病的識別,結果表明,模型的平均識別精度為96%。龍燕等[9]結合狄利克雷分布(LDA)、支持向量機(SVM)和K近鄰(KNN)算法,以及葉綠素熒光參數和熒光圖像特征,構建番茄苗期干旱脅迫狀態識別模型,結果表明其識別準確率可達97.8%。Zhou等[10]將葉綠素熒光技術和支持向量機(SVM)、徑向基函數(RBF)、BP神經網絡等學習方法相結合,成功識別植物體內水分含量和氮素水平。

盡管機器學習算法在分析生物和非生物脅迫的研究中取得了顯著成果,但其仍存在無法自動提取特征及難以處理海量圖像的問題[11]。隨著計算機視覺技術的發展,為解決圖像特征自動提取和海量圖像處理的難題,人們開始尋求精度更高、更自動化的圖像識別技術用于干旱診斷。以卷積神經網絡(CNN)為代表的深度學習技術,因其卓越的圖像識別能力和分辨能力,已被廣泛用于產量估算[12]、病蟲害檢測[13-15]、作物品種分類[16]等多個領域。近年來,CNN在生物和非生物脅迫診斷中被廣泛應用[17]。趙奇慧等[18]采集了共2000張番茄葉片圖像,利用MaskR-CNN進行葉片分割,結合DenseNet169網絡對番茄干旱脅迫狀態進行識別,研究結果表明,該模型在測試集上的識別準確率高達94.68%。利用AlexNet、GoogLeNet和InceptionV3模型對玉米、秋葵和大豆的干旱脅迫狀況進行識別,研究結果表明,GoogLeNet模型的準確率最高[19-20]。劉芳軍等[21]提出了一種基于改進ResNet18模型的胡麻干旱脅迫狀態識別方法,該方法識別準確率高達98.67%,且能夠滿足在嵌入式設備上實時檢測的要求。Xia等[22]發現,在識別番茄光譜數據方面,多層感知器分類器(MLPC)算法和一對多分類器(ORC)算法的性能優于卷積神經網絡算法。Kuo等[23]提出了1D-ResGC-Net模型,其中包含殘差全局上下文(ResGC)模塊,用于處理番茄葉片的可見光和近紅外光譜數據,從而實現對番茄干旱脅迫的早期識別。

干旱脅迫會影響植物的光合作用,因此可以利用葉綠素熒光技術檢測植物的光合作用,從而評估植物的干旱脅迫狀態。研究結果表明,最大光量子效率(Fv/Fm)與植物的光合作用密切相關,是植物響應干旱脅迫的重要參數[24-31]。Bresson等[32]研究發現,在干旱脅迫的第14d,轉基因植株葉片與野生型植株葉片的Fv/Fm值差異顯著。而且,Fv/Fm參數還與植株在干旱條件下的生存率有關。梁歡等[33]使用葉綠素熒光參數對不同品種的紫花苜蓿幼苗的抗旱性進行了比較,在109份紫花苜蓿中,篩選出了14份抗旱性強且光合效率高的種質。

綜上所述,深度學習技術結合葉綠素熒光圖像能夠準確反映葉片光合特征的時空異質性,從而有效鑒定綠豆的抗旱性,同時還能及時準確地識別出綠豆受到的干旱脅迫程度,為采取措施緩解旱情提供依據。目前,對綠豆的研究主要集中在病蟲害防治及產量提升等方面[34-36],而結合深度學習技術和葉綠素熒光圖像鑒定綠豆干旱脅迫狀態的研究較少。本研究擬以230份綠豆種質資源為試驗材料,構建數據集,設計一種準確率高、時效性強的綠豆干旱脅迫識別網絡模型,為監測綠豆生長發育情況和綠豆品種選育提供有效工具。

1材料與方法

1.1試驗設計

試驗所用綠豆種質資源來源于江蘇省農業科學院經濟作物研究所豆類研究室。2023年10月至11月,在江蘇省農業科學院經濟作物研究所智能溫室中對230份綠豆種質資源進行干旱脅迫處理。有研究結果表明,利用高含量的聚乙二醇6000(≥20%)模擬干旱脅迫,植物的光合作用會受到影響[37-38]。具體步驟如下:選取無破損、大小一致、飽滿的綠豆種子,用20%過氧化氫溶液對綠豆種子進行消毒;將種子播種于10cm×10cm的塑料盆中,適量澆水并記錄發芽情況;待水培至第5d,綠豆種子長出新葉,將40mL20%的聚乙二醇6000溶液加入培養液中,觀察綠豆幼苗的生長情況。另設對照,在培養液中加入40mL水。在干旱脅迫處理的第5d,每份綠豆種質資源的干旱脅迫處理和對照各取3株幼苗,置于葉綠素熒光成像系統(FluorCam)的置物臺上。通過FluorCam7軟件進行葉綠素熒光圖像的采集和數據分析。

1.2數據預處理

利用FluorCam7.0軟件對采集到的熒光圖像進行預處理,包括感興趣區域選擇(ROI)、背景分割、閾值設定、圖像裁剪與歸一化處理等。通過感興趣區域選擇提取圖像的關鍵特征,減少無關信息的干擾。為葉綠素熒光參數(Fv/Fm)設定1個閾值區間,保留處于區間內的像素點。將葉綠素熒光圖像裁剪為224×224像素,并進行歸一化處理[39]。預處理后的圖像數據集按照8∶1∶1的數量比例劃分為訓練集、驗證集和測試集。

1.3干旱脅迫等級劃分

干旱脅迫對抗旱能力較強的綠豆品種的影響較小,抗旱能力較強的綠豆品種適應性和耐受力較強。最大光量子效率(Fv/Fm)可以間接評估綠豆對干旱脅迫的響應程度,Fv/Fm值越小表示綠豆抗旱性越弱,干旱對植物的影響越大。通過分析綠豆幼苗的葉綠素熒光圖片,可以鑒定綠豆的抗旱能力,從而確定綠豆受到的干旱脅迫等級,并篩選出抗旱的種質資源。本研究基于最大光化學效率Fv/Fm值,結合文獻[40]中的分級方法,評估綠豆抗旱性,并進行相應的脅迫等級劃分,具體分級標準如表1所示,不同抗旱性的葉綠素熒光圖像如圖1所示。

1.4數據增強

在深度學習中,增加樣本數量能夠提升模型效果,增強模型的泛化能力。因此,為了提高模型的泛化能力和魯棒性,本研究采用數據增強技術[41]對數據集進行擴充。數據增強技術包括平移和翻轉、裁剪和縮放、添加噪聲點、添加遮罩、二值化[42]。如表2所示,經過數據增強后的數據集包含14536張圖片,其中訓練集有11630張圖片,驗證集有1453張圖片,測試集有1453張圖片。數據增強后的葉綠素熒光圖像如圖2所示。

如圖3所示,在原始數據集中,抗旱性極強(HR)的綠豆圖像有156張,經數據增強后,圖像數量增加到1092張;在原始數據集中,抗旱性強(R)的綠豆圖像有561張,經數據增強后,圖像數量增加到3928張;原始數據集中抗旱性中等(MR)的綠豆圖像有530張,經數據增強后,圖像數量增加到3711張;在原始數據集中,抗旱性弱(S)的綠豆圖像有250張,經數據增強后,圖像數量增加到1751張圖像;在原始數據集中,抗旱性極弱(HS)的綠豆圖像有156張,經數據增強后,圖像數量增加到1085張圖像;在原始數據集中,無干旱脅迫對照的綠豆圖像有424張,經數據增強后,圖像數量增加到2969張圖像。

1.5Mungbean-droughtNet模型框架

采用Mungbean-droughtNet模型對數據增強后的葉綠素熒光圖像進行特征提取和識別。Mungbean-droughtNet模型結構如圖4所示,該模型為雙分支結構,包括全局特征提取模塊(Globalfeatureextractionmodule,GFEM)分支和局部特征提取模塊(Localfeatureextractionmodule,LFEM)分支。LFEM分支包括A模塊、B模塊和可分離卷積等;GFEM模塊包括殘差模塊、全局到局部的裂變和聚合(Global-to-localaggregationandfission,GLAF)模塊和視覺轉換器(Visiontransformer)模塊;MLP模塊包括2個全連接層和1個Tanh激活函數。上述2個分支分別對同一圖像進行全局特征提取和局部特征提取,從而更好地捕捉上下文信息。最后使用MLP模塊進行特征融合并分類。

LFEM分支包含4個A模塊和11個B模塊,主要用于葉綠素熒光圖像的局部特征提取。A模塊的主要功能是降低特征圖的空間維度,同時采用可分離卷積將普通卷積分解為深度卷積和逐點卷積,這樣可以在保證特征提取能力的同時,顯著減少模型的參數量。B模塊通過聚焦更多有用信息從而優化特征。LFEM分支采用不同模塊串聯堆疊的方式,這種設計既能有效降低參數量,又保證了模型能夠提取葉綠素熒光圖像中的細微特征。

GFEM分支主要由殘差模塊、GLAF模塊以及Visiontransfomer模塊構成。初始卷積核對輸入圖像進行初步特征提取,并通過下采樣降低特征圖的維度。在GFEM中,共有2個殘差模塊,每個殘差模塊均由2個1×1卷積核和1個3×3的卷積核串聯組成。在第1個殘差模塊中,第1層和第2層卷積核的數量均為64個,而第3層卷積核的數量為256個;第2個殘差模塊各層卷積核數量為第1個殘差模塊的2倍。引入2個殘差模塊有助于充分利用網絡的深度,讓模型能夠學習更多復雜的葉綠素熒光圖像特征,從而提高模型的性能。GLAF模塊通過整合不同通道的注意力特征,增強了信息交互能力。經過GLAF模塊整合后的注意力特征再通過Visiontransformer模塊進行處理,進一步提取全局特征。綜上,GFEM分支先利用殘差模塊增強網絡深度,然后通過GLAF模塊整合不同通道的注意力特征,最后利用Visiontransformer模塊進一步關注圖像的關鍵特征,這種結構可以從時間和空間維度上增強模型交互能力,從而提升對葉綠素熒光圖像的處理效果。

在分支的末端,將GFEM模塊提取到的192維全局特征與LFEM模塊提取到的2048維局部特征進行融合,得到2240維的完整特征向量。接著,利用包含2個全連接層和1個Tanh激活函數的MLP分類模塊不斷調整權重和閾值,使Mungbean-droughtNet模型能夠從葉綠素熒光圖像中提取更多差異性特征,從而提升網絡性能。

1.5.1殘差連接由于深度網絡容易出現梯度消失和梯度爆炸等問題,因此采用殘差連接來加深網絡深度,提升模型的性能。殘差連接的核心思想是在網絡的某些層中,將輸入信號直接連接到輸出,從而實現跳躍連接。跳躍連接可以加速模型的訓練,從而降低訓練難度。其結構圖如圖5所示,計算公式如下:

Xl+1=X+F(X)(1)

式中,X表示前一層的輸入信號,Xl+1表示當前層的特征映射。

1.5.2全局到局部的裂變和聚合(GLAF)模塊如圖6所示,在GLAF模塊中,特征向量首先經過2個3×3的卷積層處理,得到低層的特征映射。然后采用雙分支結構分別提取局部注意力特征和全局注意力特征。其中,全局平均池化層用于去除多余的空間信息,保留全部的全局注意力特征,點卷積則用于降低特征圖的維度。最后,引入非線性激活函數Sigmoid,增強網絡的表達能力。

1.5.3視覺轉換器模塊為了彌補卷積神經網絡只能關注局部特征的不足,在Mungbean-droughtNet模型中引入視覺轉換器(Visiontransformer)模塊對綠豆葉綠素熒光圖像進行全局特征提取。如圖7所示,Visiontransformer模塊主要包括切片編碼層、轉換器(Transformer)模塊以及多層感知器(MLP)模塊。首先,切片編碼層將輸入圖像分割成多個切片。然后,將展平后的多個切片經過特征映射,得到多個token編碼,并與位置編碼進行拼接,從而將局部特征信息轉化為全局特征信息,輸入到Transformer模塊中。最后,將編碼后的結果傳入Transformer模塊進行進一步處理。

2結果與分析

2.1試驗環境

為了驗證Mungbean-droughtNet模型對不同綠豆干旱脅迫等級圖像的識別能力,本研究在pytorch2.0.1框架上,使用制作的綠豆葉綠素熒光圖像數據集進行試驗。試驗平臺的軟硬件信息如表3所示。

2.2試驗參數與訓練策略

根據綠豆在不同干旱脅迫下的熒光特征調整Mungbean-droughtNet模型的訓練參數,以此確保試驗結論的可靠性和真實性。在試驗過程中,使用Adam優化器更新網絡的權重,最小化損失函數。選擇交叉熵損失函數來衡量模型預測結果與真實標簽之間的差異,學習率設置為0.0001,批量大小(Batchsize)為16,最大迭代次數為300。

2.3評價指標

本研究使用多個常用的評價指標來衡量Mungbean-droughtNet模型的識別性能,包括準確率(Accuracy)、精度(Precision)、召回率(Recall)和F1分數(F1-score)。準確率為模型正確識別的樣本數占總樣本數的比例。精度為模型識別的正樣本中,實際正樣本的占比。召回率為實際正樣本中,模型正確識別的正樣本的占比。F1分數綜合考慮了精度和召回率的表現,其計算方法如公式(2)~(5)所示。

此外,為了更加直觀地展示模型對各個類別圖像的識別準確性,本研究采用了混淆矩陣。混淆矩陣的行表示預測的抗旱等級,列表示實際的抗旱等級,主對角線上的數值表示該模型對該類別圖像的識別精度。主對角線上的數值越大,表明模型對該類別圖像的識別精度越高。

Accuracy=TP+TNTP+TN+FP+FN(2)

Precision=TPTP+FP(3)

Recall=TPTP+FN(4)

F1-score=2×Precision×RecallPrecision+Recall(5)

式(2)~式(5)中,TP表示正樣本被正確識別的數量;FP表示負樣本被錯誤識別為正樣本的數量;FN表示正樣本被錯誤識別為負樣本的數量;TN表示負樣本被正確識別的數量。

2.4Mungbean-droughtNet識別性能

在綠豆葉綠素熒光圖像數據集上驗證Mungbean-droughtNet模型的有效性和適應性。如表4所示,在驗證集上,Mungbean-droughtNet模型的平均精度為97.60%,平均召回率為96.58%,平均F1分數為97.60%。如表5所示,在測試集上,Mungbean-droughtNet模型的平均精度為98.18%,平均召回率為98.40%,平均F1分數為98.28%,通過對比分析,可以發現Mungbean-droughtNet模型在驗證集和測試集上的總體性能差異不大,表明Mungbean-droughtNet具有良好的泛化性能。同時使用混淆矩陣對Mungbean-droughtNet模型在驗證集上每種抗旱等級的識別結果進行可視化分析。如圖8所示,混淆矩陣的主對角線值都達到了最大,且在抗旱性極弱(HS)和對照上的識別精度都達到了100%,這表明Mungbean-droughtNet模型具有良好的識別性能。

Mungbean-droughtNet模型的參數量為107.04M,計算復雜度為9.27GMac(Mac表示乘積累加操作數)。訓練集包含11630張圖片,經過300次迭代后,總訓練時間為17.5h。測試集包含1453張圖片,總的測試時間為24s,平均每張圖片的識別時間大約為0.016s。

2.5Mungbean-droughtNet與其他模型的性能比較

在相同數據集和試驗參數的基礎上,將Mungbean-droughtNet模型與基于CNN的模型和基于Transformer的模型進行比較,從而探索本研究提出的模型與現有模型在農業圖像識別中的性能差異。

本研究選取的基于CNN的網絡模型包含經典模型ResNet50、ConvNext以及輕量級模型MobileNetV2、ShuffleNetV2和EfficientNetV2。如表6所示,本研究提出的Mungbean-droughtNet模型在驗證集上的識別準確率最高,為95.57%,分別比ResNet50、ConvNext、MobileNetV2、ShuffleNetV2以及EfficientNetV2高1.11個百分點、4.13個百分點、1.35個百分點、3.56個百分點和3.56個百分點。Mungbean-droughtNet模型的精度、召回率和F1分數均優于表6中的其他模型。

選取4個常用的基于Transformer的模型和Mungbean-droughtNet模型進行對比,選取的模型為ViT、Deit、MobileViT和SwinTransformer。如表6所示,Mungbean-droughtNet模型的總體性能最佳。與基于Transformer的模型SwinTransformer相比,Mungbean-droughtNet模型準確率提高了2.62個百分點,精度提高了2.12個百分點,召回率提高了3.04個百分點,F1分數提高了2.62個百分點。試驗結果證明了本研究提出方法的有效性和創新性。此外,本研究還分析了不同模型在訓練過程中的準確率和損失值曲線,如圖9所示,性能排名第2的模型EfficientNetV2的準確率曲線和損失值曲線在270次迭代和280次迭代中逐漸收斂,排名第3的模型ResNet50的準確率曲線和損失值曲線在280次迭代和260次迭代中逐漸收斂。而Mungbean-droughtNet模型的準確率曲線和損失值曲線均在250次迭代中逐漸收斂。結果表明,與其他深度學習模型相比,Mungbean-droughtNet模型對綠豆葉綠素熒光數據集的識別性能更好,收斂速度更快。

利用訓練得到的最優的9個模型權重繪制混淆矩陣圖。如圖10所示,其中ResNet50、MobileNetV2、EfficientNetV2和SwinTransformer模型混淆矩陣的主對角線數值較高,表明ResNet50、MobileNetV2、EfficientNetV2和SwinTransformer對各類抗旱等級的識別性能均較好。將圖8和圖10進行對比,對于HR、R、S、HS類別,Mungbean-droughtNet模型混淆矩陣主對角線上數值高于或等于其他模型,僅對于MR類別,Mungbean-droughtNet模型混淆矩陣主對角線上數值低于EfficientNetV2模型。總體而言,Mungbean-droughtNet模型對各類抗旱等級綠豆的識別性能均優于其他模型。

為了增加模型預測的可信度,本研究在測試集的每類圖像中各挑選了1張難以區分的圖像用于測試,并利用經過預訓練的10個模型權重對圖像類別進行識別。每個模型的識別結果如圖11所示,10個模型對對照圖像識別準確率均高達100%。對HR、R、MR、S、HS類別圖像進行識別,ResNet50、ShuffleNetV2、EfficientNetV2、ConvNext、ViT、Deit、SwinTransformer以及MobileViT均有2個或以上的識別錯誤,其中MobileNetV2將真實標簽為MR的類別錯誤識別為S類別。而Mungbean-droughtNet模型對HR、R、MR、S、HS5個類別的識別準確率分別高達98.8%、97.9%、99.0%、99.8%、99.6%。由此可見,本研究提出的Mungbean-droughtNet模型對綠豆抗旱等級的識別性能最佳。

2.6消融試驗

為了研究模塊(GLAF模塊、Transformer模塊)數對模型性能的影響,在自建數據集上設計了一系列消融試驗。此外,本研究還測試了不同卷積內核的大小對A模塊性能的影響,從而選擇最佳的卷積內核大小。

2.6.1全局和局部的注意力特征(GLAF)模塊數的消融試驗GLAF模塊用于提取初級特征圖的局部注意力特征和全局注意力特征。過多的模塊會產生冗余信息,不僅增加了模型的參數量和大小,還會增加模型運行時間。而模塊數量過少,則難以捕捉完整的特征信息,從而導致模型的準確率降低。在保持其他參數不變的情況下,將模型的GLAF模塊數分別設置為4、5、6,各訓練了300次。如表7所示,當GLAF模塊數為5時,模型的各項指標均最優。和GLAF模塊數為4相比,GLAF模塊數為5的模型精度、召回率、F1分數分別高了1.31個百分點、1.53個百分點、1.43個百分點。因此,將GLAF模塊的數量設置為5,雖然犧牲一定的參數量,但是獲得了最佳模型性能。

2.6.2轉換器(Transformer)模塊數的消融試驗視覺轉換器(Visiontransformer)模塊中每個轉換器模塊都包含自注意力機制,能夠幫助模型捕捉葉綠素熒光圖像中不同位置之間的長距離依賴關系。在實際特征分析中,通過堆疊多個Transformer模塊,模型能夠逐步整合更廣泛的上下文信息。為了驗證不同數量的Transformer對模型性能的影響,將Transformer模塊數分別設置為2、3、4,并對模型性能進行對比。如表8所示,當Transformer模塊數為2時,模型的平均精度高達98.18%,比Transformer模塊數為3、4時分別高了2.47個百分點、0.63個百分點。綜上,Transformer模塊數為2時,模型各方面的性能最佳,且模型體積最小。

2.6.3卷積核大小的消融試驗卷積核的大小影響了卷積層的感受野和特征提取能力,可分離卷積是A模塊的核心組成部分,為了探究可分離卷積的卷積核大小對A模塊的影響,本研究將卷積核的大小分別設置為3×3、5×5、7×7,并訓練了300次。如表9所示,卷積核為5×5、7×7的模型的整體性能明顯不如卷積核為3×3的模型,且卷積核為5×5、7×7的模型很難提取到更多有效的特征。由此,最終選擇3×3的卷積核。

3討論

為了解決傳統綠豆干旱脅迫狀態診斷方法具有的識別率低、及時性差等問題,本研究提出了一種準確率更高、魯棒性更強的綠豆干旱脅迫識別模型Mungbean-droughtNet。Mungbean-droughtNet模型對綠豆干旱脅迫下的葉綠素熒光圖像數據集具有較好的識別性能,識別準確率最高可達到98.14%,平均精度為98.18%,平均召回率為98.40%,平均F1分數為98.28%。相比于其他方法,Mungbean-droughtNet模型識別精度最高,魯棒性最強,訓練損失值最低,能夠準確識別6類干旱脅迫,具有廣闊的應用前景。并且該模型可以在移動端和嵌入式設備上應用。

本研究仍存在需要改進之處,主要包括以下幾個方面:(1)在參數量方面仍有優化空間,可以進一步優化為輕量級網絡;(2)由于目前缺乏公開的作物干旱脅迫熒光數據集,Mungbean-droughtNet模型只能在自建數據集上驗證其性能,無法在其他數據集上驗證其泛化能力。未來可以通過增加數據集中每個類別的圖像數量,使數據集更加全面。在保證模型精度的同時,利用剪枝算法或者量化感知訓練等方法對模型進行裁剪,減少模型體積,進一步提升網絡速度。

參考文獻:

[1]李茉莉,孫桂華,趙陽.小雜糧作物的開發價值及戰略意義[J].園藝與種苗,2005(2):123-124.

[2]鄭卓杰.中國食用豆類學[M].北京:中國農業出版社,1997.

[3]《氣候變化國家評估報告》編寫委員會.氣候變化國家評估報告[M].北京:科學出版社,2007.

[4]翟盤茂,王萃萃,李威.極端降水事件變化的觀測研究[J].氣候變化研究進展,2007,3(3):144-148.

[5]OCHSNERTE,COSHMH,CUENCARH,etal.Stateoftheartinlarge-scalesoilmoisturemonitoring[J].SoilScienceSocietyofAmericaJournal,2013,77(6):1888-1919.

[6]金祎婷,劉文輝,劉凱強,等.全生育期干旱脅迫對‘青燕1號’燕麥葉綠素熒光參數的影響[J].草業學報,2022,31(6):112-126.

[7]岳煥然,李茂松,安江勇.基于顏色和紋理特征的玉米干旱識別[J].中國農學通報,2018,34(24):18-28.

[8]NAIKHS,ZHANGJ,LOFQUISTA,etal.Areal-timephenotypingframeworkusingmachinelearningforplantstressseverityratinginsoybean[J].PlantMethods,2017,13:1-12.

[9]龍燕,馬敏娟,王英允,等.利用葉綠素熒光動力學參數識別苗期番茄干旱脅迫狀態[J].農業工程學報,2021,37(11):172-179.

[10]ZHOUCY,LEJ,HUADX,etal.Imaginganalysisofchlorophyllfluorescenceinductionformonitoringplantwaterandnitrogentreatments[J].Measurement,2018,136(6):1-9.

[11]ANJ,LIW,LIM,etal.Identificationandclassificationofmaizedroughtstressusingdeepconvolutionalneuralnetwork[J].Symmetry,2019,11(2):256.

[12]XIEW,WEIS,ZHENGZ,etal.Acnn-basedlightweightensemblemodelfordetectingdefectivecarrots[J].BiosystemsEngineering,2021,208(2):287-299.

[13]KAMILARISA,PRENAFETA-BOLDFX.Deeplearninginagriculture:asurvey[J].ComputersandElectronicsinAgriculture,2018,147:70-90.

[14]ZHANGX,XUNY,CHENY.Automatedidentificationofcitrusdiseasesinorchardsusingdeeplearning[J].BiosystemsEngineering,2022,223:249-258.

[15]ABADEADS,PORTOLF,FERREIRAPA,etal.NemaNet:aconvolutionalneuralnetworkmodelforidentificationofsoybeannematodes[J].BiosystemsEngineering,2022,213:39-62.

[16]KOZOWSKIM,GRECKIP,SZCZYPINSKIPM.Varietalclassificationofbarleybyconvolutionalneuralnetworks[J].BiosystemsEngineering,2019,184:155-165.

[17]LECUNY,BENGIOY,HINTONG.Deeplearning[J].Nature,2015,521(7553):436-444.

[18]趙奇慧,李莉,張淼,等.基于遷移學習的溫室番茄葉片水分脅迫診斷方法[J].農業機械學報,51(增刊1):340-347.

[19]OCHSNERTE,COSHMH,CUENCARH,etal.Stateoftheartinlarge-scalesoilmoisturemonitoring[J].SoilScienceSocietyofAmericaJournal,2013,77(6):1888-1919.

[20]CHANDELSN,CHAKRABORTYKS,RAJWADEAY,etal.Identifyingcropwaterstressusingdeeplearningmodels[J].NeuralComputingandApplications,2020,33(10):5353-5367.

[21]劉芳軍,李玥,武凌,等.基于改進ResNet18的胡麻干旱脅迫識別與分類研究[J].江西農業大學學報,2023,45(6):1517-1527.

[22]XIAJ,ZHANGWY,ZHANGWX,etal.Acloudcomputing-basedapproachusingthevisiblenear-infraredspectrumtoclassifygreenhousetomatoplantsunderwaterstress[J].ComputersandElectronicsinAgriculture,2021,181:105966.

[23]KUOCE,TUYK,FANGSL,etal.Earlydetectionofdroughtstressintomatofromspectroscopicdata:anovelconvolutionalneuralnetworkwithfeatureselection[J].ChemometricsandIntelligentLaboratorySystems,2023,239:104869.

[24]CHENDJ,NEUMANNK,FRIEDELS,etal.Dissectingthephenotypiccomponentsofcropplantgrowthanddroughtresponsesbasedonhigh-throughputimageanalysis[J].ThePlantCell,2014,26(12):4636.

[25]KAUTZB,NOGAG,HUNSCHEM.Sensingdrought-andsalinity-imposedstressesontomatoleavesbymeansoffluorescencetechniques[J].PlantGrowthRegulation,2014,73(3):279-288.

[26]MISHRAKB,IANNACONER,PETROZZAA,etal.Engineereddroughttoleranceintomatoplantsisreflectedinchlorophyllfluorescenceemission[J].PlantScience,2012,182:79-86.

[27]WANGY,ANY,YUJ,etal.DifferentresponsesofphotosystemⅡandantioxidantstodroughtstressintwocontrastingpopulationsofsourjujubefromtheLoessPlateau,China[J].EcologicalResearch,2016,31(6):761-775.

[28]GUOYY,YUHY,KONGDS,etal.EffectsofdroughtstressongrowthandchlorophyllfluorescenceofLyciumruthenicummurr.seedlings[J].Photosynthetica,2016,54(4):524-531.

[29]LOTFIR,PESSARAKLIM,GHARAVI-KOUCHEBAGHP,etal.Physiologicalresponsesofbrassicanapustofulvicacidunderwaterstress:chlorophyllafluorescenceandantioxidantenzymeactivity[J].CropJournal,2015,3(5):434-439.

[30]SHARMADK,ANDERSENSB,OTTOSENCO,etal.WheatcultivarsselectedforhighFv/Fmunderheatstressmaintainhighphotosynthesis,totalchlorophyll,stomatalconductance,transpirationanddrymatter[J].PhysiologiaPlantarum,2015,153(2):284-298.

[31]HUMPLIKJF,LAZARD,FURSTT,etal.Automatedintegrativehigh-throughputphenotypingofplantshoots:acasestudyofthecold-toleranceofpea(PisumsativumL.)[J].PlantMethods,2015,11:1-11.

[32]BRESSONJ,VASSEURF,DAUZATM,etal.Interacttosurvive:phyllobacteriumbrassicacearumimprovesArabidopsistolerancetoseverewaterdeficitandgrowthrecovery[J].PLoSOne,2014,9(9):e107607.

[33]梁歡,韋寶,陳靜,等.基于葉綠素熒光參數的紫花苜蓿種質苗期抗旱性評價[J].草地學報,2020,28(1):45-55.

[34]余驥遠,高尚兵,李潔,等.基于MS-PLNet和高光譜圖像的綠豆葉斑病病級分類[J].江蘇農業科學,2023,51(6):178-186.

[35]李莉,萬正煌,陳宏偉,等.不同群體密度對綠豆農藝性狀和產量的影響[J].農業科學與技術,2010,11(7):62-65.

[36]王小英,王孟,王斌,等.不同氮肥用量對綠豆主要農藝性狀及產量的影響[J].中國農學通報,2020,36(17):95-98.

[37]馮蕊,周琪,吳令上,等.PEG6000模擬干旱脅迫對鐵皮石斛幼苗生理和葉綠素熒光特性的影響[J].浙江農林大學學報,2024,41(1):132-144.

[38]浦嬋,董文淵,張孟楠,等.聚乙二醇6000模擬干旱脅迫及復水對黃竹幼苗抗性生理特性的影響[J].東北林業大學學報,2018,46(8):31-37.

[39]姚松林.基于卷積神經網絡的荔枝病蟲害圖像識別技術研究[J].電腦編程技巧與維護,2023,12:133-135.

[40]李靜,徐其江.干旱脅迫對綠豆農藝性狀及產量的影響研究[J].新疆農墾科技,2017,40(7):8-11.

[41]馮曉碩,沈樾,王冬琦.基于圖像的數據增強方法發展現狀綜述[J].計算機科學與應用,2021,11(2):13.

[42]溫艷蘭,陳友鵬,王克強,等.基于機器視覺的病蟲害檢測綜述[J].中國糧油學報,2022,37(10):271-279.

(責任編輯:成紓寒)

主站蜘蛛池模板: 国产一区二区免费播放| 亚洲精品男人天堂| 午夜日韩久久影院| a色毛片免费视频| 97无码免费人妻超级碰碰碰| 高清国产va日韩亚洲免费午夜电影| 国产成年无码AⅤ片在线| 最新国产在线| 亚洲全网成人资源在线观看| 亚洲二区视频| 首页亚洲国产丝袜长腿综合| 亚洲综合色区在线播放2019 | 操美女免费网站| 亚洲国产精品无码久久一线| 精品人妻系列无码专区久久| 成人噜噜噜视频在线观看| 欧美va亚洲va香蕉在线| 日韩乱码免费一区二区三区| 日韩欧美国产中文| 亚洲大学生视频在线播放| 亚洲无限乱码| 免费国产好深啊好涨好硬视频| 白浆视频在线观看| 99精品高清在线播放| 毛片免费观看视频| 四虎永久在线精品国产免费| 亚洲另类第一页| 亚洲精品视频在线观看视频| 亚洲无码A视频在线| 国产激情无码一区二区免费| 91午夜福利在线观看| 欧美狠狠干| 国产视频欧美| 亚洲天堂成人| 久久精品波多野结衣| 四虎成人精品在永久免费| 亚洲成a人片7777| 亚洲最黄视频| 在线无码九区| 成人福利在线看| 97se亚洲| 男女猛烈无遮挡午夜视频| 国产一区免费在线观看| 尤物视频一区| 久久久91人妻无码精品蜜桃HD| av无码久久精品| 精品五夜婷香蕉国产线看观看| 麻豆精品视频在线原创| 午夜无码一区二区三区| 大香伊人久久| 日韩欧美一区在线观看| 亚洲 欧美 日韩综合一区| 18黑白丝水手服自慰喷水网站| 国产成人1024精品| 国产精品亚洲精品爽爽| 黄色国产在线| 亚洲一道AV无码午夜福利| 国产成人乱无码视频| 亚洲天堂免费| 国产网友愉拍精品视频| 91小视频在线观看免费版高清| 91美女在线| 国产91视频观看| 在线观看国产一区二区三区99| 毛片免费视频| 国产无人区一区二区三区| 色综合色国产热无码一| 国产精品自在自线免费观看| 天天躁日日躁狠狠躁中文字幕| 国产自在线播放| 无码在线激情片| 国产欧美日韩免费| 国产黄网永久免费| 日本高清免费一本在线观看 | 成人免费黄色小视频| 国产精品视频999| 日韩成人午夜| 国产精品久久久久久久久kt| 亚洲一区无码在线| 黄片一区二区三区| 久久这里只有精品2| 香蕉eeww99国产在线观看|