999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CA_MobileViT模型的水稻鉀素營養(yǎng)診斷研究

2025-09-09 00:00:00吳正楊紅云孫愛珍孔杰黃淑梅

doi:10.13304/j.nykjdb.2024.0146

中圖分類號:S126 文獻標志碼:A 文章編號:1008-0864(2025)08-0080-09

Diagnosisof Potassium Nutrition inRiceBased on CA_MobileViTModel

WU Zheng1,YANG Hongyun2*,SUN Aizhen1,KONG Jie2,HUANG Shumei2 (1.SchoolofComputerandInformationEnginering,JiangxiAgricultural University,Nanchang330o45,China;2.hlf Software,Jiangxi Agricultural University,Nanchang 33OO45,China)

Abstract: In order to rapidly and accuratelely diagnose and recognize potassium stress degree of rice,The Huanghuazhan varietyoflatericewasusedas material,and4potassiumfertilization levels weresetrespectivelyfor base fertilizer and topdressng at jointing stage.Taking scanned images of3spread leavesof main stem at tiller stage and jointingstageasdataset,and MobileViTastheskeleton,the CA MobileViTmodelwasconstructedafter introducingCoordinate Attentionto the BNLayer of each 3×3 convolutioninthelayerof MobileViTand introduce transferlearning.Theresults were verified bycomparing EfficientNet-V2,ConvNeXt,MobileViTand CA - MobileViT models.The results showed that the accuracy rates of the 4 models were 98.4% , 98.5% , 94.2% and 95.3% , respectively. The accuracy of CA_MobileViT model was 95.3% ,1.1 percent point higher than that of MobileViT model,but3.1percentpoint lowerthanthatofEficientNet-V2modeland3.2percentpointlowerthanthatof ConvNeXt model.However,the numberof parameters of CA_MobileViTmodels was about 1/4of the EffcientNet-V2 and ConvNeXt large models,and the training time was reduced by about 1/3 .Theimproved CA_MobileViT model hasahigh accuracy forthe diagnosis of potassium stress degree of rice,and could effectively guide the scientific potassium topdressing management of rice,and also provideauniversaland feasible method for the rapid and accurate diagnosis of nutrition of other crops.

eyWords:rice;potassium nutrition diagnosis;lightweight hybrid model;transferlearning;Coordinate Attentiol

鉀素作為農(nóng)作物生長發(fā)育所必需的礦物質(zhì)元素之一,在植物生命活動中極其重要,它可以促進碳水化合物的合成和運輸,促進蛋白質(zhì)的合成1土壤自身富含多種礦物質(zhì),是植物根系獲取鉀素的主要來源。我國 60% 耕地土壤都存在鉀素缺乏,精準施肥成為促進農(nóng)作物生長的關(guān)鍵。因此,對農(nóng)作物的營養(yǎng)診斷極為重要,需要專業(yè)的儀器設(shè)備4。現(xiàn)階段,農(nóng)作物鉀素的診斷主要分為化學(xué)檢測和高光譜遙感等,而化學(xué)檢測需要專業(yè)人員用專業(yè)設(shè)備進行分析,高光譜檢測儀則價格昂貴,不宜普及。

近年來,隨著深度學(xué)習(xí)算法的層出不窮,其在植物病害和營養(yǎng)診斷方面的應(yīng)用得到廣泛關(guān)注。Espej-Garcta等提出了一種深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)HCA-MFFNet用于復(fù)雜背景下診斷玉米葉病,模型的準確率為 97.75% 。Bevers等采用基于遷移學(xué)習(xí)的Efficient-B4對甜菜進行疾病分類診斷,在2個數(shù)據(jù)集上分別獲得了 98.65% 和 98.52% 的準確率,并使用梯度加權(quán)類激活映射(Grad-CAM)進行了準確性的分析,熱力圖表明Efficient-B4能準確定位到甜菜的疾病特征位置。Azgomi等基于DenseNet-201對大豆8類疾病進行識別診斷,準確率達到了 96.7% 。周瓊等提出了一種基于神經(jīng)網(wǎng)絡(luò)的蘋果真菌病害圖像分類和病害診斷的ADD-NN方法,將痂病、苦腐病、黑腐病以及健康水果作為網(wǎng)絡(luò)的4個輸出,結(jié)果表明,采用第一層8個神經(jīng)元、第二層8個神經(jīng)元的2層結(jié)構(gòu),獲得的準確率最高為 73.7% 。楊紅云等[]利用圖像視覺處理技術(shù)提取水稻葉片紋路特征與顏色特征,采用BackPropagation神經(jīng)網(wǎng)絡(luò)和概率神經(jīng)網(wǎng)絡(luò)提取了19項特征對水稻氮素營養(yǎng)進行診斷識別,結(jié)果表明,BP神經(jīng)網(wǎng)絡(luò)模型優(yōu)于概率神經(jīng)網(wǎng)絡(luò)模型,準確率達到 90% 。 Yu 等采用DenseNet、ResNet-50、InceptionResNet-V2集成的卷積神經(jīng)網(wǎng)絡(luò)建立了氮素營養(yǎng)診斷模型,將水稻氮素不同脅迫程度診斷識別準確率達到了 98.10% ,且模型具有很強的泛化能力和學(xué)習(xí)能力,為水稻營養(yǎng)診斷提供了新的思路。

Transformer是一種深度學(xué)習(xí)模型,其核心在于自注意力(self-attention)機制,這使得模型能夠同時考慮輸入序列中的所有位置,為每個位置分配不同的注意權(quán)重,從而捕捉數(shù)據(jù)中的復(fù)雜關(guān)系和模式。隨著Transformer在自然語言處理(NLP-naturallanguageprocessing)領(lǐng)域大放異彩,研究人員在圖像分類中引入了Transformer架構(gòu),其也被引入到了農(nóng)業(yè)領(lǐng)域中。Thai等2提出基于Transformer改進的模型進行植物病害檢測,取得了 99.94% 的準確率。Dhar等[3]提出了基于Transformer的改進模型FormerLeaf,用于木薯葉病害檢測,并引入了Leap算法來優(yōu)化模型,將模型大小降低了 28% ,同時模型訓(xùn)練速度加快了15% ,準確率提高了 3% ,此外還采用系數(shù)矩陣-矩陣乘法(SPMM)來計算模型中的矩陣相關(guān)性,從而降低了模型的復(fù)雜性,結(jié)果表明,提出的FormerLeaf模型取得了 96.82% 的準確率,比VGG、Resnet-50等CNN模型準確率都要高。這些深度學(xué)習(xí)模型雖然在診斷中取得了良好的結(jié)果,但開發(fā)過程需要大量的訓(xùn)練時間和計算資源[13-15],對移動端設(shè)備與嵌入式設(shè)備來說是難以實現(xiàn)的。

上述研究表明,深度學(xué)習(xí)算法進行農(nóng)作物病蟲害和營養(yǎng)診斷識別是可行的。但網(wǎng)絡(luò)模型參數(shù)較大,且卷積神經(jīng)網(wǎng)絡(luò)模型雖擅長提取局部特征,在捕獲全局特征表示方面還是存在一定的局限性;而Transformer的級聯(lián)自注意力模塊可以捕獲長距離的特征依賴,但會忽略局部特征,從而無法捕捉關(guān)鍵特征信息,導(dǎo)致模型性能下降。因此,本研究提出具有協(xié)同注意力機制的輕量級CNN與Transformer的混合模型CA_MobileViT,既以較高的精度實現(xiàn)了水稻鉀素不同脅迫程度的營養(yǎng)診斷識別,同時也極大地降低了模型參數(shù)的數(shù)量,為水稻等農(nóng)作物營養(yǎng)診斷識別輕量級建模方法奠定了理論基礎(chǔ)。

1材料與方法

1.1 田間試驗

水稻田間栽培試驗在江西省吉安市新干縣進行 (115.3°E,27.7°N) ,該區(qū)域?qū)儆趤啛釒Ъ撅L(fēng)氣候,年平均氣溫在 16~24°C ,年總?cè)照諘r數(shù)為1808.2h ,年總降雨量為 1571.8mm 。

于2022年進行晚稻綜合田間試驗。試驗田共有4塊,田塊面積約 1.5m2 ,每塊移栽水稻50株,品種為晚稻黃花占(江西農(nóng)業(yè)大學(xué)農(nóng)學(xué)試驗站提供),6月25日播種,7月18日移栽。第一次基肥氮肥(N,尿素)磷肥(P,鈣鎂磷肥)施加水平相同,試驗設(shè)置了4個鉀肥(K,氯化鉀)梯度(施鉀肥比例 0:0.5:1.0:1.5 ;施鉀肥量:0(KO)、9.45(K1)、18.9(K2) $、 2 8 . 3 5 \ \underline { { \mathrm { g } } } \cdot \mathrm { m } ^ { - 2 } ( \mathrm { K } 3 )$ 。第二次分蘗期施肥時僅施加氮(N)肥 (7.82g?m-2) 。第三次拔節(jié)期追加相同的氮(N)肥 (11.73g?m-2.07g) ),4個處理施鉀肥量分別為 0,1.62,6.07,12.15g?m-2 ,其他正常栽培管理。供試化肥為尿素, N?46% ,安陽中盈化肥有限公司生產(chǎn);氯化鉀, K2O?60% ,中國農(nóng)業(yè)生產(chǎn)資料集團公司生產(chǎn);鈣鎂磷肥, P2O5gtrsim12.0% 荊門市高園磷肥有限公司生產(chǎn)。

1.2葉片數(shù)據(jù)采集與預(yù)處理

研究樣本選用水稻頂部3片完全展開葉,分別在2022年8月6日(分期)和2022年8月26日(拔節(jié)期)掃描圖像。水稻數(shù)字圖像獲取的設(shè)備選用MICORTEK平板掃描儀(MRS9600TFU2L,上海中晶科技有限公司生產(chǎn)),圖像傳感器為CCD,分辨率為600像素。所獲取的圖像均存儲為JPG格式,分辨率為 8401×14401 像素。4個類別各采集390幅圖像,總計獲得2個時期8個類別的水稻葉片圖像3120幅。每個分類類別的圖像數(shù)量大致相同,使用CNN模型學(xué)習(xí)效果較好[6]。

使用Photoshop中的套索工具將葉片提取出來,并將背景統(tǒng)一設(shè)置為黑色,提取的圖像分辨率很大,使用Python庫將分辨率像素調(diào)整為600×600 以減少圖像處理的時間。

1.3 MobileViT

MobileViT架構(gòu)融合了傳統(tǒng)卷積層、MobileNetV2的InvertedResidual塊、特有的MobileViT塊、全局池化層以及全連接層,其內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)被細化為5個層級(圖1A)。其中,MobileViT塊(圖1B)是該架構(gòu)的核心組成部分,該塊通過 3×3 卷積層對輸人特征圖進行局部特征建模,利用 1×1 卷積層調(diào)整通道數(shù)以適應(yīng)后續(xù)操作。利用Unfoldgt;Transformergt;Fold結(jié)構(gòu)進行全局特征建模,以捕捉輸人特征圖的全局上下文信息。通過 1×1 卷積層將通道數(shù)恢復(fù)到原始大小,以便與原始輸入特征圖進行拼接。經(jīng)過shortcut捷徑分支,MobileViT塊將經(jīng)過全局特征建模的特征圖與原始輸入特征圖在通道維度上進行Concat拼接。通過1個 3×3 卷積層對拼接后的特征圖進行特征融合,生成該塊的最終輸出。

A:MobileViT整體架構(gòu);B:MobileViTBlock結(jié)構(gòu); P 代表Patch中的像素: N 為Patch的數(shù)量;d代表處理后的特征維度;H和W分別代表特征圖或輸入圖像的高度和寬度

圖1MobileViT流程

A:OverallarchitectureofMobileViT;B:MobileViTBlockstructure; P represents the pixels in the patch; N isthe number of patches; d 2 represents the processed feature dimension; H and W represent the height and width of the feature map or input image,respectively

FIG.1 MobileViTflow

1.4 CA_MobileViT模型構(gòu)建

本研究提出了一種改進的輕量混合架構(gòu)模型CA_MobileViT(圖2),該模型結(jié)合了CNN與transformer,并引人了協(xié)同注意力機制(coordinateattention,CoordATT)。CoordATT通過將通道注意力分解為2個不同空間方向上的1D特征編碼過程,旨在捕捉不同空間方向的長距離依賴,并將2個方向編碼后的特征信息與輸人特征圖進行融合,增強模型對局部特征信息的提取能力。與二維卷積不同,CoordATT從 X 和Y方向建模空間注意力,其中任一通道的不同位置通過特定權(quán)重模板進行共享。具體而言,CoordATT利用2個1D全局池化操作將輸入特征圖沿垂直和水平方向分別聚合為2個獨立的direction-aware featuremaps。這2個特征圖隨后被編碼為2個attentionmaps,每個attentionmap沿1個空間方向捕獲輸入特征圖的遠距離依賴關(guān)系。位置信息因此被保留在生成的attentionmaps中。最終,將這2個attentionmaps與原始輸人特征圖相乘,實現(xiàn)對特定區(qū)域的注意力強調(diào)。

以MobileViT為基礎(chǔ)架構(gòu),將CoordATT機制引入到MobileViT每層中的 3×3 卷積的批量歸一化(BN)層之后(圖2B),使模型能夠在保持計算效率的同時,進一步提升對圖像特征的表征能力。

全局池化方法通常用于通道注意編碼空間信息的全局編碼,由于它將全局空間信息壓縮到通道中,導(dǎo)致很難保存位置信息。為了促使注意力模塊能夠捕捉具有精確位置信息的遠程空間的交互,按照以下公式分解全局池化,轉(zhuǎn)化為一對一維特征編碼,如公式(1)。

式中: ?X 為輸人, H,W 為通道的高度和寬度。

具體來說,給定輸入 X ,首先使用尺寸為 (H,I) 或 (l,W) 的poolingkernel分別沿著水平坐標和垂直坐標對每個通道進行編碼。高度為 h 的第 c 通道的輸出和寬度為 w 的第 ∣c∣ 通道的輸出可以表示為公式(2)和(3)。

上述2種變換分別沿2個空間方向聚合特征,得到1對方向感知的特征圖。

A:CoordATT模塊結(jié)構(gòu);B:改進的網(wǎng)絡(luò)主干部分;C:模型流程結(jié)構(gòu)

圖2CA_MobileViT模型 Fig.2CA_MobileViTmodel

A:CoordATTmodule structure;B:Improved network backbone;C:Model process structure

1.5 模型性能評估

本研究采用模型準確率(accuracy,A)、精確率(precision, P )、召回率(recall,R)、特異性(Specificity,S)和 F1 分數(shù) (F1) 來評估模型的性能。準確率為模型預(yù)測正確數(shù)量所占總數(shù)的比例,精確率為被識別為正類別的樣本中為正類別的比例,召回率為所有正類別樣本中被正確識別為正類的比例。這些指標越高表明模型的性能越好和模型越穩(wěn)定,計算公式如下。

(5)

式中: TP 為真正例, Tν 為真負例, Fp 為假正例, FN 為假負例。

1.6數(shù)據(jù)增強與模擬試驗設(shè)置

1.6.1數(shù)據(jù)增強采用從田間獲得的3120幅原始圖像作為數(shù)據(jù)集。試驗選取2個優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)Efficient-V2和ConvNeXt[7與改進的模型進行對比。利用Python腳本將整個數(shù)據(jù)集隨機按6:4劃分為訓(xùn)練集和測試集,采用分類交叉熵損失函數(shù)(categorical cross-entropy loss function,CCELF)來訓(xùn)練模型。優(yōu)化器方面分別選取了SGD和AdamW。每個類別(390幅)使用隨機角度旋轉(zhuǎn)、水平翻轉(zhuǎn)、對比度增強、銳化增強、混合增強、高斯噪聲、椒鹽噪聲、乘性噪聲等方法擴充8倍,共3510幅,最終得到 4×3510=14040) 幅水稻葉片圖像,按6:4劃分為訓(xùn)練集與測試集進行試驗。

1.6.2模擬試驗設(shè)置試驗硬件環(huán)境為RTX4080,Intel@CoreTMi7-13700KF(2.7GHzbasefrequency,upto5.4GHzwithIntel?TurboBoostTechnology,3OMBcache,16cores)。試驗時使用學(xué)習(xí)率預(yù)熱(warmup)的方法來調(diào)整學(xué)習(xí)率,warmup有助于減緩模型在初始階段對 mini-batch 的提前過擬合現(xiàn)象,保持分布的平穩(wěn),同時也有助于保持模型的穩(wěn)定性。學(xué)習(xí)率衰減(learningratedecay)可以使深度學(xué)習(xí)算法運行得更快,能保證損失函數(shù)最終擺動時處在離最優(yōu)值很近的范圍內(nèi)。試驗采用了余弦退火(CosineAnnealingLR)來調(diào)整學(xué)習(xí)率。試驗中4個網(wǎng)絡(luò)模型均使用了 384×384×3 像素大小的RGB圖像為輸入數(shù)據(jù)。對圖像進行歸一化處理,確保在[0,1]范圍內(nèi)數(shù)據(jù)分布均勻。這在imagedatgenerator中自動完成,通過按通道數(shù)量重新縮放圖像像素值,即 1/255[18]

1.6.3分藥期模型分類對比試驗單獨對MobileViT和CA_MobileViT兩個模型進行對比,采用分蘗期數(shù)據(jù)集訓(xùn)練模型,訓(xùn)練進行了240次迭代,優(yōu)化器選用AdamW,學(xué)習(xí)率 =0.0001 ,batch-size :=8 。

2 結(jié)果與分析

2.1模型試驗結(jié)果

2.1.1拔節(jié)期模型分類效果對比 Efficient-V2、ConvNeXt、MobileViT和CA_MobileViT模型在水稻鉀素營養(yǎng)診斷上都取得了良好的結(jié)果(圖3),Accuracy都超過了 94.0% ,損失曲線也都從第40個epoch后趨于平滑下降。其中純卷積模型ConvNeXt的表現(xiàn)最佳,準確度達到了 98.5% ,并在第30個epoch后開始收斂,是收斂最快的模型。其次是EfficientNet-V2( 98.4% )。輕量級混合模型MobileViT準確率為 94.2% ,改進的具有協(xié)同注意力機制的CA_MobileViT準確率為 95.3% ,雖然略低于EfficientNet-V2和ConvNeXt模型,但在MobileViT的基礎(chǔ)上提高了1.1百分點,且模型參數(shù)僅約為ConvNeXt和EfficientNet-V2模型的25% ,模型的訓(xùn)練時間也減少了近 30% 。模型的參數(shù)設(shè)置及參數(shù)量數(shù)如表1所示。

圖3拔節(jié)期模型性能曲線

Fig.3Performance curve of the jointing stage model

2.1.2分藥期模型分類效果對比從圖4可以看出,MobileVit和CA_MobileViT準確率分別為90.1% 和 92.0% ,改進的CA_MobileViT且模型收斂得更加平滑,損失曲線的波動也相對更小;二者的訓(xùn)練時間幾乎一致,再次表明改進后的CA_MobileViT較MobileViT有良好的提高。表2總結(jié)了4個模型在基于遷移學(xué)習(xí)進行訓(xùn)練的模型性能,改進后的模型CA_MobileViT的準確率、精度、召回率、特異性""分數(shù)分別為 95.3% ) 95.3% 、(2號 95.3%.98.4% 0.952,均高于原模型MobileViT,表明改進后的模型更加穩(wěn)定,泛化能力更強。

表1模型的超參數(shù)設(shè)置及模型參數(shù)量

Table1Hyperparameter Settings of the model and the numberof model parameters

圖4分藥期模型性能曲線

Fig.4Performance curve of the tillering stage model

表2模型評估指標對比

Table2 Comparison ofmodel evaluationindicators

2.2用混淆矩陣來評估模型的性能

從拔節(jié)期混淆矩陣(圖5)可知:CA_MobileViT的K0、K1、K2的識別正確數(shù)量分別為1510、1477、1494,而MobileViT的KO、K1、K2的識別正確數(shù)量分別為1497、1397、1471。表明改進的模型CA_MobileViT在KO、K1、K2的區(qū)分上明顯優(yōu)于原模型。同時,MobileViT模型在K1與K3的混淆錯誤數(shù)量高達160,表明MobileViT模型在K1與K3類別上容易出現(xiàn)誤分類。而改進的CA_MobileViT在K1與K3的混淆錯誤數(shù)量為106,較MobileViT減少了近 34% 的錯誤率。這也表明,K1與K3由施鉀肥含量不同所導(dǎo)致的葉片癥狀極其相似。試驗結(jié)果表明,沒有注意力機制的純卷積神經(jīng)網(wǎng)絡(luò)ConvNeXt與EfficientNet-V2在水稻氮鉀養(yǎng)分脅迫圖像識別效果相當(dāng),基于MobileViT改進的CA_MobileViT則是在原基礎(chǔ)上提高了1.1百分點,且模型參數(shù)幾乎沒有變化。CA_MobileViT雖然比ConvNeXt與EfficientNet-V2模型的準確率低了3.2和3.1百分點,但其參數(shù)量僅約為它們的1/4,且訓(xùn)練時間縮短了約1/3。

圖5拔節(jié)期的混淆矩陣

Fig.5Confusion matrix at jointing stage

2.3用梯度加權(quán)類激活映射(Grad-CAM)可視化特征提取

Grad-CAM是一種基于梯度定位的深層網(wǎng)絡(luò)可視化方法,它的基本原理是:計算卷積層中每個特征圖對圖片類別的權(quán)重,求每個特征圖的加權(quán)和,最后把加權(quán)和的特征圖映射到原始圖像中。圖6展示了水稻鉀素營養(yǎng)不同脅迫程度診斷識別的Grad-CAM可視化熱力圖,可以看出,模型加入CA模塊后,特征提取集中在水稻葉片焦黃的特征部位,減少其他非關(guān)鍵特征信息的干擾。表明改進的CA_MobileViT模型關(guān)注的特征與水稻受鉀素脅迫生長時葉尖、葉緣部位泛黃的外觀特征基本一致。

3討論

RGB圖像的獲取成本較低,且包含的信息特征豐富,因此在計算機視覺領(lǐng)域中得到了廣泛的應(yīng)用[19]。本研究使用的水稻葉片圖像均為RGB格式,但田間水稻栽培試驗獲取的真實圖像數(shù)量有限,數(shù)據(jù)集太小則無法良好地訓(xùn)練深度學(xué)習(xí)模型。采用數(shù)據(jù)增強技術(shù)擴充后的數(shù)據(jù)集訓(xùn)練模型后,CA_MobileViT模型的準確率從 64% 提升到了95% ,模型的精度提升了31百分點。類似的,研究人員將他們的原始數(shù)據(jù)集通過數(shù)據(jù)增強從

A:CA_MobileVit;B:MobileVit

圖6Grad-CAM熱力圖Fig.6Grad-CAM thermal maps

21397幅圖像擴展到136722幅圖像,將模型精度提高了約10百分點[20]。為了提高模型的精度,本研究通過數(shù)據(jù)增強擴充數(shù)據(jù)集至原始的9倍。

Dhan[3提出了基于Transformer改進的模型FormerLeaf用于木薯葉病害檢測,并引入了Leap算法來優(yōu)化模型,將模型大小降低了 28% ,同時模型訓(xùn)練速度加快了 15% ,準確率提高了3百分點。但Transformer模型參數(shù)量極大,對設(shè)備算力要求很高,訓(xùn)練時間也遠久于CNN模型。這對于嵌入式設(shè)備與移動端設(shè)備來說是難以實現(xiàn)的,為此,研發(fā)輕量級的深度學(xué)習(xí)模型是很有必要的。

單一的串聯(lián)普通卷積模塊對特征的提取不夠精準,而CoordATT模塊通過并行2個卷積模塊可以獲取方向與位置信息,幫助模型更加精準地定位和識別感興趣的特征信息。將CoordATT引入到了YOLOV5算法中來提高模型對特征的提取能力,同時提高了視覺機器人在油茶果實采收過程中的操作決策的能力[。ESPEJO-GARCIA等提出一種包含CoordATT模塊的模型HCA-MFFNet,研究表明,CoordATT模塊提高了模型在復(fù)雜背景下對玉米葉病的特征提取,使其準確率達到97.75% ,準確率遠高于VGG-16、ResNet-50、DenseNet-121等純卷積網(wǎng)絡(luò)模型。混合模型方面,Yang等[22提出了輕型變壓器和CNN的混合網(wǎng)絡(luò)對醫(yī)學(xué)圖像進行分割,利用CNN和MobileViT聯(lián)合提取圖像特征,減少了模型的運算量和復(fù)雜度,提高了分割性能。上述結(jié)果表明,CNN與Transformer二者的混合模型是可行的。

EfficientNet-V2和ConvNeXt作為2個基準模型,在ImageNet數(shù)據(jù)集上的性能表現(xiàn)均十分出色。為了深入探究不同模型架構(gòu)對圖像分類性能的影響,本文將這2個基準模型與改進的模型CA_MobileViT進行了對比,以期發(fā)現(xiàn)更優(yōu)秀的圖像分類模型架構(gòu)。

當(dāng)CoordATT、CNN和Transformer三者結(jié)合到一起時,互補了各自在特征提取中存在的不足。使模型CA_MobileViT兼具了全局與局部特征的提取,可以捕獲長短距離的特征依賴,CoordATT的加入使模型更加關(guān)注水稻葉片由鉀素含量改變引起的葉尖與葉緣的變化。水稻缺鉀表現(xiàn)在葉片上的癥狀與缺氮或缺磷相似,水稻缺鉀也首先表現(xiàn)在老葉上。水稻缺鉀導(dǎo)致葉片失綠呈現(xiàn)黃褐色到橘黃色,而與缺氮表現(xiàn)不同的是,缺鉀初期的老葉葉尖和葉緣焦黃并伴有黃褐色斑點或條紋、葉中為綠色,進而發(fā)展到整個葉片[23]。從Grad-CAM熱力可視化圖中則很好地驗證了這一說法。由此表明,CoordATT、CNN和Transformer三者混合的模型在水稻鉀素營養(yǎng)診斷是可行的,為應(yīng)用進一步向移動端發(fā)展提供了可能,同時也為其他農(nóng)作物的營養(yǎng)診斷提供了可行、普適的方法。

參考文獻

[1]趙鵬姝,楊順瑛,郝東利,等.水稻鉀素營養(yǎng)的基因型特征及 分子機制初探[J].土壤,2021,53(1):37-46. ZHAOPS,YANG S Y,HAO D L,et al..Genotypic characteristicsand molecularmechanism ofpotassium nutritioninrice[J].Soils,2021,53(1):37-46.

[2]朱向東,王宏庭.土壤鉀素管理研究進展[J].山西農(nóng)業(yè)科學(xué), 2013,41(11):1274-1281. ZHU X D, WANG H T. Research progress of soil potassium management [J]. Shanxi Agric. Sci.,2013,41(11):1274-1281.

[3]王紹華,曹衛(wèi)星,王強盛,等.水稻葉色分布特點與氮素營養(yǎng) 診斷[J].中國農(nóng)業(yè)科學(xué),2002.35(12):1461-1466. WANG SH,CAO WX,WANGQS,etal..Positional distribution of leaf color and diagnosis of nitrogen nutrition in rice plant [J]. Sci. Agric.Sin.,2002,35(12):1461-1466.

[4]羅建軍.基于計算機視覺技術(shù)與高光譜技術(shù)的水稻氮素營 養(yǎng)診斷研究[D].南昌:江西農(nóng)業(yè)大學(xué),2021. LUO JJ.Nitrogen nutrition diagnosis of rice basedon Computer vision and Hyperspectral technology [D].Nanchang: Jiangxi Agricultural University,2021.

[5]FANG SD, WANG YF,ZHOU G X,et al. Multi-channel feature fusion networks with hard coordinate attention mechanism for maize disease identification under complex backgrounds [J/OL]. Comput.Electron.Agric.,2022,203:107486 [2024-11-12].https:// doi.org/10.1016/j.compag.2022.107486.

[6]ESPEJO-GARCIA B, MALOUNAS I, MYLONAS N,et al.. UsingeficientNet and transfer learning for image-based diagnosis of nutrient deficiencies [J/OL].Comput. Electron. Agric.,2022,196:106868 [2024-11-12].https://doi.org/10.1016/ j.compag.2022.106868.

[7]BEVERS N, SIKORA EJ,HARDY N B.Soybean disease identification using original field images and transfer learning with convolutional neural networks [J/OL].Comput. Electron. Agric.,2022,203:107449 [2024-11-12]. https://oi.org/10.1016/j. compag.2022.107449.

[8]AZGOMI H,HAREDASHTFR, SAFARI MOTLAGH MR. Diagnosis of some apple fruit diseases by using image processing and artificial neural network [J/OL].Food Contr., 2023,145:109484 [2024-11-12]. https://doi.org/10.1016/j.foodcont. 2022.109484.

[9]周瓊,楊紅云,楊珺,等.基于BP神經(jīng)網(wǎng)絡(luò)和概率神經(jīng)網(wǎng)絡(luò)的 水稻圖像氮素營養(yǎng)診斷[J].植物營養(yǎng)與肥料學(xué)報,2019, 25(1):134-141. ZHOUQ, YANGHY,YANGJ, etal.. FeasibilitystudyofBP neural network and probabilistic neural network for nitrogen nutrition diagnosisof rice images[J].J.Plant Nutr. Fertil., 2019,25(1):134-141.

[10]楊紅云,郭紫微,郭高飛,等.基于Stacking集成卷積神經(jīng)網(wǎng)絡(luò) 的水稻氮素營養(yǎng)診斷[J].植物營養(yǎng)與肥料學(xué)報,2023,29(3): 573-581. YANGHY,GUO ZW,GUO GF,et al. Rice nitrogen nutrition diagnosis based on stacking integrated convolutional neural network[J].J.PlantNutr.Fertil.,2023,29(3):573-581.

[11]YU S,XIE L,HUANG Q L. Inception convolutional vision transformers forplant disease identification [J/OL].Internet Things,2023,21:100650 [2024-11-12]. https://doi.org/10.1016/ j.iot.2022.100650.

[12]THAI H T,LE K H,NGUYEN NL T.FormerLeaf: an efficient vision transformer for Cassava Leaf Disease detection [J/OL]. Comput.Electron.Agric.,2023,204:107518 [2024-11-12]. https://doi.org/10.1016/j.compag.2022.107518.

[13]DHAR P.The carbon impact of artificial intelligence [J]. Nat. Mach.intell.,2020,2:423-425.

[14]LI S, SONG W F, QIN H,et al.. Deep variance network: an iterative,improved CNN framework for unbalanced training datasets [J/OL].Patern Recognit.,2018,81:294-308.

[15]朱勁松,李歡,王世芳.基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的鋼橋 病害識別[J].長安大學(xué)學(xué)報(自然科學(xué)版),2021,41(3):52-63. ZHUJS,LIH,WANG SF.Defect recognition for steelbridge based on convolutional neural network and transferlearning [J]. J. Chang'an Univ.(Nat.Sci.),2021,41(3):52-63.

[16]CHOLLET F. Xception: Deep learning with depthwise separable convolutions [EB/OL]. (2017-04-04) [2024-10-16]. https://doi.org/10.48550/arXiv.1610.02357.

[17]LIU Z, MAO H Z,WU CY,et al.A convnet for the 2020s [C]/ Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).IEEE,2022:11966-11976.

[18]LIU XN,QIJ T,ZHANG WR,et al. Recognition method of maize crop rows at the seedling stage based on MS-ERFNet model [J/OL]. Comput.Electron.Agric.,2023,211:107964 [2024-11-12]. htps://doi.org/10.1016/j.compag.2023.107964.

[19] SINGH A, GANAPATHYSUBRAMANIAN B, SINGH A K, et al..Machine learning for high-throughput stress phenotyping in plants [J]. Trends Plant Sci.,2016,21(2):110-124.

[20]YE Y B.An improved efficientnetv2 model based on visual attention mechanism:Application to identification of cassava disease [J/OL]. Comput. Intell. Neurosci.,2022,1: 1569911 [2024-11-12]. https://doi.org/10.1155/2022/1569911.

[21]CHEN S, ZOU X J, ZHOU X Z,et al. Study on fusion clustering and improved YOLOv5 algorithm based on multiple occlusion of Camellia oleifera fruit[J/OL]. Comput.Electron.Agric.,2023,206: 107706. https://doi.org/10.1016/j.compag.2023.107706.

[22]YANG Y, ZHANG L,RENL,et al. MMViT-Seg:a lightweight transformer and CNN fusion network for COVID-19 segmentation [J/OL].Comput.Meth.Programs Biomed.,2023,230:107348 [2024-11-12]. https:/doi.org/10.1016/j.cmpb.2023.107348.

[23]徐明崗,李冬初,李菊梅,等.化肥有機肥配施對水稻養(yǎng)分吸 收和產(chǎn)量的影響[J].中國農(nóng)業(yè)科學(xué),2008.(10):3133-3139. XU MG,LID C,LIJM,et al..Effects of organic manure application combined with chemical fertilizers on nutrients absorptionand yieldofriceinHunanofChina[J].Scientia Agric.Sin.,2008,(10):3133-3139.

主站蜘蛛池模板: 国产黑丝视频在线观看| 欧美精品综合视频一区二区| 久久久久人妻一区精品| 日韩区欧美区| AV老司机AV天堂| 欧美成人区| 久久精品一卡日本电影| 99草精品视频| 一级看片免费视频| 午夜欧美理论2019理论| 无遮挡国产高潮视频免费观看| 国产99热| 国产日本欧美亚洲精品视| 久久不卡国产精品无码| 国模视频一区二区| 国产精品主播| 97视频免费看| 一级香蕉视频在线观看| 国产成人精品无码一区二 | 欧美亚洲一二三区| 亚洲欧美成aⅴ人在线观看 | 久久综合色视频| 久久精品国产免费观看频道| 97色伦色在线综合视频| 国产精品久久久久久搜索 | 午夜视频在线观看免费网站| 日韩精品一区二区三区免费在线观看| 极品尤物av美乳在线观看| 国产97区一区二区三区无码| 国产精彩视频在线观看| 久久综合丝袜长腿丝袜| 国产无码精品在线播放| 国内精品手机在线观看视频| 欧洲亚洲欧美国产日本高清| 又黄又湿又爽的视频| 免费啪啪网址| 亚洲天堂免费| 国产成+人+综合+亚洲欧美| 国产又粗又猛又爽| 国产精品网曝门免费视频| 嫩草影院在线观看精品视频| 久久综合丝袜日本网| 国产成人精品男人的天堂| 日本欧美中文字幕精品亚洲| AⅤ色综合久久天堂AV色综合| 99无码中文字幕视频| 强乱中文字幕在线播放不卡| 亚洲精品免费网站| 久久综合色视频| 99这里只有精品在线| 热久久综合这里只有精品电影| 亚洲一区波多野结衣二区三区| 日韩中文字幕免费在线观看| 国产在线观看成人91| 欧美中文字幕一区二区三区| 欧美另类精品一区二区三区| 亚洲综合经典在线一区二区| 亚洲免费人成影院| 国产丝袜啪啪| 亚洲国产成人麻豆精品| 无码福利日韩神码福利片| 国产精品中文免费福利| 欧美成人午夜视频免看| 亚洲无码视频图片| 国产SUV精品一区二区6| 国产嫩草在线观看| 亚洲天堂久久| 国产高清不卡视频| 国产欧美日韩专区发布| AV熟女乱| 69av免费视频| 精品黑人一区二区三区| 日本成人福利视频| 九色视频线上播放| 国产日韩丝袜一二三区| 成人免费一区二区三区| 国产精品亚欧美一区二区| 欧美色视频网站| 国产在线精品99一区不卡| 高清免费毛片| 永久天堂网Av| 国产成人精品一区二区不卡|