中圖分類號:TP391.4 文獻標識碼:A 文章編號: 1000-4440(2025)05-0916-1
Abstract:Toaddressthe insufficientand imbalancedsample sizes of cottonleaf mitedamage images at different severity levels,reducedatacollectioncosts,andenhancethequalityanddiversityofimagesgeneratedbygenerativeadversarialnetworks,thisstudyproposedanimprovedDCGAN-baseddataaugmentationmethodforcoton leaf mitedamageimages.Basedon theoriginalmodel,ategorylabelswereintroducedtoeableargetedgenerationofimagesfordiferentdamagelevels,ectively resolvingtheissueofclassimbalance.Thetraditional directconnectionstructurewasreplacedwitharesidualstructuretoenhance the model’sabilty to leam complex mapping relationships,avoid gradient vanishing problems,and improvethequalityof generatedimages.Aditionally,theconvolutional blockatentionmodule(CBAM)wasembedded intheconvolutionallayers to strengthenthe model’s capacity to extract key featuresof cottonleafmitedamageimages,further enhancingthequality anddiversityofgenerated images.Lastly,theWasserstein distancewith gradient penaltywas employed as the loss function,avoiding the problem of mode collapse and enhancing thetraining stability ofthe model. The improved DCGAN
modeloutperformedtheoriginalmodelintemsof trainingstabilityandimagequality.Itsgeneratedimagesachievedhigherinceptionscore(,.1)rheticptiodisace(F,5.12),elieptionsane(K,6)dsuallarityindex measure(SSM,O.82)thanthosegeneratedbyotherclassicdataaugmentationmodelsWhentrainingtheDenseNet121 model with the dataset generated by the improved DCGAN model,the average clasification accuracy reached 88.02% ,which washighrthanthatofDenseNet-121modelstrainedwithdatasetsgeneratedbytraditionalaugmentationmethodsandothermodels.Thisstudy provides technical support for intelligent monitoring of agricultural pests and diseases.
Key words:cotton leaf mite;damage degree;deepconvolutional generative adversarial network (DCGAN);image data augmentation
新疆作為中國最大的優質棉生產基地,棉花產量占全國總產量的 90% 以上,其生產穩定性直接關系到國家棉花戰略安全與區域經濟發展[1]。棉葉螨,俗稱紅蜘蛛,是威脅新疆棉花生產的主要害蟲之一,嚴重影響棉花的產量和品質[2]。近年來,眾多學者將模式識別與機器學習技術應用于棉葉螨危害等級的識別中,根據棉葉螨的為害程度制定科學的防治策略,以實現精準防治的目標[3-5]。然而,在實際應用中,為達到較高的識別精確度和廣泛的適用性,模型訓練需要依賴足夠數量且涵蓋不同等級的棉葉螨為害圖像。若訓練樣本不足,則會導致模型過擬合,使其泛化能力下降[6]。由于自然環境限制,數據采集和標注成本較高,以及棉葉螨蟲害的發生具有隨機性和不確定性,且其為害特征細微、不易察覺,這些因素極大增加了圖像采集的復雜性,導致數據樣本稀缺
數據增強是一種有效提升樣本數量、質量和多樣性的技術手段,能夠利用現有數據提高模型的學習能力和泛化性能[7]。傳統數據增強方法主要包括幾何紋理變換、光學色彩變換和添加噪聲等,雖然簡單易行且計算成本低,能夠在一定程度上擴充數據量,但也存在明顯的局限性:難以充分模擬真實世界中的復雜變化,若參數設置不當,還會引入過多噪聲或導致圖像失真,增加過擬合風險[8]。近年來,隨著生成對抗網絡(Gen-erativeadversarialnetwork,GAN)[理論的不斷發展和完善,其在數據增強領域的應用潛力逐漸顯現,越來越多的學者嘗試利用GAN生成逼真的圖像以擴充數據集。Sharma等[1]基于帶有梯度懲罰項的Wasserstein生成對抗網絡(WGAN-GP)模型和超分辨率生成對抗網絡(SRGAN)模型生成高分辨率的農作物病害圖像,并在玉米葉片數據集上驗證了該模型參數量和圖像FID評分方面的優勢。Wang等[11提出一種基于改進Swintransformer的骨干網絡,結合梯度加權類激活映射(Grad-CAM)構成特征提取模塊,并集成至生成對抗網絡中,實現在復雜背景的黃瓜健康葉片圖像上生成病斑以擴充數據集。Sharma等[12]基于聯邦學習思想訓練生成對抗網絡以生成逼真合成圖像,在棉花雜草數據集上,生成圖像的FID評分為282.76,優于深度卷積生成對抗網絡(DCGAN)、Wasserstein生成對抗網絡(WGAN)和信息最大化生成對抗網絡(InfoGAN)等模型生成的圖像。在無監督圖像翻譯中,Nazki等[13]使用生成對抗網絡提高植物病害數據分布的均衡性,降低了類別不平衡引起的模型偏差和過擬合風險。Singh等[14]構建了用于植物病害診斷的數據增強模型Leaf-yGAN,在PlantVillage數據集上,使用增強數據訓練的輕量級MobileViT模型的分類準確率達 99.92% 。Mai等[15]通過引入高斯混合嵌人式生成對抗網絡進行數據增強,有效解決了電子鼻數據稀缺問題,顯著提升了模型對馬鈴薯腐爛程度分類的性能。上述研究結果表明,基于生成對抗網絡的數據增強方法能夠有效緩解農業數據中樣本量不足、類別不平衡以及多樣性匱乏等問題。然而,現有模型在生成樣本時普遍存在擾動稀疏性強、幅度大等現象,導致生成樣本與真實數據之間存在較大偏差;同時,相關研究主要集中在不同種類病蟲害圖像的數據增強上,而針對單一病蟲害不同為害程度的圖像數據增強的研究相對較少。
為降低棉葉螨為害圖像數據采集成本,提高生成對抗網絡生成圖像的質量與多樣性,本研究擬提出一種基于改進DCGAN的棉葉螨為害圖像數據增強方法,該方法在原模型的基礎上,通過引入等級標簽實現對指定類別圖像的可控生成,同時結合殘差結構與卷積注意力模塊(CBAM)增強網絡特征提取能力,采用帶梯度懲罰的Wasserstein距離作為損失函數以避免模式崩潰問題,增強模型的訓練穩定性。
1材料與方法
1.1試驗數據
1.1.1棉葉螨為害程度分級為量化分析棉葉螨的為害程度,需建立科學合理的分級標準。棉葉螨是一種具有復雜生物學特性的農業害蟲,如圖1所示,其生命周期包含卵、幼蟲、若蟲和成蟲4個階段。不同發育階段的棉葉螨在形態特征、行為習性及取食能力上均存在顯著差異,導致其對棉花的為害程度和為害癥狀各不相同。
本研究基于農業農村部發布的《棉花葉螨測報技術標準》(GB/T15802-2011)中的螨害分級指標,結合棉葉螨不同發育階段的為害特征進行補充和完善,制定出如下分級標準:
0級(無為害):葉片無明顯受害癥狀,葉色正常,無螨蟲或螨蟲數量極少(lt;5只/葉);
1級(輕度為害):葉片出現少量黃斑或白斑,螨蟲數量較少(5\~20只/葉),葉片功能基本正常;
2級(中度為害):葉片黃斑或白斑面積擴大,螨蟲數量中等(21\~50只/葉),葉片出現輕微卷曲或失綠現象;
3級(重度為害):葉片黃斑或白斑面積顯著擴大,螨蟲數量較多( gt;50 只/葉),葉片嚴重卷曲、失綠甚至干枯。
1.1.2棉葉螨為害圖像采集棉葉螨蟲害的發生通常出現2個高峰期:第1個高峰期出現在6月末至7月初,第2個高峰期則從7月末至8月初。這2個時期分別對應棉花的苗期、蕾期和花鈴期,是棉葉螨為害最為嚴重的階段。因此,為了全面捕捉棉葉螨在不同生長階段和環境條件下的為害特征,2023年5月至8月,于新疆市塔里木大學棉花試驗基地(東經 81.29° ,北緯 40.54° )進行圖像采集。圖像采集使用尼康Z9相機(分辨率2688像素 ?×1 792像素),分別在單一背景和自然背景下進行拍攝。采集工作嚴格按照每周2次的頻率進行,分別在上午10:30至11:30、下午3:00至4:00和晚上8:30至9:30進行采集,旨在采集棉葉螨在不同光照條件和活動周期下的為害圖像,從而確保數據集的多樣性和代表性,為模型訓練提供更貼近實際環境的數據支持。
最終,共采集到3740張棉葉螨為害圖像,并根據本研究提出的棉葉螨為害程度分級標準進行分類,其中0級圖像802張,1級圖像968張,2級圖像950張,3級圖像1020張。不同等級的棉葉螨為害圖像示例如圖2所示。
1.2 模型構建
1.2.1深度卷積生成對抗網絡如圖3所示,深度卷積生成對抗網絡(Deep convolutional generative adver-sarial network,DCGAN)[16]是生成對抗網絡的重要改進網絡,通過用卷積神經網絡替代傳統GAN中的全連接網絡,顯著提升了該網絡在圖像生成中的性能。深度卷積生成對抗網絡由生成器和判別器2部分組成。其中,生成器通過反卷積操作,將從高斯分布或均勻分布中采樣的隨機噪聲向量逐步上采樣生成圖像,判別器則通過卷積操作將輸入圖像逐步下采樣,最終輸出一個概率值,用于判斷圖像是否真實。
在訓練過程中,生成器與判別器通過對抗機制相互促進:生成器不斷優化以生成更逼真的圖像欺騙判別器,判別器則持續提升辨別能力以更準確地區分真實圖像和生成圖像。通過這種對抗機制,生成器和判別器的性能都得到不斷提升,最終達到納什均衡狀態。此時,生成器生成的數據與真實數據高度相似,判別器難以區分。生成對抗網絡的目標函數如下:
Ez~pz(z)log{1-D[G(z)]}
式中, D 為判別器生成的數據, G 為生成器生成的數據, V(D,G) 為優化目標函數; E 為數學期望;pdata(x) 為真實數據分布; D(x) 為輸入數據 x 是真實數據的概率; Ex~pdata(x)logD(x) 為真實數據分布的對數概率的期望,當判別器對真實數據 x 輸出 D(x) 接近1時,表明判別器能夠準確識別真實數據; pz(z) 為隨機噪聲分布; G(z) 為生成器以噪聲向量 z 為輸人生成的數據; Ez~pz(z)log{1-D[G(z)]} 為生成數據分布的對數概率的期望,從判別器角度看,該項鼓勵判別器對生成數據 G(z) 輸出接近0的概率,即讓判別器更擅長識別假樣本,提高其區分真假的能力。從生成器角度看,生成器希望判別器 D[G(z)] 的輸出接近1,從而欺騙判別器,使其難以區分生成數據和真實數據。
1.2.2殘差結構殘差結構是主要用于解決深層神經網絡訓練過程中常見的梯度消失(或梯度爆炸)和網絡退化問題[17]。如圖4所示,與傳統直連結構不同,殘差結構通過引入跳躍連接將輸入特征直接傳遞到后續層,使網絡能夠專注于學習輸入與輸出之間的差異。這種設計不僅簡化了優化問題,還顯著改善了深層網絡的訓練效果,使得更深層次的網絡架構得以實現和優化。
x :輸人特征; F(x) :模型學習到的映射。
1.2.3卷積注意力模塊(CBAM)卷積注意力模塊(Convolutional blockattention module,CBAM)是一種專為卷積神經網絡設計的注意力模塊,旨在增強模型對重要特征的提取能力[18]。如圖5所示,卷積注意力模塊由通道注意力模塊和空間注意力模塊2部分組成,分別從通道和空間2個維度上對輸入特征進行注意力分配,從而實現對特征圖的重新加權。通道注意力模塊通過評估每個通道的重要性,動態調整不同通道的特征響應強度,以增強關鍵通道的特征表示,同時抑制非關鍵通道的特征??臻g注意力模塊則通過評估每個空間位置的重要性,使模型能夠根據權重聚焦于圖像中的關鍵區域,從而提升模型對局部特征的捕捉能力。
1.2.4帶有梯度懲罰的Wasserstein距離(Wasser-stein-GP)Wasserstein距離,也稱為Earth-Mover距離,是衡量兩個概率分布之間差異的一種方法。對于 Pr (真實數據分布)和 Pg (生成數據分布),Wasse-rstein距離定義為:
(2)式中, Π(Pr,Pg) 為 Pr 和 Pg 的聯合分布集合; γ 為將 Pr 轉換為 Pg 的最小成本; x 為真實圖像; y 為生成圖像。
在生成對抗網絡中,Wasserstein距離可用于衡量真實數據分布 (Pr) 與生成數據分布 (Pg) 之間的差異。該距離可通過判別器(D)進行近似估計,其表達式為:
式中, D 為判別器生成的數據; G 為生成器生成的數據; 表示判別器需要滿足1-Lipschitz約束。
Fang等[19]通過權重裁剪的方法強制判別器滿足1-Lipschitz約束,然而,這種方法可能導致梯度消失和容量浪費的問題。針對這一缺陷,Gulrajani等[20]在損失函數中添加梯度懲罰(Gradient penalty,GP)項,Wasserstein-GP損失函數定義為:
式中, Px 為真實數據分布 (Pr) 與生成數據分布0 (Pg) 之間的插值分布; λ 為梯度懲罰系數; ,為判別器在插值點
處的梯度范數。1.2.5模型整體架構為解決棉葉螨為害圖像樣本量不足和類別不平衡的問題,降低數據采集成本,并提高生成對抗網絡生成圖像的質量和多樣性,本研究基于DCGAN模型構建棉葉螨為害圖像數據增強模型。如圖6所示,該模型在原模型的基礎上,首先,引入類別標簽以實現對指定為害等級的生成;其次,將傳統的直連結構替換為殘差結構,以緩解梯度消失或梯度爆炸問題,支持更深的網絡結構,使模型能夠學習到更復雜的映射關系,從而提升模型的表征能力;接著,在卷積層中嵌入CBAM模塊,分別從通道和空間維度對特征進行加權,增強模型對棉葉螨為害圖像關鍵特征的提取能力,進而提高生成圖像的質量和多樣性;最后,采用帶有梯度懲罰的Wasserstein距離作為損失函數,避免傳統生成對抗網絡訓練中模式崩潰的問題,使生成器和判別器的訓練更加穩定。表1為該模型的特征維度。
1.3試驗環境與參數設置
試驗環境與參數設置如下:硬件配置采用IntelXeonE5-2678v3處理器( 2.5GHz ,12核24線程)、64GBDDR4內存和NVIDIAGeForceRTX4090顯卡(24GB顯存),軟件環境基于Ubuntu20.04LTS操作系統,搭載Python3.8和PyTorch1.12深度學習框架,并配置CUDA11.3及cuDNN8.2以支持GPU計算。
模型訓練采用以下超參數配置:優化器選用Adam算法,其中生成器和判別器的初始學習率分別設為 1×10-4 和 4×10-4 ,動量參數 0.999;訓練批次大小為32,總迭代次數為20000次;Wasserstein距離的梯度懲罰系數設為10;網絡權重初始化采用Xavier方法:學習率調度采用線性衰減策略,每5000次迭代學習率降低 50% ;同時啟用02模式進行混合精度訓練,以優化顯存利用率并提升訓練效率。
1.4 評價指標
選用 IS (Inception score) ,FID (Fréchet inceptiondistance) 、KID (Kernel inceptiondistance)和結構相似性指數(SSIM)評價模型生成圖像的質量和多樣性。計算公式如下:
式中, pg 為生成數據分布; x 為生成器合成的圖像; y 為分類模型的輸出標簽; p(y|x) 為Inception 模
型對單張生成圖像 (x) 的類別預測概率分布; p(y) 為所有生成圖像的邊緣類別分布; DKL 為 KL 散度,衡量單個圖像的類別分布與整體類別分布的差異。
式中 ,μ,n 和 分別為真實圖像和生成圖像在
ception模型特征空間中的均值;
和 Σg 分別為真實圖像和生成圖像在Inception模型特征空間中的協方差矩陣, Tr 為矩陣的跡運算。
KID=Exr,xg[k(xr,xr)+k(xg,xg)-2k(xr,xg)]
式中, k(xr,xr)Φk(xg,xg) 為核函數; xr 和 |xg| 分別為真實圖像和生成圖像的特征表示。
式中 μx 和 μy 分別為真實圖像和生成圖像的均值; σx2 和 σy2 分別為真實圖像和生成圖像的方差;σxy 為真實圖像和生成圖像的協方差; C1 和 C2 為常數。
2 結果與分析
2.1不同優化策略對模型性能的影響
通過消融試驗對比殘差結構、CBAM和Wasser-stein-GP對模型性能的影響。如表2所示,與DCGAN模型生成圖像相比,引入殘差結構的DCGAN模型生成圖像的FID降低,IS升高,SSIM略微升高,表明其通過增強網絡深度和特征復用能力,顯著改善了生成圖像的全局結構和多樣性,然而該結構對圖像局部細節的處理能力有限。與DCGAN模型生成圖像相比,引入CBAM的DCGAN模型生成圖像的FID降低,IS升高,SSIM升高,表明CBAM能夠提高圖像局部細節的真實性。Wasserstein-GP損失函數主要通過穩定訓練優化分布匹配,與DCGAN模型生成圖像相比,引人Wasserstein-GP的DCGAN模型生成圖像的FID降低,SSIM略微升高,表明其對全局分布的優化效果強于局部細節生成。與DCGAN模型生成圖像相比,引入CBAM + Wasserstein-GP的DCGAN模型生成圖像的FID降低,IS升高,表明CBAM和Wasserstein-GP具有協同效應。最終,引入殘差結構 +CBAM+ Vasser-stein-GP的DCGAN模型性能最佳,顯著優于其他模型。殘差結構、CBAM和Wasserstein-GP分別從網絡深度、局部細節和訓練穩定性層面全面提升了生成圖像的質量和真實性。
2.2模型改進前后訓練曲線對比
對比DCGAN模型改進前后的生成器損失值、判別器損失值以及生成圖像的FID值的變化曲線。如圖7所示,與DCGAN模型相比,改進后的DC-GAN模型性能顯著提升。首先,改進后的DCGAN模型的生成器損失值顯著降低,收斂速度更快且波動更穩定,這表明其特征學習能力更強,訓練過程也更為穩定。其次,改進后的判別器損失值顯著降低,收斂性和一致性顯著提升,說明其在區分真實圖像與生成圖像方面的能力得到了顯著增強。此外,改進后的DCGAN模型生成圖像的FID值顯著降低,進一步證明了生成圖像的質量更高,與真實圖像的相似度也更高。綜上所述,改進后的DCGAN模型生成器損失值、判別器損失值和生成圖像的FID值均優于原始模型,同時其訓練動態穩定性、收斂速度以及圖像生成質量也顯著提升。
2.3模型改進前后生成圖像對比
將DCGAN模型和改進后的DCGAN模型生成圖像的質量進行對比。如圖8所示,改進后的DC-GAN模型生成圖像的質量顯著優于DCGAN模型。在5000輪次時,改進的DCGAN模型生成的棉葉螨為害圖像已經展現出較為清晰的病斑輪廓和葉片紋理,而DCGAN模型生成的圖像仍存在明顯的模糊和失真現象。隨著訓練輪次的增加,改進模型的優勢更加明顯,在10000輪次時,改進的DCGAN模型生成的圖像中,病斑區域的細節更加豐富,葉片表面的紋理和色彩過渡更加自然;到15000輪次時,改進的DCGAN模型已經能夠生成高度逼真的圖像,病斑形態和分布與真實圖像高度一致,且背景葉片的脈絡清晰可見:到20000輪次時,改進的DCGAN模型生成的圖像在視覺上與真實圖像幾乎沒有差異,而DCGAN模型生成的圖像仍存在局部失真和紋理不自然的問題??傮w而言,在相同的訓練輪次下,改進后的的DCGAN模型能夠更快地收斂并生成更高質量的圖像,尤其在細節還原和視覺真實性方面表現突出。
2.4不同數據增強方法(模型)性能對比
為系統評估改進后的DCGAN模型在棉葉螨為害圖像生成中的表現,本研究將其與傳統數據增強方法(仿射變換、色彩變換和添加噪聲)及多種經典數據增強模型(GAN模型、WGAN模型、CycleGAN模型和StyleGAN模型)進行了對比。如表3所示,傳統數據增強方法在分布一致性和結構相似性方面表現較好,其生成圖像的FID為15.20,KID為0.02,SSIM為0.95,但其IS僅為3.82,僅能通過對已有樣本的幾何與顏色變換擴充數據,無法生成新特征。相比之下,改進后的DCGAN模型生成圖像的多樣性和結構相似性均優于其他模型,其生成圖像的IS達到8.51,SSIM為0.82。改進后的DCGAN模型生成圖像的FID為150.12,KID為0.08,均低于GAN模型和WGAN模型生成的圖像。表明改進后的DCGAN模型在生成圖像的質量和分布一致性之間取得了更好的平衡。StyleGAN模型生成圖像的IS為8.29,FID為168.89,SSIM為0.76,其性能表現略遜于改進后的DCGAN模型,這可能是由于其模型復雜度過高導致在小數據集上過擬合。Cy-cleGAN是一種用于無監督圖像到圖像轉換的生成對抗網絡,與本研究任務不匹配,其性能顯著低于改進后的DCGAN模型。綜上所述,改進后的DCGAN模型在棉葉螨為害圖像生成任務中表現最優。
將原始數據集按 8:2 的比例劃分為訓練集和測試集,用表3中數據增強方法(模型)擴充訓練集訓練棉葉螨為害圖像分級模型——DenseNet-121模型。如表4所示,基于改進后的DCGAN模型生成的數據集訓練的DenseNet-121模型,其平均準確率、精確率、召回率和F1值均高于基于其他模型生成的數據集訓練的DenseNet-121模型。與基于傳統數據增強方法生成的數據集訓練的DenseNet-121模型相比,基于改進后的DCGAN模型生成的數據集訓練的DenseNet-121模型平均準確率提升了4.5個百分點,在0級和1級棉葉螨為害圖像分類中, F1 值分別提升10.48個百分點和8.07個百分點,表明該模型對葉片早期病變特征具有更強的表征能力。相比之下,基于傳統數據增強方法生成的數據集訓練的DenseNet-121模型雖在多數指標上優于基于GAN模型生成的數據集訓練的DenseNet-121模型,但其基于幾何變換的增強模式難以有效提取復雜病理特征?;贕AN模型生成的數據集訓練的DenseNet-121模型平均準確率僅為 60.35% ,而基于WGAN模型生成的數據集訓練的DenseNet-121模型通過優化損失函數將平均準確率提升至71.80% ,表明提升生成對抗網絡的穩定性具有重要意義。盡管CycleGAN模型和StyleGAN模型分別通過域適應機制和風格解耦策略取得了中等增強效果,但其生成數據與真實樣本數據間的分布偏差仍顯著制約模型的泛化能力。
如圖9所示,基于傳統數據增強方法生成的數據集訓練的DenseNet-121模型,在0級和3級棉葉螨為害圖像分類中表現良好,但對1級和2級棉葉螨為害圖像分類存在明顯跨級誤判。GAN和
WGAN生成圖像質量較低,導致DenseNet-121模型泛化能力差,對0級樣本的誤判率超過 50% 。Cy-cleGAN模型通過跨域特征優化,使DenseNet-121模型在棉葉螨為害圖像分類中準確率提升;基于Style-GAN生成的數據集訓練的DenseNet-121模型的識別性能整體表現接近傳統數據增強方法生成的數據集訓練的DenseNet-121模型,但基于StyleGAN生成的數據集訓練的DenseNet-121模型錯誤地將3級棉葉螨為害的圖像判定為1級,表明模型在學習和區分這2個等級的圖像特征時存在不足,無法準確識別他們之間的差異;基于改進的DCGAN模型生成的數據集訓練的DenseNet-121模型在各棉葉螨為害等級圖像分類中準確率均達到最高,誤判分布呈現低值均衡特征,表明其實現了樣本真實性與多樣性之間的平衡。
3 討論與結論
為解決棉葉螨為害圖像樣本量不足和類別不平衡的問題,降低圖像采集成本并提升生成圖像質量,本研究提出基于改進DCGAN的數據增強方法。基于真實場景棉葉螨為害數據集進行系統試驗,結論如下:殘差結構、CBAM和Wasserstein-GP分別從網絡深度優化、局部特征增強和訓練穩定性3個維度顯著提升DCGAN模型生成圖像的質量。改進后的DCGAN模型在動態穩定性、收斂速度和生成圖像質量方面均有顯著提升,在相同訓練輪次下收斂更快,生成圖像在細節還原度和視覺真實感方面表現優異。將傳統數據增強方法及多種經典數據增強模型(GAN模型、WGAN模型、CycleGAN模型和Style-GAN模型)進行對比,結果表明,改進后的DCGAN模型生成圖像的IS(8.51)、FID(150.12)和SSIM(0.82)均顯著優于其他模型。采用DenseNet-121模型對棉葉螨為害圖像進行分級試驗,結果表明,基于改進的DCGAN模型生成的數據集訓練的DenseNet-121模型平均分級準確率達 88.02% ,高于基于傳統增強方法和其他模型生成的數據集訓練的DenseNet-121模型
本研究提出的方法有效緩解了棉葉螨為害圖像樣本量不足和類別不平衡的問題,為農業病蟲害智能監測提供了低成本、高質量的數據增強方案,不僅能夠降低復雜環境下的數據采集成本,還能提升病蟲害識別模型的分級精度。然而,該方法在跨環境泛化性(如不同光照條件和作物品種)、復雜生物特征建模(如螨蟲動態行為)和計算效率方面仍存在一定局限性,未來研究將著重探索多模態數據融合與自適應生成框架以增強數據增強模型的環境適應性,同時結合半監督學習技術進一步挖掘數據增強模型的合成數據潛力,并輕量化設計以適合配置邊緣計算設備。
參考文獻:
[1]YANGZN,TANGJJ,YUM,etal.Sustainable cotton productionthrough increased competitiveness:analysisofcomparativeadvantage and influencing factors of cotton production in Xinjiang, China[J].Agronomy,2022,12(10):2239.
[2] 甄叢愛,買合吐木古力·艾孜不拉,張帥,等.棉葉螨的抗藥 性現狀與治理策略[J].植物保護學報,2023,50(3):559-577.
[3]張龔,周保平,王昱,等.基于遷移學習和改進殘差網絡的 棉花葉螨為害等級識別[J].浙江農業學報,2023,35(7): 1729-1739.
[4] 楊麗麗,張大衛,羅君,等.基于SVM和AdaBoost的棉葉螨 危害等級識別[J].農業機械學報,2019,50(2):14-20.
[5] 何青海,馬本學,瞿端陽,等.基于機器視覺棉葉螨自動監測與 分級方法研究[J].農機化研究,2013,35(4):152-155.
[6] 章展熠,張寶荃,王周立,等.多茶類CNN圖像識別的數據增 強優化及類激活映射量化評價[J].茶葉科學,2023,43(3): 411-423.
[7] BANSALMA,SHARMADR,KATHURIADM.Asystematic reviewondatascarcityproblemindeeplearning:solutionand applications[J].ACMComputing Surveys(Csur),2022,54(10):1- 29.
[8] 周思聰,向峰,李紅軍,等.基于自編碼器GAN數據增強的 工業小目標缺陷檢測[J].現代制造工程,2025,(2):101-108.
[9] GOODFELLOWI,POUGET-ABADIEJ,MIRZAM,etal.Generativeadversarial nets[C]//NIPS.Proceedings of the27th international conference on neural information processing systems. Cambridge:MIT Press,2014.
[10]SHARMA V, TRIPATHI A K,DAGA P,et al. CIGanNet:a novel method for maize leaf disease identification using ClGan and deep CNN[J]. Signal Processing:Image Communication,2024,120: 117074.
[11]WANGFY,RAO Y,LUOQ,et al. Practical cucumber leaf disease recognition using improved Swin Transformer and small sample size[J]. Computers and Electronics in Agriculture,2022,199: 107163.
[12] SHARMA V, TRIPATHI A K, MITTAL H,et al. Weedgan:a novel generative adversarial network for cotton weed identification [J].TheVisual Computer,2023,39(12):6503-6519.
[13]NAZKI H,YOON S,FUENTES A,et al. Unsupervised image translation using adversarial networks for improved plant disease recognition[J].Computers and Electronics in Agriculture,2020, 168:105117.
[14]SINGH A K,RAO A,CHATTOPADHYAY P,et al. Effective plant disease diagnosis using Vision Transformer trained with leafygenerative adversarial network-generated images[J]. Expert Systems with Applications,2024,254:124387.
[15]MAIJY,LINHN,HONGXZ,etal.Prediction of potato rot level byusing electronic nose based on data augmentation and channel attention conditional convolutional neural networks[J]. Chemosensors,2024,12(12) :275.
[16]RADFORD A,METZL,CHINTALA S. Unsupervised representationlearning with deep convolutional generative adversarial networks[EB/OL].(2015-11-19)[2025-03-01].https://doi.org/ 10.48550/arXiv.1511.06434.
[17]REDDYSRG,VARMAGPS,DAVULURIRL.Resnet-based modified red deer optimization with DLCNN classifier for plant disease identification and classification[J]. Computers and Electrical Engineering,2023,105:108492.
[18]MA R,WANG J, ZHAO W, et al. Identification of maize seed varieties using MobileNetV2 with improved atention mechanism CBAM[J].Agriculture,2022,13(1):11.
[19]FANGW,GUEM,YIWN,et al. A new method of image restoration technologybased on WGAN[J].Computer Systems Science And Engineering,2022,41(2) :689-698.
[20]GULRAJANI I, AHMED F,ARJOVSKY M, et al. Improved training of Wasserstein GANs[ C]//NIPS. Proceedings of the 24st international conference on neural information processing systems.Long Beach:Curran Associates Inc.,2017.