999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5算法的水稻病害識別研究

2024-12-31 00:00:00周思捷,劉天奇,陳天華
中國農機化學報 2024年8期

摘要:針對傳統深度學習算法難以在復雜環境下準確且高效地識別水稻病害問題,提出一種改進的YOLOv5算法,對水稻常見的白葉枯病、稻瘟病、東格魯病和褐斑病的病斑進行檢測。在原YOLOv5算法上結合混合域注意力機制進行特征校正,提高模型對水稻葉片和病斑位置信息的定位能力。在損失函數部分將原CIoU_loss更換為SIoU_loss,彌補CIoU_loss未關注邊界框和真實框角度偏移的問題。選用Soft-NMS篩選預測框,緩和傳統NMS因不同病斑重疊區域過大而發生預測框誤刪造成的漏檢情況。在消融試驗中,改進算法在水稻病害識別任務中mAP達到0.884,比原YOLOv5算法提升2.9個百分點,在針對褐斑病病斑的識別上提升較大。證明改進的YOLOv5算法在水稻病害識別任務中的有效性。

關鍵詞:水稻病害;YOLOv5算法;注意力機制;目標檢測

中圖分類號:TP391.4" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2024) 08?0246?08

Research on rice disease recognition based on improved YOLOv5 algorithm

Zhou Sijie1, Liu Tianqi2, Chen Tianhua1

(1. School of Artificial Intelligence, Beijing Technology and Business University, Beijing, 100048, China;2. School of E?business and logistics, Beijing Technology and Business University, Beijing, 100048, China)

Abstract: In order to address the problem that traditional deep learning algorithms are difficult to identify rice diseases accurately and efficiently in complex environments, an improved YOLOv5 algorithm was proposed to detect the disease spots of common rice blight, rice blast, tungro disease and brown spot disease. A hybrid domain attention mechanism was combined with the original YOLOv5 algorithm for feature correction, which improved the model's ability to determine the position of rice leaves and disease spot location. The original CIoU_loss (Complete Intersection over Union) was replaced by SIoU_loss (SCYLLA Intersection over Union) in the loss function part to compensate for the problem that CIoU_loss did not focus on the angular offset of the bounding box and the Ground truth box . Soft-NMS (Soft Non Maximum Suppression) was chosen to filter the prediction boxes to alleviate the leakage caused by the overlapping area of different lesions in the conventional NMS. In the ablation experiment, the mAP (mean Average Presicion) of the improved algorithm reached 0.884 in the rice disease identification task, which was 2.9 percentage points higher than the original YOLOv5 algorithm, and the improvement was greater in the identification of brown spot. It proved the effectiveness of the improved YOLOv5 algorithm in the rice disease identification task.

Keywords: rice disease; YOLOv5 algorithm; attention mechanism; object detection

0 引言

水稻是世界最重要的糧食作物之一,2020年中國稻米產量達到21 186 kt,產量在全球占比為37.31%。但近年來水稻各類病害的發生直接影響了水稻的產量和質量,給農業帶來了嚴重的經濟損失,制約著中國水稻產業的健康穩定發展[1],因此快速、準確的水稻病害識別對水稻病害診斷和防治大有裨益。早期的農作物病害絕大多數是通過人眼進行初步估計,但是人工識別存在著主觀性強,培養成本高等缺點,機器學習和深度學習的發展克服了前者的缺陷,使高效且成本較低的病害識別成為可能。

在機器學習占據主流時,田有文等[2]將基于色度的玉米病害圖像作為特征,利用支持向量機的方法識別玉米病害。張建華等[3]將粗糙集與BP神經網絡結合,使得特征向量降維后進行識別,棉花病害平均識別正確率達到92.72%,需要人工提取特征的機器學習方法也同樣用于蘋果[4]、葡萄[5]等。由此可見,利用機器學習進行病害識別需要人工主動提取特征,例如顏色、紋理、形狀等特征,并且對圖像的細節有較高要求。

自2012年起,深度學習的快速崛起顛覆了傳統的機器學習模式。在深度學習領域中,AlexNet等經典算法不斷革新,將圖像識別的精度逐漸提高[6]。深度學習剔除了機器學習中人工選取特征的環節,對特征采用自監督的方式進行學習,消除了人為干涉。其中,目標檢測算法不同于傳統深度學習以圖像整體為對象,而是對人為標注區域里的圖像區域進行學習,在植物病害識別任務中,目標檢測算法在檢測階段可以輸出每個病斑的位置信息和類別信息,大大克服了前者的背景干擾。劉闐宇等[7]運用改進的Faster R-CNN目標檢測算法對葡萄葉片病斑進行檢測,準確定位了病斑位置,對比直接識別病害消除了背景因素的干擾。孫豐剛等[8]在YOLOv5s基礎上通過加入幻影結構和調整特征圖整體寬度得到小型基線模型,通過在線圖像增強與遷移學習相結合的方式提高模型收斂速度,進一步提高模型精度。

在水稻病害檢測方向,Sanyal等[9]提出基于顏色紋理特征和MLP分類器的模式識別方法來識別水稻的褐斑病和稻瘟病。Lu等[10]利用500張健康和患病葉片圖像訓練CNN模型,并且使用10倍交叉驗證,最終模型的準確率達到了95.48%。萬穎等[11]提出了一種將顯著性檢測算法和卷積神經網絡結合的新模型,較其他模型提升了識別準確率。綜合上述方法,雖然水稻病害檢測在傳統深度學習方面有所進展,但是在目標檢測方面的研究并不完善,目標檢測算法可以在保持較高精度的同時,達到實時檢測的效果,可以大大提升檢測效率,非常適用于水稻病害檢測這種規模較大的任務。在此現狀下,需要一種準確且高效的目標檢測手段來完成自然環境和復雜背景下的病斑檢測任務,YOLO[12]作為目前主流的目標檢測算法之一,因其單階段的檢測模式使得檢測速度優于其他算法。本文以YOLOv5為基礎,通過改進算法,提出一種改進YOLOv5的水稻病害檢測方法,針對水稻常見的白葉枯病、稻瘟病、東格魯病以及褐斑病四種病害的病斑進行識別。

1 YOLOv5模型及改進措施

1.1 YOLOv5目標檢測算法

YOLOv5是一種單階段目標檢測算法,在YOLOv3[13]和YOLOv4[14]的基礎上提出多種改進,經過改進后目標檢測的精度和速度均有所提升。

YOLOv5在輸入端進行了Mosaic數據增強、自適應錨框計算和自適應圖像放縮三個操作。Mosaic數據增強將四張圖像進行隨機放縮、隨機裁剪后,在隨機生成的拼接基準點進行拼接,形成一張新圖像,使模型在更小的范圍檢測目標;自適應錨框計算在每次模型訓練時自適應地計算最佳的錨框值;自適應圖像放縮對各種長寬比不同的圖像進行自適應地添加黑邊,減少了信息的冗余,大大提高了模型推理速度。

YOLOv5在Backbone骨干部分使用了Focus模塊、CSP(Cross Stage Paritial Network)模塊。其中,Focus模塊將原始圖像進行4×4的切片操作并進行標號,同一張圖像進行切片后根據標號相同進行拼接,會生成4張新的特征圖,也就將通道數擴大為之前的4倍。CSP模塊在增強整個卷積神經網絡學習性能的同時大幅減少了計算量,CSP模塊結構如圖1所示,其中Conv表示卷積操作;CBL(Convolution,Batch Normalization,Leaky ReLu)表示卷積、歸一化和激活函數的組合模塊,ResU表示殘差模塊,Concat表示拼接操作,LeakyReLu表示LeakyReLu激活函數。

YOLOv5在Neck頸部部分使用了特征金字塔網絡[15](Feature Pyramid Networks,FPN)以及路徑聚合網絡[16](Path Aggregation Network,PAN),FPN層自頂向下傳達強語義特征,PAN層自底向上傳達強定位特征,二者結合對強語義特征和強定位特征進行融合,加強了網絡的學習能力。

YOLOv5在Head頭部部分生成三部分大小遞減的特征圖,分別表示不同目標尺寸信息,信息包括類別概率、置信度和檢測邊界框的位置。完整的YOLOv5模型結構如圖2所示。其中,Conv、Concat以及UpSample分別代表了卷積操作、拼接操作以及上采樣。

1.2 YOLOv5算法的改進

1.2.1 引入混合域注意力機制

注意力機制模仿人類的觀察習慣,更加注重圖像的特征,水稻的病害識別需要對水稻葉片的病斑位置更加關注。混合域注意力機制[17]依次沿著通道和空間兩種維度將特征圖進行壓縮處理,得到注意力特征圖并且將注意力特征圖與原特征圖融合形成新的特征圖,提高模型對局部信息和空間信息的關注度,相比于單純關注通道的SENet[18](Squeeze-and-Excitation Networks)的注意力機制可以取得更好的效果。

混合域注意力機制分為通道注意力部分和空間注意力部分。在通道注意力部分,輸入的特征圖[F]在空間維度上分別經過全局最大池化(global max pooling)和全局平均池化(global average pooling)得到1×1×C的特征圖映射(圖3),然后兩個特征圖映射經過兩層的共享全連接層(Multi-Layer Perceptron, MLP)相加,再經過Sigmoid激活函數生成通道域注意力權值特征圖[Mc]。[Mc]的計算如式(1)所示 。

[Mc=σMLPAvgPool(F)+MLPMaxPool(F)] (1)

式中:[σ]——Sigmoid激活函數;

[MLP]——多層感知器;

[AvgPool]——全局平均池化操作;

[MaxPool]——全局最大池化操作;

[F]——輸入特征圖。

通道注意力模塊如圖3所示。

在空間注意力部分,將通道注意力部分校正后的特征圖作為輸入,在通道維度上分別進行全局最大池化(global max pooling)和全局平均池化(global average pooling)并且將二者拼接形成一個特征圖映射,經過一次卷積操作增大感受野,同時降維為1個通道,最后經過Sigmoid 激活函數生成空間域注意力權值特征圖[Ms]。[Ms]的計算如式(2)所示。

[MsF=σ{f7×7([AvgpoolF ;Maxpool(F)])}] (2)

式中:[ f7×7]——大小為7×7的卷積操作。

經過通道注意力和空間注意力的串行操作后,輸入的特征圖[F]轉化為最終的混合域注意力特征圖??臻g注意力模塊如圖4所示。

1.2.2 改進損失函數

在YOLOv5的總損失函數中,采用CIoU_loss(Complete Intersection over Union)作為bounding box的損失函數。DIoU_loss在IoU_loss和GIoU_loss的基礎上考慮了邊界框中點的距離問題,而CIoU_loss在DIoU_loss的基礎上考慮了邊界框的寬高比,使得回歸效果更好。CIoU_loss的計算如式(3)所示。

[LCIoU=1-IoU+ρ2b,bgtc2+αv]" " " " " " "(3)

式中:[IoU]——預測框與目標框的交并比;

[ρ]——歐氏距離;

[b]——預測框的中心點;

[bgt]——目標框的中心點;

[c]——最小外接矩形的對角線長度;

[α]——權重系數;

[v]——衡量寬高比一致性的參數。

傳統的損失函數考慮了預測框和目標框的重疊面積大小、中心點距離以及寬高比,但是并沒有考慮到二者間角度不匹配的問題,故SIoU_loss[19]重新定義了損失函數,將其分為角度損失、距離損失、形狀損失和交并比損失,加快了模型的訓練過程,提高了模型精度。其中,角度損失的計算如式(4)所示。

[Λ=1-2×sin2arcsinx-π4]" " " " " " " (4)

式中: [x]——衡量預測框與目標框之間角度大小的參數。

可以看出,當二者偏移角度為0時,損失最小,反之當偏移角度為[π/4]時,損失最大,故在水平方向或豎直方向上,角度損失的存在可以使預測框更加快速地回歸到目標框,示意圖如圖5所示。

在距離損失方面,為了平衡距離與角度的關系,SIoU_loss將角度損失納入距離損失中,距離損失的計算公式定義為式(5)所示。

Δ[=t=x,y(1-e-γρt)] (5)

式中:[ρt]——衡量預測框與目標框之間橫坐標差距大" " " " " " " "小的參數;

[γ]——角度損失與常數2的差值。

形狀損失和總損失函數的計算如式(6)、式(7)所示。

[Ω=t=w,h(1-e-wt)θ]" " " " " " " " " " (6)

[Lbox=1-IoU+Δ+Ω2]…" " " " " " " " " " "(7)

式中:[wt]——衡量預測框與目標框寬度的參數;

[θ]——人為設置參數,范圍為2~6。

1.2.3 將非極大值抑制NMS改進為SOFT-NMS

在檢測水稻病害的過程中,經常會出現葉片或者病斑遮擋的情況,如果采用傳統的非極大值抑制NMS方法進行預測框的篩選,容易造成病斑的漏檢。傳統NMS的數學表達式為

[si=0" " IoU(M,Bi)≥threshsi" " IoU(M,Bi)lt;thresh]" " " " " " " (8)

式中:[M]——置信度最高的預測框;

[Bi]——集合中剩余的預測框;

[thresh]——交并比閾值;

傳統NMS在經過[IoU]與[IoU]閾值的大小進行比較后,會直接將大于或等于[IoU]閾值的預測框的置信度置為零,對于圖像中有遮擋的物體,容易丟失物體信息,尤其是在植物病害檢測這種遮擋現象較為頻繁的任務中。為了緩解漏檢的情況,將傳統非極大值抑制NMS改進為SOFT-NMS[20](Soft Non Maximum Suppression)。SOFT-NMS采用了懲罰機制,將置信度[Si]按照[IoU]的正相關,通過高斯函數進行懲罰,結合懲罰的大小對預測框的置信度進行修改。SOFT-NMS的數學表達式為

[Si=Sie-IoU(M,Bi)2σ]" " " " " " " " " " " " " (9)

式中:[Si]——置信度;

[σ]——超參數。

其中[σ]為超參數,在[IoU]大小為0時,SOFT-NMS不予懲罰;當[IoU]較大時,懲罰也會更大。

2 試驗數據分析

2.1 數據集構建

本試驗數據來自Mendeley Data數據庫中的水稻病害數據集,共計2 100張水稻病害圖像,其中包括稻白葉枯病、稻瘟病、東格魯病和褐斑病四類,部分樣本圖像如圖6所示。

使用LabelImg工具對四類病斑進行標注,生成對應2 100個包含病害種類和標注框位置的.txt文件。將數據集按照8∶2的比例劃分為訓練集和測試集,四類病害的標注名,圖像數量以及病害癥狀見表1。

2.2 數據增強

在模型訓練過程中,采用Mosaic數據增強可以提高數據的多樣性和模型的魯棒性。在水稻病斑的識別中,各類目標的大小有著較大的區別,對于小于32像素×32像素的目標可以稱為小目標,大于96像素×96像素的目標則可以稱為大目標,小目標的檢測精度一般低于中目標和大目標。在本文的數據集中,稻瘟病和褐斑病的病斑以小目標和中目標為主,而白葉枯病和東格魯病的病斑則以中目標和大目標為主,存在著分布不均勻的問題。利用Mosaic數據增強對4張圖像進行隨機裁剪、隨機縮放、隨機排布,最后拼接,形成1張新圖像,如圖7所示。在葉片訓練數據有限且沒有增加訓練集圖像數量的前提下,使每幅圖像包含4幅不同圖像的信息,增加樣本所在數據集的圖像內容,能提高目標檢測網絡的泛化能力,進而提高模型的識別能力。

3 試驗結果與分析

3.1 試驗環境

本文試驗使用Pytorch1.9.0框架,中央處理器為Intel Core i7-9750H,圖形處理器使用NVIDIA RTX2070,CUDA的版本為11.3.1,模型訓練時使用GPU進行加速。YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x分別是在神經網絡深度和寬度兩個維度下不斷加寬加深生成的模型,本文試驗采用YOLOv5s作為基礎模型,使用上文所提的改進方法對其進行改進,并與基礎模型相互對比。

3.2 評價指標

機器視覺國際會議中常用COCO AP(Average Precise)或AR(Average Recall)作為目標識別的評價標準。本文采用的評價標準為mAP@0.5,即在IoU閾值設定為0.5時,各類目標AP的平均值。精度(Precision,P)、召回率(Recall,R)的定義如式(10)、式(11)所示

[P=TPTP+FP]×100% (10)

[R=TPTP+FN]×100% (11)

式中:[TP]——正確檢出的病斑目標數目;

[FP]——誤檢出的病斑目標數目;

[FN]——漏檢的病斑目標數目。

在本文試驗中,mAP表示四類病害的PR曲線所圍成的面積之和與病害種類的比值,即

[mAP=i=0301P(Ri)dRi4]" " " " " " " " " " (12)

式中:[P(Ri)]——每類病害的PR曲線。

3.3 試驗結果

3.3.1 消融試驗結果

為分析本文所提出的改進方法對YOLOv5的影響,分別進行7組試驗,將3種改進措施按照組合依次加入基礎模型中,每次試驗均使用相同的參數,對各模型進行分析,不同改進方法對模型產生的影響如表2所示。其中“√”表示該次試驗添加此改進措施,“×”表示該次試驗未添加此改進措施,表2中的YOLOv5_c、YOLOv5_s1、YOLOv5_s2表示分別單獨添加三種改進措施的模型;YOLOv5_cs1、YOLOv5_cs2、YOLOv5_ss表示三種措施兩兩組合形成的模型;YOLOv5_css表示添加了CBAM、SIoU_loss、SOFT-NMS的模型。從表2可以看出,在單獨添加改進措施時,YOLOv5_c和YOLOv5_s1對模型的mAP有較為明顯的提升,YOLOv5_s2則基本與基礎模型持平。改進1混合域注意力機制形成的新特征圖提高了模型對局部信息和空間信息的關注度,加強了模型對病斑和背景的識別能力,由表看出混合域注意力機制對褐斑病的識別精度提升產生了明顯影響。改進2將CIoU_loss換為SIoU_loss,預測框在回歸時便不僅考慮到距離損失、形狀損失和交并比損失,還加入了角度損失彌補了預測框和目標框角度不匹配的缺陷,提高了模型預測框的定位精度,模型的mAP略微有所提升。改進3對傳統NMS進行優化,剔除了傳統NMS的暴力篩選預測框的過程,在針對白葉枯病這類病葉遮擋情況較多的識別中,減少了有效預測框的誤刪,進而緩解了病葉的漏檢情況,對訓練過程更加有利,提升了精測精度。在結合兩種改進措施時,YOLOv5_cs1、YOLOv5_cs2、YOLOv5_ss較單一改進模型也有不同程度的精度提升,其中,YOLOv5_cs1和YOLOv5_cs2在保持褐斑病和稻瘟病的高精度識別情況下,將mAP提升至87.5%和87.8%,說明在保持混合域注意力機制作用的情況下,SIoU_loss或SOFT-NMS的加入對模型產生了積極效果,提升了模型的識別能力。

綜合三種改進措施,YOLOv5_css對比基礎YOLOv5模型提升了2.9%的mAP。從圖8中可以看出,改進后的模型在白葉枯病和東格魯病兩種偏大病斑的識別精度有所提高,白葉枯病的mAP提升了2.9%,東格魯病的mAP提升了1.9%,模型針對褐斑病這種小目標病斑的識別精大大提高,由87.5%提升至95.3%。

圖9(a)和圖9(b)展示出了相同的東格魯病圖像的檢測結果,可以看出對于同一病斑的置信度得到了提高,YOLOv5_css成功地檢測到了位于圖像中間位置的YOLOv5未檢測出的的長條狀病斑,同時,對于位于圖像左上方的病斑,置信度也有提高。

在圖10中,選擇了兩張稻瘟病圖像,并分別用YOLOv5和YOLOv5_css進行了識別。從檢測效果比較中可以看出,改進的模型不僅增強了每個病斑的置信度,而且成功地識別出了位于圖像左下角的未被YOLOv5檢測到的病斑。在病斑密集的情況下,為了顯示對比效果,隱藏類別和置信度以避免遮擋,YOLOv5_css不僅進行了更加準確的位置檢測,還成功檢測到18個病斑。

在褐斑病的檢測中,YOLOv5_css的識別能力較基礎模型有較為明顯的提高。通過比較圖11(a)和圖11(b),發現YOLOv5_css檢測到了位于圖像左下角位置的微小斑點。還顯示了隱藏類別和置信度后的檢測結果,YOLOv5_css的預測框進行了更好地收斂。

3.3.2 目標檢測算法對比

為了進一步驗證本文算法的檢測性能,將本文改進的YOLOv5_css與主流的目標檢測算法進行對比,在與基礎YOLOv5算法對比的同時,選取SSD、Faster R-CNN、YOLOv3、YOLOv4作為對比對象,將mAP和FPS作為性能指標,對比試驗結果如表3所示,其中加粗并且加入下劃線的表示每列指標最優的一項。由表3可知,對比基礎的YOLOv5算法,改進后的算法mAP提升了2.9%,mAP達到了88.4%。對白葉枯病、稻瘟病、東格魯病以及褐斑病的單一AP分析可知,在較大病斑目標,即白葉枯病和東格魯病的識別上,改進后的模型均優于各類對比模型,兩類病斑的AP值較YOLOv5提升了4.8%;在小目標病斑目標的識別上,改進模型針對褐斑病的識別精度大大提升,較Faster R-CNN和YOLOv5分別提升了5.7%和7.8%,在稻瘟病的檢測中,識別精度較SSD、Faster R-CNN、YOLOv3、YOLOv4有所提升,但是較YOLOv5略低。

在檢測速度即FPS方面,因為相較于傳統NMS,SOFT-NMS的加入會增加一定的計算量,延長模型的推理時間,所以模型的計算效率會有所下降,相比于YOLOv5算法FPS約下降了4.6%,但是仍遠領先于SSD、Faster R-CNN、YOLOv3以及YOLOv4算法,綜合來看,本文所提出的YOLOv5_css具有優勢,可以滿足實時檢測的基本需求。

4 結論

1) 針對傳統深度學習圖像識別難以在水稻葉片存在微小病斑和遮擋情況下準確識別病害種類的問題。利用水稻4類常見病害數據集建立訓練集、驗證集和測試集,以YOLOv5目標檢測算法為基礎,根據病害的發生特點對算法進行改進,實現對水稻病害快速且準確地識別。

2) 針對YOLOv5目標檢測算法進行改進,通過

引入混合域注意力機制提高整體模型的檢測精度,在訓練階段,將原損失函數CIoU_loss改進為SIoU_loss后,減少模型訓練收斂時間的同時提升精度,在推理階段,SOFT-NMS緩解病斑遮擋產生預測框誤刪的情況。消融試驗的結果和模型PR曲線表明改進措施均在不同程度上提升了模型的性能,改進后的算法mAP提升2.9%,mAP達到88.4%,在白葉枯病和東格魯病的識別上,改進后的模型較YOLOv5提升了4.8%;在小目標病斑目標識別上,改進模型針對褐斑病識別精度大大提升,較YOLOv5提升7.8%。

3) 在模型識別效果對比方面,通過對同一張病害圖像進行檢測,YOLOv5_css不僅不同程度提升病斑置信度,還緩解基礎算法對微小病斑的漏檢情況,更加準確地檢測出圖像中病斑數量。在對比試驗中,改進后的模型相比于其他目標檢測算法有更高的精度,同時保持較高檢測速度,可以完成實時檢測任務。

4) 本文提出的模型也有一定的不足之處,只針對單一數據集進行試驗,存在一定局限性,且樣本量有擴充的空間。此外,在白葉枯病的檢測上,白葉枯病的病斑形狀復雜多樣且邊界不清晰,雖然改進后的模型有2.9%的精度提升,但最終的精度僅達到77%,說明白葉枯病的識別存在較高難度,模型仍然有提升的空間,可以嘗試使用更大分辨率的樣本進行細粒度的特征提取。在后續的研究中,將更加完善本文模型,提高檢測的精度和速度,同時對模型移植到移動端做出測試。

參 考 文 獻

[ 1 ] 亓璐, 張濤, 曾娟, 等. 近年我國水稻五大產區主要病害發生情況分析[J]. 中國植保導刊, 2021, 41(4): 37-42, 65.

Qi Lu, Zhang Tao, Zeng Juan, et al. Analysis of the occurrence and control of diseases in five major rice?producing areas in China in recent years [J]. China Plant Protection, 2021, 41(4), 37-42, 65.

[ 2 ] 田有文, 王立地, 姜淑華. 基于圖像處理和支持向量機的玉米病害識別[J]. 儀器儀表學報, 2006, 27(6): 2123-2124.

[ 3 ] 張建華, 祁力鈞, 冀榮華, 等. 基于粗糙集和BP神經網絡的棉花病害識別[J]. 農業工程學報, 2012, 28(7): 161-167.

Zhang Jianhua, Qi Lijun, Ji Ronghua, et al. Cotton diseases identification based on rough sets and BP neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(7): 161-167.

[ 4 ] Omrani E, Khoshnevisan B, Shamshirband S, et al. Potential of radial basis function?based support vector regression for apple disease detection [J]. Measurement, 2014, 55: 512-519.

[ 5 ] Wang H, Li G, Ma Z, et al. Image recognition of plant diseases based on backpropagation networks [C].2012 5th International Congress on Image and Signal Processing. IEEE, 2012: 894-900.

[ 6 ] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks [J]. Communications of the ACM, 2017, 60(6): 84-90.

[ 7 ] 劉闐宇, 馮全, 楊森. 基于卷積神經網絡的葡萄葉片病害檢測方法[J]. 東北農業大學學報, 2018, 49(3): 73-83.

Liu Tianyu, Feng Quan, Yang Sen. Detecting grape diseases based on convolutional neural network [J]. Journal of Northeast Agricultural University, 2018, 49(3): 73-83.

[ 8 ] 孫豐剛, 王云露, 蘭鵬, 等. 基于改進YOLOv5s和遷移學習的蘋果果實病害識別方法[J]. 農業工程學報, 2022, 38(11): 171-179.

Sun Fenggang, Wang Yunlu, Lan Peng, et al. Identification of apple fruit diseases using improved YOLOv5s and transfer learning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(11): 171-179.

[ 9 ] Sanyal P, Patel S C. Pattern recognition method to detect two diseases in rice plants [J]. The Imaging Science Journal, 2008, 56(6): 319-325.

[10] Lu Y, Yi S, Zeng N, et al. Identification of rice diseases using deep convolutional neural networks [J]. Neurocomputing, 2017, 267: 378-384.

[11] 萬穎, 楊紅云, 王映龍, 等. 基于圖像分割與卷積神經網絡的水稻病害識別[J]. 西北農業學報, 2022, 31(2): 246-256.

[12] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real?time object detection [C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.

[13] Redmon J, Farhadi A. YOLOv3: An incremental improvement [J]. Computer Vision and Pattern Recognition, 2018, 87(8): 101-104.

[14] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection [J]. Computer Vision and Pattern Recognition, 2020, 57(5): 9-12.

[15] Lin T Y, Dollár P, Girshick R, et al. Feature pyramid networks for object detection [C]. Proceedings of the IEEE conference on Computer Cision and Pattern Recognition, 2017: 2117-2125.

[16] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 8759-8768.

[17] Woo S, Park J, Lee J Y, et al. Cbam: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision, 2018: 3-19.

[18] Hu J, Shen L, Sun G. Squeeze?and?excitation networks [C]. Proceedings of the IEEE conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.

[19] Gevorgyan Z. SIoU loss: More powerful learning for bounding box regression [J]. arXiv preprint arXiv: 2205.12740, 2022.

[20] Bodla N, Singh B, Chellappa R, et al. Soft-NMS:Improving object detection with one line of code [C]. Proceedings of the IEEE International Conference on Computer vision, 2017: 5561-5569.

主站蜘蛛池模板: 免费精品一区二区h| 国产精品成人久久| 国产白丝av| a毛片免费看| 亚洲系列无码专区偷窥无码| www.youjizz.com久久| 欧美三级不卡在线观看视频| 特黄日韩免费一区二区三区| 本亚洲精品网站| 国内熟女少妇一线天| 综合五月天网| 欧美一区二区三区不卡免费| 亚洲成A人V欧美综合| 丁香亚洲综合五月天婷婷| 日韩在线中文| 久久黄色小视频| 九九香蕉视频| 手机看片1024久久精品你懂的| 亚洲欧美日本国产综合在线| 亚洲一区二区三区国产精品 | 亚洲AⅤ波多系列中文字幕| 一级爆乳无码av| 波多野结衣无码AV在线| 国产性猛交XXXX免费看| 一级香蕉视频在线观看| 污污网站在线观看| 亚洲中文久久精品无玛| 中文字幕无码中文字幕有码在线 | 精品视频第一页| 97超级碰碰碰碰精品| 亚洲欧美另类日本| 秋霞一区二区三区| 日韩东京热无码人妻| 欧美A级V片在线观看| 澳门av无码| 亚洲国产一区在线观看| 亚洲av片在线免费观看| 国产福利小视频高清在线观看| 热99精品视频| jizz亚洲高清在线观看| 国产在线一区二区视频| 久久无码av一区二区三区| 四虎影视8848永久精品| 精品中文字幕一区在线| 无码日韩精品91超碰| 亚洲天堂视频在线免费观看| 黄片一区二区三区| 小说区 亚洲 自拍 另类| 国产亚洲精品97AA片在线播放| 久久亚洲国产一区二区| 毛片在线播放网址| 成人亚洲天堂| 素人激情视频福利| 亚洲丝袜第一页| 午夜一区二区三区| 99免费在线观看视频| 亚洲精品无码不卡在线播放| 人妻免费无码不卡视频| 91www在线观看| 青草娱乐极品免费视频| 国产成人精品第一区二区| 人妻丰满熟妇啪啪| 国内精品久久久久鸭| 老熟妇喷水一区二区三区| 99国产精品免费观看视频| 亚洲黄色视频在线观看一区| 91午夜福利在线观看| 国产成人欧美| 国产清纯在线一区二区WWW| 一级香蕉人体视频| 国产成人免费手机在线观看视频| 欧美激情网址| 国产喷水视频| 欧美精品在线免费| 亚洲精品在线影院| a天堂视频| 欧美日韩在线第一页| 久久伊人色| 国产精女同一区二区三区久| 日本91在线| 99在线视频精品| 精品一区二区三区视频免费观看|