摘 "要:由于全球氣候和環境條件的變化,果樹病蟲害數量出現了爆發式的上升趨勢,果樹容易受到各種疾病的侵襲,疾病的傳播速度取決于環境條件和植物對感染的敏感度。果樹病蟲害的存在危及農業生產的安全。為了保障農業安全生產,使用人工智能技術對果樹病蟲害進行及時準確的識別具有重要意義。基于深度遷移學習的果樹病蟲害識別可以盡早地檢測出果樹病蟲害,并能夠最大限度地降低病蟲害造成的損失。
關鍵詞:智慧農業;深度遷移學習;圖像識別;人工智能;農業安全
中圖分類號:TP311.1 " " "文獻標志碼:A " " " " "文章編號:2096-9902(2023)13-0013-04
Abstract: Due to changes in global climate and environmental conditions, there has been an explosive increase in the number of fruit tree diseases. Fruit trees are susceptible to a variety of diseases, the rate of spread of which depends on environmental conditions and the susceptibility of the plant to infection. The presence of fruit tree diseases threatens the safety of agricultural production. In order to ensure safe agricultural production, it is important to use artificial intelligence techniques to identify fruit tree diseases in a timely and accurate manner. Fruit tree disease identification based on deep transfer learning can detect fruit tree diseases and pests as soon as possible and minimize the losses caused by diseases and pests.
Keywords: smart agriculture; deep transfer learning; image recognition; artificial intelligence; agricultural security
果樹病蟲害給現代農林業帶來了沉重的打擊,果實質量和產量的下降,對于果樹種植者的影響無疑是不可估計的[1]。由于果樹種植不夠專業規范,從業人員的知識水平不一,防治果樹病蟲害效果受到制約。傳統的疾病鑒定方法需要經驗豐富的專家進行診斷,效率低,難度大。機器視覺技術,尤其是卷積神經網絡(Convolutional Neural Network,CNN),可以快速準確地診斷果樹葉片病蟲害,因此備受關注[2]。
1 "果樹病蟲害識別研究的意義
1.1 "傳統果樹病蟲害識別的不足
果樹病蟲害的早期檢測是降低損失的最佳方法。然而,傳統肉眼觀察方法存在診斷結果模糊、對工作人員體力考驗大等問題。專業人員缺乏也使得傳統診斷方法的作用有限。新技術如顯微鏡診斷技術、PCR診斷技術和DNA分子探針診斷技術提高了準確率,但需要較高的實驗條件和成本,并且診斷周期較長。
因此,盡管使用新技術可以提高果樹病蟲害的診斷準確率,但在權衡成本和實驗條件方面需要作出考慮。不過,盡早檢測并診斷果樹病蟲害仍然是降低損失的最佳方法。
1.2 "圖像識別技術應用意義
圖像識別技術為果樹病蟲害自動診斷提供了一種全新的研究方向。相較于傳統的人工觀察,自動診斷方法更為高效、省力、環保。結合無人機、互聯網等技術,自動診斷系統能夠實現實時監控和指導農民,而且不受距離限制,降低了成本。
自動診斷系統在現代農業中的應用具有重要的意義,因為其契合了智慧農業的發展方向。通過使用自動診斷系統,農民能夠更快地發現果樹病蟲害,并能夠更加精準地采取措施進行防治,從而保障了果樹的健康生長和豐收。
2 "新技術助力果樹病蟲害檢測
2.1 "果樹病蟲害早期檢測與新技術
農業生產一直是人類社會的重要組成部分。隨著技術的不斷進步,圖像識別技術已經被廣泛應用于農業領域,尤其是在農作物品質鑒定和病蟲害檢測方面。傳統的圖像識別方法已經被證明可以在這些領域中起到積極的作用。
不同農作物的品質鑒定和病蟲害檢測已經成為許多研究的重點。小麥、玉米、棉鈴蟲和柑橘等都是被廣泛研究的對象。傳統圖像識別算法的步驟包括數據預處理、特征提取和學習算法。數據預處理是將圖像轉換為數字信號,并去除噪聲和不必要的信息。特征提取是從圖像中提取最具有代表性的信息。學習算法是根據提取的特征來對圖像進行分類。
雖然傳統的圖像識別方法已經被應用于農業領域,但在復雜背景下的識別率仍然很低。這是由于圖像中存在的許多噪聲和干擾信息,以及圖像中的多樣性和變化性等因素導致的。為了提高識別率,需要對傳統的圖像識別算法進行改進。例如,可以采用更先進的深度學習算法來處理圖像,從而提高識別率。此外,還可以引入其他信息源,如紅外圖像和多光譜圖像等,來增強圖像的可靠性和準確性。
總之,傳統的圖像識別方法可以應用于農業領域,例如品質鑒定和病蟲害檢測。然而,在實際應用中,需要針對不同的應用場景進行優化和改進,以提高識別率和準確性。隨著技術的不斷進步,相信圖像識別技術在農業領域的應用前景將會越來越廣闊。
2.2 "圖像識別技術在果樹病蟲害診斷中的應用
近年來,卷積神經網絡在農業領域中得到了廣泛應用,并且取得了很好的成果。研究人員使用卷積神經網絡對1 000種植物圖像進行分類,平均準確率達到了48.6%。同時,對葉和花的分類準確率最高,這表明卷積神經網絡在植物分類方面具有很大的潛力。
Zhang等[3]利用深度學習技術成功地設計了一套判斷蘋果葉片病菌感染的系統。該系統將蘋果葉片分成了4類:健康葉片、感染初期葉片、感染中期葉片和感染末期葉片,并利用VGG16模型進行葉片分類,成功率高達90.4%。周云成等[4]改進了VGGNet模型,成功地應用于檢測番茄的果、花和莖,平均精度最高達73%。
此外,Bah等[5]提出了一種卷積神經網絡結合無監督訓練數據集的新型全自動學習方法,可以從遙感圖像中檢測雜草,這表明深度學習技術在農業領域具有很大的應用潛力,可以用于蘋果葉片病菌感染判斷、番茄果、花、莖檢測及從遙感圖像中檢測雜草等。
綜上所述,這些研究表明了卷積神經網絡在農業領域中的應用潛力,并且使用遷移學習方法解決新任務是有效的。未來,卷積神經網絡在農業領域的應用將會更加廣泛,這將有助于提高農業生產的效率和質量,從而更好地滿足人們日益增長的糧食需求。
3 "深度學習中卷積神經網絡的應用與發展
3.1 "卷積神經網絡在深度學習領域中的重要性
卷積神經網絡(CNN)是一種深度學習模型,主要用于圖像處理和識別任務。其引入了卷積層、池化層和權值共享的概念,對特征進行處理,成功地壓縮了特征數據并減少了參數數量。這些特點使得CNN在處理大規模圖像數據時具有很高的效率和準確性。
CNN的初始版本LeNet-5被用于銀行中進行手寫數字識別[6],并在2012年的ImageNet[7]競賽中被AlexNet取代,效果出奇地好。這個結果引起了學術界和工業界的廣泛關注和興趣,促使許多人開始關注深度學習技術。越來越多的人加入到深度學習的研究中,希望探索出更多新的應用領域。
深度學習因此逐年變熱,有取代傳統學習算法地位的趨勢。CNN在圖像識別中的應用表現出色,取得了比傳統圖像識別方法更高的準確率,引起了學術界和工業界的關注和研究。卷積神經網絡的成功促進了深度學習技術的發展,逐漸成為一個熱門的領域,并有可能取代傳統學習算法的地位。
3.2 "卷積神經網絡在圖像處理中的應用與發展
卷積神經網絡(CNN)是一種專門用于圖像處理和分類的深度學習模型。自誕生以來,其一直在不斷地被改進和提升,以提高其分類準確率。2012年,AlexNet在ILSVRC-2012數據集測試中獲得了冠軍,將top-1和top-5錯誤率分別降低到了40.7%和18.2%。這一成果引起了深度學習技術的廣泛關注,對深度學習技術的發展起到了推動作用。
在此之后,GoogLeNet[8]在2014年通過使用Inception結構和多層損失函數,進一步將top-5錯誤率降低到了6.7%。而VGGNet則通過疊加更多的層數,并采用了與AlexNet相似的網絡結構,取得了很好的效果。可以說,這些網絡模型分別通過不同的網絡結構和方法,進一步降低了圖像識別中的錯誤率[9]。
ResNet的提出為解決CNN中的梯度消失問題提供了一種新的方法,即使用殘差結構[10]。這一方法允許CNN網絡擴展到更深的層數,從而進一步提高CNN的分類準確率。
在圖像分類領域,CNN已成為最成功和最有效的深度學習模型之一。而且,CNN還被廣泛應用于其他領域,例如自然語言處理、語音識別和行為識別等,取得了很好的效果。這些應用和不斷地改進和提升預示著CNN在未來的發展中將繼續扮演重要的角色。
3.3 "神經網絡參數壓縮技術及其應用
隨著卷積神經網絡(CNN)在計算機視覺領域的廣泛應用,網絡的復雜性和準確性也成為研究的熱點。然而,CNN的高復雜度也導致了龐大的計算和存儲花銷,這對于移動設備等資源有限的設備來說尤為嚴重。
一種解決方法是通過增加網絡的非線性能力來提高網絡的準確性,但這也會增加計算和存儲的負擔。為了解決這個問題,目前的研究重點是減少網絡參數,從而降低網絡的計算和存儲花銷。
目前有許多方法可以實現參數的壓縮。一種是通過全局均值化(Global Average Pooling,GAP)和使用更小的卷積核來減少網絡參數,從而實現模型的壓縮[11]。GAP是一種常見的降維技術,其將特征圖的每個通道的值取平均值,從而得到一個固定長度的特征向量。使用更小的卷積核也可以有效減少網絡參數,同時不影響網絡的性能。
除此之外,網絡剪枝、權值量化、哈夫曼編碼等方法也可以對網絡權值進行深度壓縮,從而降低網絡參數量。網絡剪枝是一種將網絡中不必要的連接刪除的技術,可以在不影響準確性的情況下減少網絡參數。權值量化是通過將浮點數表示的權重量化成更小的整數,從而減少存儲空間。哈夫曼編碼是一種將較少出現的權重用較少的位數表示的技術,也可以有效地壓縮網絡。
另外,過擬合也是減少網絡參數的重要考慮因素。全連接層通常包含大量的參數,容易導致過擬合。一種解決方法是通過在全連接層之前添加池化層和卷積層來減少全連接層的參數。
綜上所述,減少網絡參數是目前研究的重點,有多種方法可以實現參數的壓縮,從而降低網絡的計算和存儲花銷。隨著技術的不斷發展,相信未來還會有更多更有效的方法被提出,讓網絡在保持準確性的同時,更加輕量化和高效。
3.4 "目標檢測算法的演進與發展
目標檢測是計算機視覺領域的重要研究問題之一,目標檢測算法可以廣泛應用于安防、自動駕駛、人臉識別等領域。早期的目標檢測方法使用滑動窗口的方式進行檢測,但該方法的效率低下,需要大量的計算資源,難以在實際應用中實現。為了提高檢測效率,R-CNN方法通過在圖像中產生候選區域來代替滑動窗口,從而降低了計算量[12]。
隨著研究的不斷深入,候選區域選擇算法也不斷得到改進和優化,如Selective Search[13]、Edge Boxes[14]等算法,這些算法不斷提升了候選區域選擇的準確性和效率,為后續的研究提供了基礎。
卷積神經網絡的應用也使目標檢測得到了極大的提升,SPPNet[15]、Fast R-CNN[16]和Faster R-CNN等卷積神經網絡模型的出現,大大提高了目標檢測的效率和準確率。其中,Faster R-CNN[17]通過使用RPN(Region Proposal Network)產生候選區域,實現了端到端的目標檢測,成為目前最優秀的算法之一。
為了進一步提高目標檢測的速度,YOLO[18]和SSD[19]算法被提出,兩者通過將檢測和定位融合為一個回歸問題,大幅提高了檢測速度,但是在一定程度上犧牲了準確率。此外,對網絡參數的優化也成為目標檢測研究的重要方向之一,網絡剪枝、權值量化、哈夫曼編碼等方法可以對網絡權值進行深度壓縮,從而降低網絡參數量,進一步提高了目標檢測的速度。
綜上所述,目前的目標檢測算法既關注準確率,也注重計算速度。未來的研究方向可能是如何在準確率和速度之間進行更好的平衡,同時,如何應對多種場景和復雜情況下的目標檢測問題也是需要持續研究的方向。
4 "基于理論進行的實踐應用
4.1 "柑橘病蟲害識別模型的建立
該研究選用了DenseNet[20]模型對柑橘葉片圖片集進行分類,該模型基于跳連思想,網絡中每一層收集前面所有層的特點作為輸入,從而將網絡中的特征信息流最大化。在DenseNet121模型的基礎上,將柑橘葉片圖片集分類為Healthy、Scab、Rust 和 Multiple disease,并對模型進行訓練,最終得到了一個能夠特異性識別柑橘葉片病害的柑橘病蟲害識別模型。
4.2 "識病柑橘應用與識病柑橘平臺的開發
基于建立的模型,為了發展模型的可利用性,開發了識病柑橘應用和識病柑橘平臺。利用Flask和TensorFlow,將柑橘病蟲害識別模型部署到Web服務端,這一步建立了模型能被部署到多平臺的基礎。識病柑橘應用將柑橘病蟲害識別功能移植到了安卓平臺,使得模型的應用得到了移動載體,應用情景和受眾范圍也得到了提升。用戶既可以通過手機實時訪問Web數據庫中的數據并下載圖片,也可以實時拍攝柑橘葉片照片上傳到服務器,同時接收服務器反饋的預測結果。識病柑橘平臺將柑橘病蟲害識別功能移植到了網頁端,充當識病柑橘應用的后臺,使整個項目的運營更加成熟有序。實踐應用結構圖如圖1所示。
圖1 "實踐應用結構圖
5 "結束語
本研究旨在通過果樹病蟲害識別,準確了解果樹病情,開展有針對性的防治工作,促進果樹健康生長、提高產量、維護果樹種植業健康發展。柑橘病蟲害識別模型為果樹病蟲害圖像識別提供了實驗經驗,但由于樣本圖像拍攝場景單一、多樣性差,該模型的泛化能力還需提高。為此,樣品圖像將來可以通過數據增強技術進行預處理,在多樣性方面更加豐富,并從數據和模型兩方面進行優化,以提高診斷模型的預測精度。
參考文獻:
[1] 滿中合.果樹病害發生特點及綜合防治策略探究[J].農業開發與裝備,2021(5):72-73.
[2] 趙鵬超,戚大偉.基于卷積神經網絡和樹葉紋理的樹種識別研究[J].森林工程,2018,34(1):56-59.
[3] ZHANG K, GUO Y, WANG X, et al. Multiple feature reweight densenet for image classification[J]. IEEE Access, 2019,7:9872-9880.
[4] 周云成,許童羽,鄭偉,等.基于深度卷積神經網絡的番茄主要器官分類識別方法[J].農業工程學報,2017,33(15):219-226.
[5] BAH M D, HAFIANE A, CANALS R. Deep learning with unsupervised data labeling for weed detection in line crops in UAV images[J]. Remote sensing, 2018,10(11):1690.
[6] LE CUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.
[7] RUSSAKOVSKY O, DENG J, SU H, et al. Imagenet large scale visual recognition challenge[J]. International Journal " " " " of Computer Vision, 2015,115(3):211-252.
[8] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]// Cvpr, 2015.
[9] 劉杰.基于卷積神經網絡的柑橘潰瘍病的識別研究[D].重慶:重慶大學,2018.
[10] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition, 2016:770-778.
[11] LIN M, CHEN Q, YAN S. Network in network[J]. CoRR,2013,abs/1312.4400.
[12] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and "semantic "segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition, 2014: 580-587.
[13] VAN D S K E A, UIJLINGS J R R, GEVERS T, et al. Segmentation as selective search for object recognition[C]//Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011:1879-1886.
[14] ZITNICK C L, DOLL?魣R P. Edge boxes: Locating object proposals from edges[C]//European Conference on Computer Vision. Springer, Cham, 2014:391-405.
[15] HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE transactions on pattern analysis and machine intelligence, 2015,37(9):1904-1916.
[16] GIRSHICK R. Fast r-cnn[J]. CoRR:2015,1504.08083.
[17] REN S, HE K, GIRSHICK R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[C]//Advances in neural information processing systems, 2015:91-99.
[18] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]// Proceedings of the IEEE conference on computer vision and pattern recognition, 2016:779-788.
[19] LIU W, ANGUELOV D, ERHAN D, et al. Ssd: Single shot multibox detector[C]//European conference on computer vision. Springer, Cham, 2016:21-37.
[20] HUANG G, LIU Z, VAN D M L, et al. Densely connected convolutional networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition, 2017:4700-4708.