江曉鵬
(梅州市林業綜合服務中心,廣東 梅州 514000)
松材線蟲是一種寄生性線蟲,以松樹作為宿主引發松材線蟲病害,是松樹林木資源面臨的重要威脅之一。其通過傳播媒介(如松墨天牛等)從一個被感染的松樹宿主傳播到其他未感染的松樹上,導致病害在森林中迅速擴散,一旦病害蔓延,很難控制及治理,會給松樹種群及森林生態系統造成巨大的損失,對林業產業及生態環境造成嚴重影響。為了應對松材線蟲病害的威脅,我國采取了一系列的防治措施,如加強病害監測和預警,做好病害防控,推進松材線蟲病害的科學研究等。但傳統的調查與監測以人工排查為主,作業效率低,人工成本高。隨著科技的不斷進步,應用無人機進行智能化調查逐漸受到關注。通過無人機搭載高分辨率相機,結合深度學習算法,對病害進行智能化調查及分析,可大大提高調查效率及準確性。本研究探討了基于無人機與深度學習技術的松材線蟲病害調查及應用,分析其在松材線蟲病害監測、預警與防治方面的潛力及應用前景[1-3]。
YoloV3是一種基于卷積神經網絡的物體檢測算法,是You Only Look Once系列算法的第三個版本。通過對圖像進行單次前向傳遞,直接從像素級別預測物體的類別與邊界框。YoloV3流程包括3部分:①輸入圖像的預處理,包括圖像尺寸調整及歸一化。②通過多個卷積層及特征圖進行多尺度的物體檢測及分類。③通過非極大值抑制(NMS)過程篩選出置信度高的物體邊界框并輸出最終的檢測結果。YoloV3在物體檢測任務中表現出色,具有快速、準確的特點,被廣泛應用于自動駕駛、視頻監控、智能安防等領域。YoloV3的開源便于進行二次開發及定制,適用于不同應用場景的需求。由于YoloV3算法關注不同物體的局部及邊緣檢測,故本研究對顏色通道、紋理提取等網絡設計進行了改進。
在OpenCV中,主要使用灰度共生矩陣(Gray-Level Co-occurrence Matrix,GLCM)來提取紋理特征。這是一種用于描述圖像紋理特征的矩陣,通過統計圖像中各個像素的灰度值來衡量在給定方向與距離上出現的頻率紋理特征。將圖像轉換為灰度圖像,因為紋理特征通常在灰度圖像上更明顯,構建灰度共生矩陣(GLCM),再從GLCM中提取紋理特征。紋理特征包括對比度(contrast)、一致性(homogeneity)、能量(energy)及相關性(correlation)等。
無人機影像采集技術是利用無人機(無人駕駛飛行器)搭載的相機、傳感器或其他采集設備,通過航空或遙感設備獲取地面及空中圖像數據的技術,通過無人機的高空俯瞰視角及靈活機動性獲取高分辨率、大范圍的圖像數據,在很多領域都有著廣泛的應用。
實驗測區位于M市A縣,主要以種植馬尾松為主,林業面積達到100畝。該林場創造了一個相對穩定的生態環境,為各種植物及動物提供棲息地,保護土壤質量及水源,促進地下水及水域的可持續利用,對當地經濟發展具有重要作用。每年春節是松材線蟲的高病發期,林場發現松材線蟲病分布,但由于林區整體面積較大,僅依靠人工巡檢難度較大,故應用無人機航拍影像進行病蟲害智能檢測。
影像采集時間為2020年3月下旬,天氣狀況為陰天,拍攝時間為上午10時—11時。外業采集設備為大疆經緯M300 RTK無人機,搭載SHARE 203S PRO相機(主要參數如表1所示),應用GPS控制站進行輔助定位,方便后期進行病害植株定位[4]。

表1 大疆經緯M300 RTK無人機參數
確定測區范圍。測區面積為1.5 km2,無人機采用定高巡航飛行模式,相機鏡頭始終保持垂直向下,航向與旁向重疊率分別設置為70%、75%,設計飛行高度450 m,在確保作業效率的同時保證影像的清晰度。進行飛行操作,按照預定航線進行飛行,采集正射影像數據,外業共采集影像數據2135張。
智能化識別使用NVIDIA GRID KI作為運算CPU,CUDA10.0+CuDNN+PyTorch1.1作為深度學習軟件平臺,主要步驟分為深度學習模型訓練與應用兩個階段。
2.2.1 訓練階段
進行航拍圖像歸一化預處理,主要包括圖像切割、索引,利用中值濾波、Gamma矯正及提高對比度亮度、圖像縮放、平移、旋轉等方法進行圖像增強。從圖像庫中抽取適量數目并將具有較高多樣性(至少2500株疫木)的圖像集合作為人工標注集合。使用AutoCAD等軟件在標注集合圖像上完成疫木輪廓標注,對標注DXF的文件進行解析,映射至原圖對應位置,生成深度學習可讀的輪廓描述json文件[5]。
將標注圖像與json的文件按照80%∶20%的比例隨機分割為訓練集合與測試集合?;赮oloV3設計農林病蟲害場景的深度神經網絡,在80%的訓練集合上訓練深度神經網絡模型,模型通過模仿人工標注結果不斷迭代優化網絡參數,在20%的測試集合上使用訓練好的深度神經網絡模型進行預測[6]。

圖1 病蟲害智能化檢測方案流程Fig.1 Flow chart of intelligent pest detection scheme
將測試集合上的模型結果與人工標注結果通過評估指標進行比對,若效果符合要求則保存模型,否則修改網絡模型,持續迭代。
2.2.2 應用階段
進行航拍圖像歸一化預處理,同訓練階段。讀取已訓練模型,對圖像進行預測計算,自動識別病害植株,生成預測結果。評估方式為在相同圖片集合(合計至少包含500株疫木)上對比人工標注與深度學習模型在不同評估指標上的效果表現。識別的病害植株如圖2所示:

圖2 松線材蟲病害植株識別結果Fig.2 Identification results of pine wood nematode
在正攝影像圖(DOM)上進行病害植株定位,利用ContextCapture Center軟件進行二次開發,基于python語言進行云建模腳本的二次開發,空間定位基于線性優化算法求解相機定位參數,獲得檢測的病害植株位置,再根據定位坐標進行現場登記及排查。

圖3 松線材蟲病害植株定位結果Fig.3 Location results of pine wood nematode
試驗發現,設計的方法無需任何人工交互,自數據上傳到識別結果輸出,全程100%自動化,2000余張影像數據4 h內完成了所有識別,并通過二次開發程序獲取研究區域的正射影像,所有病害植株均能在一張圖上展示。為驗證該方法識別的準確性,隨機抽取150張智能化檢測有病害植株影像、500張識別正常植株影像,再逐張進行人工甄別,基于單張影像定位信息,提取枯死松樹的地理位置信息。對比后發現,病害植株中識別錯誤影像21張,正常植株中識別錯誤影像44張,識別正確率分別為86%、91.2%,原因主要是異??菟乐仓?非松材線蟲病害植株)也易識別為病害植株,算法還可以進一步優化。
將無人機影像處理提取的病害植株地理位置信息與GPS現地采集的地理位置信息進行精度驗證,統計后發現,水平偏差誤差在1~5 m(統計結果如表2所示)。對于林間枯死松樹監測而言,無人機病蟲害智能檢測提取的坐標位置數據比較準確,精度較高,在野外進行林間受害樹監測及搜尋具有較高的可操作性,可顯著提高林間松材線蟲病枯死松樹的除治效率[7]。

表2 無人機圖像識別與實測位置信息對比
通過無人機的應用可實現大范圍病害的監測及調查,提高病害識別及定位的準確性。通過對圖像數據的深度學習訓練,實現對松材線蟲病害的自動識別及定位,對預防及控制松材線蟲病害的擴散、保護我國豐富的森林資源及生態環境、推動林業產業發展具有重要意義。