劉 志,賀 正,苗芳芳,賈 彪
(寧夏大學 農學院,寧夏 銀川 750021)
出苗率在很大程度上決定農作物的生長狀況,同時也是農作物獲得高產的一個重要參考因素[1]。因此,確定某一地塊作物成苗程度,得知該地塊的最佳出苗數量至關重要。我國西部寧夏地區春季多風少雨,土壤墑情相對較差,春播玉米的出苗率受到嚴重威脅,單位面積內玉米出苗率過低導致玉米減產[2]。種植戶或農業技術工作人員通常在玉米苗期(第2葉或第3葉期)進行人工點數玉米植株的數量,以便及時補苗,但是對于大面積的田間種植,玉米植株數目統計工程量大,耗時費力,工作時間長,工作效率低,勞動成本高,且人工統計過程中容易出現誤查漏數現象,統計出入大,最后得出的出苗率誤差大[3],嚴重影響出苗率的計算精度[4-5],不利于玉米生產者及時采取有效的補救措施[6]。因此,急需一種省時、省力、高效、精確的出苗率獲取方法。
目前,獲取田間作物出苗率的方法大致可分為人工點數、機械手點數[7]、光電傳感[8]和機器視覺4種[9]。其中,運用機器視覺技術獲得某一地塊作物幼苗數量來計算出苗率,不但省時省力,而且計算結果精確可靠[4]。因為玉米作物幼苗期的株型結構很適合垂直俯拍。與人工點數和機械手點數相比,基于機器視覺技術的設備(無人機搭載數碼相機)進入田間地頭,更有利于操作與控制,且測量數據精準。
隨著無人機的日益成熟,使得無人機平臺的新型近地遙感技術備受農業生產者青睞[10-11]。近年來,國內外學者利用無人機獲取遙感信息進行作物生長監測、營養分析等研究,并取得了一定的成效[12-13]。如利用無人機遙感小麥、玉米等作物進行監測,建立了作物生長狀況指標與圖像特征值之間的關系模型[14-16]。但目前絕大部分學者都是根據不同作物的生長特征建立關系模型,針對玉米作物的無人機玉米出苗識別的研究較少,鑒于此,本文通過采用無人機獲取滴灌水肥一體化玉米幼苗期(灌出苗水30 d后,玉米為2葉1心)圖片,使用圖像處理技術對無人機遙感圖像進行識別與分析,提取玉米出苗情況,計算不同氮素處理的出苗率,并建立基于無人機與機器視覺的玉米出苗關系模型,為精準農業作物生產管理及時、準確地獲取信息提供數據支撐。
試驗于2018年4—10月在寧夏農墾集團示范基地開展,如圖1-a所示,試驗地中心區域位于東經106°01′,北緯38°24′,平均海拔1 170 m。田間試驗設置6個不同氮素處理,分別為N0(0 kg·hm-2)、N1(90 kg·hm-2)、N2(180 kg·hm-2)、N3(270 kg·hm-2)、N4(360 kg·hm-2)、N5(450 kg·hm-2),重復3次,各試驗小區采取隨機區組設計,小區面積為67.5 m2,每個小區種植8行玉米,采用寬窄行種植,寬行70 cm,窄行40 cm,株距為20 cm;區組間隔設1 m走道,鋪設支管道的走道1.5 m,灌溉方式為基于水肥一體化技術的滴灌模式,各試驗小區為獨立的滴灌與施肥單元。滴灌管道鋪設在窄行中間,種植密度為5 400 株·667m-2。試驗區四周種植2~4行保護行,試驗區總面積0.16 hm2,本試驗采用無人機拍攝2個區組作為研究對象(圖1-c)。試驗區種植青貯玉米,供試品種為天賜19(TC19)。
本試驗選取專業級無人機(深圳市大疆創新科技有限公司的Inspire1),軸距559~581 mm,續航時間18~20 min,鏡頭f/2.8(20 mm等效焦距),質量(含電池)2 935 g,搭載數碼相機型號為X3,傳感器為SONY EXMOR 1/2.3″,有效像素為1 240萬。
玉米幼苗生長期間,綠葉面積較小無法識別,綠葉面積過大則葉片會相互重疊進而影響無人機識別精度,所以本試驗選取灌出苗水30 d后的2葉1心期。飛行應選擇晴朗、無云的天氣以提高無人機識別精度,盡可能避免在天氣狀況不良的條件下進行圖像采集。在天氣狀況不良獲取的圖像如何處理是下一步研究的重點。
圖像采集時間為2018年5月25日,播種后30 d上午11:00左右,獲取無人機平臺數碼高清圖像,拍攝當天晴空萬里,風力2級,根據照明條件規劃航線設置,通過對無人機拍攝高度、圖像重疊度及拍攝懸停進行設置,拍攝照片數量航點數都會在DJI GS軟件中自動計算生成。在每次飛行前手動調整光圈至f/4.0,相機曝光1/100 s,白平衡,IOS 100,焦距4 mm,飛行高度距地面5 m,拍攝時無人機鏡頭垂直地面,選擇相機觸發順序采集每張相鄰圖像間距以使兩個傳感器軸的圖像重疊大于85%。衛星地圖與實際區域之間會存在偏差,規劃航線時選擇飛行器選點,航拍區域完全覆蓋目標區域[17]。通過平板電腦載入已規劃完成的航線任務,飛行航線為“S”型(圖2)。由于一次任務拍攝航點有限,所以在區組中間設置了一個控制點。照片尺寸4 000×3 000像素,存儲格式為JPG。

圖2 無人機作業航線圖Fig.2 Operation route map of unmanned aerial vehicle
采用ORB(oriented fast and rotated brief)算法進行無人機采集圖像的合成。ORB算法是將FAST(features from accelerated segment test)機器學習的角點檢測方法與BRIEF(binary robust independent elementary features)特征描述子結合,通過改良并進行優化,保留圖像特征,擬合形成ORB算法[18-19]。如圖3所示,拍攝照片的位置不同、角度發生改變,導致重疊區發生微量明暗亮度數值的變化,拼接圖像在接縫處出現明顯“邊緣效應”,為了解決上述問題,本文結合基于距離的加權平均的融合算法[19],通過計算重疊區域中的點到重疊區域左邊界和右邊界的距離比值來得到相應的權值,重疊區域的像素點值f(x,y)如公式(1)所示[18]:
(1)
通過重疊區域部分像素數值相應權重相加,減少色彩和亮度差,可緩解圖像的不自然,使圖像呈現平滑質感。本研究還利用Python和Open CV(open source computer vision library)面向對象的程序設計語言對圖片顏色域進行識別,用于玉米幼苗與土壤背景的快速性分離運算。
采用Excel 2010進行數據整理,選用Origin 2018進行數據分析與作圖,采用均方根誤差(RMSE)、標準均方根誤差(NRMSE)和決定系數

圖3 圖像邊緣效應Fig.3 Edge effect of image
(R2)等指標作為模型估測和驗證[16]。估測與驗證模型的取決定系數越接近于1,相應的回歸化的均方根誤差與均方根誤差越小,則模型評測越好,公式如下[16]:
(2)
(3)
(4)

無人機采集的玉米有苗期原始圖像(圖4-b),通過ORB算法拼接后出現明顯的廣角效應,為了更好地尋找特征點進行匹配,濾除失誤匹配點,本研究結合距離加權平局的擬合算法,計算重疊區域中的點到重疊區域左邊界和右邊界的距離比值來得到相應的權值(圖4-c),并通過修正、提純、合理優化、對齊拼接、算法合并拼接處理(如圖4-d),既避免田間圖像信息丟失,又有效更正了廣角效應。為有效展現無人機拍攝玉米田間地塊區組的精準區域,本研究每個區組拍攝113幅圖像,并進行ORB算法與距離加權融合算法合成,便于后期精準統計玉米株數和計算出苗率。
如圖5-a所示,利用Python和OPENCV面向對象的程序設計語言對玉米無人機圖片顏色域進行識別,確定玉米植株幼苗葉片顏色色域HSV的閾值,使用顏色空間轉換函數cvCvtColor函數實現RGB向HSV轉換,從而獲取無人機玉米幼苗期圖像每個像素點的H、S、V顏色分量值,然后通過閾值判斷,其純度H量閾值為45°~85°時,可明顯分離玉米幼苗冠層圖像與土壤背景層圖像(圖5-b)。然后進行二值化圖像處理如圖5-c所示。獲取二值化圖像后,由于田間玉米出苗狀況層次不齊,部分玉米幼苗進入三葉期,葉片圖像過小或由于提取圖像時部分玉米植株不明顯,采用腐蝕膨脹法對圖像進行膨脹處理,加強部分玉米小苗在圖像中顯示,去除孔洞使其更清晰,并采用異常值剔除法對雜草進行剔除,由于部分雜草也處于苗期,面積雖然過小,但也會被識別出來,所以本研究依據圖像空間的分辨率,選用OPENCV刪除二值圖像中面積較小的連通域,訪問二值圖像每個點的值搜索二值圖中的輪廓,從輪廓樹中刪除面積小于40個像素閾值MINAREA的輪廓,并開始遍歷輪廓樹,當連通域的中心點為白色時,而且面積較小則用黑色進行自動填充,得出深度優化后的玉米苗期圖像(圖5-d)。

a,無人機圖像采集;b,原始圖像;c,ORB算法;d,廣角效應修正和裁剪。a, Image capture by unmanned aerial vehicle; b, Original image; c, ORB algorithm; d, Wide-angle effect correction and tailoring.圖4 ORB算法與距離加權融合算法合成圖Fig.4 ORB algorithm and stitching wide-angle optimization preprocessing

圖5 玉米植株提取與深度優化圖Fig.5 Extracted and advanced processing images of maize plants
通過對玉米植株提取與深度優化(圖5),可以較好地對玉米幼苗進行識別與提取。然后運用MATLAB八位連通域計算方法進行自動計算出苗數量,得出玉米出苗率狀況,在本研究中,由于玉米種植按寬窄行進行,2行玉米種植在滴灌帶的兩側,也就是播種模式的窄行處,為了自動精準區分出各試驗小區玉米幼苗,計算機通過圖像計數時,以每根滴灌帶為單位進行玉米幼苗并識別與計數。計數路線是按空間信息轉換而來的點創建并記錄數據,計數路線由滴灌帶兩側所包含的點累加,根據玉米幼苗行數y軸和x軸分割的目標轉換點以及玉米種植時的株距進行分類和標記。使用ARCMAP 10.3沿著y軸連接具有相同標記的點與行間距來生成玉米幼苗識別記錄路線。圖6-a膨脹去雜處理,圖6-b定義每株玉米幼苗,圖6-c分類標記,圖6-d連接點并平滑計數路線,結合二值圖像精確計算各試驗小區每條滴灌帶上的玉米幼苗。

圖6 玉米幼苗標記與計數局部圖Fig.6 Partial image of marking and counting maize seedlings
為了驗證無人機標記與計數方法的準確性,本研究共拍攝3個重復的2個區組,每個區組包含N0到N5,6個試驗小區,每個小區包含4個滴灌帶,共12個小區,48條滴灌帶,均通過人工調查計數與無人機標記獲取的數字圖像分析處理來計數。玉米實際數量為2區組中實施不同氮素處理的人工調查計數的玉米植株數量,無人機標記為無人機搭載數碼相機獲取數字圖像計數,進行建模和試驗誤差分析,誤差計算公式如(5)所示[4]:
(5)
式中:ω為誤差,R為人工調查的玉米植株數量,A為無人機搭載數碼相機獲取數字圖像計數所得的玉米幼苗數量。
由表1計算結果可知,人工計數與無人機標記在圖像識別的誤差ω存在一定的誤差,平均誤差為1.168%。且無人機標記結果與人工計數之間滿足線性回歸分析模型。由表2結果可知,區組1與區組2試驗結果均顯示為無人機標記結果與人工計數獲取的每個區組實施不同氮素處理小區的總玉米植株數量呈線性相關關系,且不同氮肥處理間參變量k、b均具有明顯的規律性變化,其中k值隨著施N量的增加而減小,b值隨著施N量的增加而增加,即kN0>kN1>kN2>kN3>kN4>kN5,bN5>bN4>bN3>bN2>bN1>bN0;其決定系數R2>0.720。
通過構建人工計數與無人機標記圖像計數之間的線性關系模型(圖7)可知,其決定系數等相關模型檢驗參數R2、RMSE和NRMSE分別為0.895、4.359和2.436%。線性模擬模型精確度相對較高,能準確地通過無人機平臺獲取玉米幼苗期植株數,并計算其出苗率。
表1 無人機標記誤差分析結果
Table1Results of unmanned aerial vehicle marking error analysis

區組Block處理Treatment計數方式Countingmethod試驗小區Experimental plot滴灌帶1Drip irrigation1滴灌帶2Drip irrigation2滴灌帶3Drip irrigation3滴灌帶4Drip irrigation4誤差Error(ω)/%區組1N0R01781861921960.532Block 1A0173189195191N1R11561801661510.306A1155178164158N2R21711981751490.866A2173199177150N3R31651741921931.657A3163176182191N4R41891771861791.778A4192183185184N5R51731871971790.543A5175186193178區組2N0R01841501831651.320Block 2A0194154183160N1R11881681891583.983A1181162182150N2R21661951821661.128A2167200184166N3R31791791712080.950A3176186176206N4R41971831721930.537A4191186176188N5R51851701801880.415A5185174177190實際播種數Actual seed number200200200200
表2 無人機標記玉米出苗率函數關系
Table2Unmanned aerial vehicle marking maize emergence rate function

區組Block氮素水平Nitrogen level參數值Parameter valueskbRMSENRMSER2區組1 Block 1N01.087-17.3484.1232.1930.776N10.9991.5723.8082.3330.908N20.79633.8351.5810.9130.999N30.77839.5875.2922.9230.873N40.76139.8894.2132.3050.720N50.61074.5562.3451.2750.990區組2 Block 2N01.147-15.1465.9373.4820.895N11.1021.5087.0364.0030.997N21.01426.1572.7391.5450.999N30.85932.9904.6642.5310.914N40.83034.1044.6372.4900.926N50.56081.0112.6931.4900.857

圖7 無人機與人工計數之間的關系Fig.7 Relationship between unmanned aerial vehicle counting and manual counting
玉米出苗率達不到播種的密度會造成玉米后期產量不足,玉米苗期植株矮小且脆弱,不利于大型機器進入點數[5-6]。近年來采用無人機搭載數碼相機低空飛行標記的能力,彌補了現有人工點數和機械點數等方法的不足[4]。本研究通過無人機航拍影像獲取玉米植株幼苗期植株圖像,運用基于ORB算法與距離加權融合算法的無人機圖像合成(圖4),并運用Python和OPENCV面向對象的程序設計語言對玉米無人機圖片顏色域進行識別,確定玉米植株幼苗H閾值范圍,分離玉米圖像與土壤背景層圖像,采用灰度運算、二值化處理、膨脹處理和深度優化處理,得到玉米苗期圖像(圖5),然后運用MATLAB八位連通域計算方法進行自動計算出苗數量,對玉米幼苗植株標記與計數(圖6),最終得出玉米出苗率。解決了無人機航拍過程中受到復雜環境如天氣、噪聲、葉片之間的遮擋等影響計數的問題[15],此方法是基于機器視覺傳感的計數器,它們對玉米進行連續拍照,然后對圖片進行分析處理,后得出玉米植株數量[12-14]。此方法很適合點數幼苗期的玉米植株數量,也適合無人機垂直拍攝,計數結果較精確[15]。
本研究結果表明,無人機搭載的數碼相機進行分析點數結果滿足線性函數關系模型(圖7),通過表2的R2、RMSE和NRMSE可以看出,此模型可以作為無人機點數解決寧夏玉米出苗率運算,雖然有一定誤差,但誤差并不會因施氮肥量的增加而試驗結果偏大,出苗率也并未因施氮素越多,玉米幼苗長得越大反而計數增多,是因為高施氮肥玉米幼苗相對較大,無人機圖像識別越清晰,計數更為精確,誤差也就越小。因此,由圖7的計數結果可知,N0、N1、N2要比N3、N4、N5誤差相對大。另外,由于無人機搭載高清相機像素畢竟存在一定的局域性,所以在玉米幼苗時期從田間獲取遙感圖像過程中,拍攝一組互相有重疊的局部圖像,并進行圖像拼接,通過算法生成包含著這組局部圖像的一幅完整的寬視場圖像[9]。本文采取無人機搭載數碼相機,相比多光譜和高光譜傳感器,雖然無法獲取所有光譜信息,但是采用超高分辨率的成像特點對玉米出苗期植株精準識別與提取起到了至關重要的作用。
當無人機搭載數碼相機分析點數結果小于人工點數數量時,誤差產生的因素主要有2個,其一播種機播種時出現誤差,小部分玉米種子并未播種到試驗田土壤中去,導致使用手提式便攜播種機進行一次補播,在玉米生長二葉期至三葉期進行無人機出苗點數時,補苗玉米葉片過小,導致其在圖像處理識別過程中被誤認為是噪聲,忽略掉補播后的玉米幼苗,或者把玉米幼苗誤算為雜草排除掉,使得補苗圖像信息損失,產生誤差;其二,首播的玉米種子,在三葉期間成長迅速,葉面積過大,和相鄰玉米植株葉子有所重疊,在計算機二值圖像處理算法中,重疊部分呈現白色,導致部分植株邊緣提取失敗,計算機誤認為2株玉米或多株重疊玉米幼苗為一株,從而產生誤差。當無人機分析點數結果大于人工實際點數數量結果時,產生誤差的原因,第一是試驗田中個別部分雜草由于生長過快,莖稈粗壯,葉面積過大,如黃花蒿、蒼耳等雜草植物,在二值圖像處理算法中會被認為是三葉期的玉米幼苗[4];第二是個別玉米幼苗在拍攝角度上,因光照較強,反射較強,數碼相機在拍攝時不能拍攝出完整的玉米幼苗,產生莖葉相連部分導致邊界提取被誤判,從而產生誤差。因此,基于無人機遙感技術獲取農田作物信息是近年來研究的重點,還需要進一步開發無人機遙感信息獲取系統獲取農田作物長勢信息,指導精準作業,實現對農作物精準管理,推動精準農業全面發展。
(1)采用低空無人機捕獲的超高分辨率RGB圖像估算玉米出苗率。運用MATLAB二值圖像與ARCMAP進行畫行線點相結合,對玉米幼苗識別和分割方法可靠。
(2)建立回歸分析模型是一種快速有效的玉米苗期計數方法,其相關系數R2、RMSE和NRMSE分別為0.895、4.359和2.436%。雖然存在一定的試驗誤差,誤差不會隨著無人機采集圖像中玉米幼苗數量的增加而增大,但本研究有助于實際生產過程中對玉米植株的統計和出苗率的計算。
(3)本研究僅對單一玉米品種(TC19)進行人工與無人機出苗率建模,此方法為通用方法,公式參數是否適用于其他品種是下一步研究的重點。