999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

利用無人機可見光遙感影像提取棉花苗情信息

2020-04-10 07:21:04戴建國薛金利趙慶展張國順
農業工程學報 2020年4期
關鍵詞:模型

戴建國,薛金利,趙慶展,王 瓊,陳 兵,張國順,蔣 楠

利用無人機可見光遙感影像提取棉花苗情信息

戴建國1,2,薛金利1,2,趙慶展1,2,王 瓊3,陳 兵3,張國順1,2,蔣 楠1,2

(1. 石河子大學信息科學與技術學院,石河子 832003;2. 兵團s空間信息工程技術研究中心,石河子 832003;3. 新疆農墾科學院,石河子 832003)

為提高棉花苗情信息獲取的時效性和精確性,該文提出了基于可見光遙感影像的棉花苗情提取方法。首先,利用自主搭建的低空無人機平臺獲取棉花3~4葉期高分辨率遙感影像,結合顏色特征分析和Otsu自適應閾值法實現棉花目標的識別和分割。同時,采用網格法去除雜草干擾后,提取棉花的形態特征構建基于SVM的棉株計數模型。最后,基于該模型提取棉花出苗率、冠層覆蓋度及棉花長勢均勻性信息,并繪制棉花出苗率、冠層覆蓋度的空間分布圖。結果顯示,模型的測試準確率為97.17%。將模型應用于整幅影像,計算的棉花出苗率為64.89%,與真實值誤差僅為0.89%。同時基于冠層覆蓋度、變異系數分析了棉花長勢均勻情況。該文提出的方法實現了大面積棉田苗情的快速監測,研究成果可為因苗管理的精細農業提供技術支持。

無人機;遙感;棉田;出苗率;覆蓋度;可見光

0 引 言

在現代農業生產過程中,精準的苗情信息是實現農作物因苗管理的關鍵。傳統苗情獲取主要依靠植保員田間抽樣調查、手動估算,這種方式主觀性強、精確度低且費時費力,難以滿足當前農業發展要求。尤其隨著精準農業的快速發展,大面積農作物信息的快速準確獲取已成為農田精細管理的重要前提,在現代農業研究領域受到極大關注。

自20世紀90年代起,基于機器視覺技術的苗情監測在農業領域逐步得到廣泛研究。經過多年發展,國內外學者在作物生長監測、病蟲草害監測及產量估測等方面的研究[1-4]取得了豐碩的成果。但早期圖像主要通過固定式(手持、三腳架)或行走式(農用機械、農用車、手推車)設備獲取,在獲取范圍、獲取速度等方面受到了一定限制,難以實現大面積的農情監測[5-8]。

隨著無人機(unmanned aerial vehicles,UAV)和傳感器技術的不斷提高,田間影像數據的獲取方式也更加多樣化。對比固定式和行走式田間影像獲取平臺,可搭載多傳感器的無人機平臺具有效率高、成本低、操作靈活、更適合復雜農田環境等特點[9-10],不僅克服了人工獲取影像數據的困難,還可減少人體接觸對農作物的損害,為大范圍農情信息獲取提供了新的技術手段。

目前,針對無人機在農業中的應用研究十分活躍。趙必權等[11]將高分辨率遙感影像分割后提取油菜的形態特征,采用逐步回歸分析方法,建立了油菜苗期株數監測模型,決定系數2為0.809。Gn?dinger等[12]采用圖像拉伸變換、多閾值分割等方法檢測無人機影像中的玉米苗并計算出苗率,誤差為5%。劉帥兵等[13]對采集的玉米苗期無人機遙感影像進行顏色空間變換實現作物與土壤的分割,再通過Harris、Moravec和Fast角點檢測算法進行玉米株數識別,總體識別率可達97.8%。陳道穎等[14]采集航空可見光影像,結合K-means聚類、BP神經網絡等算法實現了煙草苗株數量統計。牛亞曉等[15]使用自主搭建的無人機平臺獲取了多光譜遙感影像,采用監督分類與植被指數統計直方圖相結合的方式實現了田間尺度冬小麥覆蓋度提取。Jin等[16]結合低空無人機影像對小麥出苗密度進行估算,誤差僅為9.01株/m2。

新疆棉花種植面積大(占耕地面積50%左右),機械化程度高,精細化管理需求強烈,大面積快速準確的苗情調查需求十分迫切。無人機遙感影像結合機器學習技術已經在農作物識別和長勢監測中展現了強大優勢,為實現苗情信息大面積快速提取奠定了基礎。因此,本文針對大田環境中棉花苗情信息人工采集困難、誤差大、效率低等問題,利用無人機遙感平臺采集高分辨率棉花影像,研究棉花出苗率、冠層覆蓋度及棉株長勢均勻性等苗情信息的準確提取方法,以期實現苗期棉花長勢的定量評估,為棉花精細化管理提供依據。

1 研究區及數據準備

1.1 研究區概況

研究區位于新疆生產建設兵團第八師145團蘑菇湖村。該地區(85°92′02″~85°92′31″E,44°39′14″~44°39′25″N)屬典型的溫帶大陸性氣候,冬季長而嚴寒,夏季短而炎熱。年平均氣溫為6.2~7.9 ℃,年日照時長為2 318~2 732 h,年均降水量為180~270 mm[17]。該地區棉花主要采用機采棉種植模式(行距配置為一膜6行,行外間距為66 cm,行內間距為10 cm;株距為10 cm)。選取研究區大小為40 m×40 m,棉花種植品種為新陸早2號,進行試驗時棉花處于3~4葉期。

1.2 遙感影像獲取與預處理

本文試驗數據于2018年5月25日通過無人機平臺獲取。飛行平臺為大疆DJI四旋翼無人機悟Inspire 1 PRO,最大起飛質量3.5 kg,無風環境下水平飛行速度22 m/s,配備智能飛行電池TB47,最大飛行時長約為18 min。傳感器采用大疆禪思X5(ZENMUSE X5)可見光相機,有效像素1 600萬。影像獲取時相機分辨率像素設定為4 608 ×3 456,焦距15 mm(定焦拍攝)。航拍時天氣晴朗,無風無云,飛行高度設置為10 m,航向重疊度為60%,旁向重疊度為65%。拍攝時鏡頭垂直向下,懸停拍攝。

本次試驗共采集93幅棉花可見光影像,數據以24位真彩色JEPG格式進行存儲。利用Pix4Dmapper軟件對其進行正射校正和影像拼接,拼接后得到的影像長約37.5 m,寬約35.4 m,空間分辨率為0.29 cm。為便于后續試驗處理,首先對拼接影像進行裁剪去除邊緣異常值。其次,采用Photoshop圖像處理工具對影像數據進行切片分割,選取30幅典型圖像進行試驗。

1.3 地面調查數據獲取

在獲取無人機數據后,立即開展地面數據調查工作。試驗區機采棉一膜6行,行內行外間距分別為10和66 cm,總寬為2.28 m,因此地面調查樣方大小設置為2.28 m×2.28 m。研究區共設置5個樣方點,分別統計每個樣方的出苗株數(圖1)。根據研究區機采棉一穴一粒的播種方式,可計算出每個樣方的播種株數。出苗率為樣方內出苗株數與播種株數之比,因而可計算出每個樣方的出苗率。5個樣方出苗率的平均值即為試驗區整體出苗率,調查結果顯示試驗區整體出苗率為65.78%。

圖1 研究區影像及樣方分布

2 研究方法

本研究技術路線如圖2所示,主要包括4個步驟:1)對獲取得遙感影像進行預處理,選取典型圖像進行試驗;2)對圖像進行顏色特征分析,結合最大類間方差法實現植被與背景分離并去除雜草影響,提取棉花目標;3)提取二值圖像中各連通區域的形態特征,通過相關性分析篩選分類變量,基于支持向量機(support vector machine,SVM)構建棉花株數識別模型;4)將模型應用于整幅影像,獲得研究區棉花出苗株數,進而計算棉花出苗率、冠層覆蓋度及棉株長勢均勻性。棉田影像分割、特征提取、相關性分析、SVM分類器構建分別采用MATLAB、SPSS等軟件進行處理。

圖2 技術路線圖

2.1 目標提取

2.1.1 顏色特征分析

植被與背景(土壤)分離是獲取棉花苗情信息的前提。觀察棉田圖像可以發現,圖像主要由土壤、地膜和植物構成,其中土壤背景主要呈褐色,地膜背景主要呈白色,植物(棉花植株、雜草)主要呈綠色,因此可以通過對RGB顏色空間中紅色、綠色和藍色3種顏色成分進行線性組合以使作物與土壤及地膜差異最大化,從而實現作物與背景分離[18-21]。另外,顏色模型的合理選擇對彩色圖像精準分割來說至關重要[22]。因此,本文通過對棉田圖像的顏色進行分析,分別選取RGB顏色模型中的綠-藍差值指數(GBDI)、過綠指數(ExG)、歸一化綠-紅差值指數(NGRDI)、歸一化綠-藍差值指數(NGBDI),及YCrCb顏色空間綠色色差()、L*a*b*顏色空間*分量、L*a*b*顏色空間*分量、HSV顏色空間分量作為候選顏色指數,通過特征分析和棉田圖像分割效果對比得到最佳顏色指數。顏色空間轉換時,首先將圖像紅、綠、藍3通道經過歸一化轉換為double類型的顏色參數,進而求取各顏色指數,轉換公式及各候選顏色指數公式分別如公式(1)、表1所示。

式中、、為24位深影像數據的顏色分量,取值范圍為0~255;、、為歸一化后的顏色分量,取值范圍為0~1。

表1 顏色指數列表

2.1.2 Otsu閾值分割

傳統的圖像分割算法主要包括邊緣檢測、閾值處理、基于區域分割等方式。最大類間方差法(Otsu)作為閾值分割方法,因其直觀性和實現的簡單性,在圖像分割方法中一直占有重要地位[29]。Otsu方法由日本學者大津展之于1979年提出,按照圖像的灰度特性將圖像分成背景和目標兩部分,并基于統計學的方法來選取一個閾值,使得這個閾值盡可能的將兩者分開。首先,分別得到目標和背景的像元比例(以閾值為界限)0、1,及平均灰度0、1;然后計算影像總的平均灰度g;最后計算類間方差,方差越大,說明兩部分差異越明顯,分割圖像越清晰。而最佳閾值就是類間方差最大時的閾值[30],公式如下:

2.2 棉株計數模型構建

分割完成后會得到多個連通區域。由于3~4葉期棉花苗連片生長現象已比較常見,使得一個連通區域內往往包含多株棉花,且圖像中粘連棉株很難通過形態學操作進行二次分割,因此無法通過對連通區域簡單操作直接獲得棉株數量。前期研究表明,連通區域的形態特征與該區域內植株數量間存在很強的相關性[11,19],因此可以通過提取連通區形態特征構建模型實現棉株計數。

2.2.1 雜草噪聲去除

由于棉田中雜草與棉花植株顏色相近,在經過顏色指數及Otsu自適應閾值分割后得到的二值圖像會存在少量的雜草,因此需要進一步處理才可進行棉花株數統計。本文首先嘗試通過腐蝕膨脹及形態學操作剔除雜草噪聲。腐蝕是一種消除邊界點使邊界向內部收縮的過程,而膨脹是腐蝕的逆向操作,是使邊界向外擴張的過程。本文首先選擇合適的結構元素對圖像進行腐蝕操作,以消除面積較小的雜草,然后通過膨脹操作盡量恢復被腐蝕掉的棉田的形態特征。

同時,觀察棉田影像發現,由于鋪膜的原因,只有位于未經地膜覆蓋的壟間雜草才會被劃分為有效連通區域。基于此,本文提出網格法去除雜草。該方法將獲取的棉花影像旋轉為田壟豎直的方向,然后對圖像進行網格線劃分,統計區域內質心個數,當個數少于3時則認為是雜草需要去除。網格線去雜草示意圖如圖3所示,其中,網格的寬度根據圖像分辨率及棉苗行距確定,本試驗間距劃分為50像素值。

圖3 網格法去除雜草示意圖

2.2.2 特征選取

本文共對比研究了10種圖像形態學參數,如表2所示。通過計算Person相關系數獲得每個參數與植株數量間的相關性,作為建模特征選取的依據。

表2 圖像形態學參數列表

2.2.3 基于SVM建立棉株計數模型

SVM作為監督分類方法,以VC維(Vapnik-Chervo-nenkis dimension)理論為依據、以結構風險最小化為原則,追求在有限樣本信息下實現模型復雜度與模型學習能力之間的平衡,以獲得最好的推廣能力。

因此,本文利用形態特征結合支持向量機分類器來估算二值化圖像中每個區域內棉花植株數量?;赟VM的棉花株數估算模型主要包括圖像特征提取、劃分數據集、訓練及測試3部分。分別為:1)選取30幅圖像進行試驗,分割后提取二值圖像中連通區域的形態特征作為模型的分類變量,并手動標記每個目標區域內植株數量作為模型識別結果,共計獲取3 710條樣本數據。由于樣本中最大粘連為7株,因此,標簽范圍為1~7;2)數據集劃分。將樣本中80%用于模型訓練,20%用于模型測試,訓練過程中采用五折交叉驗證;3)模型訓練。本文試驗核函數選用徑向基函數(radial basis function,RBF),懲罰系數為1,為0.1。其中懲罰系數代表對誤差的容忍程度,越大對誤差的容忍度越小,模型容易過擬合;越小對誤差的容忍度越大,模型容易欠擬合。是核函數RBF自帶的一個參數,隱含地決定了數據映射到新特征空間后的分布,越大,支持向量越少;越小,支持向量越多。

2.2.4 模型精度驗證

綜合采用準確率和混淆矩陣對模型精度進行驗證。其中準確率用于驗證模型的有效性?;煜仃囉糜隍炞C模型的可靠性。

2.3 冠層覆蓋度提取及均勻性計算

葉面積指數是衡量作物長勢的常用指標。由于3~4葉期棉花葉片重疊較小,因此本文采用冠層垂直覆蓋度代替葉面積指數進行棉花長勢監測。以每幅二值化圖像為單位(像素值為800×800)計算冠層覆蓋度,用以表征該區域棉花長勢情況。冠層覆蓋度公式如下所示:

基于冠層覆蓋度的平均值計算變異系數(coefficient of variation,CV)表征棉花長勢的均勻性。變異系數公式如下所示:

3 結果與分析

3.1 棉花目標提取結果分析

在本研究中隨機選取30幅棉田圖像,以50×50的像素截取圖像中棉花植株、土壤、地膜樣本點(每幅圖像分別提取10個棉花植株、土壤、地膜測試點),進行顏色特征分析。圖4為棉花植株、土壤、地膜在8個顏色指數上的統計直方圖。各分量特征值均為0~255,為凸顯不同地物的差異性,將部分圖像波段特征值進行了截取。

圖4 棉花、土壤和地膜的顏色直方圖

圖4是不同顏色指數對于棉田3種地表(棉花、土壤和地膜)的顏色直方圖,圖5是對應的分割效果圖。從圖中可以看出,在綠藍波段上,土壤、地膜與棉花之間存在明顯的間隔區域,分割效果好;在ExG分量上棉花與土壤有少許共同區域,且棉花在不同特征值處像素點分布較為均勻,分割效果不佳;NGRDI和分量的共同特點是棉花與地膜共同區域較大,且在棉花與地膜相交的波谷區域有一定的像素數,因此圖像分割時會由于地膜無法去除干凈而出現地膜的條狀邊。對于NGBDI分量,土壤和地膜位于的前段,棉花與土壤、地膜之間的波谷明顯,應用Otsu閾值分割算法具有很好的分割效果。在L*a*b*顏色模型的*分量下,在波谷分界線處棉花與土壤有一定的像素數,分割時可能出現雜質;在*分量下棉花與土壤、地膜分割明顯,且波谷處像素值幾乎為0,因此,該特征值下棉田圖像分割效果很好;在HSV顏色模型下的分量上棉花與土壤、地膜有明顯的波谷,雖然波谷處像素值不為0,但在棉花30~150(灰度值)區域內,土壤、地膜摻雜幾乎沒有,因此分割效果也較好。通過對以上8個顏色特征進行綜合分析表明:GBDI分量、NGBDI分量、*分量、*分量及分量均有較好的分割效果。綜合對比分割結果,GBDI分量分割雜質更少、分割更為完整,因此本文選取GBDI分量用于棉花作物分割的顏色指數。

3.2 雜草噪聲去除

通過腐蝕膨脹及形態學操作剔除雜草噪聲效果如圖6所示。對比去除雜草前后可以看出,該方法對于面積比較大的雜草去除效果不好,且有將棉株當作雜草去除的誤操作,影響出苗率計算。同時,形態學操作也會影響棉花的形態特征,給模型分類帶來一定的人為誤差。網格法去除雜草噪聲效果如圖7所示,可以看出該方法不會影響圖像的形態特征。

圖5 不同顏色特征下Otsu分割結果

圖6 腐蝕膨脹去除雜草噪聲

圖7 網格法去除雜草效果圖

3.3 棉株計數建模

3.3.1 特征變量選擇

本文提取了10類圖像連通區形態參數作為候選特征(表2所示),為優選特征變量,通過Person相關系數計算了特征變量與植株間的相關性,如表3所示。

表3 特征變量與植株數量間的相關性

觀察表3可以發現,除形態特征7、9與植株數量間相關性較差外,其余形態特征參數與植株數量的相關性絕對值均大于0.6,其中2(周長)與植株數量相關性最大,為0.771。本試驗中選擇相關系數大于0.7的形態參數作為最終的特征變量進行建模,即1(面積)、2(周長)、3(主軸)、5(外接矩形周長)、6(外接矩形長寬比)、8(外接矩形面積與周長比)。

3.3.2 模型評價

構建的SVM模型進行測試時,平均準確率為97.17%,其中測試準確率最低為94.12%,最高為99.00%。表4為混淆矩陣,比較了連通區域內植株的實際數量和預測數量。從表中可以發現,植株數量為1、2、3、6、7時,準確率較高;而植株數量為4、5時,準確率下降幅度較大,相互之間誤分類比較嚴重;另一方面,當實際植株數量為1~4時,更容易發生過高估計。通過分析發現,誤差可能是由棉花植株的不均勻性及植株冠層重疊引起的,當植株間的陰影、間隙等混雜時會引起形態特征誤差,使其誤分到大植株數量一類;而當植株冠層重疊度較大時,才會誤分到小植株數量一類。基于混淆矩陣求得的Kappa系數為0.899 6,表明模型一致性較好。

表4 混淆矩陣

進一步對比圖像識別和人工計數的出苗株數,以確定所提出方法的可行性。其中,圖像識別統計誤差在0.8%~4.7%之間,平均誤差2.52%。圖8為模型預測株數與真實株數間的比較分析??梢钥闯?,模型預測株數比真實株數偏高,但總體上兩者具有一致性。以上分析表明,利用SVM模型可以有效預測棉花植株數量,且精度高、誤差小,統計結果可靠性較強。

圖8 真實株數與預測株數比較分析

3.4 棉田苗情分析

3.4.1 棉花出苗率計算

為測試模型在不同地塊尺度上的識別精度,本文將拼接影像按不同面積進行裁剪,其測試結果如表5所示。地面調查出苗率取棉田中五點取樣調查結果的平均值。對比表5可以發現,基于棉花苗期影像進行出苗率識別與人工調查結果基本一致,且隨監測面積增加,誤差導下降趨勢。

表5 不同地塊尺度的棉花出苗率

3.4.2 棉花總體苗情分析

小范圍內棉花冠層覆蓋度可以反映棉花長勢情況,因此,基于模型識別結果計算圖像子單元的(像素值為800×800)的棉花冠層平均覆蓋度,并繪制棉苗冠層覆蓋度分布圖直觀顯示苗情信息,如圖9a所示。同時,繪制棉花出苗的熱力圖直觀顯示棉花出苗狀況,如圖 9b所示。從棉花整體出苗率(64.89%)、棉花冠層平均覆蓋度(7.17%)、棉花冠層平均覆蓋度圖像及變異系數(10.98%)來看,該地塊棉花出苗少、長勢不均勻,整齊度較差。

圖9 棉花冠層覆蓋度和出苗率空間分布

4 結論與討論

本文以3~4葉期棉花可見光影像為研究對象,通過顏色特征分析和Otsu自動閾值分割算法獲取棉花二值圖像,采用網格線法去雜草,基于植株形態特征建立棉株數量識別模型,從而獲得棉田出苗率、冠層覆蓋度等苗情信息。研究成果能夠在較短時間內快速、準確的獲取棉花苗情信息,為棉田精細化管理提供技術支持。主要結論如下:

1)基于顏色指數(GBDI)的圖像分割能夠解決棉田影像中地膜反光性強、影像明暗變化明顯等問題,提高圖像識別的適應性和魯棒性。同時,針對棉田雜草分布特征,本文提出的網格線去雜草方法,能夠避免形態學去噪方法造成形態特征改變的問題,去噪更加精準。

2)利用形態學特征構建的SVM分類模型能夠有效解決葉片粘連時棉株的計數問題。模型分類精度達到97.17%,統計誤差在0.8%~4.7%之間,平均誤差2.52%。將模型應用于3種不同面積尺度地塊上,預測的出苗率誤差分別為5.33%、3.03%、0.89%,且隨著監測面積的增加,誤差呈下降趨勢,說明模型在更大面積棉田上具有更好的適用性。同時,基于圖像識別結果獲得的棉花冠層覆蓋度及冠層間變異系數,可有效獲取棉花整體長勢及均勻性信息。

本文研究發現圖像分辨率對監測模型有較大影響,在3~4葉苗期,0.29 cm的分辨率效果最好,未來還可針對苗期不同階段最適合的分辨率開展進一步研究。此外,隨著深度學習技術的快速發展,深度卷積神經網絡對圖像中的抽象特征具有更好的提取和表達能力,對于真實農田復雜背景、不同圖像分辨率、不同獲取設備、不同亮度的圖像都具備很好的魯棒性,實用性良好,這也將成為下一步重點研究方向。

[1]賈彪. 基于計算機視覺技術的棉花長勢監測系統構建[D]. 石河子:石河子大學,2014. Jia Biao. Establishment of System for Monitoring Cotton Growth Based on Computer Vision Technology[D]. Shihezi: Shihezi University, 2014. (in Chinese with English abstract)

[2]孫素云. 基于圖像處理和支持向量機的蘋果樹葉部病害的分類研究[D]. 西安:西安科技大學,2017. Sun Suyun. Classification of Apple Leaf Disease Based on Image Processing and Support Vector Machine[D]. Xi’an: Xi’an University of Science and Technology, 2017. (in Chinese with English abstract)

[3]魏全全. 應用數字圖像技術進行冬油菜氮素營養診斷的初步研究[D]. 武漢:華中農業大學,2016. Wei Quanquan. Preliminary Study on Diagnosing Nitrogen Status of Winter Rapeseed Based on Digital Image Processing Technique[D]. Wuhan: HuaZhong Agricultural University, 2016. (in Chinese with English abstract)

[4]李嵐濤,張萌,任濤,等. 應用數字圖像技術進行水稻氮素營養診斷[J]. 植物營養與肥料學報,2015,21(1):259-268. Li Lantao, Zhang Meng, Ren Tao, et al. Diagnosis of N nutrition of rice using digital image processing technique[J]. Journal of Plant Nutrition and Fertilizers, 2015, 21(1): 259-268. (in Chinese with English abstract)

[5]Burgos-Artizzu X, Angela R, Guijarro M, et al. Real-time image processing for crop/weed discrimination in maize fields[J]. Computers & Electronics in Agriculture, 2011, 75(2): 337-346.

[6]任世龍,宜樹華,陳建軍,等. 基于不同數碼相機和圖像處理方法的高寒草地植被蓋度估算的比較[J]. 草業科學,2014,31(6):1007-1013. Ren Shilong, Yi Shuhua, Chen Jianjun, et al. Comparisons of alpine grassland fractional vegetation cover estimation using different digital cameras and different image analysis methods[J]. Pratacultural Science, 2014, 31(6): 1007-1013. (in Chinese with English abstract)

[7]賈洪雷,王剛,郭明卓,等. 基于機器視覺的玉米植株數量獲取方法與試驗[J]. 農業工程學報,2015,31(3):215-220. Jia Honglei, Wang Gang, Guo Mingzhuo, et al. Methods and experiments of obtaining corn population based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(3): 215-220. (in Chinese with English abstract)

[8]劉濤,孫成明,王力堅,等. 基于圖像處理技術的大田麥穗計數[J]. 農業機械學報,2014,45(2):282-290. Liu Tao, Sun Chengming, Wang Lijian, et al. In-field wheatear counting based on Image processing technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(2): 282-290. (in Chinese with English abstract)

[9]高林,楊貴軍,于海洋,等. 基于無人機高光譜遙感的冬小麥葉面積指數反演[J]. 農業工程學報,2016,32(22):113-120. Gao Lin, Yang Guijun, Yu Haiyang, et al. Retrieving winter wheat leaf area index based on unmanned aerial vehicle hyperspectral remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(22): 113-120. (in Chinese with English abstract)

[10]戴建國,張國順,郭鵬,等. 基于無人機遙感可見光影像的北疆主要農作物分類方法[J]. 農業工程學報,2018,34(18):122-129. Dai Jianguo, Zhang Guoshun, Guo Peng, et al. Classification method of main crops in northern Xinjiang based on UAV visible waveband images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(18): 122-129. (in Chinese with English abstract)

[11]趙必權,丁幼春,蔡曉斌,等. 基于低空無人機遙感技術的油菜機械直播苗期株數識別[J]. 農業工程學報,2017,33(19):115-123. Zhao Biquan, Ding Youchun, Cai Xiaobin, et al. Seedlings number identification of rape planter based on low altitude unmanned aerial vehicles remote sensing technology[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(19): 115-123. (in Chinese with English abstract)

[12]Gn?dinger F, Schmidhalter U. Digital counts of maize plants by unmanned aerial vehicles (UAVs)[J/OL]. Remote Sensing, 2017, 9(6): 544.

[13]劉帥兵,楊貴軍,周成全,等. 基于無人機遙感影像的玉米苗期株數信息提取[J]. 農業工程學報,2018,34(22):69-77. Liu Shuaibing, Yang Guijun, Zhou Chengquan, et al. Extraction of maize seedling number information based on UAV imagery[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(22): 69-77. (in Chinese with English abstract)

[14]陳道穎,張娟,黃國強,等. 一種基于航空可見光圖像的煙草數量統計方法[J]. 湖北農業科學,2017,56(7):1348-1350. Chen Daoying, Zhang Juan, Huang Guoqiang, et al. A statistic method for tobacco based on airborne images[J]. Hubei Agricultural Sciences, 2017, 56(7): 1348-1350. (in Chinese with English abstract)

[15]牛亞曉,張立元,韓文霆,等. 基于無人機遙感與植被指數的冬小麥覆蓋度提取方法[J]. 農業機械學報,2018,49(4):212-221. Niu Yaxiao, Zhang Liyuan, Han Wenting, et al. Fractional vegetation cover extraction method of winter wheat based on UAV remote sensing and vegetation index[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(4): 212-221. (in Chinese with English abstract)

[16]Jin Xiuliang, Liu Shouyang, Baret Frédéric, et al. Estimates of plant density of wheat crops at emergence from very low altitude UAV imagery[J]. Remote Sensing of Environment, 2017, 198: 105-114.

[17]郭鵬,武法東,戴建國,等. 基于無人機可見光影像的農田作物分類方法比較[J]. 農業工程學報,2017,33(13):112-119. Guo Peng, Wu Fadong, Dai Jianguo, et al. Comparison of farmland crop classification methods based on visible light images of unmanned aerial vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(13): 112-119. (in Chinese with English abstract)

[18]Zhao Biquan, Zhang Jian, Yang Chenghai, et al. Rapeseed seedling stand counting and seeding performance evaluation at two early growth stages based on unmanned aerial vehicle imagery[J]. Frontiers in Plant Science, 2018, 9: 1362.

[19]Li Bo, Xu Xiangming, Han Jiwan, et al. The estimation of crop emergence in potatoes by UAV RGB imagery[J]. 2019, 15(1): 15.

[20]Han Liang, Yang Guijun, Dai Huayang, et al. Modeling maize above-ground biomass based on machine learning approaches using UAV remote-sensing data.[J]. Plant Methods, 2019, 15(1): 10.

[21]Bakhshipour A, Jafari A. Evaluation of support vector machine and artificial neural networks in weed detection using shape features[J]. Computers and Electronics in Agriculture, 2018, 145: 153-160.

[22]蘇博妮,化希耀,范振岐. 基于顏色特征的水稻病害圖像分割方法研究[J]. 計算機與數字工程,2018,46(8):1638-1642. Su Boni, Hua Xiyao, Fan Zhenqi. Image segmentation of rice disease based on color features[J]. Computer & Digital Engineering, 2018, 46(8): 1638-1642. (in Chinese with English abstract)

[23]Zheng Yang, Zhu Qibing, Huang Min, et al. Maize and weed classification using color indices with support vector data description in outdoor fields[J]. Computers and Electronics in Agriculture, 2017, 141: 215-222.

[24]Gitelson A, Kaufman Y, Stark R, et al. Novel algorithms for remote estimation of vegetation fraction[J]. Remote Sensing of Environment, 2002, 80(1): 76-87.

[25]汪小欽,王苗苗,王紹強,等. 基于可見光波段無人機遙感的植被信息提取[J]. 農業工程學報,2015,31(5):152-157. Wang Xiaoqin, Wang Miaomiao, Wang Shaoqiang, et al. Extraction of vegetation information from visible unmanned aerial vehicle images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(5): 152-157. (in Chinese with English abstract)

[26]Prasetyo E, Adityo R, Suciati N, et al. Mango leaf classification with boundary moments of centroid contour distances as shape features[C]. Intelligent Technology and Its Applications (ISITIA) 2018 International Seminar on, pp. 2018, 317-320.

[27]Zhao YS, Gong L, Huang YX, et al. Robust tomato recognition for robotic harvesting using feature images fusion[J/OL]. Sensors, 2016, 16(2): 173.

[28]王禮,方陸明,陳珣,等. 基于Lab顏色空間的花朵圖像分割算法[J]. 浙江萬里學院學報,2018,142(3):67-73. Wang Li, Fang Luming, Chen Xun, et al. Flower image segmentation algorithm based on Lab color space[J]. Journal of Zhejiang Wanli University, 2018, 142(3): 67-73. (in Chinese with English abstract)

[29]Wang Fubin, Pan Xingchen. Image segmentation for somatic cell of milk based on niching particle swarm optimization Otsu[J]. Engineering in Agriculture, Environment and Food, 2019, 12(2): 141-149.

[30]Xiao LY , Ouyang H L, Fan C D. An improved Otsu method for threshold segmentation based on set mapping and trapezoid region intercept histogram[J]. Optik, 2019, 196: 106-163.

Extraction of cotton seedling growth information using UAV visible light remote sensing images

Dai Jianguo1,2, Xue Jinli1,2, Zhao Qingzhan1,2, Wang Qiong3, Chen Bing3, Zhang Guoshun1,2, Jiang Nan1,2

(1.832003,; 2.832003,; 3.832003,)

The rapid and accurate seedling situation acquisition is an important prerequisite for farmland fine management, and also the basis for promoting the development of precision agriculture. It was found that UAV remote sensing images combined with machine vision technology had obvious advantages in crop detection in the field. However, current research mainly focused on crops such as corn, wheat, and rape, and only realized the extraction of emergence rate or coverage. In fact, there were few reports on the research of cotton overall seedling situation acquisition. In order to solve the problems of time-consuming and inefficient manual collection of cotton seedling information, this article explored a new method of extracting seedlings based on unmanned aerial vehicles (UAV) visible light remote sensing images. Firstly, cotton images in the 3-4 leaf stage were captured by the UAV equipped with a high-resolution visible light sensor. Meanwhile, the typical images were selected for experimentation after a series of preprocessing operations, such as correction, stitching, and cropping. The separation of cotton from the background (soil, mulch) was a primary prerequisite for obtaining cotton seedling situation information. The segmentation effect of eight color indexes on cotton image were compared and analyzed and the green-blue difference index (GBDI) color index was selected in this paper to realize the segmentation of cotton and background by combining with the Otsu threshold segmentation method because GBDI component was found to have fewer impurities and more complete segmentation. In order to avoid the influence of weed noise on the follow-up experiment, morphology and grid method for weed noise elimination were adopted, and the results showed that the grid method was more effective than the morphological method in removing weeds. A mapping relationship between morphological characteristics and the number of cotton plants was established to estimate the number of cotton. Because conglutinated cotton was difficult to be segmented by morphological operation, 10 morphological features were extracted as candidate variables to establish SVM plant number estimation model. A total of 3710 sample data were obtained in this experiment, 80% of which were randomly selected for classification modeling, while the remaining 20% were used for testing. Based on the person correlation analysis, 6 features whose correlation coefficient more than 0.7 were selected.The model was applied to the whole image to obtain the number of emerging cotton plants in the study area, and then the seedling emergence rate, canopy coverage and evenness of cotton plant growth were calculated, consecutively. The results showed that the classification accuracy of SVM plant number estimation model reached 97.17%, the statistical error ranged from 0.8% to 4.7%, and the average error was 2.52%. The error of the method decreased with the increase of monitoring area, which indicated that the model had better applicability in larger cotton fields. The cotton emergence rate, canopy coverage and growth uniformity were 64.89%, 7.17%, 10.98% respectively. The method based on the UAV visible light image effectively improved the efficiency of cotton field seedling acquisition, and the research results can provide technical support for subsequent cotton field management and fine plant protection.

unmanned aerial vehicle; remote sensing; cotton field; emergence rate; coverage; visible light

戴建國,薛金利,趙慶展,王 瓊,陳 兵,張國順,蔣 楠. 利用無人機可見光遙感影像提取棉花苗情信息[J]. 農業工程學報,2020,36(4):63-71. doi:10.11975/j.issn.1002-6819.2020.04.008 http://www.tcsae.org

Dai Jianguo, Xue Jinli, Zhao Qingzhan, Wang Qiong, Chen Bing, Zhang Guoshun, Jiang Nan.Extraction of cotton seedling growth information using UAV visible light remote sensing images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(4): 63-71. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2020.04.008 http://www.tcsae.org

2019-09-09

2020-01-14

國家自然科學基金資助項目(31460317);自然基金項目(41661089);國家重點研發計劃項目(2017YFB0504203)

戴建國,教授,主要從事農業信息化和遙感技術研究。Email:daijianguo2002@sina.com

10.11975/j.issn.1002-6819.2020.04.008

TP751;S562

A

1002-6819(2020)-04-0063-09

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产精品毛片一区视频播 | 色综合天天娱乐综合网| 一区二区午夜| 色综合热无码热国产| 国产成人福利在线| 欧美精品v日韩精品v国产精品| 精品福利国产| 亚洲资源在线视频| 亚洲 欧美 日韩综合一区| 日本a级免费| 国产精品黄色片| 国产免费高清无需播放器| 精品欧美日韩国产日漫一区不卡| 国产福利小视频在线播放观看| 天天色综网| 爆乳熟妇一区二区三区| 5388国产亚洲欧美在线观看| 亚洲手机在线| 国产高清色视频免费看的网址| 国产99在线| 91色在线观看| 精品国产成人高清在线| 麻豆精品在线播放| 在线视频亚洲色图| 亚洲黄色高清| 97超级碰碰碰碰精品| 在线观看免费AV网| 欧美性色综合网| 亚洲av无码久久无遮挡| 欧美区日韩区| 五月婷婷中文字幕| 中文字幕调教一区二区视频| 国产在线八区| 成人韩免费网站| 亚洲国产亚洲综合在线尤物| 真实国产精品vr专区| 无码福利日韩神码福利片| 97精品国产高清久久久久蜜芽 | a网站在线观看| 国产国产人成免费视频77777 | 亚洲美女高潮久久久久久久| 国产剧情国内精品原创| 欧美无专区| 制服无码网站| 99re在线观看视频| 国产乱人乱偷精品视频a人人澡| 先锋资源久久| 国产18页| 波多野结衣在线se| 秋霞一区二区三区| 一级片免费网站| 久久99国产综合精品1| 中文字幕欧美成人免费| 成AV人片一区二区三区久久| 久久综合AV免费观看| 国产丝袜91| 国产视频入口| 国产亚洲一区二区三区在线| 丁香五月激情图片| 亚洲成人一区二区三区| 亚洲欧洲AV一区二区三区| 亚洲无码电影| 日韩一区精品视频一区二区| 亚洲成AV人手机在线观看网站| 欧美亚洲网| 中文精品久久久久国产网址| 伊人久久婷婷| 亚洲天堂视频在线播放| 综合色婷婷| 日韩欧美色综合| 国产在线专区| 亚洲午夜国产精品无卡| 欧美人在线一区二区三区| 国产一在线观看| 久久情精品国产品免费| 操操操综合网| 亚洲视频四区| 国产91麻豆视频| 久久综合色视频| 最新国产在线| 日韩成人在线一区二区| 国产精品久久精品|