















摘 要:【目的】基于UAV和CNN ResNet 18參數(shù)調(diào)節(jié)的伊犁絹蒿荒漠草地植物識別性能分析。【方法】以集中分布在新疆且受退化威脅較大的伊犁絹蒿(Seriphidium transiliense)荒漠草地為對象,利用低空無人機(jī)遙感平臺搭載多光譜成像儀采集該草地地物信息,選擇卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)ResNet 18模型,設(shè)置40輪和80輪的2組訓(xùn)練輪數(shù),8、16、32、64的4組批量規(guī)模,0.01、0.005、0.001、0.000 5、0.000 1的5組學(xué)習(xí)率3類超參數(shù),對比分析不同參數(shù)設(shè)置下的模型分類性能,探究適合伊犁絹蒿荒漠草地群落主要物種識別的最佳參數(shù)組合。【結(jié)果】初始模型超參數(shù)設(shè)置為訓(xùn)練輪數(shù)40輪、批量規(guī)模8、學(xué)習(xí)率0.001時,伊犁絹蒿群落總體分類精度為83.65%,伊犁絹蒿種群分類精度為84.21%,角果藜(Ceratocarpus arenarius)種群精度為81.15%;通過調(diào)節(jié)模型超參數(shù)(超參數(shù)設(shè)置為練輪數(shù)40輪、批量規(guī)模32、學(xué)習(xí)率0.000 5),伊犁絹蒿群落總體分類精度為83.73%,伊犁絹蒿種群精度為89.18%,角果藜種群精度為83.78%,較初始模型分別提高了0.08%、4.97%和2.63%。【結(jié)論】通過調(diào)節(jié)超參數(shù)可獲得精度高、耗時短、性能穩(wěn)定的伊犁絹蒿荒漠草地植物識別模型。
關(guān)鍵詞:伊犁絹蒿;無人機(jī)遙感;深度學(xué)習(xí);ResNet 18;識別
中圖分類號:S812 文獻(xiàn)標(biāo)志碼:A 文章編號:1001-4330(2024)10-2547-10
收稿日期(Received):2024-03-11
基金項目:國家自然科學(xué)基金項目(31960360)
作者簡介:秦葉康陽(2001-),男,江蘇沛縣人,本科,研究方向為草業(yè)科學(xué),(E-mail)2095782457@qq.com
通訊作者:靳瑰麗(1979-),女,河南蘭考人,教授,博士,碩士生導(dǎo)師,研究方向為草地資源與生態(tài),(E-mail)jguili@126.com
0 引 言
【研究意義】伊犁絹蒿荒漠草地具有明顯的植被低矮、覆蓋度低等荒漠草地群落空間分布特征,且與裸土相間分布,給遙感識別帶來一定的難度。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)ResNet 18模型具有對圖像深層特征信息的提取以及對大數(shù)據(jù)量樣本的學(xué)習(xí)潛力。通過對模型內(nèi)部超參數(shù)調(diào)節(jié),能夠提高模型分類性能,將其用于無人機(jī)(Unnanned aerial vehicle,UAV)遙感影像能實現(xiàn)對地物精確分類。通過前期研究結(jié)果的歸納與總結(jié)顯示,利用遙感圖像信息結(jié)合機(jī)器視覺識別方式的高時效性已得到證實,且由于遙感數(shù)據(jù)具有特征維度高、數(shù)據(jù)量大的特點,采用傳統(tǒng)機(jī)器學(xué)習(xí)(Machine Learning,ML)模型會因人工特征提取而導(dǎo)致識別結(jié)果會受到主觀影響,因此對于草地地物等細(xì)小地物的識別,有文獻(xiàn)開始選擇深度學(xué)習(xí)(Deep Learning,DL)方法進(jìn)行識別研究。【前人研究進(jìn)展】前人通過利用遙感技術(shù)輔以計算機(jī)信息處理結(jié)合人工調(diào)查的方式進(jìn)行該類草地植物遙感識別[1-5],其中馬建等[5]嘗試基于無人機(jī)(Unmanned Aerial Vehicle,UAV)多光譜數(shù)據(jù)并結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和支持向量機(jī)(Support Vector Machine,SVM)兩類分類方法對伊犁絹蒿荒漠草地中伊犁絹蒿(Seriphidium transiliense)、角果藜(Ceratocarpus arenarius)和裸地3類地物進(jìn)行識別,CNN模型的識別精度達(dá)到83.65%。CNN算法具有對圖像深層特征信息提取以及對大數(shù)據(jù)量樣本的學(xué)習(xí)潛力[6],是圖像識別領(lǐng)域中常見的一類模型。隨著CNN的發(fā)展,各種利用卷積算法原理的模型應(yīng)運(yùn)而生,如LeNet 5、AlexNet、VGGNet(Visual Geometry Group)、Google Inceptionn Net和ResNet等,其中ResNet 18是一類通過引入殘差模塊解決深度學(xué)習(xí)網(wǎng)絡(luò)退化問題的模型,該模型具有更深的網(wǎng)絡(luò)層次,并基本解決由此而引發(fā)的梯度消失和梯度爆炸等問題,能夠有效提升模型識別精度[7]。無人機(jī)因其操作的靈活性和圖像數(shù)據(jù)處理的高時效性,將兩者結(jié)合有望于實現(xiàn)對草地植物的精細(xì)識別。在CNN應(yīng)用于圖像識別的具體研究中還發(fā)現(xiàn)通過調(diào)節(jié)模型參數(shù),選擇最佳模型參數(shù),合理優(yōu)化模型,從而能夠提升模型識別精度[8-9]。如汪傳建等[10]基于無人機(jī)可見光及多光譜成像系統(tǒng)并在7月進(jìn)行野外數(shù)據(jù)采集,并結(jié)合CNN,通過參數(shù)優(yōu)化調(diào)整后的卷積神經(jīng)網(wǎng)絡(luò)模型識別,結(jié)果表明,改進(jìn)后的模型可以有效提高識別精度,對3種農(nóng)作物的總體識別精度達(dá)97.75%。徐信羅等[11]基于Faster R-CNN對松材線蟲病害木的識別,通過對模型錨框尺寸的調(diào)節(jié),明顯提升了模型的識別總體精度,由75.64%提升至82.42%。王圓等[9]基于低空無人機(jī)遙感平臺搭載高光譜成像系統(tǒng)對內(nèi)蒙古典型荒漠草地中植被、裸地和標(biāo)記物3類地物進(jìn)行分類識別,通過對模型內(nèi)部超參數(shù)調(diào)節(jié),最終優(yōu)化模型分類精度可達(dá)99.75%。張燕斌等[8]基于無人機(jī)高光譜遙感系統(tǒng)采集內(nèi)蒙古荒漠草原地物信息,結(jié)合3D-ResNet分類模型,通過設(shè)置不同的卷積核數(shù)量對比分析其分類性能,模型優(yōu)化后最終分類精度為97.73%,相比于原始模型有所提升。【本研究切入點】有關(guān)通過對卷積神經(jīng)網(wǎng)絡(luò)模型內(nèi)部超參數(shù)的設(shè)置調(diào)整可以提高模型的分類精度的文獻(xiàn)尚較少。需基于調(diào)節(jié)ResNet 18模型超參數(shù),分析有效提升荒漠草地地物分類精度高、性能穩(wěn)定的識別模型。【擬解決的關(guān)鍵問題】基于前人研究,選擇適于伊犁絹蒿荒漠草地最佳監(jiān)測物候期和飛行高度,調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò)ResNet 18模型訓(xùn)練輪數(shù)、批量規(guī)模和學(xué)習(xí)率3類超參數(shù),對比其分類性能,獲得識別精度高、性能穩(wěn)定的適于伊犁絹蒿荒漠草地主要植物形態(tài)特征和空間分布特征的識別模型。
1 材料與方法
1.1 材 料
1.1.1 研究區(qū)概況
研究區(qū)位于新疆烏魯木齊市米東區(qū)柏楊河鄉(xiāng)(87°52′59″~87°55′13″E,44°00′16″~44°01′20″N),屬于溫帶大陸性荒漠氣候,夏季干旱少雨,冬季寒冷干旱,年均降水量200 mm。該地區(qū)具有典型的荒漠草地植被空間分布特征。植被低矮稀疏呈零星化分布,其優(yōu)勢種為伊犁絹蒿,亞優(yōu)勢種為角果藜。
1.1.2 伊犁絹蒿
根據(jù)2021年荒漠草地氣候及植被生長差異特征和前期草地植物識別工作的研究進(jìn)展可知[5],春季4月下旬伊犁絹蒿處于返青期,葉片生長較快,對光譜的反射率吸收值增加;此時角果藜處于苗期,植被矮小。選擇植株差異較大的時期進(jìn)行識別,能夠顯著提高識別精度。參照前期野外調(diào)查數(shù)據(jù),選擇伊犁絹蒿荒漠草地群落和群落內(nèi)優(yōu)勢種群伊犁絹蒿作為主要識別對象,角果藜和裸地同作為識別對象進(jìn)行數(shù)據(jù)佐證。
1.2 方 法
通過人工踏查,在研究區(qū)內(nèi)共布設(shè)3條樣帶,樣帶間隔約250 m。在每條樣帶內(nèi)分別設(shè)置5個50 m × 50 m的樣地,樣地間隔50 m,共計15個;根據(jù)高光譜儀器的視場范圍,在樣地內(nèi)按照十字交叉法布設(shè)5個0.5 m × 0.6 m的樣方,共計75個。無人機(jī)多光譜和地面高光譜數(shù)據(jù)同時采集。圖1
1.3 數(shù)據(jù)處理
1.3.1 樣方圖像
使用大疆精靈4多光譜版無人機(jī)(Phantom 4 Multispectral)采集數(shù)據(jù)。該無人機(jī)是一體式多光譜成像系統(tǒng)的航測無人機(jī),集成了1個可見光相機(jī)和5個多光譜相機(jī),分別有5個光譜范圍:藍(lán)(Blue)434~466 nm;綠(Green)544~576 nm;紅(Red)634~666 nm;紅邊(Red Edge)714~746 nm;近紅外(NIR)824~866 nm。
選擇晴朗無云的天氣采集數(shù)據(jù)。無人機(jī)沿樣帶方向進(jìn)行飛行拍攝,飛行高度15 m,飛行速度1.0 m/s,拍照模式為等時間拍照,拍照間2.0 s,航向重疊率75%,旁向重疊率75%。圖2
使用大疆智圖對獲取的無人機(jī)影像進(jìn)行影像的畸變校正、輻射校正和拼接,得到5幅單波段圖像。通過人工目視解譯檢查圖像質(zhì)量,剔除因陣風(fēng)引起變形的圖像。利用MATLAB 2023a和ENVI 5.3軟件在無人機(jī)影像中標(biāo)注識別對象,生成訓(xùn)練樣本數(shù)據(jù)。
1.3.2 特征波段篩選
選擇最佳指數(shù)因子法篩選特征波段。將無人機(jī)多光譜成像系統(tǒng)中的5個波段每選3個波段為1組,計算該10種組合的OIF,選擇OIF值最大的一組波段作為最佳特征波段組合。OIF計算公式為[12]:
OIF=∑ni=1Si∑ni=1∑nj=1|Rij|.(1)
式中,OIF為最佳指數(shù)因子,為第i個波段的標(biāo)準(zhǔn)差,表示i,j兩波段的相關(guān)系數(shù)且取絕對值,n為在所有波段中選取的波段數(shù)。
1.3.3 ResNet 18模型的構(gòu)建
CNN ResNet 18模型是CNN模型中用于解決深度網(wǎng)絡(luò)退化問題而研究出的新型模型[13],引入了殘差學(xué)習(xí)單元[14],并且通過對模型超參數(shù)的選擇和調(diào)節(jié)能夠有效的選擇適用于不同研究對象的穩(wěn)定模型結(jié)構(gòu),進(jìn)一步達(dá)到滿意的識別結(jié)果。
構(gòu)建基于多光譜圖像采集系統(tǒng)的CNN模型,所采集的圖像經(jīng)特征波段選擇后依據(jù)樣方大小對影像進(jìn)行裁剪,裁剪成224×224像素大小進(jìn)行訓(xùn)練,研究樣本總量為696,其中訓(xùn)練集為557,驗證集為70,測試集為69。
主要調(diào)節(jié)的超參數(shù)有訓(xùn)練輪數(shù):40輪、80輪;批量規(guī)模:8、16、32、64和學(xué)習(xí)率:0.1、0.01、0.005、0.001、0.000 5、0.000 1,其中學(xué)習(xí)率選擇在正式訓(xùn)練開始前對學(xué)習(xí)率設(shè)置為0.1進(jìn)行預(yù)測試,模型訓(xùn)練效果不佳,無法收斂且運(yùn)行耗時過長,因此不選擇學(xué)習(xí)率0.1作為參數(shù)設(shè)置組調(diào)試。
其中,初始模型參數(shù)的設(shè)置為:學(xué)習(xí)率0.001,批量規(guī)模8,訓(xùn)練輪數(shù)40輪,經(jīng)過5層卷積和5層池化后,經(jīng)2層全連接層后輸出[7]。在初始模型設(shè)置的超參數(shù)組合基礎(chǔ)上,以分步調(diào)節(jié)超參數(shù)的方式,按訓(xùn)練輪數(shù)、批量規(guī)模和學(xué)習(xí)率的順序調(diào)節(jié),每一組超參數(shù)的設(shè)置都是基于初始模型中其他2類超參數(shù)不變的條件下進(jìn)行調(diào)試,通過對比分析不同超參數(shù)設(shè)置下的模型識別性能,篩選識別模型性能穩(wěn)定、精度高和耗時較短的模型超參數(shù)組合。表1
1.3.4 精度評價
采用測試準(zhǔn)確率和總體分類精度(Overall accuracy,OA)作為精度評價指標(biāo),對分類結(jié)果進(jìn)行分析并評價模型性能[15]。其中,總體分類精度計算公式為:
OA=∑ni=1NiiN.(2)
式中,N代表總樣本數(shù),k為總類別數(shù),Nii為被分到正確類別的樣本數(shù)。
2 結(jié)果與分析
2.1 初始模型分類可視化準(zhǔn)確率
研究表明,初始模型訓(xùn)練輪數(shù)為40、批量規(guī)模為8、學(xué)習(xí)率為0.001,總體分類精度為83.65%,其中,伊犁絹蒿測試準(zhǔn)確率為84.21%,角果藜的為81.15%,裸地的為86.41%。圖3
2.2 模型的超參數(shù)優(yōu)化
2.2.1 不同訓(xùn)練輪數(shù)對識別的影響
研究表明,在初始模型其他參數(shù)不變條件下,設(shè)置訓(xùn)練輪數(shù)為40輪和80輪進(jìn)行訓(xùn)練得到不同訓(xùn)練輪數(shù)的的識別精度。隨訓(xùn)練輪數(shù)增加,準(zhǔn)確率在前3輪上升較快,測試集在5輪時精度就已經(jīng)超過78%,訓(xùn)練進(jìn)行10輪收斂后準(zhǔn)確率一直維持在77%~81%,模型在訓(xùn)練輪數(shù)為40輪時總體分類精度為83.65%,伊犁絹蒿識別精度為84.21%,角果藜和裸地的識別精度分別為81.15%和86.41%,模型精度變化曲線已達(dá)到穩(wěn)定狀態(tài)。當(dāng)訓(xùn)練輪數(shù)設(shè)置為80輪時,模型總體分類精度為82.51%,伊犁絹蒿和角果藜的識別精度均低于40輪時的精度。之后的訓(xùn)練中選擇固定的訓(xùn)練輪數(shù)40輪。表2,圖4
2.2.2 不同批量規(guī)模對識別的影響
研究表明,在選擇訓(xùn)練輪數(shù)為40輪的條件下,選取批量規(guī)模依次為8、16、32和64,對比模型在不同批量規(guī)模條件下的識別精度。在保持學(xué)習(xí)率為0.001的條件下,不同批量規(guī)模的總體分類精度以及各類目標(biāo)分類精度相對較為穩(wěn)定。其中伊犁絹蒿的分類精度在批量規(guī)模16時精度最高,隨批量規(guī)模的增加呈先增加后下降的趨勢;角果藜的分類精度在批量規(guī)模64時精度最高,隨批量規(guī)模的增加呈增加趨勢;裸地的分類精度在批量規(guī)模8時精度最高,隨批量規(guī)模的增加呈高-低-高-低的趨勢。選擇在4組批量規(guī)模中總體分類精度最高的一組批量規(guī)模值32作為優(yōu)化模型的批量規(guī)模。表3,圖5
2.2.3 不同學(xué)習(xí)率對識別的影響
研究表明,在其他初始模型參數(shù)不變的條件下,通過改變學(xué)習(xí)率來測試模型的識別表現(xiàn),學(xué)習(xí)率分別設(shè)置為0.01、0.005、0.001、0.000 5和0.000 1,整體表現(xiàn)為模型總體分類精度隨學(xué)習(xí)率降低呈逐漸上升的趨勢。當(dāng)學(xué)習(xí)率由0.01調(diào)整至0.000 1時,其模型識別精度增加,總體分類精度由81.29%提升至85.12%,且整體模型性能較好;當(dāng)學(xué)習(xí)率由0.000 5不斷調(diào)整至0.000 1時,其模型總體分類精度變化不顯著,精度由82.40%提升至84.26%,角果藜識別精度由79.33%提升至86.12%,伊犁絹蒿識別精度由86.42%下降至84.21%。表4,圖6
學(xué)習(xí)率為0.000 5和0.000 1時模型曲線平滑,擬合效果最佳,在前15輪內(nèi)達(dá)到了83%~84%,接近最終分類精度。其中學(xué)習(xí)率為0.000 1時的伊犁絹蒿分類精度相比于學(xué)習(xí)率為0.000 5時下降了8.29%,而總體分類精度雖相比于學(xué)習(xí)率為0.000 5時提升了0.86%,學(xué)習(xí)率為0.000 5時模型性能稍優(yōu)于學(xué)習(xí)率為0.000 1時的模型性能。因此,選擇學(xué)習(xí)率0.000 5作為優(yōu)化模型的超參數(shù)。表5,圖7
2.3 模型優(yōu)化及識別精度
研究表明,選擇設(shè)置訓(xùn)練輪數(shù)為40輪,批量規(guī)模為32,學(xué)習(xí)率為0.000 5時為最終優(yōu)化模型的超參數(shù)。在此設(shè)置下的模型總體分類精度(OA)為83.73%,伊犁絹蒿的測試準(zhǔn)確率為89.18%,角果藜的測試準(zhǔn)確率為83.78%,相比初始模型分別提高了0.08%、4.97%、2.63%,裸地的測試準(zhǔn)確率為80.23%,相比初始模型降低了6.18%。圖8,圖9
3 討 論
3.1 深度學(xué)習(xí)其原理上是模仿人類或動物的神經(jīng)網(wǎng)絡(luò)系統(tǒng),使其學(xué)習(xí)模式被運(yùn)用于機(jī)器之上,而基于機(jī)器學(xué)習(xí)的圖像識別工作也區(qū)別與傳統(tǒng)的人類肉眼識別,不會產(chǎn)生視覺疲勞,并且避免因主觀因素而對識別結(jié)果產(chǎn)生的影響,因而可完成高效、長周期的識別工作[16]。ResNet 18模型作為深度學(xué)習(xí)中的代表模型,其被用于不同語境下的圖像分類已經(jīng)較為廣泛[17-19]。研究從模型超參數(shù)調(diào)節(jié)來優(yōu)化模型分類性能,使其在樣本數(shù)量固定、系統(tǒng)運(yùn)行條件固定和模型種類不變的條件下,僅通過改變模型超參數(shù)來揭示模型自身識別性能的差異。王圓和畢玉革[9]通過調(diào)整學(xué)習(xí)率、批量規(guī)模和訓(xùn)練輪數(shù)等超參數(shù)大小測試ResNet 18模型對內(nèi)蒙古荒漠草地地物的分類性能,最終確定最優(yōu)模型超參數(shù)組合,其研究方法和結(jié)果與試驗研究相似,通過對不同超參數(shù)的調(diào)節(jié),模型綜合分類性能有所提升。
3.2 正確設(shè)置訓(xùn)練輪數(shù)可以避免因訓(xùn)練輪數(shù)過大造成無效訓(xùn)練時間增多,或者因訓(xùn)練輪數(shù)過少造成訓(xùn)練結(jié)果未達(dá)到收斂效果就結(jié)束。通過試驗研究對模型參數(shù)調(diào)節(jié)后,經(jīng)模型綜合性能分析及評價可以發(fā)現(xiàn)通過模型超參數(shù)改變從而影響模型識別性能是多因素綜合作用結(jié)果,其中訓(xùn)練輪數(shù)和批量規(guī)模是控制模型運(yùn)行時間和處理效率的關(guān)鍵因素。較多文獻(xiàn)[5, 8-9, 20]根據(jù)自己樣本數(shù)量規(guī)模而選擇合適的批量規(guī)模,與試驗研究結(jié)果相似,均通過參數(shù)選擇節(jié)約了模型運(yùn)行時間,但試驗研究對于選擇8、16、32、64 4組批量規(guī)模發(fā)現(xiàn)對于模型分類性能尤其是識別精度并未隨批量規(guī)模增大而得到改善,原因是由于試驗樣本數(shù)量過少,無法滿足較大批量規(guī)模的迭代訓(xùn)練,因此試驗研究相較于其他使用深度學(xué)習(xí)方法的研究有一定的差距,在之后應(yīng)考慮擴(kuò)充圖像樣本數(shù)量。
3.3 研究調(diào)節(jié)學(xué)習(xí)率的過程中,參照常規(guī)的學(xué)習(xí)率調(diào)節(jié)方式:初始模型設(shè)置單一學(xué)習(xí)率梯度衰減[5, 20-21]和調(diào)節(jié)組設(shè)置多組學(xué)習(xí)率(常見的參數(shù)設(shè)置范圍內(nèi)選擇)[9],且試驗研究分析對于學(xué)習(xí)率設(shè)置為0.1時的模型運(yùn)行結(jié)果,出現(xiàn)模型訓(xùn)練極不穩(wěn)定、無法完成收斂和耗時過長等現(xiàn)象,因此在調(diào)試學(xué)習(xí)率時不選擇學(xué)習(xí)率0.1作為參數(shù)設(shè)置組進(jìn)行試驗,研究結(jié)果表明通過學(xué)習(xí)率調(diào)節(jié)可以提升模型對荒漠草地植物識別性能。梁俊歡等[21]基于Faster-RCNN模型對白喉烏頭(Aconitum leucostomum)進(jìn)行識別,通過對錨框尺寸和學(xué)習(xí)率的調(diào)節(jié)改進(jìn)模型識別效果,通過調(diào)整學(xué)習(xí)率,學(xué)習(xí)率增大反而識別精度最優(yōu),與試驗研究結(jié)果相反,研究調(diào)節(jié)學(xué)習(xí)率隨學(xué)習(xí)率的減小整體模型綜合性能均有所提升,得到了較好的模型識別效果;張燕斌等[8]基于CNN 3D-ResNet 18模型荒漠草原地物識別中選擇學(xué)習(xí)率與試驗研究最終優(yōu)化模型學(xué)習(xí)率參數(shù)均為0.0005,且均得到了較好的識別效果;馬永建[22]、王青青等[23]研究結(jié)果與本研究相同,均通過調(diào)整學(xué)習(xí)率大小而改善模型的收斂效果、提升了識別精度。研究基于初始模型參數(shù)組合的基礎(chǔ)上對參數(shù)進(jìn)行分步調(diào)試,通過評價模型綜合性能以確定最終優(yōu)化模型參數(shù)組合,最終研究結(jié)果表明基于CNN ResNet 18模型的超參數(shù)調(diào)節(jié)可有效提升模型識別性能。
4 結(jié) 論
基于CNN ResNet 18模型超參數(shù)調(diào)節(jié),伊犁絹蒿和總體分類精度隨訓(xùn)練輪數(shù)增加呈下降趨勢,且耗時增加;通過調(diào)節(jié)批量規(guī)模,總體分類精度在批量規(guī)模為32時達(dá)到最佳;隨著設(shè)置學(xué)習(xí)率的減小,總體分類精度逐漸增大,并于學(xué)習(xí)率為0.000 5時模型分類性能達(dá)到最佳。最優(yōu)模型超參數(shù)組合為訓(xùn)練輪數(shù)為40輪、批量規(guī)模為32、學(xué)習(xí)率為0.000 5時模型的分類結(jié)果最優(yōu),其總體分類精度為83.73%,伊犁絹蒿精度為89.18%,較初始模型均有所提升,模型運(yùn)行穩(wěn)定,耗時最少。
參考文獻(xiàn)(References)
[1]靳瑰麗, 魏秀紅, 范燕敏, 等. 退化伊犁絹蒿荒漠草地群落特征與地面光譜反射率相關(guān)性分析[J]. 草地學(xué)報, 2017, 25(2): 282-289.
JIN Guili, WEI Xiuhong, FAN Yanmin, et al. Correlation between community characteristics and spectral reflectance of the ground on degradedSeriphidium transiliense desert grassland[J]. Acta Agrestia Sinica, 2017, 25(2): 282-289.
[2] 武紅旗, 范燕敏, 靳瑰麗, 等. 伊犁絹蒿荒漠草地植物光譜特征[J]. 草業(yè)科學(xué), 2019, 36(7): 1765-1773.
WU Hongqi, FAN Yanmin, JIN Guili, et al. Spectral characteristics of main plant inSeriphidium transiliense desert grassland[J]. Pratacultural Science, 2019, 36(7): 1765-1773.
[3] 韓萬強(qiáng), 靳瑰麗, 岳永寰, 等. 基于高光譜成像技術(shù)的伊犁絹蒿荒漠草地主要植物識別參數(shù)的篩選[J]. 草地學(xué)報, 2020, 28(4): 1153-1163.
HAN Wanqiang, JIN Guili, YUE Yonghuan, et al. Screening of identification parameters of main plants onSeriphidium transiliense desert frassland based on hyperspectral imaging technology[J]. Acta Agrestia Sinica, 2020, 28(4): 1153-1163.
[4] 楊紅艷, 杜健民, 王圓, 等. 基于無人機(jī)遙感與卷積神經(jīng)網(wǎng)絡(luò)的草原物種分類方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2019, 50(4): 188-195.
YANG Hongyan, DU Jianmin, WANG Yuan, et al. Classification method of grassland species based on unmanned aerial vehicle remote sensing and convolutional neural network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(4): 188-195.
[5] 馬建, 劉文昊, 靳瑰麗, 等. 基于CNN和SVM的無人機(jī)多光譜遙感草地植物識別[J]. 草地學(xué)報, 2022, 30(11): 3165-3174.
MA Jian, LIU Wenhao, JIN Guili, et al. Identification of grassland plants by UAV multispectral remote sensing based on CNN and SVM[J]. Acta Agrestia Sinica, 2022, 30(11): 3165-3174.
[6] 盧宏濤, 張秦川. 深度卷積神經(jīng)網(wǎng)絡(luò)在計算機(jī)視覺中的應(yīng)用研究綜述[J]. 數(shù)據(jù)采集與處理, 2016, 31(1): 1-17.
LU Hongtao, ZHANG Qinchuan. Applications of deep convolutional neural network in computer vision[J]. Journal of Data Acquisition and Processing, 2016, 31(1): 1-17.
[7] He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE, 2016: 770-778.
[8] 張燕斌, 杜健民, 王圓, 等. 基于無人機(jī)高光譜遙感和3D-ResNet的荒漠草原地物分類[J]. 中國農(nóng)機(jī)化學(xué)報, 2022, 43(4): 66-73.
ZHANG Yanbin, DU Jianmin, WANG Yuan, et al. Terrain classification in desert steppe based on UAV hyperspectral remote sensing and 3D-ResNet[J]. Journal of Chinese Agricultural Mechanization, 2022, 43(4): 66-73.
[9] 王圓, 畢玉革. 基于無人機(jī)高光譜的荒漠草原地物精簡學(xué)習(xí)分類模型[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2022, 53(11): 236-243.
WANG Yuan, BI Yuge. Simplified learning classification model based on UAV hyperspectral remote sensing for desert steppe terrain[J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(11): 236-243.
[10] 汪傳建, 趙慶展, 馬永建, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的無人機(jī)遙感農(nóng)作物分類[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2019, 50(11): 161-168.
WANG Chuanjian, ZHAO Qingzhan, MA Yongjian, et al. Crop identification of drone remote sensing based on convolutional neural network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(11): 161-168.
[11] 徐信羅, 陶歡, 李存軍, 等. 基于Faster R-CNN的松材線蟲病受害木識別與定位[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2020, 51(7): 228-236.
XU Xinluo, TAO Huan, LI Cunjun, et al. Detection and location of pine wilt disease induced dead pine trees based on faster R-CNN[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(7): 228-236.
[12] Ghiyamat A, Shafri H Z M, Amouzad Mahdiraji G, et al. Hyperspectral discrimination of tree species with different classifications using single- and multiple-endmember[J]. International Journal of Applied Earth Observation and Geoinformation, 2013, 23: 177-191.
[13] 史冰瑩, 李佳琦, 張磊, 等. 基于CNN的農(nóng)作物病蟲害圖像識別模型[J]. 計算機(jī)系統(tǒng)應(yīng)用, 2020, 29(6): 89-96.
SHI Bingying, LI Jiaqi, ZHANG Lei, et al. Recognition model of crop pests and diseases images based on CNN[J]. Computer Systems amp; Applications, 2020, 29(6): 89-96.
[14] Arun P V, Buddhiraju K M, Porwal A, et al. CNN based spectral super-resolution of remote sensing images[J]. Signal Processing, 2020, 169: 107394.
[15] 李恒凱, 王利娟, 肖松松. 基于多源數(shù)據(jù)的南方丘陵山地土地利用隨機(jī)森林分類[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(7): 244-251.
LI Hengkai, WANG Lijuan, XIAO Songsong. Random forest classification of land use in hilly and mountaineous areas of Southern China using multi-source remote sensing data[J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(7): 244-251.
[16] 陳之射, 尹芳曄. 機(jī)器視覺和人工智能的現(xiàn)代化發(fā)展分析[J]. 中國新通信, 2023, 25(2): 36-38.
CHEN Zhishe, YIN Fangye. Analysis of modern development of machine vision and artificial intelligence[J]. China New Telecommunications, 2023, 25(2): 36-38.
[17] 張文景, 蔣澤中, 秦立峰. 基于弱監(jiān)督下改進(jìn)的CBAM-ResNet18模型識別蘋果多種葉部病害[J]. 智慧農(nóng)業(yè)(中英文), 2023, 5(1): 111-121.
ZHANG Wenjing, JIANG Zezhong, QIN Lifeng. Identifying multiple apple leaf diseases based on the improved CBAM-ResNet18 model under weak supervision[J]. Smart Agriculture, 2023, 5(1): 111-121.
[18] 姜紅花, 楊祥海, 丁睿柔, 等. 基于改進(jìn)ResNet18的蘋果葉部病害多分類算法研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2023, 54(4): 295-303.
JIANG Honghua, YANG Xianghai, DING Ruirou, et al. Identification of apple leaf diseases based on improved ResNet18[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(4): 295-303.
[19] 牛智有, 于重洋, 吳志陶, 等. 基于改進(jìn)ResNet18模型的飼料原料種類識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2023, 54(2): 378-385, 402.
NIU Zhiyou, YU Chongyang, WU Zhitao, et al. Identification of feed raw material type based on improved ResNet18 model[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(2): 378-385, 402.
[20] 高宏元, 高新華, 馮琦勝, 等. 基于深度學(xué)習(xí)的天然草地植物物種識別方法[J]. 草業(yè)科學(xué), 2020, 37(9): 1931-1939.
GAO Hongyuan, GAO Xinhua, FENG Qisheng, et al. Approach to plant species identification in natural grasslands based on deep learning[J]. Pratacultural Science, 2020, 37(9): 1931-1939.
[21] 梁俊歡, 董巒, 孫宗玖, 等. 基于改進(jìn)Faster-RCNN模型的無人機(jī)影像白喉烏頭物種的檢測[J]. 新疆農(nóng)業(yè)大學(xué)學(xué)報, 2022, 45(4): 323-329.
LIANG Junhuan, DONG Luan, SUN Zongjiu, et al. Detection ofAconitum leucostomum species in UAV images based on improved faster-RCNN model[J]. Journal of Xinjiang Agricultural University, 2022, 45(4): 323-329.
[22] 馬永建. 基于CNN的高分辨率遙感影像典型農(nóng)作物分類方法研究[D]. 石河子: 石河子大學(xué), 2020.
MA Yongjian. Study on Typical Crops Classification with High-resolution Remote Sensing Images Based on CNN[D]. Shihezi: Shihezi University, 2020.
[23] 王青青, 董能峰, 楊怡, 等. 基于圖像處理和深度學(xué)習(xí)的中藥材鑒別關(guān)鍵技術(shù)[J]. 自動化與儀器儀表, 2023,(1): 30-35.
WANG Qingqing, DONG Nengfeng, YANG Yi, et al. Key TCM identification techniques based on image processing and deep learning[J]. Automation amp; Instrumentation, 2023,(1): 30-35.
Identification of main plants in desert grassland Seriphidium transiliense based on UAV remote sensing and CNN ResNet 18
QIN Yekangyang, LI Jiaxin, JIN Guili, LIU Wenhao, MA Jian, LI Wenxiong, CHEN Mentian
(Xinjiang Key Laboratory of Grassland Resources and Ecology/Key Laboratory of Grassland Resources and Ecology of Western Arid Region, Ministry of Education/College of Grassland Science, Xinjiang Agricultural University, Urumqi 830052, China)
Abstract:【Objective】 Identification of main plants in desert grassland Seriphidium transiliense based on UAV remote sensing and CNN ResNet 18.【Methods】 In this paper, the Seriphidium transiliense desert grassland, which was concentrated in Xinjiang and at the forefront of degradation, was taken as the research object. The low-altitude UAV remote sensing platform was equipped with a multispectral imager to collect grassland feature information. The ResNet 18 classical model in the deep learning model was selected, too. By setting two groups of training rounds of 40 rounds and 80 rounds, four groups of batch sizes of 8, 16, 32, 64 and five groups of learning rates of 0.01, 0.005, 0.001, 0.000,5, 0.000,1, the model classification performances under different parameter settings were compared and analyzed in order to explore the best parameters for the identification of main species in S. transiliense desert grassland community.【Results】 The results showed that the overall classification accuracy of S. transiliense community was 83.65% and the classification accuracy of S. transiliense population was 84.21% and the population accuracy of arenarius was 81.15%, when the initial model hyper-parameter was set to 40 training rounds, 8 batch sizes and 0.001 learning rate. By adjusting the model hyper-parameters (the hyper-parameters were set to 40 rounds, the batch size was 32, and the learning rate was 0.0005), the overall classification accuracy of S. transiliense community was 83.73% and the population accuracy of arenarius was 83.78%, and the population accuracy of S. transiliense was 89.18%, which was 0.08% and 4.97% higher than the initial model, respectively.【Conclusion】 The finding shows that the identification model with high precision, short time and stable performance can be obtained by adjusting the hyper-parameters.
Key words:Seriphidium transiliense; UAV remote sensing; deep learning; ResNet 18; identification
Fund project:Project of National Natural Science Foundation of China (31960360)
Correspondence author:JIN Guili (1979-), female, from Lankao,Henan,professor, marster supervisor,Ph.D., research direction:grassland resources and ecology, (E-mail) jguili@126.com