















摘 要:地上生物量反映植被生長狀況和碳儲量的大小,該參數的準確性對于碳循環研究以及減緩氣候變化至關重要。以芭蕉樹為研究對象,提出一種利用深度學習實現芭蕉樹冠檢測分割和地上生物量估算的新思路。首先,以深度學習算法YOLOv8s-seg為基礎框架改進,并應用無人機遙感影像,實現芭蕉樹冠檢測分割;然后,提取芭蕉樹冠覆蓋面積,結合實測地上生物量數據進行擬合,使用線性回歸、K最近鄰算法(K-NearestNeighbor ,KNN)、支持向量機、隨機森林和XGBoost(eXtreme Gradient Boosting)方法分別建立芭蕉地上生物量估算模型;最后,對模型估測結果進行比較分析確定最優模型。結果表明,改進后的YOLOv8s-seg模型可以快速有效地對芭蕉樹冠進行檢測分割。通過驗證發現,基于XGBoost的地上生物量估算模型擬合效果和預測誤差優于其他模型,決定系數(R2)為0.881 4,均方根誤差(RMSE)為231.37 kg,平均絕對誤差(MAE)為140.47 kg,能夠更準確地預測地上生物量,更適于進行芭蕉地上生物量的反演,進一步驗證了利用無人機和深度學習方法提取樹冠信息實現估算地上生物量的可行性。
關鍵詞:YOLOv8s-seg; 無人機遙感; 地上生物量; 樹冠覆蓋面積; XGBoost
中圖分類號:S758.5 文獻標識碼:A DOI:10.7525/j.issn.1006-8023.2024.05.015
Canopy Segmentation and Biomass Estimation Based on Deep Learning
Abstract: Aboveground biomass reflects the growth of vegetation and the magnitude of carbon storage, and the accuracy of this parameter is crucial for carbon cycle research and climate change mitigation. In this study, a new idea of using deep learning to realize banana canopy detection segmentation and aboveground biomass estimation was proposed. Firstly, the deep learning algorithm YOLOv8s-seg was used as the basic framework improvement, and UAV remote sensing images were applied to realize banana canopy detection segmentation. Then, the canopy coverage area of banana trees was extracted, combined with the measured aboveground biomass data for fitting, and the aboveground biomass estimation model of banana was established by linear regression, K-Nearest Neighbor (KNN), support vector machine, random forest and XGBoost (eXtreme Gradient Boosting). Finally, the model estimation results were compared and analyzed to determine the optimal model. The results showed that the improved YOLOv8s-seg model can quickly and effectively detect and segment banana canopies. Through verification, it was found that the fitting effect and prediction error of the aboveground biomass estimation model based on XGBoost were better than those of other models, with R2 of 0.881 4, root mean square error (RMSE) of 231.37 kg, and mean absolute error (MAE) of 140.47 kg, which could predict the aboveground biomass more accurately and was more suitable for the inversion of the aboveground biomass of bananas, which further verified the feasibility of using UAV and deep learning methods to extract canopy information to estimate the aboveground biomass.
Keywords: YOLOv8s-seg; UAV remote sensing; aboveground biomass; canopy coverage area; XGBoost
0 引言
植被生物量是衡量生態系統健康和生產力的重要指標,也是進行碳循環碳儲量研究的基礎[1],主要是指單位面積內植被的根、莖、葉、花、果實、種子和調落物等的干質量總量[2],通常示為kg/m2或 t/hm2。植被生物量包括地上生物量(Above-Ground Biomass,AGB)和地下生物量(Below-Ground Biomass,BGB),其中,地上生物量在植被生物量占較大比重[3],因此,準確估算植被的地上生物量,對于了解生態系統中碳儲存和分配情況,對于生態系統健康管理、改善區域生態環境、優化生態工程布局以及全球碳平衡具有重要意義,同時為氣候變化研究提供重要的數據支持,為碳達峰及碳中和目標的實現提供重要依據[4-5]。
傳統的地上生物量估算方法主要依賴人工采樣和實地調查的稱重測量,這種方法雖然精度高,但費時費力且工作效率低,對植被有一定的破壞性,僅適用小范圍,在大尺度生物量測量上存在一定的局限性[6]。隨著地理信息系統的飛速發展,采用遙感技術和計算機視覺技術對植被地上生物量進行無損估算已成為一種新的研究方法,主要分為2類:一類是利用相關遙感衍生變量數據,如植被指數、溫度參數和紋理特征等來建立與地上生物量估算模型[7-9];另一類是通過獲取植被表型信息包括植被高度、胸徑、冠層覆蓋度和葉面積指數等,分析與植被地上生物量之間的關系,構建生物量估算模型[10-12]。
雖然可以從遙感數據中計算出許多特征信息,但大量特征的提取是一項繁瑣的任務,近年來,越來越多的學者將遙感技術與深度學習結合起來[13-14],為實現植被地上生物量的無損監測提供參考依據。國內外已有學者使用Mask R-CNN算法實現不同目標植被的檢測分割[15-16],這種方法雖然在分割精度上有不錯的效果但受限于復雜場景。受單階段分割模型YOLACT[17]的影響,Mubashiru[18]提出了一種輕量級的YOLOv5算法,從4種特征相似的植物中準確分割果實,對復雜多變的環境具有魯棒性,并且能夠快速、準確地部署在低功耗的計算平臺上。雖然該方法獲得了更快的分割速度,但仍需要進一步優化分割的精度。Yue等[19]提出改進的YOLOv8s-Seg網絡,對番茄果實進行實時有效的分割,為番茄的健康監測和智能采收提供了技術支持。
芭蕉作為一種重要的經濟作物,在許多熱帶和亞熱帶地區廣泛種植,但是目前關于芭蕉樹冠分割和地上生物量估算的相關研究還比較少。因此,本研究以芭蕉作為研究對象,提出一種利用深度學習實現芭蕉樹冠有效分割和地上生物量估算的新思路,通過改進YOLOv8s-seg算法有效地從遙感影像中提取樹冠信息,利用不同方法建立樹冠覆蓋面積-地上生物量模型,找到適合芭蕉的地上生物量估算模型,為芭蕉的撫育管理和資源有效利用提供科學依據。
1 研究區域與數據
1.1 研究區域概況
該研究數據來源于公開數據集森林碳儲量基準(ReforesTree)數據集[20],該數據集包含了厄瓜多爾農林業6個站點的高分辨率無人機正射遙感影像以及人工實地采集的6個站點的樹木數據。研究區域如圖1所示,每個站點約0.5 hm2,主要包括芭蕉樹和可可樹,種植于2016—2019年。主要的采集數據包括胸徑、林分年、立地ID、樹種、緯度、經度和高度信息。無人機空間分辨率為2 cm。
1.2 芭蕉樹冠標注
為確保標注結果與影像的完整信息一致,本研究使用遙感處理軟件ENVI對研究區域中無人機采集的2塊樣地影像中的芭蕉樹冠進行標注,用于芭蕉樹冠分割模型的構建。通過目視解譯手動勾勒原始大尺寸遙感影像中的芭蕉樹冠,并將其轉換為背景為0、芭蕉樹冠為255的二值掩碼圖像,以便在標注過程中保留和捕捉影像的完整信息和上下文,標注結果如圖2所示。將原始遙感影像數據以及標注好的芭蕉樹冠影像統一裁剪為640×640大小像素。先標注后裁剪的目的是保持標注的準確性,利用更全面和豐富的影像信息進行后續模型的訓練和分析。如果直接對裁剪后的小尺寸圖像進行標注,會導致信息的丟失和片面性,使得標注信息無法準確地對應到原始大尺寸影像中,從而影響標注的準確性。將制作好的芭蕉樹冠數據集按照7∶2∶1劃分為訓練集、驗證集和測試集,分別用于芭蕉樹冠分割模型的訓練、驗證與測試。
2 研究方法
在整個芭蕉地上生物量的估算過程包括樹冠信息提取、回歸建模和精度評估3個步驟。首先,在YOLOv8s-seg基礎上,通過引入EMA(Efficient Multi-Scale Attention)高效多尺度注意力模塊對芭蕉樹冠進行檢測分割,提取芭蕉樹冠的信息,包括樹冠的覆蓋面積和樹冠覆蓋率。然后,采用線性回歸、K最近鄰算法(K-NearestNeighbor,KNN)、支持向量機、隨機森林和XGBoost(eXtreme Gradient Boosting)5種回歸建模方法,構建基于芭蕉樹冠覆蓋面積的地上生物量的估算模型。最后,根據評價指標對所建立回歸模型的預測精度進行評估。研究技術路線如圖3所示。
2.1 高效多尺度注意力機制
注意力機制本質上類似于人類的注意力,都能夠從眾多信息里選擇性地關注當前任務場景中的關鍵信息。通過引入注意力機制,為輸入數據的不同片段分配不同的權重來促進網絡模型的學習過程,從而使模型能夠優先考慮重要信息并增強其性能和泛化能力。
EMA(Efficient Multi-Scale Attention)高效多尺度注意力模塊[21]在保留通道信息的基礎上,將部分通道轉化為批量維度,并將通道維度分組為多個子特征,在降低計算成本的同時有效保留通道特定信息,確保使空間語義特征均勻分布在每個特征組中。EMA模塊采用并行處理結構結合跨空間學習,將2個1×1分支和3×3分支并行放置來提取特征圖的注意力權重,實現多尺度的特征聚合,有效減少網絡深度。在1×1分支中,利用2個一維全局平均池化操作沿x和y 2個空間方向對通道進行編碼,然后將沿圖像垂直方向的2個編碼特征連接起來,共享1×1卷積層,再拆分1×1卷積為2個向量之后應用非線性Sigmoid函數擬合生成注意力權重。并行地,3×3分支使用3×3對分組輸入特征進行卷積運算以擴大特征空間。利用二維全局平均池化操作對每個分支的輸出采用Softmax函數進行編碼,最后,通過對前面提到的并行處理階段的結果進行矩陣點積運算,在同一處理階段采集不同尺度的空間信息。EMA模塊結構如圖4所示,G代表通道維度的G個子特征組;C代表輸入通道數;H、W代表輸入特征圖的高和寬;//代表并行分支。
2.2 基于YOLOv8s-seg的樹冠檢測分割
傳統的語義分割通常是基于像素級別的標注數據,通過對每個像素進行分類,來實現圖像的語義分割[14,22],考慮到分割性能和輕量化的要求,本研究對芭蕉樹冠的檢測分割選用YOLOv8s-seg為基線模型,并在此基礎上加以改進。YOLOv8s-seg模型是YOLOv8目標檢測模型的擴展,將目標檢測和語義分割的任務結合在一個模型中,利用目標檢測的信息準確地定位和識別圖像中的物體,在輸出目標檢測結果的同時輸出對應的語義分割結果,這種結合大大提高模型的分割性能和效率。
YOLOv8s-seg主要由骨干網絡Backbone、頸部網絡Neck和頭部Head組成,其中Backbone由多個Conv模塊、C2f模塊和1個空間金字塔池化融合(SPPF)模塊構成,負責從輸入圖像中提取不同尺寸的特征,Neck將Backbone部分的3個特征層提取到的不同尺度特征信息進行融合,并將這些特征傳遞給Head,進行最終的回歸預測。在Head設計中,采用Anchor-Free和解耦頭的結構,可以更好地適應不同尺寸和形狀的物體,通過檢測分支和分割分支分別學習,檢測分支預測目標類別和邊界框,分割分支輸出掩碼系數和與之對應的原型圖,將掩碼系數與原型圖相乘后求和,得到圖像分割結果,大大減少了超參數的數量,在提高分割性能的同時提高了模型的靈活性和穩定性。YOLOv8s-seg的基本網絡結構如圖5所示。
2.3 地上生物量估算模型建立
目前,地上生物量估算以統計模型為主,估算模型分為有確定解析式的參數模型(線性回歸模型、對數模型和指數模型等)和沒有明確數學解析式的非參數模型(KNN模型、支持向量機模型、隨機森林模型和XGBoost模型等)[23]。通過分析樹冠覆蓋面積、樹冠覆蓋率與地上生物量相關性,而后建立回歸關系,并計算決定系數R2,均方根誤差RMSE和平均絕對誤差MAE來評價不同模型的反演效果,確定最優估算模型。
線性回歸模型通過不同特征的線性組合,最佳的擬合訓練數據,使得模型真實值和預測值之間的殘差平方和最小化。K最近鄰算法(K-NearestNeighbor,KNN)作為一種基于實例的學習方法,通過對訓練集中K個最近鄰的響應求平均值得到預測值。支持向量機是一種監督學習模型,通過將原始空間映射到高維特征空間,然后尋找最優超平面,以最小化訓練數據和映射值之間的誤差。隨機森林基于多個決策樹構建,最終預測值是通過這些樹預測結果進行平均來確定的。XGBoost(eXtreme Gradient Boosting)采用決策樹作為弱學習器,將多個決策樹進行組合,每個決策樹都在前一棵樹的殘差基礎上進行訓練,通過多次迭代逐步減小殘差,最后多個學習器相加進行最終預測。
本研究中,以樹冠覆蓋面積作為自變量,結合對應樣地的地上生物量數據,通過與地上生物量建立回歸關系來進行生物量估算分別構建覆蓋面積-地上生物量的線性回歸模型、KNN模型、支持向量機模型、隨機森林模型和XGBoost模型,如圖6所示。
2.4 評價指標
為了檢驗模型擬合效果,利用決定系數(R2)、均方根誤差(RMSE)和平均絕對誤差(MAE)對所建立模型的預測精度進行評價。R2取值在0~1,越接近于1,表示該模型的擬合效果越好,均方根誤差(RMSE,式中記為RMSE)和平均絕對誤差(MAE,式中記為MAE)越小表示模型預測精度和穩定性越好。其計算公式為
代表樣本的預測值;代表樣本的平均值;n代表樣本數量。
3 結果與分析
3.1 改進的YOLOv8s-seg_EMA模型
EMA(Efficient Multi-Scale Attention)的優點是在不進行通道降維的情況下學習有效的通道描述,從輸入數據中提取與當前任務相關的重要信息,從而減少不相關信息對模型的干擾。通過將EMA高效多尺度注意力模塊添加到C2f模塊中,提出YOLOv8s-seg_EMA模型。由圖7可知,C2f模塊將Bottleneck模塊采用梯度分流連接,在保證輕量化的同時獲得更加豐富的梯度流,通過對不同尺度目標進行有效特征提取和信息融合,使模型更好利用細節信息和語義信息。改進后的C2f模塊,能夠更加有效聚合多尺度空間結構信息,同時還保留C2f模塊出色的特征提取和融合能力,顯著提高了模型的分割精度和魯棒性。C2f_EMA模塊結構如圖8所示。
3.2 樹冠分割模型訓練與評估
本試驗在Windows操作系統上,搭載Intel(R)Core(TM) i5-8300H CPU@ 2.30GHz處理器,顯卡使用NVDIA Geforce GTX 1050Ti,模型訓練基于PyTorch深度學習框架,使用Python3.8構建網絡,進行芭蕉樹冠分割的訓練和測試。在本研究中,使用精確度(precision)、召回率(recall)和平均精度均值(mAP@0.5)來評估改進后的YOLOv8s-seg的性能。3個參數越高,分割效果越好,見表1。
由表1可以看出,相同條件下,YOLOv8s-seg原模型對比YOLOv5s-seg模型的精確度、召回率、平均精度均值分別提高0.002、0.016、0.033,所以本研究選擇在YOLOv8s-seg模型的基礎上進行改進。加入EMA注意力機制后的YOLOv8s-seg模型相比于加入CBAM和ECA注意力機制的模型、YOLOv8-seg原模型,精確度分別提高了0.035、0.028、0.047,召回率分別提高0.003、0.008、0.012,平均精度均值(mAP@0.5)指標分別提高0.015、0.025、0.018,綜合比較各指標,最終選擇YOLOv8s-seg_EMA模型對芭蕉樹冠進行分割。
3.3 樹冠信息提取
3.3.1 樹冠像素統計
利用YOLOv8s-seg_EMA模型對測試集進行測試,輸出文件為txt格式,將格式轉換為二值掩碼圖。利用OpenCV計算二值掩碼圖中白色像素點的數量獲得樹冠像素點個數。本研究中,將手動標注得到的作為真實目標區域像素點數,YOLOv8s-seg_EMA模型分割提取得到的樹冠像素作為預測值,利用決定系數(R2)表示樣地內像素點數預測值和真實值之間的關系,如圖9所示,決定系數R2為0.95,表明使用改進后的YOLOv8s-seg模型提取的像素點數與真實值高度一致。
3.3.2 樹冠覆蓋面積與樹冠覆蓋率的計算
樹冠覆蓋面積是指樹冠實際的垂直投影面積。GSD為空間分辨率,指一個像素點代表的空間距離。樹冠覆蓋率是指樣地內所有樹冠覆蓋的總面積與土地面積的比例[24]。在目前大多實際應用中,樹冠覆蓋面積根據樹冠區域像素數乘空間分辨率的平方來計算,樹冠覆蓋率通常用圖像中樹冠所占的像素數除以圖像的總像素數得到。其計算公式分別為
式中:S為樹冠覆蓋面積;Crown area為樹冠區域像素數;GSD為空間分辨率;Crown cover為樹冠覆蓋率;Image area為圖像像素點數。
3.3.3 樹冠分割模型應用
將研究區域中6個站點的遙感影像裁剪大小為4 000×4 000,利用YOLOv8s-seg_EMA樹冠分割模型對區域內的芭蕉樹冠進行檢測分割,并提取樹冠信息,圖10為芭蕉樹冠分割應用示例。
3.4 回歸模型建立與分析
3.4.1 相關性分析
為了選取芭蕉地上生物量估算模型變量,將樹冠覆蓋面積S、樹冠覆蓋率Crown cover與對應區域的芭蕉地上生物量AGB進行相關性分析,如圖11所示。圖11中橫縱軸分別對應不同的變量,不同方塊顏色對應不同的相關系數,中間數字為2個變量之間的相關系數。相對系數取值范圍為[-1,1],絕對值越接近于1,表明2個變量之間的線性相關性越強。由圖11可以看出,AGB與S相關系數為0.91,存在顯著的相關性,AGB與Crown cover相關系數僅為0.27,相關性較弱,所以利用樹冠覆蓋面積作為自變量,用于構建芭蕉地上生物量估算模型是可行的。
3.4.2 芭蕉地上生物量估算模型
為了訓練和驗證模型,將190個樣本數據按接近7∶3的比例隨機分成訓練集和測試集,其中,133個作為訓練集用于建立覆蓋面積-地上生物量的線性回歸模型、KNN模型、支持向量機模型、隨機森林模型和XGBoost模型;57個作為測試集用于模型的精度分析。由圖12可知,將各模型獲得的芭蕉地上生物量的預測值與真實值進行回歸分析,可以直觀地發現,樣地內芭蕉地上生物量預測值與真實值之間呈良好的線性關系,預測值和真實值之間存在較小誤差。
為了評估各模型的預測精度,通過計算比較各模型在訓練集和測試集上的R2、RMSE、MAE,對模型的擬合結果進行評估,結果見表2。從整體上比較建模與驗證結果發現,各模型在芭蕉地上生物量估算中均取得了較高精度,各模型訓練集的R2在0.829 5~0.928 1。相較于非參數模型,線性回歸模型可解釋性較強,但在訓練集上的R2為0.836 3,RMSE為272.81 kg,MAE為171.84 kg,估算精度明顯低于KNN模型、隨機森林模型和XGBoost模型。XGBoost模型的R2為0.928 1,較其他模型來說,值更接近于1,擬合效果更好,而且RMSE、MAE的表現也優于其他模型,值分別為180.76、115.52 kg,相比其他模型的值更小,表明XGBoost模型在訓練數據上的預測誤差較小,即模型對訓練數據的擬合程度較好,這說明XGBoost模型能夠更準確地預測訓練數據中的芭蕉地上生物量。
通過測試集驗證發現,各模型中測試集的R2均在0.80以上,其中線性回歸模型表現最差,R2為0.800 1,RMSE為300.34 kg,MAE為179.08 kg,XGBoost模型在R2、RMSE、MAE的表現均優于其他模型,地上生物量的估測精度最高,測試集的R2為0.881 4,RMSE為231.37 kg,MAE為140.47 kg,說明該模型的預測誤差較小。出現這種結果的原因主要是XGBoost通過不斷迭代優化損失函數,可以更準確地捕捉數據中的非線性關系和交互作用,同時,還可以通過控制樹的復雜度和正則化項來減少過擬合風險,進一步證實了XGBoost模型更適于進行芭蕉地上生物量的反演,可以作為地上生物量最優估測模型。
4 結論
植被覆蓋情況反映土地的植被狀況及土地利用類型,地上生物量則代表著植被的生長狀況和生態系統的生產力,這2個參數也是育種和遺傳研究中評估植物生長、產量潛力的重要因素,更是植被碳儲量估算的關鍵。本研究提出一種利用深度學習實現芭蕉樹冠有效分割和地上生物量估算的新思路,通過改進YOLOv8s-seg模型從圖像中快速地分割芭蕉樹冠,進而提取樹冠覆蓋面積和樹冠覆蓋率,結合實測地上生物量數據,建立線性回歸模型、KNN模型、支持向量機模型、隨機森林模型和XGBoost模型估測芭蕉地上生物量,最后對地上生物量估算模型進行驗證確定最優模型。本研究得出主要結論如下。
1)通過改進YOLOv8s-seg模型,引入EMA注意力機制,構建YOLOv8s-seg_EMA芭蕉樹冠檢測分割模型。結果表明,相比于加入CBAM和ECA注意力機制的模型、YOLOv8s-seg原模型,精確度分別提高了0.035、0.028、0.047,召回率分別提高0.003、0.008、0.012,平均精度均值mAP@0.5指標分別提高0.015、0.025、0.018,改進后的模型可以快速有效地對芭蕉樹冠進行檢測分割。
2)基于XGBoost的地上生物量估算模型建模效果和驗證精度均優于其他模型,在訓練集中的R2為0.928 1,RMSE為180.76 kg,MAE為115.52 kg,測試集中的R2為0.881 4,RMSE為231.37 kg,MAE為140.47 kg。表明XGBoost模型擬合效果和預測誤差優于其他模型,能夠更準確地預測地上生物量,更適于進行芭蕉地上生物量的反演。
本研究結果驗證了利用無人機和深度學習進行林分參數提取和估算地上生物量的可行性,對其他植物物種的表型分析以及生態碳匯能力的評估有一定參考意義。
【參 考 文 獻】
[1] 鄧安健,郭海波,胡潔,等.GOSAT衛星數據監測中國大陸上空CO2濃度時空變化特征[J].遙感學報,2020,24(3):319-325.
DENG A J,GUO H B,HU J,et al.Temporal and distribution characteristic of CO2 concentration over China based on GOSAT satellite data[J].National Remote Sensing Bulletin,2020,24(3):319-325.
[2] 郭娜,劉劍秋.植物生物量研究概述(綜述)[J].亞熱帶植物科學,2011,40(2):83-88.
GUO N,LIU J Q.A review of research on plant biomass[J].Subtropical Plant Science,2011,40(2):83-88.
[3] MA H Z,MO L D,CROWTHER T W,et al.The global distribution and environmental drivers of aboveground versus belowground plant biomass[J].Nature Ecology & Evolution,2021,5(8):1110-1122.
[4] 趙苗苗,趙娜,劉羽,等.森林碳計量方法研究進展[J].生態學報,2019,39(11):3797-3807.
ZHAO M M,ZHAO N,LIU Y,et al.An overview of forest carbon measurement methods[J].Acta Ecologica Sinica,2019,39(11):3797-3807.
[5] 付曉,張煜星,王雪軍.2060年前我國森林生物量碳庫及碳匯潛力預測[J].林業科學,2022,58(2):32-41.
FU X,ZHANG Y X,WANG X J.Prediction of forest biomass carbon pool and carbon sink potential in China before 2060[J].Scientia Silvae Sinicae,2022,58(2):32-41.
[6] 劉茜,楊樂,柳欽火,等.森林地上生物量遙感反演方法綜述[J].遙感學報,2015,19(1):62-74.
LIU Q,YANG L,LIU Q H,et al.Review of forest above ground biomass inversion methods based on remote sensing technology[J].National Remote Sensing Bulletin,2015,19(1):62-74.
[7] 張正健,李愛農,邊金虎,等.基于無人機影像可見光植被指數的若爾蓋草地地上生物量估算研究[J].遙感技術與應用,2016,31(1):51-62.
ZHANG Z J,LI A N,BIAN J H,et al.Estimating aboveground biomass of grassland in Zoige by visible vegetation index derived from unmanned aerial vehicle image[J].Remote Sensing Technology and Application,2016,31(1):51-62.
[8] PRAKRITI S,LARRY L,JIYUL C,et al.Above-ground biomass estimation in oats using UAV remote sensing and machine learning[J].Sensors,2022,22(2):601.
[9] 舒時富,李艷大,曹中盛,等.基于無人機圖像的水稻地上部生物量估算[J].福建農業學報,2022,37(7):824-832.
SHU S F,LI Y D,CAO Z S,et al.Estimation of aboveground rice biomass by unmanned aerial vehicle imaging[J].Fujian Journal of Agricultural Sciences,2022,37(7):824-832.
[10] 李濱,劉可寧.基于無人機光學遙感的森林生物量估算研究[J].森林工程,2022,38(5):83-92.
LI B,LIU K N.Forest biomass estimation based on UAV optical remote sensing[J].Forest Engineering,2022,38(5):83-92.
[11] 吳培強,任廣波,張程飛,等.無人機多光譜和LiDAR的紅樹林精細識別與生物量估算[J].遙感學報,2022,26(6):1169-1181.
WU P Q,REN G B,ZHANG C F,et al.Fine identification and biomass estimation of mangroves based on UAV multispectral and LiDAR[J].National Remote Sensing Bulletin,2022,26(6):1169-1181.
[12] 余楚瀅,龔輝,曹晶晶,等.基于無人機影像的無瓣海桑單木提取與地上生物量估算[J].熱帶地理,2023,43(1):12-22.
YU C Y,GONG H,CAO J J,et al.Individual tree crown delineation and aboveground biomass estimation of Sonneratia apetala based on unmanned aerial vehicle remote sensing images[J].Tropical Geography,2023,43(1):12-22.
[13] 南玉龍,張慧春,鄭加強,等.深度學習在林業中的應用[J].世界林業研究,2021,34(5):87-90.
NAN Y L,ZHANG H C,ZHENG J Q,et al.Application of deep learning to forestry[J].World Forestry Research,2021,34(5):87-90.
[14] 黃美益.基于深度學習算法的圖像傳感器誤差自動校正研究[J].自動化技術與應用,2023,42(5):8-11.
HUANG M Y.Research on automatic error correction of image sensor based on depth learning algorithm[J].Techniques of Automation and Applications,2023,42(5):8-11.
[15] 陸清嶼,李秋潔,童岳凱,等.基于Mask R-CNN的行道樹實例分割方法[J].林業工程學報,2021,6(5):154-160.
LU Q Y,LI Q J,TONG Y K,et al.Instance segmentation method of street trees based on Mask R-CNN[J].Journal of Forestry Engineering,2021,6(5):154-160
[16] MAR A,JO?O V,LAMMERT K,et al.Estimation of spinach(Spinacia oleracea) seed yield with 2D UAV data and deep learning[J].Smart Agricultural Technology,2023,3(11):100129.
[17] BOLYA D,ZHOU C,XIAO F,et al.YOLACT: real-time instance segmentation[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South),2019:9157-9166.
[18] MUBASHIRU O L.YOLOv5-LiNet: A lightweight network for fruits instance segmentation[J].PloS one,2023,18(3):e0282297.
[19] YUE X,QI K,NA X,et al.Improved YOLOv8-Seg network for instance segmentation of healthy and diseased tomato plants in the growth stage[J].Agriculture,2023,13(8):1643.
[20] REIERSEN G,DAO D,LüTJENS B,et al.ReforesTree: A dataset for estimating tropical forest carbon stock with deep learning and aerial imagery[C]//Proceedings of the 36th AAAI Conference on Artificial Intelligence.2022,36(11):12119-12125.
[21] OUYANG D,HE S,ZHANG G,et al.Efficient multi-scale attention module with cross-spatial learning[C]//ICASSP 2023-2023 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).IEEE,2023:1-5.
[22] 嚴毅,鄧超,李琳,等.深度學習背景下的圖像語義分割方法綜述[J].中國圖象圖形學報,2023,28(11):3342-3362.
YAN Y,DENG C,LI L,et al.Survey of image semantic segmentation methods in the deep learning era[J].Journal of Image and Graphics,2023,28(11):3342-3362.
[23] 郝晴,黃昌.森林地上生物量遙感估算研究綜述[J].植物生態學報,2023,47(10):1356-1374.
HAO Q,HUANG C.A review of forest aboveground biomass estimation based on remote sensing data[J].Chinese Journal of Plant Ecology,2023,47(10):1356-1374.
[24] 楊德菲,楊存建,錢可敦.基于無人機遙感的銀杏樹木株數及其樹冠覆蓋率估算[J].藝術科技,2019,32(5):49-50.
YANG D F,YANG C J,QIAN K D.Estimation of the number of Ginkgo biloba trees and their canopy coverage based on UAV remote sensing[J].Art Science and Technology,2019,32(5):49-50.