999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于無人機航拍與改進YOLOv5s的油茶果實檢測

2024-12-31 00:00:00沈德宇陳鋒軍朱學巖張新偉陳闖
中國農機化學報 2024年12期

摘要:針對無人機航拍圖像中油茶果實小且互相遮擋的問題,提出改進YOLOv5s模型。首先,使用SPD-Conv代替YOLOv5s模型中池化操作,使模型在執行下采樣操作時能夠保留更多細粒度信息。然后,在YOLOv5s模型的頸部網絡末端引入坐標注意力機制CA,提高模型對遮擋目標的魯棒性。另外,改進YOLOv5s模型使用NWD邊界框損失函數替換YOLOv5s中的CIOU邊界框損失函數,以提升模型對無人機航拍圖像中小油茶果實的檢測能力。改進YOLOv5s模型的精確率、召回率、F1分數和平均精度均值分別達到93.1%、90.5%、91.78%和91.2%,與YOLOv5s模型相比,平均精度均值提升3.6個百分點。試驗表明,改進YOLOv5s對航拍圖像中較小的油茶果實和遮擋果實有更強的檢測能力。可為利用無人機進行油茶果實的產量估計研究提供參考。

關鍵詞:油茶果實;無人機航拍;YOLOv5s;坐標注意力機制;邊界框損失函數

中圖分類號:S24

文獻標識碼:A

文章編號:2095-5553(2024)12-0238-07收稿日期:2023年11月6日

修回日期:2024年1月29日

*基金項目:國家重點研發計劃(2019YFD1002401)

第一作者:沈德宇,男,1999年生,河北滄州人,碩士;研究方向為林業信息監測。E-mail:Sdy196823@bjfu.edu.cn

通訊作者:陳鋒軍,女,1977年生,河北保定人,博士,教授,碩導;研究方向為林業信息監測。E-mail:chenfj227@bjfu.edu.cn

Camellia oleifera fruit detection based on UAV aerial photography and improved YOLOv5s

Shen Deyu1, 2, Chen Fengjun1, 2, Zhu Xueyan1, 2, Zhang Xinwei1, Chen Chuang2

(1. College of Engineering, Beijing Forestry University, Beijing, 100083, China;2. National Key Laboratory for Efficient Production of Forest Resources, Beijing, 100083, China)

Abstract: Aiming at the problem that the fruit of Camellia oleifera is small and occluding each other in UAV aerial images, an improved YOLOv5s model is proposed. Firstly, SPD-Conv is used to replace the pooling operation in the YOLOv5s model, so that the model can retain more fine-grained information during the down-sampling operation. Then, Coordinate Attention (CA) is introduced at the end of the neck network of YOLOv5s model to improve the robustness of the model to occluding targets. Additionally, the improved YOLOv5s model replaces the YOLOv5s CIOU bounding box loss function with the NWD (Normalized Gaussian Wasserstein) bounding box loss function to improve its ability to detect small Camellia oleifera fruits in drone aerial images. The precision, recall, F1 score, and mean average precision of the improved YOLOv5s model are 93.1%, 90.5%, 91.78% and 91.2%, respectively. Compared to the YOLOv5s model, the improved YOLOv5s model’s mean average precision has increased by 3.6 percentage points. The experiments indicate that the improved YOLOv5s has stronger detection capabilities for smaller and occluded Camellia oleifera fruits in aerial images. This research can provide a reference for the estimation of Camellia oleifera fruit yield by using drones.

Keywords: Camellia oleifera; UAV aerial photography; YOLOv5s; coordinate attention mechanism; bounding box loss function

0 引言

油茶是我國特有的油料作物,以油茶果實作為原料生產出的茶油更是有“東方”橄欖油的美譽[1。高效完成油茶采收任務是保證油茶產業利益的重要環節,由于油茶生長的地形多為我國南方的高山丘陵,且其特殊的采摘要求,導致現階段的油茶采收尚未實現大規模機械化2。當前油茶采收環節以人工為主,并且油茶的采收期較短,工作量大3。如果可以提前預知油茶種植地的油茶果實產量,就可以合理分配勞動力資源,避免錯過最佳采收期,提高油茶采收的效率。無人機行動靈活,不受崎嶇地形的限制,使用無人機拍攝油茶冠層果實,并開發一種高效準確的油茶冠層果實檢測方法,為油茶果實產量估計提供參考。但是自然掛枝狀態下的油茶果實體積較小,并且存在較多枝葉遮擋和果實之間互相遮擋的情況,為檢測帶來了困難。

近年來,深度學習技術的進步為研究自然掛枝條件下果實的目標檢測提供了新的方法。以深度學習為基礎的方法逐漸成為自然環境中果實檢測的主流方法。深度學習方法在柚子[4、芒果5和蘋果6等水果的檢測中被廣泛使用。Wu等[7先對自然狀態下油茶果實圖像使用剪切、翻轉、添加噪聲以及Mosaic等數據增強操作構成數據集,再將數據集送入YOLOv7網絡進行訓練,最后得到了96.3%的平均精準度。Tang等[8使用YOLOv4-Tiny網絡對掛枝狀態的油茶果實進行檢測并結合雙目相機和三角測量原理對油茶果實進行空間定位,平均準確率達到了92.07%。呂帥朝等[9將照度調整模塊和夜間隱性知識模塊集成到YOLOv3網絡中,用于夜間檢測油茶果實,最終平均精準度達到了94.37%,為夜間非結構化環境的油茶果采摘提供了支持。宋懷波等[10使用YOLOv5s模型在復雜自然場景的油茶果實檢測中分別達到了90.37%的準確率和98.38%的召回率,這種方法為復雜環境中進行果實采摘和檢測小目標果實提供了參考。Chen等[11在YOLOv5s框架下引入K-means++聚類算法,并重新評估數據集,在油茶果實存在多重遮擋的自然環境下達到了94.10%的平均精準度。然而,以上研究均針對油茶樹中的局部果實進行檢測,并未涉及整樹樹冠的油茶果實的檢測。嚴恩萍等12使用Mask R-CNN結合無人機影像對自然狀態的油茶進行產量估計,該模型最終的平均F1值達89.91%,試驗表明,由網絡預測的冠層果數與油茶樣木單株果數之間具有良好的一致性,擬合決定系數R2達0.871。這說明將無人機航拍圖像用于果實產量預估的可行性。

本文采集數據的油茶園為非結構化果園,自然生長下的油茶果實目標往往存在枝葉遮擋和果實之間互相遮擋的情況。除此之外,無人機航拍圖像中的油茶果實也存在目標較小的情況。YOLOv5s模型作為一種輕量化、高精度的目標檢測網絡,具有較強的特征融合能力和對不同尺度目標的檢測能力[13,對檢測航拍圖像中的小目標油茶果實很有優勢。因此,選擇YOLOv5s作為基礎網絡,并在原模型基礎上進行改進,對無人機航拍圖像中的油茶果實檢測展開研究。

1 數據集采集與處理

研究區域位于湖南省邵陽市黃草坪國有油茶林場,黃草坪國有油茶林場的占地面積約為211 hm2,主要種植了華碩、華鑫、華金、湘林1號、湘林27號、湘林63號等10余個優質油茶品種。以華鑫油茶品種為研究對象,使用大疆精靈4無人機對油茶樹冠進行圖像采集,圖像采集時間為2021年10—11月,分別于8:00—10:00、12:00—14:00和16:00—18:00時間段進行數據采集。無人機搭載2 000萬像素的相機,鏡頭焦距20 mm,鏡頭成像角度為-90°~30°,像元尺寸為2.4 μm,照片分辨率為4 000像素×3 000像素,拍攝高度為1.5~2 m。共采集不同角度和光照情況的油茶果實圖片共1 506張。部分數據集圖像如圖1所示。

以采集的1 506幅油茶果實圖像搭建油茶果實檢測數據集。按照8∶1∶1將數據集劃分為訓練集、驗證集和測試集,得到訓練集圖像1 204張,驗證集圖像151張和測試集圖像151張。Chen等[14將單個目標面積占圖像總面積的0.05%~0.58%之間的目標定義為小目標,對數據集目標的尺寸進行統計,統計結果如下:數據集中共有57 211個油茶果實目標,其中小目標占比為84.6%。為豐富數據集,并增強模型對小目標和遮擋目標的魯棒性,選擇使用Mosaic和Mixup等數據增強方式對被劃分為訓練集的圖像進行增強,增強效果如圖2所示。

2 研究方法

2.1 改進YOLOv5s模型

YOLOv5是基于YOLOv4目標檢測模型改進的版本。YOLOv5網絡由主干網絡,頸部網絡和頭部網絡3部分組成。輸入圖像在進入主干網絡之前會先進行預處理,包括調整圖像大小、歸一化和圖像增強等操作。經過預處理的圖像會輸入到主干網絡中,經過Focus模塊,Conv模塊和C3模塊進行特征提取,在通過特征金字塔池化后,進入頸部網絡利用PANet進行特征融合,最后得到三種不同尺度的特征圖,頭部網絡的作用是針對提取到的特征圖,進行目標位置回歸和目標種類預測,最后經過非極大值抑制(NMS)操作去除重疊的預測框,得到最終的檢測結果。它在YOLOv4的基礎上增加了自適應錨框計算和自適應圖片縮放操作,其主干和頸部主要由跨階段局部網絡構成,并使用了路徑聚合網絡進行特征融合和新型損失函數。為了適應不同場景的需求,YOLOv5開發者提供了多個版本,如YOLOv5s、YOLOv5m和YOLOv5l。YOLOv5s作為輕量化模型,在保證檢測精度的同時,也具備高準確性,適用檢測無人機航拍圖像中的油茶果實的應用場景。

由于無人機航拍的油茶果實圖像中的油茶果實目標較小,并且存在較多遮擋的情況,本文針對以上問題主要對YOLOv5s模型進行以下改進(圖3)。

首先,在主干網絡和頸部網絡中使用SPD-Conv取代YOLOv5s模型中的池化層[15,以減少特征圖在經過池化層后的信息損失,增強模型對小目標特征的提取能力,然后,在模型的頸部網絡和頭部網絡之間加入坐標注意力模塊[16,該注意力機制專門為輕量化模型設計,可以獲取特征圖的通道信息而且還能結合位置信息,能增強模型對遮擋目標的檢測能力。最后,采用NWD邊界框損失函數[17替換YOLOv5s模型原有的CIOU 損失函數。增強模型對小目標的預測框的回歸能力,可以幫助模型更加準確定位小目標。

2.2 SPD-Conv

使用YOLOv5s模型對自然場景下無人機航拍的油茶果實圖像進行目標檢測,屬于小目標檢測的范疇。傳統CNN模型中的步長卷積操作和池化操作會造成特征圖的細粒度信息的丟失。對小目標檢測任務來說,這會造成低效的學習,從而影響模型檢測的性能。因此解決果實目標在進入目標檢測網絡傳播的過程中的細粒度信息的損失問題,就可以提升目標檢測模型對小目標檢測性能。Sajjadi等[18將一種圖像轉化技術運用到CNN網絡中,在對特征圖進行下采樣的操作上,提出了使用SPD-Conv來代替傳統CNN網絡中的池化操作和步長卷積操作,最終在小目標檢測任務中得到有效的性能提升。

SPD-Conv模塊通過SPD層將輸入大小為 S×S×C1 特征圖X在空間維度進行切片(S代表特征圖的長和寬, C1 代表特征圖的通道數),將其分割成 scale2 個大小為 (S/scale)×(S/scale)×C1 的中間特征圖, scale 表示下采樣因子,其大小決定了SPD-Conv模塊對特征圖的下采樣倍率。為了能夠盡可能保留特征圖的信息,SPD層還會對被分割的子特征圖沿著通道維度進行拼接,生成一個大小為 (S/scale)×(S/scale)×scale2C1 的子特征圖 X′, 再對中間特征圖 X′ 進行非步長卷積的操作,最終輸出一個大小為 (S/scale)×(S/scale)×C2 的輸出特征圖 X″。 圖4為 scale=2 時,SPD-Conv的原理圖。

2.3 坐標注意力機制

為了減少遮擋情況的影響,且讓改進YOLOv5s模型能夠更加精確地定位和識別油茶果實,采用將坐標注意力機制嵌入到YOLOv5s的頸部網絡中的方法來提升模型對無人機航拍圖像中的油茶果實的檢測能力。坐標注意力機制(Coordinate Attention,CA)的原理圖如圖5所示。

對輸入維度為 C×H×W 的特征圖X,坐標注意力機制(Coordinate Attention,CA)先對特征圖進行精準的空間位置信息編碼。它會使用卷積核大小為1×H和W×1的池化卷積模塊分別對特征圖沿高度和寬度方向進行編碼,得到兩個空間感知的注意力特征 Zh∈?C×1×H 和 Zw∈?C×W×1, 其中 ?表示多維矩陣。之后網絡會將上述兩個注意力特征進行拼接,然后通過一個1×1的共享卷積模塊得到中間特征圖 f∈?C/r×W×1, 其中r為下采樣比例系數,計算如式(1)所示。

f=δ(F1([Zh,Zw])) (1)

式中: [Zh,Zw] ——將特征圖沿空間維度拼接;

F1 ——1×1卷積操作;

δ ——非線性激活操作。

之后會對中間特征圖 f 沿空間方向進行切片操作,得到兩個張量 fh∈?C/r×1×H 和 fw∈?C/r×W×1。 fh 和 fw 分別經過兩個1×1的共享卷積模塊后送入Sigmoid激活函數中,得到最后的注意力權重 gh, gw, 如式(2)所示。

gh=σ(Fh(fh))

gw=σ(Fw(fw)) (2)

式中: Fh、Fw ——沿垂直方向和水平方向的1×1卷積操作;

gh ——沿垂直方向的注意力權重;

gw ——沿水平方向的注意力權重;

σ ——Sigmoid激活函數。

最后輸出的附加了坐標注意力權重的特征圖 X′ 如式(3)所示。

X′(i,j)=X(i,j)×gh(i)×gw(j) (3)

2.4 NWD邊界框損失函數

YOLO系列模型全部采用基于IOU的邊界框損失函數來衡量預測框和真實框的匹配程度。如圖6所示,可以看出,使用基于IOU的損失函數檢測小目標時,會因為其對位置敏感的特性,影響損失函數收斂性能。

NWD(Normalized Gaussian Wasserstein)邊界框損失是一種專門為小目標檢測設計的邊界框損失函數。將目標的邊界框建模為二維高斯分布,通過計算預測框與真實框對應的Wassserstein距離來衡量二者之間高斯分布的相似性。

將真實框 A=(cxa,cya,wa,ha) 和預測框 B=(cxb,cyb,wb,hb) 建模為高斯分布 Ng 和 Np, 真實框和預測框之間的二階Wasserstein距離可化簡為式(4)。

式中: cxa、cya ——框A中心點的橫縱坐標;

cxb、cyb ——框B中心點的橫縱坐標;

wa、ha ——框A的寬度和高度;

wb、hb ——框B的寬度和高度。

W22(Ng,Np) 作為一個距離度量,無法直接用于評價兩個框之間的相似度,還需要對其進行歸一化操作,最后得到NWD邊界框損失函數,如式(5)所示。

式中:C——常數,在一定范圍內對小目標檢測任務是較為有效的。

經過本文數據集訓練測試,將C設定為12。在本文設計的YOLOv5s網絡中,將原網絡中CIOU邊界框損失函數,替換為NWD邊界框損失函數,如式(6)所示。

Lnwd=1-NWD(Np,Ng) (6)

相比基于IOU的邊界框損失函數,NWD損失函數在小目標檢測任務中的主要優勢:對預測框和真實框的相對位置關系不敏感,即使它們之間重疊的部分較小,也一樣能平滑地展示它們之間分布的相似性。

2.5 模型訓練與評價指標

本文所研究的場景需要目標檢測模型兼顧檢測速度和檢測精度,因此,選用精確率P、召回率R、F1分數(F1-Score)、平均精度均值mAP和平均檢測時間MDT,作為模型的評價指標。其中,在評價mAP時,檢測框與真實框的IOU閾值為0.5。精確率、召回率、F1分數和平均精度均值的計算如式(7)~式(10)所示。

式中: TP ——被正確檢測到的油茶果實的數量;

FP ——背景被錯誤識別成油茶果實的數量;

FN ——漏檢的油茶果實的數量;

M——目標的總數。

試驗全部在一臺GPU服務器上完成,搭載Ubuntu 20.04操作系統,CPU配置為Intel Xeon Gold 5220R。GPU配置為NVIDIA 3090顯卡,顯存為24 G。具體的軟件環境為Python 3.7,CUDA版本為11.3,Pytorch版本為1.11。改進YOLOv5s模型訓練的超參數設置如下,初始學習率設置為0.01,使用余弦退火的方式調整學習率,設置余弦退火參數為0.16。動量參數設置為0.937,Batchsize設置為16。在模型訓練初始階段使用warm-up的方式預熱學習率,設置的初始預熱學習率為0.02,預熱動量為0.8。改進前后YOLOv5s模型在訓練過程中的曲線如圖7所示。

由圖7可知,在損失值方面,改進后的模型在訓練前期損失值的下降速度略低于原模型,但是改進后模型的損失值一直處于下降趨勢,并且在模型訓練后期逐漸收斂于0.021,低于原模型的損失值。在訓練過程中的各項精度方面,改進后模型的精確率、召回率和平均精度均值的收斂值均高于原模型。

3 結果與分析

3.1 檢測結果

為測試改進YOLOv5s模型對無人機航拍的油茶果實圖像檢測的有效性,使用測試集中151張圖像對模型進行性能測試。改進YOLOv5s模型在測試集中的檢測結果,如圖8所示,可以看出,改進YOLOv5s模型可以準確檢測到圖像中的小目標,并且對被遮擋的果實也有良好的檢測效果。

3.2 消融試驗

檢測結果表明,改進后的YOLOv5s模型對無人機航拍圖像中的油茶果實有較好的檢測效果,并且面對環境中存在枝葉遮擋果實的情況也有較好的魯棒性。但是SPD-Conv坐標注意力機制和NWD邊界框損失函數對模型檢測性能的具體提升還尚待探究。因此,對改進YOLOv5s進行消融試驗,定量分析以上三處改進點對模型帶來的性能提升。改進YOLOv5s模型的消融試驗結果如表1所示。

由表1可知,基于YOLOv5s模型提出的三個改進措施在對無人機航拍圖像中的油茶果實檢測性能中均有提升,總體表現都優于消融試驗其他方法。當使用SPD-Conv取代原始YOLOv5s網絡中的池化操作時,精確率、召回率、F1分數和平均精度均值分別提升1.9%、0.8%、1.33%和0.5%,并且平均檢測時間僅增加了0.3 ms。這表明SPD-Conv可以避免傳統池化操作所造成的細粒度信息損失,從而提升模型檢測小目標果實的能力。在YOLOv5s網絡中同時引入SPD-Conv和坐標注意力機制時,精確率、召回率、F1分數和平均精度均值分別提升4.2%、2.3%、3.22%和1.7%,平均檢測速度增加了2.9 ms。這表明坐標注意力機制可以提升模型對檢測遮擋果實的魯棒性有所提升。當SPD-Conv、坐標注意力機制和NWD邊界框損失函數同時引入YOLOv5s網絡中時,精確率、召回率、F1分數和平均精度均值分別提升5.6%、4.2%、4.88%和3.6%,且平均檢測時間僅增加了3.1 ms。這表明NWD邊界框損失函數可以提高模型對小目標的檢測能力。以上三點改進可以在保證網絡檢測速度的同時,有效提升網絡對無人機航拍圖像中油茶果實的檢測能力。

3.3 對比試驗

為了充分驗證改進YOLOv5s模型對航拍圖像中的油茶果實的檢測能力,選用YOLOv3,YOLOv4和RetinaNet進行對比試驗。以上網絡均設有多尺度檢測層,對目標尺度的變化比較敏感,相比于其他目標檢測網絡更加適用于小目標檢測任務。對比試驗結果如表2所示。

由表2可知,改進YOLOv5s在測試集上達到了93.1%的精確率,90.5%的召回率,91.78%的F1分數和91.2%的平均精度均值,可以看出,改進后YOLOv5s網絡的檢測精度均優于其他模型,并且對每張圖片的平均檢測時間僅為31.7 ms,能夠達到實時檢測的速度要求。改進后的YOLOv5s網絡對每張圖像的平均檢測時間分別比原YOLOv5s模型和YOLOv4模型高出3.1 ms和6.6 ms,但是改進YOLOv5s的檢測精確率、召回率、F1分數和平均精度均值比原YOLOv5s模型高出了5.6%、4.2%、4.88%和3.6%,比YOLOv4模型高出了6.2%、4.6%、5.38%和3.7%。可以看出,雖然改進后的YOLOv5s模型的檢測速度有所下降,但是航拍圖像中油茶果實的檢測能力得到了有效提升。與RetinaNet和YOLOv3網絡相比,改進后的YOLOv5s網絡的檢測速度和檢測精度均優于以上兩種網絡,在平均精度均值方面分別達到5.6%和2.9%的提升。改進后的檢測結果與對比試驗其他模型的檢測結果如圖9所示。

4 結論

1)針對無人機航拍圖像中油茶果實的目標檢測任務中存在果實目標小,并且有較多遮擋的情況,導致對其精確檢測存在困難的問題。對YOLOv5s進行三點改進:(1)使用SPD-Conv替換網絡中的池化操作。(2)在頸部網絡與頭部網絡的連接處加入坐標注意力模塊。(3)引入NWD邊界框損失函數。最終實現對無人機圖像中的油茶果實準確高效地檢測。

2)改進后的YOLOv5s模型對測試集的檢測精確度達到93.1%,召回率達到90.5%,F1分數達到91.78%,平均精度均值達到91.2%。對比試驗表明,改進后的YOLOv5s網絡的平均精度均值相比YOLOv3、YOLOv4,YOLOv5s和RetinaNet網絡分別高出2.9%、3.7%,3.6%和5.6%。改進后的YOLOv5s對圖像中的小目標油茶果實和遮擋狀態下的油茶果實的檢測能力有明顯提升。

3)消融試驗表明,在YOLOv5s模型中使用SPD-Conv,坐標注意力機制和NWD邊界框損失函數對原模型檢測小目標和遮擋目標能力得到有效提升。

參 考 文 獻

[1] 羅凡, 費學謙, 郭少海. 油茶果采收及干燥方式對油茶籽油品質的影響[J]. 中國油脂, 2015, 40(11): 69-73.

Luo Fan, Fei Xueqian, Guo Shaohai. Effects of harvest time and drying methods on quality of oil-tea camellia seed oil [J]. China Oils and Fats, 2015, 40(11): 69-73.

[2] 閆鋒欣, 李許杰, 楊永霞, 等. 手持沖擊梳刷式油茶果采摘裝置設計與試驗[J]. 農業機械學報, 2023, 54(12):129-140.

Yan Fengxin, Li Xujie, Yang Yongxia, et al. Design and experiment of hand-held impacting comb-type Camellia oleifera fruit harvester [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(12): 129-140.

[3] 伍德林, 楊俊華, 劉蕓, 等. 我國油茶果采摘裝備研究進展與趨勢[J]. 中國農機化學報, 2022, 43(1): 186-194.

Wu Delin, Yang Junhua, Liu Yun,et al. Research progress and trend of camellia fruit picking equipment in China [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(1): 186-194.

[4] Yuan H, Huang K, Ren C, et al. Pomelo tree detection method based on attention mechanism and cross-layer feature fusion [J]. Remote Sensing, 2022, 14(16): 3902.

[5] Koirala A, Walsh K B, Wang Z, et al. Deep learning for real-time fruit detection and orchard fruit load estimation: Benchmarking of ‘MangoYOLO’ [J]. Precision Agriculture, 2019, 20(6): 1107-1135.

[6] 趙輝, 喬艷軍, 王紅君, 等. 基于改進YOLOv3的果園復雜環境下蘋果果實識別[J]. 農業工程學報, 2021, 37(16): 127-135.

Zhao Hui, Qiao Yanjun, Wang Hongjun, et al. Apple fruit recognition in complex orchard environment based on improved YOLOv3 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(16): 127-135.

[7] Wu D, Jiang S, Zhao E, et al. Detection of Camellia oleifera fruit in complex scenes by using YOLOv7 and data augmentation [J]. Applied Sciences, 2022, 12(22): 11318.

[8] Tang Y, Zhou H, Wang H, et al. Fruit detection and positioning technology for a Camellia oleifera C. Abel orchard based on improved YOLOv4-tiny model and binocular stereo vision [J]. Expert Systems with Applications, 2023, 211: 118573.

[9] 呂帥朝, 馬寶玲, 宋磊, 等. 基于YOLON網絡的多形態油茶果實夜間檢測方法研究[J]. 西北農林科技大學學報(自然科學版), 2023(8): 141-154.

Lü Shuaichao, Ma Baoling, Song Lei, et al. Nighttime detection method of polymorphic Camellia oleifera fruits based on YOLON network [J]. Journal of Northwest A amp; F University (Natural Science Edition), 2023(8): 141-154.

[10] 宋懷波, 王亞男, 王云飛, 等. 基于YOLO v5s的自然場景油茶果識別方法[J]. 農業機械學報, 2022, 53(7): 234-242.

Song Huaibo, Wang Yanan, Wang Yunfei, et al. Camellia oleofera fruit detection in natural scene based on YOLOv5s [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(7): 234-242.

[11] Chen S, Zou X, Zhou X, et al. Study on fusion clustering and improved YOLOv5 algorithm based on multiple occlusion of Camellia oleifera fruit [J]. Computers and Electronics in Agriculture, 2023, 206: 107706.

[12] 嚴恩萍, 棘玉, 尹顯明, 等. 基于無人機影像自動檢測冠層果的油茶快速估產方法[J]. 農業工程學報, 2021, 37(16): 39-46.

Yan Enping, Ji Yu, Yin Xianming, et al. Rapid estimation of camellia oleifera yield based on automatic detection of canopy fruits using UAV images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(16): 39-46.

[13] 尹川, 蘇議輝, 潘勉, 等. 基于改進YOLOv5s的名優綠茶品質檢測算法[J]. 農業工程學報, 2023, 39(8): 179-187.

Yin Chuang, Su Yihui, Pan Mian, et al. Detection of the quality of famous green tea based on improved YOLOv5s [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(8): 179-187.

[14] Chen C, Liu M Y, Tuzel O, et al. R-CNN for small object detection [C]. Computer Vision-ACCV 2016: 13th Asian Conference on Computer Vision, 2017: 214-230.

[15] Sunkara R, Luo T. No more strided convolutions or pooling: A new CNN building block for low-resolution images and small objects [C]. Joint European Conference on Machine Learning and Knowledge Discovery in Databases, 2022: 443-459.

[16] Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 13713-13722.

[17] Xu C, Wang J, Yang W, et al. Detecting tiny objects in aerial images: A normalized Wasserstein distance and a new benchmark [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 190: 79-93.

[18] Sajjadi M S M, Vemulapalli R, Brown M. Frame-recurrent video super-resolution [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 6626-6634.

主站蜘蛛池模板: 国产视频只有无码精品| 71pao成人国产永久免费视频| 网友自拍视频精品区| 香蕉伊思人视频| 欧美精品成人一区二区视频一| 精品少妇人妻一区二区| 重口调教一区二区视频| 中文无码精品A∨在线观看不卡 | 美女国内精品自产拍在线播放| 午夜福利在线观看成人| 中文字幕无码中文字幕有码在线| 国产小视频免费观看| 久久亚洲综合伊人| WWW丫丫国产成人精品| 干中文字幕| 免费国产小视频在线观看| 国产成人精品日本亚洲77美色| 狠狠久久综合伊人不卡| 国产亚洲精久久久久久无码AV| 99九九成人免费视频精品| 欧美精品在线免费| 国产丝袜无码精品| 日韩美女福利视频| 2020久久国产综合精品swag| 亚洲av综合网| 久久久噜噜噜| a级毛片在线免费| 亚洲中文字幕久久无码精品A| 亚洲第一香蕉视频| 亚洲一区二区三区香蕉| 激情六月丁香婷婷四房播| 在线观看国产网址你懂的| 色天天综合| 欧美激情视频一区二区三区免费| 四虎影视永久在线精品| 国产综合亚洲欧洲区精品无码| 亚洲欧美日韩另类在线一| 国产美女91视频| 国产欧美专区在线观看| 国产剧情国内精品原创| 久久久久无码精品| 国产精品视频导航| 99热最新网址| 国产一在线| 欧美精品在线观看视频| 久久久精品无码一区二区三区| 国产在线精彩视频二区| 在线观看av永久| 97色伦色在线综合视频| 欧美日韩在线第一页| 人人爽人人爽人人片| 久久大香香蕉国产免费网站| 国产老女人精品免费视频| 日韩AV无码免费一二三区| 亚洲一级毛片| 青青极品在线| 亚洲色图在线观看| 亚洲一级色| 成人在线天堂| 丁香婷婷久久| 亚洲国产欧洲精品路线久久| 日韩a级毛片| 91精品久久久无码中文字幕vr| 91久久青青草原精品国产| 国产精品亚洲综合久久小说| 原味小视频在线www国产| 中美日韩在线网免费毛片视频| 亚洲91精品视频| 国产人妖视频一区在线观看| 欧美天天干| 国产精品va免费视频| 国产精品成人AⅤ在线一二三四| 欧美日韩成人| 激情视频综合网| 中国成人在线视频| 日韩在线1| 久久久久久尹人网香蕉| 99一级毛片| 亚洲国产清纯| 亚洲va在线观看| 91青青草视频在线观看的| 国产欧美日韩精品综合在线|