999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于AD-YOLOX-Nano的茶葉嫩芽識別算法

2025-01-19 00:00:00高芳征溫鑫黃家才陳光明金少宇趙雪迪
中國農機化學報 2025年1期

摘要:

為解決茶葉嫩芽識別困難,提高自然環境下茶葉嫩芽識別的精確性和魯棒性,提出一種融入注意力機制和深度可分離卷積的改進型YOLOX-Nano(AD-YOLOX-Nano)茶葉嫩芽識別算法。該算法以YOLOX-Nano模型為基礎,采用CSPDarkNet作為主干網絡,通過在CSPDarkNet網絡中引入深度可分離卷積(Depthwise Separable Convolution)來減少特征提取工作量,并將卷積注意力模塊(Convolutional Block Attention Module)融入到YOLOX-Nano網絡的特征金字塔中,學習不同通道的特征相關性,增強網絡的深度信息傳遞,提高模型在不同場景下對茶葉嫩芽的識別能力。結果表明:AD-YOLOX-Nano算法的平均精度AP值和F1值分別為85.6%和86%,相較于同環境下YOLOX-Nano算法,該算法的模型大小基本保持不變,但其AP值和F1值分別提高2.7%和3%。與常用的YOLOv5-S、YOLOv4和Faster R-CNN等目標檢測算法相比,該AD-YOLOX-Nano算法模型大小僅為它們的1/7,但AP值分別提高5.4%、5.5%和6.28%。所提算法在模型輕量化和檢測精度方面優勢顯著,為茶葉智能化采摘的嵌入式硬件部署提供有效解決方案。

關鍵詞:茶葉嫩芽識別;AD-YOLOX-Nano算法;注意力機制;深度可分離卷積

中圖分類號:S24; TP391.4

文獻標識碼:A

文章編號:2095-5553 (2025) 01-0178-07

Tea bud recognition algorithm based on AD-YOLOX-Nano

Gao Fangzheng1, Wen Xin1, Huang Jiacai2, Chen Guangming3, Jin Shaoyu2, Zhao Xuedi2

(1. "School of Automation, Nanjing Institute of Technology, Nanjing, 211167, China;

2. School of Mechanical Engineering, Nanjing Institute of Technology, Nanjing, 211167, China;

3. College of Engineering, Nanjing Agricultural University, Nanjing, 210000, China)

Abstract:

In order to address the difficulties in identifying tea buds and improve the accuracy and robustness of tea bud recognition in natural environments, this paper develops an improved YOLOX-Nano algorithm (AD-YOLOX-Nano) by integrating attention mechanism and depthwise separable convolution. The algorithm is based on the YOLOX-Nano model, which uses CSPDarkNet as the backbone network. It reduces the workload of feature extraction by introducing Depthwise Separable Convolution in the CSPDarkNet network. The Convolutional Block Attention Module is incorporated into the feature pyramid of the YOLOX-Nano network to learn the feature correlation of different channels, enhance the transmission of depth information in the network, and improve the recognition capability of tea buds in different scenarios. The experimental results show that the AP value and F1 values of the AD-YOLOX-Nano algorithm are 85.6% and 86%, respectively. Compared to the YOLOX-Nano algorithm in the same environment, this algorithm maintains a similar model size, but achieves an improvement of 2.7% in AP value and 3% in F1 value. Compared to the commonly used object detection algorithms such as YOLOv5-S, YOLOv4, and Faster R-CNN, the AD-YOLOX-Nano algorithm has a model size of only 1/7 of theirs. But it achieves an improvement of 5.4%, 5.5%, and 6.28% in AP value, respectively. The proposed algorithm has significant advantages in terms of model lightweighting and detection accuracy, providing an effective solution for the deployment of embedded hardware for intelligent tea picking.

Keywords:

tea buds recognition; AD-YOLOX-Nano; attention mechanism; depthwise separable convolution

0"引言

茶葉是中國的傳統出口商品之一[1]。隨著生活水平的提高,人們對茶葉尤其名優茶的需求量日益劇增。然而,茶葉采摘是一項勞動密集型工作,具有采摘期短、工作強度大的特點,傳統的人工采摘方式受限于勞動力短缺、效率低下等因素無法滿足當前茶葉采摘應用需求[2]。因此,探索對茶葉嫩芽自動化識別和檢測,實現茶葉智能化采摘已成為當前研究熱點[3]

近年來,隨著深度學習算法的發展,基于深度學習的目標檢測方法在農產品檢測領域中得到廣泛應用[4]。以蘋果采摘為例,王卓等[5]提出了一種基于嵌入式平臺的改進YOLOv4型輕量化檢測方法,該方法的蘋果檢測平均精度為92.23%。尚鈺瑩等[6]提出了一種基于YOLOv5s的蘋果花朵檢測方法,該方法在精確率、召回率、模型大小和檢測速度方面表現出色,并且在不同天氣和光照條件下具有較高的穩定性和魯棒性。趙德安等[7]提出了基于YOLOv3的蘋果定位方法,該方法通過單個卷積神經網絡實現了復雜環境下蘋果的高效準確檢測,為蘋果采摘機器人的應用提供了理論基礎。在其他農產品檢測的研究中,劉小剛等[8]針對目前草莓識別定位大多在簡單環境下研究且存在識別效率較低的問題,提出了一種改進的YOLOv3草莓識別方法,測試集驗證顯示該方法精度均值為87.51%,并在果實遮擋和復雜場景下性能良好。另外,Liu等[9]在YOLOv3基礎上,通過圓形邊框提高番茄定位準確性,提出了一種改進的番茄檢測模型YOLO-Tomato,與Mask R-CNN等先進的檢測方法對比,該方法在復雜環境下表現出更為優越的檢測性能。楊堅等[10]提出了一種改進YOLOv4-tiny模型的番茄成熟度識別方法,該方法通過增加檢測頭、集成注意力模塊等技術,實現對遮擋和小番茄的準確識別,平均精度達到97.9%。

然而,針對茶葉嫩芽目標檢測的研究卻不多見。近年來,黃家才等[11]針對YOLOv4檢測模型進行輕量化改進,提出一種基于Compact-YOLOv4算法的茶葉嫩芽移動端識別方法。在保持檢測精度和速度前提下,該算法改進后的模型內存占用量僅為原來的1/5,降低了模型推理計算的硬件性能需求。朱紅春等[12]探索了Faster R-CNN目標檢測算法在復雜場景下茶葉嫩芽檢測方面的應用。在不區分茶葉嫩芽類型的情況下,該方法平均準確度為54%,均方根誤差為3.32。但上述研究由于未考慮復雜多變的自然環境下光線對茶葉嫩芽檢測效果的影響,造成算法對環境和光照要求較高,從而導致所提算法魯棒性不強,在實際應用中受到一定限制。

基于上述分析,為實現自然環境下茶葉嫩芽的精確快速識別,本文提出一種基于AD-YOLOX-Nano的茶葉嫩芽識別算法。該算法以YOLOX-Nano模型為基礎,通過在骨干網絡的特征金字塔中引入卷積注意力模塊,增強對目標特征的關注。同時,在CSPDarkNet網絡中引入深度可分離卷積,以減少特征提取的工作量,克服復雜環境下光線變化造成的識別困難。

1"圖像采集與數據集制作

1.1"試驗數據獲取

由于缺少可用的茶葉嫩芽數據集,在江蘇茶博園進行茶葉嫩芽圖片拍攝工作,采集時間為2023年3—5月。同時,為減少重復圖片以及不合格圖片對模型訓練的影響,對拍攝的圖片進行篩選,共得到3500張符合要求的圖片。圖1為部分合格圖片樣本。

1.2"數據集準備

使用開源軟件LabelImg對茶葉嫩芽圖片進行標注。采用拉框標注方法,將標注的圖片命名為“Teabud”,具體的標注原則:(1)對茶葉枝干上無遮擋的嫩芽進行標注。(2)對茶葉枝干有遮擋的情況,通過人工估計的方式進行標注。對其中嫩芽清晰可見的圖片進行標注;對被遮擋的嫩芽圖片則不進行標注。(3)對圖片中視野較遠的嫩芽,若其像素面積過小,則不進行標注。

1.3"數據集擴充

在茶葉嫩芽圖片中,復雜環境下不同天氣和不同時間光照條件不同,導致采集到的嫩芽圖片顏色差異很大;另外,室外茶壟生長姿態各異,茶葉嫩芽遮擋情況嚴重。為增加樣本多樣性,降低模型過擬合的概率,采用數據增廣的方式對數據集進行擴充。數據增廣可有效增加樣本的多樣性,提高模型的魯棒性[13]。采用圖像處理方法:(1)改變圖片的亮度來模擬實際情況中光照條件的變換。(2)使用仿射變換來模擬實際情況中攝像機角度的變換。(3)使用隨機遮擋來模擬實際環境中嫩芽在復雜多變的環境中被遮擋的情況。(4)添加隨機裁剪來擴充數據集數量。如圖2所示,通過以上方法,最終擴增數據集至6423張圖片。

2"改進YOLOX-Nano模型網絡構建

YOLOX-Nano是一種單階段目標檢測算法。通過引入多項創新技術,如Fcous結構、空間金字塔池化、YOLOHead和SimOTA動態正樣本匹配等技術,使得YOLOX-Nano比其他常用的YOLO系列檢測算法具備更快的收斂速度和更高的精度,從而可以實現高精度的快速目標檢測與識別任務。

2.1"注意力機制

2.1.1"通道注意力機制

通道注意力機制(Channel Attention Mechanism,CAM)主要用于關注輸入圖像中有意義的信息[14]。由兩個關鍵部分組成:全局信息池化和通道權重計算。全局信息池化是通過對整個特征圖進行空間維度上的池化操作,以獲取全局上下文信息。通道權重計算則利用全局信息來計算每個通道的重要性得分,常見的方法包括使用全連接層、卷積層或者簡單的線性變換。最后,將通道權重乘以原始特征圖,實現對不同通道特征的加權融合。通過引入通道注意力機制,模型可以自適應地學習每個通道的重要性,并對不同通道的特征進行動態調整,以更好地捕捉輸入數據中的相關信息。通道注意力機制可幫助模型集中關注最相關的特征,減少冗余信息的干擾,提高模型的判別能力和泛化能力。通道注意力模塊結構如圖3所示。

經過通道注意力機制處理后,輸入特征矩陣通過式(1)計算得到通道注意力機制輸出的特征映射。

F′=Mc(F)F

(1)

式中:

F——輸入的特征矩陣;

F′——

經過通道注意力機制處理后的特征映射;

Mc——通道壓縮權值矩陣。

2.1.2"空間注意力機制

空間注意力機制(Spatial Attention Mechanism,SAM)[15]可幫助模型集中注意力于感興趣的區域,提高模型的感知性能和準確性。

空間注意力機制同樣由兩部分組成:位置信息的提取和權重計算。位置信息的提取可以通過使用卷積操作或者其他空間變換操作來實現,以捕獲不同空間位置的特征表示。權重計算則根據位置信息對不同位置的重要性進行建模,通常使用全連接層、卷積層或者簡單的線性變換來計算位置權重。最后,將位置權重與原始特征圖相乘,實現對不同位置特征的加權融合。

通過引入空間注意力機制,模型可以自適應地學習不同空間位置的重要性,并調整輸入特征圖中不同位置的貢獻度,有助于模型集中關注重要的圖像區域,提高對關鍵信息的感知和提取能力。圖4為空間注意力模塊結構。

經過空間注意力機制處理后,通道注意力機制輸出的特征矩陣經過式(2)計算得到空間注意力機制輸出的特征矩陣。

F″=Ms(F′)F′

(2)

式中:

F″——空間注意力機制輸出的特征矩陣;

Ms——空間壓縮權值矩陣。

2.2"改進過程

YOLOX-Nano的主干網絡由多個跨階段層(Cross Stage Partial)組成,具有多個殘差網絡和較大的殘差邊,這些殘差會將特征信息連同包含的噪聲一起傳輸到較深的網絡中,對主干網絡的特征提取產生不利影響。因此,引入通道注意力模塊和空間注意力模塊,以增強網絡對重要特征的關注,抑制非必要特征的影響。

2.2.1"混合注意力機制

混合注意力機制是指將兩種或多種注意力機制結合在一起形成的全新注意力機制。將通道和空間兩種注意力機制進行混合。這種混合可以采用串聯或者并聯的方式進行多種組合。為確定具體方案,對通道和空間注意力機制的串并順序和基礎的SENet注意力機制[16]進行對比試驗,結果如表1所示。

由表1可知,采用YOLOX-Nano+CAM+SAM,即先通道后空間的方法效果更好。與Woo等[17]提出的卷積注意力模塊結構(CBAM)完全一致,CBAM模塊結構如圖5所示。

2.2.2"深度可分離卷積

BaseConv是YOLOX-Nano主干網絡的基本卷積結構,結構如圖6所示。BaseConv主要由Conv、BN、SiLU組成,在網絡中扮演著特征提取的關鍵角色,是模型主干網絡中最重要的組成部分。

然而,BaseConv卷積提取的特征過多會造成計算量較大,因此,為減少計算量,本研究在YOLOX-Nano主干網絡中引入深度可分離卷積(DSConv)[18],其結構如圖7所示。

通過應用深度可分離卷積,可以減少特征提取工作的計算量和參數量,更好地配合CBAM對圖像進行檢測。在資源受限的場景下,深度可分離卷積和CBAM的組合可以展現出更佳性能。

2.2.3"AD-YOLOX-Nano網絡結構

受上述試驗啟發,在YOLOX-Nano模型的主干網絡CSPDarkNet中引入深度可分離卷積,并將CBAM融入到改進后網絡的特征金字塔中,稱這種改進后的模型為AD-YOLOX-Nano,其結構如圖8所示。圖8中有底紋部分表示相對于原始YOLOX-Nano模型進行的改進和優化;而無底紋部分則保留原始網絡結構,不做改變。

2.3"模型訓練和測試

2.3.1"試驗平臺

訓練平臺為配備Windows10操作系統的臺式計算機,其中CPU為Intel Core i7-13700F,GPU為RTX2060。訓練環境和測試環境相同。

2.3.2"網絡訓練

將采集到的6423張圖片按7∶2∶1的比例隨機分為訓練集、驗證集和測試集,具體分類如表2所示。

對訓練參數進行配置,訓練模式為本機顯卡訓練的本地訓練模式;迭代輪次設置為300輪次;基礎學習率設置為默認值1;Patch大小選擇大;訓練中采用Mosaic增強和Mixup數據增強的方式進行數據增強。并且考慮在Mosaic增強過程中,如果樣本與實際情況偏離較大,可能會對模型的訓練效果造成負面影響,因此在訓練的最后30輪次中,關閉Mosaic和Mixup數據增強[19]

3"結果與分析

3.1"模型輕量化分析與比較

為驗證算法基礎網絡YOLOX-Nano的優異性,試驗使用相同的數據集訓練3種輕量化的YOLOX模型,分別為YOLOX-Nano、YOLOX-Tiny和YOLOX-S,如表3所示。

表3結果顯示,在相同的測試集下進行測試時,3種模型的F1值相差不大,即它們在目標檢測任務中的性能相對接近。然而,與YOLOX-tiny和YOLOX-S相比,YOLOX-Nano在平均精度AP方面表現更好,分別相較于YOLOX-Tiny和YOLOX-S提高4.3個百分點和2.6個百分點。此外,YOLOX-Nano的模型大小僅為3.70MB,遠小于YOLOX-tiny和YOLOX-S。

在上述結果中,YOLOX-Nano在更小的模型尺寸下表現最優,這是因為在訓練過程中對三種模型采用相同的增強策略(即消除Mosaic和MixUp的時期相同)。然而,不同大小的模型可能需要不同的增強策略。對于大模型而言,采用更強的增強策略可以帶來更好的效果。

綜上所述,由于小模型能夠在有限的計算資源和存儲容量下運行,并且仍能保持較好的檢測精度,因此在嵌入式和移動設備上部署目標檢測模型時,選擇小模型非常重要。因此,本研究選擇YOLOX-Nano作為基準模型,該模型在模型尺寸較小的情況下表現最優,并且具備在有限資源條件下高效執行目標檢測任務的能力。

3.2"消融試驗結果與分析

為驗證改進后YOLOX-Nano模型的性能,在茶葉嫩芽數據集上進行消融試驗。試驗在原有YOLOX-Nano模型的基礎上加入CBAM與DSConv,訓練過程中,試驗結果如表4所示。從表4可以看出,原模型的AP值為82.9%。引入CBAM模塊后,AP值提高2.1%。引入DSConv模塊后,AP值則提高0.7%。兩則共同配合后,模型的AP值提高2.7%。試驗結果表明,改進方案取得預想的效果,證明改進的有效性。

3.3"改進后YOLOX-Nano模型識別結果與分析

為驗證改進后YOLOX-Nano模型的性能,在相同的茶葉嫩芽數據集上進行對比試驗。如圖9所示,YOLOX-Nano模型在檢測難度較高的目標上存在漏檢問題,而AD-YOLOX-Nano模型無此現象。同時,對于正確檢測到的目標,YOLOX-Nano檢測到的相同嫩芽的置信度從左到右分別為0.96、0.87、0.97、0.98,而AD-YOLOX-Nano模型檢測到的同樣的茶葉嫩芽的置信度從左到右分別0.99、0.97、0.98、0.97,表明AD-YOLOX-Nano模型在識別茶葉嫩芽時具有明顯更高的置信度。改進前后模型檢測結果對比如表5所示,各指標對比如圖10所示。

根據表5可知,提出的AD-YOLOX-Nano目標檢測網絡,在模型大小基本不變及平均檢測時間相差不大的情況下,精確率P值、召回率R值、F1值和AP值均有所提升。改進后P值為89.21%,相較于YOLOX-Nano網絡提升5.75%;R值為83.01%,相較于YOLOX-Nano網絡提升0.67%;F1值為86%,相較于YOLOX-Nano網絡提升3%;AP值為85.6%,相較于YOLOX-Nano網絡提高2.7%。

在復雜自然環境下,AD-YOLOX-Nano模型可以在一定程度上提高茶葉嫩芽識別結果的魯棒性。CBAM通過通道注意力機制和空間注意力機制,分別對特征圖中不同的通道和不同位置的特征點賦予權重值,深度可分離卷積則減少計算量和參數量,二者的結合使得提取到的茶葉嫩芽特征更加精煉,總體上提升模型檢測的平均精度,其模型體積和檢測時間也均滿足嵌入式設備部署需求。

3.4"橫向對比試驗

為客觀評估AD-YOLOX-Nano模型的性能,在相同條件下訓練其他輕量化的YOLO模型,并與AD-YOLOX-Nano模型進行對比,結果如表6所示。

由表6可知,AD-YOLOX-Nano模型的F1值最高,與YOLOv5-S[20]和YOLOv4[21]相比,其在AP值上分別提高5.4%和5.5%,同時模型大小僅為它們的1/7,平均檢測時間也快于YOLOv4。與雙階段檢測器Faster R-CNN[22]相比,AD-YOLOX-Nano的AP值提高6.28%,在平均檢測時間和模型大小均有顯著提升。與輕量化網絡Compact-YOLOv4[11]相比,AD-YOLOX-Nano的AP值提高12.67%。

4"結論

1) 針對傳統基于深度學習的識別方法在茶葉嫩芽識別方面存在的不足,提出一種基于AD-YOLOX-Nano的茶葉嫩芽檢測方法。該方法以YOLOX-Nano模型為基礎,通過在骨干網絡的特征金字塔中引入卷積注意力模塊,增強對目標特征的關注。同時,在CSPDarkNet網絡中引入深度可分離卷積,減少特征提取的工作量。

2) AD-YOLOX-Nano網絡在茶葉嫩芽檢測方面的AP值為85.6%,F1值為86%,與原YOLOX-Nano模型相比,這兩個指標均有明顯提升。與YOLOv5-S、YOLOv4、Faster R-CNN等模型相比,AD-YOLOX-Nano模型在茶葉嫩芽識別效果上也表現出顯著優勢。

3) AD-YOLOX-Nano模型對單幅圖像的檢測時間為21.72ms,幀率為46f/s,模型大小為3.76MB,適用于嵌入式設備和移動端設備的硬件部署需求。

綜上所述,本研究所提的AD-YOLOX-Nano目標檢測算法在模型大小、檢測精度和檢測速度方面均具有一定優勢,對茶葉智能化采摘的嵌入式硬件部署提供可行方案,也可為其他農產品的采摘提供參考。

參"考"文"獻

[1]

Pan S Y, Nie Q, Tai H C, et al. Tea and tea drinking: China,s outstanding contributions to the mankind [J]. Chinese Medicine, 2022, 17(1): 1-40.

[2]

Han Y, Xiao H, Qin G, et al. Developing situations of tea plucking machine [J]. Engineering, 2014, 6(6):45606.

[3]

Xu W, Zhao L, Li J, et al. Detection and classification of tea buds based on deep learning [J]. Computers and Electronics in Agriculture, 2022, 192: 106547.

[4]

孫紅,李松,李民贊,等.農業信息成像感知與深度學習應用研究進展[J].農業機械學報, 2020,51(5):1-17.

Sun Hong, Li Song, Li Minzan, et al. Research progress of image sensing and deep learning in agriculture [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(5): 1-17.

[5]

王卓,王健,王梟雄,等.基于改進YOLOv4的自然環境蘋果輕量級檢測方法[J].農業機械學報, 2022,53(8):294-302.

Wang Zhuo, Wang Jian, Wang Xiaoxiong, et al. Lightweight real-time apple detection method based on improved YOLOv4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(8): 294-302.

[6]

尚鈺瑩,張倩如,宋懷波. 基于YOLOv5s的深度學習在自然場景蘋果花朵檢測中的應用[J].農業工程學報, 2022,38(9):222-229.

Shang Yuying, Zhang Qianru, Song Huaibo. Application of deep learning using yolo v5s to apple flower detection in natural scenes [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(9): 222-229.

[7]

趙德安,吳任迪,劉曉洋,等.基于YOLO深度卷積神經網絡的復雜背景下機器人采摘蘋果定位[J].農業工程學報, 2019,35(3):164-173.

Zhao De,an, Wu Rendi, Liu Xiaoyang, et al. Apple positioning based on yolo deep convolutional neural network for picking robot in complex background [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(3): 164-173.

[8]

劉小剛,范誠,李加念,等.基于卷積神經網絡的草莓識別方法[J].農業機械學報, 2020,51(2):237-244.

Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.

[9]

Liu G, Nouaze J C, Touko Mbouembe P L, et al. YOLO-tomato: A robust algorithm for tomato detection based on YOLOv3 [J]. Sensors, 2020, 20(7): 2145.

[10]

楊堅,錢振,張燕軍,等.采用改進YOLOv4-tiny的復雜環境下番茄實時識別[J].農業工程學報, 2022,38(9):215-221.

Yang Jian, Qian Zhen, Zhang Yanjun, et al. Real-time recognition of tomatoes in complex environments based on improved YOLOv4-tiny [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022,38(9):215-221.

[11]

黃家才, 唐安, 陳光明,等. 基于Compact-YOLOv4的茶葉嫩芽移動端識別方法[J]. 農業機械學報, 2023, 54(3):282-290.

Huang Jiacai, Tang An, Chen Guangming, et al. Mobile recognition solution of tea buds based on Compact-YOLOv4 algorithm [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(3):282-290.

[12]

朱紅春,李旭,孟煬,等.基于Faster R-CNN網絡的茶葉嫩芽檢測[J].農業機械學報, 2022,53(5):217-224.

Zhu Hongchun, Li Xu, Meng Yang, et al. Tea bud detection based on Faster R-CNN network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(5):217-224.

[13]

陳國防,陳兆英,王玉亮,等.基于數據增強深度學習的蘋果花檢測方法研究[J].中國農機化學報,2022,43(5):148-155.

Chen Guofang, Chen Zhaoying, Wang Yuliang, et al. Research on detection method of apple flower based on data-enhanced deep learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(5): 148-155.

[14]

衛雅娜,王志彬,喬曉軍,等.基于注意力機制與EfficientNet的輕量化水稻病害識別方法[J].中國農機化學報, 2022, 43(11): 172-181.

Wei Yana, Wang Zhibin, Qiao Xiaojun,et al. Lightweight rice disease identification method based on attention mechanism and efficientnet [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(11): 172-181.

[15]

于雪瑩,高繼勇,王首程,等.基于生成對抗網絡和混合注意力機制殘差網絡的蘋果病害識別[J].中國農機化學報, 2022, 43(6): 166-174.

Yu Xueying, Gao Jiyong, Wang Shoucheng, et al. Apple disease recognition based on wasserstein generative adversarial networks and hybrid attention mechanism residual network [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(6): 166-174.

[16]

王紅君,季曉宇,趙輝,等.SENet優化的Deeplabv3+淡水魚體語義分割[J].中國農機化學報,2021,42(2):158-163.

Wang Hongjun, Ji Xiaoyu, Zhao Hui, et al. SENet optimized Deeplabv3+ freshwater fish body semantic segmentation [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(2): 158-163.

[17]

Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision, 2018: 3-19.

[18]

王建翠,惠巧娟,吳立國.基于多尺度注意力和深度可分離卷積的農田雜草檢測[J].中國農機化學報, 2023, 44(5): 182-187.

Wang Jiancui, Hui Qiaojuan, Wu Liguo. Field weeds detection based on multi scale attention and depth separable convolution [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 182-187.

[19]

Hao W, Zhili S. Improved mosaic: Algorithms for more complex images [C]. Journal of Physics: Conference Series. IOP Publishing, 2020, 1684(1): 012094.

[20]

Zhou Q, Zhang W, Li R, et al. Improved YOLOv5-S object detection method for optical remote sensing images based on contextual transformer [J]. Journal of Electronic Imaging, 2022, 31(4): 043049.

[21]

Li S, Cui X, Guo L, et al. Enhanced automatic root recognition and localization in GPR images through a YOLOv4-based deep learning approach [J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1-14.

[22]

尚文卿,齊紅波.基于改進Faster R-CNN與遷移學習的農田雜草識別算法[J].中國農機化學報,2022,43(10):176-182.

Shang Wenqing, Qi Hongbo. Identification algorithm of field weeds based on improved Faster R-CNN and transfer learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(10): 176-182.

主站蜘蛛池模板: 亚洲成网站| 久久精品国产91久久综合麻豆自制| 欧美成人看片一区二区三区 | 狠狠综合久久| 国产人在线成免费视频| 国产成人精品一区二区| 极品国产在线| 538精品在线观看| 亚洲五月激情网| 97国产精品视频人人做人人爱| 玖玖免费视频在线观看| 又爽又黄又无遮挡网站| 超清人妻系列无码专区| 久久无码av三级| 欧亚日韩Av| av在线手机播放| 亚洲精品不卡午夜精品| 亚洲第一福利视频导航| 免费a在线观看播放| 亚洲av无码牛牛影视在线二区| 网友自拍视频精品区| 国产v精品成人免费视频71pao | 91色在线观看| 麻豆AV网站免费进入| 日韩第一页在线| 久久久久中文字幕精品视频| 六月婷婷激情综合| 国产精品微拍| 亚洲日韩图片专区第1页| 一级毛片在线播放| 久久久久无码精品国产免费| 国产探花在线视频| 天天做天天爱夜夜爽毛片毛片| 伊人福利视频| 成人午夜网址| 在线看片免费人成视久网下载| 久久无码免费束人妻| 欧美成人综合视频| 欧美特黄一级大黄录像| 亚洲欧美国产视频| 亚洲欧美不卡中文字幕| 亚洲无码37.| 欧美性久久久久| 国产h视频免费观看| 国产天天射| 亚洲日本中文字幕天堂网| 色悠久久综合| 久草青青在线视频| 国产人成乱码视频免费观看| 国产成人精品男人的天堂下载| 91系列在线观看| 呦视频在线一区二区三区| 久久国产精品麻豆系列| 欧美日本视频在线观看| 亚洲人成在线精品| 国产精品99r8在线观看| 亚洲大学生视频在线播放| 成年人国产网站| 免费看的一级毛片| 国产精品免费久久久久影院无码| 国产成人一级| 中文精品久久久久国产网址| 成人午夜网址| 丁香综合在线| 成人第一页| 成人午夜网址| 国产亚洲视频免费播放| 91热爆在线| 六月婷婷激情综合| 女同国产精品一区二区| 午夜啪啪网| 精品国产aⅴ一区二区三区| 高清国产va日韩亚洲免费午夜电影| 色偷偷男人的天堂亚洲av| 全部免费特黄特色大片视频| 区国产精品搜索视频| 国产麻豆精品手机在线观看| 亚洲伊人电影| 2021最新国产精品网站| 色哟哟国产精品| 五月天在线网站| 国产jizz|