















摘要:
在水稻種植過程中,為實現人工施肥行為自動化的檢測和識別,以浙江省寧波市海曙區數字農業中心水稻田間的人工施肥行為識別作為研究目標,開展基于YOLOv8算法的水稻田間人工施肥行為識別研究。在YOLOv8算法的基礎上增加目標檢測層,保留淺層特征信息,增強網絡模型對小尺寸目標特征的感知能力;引入全局注意力模塊,增強網絡模型對全局特征信息的關注度。結果表明,改進后的YOLOv8-GS識別模型mAP值為98.4%,比原YOLOv8模型提高2.4%,每幅圖像檢測時間為1.7ms。對小尺寸目標測試集檢測,mAP值為98.6%,比改進前提高3.3%。YOLOv8-GS模型具有高精度、實時性、多尺度等優點,特別是對小尺寸目標具有較強的檢測和識別能力。
關鍵詞:水稻;施肥;行為識別;YOLOv8;檢測層;注意力機制
中圖分類號:S282; TP391.41
文獻標識碼:A
文章編號:2095-5553 (2025) 01-0220-07
Detection and recognition of artificial fertilization behavior in rice fields
based on improved YOLOv8
Lu Ming1, Yu Xinjie2, Guo Junxian1
(1. "College of Mechanical and Electrical Engineering, Xinjiang Agricultural University, Urumqi, 830052, China;
2. College of Computer and Data Engineering, Ningbo Tech University, Ningbo, 315100, China)
Abstract:
In order to automate the detection and recognition of manual fertilizer application during the rice cultivation process, this study focuses on the recognition of manual fertilizer application in the rice fields at the Digital Agriculture Center in Haishu District, Ningbo City, Zhejiang Province. The research utilizes the YOLOv8 algorithm for behavior recognition and detection of manual fertilizer application in the rice fields. Building upon the YOLOv8 algorithm, a target detection layer is introduced to retain shallow feature information and enhance the perception capability of the network model towards small-sized targets. Additionally, a global attention module is incorporated to improve the emphasis on global feature information by the network model. The research results demonstrate that the improved YOLOv8-GS recognition model achieves an mAP value of 98.4%, exhibiting a 2.4% improvement compared to the original YOLOv8 model. The detection time of each image is 1.7ms. Specifically for the test set featuring small-sized targets, the mAP value reaches 98.6%, indicating a 3.3% improvement from the previous version. These findings validate that the YOLOv8-GS model possesses advantages such as high precision, real-time performance, and multi-scale capabilities, especially for small-size targets with strong detection and recognition ability.
Keywords:
rice; fertilizer application; behavior recognition; YOLOv8; detection layer; attention mechanism
0"引言
中國糧食作物中水稻的消耗量占60%以上,水稻總產量達200 000kt以上,種植面積約30 000khm2[1]。自然因素和人為活動的影響,導致土壤肥力水平逐年降低,農戶為保障水稻穩產增產,擴大化肥使用量,造成水稻貪青晚熟、倒伏減產,過量施用化肥還會造成土壤理化性能改變[2, 3],造成環境污染,制約水稻產業的健康發展。因此,實時、準確地檢測水稻田間化肥施用行為,對化肥施用行為記錄、休肥期管控、精準化監控化肥施用強度、化肥減量增產技術的應用具有重要意義[4]。
隨著機器視覺技術的發展,已有學者將機器視覺技術用于行為識別方法研究,Ghabri等[5]提出了一種基于時空特征和梯度方向直方圖融合的人體行為識別方法,分類準確率達到82.26%,該方法所需數據量較大,計算成本較高。Zheng等[6]提出了一種基于骨架特征的雙流卷積網絡,TOP-1為36.0%、TOP-5為59.1%,改善了骨架關鍵點坐標誤差問題。李子茂等[7]通過Openpose提取關節點信息、YOLOv3提取位置和類別信息,再通過特征融合的方式,實現了部分農事行為的識別,準確率94.87%。趙守耀等[8]通過對蛋雞輪廓特征排列組合,通過極限學習機訓練,成功對多種蛋雞行為進行準確識別,最高識別率97%。以上方法依賴于人體關鍵點和外觀輪廓特征的提取,如果目標尺度過小、遮擋嚴重,則無法提取足夠的特征信息,影響檢測結果,算法網絡結構復雜,特征信息參數較大,識別速度較慢。
隨著機器視覺技術在農業領域的不斷發展,郭建軍等[9]通過在YOLOv4特征金字塔中引入自適應空間特征融合模塊,提出了肉鴿的行為檢測模型,檢測速度為8.1幀/s,mAP值為91.97%。王政等[10]通過對YOLOv5n模型進行剪枝操作,提出了一種更為輕量化的奶牛爬跨行為識別模型,檢測速度為50.26幀/s,mAP值為97.7%。楊斷利等[11]通過將Dense Block結構融入YOLOv6-tiny識別模型中,提升了蛋雞啄羽行為的檢測精度,mAP值為92.93%。
上述方法雖然能夠實現目標行為的檢測和識別,但隨著YOLO算法迭代發展,已有檢測速度更快、識別精度更高的目標行為檢測和識別方法。本文對YOLOv8網絡通過增加檢測層和注意力機制的方式進行改進,以提升模型的小目標檢測能力,使用寧波市海曙區古林鎮數字農業中心的水稻田間網絡攝像頭進行人工施肥行為數據的采集,通過對網絡模型進行大量訓練,提出一種可以實現水稻田間人工施肥行為高精度、實時性檢測和識別的網絡模型。
1"圖像采集與處理
1.1"圖像采集
研究數據采集自浙江省寧波市海曙區數字農業中心,選取南區綜合四情監測點網絡攝像機(DS-2DF71TPNYW-03-A)、主泵房監測點網絡攝像機(DS-2DE72TPNYW-02-A)、大棚外球機監測點網絡攝像機(iDS-2DF8237IXR-A/S1,)三個水稻田間網絡攝像機所記錄的人工施肥視頻數據,視頻記錄時間為2023年4—6月。
1.2"圖像處理
將原始視頻數據進行人工篩選,獲得南區綜合四情監測點12段、大棚外球機監測點28段、主泵房監測點36段,合計時長約為19h的視頻數據,視頻幀率為25幀/s。采用視頻分幀技術,為避免丟失關鍵信息,以每25幀取1幅圖像的方式獲得67 524幅圖像,圖像分辨率為1 280像素(水平)×720像素(垂直)。由于按照以上方式獲得的圖像數據存在大量無用和低質量圖像樣本,相鄰幀的相似度較高,冗余圖像過多,從而導致樣本分布不均衡、訓練時間增加、模型過擬合等問題,所以先經過人工篩選去除無用圖像后獲得42 541幅圖像樣本,再通過結構相似性(Structural Similarity,SSIM)算法[12],將相鄰幀圖像樣本進行比較剔除冗余圖像后獲得10 538幅圖像,計算如式(1)所示。
SSIM(x,y)=(2μxμy+C1)(2σxy+C2)(μx2+μy2+C1)(σx2+σy2+C2)
(1)
式中:
SSIM(x,y)——
圖像x與y相似度指數;
μx——
圖像x的像素平均值;
μy——
圖像y的像素平均值;
σx——
圖像x的像素標準差;
σy——圖像y的像素標準差;
σxy——
圖像x與y的像素協方差;
C1、C2——任意常數。
最后通過峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)算法[13],去除低質量圖像樣本后獲得5 267幅圖像,計算如式(2)和式(3)所示。
MSE=1mn∑m-1i=0∑n-1j=0[I(i,j)-K(i,j)]2
(2)
PSNR=10×log10MAXI2MSE
(3)
式中:
MSE——均方誤差;
mn——大小為m×n的原始圖像;
K——添加噪聲后的圖像;
I(i,j)——真實圖像;
K(i,j)——待評價圖像;
MAXI——圖像最大像素值。
1.3"數據集建立
為避免訓練集與測試集圖像樣本出自同一段視頻數據,將大棚外球機監測點與主泵房監測點的視頻數據作為訓練與驗證數據,將南區綜合四情監測點的視頻數據作為測試數據。經過處理后獲得訓練集與驗證集圖像樣本4 213幅,測試集圖像樣本1 054幅,將4 213幅圖像隨機抽取出422幅作為驗證集,剩余3 791幅作為訓練集,訓練集、驗證集、測試集之比約為7∶1∶2。使用LabelImg標注工具進行標注,以人與工具的最小外接矩形作為標注框,標注標簽為“Fertilizer application”,標注信息保存為視覺目標分類(Visual Object Classes, VOC)格式。
由于水稻田間施肥工作區域較大,網絡攝像頭為固定拍攝,獲取的目標樣本尺寸差異較大,為驗證模型對不同尺寸目標的檢測能力,按照標記目標框的像素面積將目標劃分為小目標(目標框面積≤(寬×高)70×90)、中目標((寬×高)70×90≤目標框面積≤(寬×高)140×300)、大目標(目標框面積≥(寬×高)140×300),如圖1所示。按照同樣的方式將數據集分別劃分為訓練集、測試集、驗證集,如表1所示。
2"模型建立與試驗
2.1"建模硬件平臺
建模使用Ubuntu 20.04.4 LTS操作系統,處理器型號為Intel(R) Core(TM) i7-10700F CPU@2.90 GHz,顯卡型號為NVIDIA GeForce RTX 3090,顯存大小為24 G,內存大小為64 G,深度學習框架為PyTorch 1.13.1,CUDA 11.6,編程平臺為PyCharm,所有程序都是由Python3.9.7語言編寫并且在相同環境下運行。
2.2"評價指標
采用精確率P,召回率R,平均精度均值mAP,作為評價模型的指標。設定置信度>0.5,正例;置信度≤0.5,反例。計算如式(4)~式(6)所示。
P=TP(TP+FP)×100%
(4)
R=TP(TP+FP)×100%
(5)
mAP=∑Ci=1AP(C)C×100%
(6)
式中:
TP——正例預測為正例的數量;
FP——負例預測為正例的數量;
FN——正例預測為負例的數量;
AP(C)——
類別C的平均精確度即P-R曲線下的面積;
C——檢測類別數量。
研究只有“Fertilizer application”一個類別,故C值為1,由于本文檢測和識別任務實時性的需要,故將每幅圖像檢測所需時間也作為模型評價指標之一。
2.3"基于YOLOv8的水稻田間人工施肥行為識別
2.3.1"YOLOv8網絡結構
YOLOv8是一個可同時兼顧識別精度和檢測速度進行多尺度目標檢測的輕量級目標檢測算法[14],網絡結構如圖2所示。
YOLOv8的網絡結構主要由以下四部分組成:(1)輸入端:由馬賽克(Mosaic)數據增強、自適應錨框計算、自適應灰度填充組成。(2)骨干網絡:由Conv、C2f和SPPF結構組成,其中C2f模塊參考YOLOv5的C3模塊和YOLOv7的ELAN[15]模塊的設計思想,通過增加更多的分支,從而獲得更加豐富的梯度流信息。(3)頸部網絡:采用PAN結構[16],PAN結構的主要優勢在于能夠有效利用不同尺度的特征信息,實現高效的特征融合,提升目標檢測任務的性能。(4)頭部網絡:采用解耦頭結構,減少參數數量和計算復雜度,同時增強模型的泛化能力和魯棒性。損失函數計算使用Task-Aligned Assigner正樣本分配策略[17],邊框回歸損失采用CIOU損失函數和Distribution Focal Loss[18],類別分類損失使用BCE Loss。
2.3.2"YOLOv8模型訓練與檢測
模型輸入圖像尺寸為640像素×640像素,每批處理圖像為16,初始訓練設置為400輪次,為防止模型過度擬合訓練,patience設置為25,當模型在驗證集上連續25個輪次中的性能沒有顯著提升時提前停止訓練,訓練過程中記錄每一個訓練輪次的損失值,損失值變化如圖3所示,損失值在40輪次開始趨于穩定,表明模型對數據的擬合能力不斷提高,在180輪次左右損失值在0.020附近波動并達成收斂,表明模型達到了穩定狀態。
訓練后獲得的YOLOv8模型在測試集上檢測,P值為96.3%、R值為94.5%、mAP值為96%,每幅圖像檢測時間為2.3ms。
為測試模型對不同尺寸目標的檢測能力,又分別在大目標、中目標、小目標三個測試集上單獨檢測,結果如表2所示。試驗結果表明,YOLOv8模型具有多尺度目標檢測能力,對三種尺寸的目標都有較好的檢測效果,但是在小尺寸目標的數據集上檢測性能偏低。
2.4"基于YOLOv8-GS的水稻田間人工施肥行為識別
由于田間實際勞作場景面積較大,受實際應用成本和應用環境限制,不會在農田大量布置網絡攝像機,導致實際應用時,網絡攝像機獲取的數據大部分為小尺寸的目標,為增強模型的小目標檢測能力,對現有的YOLOv8網絡結構進行改進,使得模型更符合實際應用需求。
2.4.1"增加檢測層
YOLOv8的網絡下采樣倍數較大,連續使用兩個3×3的卷積核進行卷積操作,雖然可以提取更高級別的語義特征,但也導致較小目標在下采樣過程中難以進行有效的特征表示,為提高所建立的YOLOv8模型在小尺寸目標上的檢測性能,在原有網絡結構基礎上,通過增加檢測層的方式提高網絡的感受野,增強網絡對小尺寸目標特征信息的關注度,從而提升小尺寸目標的檢測能力。改進后的網絡增加了原特征提取過程中沒有進行特征融合的160×160的檢測層,在特征融合過程中增加1次上采樣次數,將較淺的特征信息與較深特征信息拼接,更多的保留小尺寸目標的特征信息,如圖4所示。
2.4.2"增加全局注意力機制
注意力機制(Attention Mechanism)在深度學習中起重要作用,可以協助模型對輸入數據的關鍵信息進行加權關注,從而提高模型的性能和效果[19],通過將注意力權重應用在不同的圖像區域使模型可以更好地理解圖像的上下文信息。
全局注意力機制(Global Attention Mechanism,GAM)[20]是一種在目標檢測模型中常用的注意力機制,通過對輸入的特征像素區域進行加權關注,幫助模型理解全局的上下文信息。在特征融合階段增加GAM模塊,可以將不同層級的特征進行加權融合,促使模型可以同時關注到低級與高級特征,從而提高模型對不同尺度目標的檢測能力,通過在池化層(SPPF)前增加GAM模塊,可以提高感興趣區域的分辨率,全局注意力機制模塊的結構如圖5所示。
GAM通過以下流程對輸入特征圖進行增加權重:(1)輸入和特征提取:輸入特征圖像,通道數為N、長為L、寬為W,經過特征提取后可以看作N個通道上的二維特征矩陣。(2)全局平均池化:對特征圖進行全局平均池化操作,將每一個通道上的特征按照空間維度(L,W)進行平均池化,得到每一個通道上的一個標量值作為整個通道的特征。(3)縮放和激活:全局平均池化的結果進行縮放和非線性激活函數操作。(4)權重計算:將縮放和激活后的特征進行權重計算,得到N個通道上的權重向量,用來表示每一個通道在全局上的重要性。(5)特征加權:將原始特征圖與計算得到的權重進行逐通道的點乘操作,獲得加權后的特征圖。(6)最后將加權后的特征圖進行重塑和融合,使其恢復到與輸入圖像相同的維度。通過在增加目標檢測層的網絡結構基礎上引入全局注意力機制的方式進行改進,使得新網絡結構更能適應研究任務的需求,對增加目標檢測層和引入全局注意力機制的網絡命名為YOLOV8-GS,網絡結構如表3所示。
2.4.3"YOLOv8-GS模型訓練與檢測
YOLOv8-GS網絡使用與YOLOv8相同的參數設定進行訓練,獲得的模型在測試集上檢測,P值為98.1%,較改進前提升1.8%,R值為97.4%,較改進前提升2.9%,mAP值為98.4%,較改進前提升2.4%,檢測效果如圖6所示。結果表明,該網絡模型可以在含有非施肥人員的復雜背景下識別出人工施肥行為。
總計對1 054幅測試集樣本進行檢測,以檢出率作為驗證模型測試集檢測效果的指標之一,計算可得,檢出率為96.77%,每幅圖像檢測時間為1.7ms,結果證明YOLOv8-GS模型能夠對不同尺度的目標進行快速準確的識別和檢測。
檢出率=檢出目標數量目標總數×100%
3"試驗結果與討論
3.1"消融試驗
為驗證YOLOv8-GS的改進效果,采用消融試驗的方式,對比不同改進方式的提升效果。通過逐步移除檢測層與GAM的方式來評估其對模型性能影響。通過試驗分析增加目標檢測層和GAM對模型整體性能的貢獻,觀察模型在445幅小尺寸目標測試集上的表現情況,消融試驗結果如表4所示。
試驗結果表明,單獨增加檢測層,模型的P值提升1.6%、R值提升1.5%、mAP值提升1.7%,單獨增加GAM,模型的P值提升1.1%、R值提升2.1%、mAP值提升2.6%,同時增加目標檢測層和GAM,模型P值提升1.6%、R值提升3.5%、mAP值提升3.3%,試驗證明同時增加檢測層和GAM對模型性能提升最大。
3.2"對比試驗
為進一步評價本文提出的YOLOv8-GS模型在不同尺寸目標數據集上的檢測性能是否比其他網絡更適合本研究檢測任務的需求,將YOLOv8-GS、YOLOv7、SSD、Faster R-CNN四種網絡在大尺寸目標、中尺寸目標、小尺寸目標三個數據集上分別訓練并比較其檢測效果。圖7是不同網絡模型在不同尺寸目標數據集上訓練時平均精度均值的變化曲線。
由圖7可以看出,四個模型在大尺寸目標數據集上mAP均在前20個訓練輪次快速提升至0.9以上,并在0.95附近波動完成收斂,由于大尺寸目標數據集樣本量較少,導致模型很容易受到噪聲或數據分布不均衡等因素的影響,所以模型在初始階段表現出較大的性能波動屬于正常現象。Faster R-CNN與SSD得益于更為復雜的網絡結構和更深更底層的特征提取器,使其mAP的收斂速度要優于YOLOv8-GS與YOLOv7,但是YOLOv8-GS與YOLOv7的mAP指標表現要優于Faster R-CNN與SSD;在中尺寸目標數據集上,隨著數據集樣本量的提升,模型訓練表現出更好的訓練效果,由于SSD使用固定大小的先驗框進行目標匹配和預測,先驗框的大小不再適應當前目標尺度的變化,所以SSD的mAP指標表現略低,而其他三個網絡則使用更為靈活的錨框和區域提議機制,可以更好地適應目標尺度的變化;在小尺寸目標數據集上由于特征提取困難、環境噪聲影響增大導致mAP值波動劇烈,此時YOLOv8-GS的mAP指標明顯優于其他三個網絡。
不同網絡在大、中、小尺寸目標測試集上的檢測結果對比如表5所示。試驗結果證明,YOLOv8-GS網絡模型在本研究的多尺度目標檢測任務中,檢測效果優于YOLOv7、Faster R-CNN和SSD網絡模型。
4"結論
1) "提出一種基于YOLOv8改進的水稻田間人工施肥行為檢測模型YOLOv8-GS,P為98.1%、R為97.4%、mAP為98.4%、每幅圖像檢測時間1.7ms,在兼顧檢測速度的同時,擴大模型的感受野,增強模型對不同尺度特征信息的關注度,實現水稻田間人工施肥行為的準確檢測。
2) "通過逐步移除目標檢測層和GAM的消融試驗,驗證模型的改進性能,證明同時增加檢測層和GAM的YOLOv8-GS網絡模型對小尺寸目標檢測性能提升最大,mAP為98.6%,比原網絡提升3.3%。
3) "對比四個網絡模型在不同尺寸目標測試集上的檢測結果,在大、中尺寸目標任務中,四個網絡模型檢出率與mAP均達到95%以上,在小尺寸目標任務中YOLOv8-GS的檢出率為92.8%、mAP為98.3%。結果表明,YOLOv8-GS比Faster R-CNN、SSD、YOLOv7更適合本研究的檢測任務,為后續水稻基地應用部署化肥施用行為識別裝備等工作提供依據。
參"考"文"獻
[1]
鄧毓灝, 鄺美杰, 黑澤文, 等. 水稻間作生產模式的綜合效應研究進展及展望[J]. 山東農業科學, 2023, 55(6): 1-13.
Deng Yuhao, Kuang Meijie, Hei Zewen, et al. Research progress and prospect of integrated effects of rice intercropping production patterns [J]. Shandong Agricultural Sciences, 2023, 55(6): 1-13.
[2]
黃鉆華, 趙林蓉. 有機肥替代部分化肥對水稻產量及土壤質量的影響[J]. 農業科技通訊, 2023(3): 104-106, 195.
[3]
劉芳, 劉帥. 化肥施用量對中國糧食產量的影響分析[J]. 中國農機化學報, 2021, 42(8): 92-100.
Liu Fang, Liu Shuai. Analysis of the effect of chemical fertilizer application on grain yield in China [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(8): 92-100.
[4]
吳英英. 水稻化肥減量增效施用技術試驗研究[J]. 種子科技, 2023, 41(8): 4-6.
[5]
Ghabri S, Ouarda W, Alimi A M. Towards human behavior recognition based on spatio temporal features and support vector machines [C]. International Conference on Machine Vision, 2017.
[6]
Zheng B, Chen L, Wu M, et al. Skeleton-based action recognition using two-stream graph convolutional network with pose refinement [C]. Chinese Control Conference. IEEE, 2022: 6353-6356.
[7]
李子茂, 余慧, 夏夢, 等. 基于圖像特征融合的農事活動行為的識別[J]. 湖南農業大學學報(自然科學版), 2021, 47(5): 603-608.
Li Zimao, Yu Hui, Xia Meng, et al. Recognition of the agricultural activities based on image feature fusion [J]. Journal of Hunan Agricultural University (Natural Sciences), 2021, 47(5): 603-608.
[8]
趙守耀, 陸輝山, 王福杰, 等. 基于輪廓特征的單只蛋雞行為識別方法[J]. 中國農機化學報, 2022, 43(2): 143-147.
Zhao Shouyao, Lu Huishan, Wang Fujie, et al. Recognition method of single layer behavior based on contour feature [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(2): 143-147.
[9]
郭建軍, 何國煌, 徐龍琴, 等. 基于改進YOLOv4的肉鴿行為檢測模型研究[J]. 農業機械學報, 2023, 54(4): 347-355.
Guo Jianjun, He Guohuang, Xu Longqin, et al. Pigeon behavior detection model based on improved YOLOv4 [J]. Transactions of the Chinese Society of Agricultural Machinery, 2023, 54(4): 347-355.
[10]
王政, 許興時, 華志新, 等. 融合YOLOv5n與通道剪枝算法的輕量化奶牛發情行為識別[J]. 農業工程學報, 2022, 54(5): 130-140.
Wang Zheng, Xu Xingshi, Hua Zhixin, et al. Lightweight recognition for the oestrus behavior of dairy cows combining YOLOv5n and channel pruning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 54(5): 130-140.
[11]
楊斷利, 王永勝, 陳輝, 等. 基于改進YOLO v6-tiny的蛋雞啄羽行為識別與個體分類[J]. 農業機械學報, 2023, 38(23): 268-277.
Yang Duanli, Wang Yongsheng, Chen Hui, et al. Feather pecking abnormal behavior identification and individual classification method of laying hens based on improved YOLO v6-tiny [J]. Transactions of the Chinese Society of Agricultural Machinery, 2023, 38(23): 268-277.
[12]
Wang Z, Bovik A C, Sheikh H R, et al. Image quality assessment: From error visibility to structural similarity [J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612.
[13]
Hore A, Ziou D. Image quality metrics: PSNR vs. SSIM [C]. IEEE International Conference on Pattern Recognition, 2010.
[14]
Zhang C Q, Chen Y S, Liu X D, et al. Research on recyclable waste identification method based on YOLOv8 [J]. Computer Science and Application, 2023, 13(5): 1019-1025.
[15]
Zhang X D, Zeng H, Guo S, et al. Efficient long-range attention network for image super-resolution [C]. European Conference on Computer Vision, 2022.
[16]
Wang W, Xie E, Song X, et al. Efficient and accurate arbitrary-shaped text detection with pixel aggregation network [C]. IEEE/CVF International Conference on Computer Vision, 2019.
[17]
Feng C, Zhong Y, Gao Y, et al. TOOD: Task-aligned one-stage object detection [C]. IEE/CVF International Conference on Computer Vision, 2021.
[18]
袁紅春, 陶磊. 基于改進的YOLOv8商業漁船電子監控數據中魚類的檢測與識別[J]. 大連海洋大學學報, 2023, 38(3): 533-542.
Yuan Hongchun, Tao Lei. Detection and identification of fish in electronic monitoring data of commercial fishing vessels based on improved YOLOv8 [J]. Journal of Dalian Fisheries University,2023,38(3):533-542.
[19]
徐誠極, 王曉峰, 楊亞東. Attention-YOLO:引入注意力機制的YOLO檢測算法[J]. 計算機工程與應用, 2019, 55(6): 13-23, 125.
Xu Chengji, Wang Xiaofeng, Yang Yadong. Attention-YOLO: YOLO detection algorithm that introduces attention mechanism [J]. Computer Engineering and Applications, 2019, 55(6): 13-23, 125.
[20]
Liu Y, Shao Z, Hoffmann N. Global attention mechanism: retain information to enhance channel-spatial interactions [J]. arXiv preprint arXiv, 2012.05561, 2021.