999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器視覺的蠶豆莢高精度檢測方法研究

2025-01-19 00:00:00夏子林張新洲王文波夏先飛陳蘭顧寄南
中國農機化學報 2025年1期
關鍵詞:深度學習

摘要:

蠶豆莢檢測是蠶豆自動化采摘的前提與基礎,因此,實現蠶豆莢的快速、準確識別與定位十分關鍵。基于此,提出一種基于深度學習的蠶豆莢檢測方法YOLO-B。為增大整體網絡的感受野,獲取目標豐富的上下文信息從而提高檢測精度,提出SPPX模塊。由于蠶豆莢特征較為相似,為消除冗余特征,提出GhostPAN特征融合模塊。經過對比試驗分析,相比于其他YOLOv7、YOLOv5與YOLOv4,YOLO-B參數量(29.092M)和計算量(95.466G)最低,mAP(92.58%)最高,分別提升1.33%、2.75%與3.74%。在蠶豆莢特征差異較小、生長姿態差異較大的場景下,均能實現準確檢測。

關鍵詞:蠶豆莢;目標檢測;深度學習;YOLO

中圖分類號:TP391

文獻標識碼:A

文章編號:2095-5553 (2025) 01-0157-07

Research on high precision detection method of broad bean pods based on machine vision

Xia Zilin1, Zhang Xinzhou1, Wang Wenbo1, Xia Xianfei2, Chen Lan1, Gu Jinan1

(1. College of Mechanical Engineering, Jiangsu University, Zhenjiang, 212013, China; 2. Nanjing Institute of

Agricultural Mechanization, Ministry of Agriculture and Rural Affairs, Nanjing, 210014, China)

Abstract:

The detection of broad bean pods is the basis of automatic picking of broad bean, it plays an important role to realize rapid and accurate identification and positioning of broad bean pods. In this paper, a deep learning-based accurate detection method of broad bean pods (i.e., YOLO-B) was proposed. A SPPX module was proposed to improve the detection accuracy, which could enlarge the receptive field of the whole network and obtain the rich context information of the target. Since the characteristics of broad bean pods were similar, a feature fusion module (i.e., GhostPAN) was proposed to eliminate redundant features. Compared to other YOLOv7, YOLOv5 and YOLOv4 algorithms, the number of parameter YOLO-B (29.092M) and computational power (95.466G) were the lowest, while mAP (92.58%) was the highest, increasing by 1.33%, 2.75% and 3.74%, respectively. The accurate detection can be achieved in the scenarios with small differences in pod characteristics and large differences in growth posture.

Keywords:

broad bean pods; object detection; deep learning; YOLO

0"引言

蠶豆在我國種植廣泛,是世界上最重要的食用豆作物之一,在食品加工、飼料加工、藥用及功能食品加工等方面具備重要的價值[1]。當前蠶豆收獲方式主要以人工為主,即人工用鐮刀割苗或摘莢,然后再晾曬一段時間后進行人工脫粒、清選,存在采摘過程勞動強度大、生產效率低、生產成本高的問題,嚴重制約農民種植蠶豆的積極性。智能化蠶豆收割機能夠自動采收蠶豆,顯著提升生產效率和降低人工成本,對于蠶豆產業具有舉足輕重的意義。智能化蠶豆收割機能夠利用各種傳感技術(如攝像頭、激光傳感器、紅外傳感器等)來感知田間作業環境,并利用獲取到的信息對收割機臺進行動態調整,實現對蠶豆的全自動化無人采摘。基于機器視覺的蠶豆莢檢測系統是智能蠶豆收割機可靠收獲的基礎,能夠為收割機提供可靠的蠶豆狀態及位置信息,指導收割機自動設置割臺高度與行進速度。

近年來,目標檢測算法得到了快速的發展,具體可以分為基于手工設計特征的目標檢測算法與基于深度學習的目標檢測算法[2]。前者通過手工設計特征,再送入分類器中進行分類,識別效果較差且計算量較大。后者能過夠端到端地將特征提取器與分類器整合在一起,利用梯度下降法等對模型進行訓練,實現對目標的識別與定位,在行人、動物、車輛等目標的識別中取得較好的效果[3, 4]。基于深度學習的目標檢測算法主要可以分為兩階段和單階段兩類:兩階段目標檢測算法先進行區域生成,再通過卷積神經網絡進行樣本分類,有R-CNN[5]、Fast-RCN[6]、Faster R-CNN[7]、Mask R-CNN[8]等,雖然兩階段方法精確度更高,但是其速度較慢;單階段目標檢測算法可以在一個階段中直接得到目標的類別與位置,有YOLO系列[9, 10],SSD[11]、RetinaNet[12]等。在食用豆的視覺檢測方面,翔云等[13]將基于YOLOv5和圖像處理的智能數據采集技術應用于菜用大豆莢型表型的識別,在結構化環境下檢測精度達到98.89%;楊肖等[14]提出了一種基于改進YOLOv4網絡的輕量化蠶豆苗檢測方法,并使用加速引擎TensorRT對網絡結構進行重構和優化;郭希岳等[15]利用Re-YOLOv5和檢測區域搜索算法獲取大豆植株表型參數,在大豆植株莖節點與大豆分枝的檢測精度達到93.40%。

基于深度學習的目標檢測算法雖然在精度上取得較大的提升,但是往往模型參數量以及計算量較大,不利于部署在蠶豆收割機的邊緣端嵌入式設備。同時,由于自然環境下蠶豆莢生長環境為非結構化環境,且蠶豆莢姿態朝向各異,相似特征眾多,導致蠶豆莢的識別較為困難。而且,目前尚缺乏對這一問題的針對性深入研究。因此,需要進一步研究蠶豆莢目標高精度檢測模型,以期能夠準確地檢測出蠶豆莢,為蠶豆收割機的參數動態調整與高效收獲提供重要的蠶豆莢目標信息。

針對以上問題,本文提出一種針對蠶豆莢的快速準確檢測模型YOLO-B,其能夠在蠶豆莢特征差異較小、生長姿態差異較大的場景下,實現準確檢測。

1"研究方法

1.1"YOLO-B蠶豆莢檢測網絡

蠶豆莢其外觀以及形狀特征較為相似,成熟后蠶豆莢與葉子容易混淆,因此,構建針對蠶豆莢的高精度檢測方法是實現蠶豆自動化采摘的關鍵。提出針對蠶豆莢的檢測網絡YOLO-B,其在YOLOv7的基礎上改進得到,具體網絡結構如圖1所示。為增大網絡的感受野,提高定位精度同時處理不同尺度的目標,提出SPPX模塊,其采用空洞卷積[16]與最大池化結合的方式增大模型的感受野。由于蠶豆莢特征較為相似,為降低網絡的冗余特征,提出GhostPAN特征融合模塊,其能夠在保持網絡精度的前提下降低網絡的復雜度。經過對比試驗分析,所提出的方法相比于其他方法有較大的提升,在蠶豆莢檢測上具有明顯的優勢。

1.1.1"主干特征提取網絡(Backbone)

YOLO-B主干特征提取網絡與YOLOv7一致,其主要由多分支特征提取模塊(Multi-Branch Block)與下采樣過渡模塊(Transition Block)堆疊而成。多分支特征提取模塊以及下采樣過渡模塊的具體結構如圖2和圖3所示。

如圖2所示,其中Conv結構由卷積、BN以及SiLU三部分組成,多分支特征提取模塊引入更加密集的殘差結構,第一個與第二個分支經過一個Conv,第三個分支經過三個Conv,第四個分支經過五個Conv,將4個分支的輸出特征層堆疊,最后經過一個Conv模塊進行特征整合。這種多分支特征提取模塊能夠捕獲更為豐富的上下文信息、減少信息丟失、增大感受野,并且更加容易優化,使得網絡的學習能力更強。

如圖3所示,下采樣過渡模塊由上下兩個分支構成,一個分支通過步長為2的最大池化進行下采樣,另一個分支通過步長為2的卷積進行下采樣,最后將兩部分的輸出進行堆疊得到最終結果。下采樣過渡模塊能夠讓網絡自動學習適合的下采樣方式,較大程度減少下采樣時關鍵特征的丟失。

1.1.2"SPPX結構

增大網絡的感受野能夠提高物體的定位精度、捕獲更多的上下文信息同時提高不同尺度物體的檢測精度,本文提出了感受野擴充模塊SPPX。可以看出,SPPX其核心主要由三個串行的MP-dilate模塊組成,相比于YOLOv7的并行結構,串行結構其推理速度更快。同時,所提出的MP-dilate模塊與下采樣過渡模型類似,其由兩個分支構成,一個分支利用空洞率為2的卷積擴充感受野,另一個分支利用5×5的最大池化增大感受野,最后將兩部分拼接得到最終輸出。空洞卷積通過在特征圖中插入空洞點,從而增大特征提取的感受野,最大池化通過減小特征圖的方式增大模型的感受野并且同時提取顯著特征。MP-dilate模塊能夠讓網絡在學習的過程中自適應選擇或結合當前適合的增大感受野方式,更大程度在保存重要特征的前提下增大模型感受野。SPPX的具體結構如圖4所示。

1.1.3"特征融合模塊(GhostPAN)

PAN為自頂向下與自底向上的雙向特征融合網絡[17],首先,自頂向下將深層豐富的語義信息傳遞至淺層,并與淺層特征進行融合,接著,自底向上將淺層的豐富的位置信息傳遞至深層,并與深層特征層進行融合,這種雙向特征融合網絡能夠較好提高網絡的表達能力。為減小特征融合時的冗余特征,提出GhostPAN特征融合模塊,將PAN中的卷積模塊替換為Ghost模塊,能夠在有效進行特征融合的前提下避免較多的冗余特征。

Ghost模塊是GhostNet中提出的一種輕量化的卷積模塊[18, 19],其能夠用更少的參數維持整個特征提取模塊的性能。當網絡中特征圖通道數較多時,很多特征圖之間較為相似,即可以通過簡單的線性變換得到。因此,Ghost模塊將輸出通道分為兩部分,一部分通過常規卷積得到,另一部分將常規卷積的結果再進行深度卷積,最終將兩部分拼接得到輸出特征圖,能夠較好地消除冗余特征圖。

如輸入特征圖尺寸為H×W×Cin,輸出特征圖尺寸為H′×W′×Cout,卷積核大小為k×k,則利用傳統卷積的理論計算量為

F1=Cout×H′×W′×Cin×k×k

(1)

如采用基于深度可分離卷積的Ghost模塊,則其理論計算量為

F2=

Couts×H′×W′×Cin×k×k+(s-1)×

Couts×H′×W′×d×d

(2)

其中d×d為深度卷積的卷積核大小,s為對中間結果進行線性變換的次數,常用值為2,即對中間結果進行線性變換一次。則理論計算量下降了rs。

rs

=(Cout×H′×W′×Cin×k×k)Couts×

H′×W′×Cin×k×k+(s-1)×

Couts×H′×W′×d×d

=

(Cin×k×k)/1s×Cin×k×k+s-1s×d×d

≈(s×c)/(s+c-1)≈s

(3)

如式(3)所示,相比于傳統卷積,采用Ghost模塊能夠使得計算量下降s倍,能夠很大程度在保存特征提取能力的基礎上顯著降低網絡參數量和計算量。傳統卷積與Ghost模塊具體對比如圖5所示。

1.1.4"預測模塊(Head)

預測模塊與YOLOv7一致,其先經過1個RepConv模塊對3個有效特征層的特征進行整合,最后經過卷積得到5+n通道的預測結果。5中前4個表示回歸參數,通過回歸參數的調整可以獲得預測框,后1個參數表示預測框是夠包含物體,n表示預測框對應每一個類別的預測概率。

其中,RepConv為重參數化結構[20],在訓練時采用多分支結構訓練,增加網絡的非線性能力,提高了模型的表達能力,在推理時將多分支結構轉化為單路分支,從而不引入額外的參數量以及計算量。

1.1.5"損失函數

YOLO-B網絡損失函數由分類損失、回歸損失以及置信度損失3個部分組成。具體計算如式(4)所示。

Loss=Errorclass+Errorregression+Errorobj

(4)

其中Errorclass為分類損失,Errorregression為回歸損失,Errorobj為置信度損失。

Errorclass=λ1∑Mi=1∑x,yΦc*x,ygt;0Lcls(px,y,p*x,y)

(5)

式中:

Lcls——

分類損失函數,采用二值交叉熵損失函數;

M——有效特征層個數;

px,y——分類預測結果;

p*x,y——真實標簽類別;

Φc*x,ygt;0——

函數,即當c*x,ygt;0為1,其余情況為0。即分類損失只有正樣本參與計算,負樣本不參與分類損失計算;

λ1——分類損失的權重系數。

Errorregression=λ2∑Mi=1∑x,yΦc*x,ygt;0Lreg(tx,y,t*x,y)

(6)

式中:

Lreg——回歸損失函數,采用CIoU損失;

tx,y——預測框;

t*x,y——真實框;

λ2——回歸損失的權重系數。

回歸損失同樣只有正樣本參與計算。

Errorobj=λ3∑Mi=1∑x,yLobj(Ox,y,O*x,y)

(7)

式中:

Lobj——

置信度損失函數,采用二值交叉熵損失函數;

Ox,y——置信度預測值;

O*x,y——

預測框與真實框之間的IoU,如果真實框跟預測框完全重合,即IoU為1;

λ3——置信度損失的權重系數。

置信度損失正負樣本均參與計算。

2"試驗驗證

首先,構建蠶豆莢檢測數據集,然后,在所構建的蠶豆莢檢測數據集上與其他YOLO系列算法進行對比試驗,以驗證所提出的YOLO-B方法在蠶豆莢檢測上的有效性和先進性。

2.1"數據集構建

為實現蠶豆莢檢測,共采集500張成熟蠶豆莢照片,采集設備為手機,采集地點位于啟東市慧萍鎮東興鎮村。采集時考慮數據多樣性,分別在不同視角以及不同光照進行拍攝。同時,為了擴充數據集,將所拍攝的500張照片分別進行旋轉、亮度以及對比度變化,最終得到2000張照片。圖6(a)為原始圖片,圖6(b)為旋轉變換結果,圖6(c)為亮度變換結果,圖6(d)為對比度變換結果。

利用labelImg對所采集的圖片進行標注,標注類別為蠶豆莢一個類別。為確保模型具有良好的性能和泛化能力,采用一種7∶3的數據集劃分比例,即將所采集并標注完畢的圖像中,70%作為訓練集和驗證集,其中訓練集包含1200張圖片、驗證集包含200張圖片,30%作為測試集,共包含600張圖片。這樣可以確保模型在訓練過程中充分利用數據,同時避免過度擬合,提高模型的泛化能力和魯棒性。

2.2"試驗環境

為保證試驗公平,在同一硬件平臺上對所提出方法與其他方法進行對比試驗。所用硬件設備為具有E5-2678 V3 CPU、16G內存并配置有顯存為24G的英偉達3090顯卡。

所有試驗均是基于Pytorch深度學習框架,選擇SGD優化器,其中momentum為0.937,采用cos余弦退火學習率調整方式,初始學習率為0.01,最小學習率為0.0001。并且所有方法都訓練200個,Batch Size設置為8,且主干特征提取網絡都采用預訓練權重。

2.3"評價指標

為評估所提出方法與其他方法的性能,采用AP、mAP對精度進行衡量,參數量(Params)、計算量(FLOPs)對速度進行衡量。

Precision=TPTP+FP

(8)

Recall=TPTP+FN

(9)

mAP=∑APN

(10)

式中:

TP——

所有檢測目標中正確檢測的目標個數;

FP——

所有檢測目標中錯誤檢測的目標個數;

FN——模型未能正確檢測的目標;

AP——單個類別的精度;

mAP——

數據集所有類別的平均精度;

N——數據集類別。

所構建的蠶豆莢檢測數據集只包含1個類別,因此AP與mAP代表的含義一致。

FLOPs(浮點運算)和Params(參數量)是衡量模型復雜性與速度的重要衡量指標。FLOPs是網絡的計算量,Params是網絡的參數量。通常計算量與參數量越大,網絡就越復雜,檢測速度越慢。隨著目標檢測的發展,模型的計算量與參數量會越來越小,并且速度越來越快,這樣才能適合邊緣端以及嵌入式等資源有限的設備。

2.4"與YOLOv7對比試驗

YOLO-B蠶豆莢檢測方法主要是基于YOLOv7改進得到,因此,首先與YOLOv7進行對比試驗分析,以驗證所提出方法的有效性與先進性。表1為YOLO-B與YOLOv7在蠶豆莢檢測數據集測試集上mAP、參數量以及計算量對比。

從表1可以看出,相比YOLOv7,所提出YOLO-B參數量和計算量約降低了8.1M和9.6G,并且mAP提升了1.06%,這表明所提出的方法在蠶豆莢檢測任務上精度更高,且模型復雜度更低。

圖7為YOLO-B與YOLOv7的mAP和P-R曲線對比圖,其中圖7(a)為mAP曲線對比圖,其為每隔10個epoch測試模型在測試集上的mAP值,可以看出,YOLO-B訓練后200個epoch性能表現均由于YOLOv7。圖7(b)為在蠶豆莢類別上的P-R曲線對比圖,YOLO-B能夠在較高的召回率下保證更高的準確率,這表明所提出方法更適合蠶豆莢檢測任務。

2.5"與其他YOLO系列方法對比

為驗證所提出方法的有效性,進一步與經典YOLO系列方法進行對比試驗。表2為所提出方法與其他YOLO系列方法的mAP、參數量以及計算量對比。YOLO-B在蠶豆莢檢測任務上的表現明顯優于其他經典YOLO系列方法,其參數量與計算量最低,并且mAP最高。相比于YOLOv4,參數量和計算量約降低34.8M和46.4G,mAP提升3.74%。

圖8為YOLO-B與其他YOLO系列方法的mAP與P-R曲線對比圖,由圖8(a)可知,YOLO-B在訓練的后200個epoch表現均優于YOLOv7、YOLOv5以及YOLOv4。由圖8(b)可知,YOLO-B所占面積最大,綜合表現更加優異。

2.6"消融試驗

為驗證所提出的感受野擴充模塊SPPX以及輕量化特征融合模塊GhostPAN的有效性,進行消融試驗,以評估各部分對整體性能的影響。首先,在YOLOv7中增加SPPX結構,然后,在此基礎上將YOLOv7特征融合模塊替換為GhostPAN,具體消融試驗結果如表3所示。

從表3可以得出,在YOLOv7模型中引入SPPX模塊可以使得mAP提高1.12%,同時略微增加了模型的參數量和計算量。這表明所提出的感受野擴充模塊在增加模型感受野并提高檢測精度方面有效。

此外,將YOLOv7模型中的特征融合模塊替換為GhostPAN模塊可以顯著降低模型的參數量和計算量,同時略微提升了檢測精度。這說明GhostPAN模塊能夠有效地避免特征融合時的冗余特征,從而實現更高效的特征融合。最終,采用YOLO-B結構,即在YOLOv7模型中增加SPPX和GhostPAN模塊,不僅降低了模型的參數量和計算量,還獲得了更高的檢測精度。這表明YOLO-B結構在多方面都取得了優越的性能,是一個更為有效和高效的模型。

2.7"檢測結果可視化

圖9為YOLO-B在蠶豆莢檢測數據集測試集的部分檢測結果圖,可以看出,即使在蠶豆莢特征差異較小、生長姿態差異較大的場景下,均能實現準確檢測。

3"結論

1) 提出一種針對蠶豆莢的目標檢測方法YOLO-B。為增大網絡的感受野并提高定位精度,同時處理不同尺度的目標,提出SPPX模塊。該模塊通過采用空洞卷積與最大池化相結合的方式來增大模型的感受野,有助于網絡更好地理解目標的上下文信息,提高檢測精度。蠶豆莢特征較為相似,為減少網絡中的冗余特征,提出GhostPAN特征融合模塊。該模塊在保持網絡精度的前提下降低網絡的復雜度,避免較多相似特征,同時提高計算效率。

2) 經過在蠶豆莢檢測數據集上的對比試驗分析,所提出的YOLO-B方法相比于其他YOLO系列方法表現更加優異,實現最小的參數量(29.092M)和計算量(95.466G),并且實現最高的mAP(92.58%),這表明所提出方法在蠶豆莢檢測任務上的有效性和先進性。

參"考"文"獻

[1]

李旭. 蠶豆綜合加工利用研究進展[J]. 現代食品, 2018(7): 170-171.

Li Xu. Research progress of comprehensive processing and utilization of broad beans [J]. Modern Food, 2018 (7): 170-171.

[2]

張陽婷,黃德啟,王東偉,等.基于深度學習的目標檢測算法研究與應用綜述[J].計算機工程與應用, 2023, 59(18): 1-13.

Zhang Yangting, Huang Deqi, Wang Dongwei, et al. A review on research and application of deep learning-based target detection algorithms [J]. Computer Engineering and Applications,2023, 59(18): 1-13.

[3]

張志杰,顧寄南,李靜,等.基于深度學習的電子元器件快速檢測算法研究[J]. 電子測量技術, 2022, 45(10): 93-101.

Zhang Zhijie, Gu Jinan, Li Jing, et al. Research on fast electronic component detection algorithm based on deep learning [J]. Electronic Measurement Technology, 2022, 45(10): 93-101.

[4]

張可,顧寄南,夏子林,等.基于深度學習的色環電阻檢測與判讀方法研究[J].電子測量技術,2022, 45(11): 126-133.

Zhang Ke, Gu Jinan, Xia Zilin, et al. Research on color ring resistor detection and interpretation method based on deep learning [J]. Electronic Measurement Technology, 2022, 45(11): 126-133.

[5]

Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

[6]

Girshick R. Fast R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.

[7]

Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis amp; Machine Intelligence, 2017, 39(6):1137-1149.

[8]

He K, Gkioxari G, Dollár P, et al. Mask R-CNN [C].Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.

[9]

程書帥,王霄,李偉,等. 基于改進YOLOv4的輕量級目標檢測算法研究[J].微電子學與計算機, 2023, 40(6): 1-8.

Cheng Shushuai, Wang Xiao, Li Wei, et al. Research on lightweight target detection algorithm based on improved YOLOv4 [J]. Microelectronics amp; Computer, 2023, 40(6): 1-8.

[10]

王琳毅,白靜,李文靜,等.YOLO系列目標檢測算法研究進展[J].計算機工程與應用, 2023, 59(14): 15-29.

Wang Linyi, Bai Jing, Li Wenjing, et al. Research progress of YOLO series target detection algorithms [J]. Computer Engineering and Applications, 2023, 59(14): 15-29.

[11]

Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector [C]. Computer Vision-ECCV 2016: 14th European Conference, Amsterdam, the Netherlands, October 11-14, 2016, Proceedings, Part Ⅰ 14. Springer International Publishing, 2016: 21-37.

[12]

Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2980-2988.

[13]

翔云,陳其軍,宋栩杰,等.基于深度學習的菜用大豆莢型表型識別方法[J].核農學報, 2022, 36(12): 2391-2399.

Xiang Yun, Chen Qijun, Song Xujie, et al. Deep learning-based identification method for vegetable soybean pod morphology traits [J]. Journal of Nuclear Agricultural Sciences, 2022, 36(12): 2391-2399.

[14]

楊肖,袁銳波,李兆旭,等.改進YOLOv4的蠶豆苗檢測算法及TensorRT加速[J].重慶理工大學學報(自然科學), 2023, 37(3): 312-320.

Yang Xiao, Yuan Ruibo, Li Zhaoxu, et al. The improved YOLOv4 algorithm for broad bean sprout detection and TensorRT acceleration [J]. Journal of Chongqing University of Technology (Natural Science), 2023, 37(3): 312-320.

[15]

郭希岳,李勁松,鄭立華,等.利用Re-YOLOv5和檢測區域搜索算法獲取大豆植株表型參數[J].農業工程學報, 2022, 38(15): 186-194.

Guo Xiyue, Li Jinsong, Zheng Lihua, et al. Acquiring soybean phenotypic parameters using Re-YOLOv5 and area search algorithm [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(15): 186-194.

[16]

Ma J, Dai Y, Tan Y P. Atrous convolutions spatial pyramid network for crowd counting and density estimation [J]. Neurocomputing, 2019, 350: 91-101.

[17]

Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 8759-8768.

[18]

Han K, Wang Y, Tian Q, et al. Ghostnet: More features from cheap operations [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.

[19]

Tang Y, Han K, Guo J, et al. GhostNetV2: Enhance cheap operation with long-range attention [J]. arXiv preprint arXiv:2211.12905, 2022.

[20]

Ding X, Zhang X, Ma N, et al. Repvgg: Making vgg-style convnets great again [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 13733-13742.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 精品一区二区三区自慰喷水| 欧美日韩一区二区在线免费观看 | 国产福利免费视频| 日韩精品欧美国产在线| 亚洲男人的天堂视频| 亚洲精品自产拍在线观看APP| 超清无码熟妇人妻AV在线绿巨人 | 欧美激情视频二区| 18禁黄无遮挡网站| 久久久噜噜噜久久中文字幕色伊伊| 久久久久亚洲AV成人人电影软件| 亚洲高清中文字幕在线看不卡| 中文成人无码国产亚洲| 日韩大乳视频中文字幕| 手机精品视频在线观看免费| 日本一区高清| 精品一区二区三区水蜜桃| 在线免费看片a| 欧美一级在线| 久久久久亚洲精品成人网| 亚洲国产成人精品青青草原| 老司国产精品视频91| 久久综合伊人 六十路| 操美女免费网站| 国产美女在线观看| 国产成人亚洲毛片| 免费观看三级毛片| 五月激情婷婷综合| 97成人在线视频| 黄片一区二区三区| 99久久99这里只有免费的精品| 久久国产乱子伦视频无卡顿| 福利在线不卡| 欧美激情成人网| 综合亚洲网| 国产永久在线观看| 婷婷99视频精品全部在线观看| 国产黄色免费看| 国产麻豆精品手机在线观看| 亚洲成人在线免费观看| 日韩精品一区二区三区视频免费看| 男人天堂亚洲天堂| 国产成人三级| 久久久受www免费人成| 四虎永久免费在线| 国产精品男人的天堂| 国产永久在线视频| h网站在线播放| 人妻无码AⅤ中文字| 天天操精品| 久久国产精品波多野结衣| 久久黄色影院| 人妖无码第一页| 国产欧美中文字幕| 久久婷婷六月| 久久久久青草线综合超碰| 国产嫩草在线观看| 91亚洲精品国产自在现线| 爆乳熟妇一区二区三区| 欧美日本在线观看| 国产精品一区二区久久精品无码| 欧美激情视频一区二区三区免费| 亚洲成年人网| 毛片基地视频| 国产色伊人| 国产精品刺激对白在线 | 日韩精品一区二区三区swag| 亚洲第一成年免费网站| 亚洲精品国产精品乱码不卞| 亚洲午夜天堂| 国产精品成| 人人艹人人爽| 欧美人在线一区二区三区| 好吊色国产欧美日韩免费观看| 亚洲男人的天堂在线| 国产呦精品一区二区三区下载| 高清国产va日韩亚洲免费午夜电影| 亚洲国产精品一区二区高清无码久久| 色噜噜综合网| 国产日本视频91| 成AV人片一区二区三区久久| 91在线免费公开视频|