999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv3算法的智能采茶機關(guān)鍵技術(shù)研究

2024-01-01 00:00:00馬志艷李輝楊光友
中國農(nóng)機化學(xué)報 2024年4期
關(guān)鍵詞:機器學(xué)習(xí)

摘要:

在復(fù)雜背景下精確識別茶葉嫩芽,是實現(xiàn)高端茶葉智能化采摘的關(guān)鍵技術(shù)之一。為實現(xiàn)高端茶葉機械化精準(zhǔn)采摘,設(shè)計一臺基于視覺的采茶樣機,根據(jù)蛛式機械手采摘茶葉的路徑規(guī)劃,將機械手末端的移動坐標(biāo)問題轉(zhuǎn)換成靜平臺3個電機轉(zhuǎn)角問題。針對YOLOv3算法進(jìn)行改進(jìn),采用EfficientNet網(wǎng)絡(luò)替代DarkNet-53網(wǎng)絡(luò)進(jìn)行特征提取,并利用目標(biāo)函數(shù)GIOU優(yōu)化損失函數(shù)。試驗結(jié)果表明:改進(jìn)的YOLOv3算法在茶葉嫩芽識別方面,其準(zhǔn)確率達(dá)到86.53%,單張圖像平均識別時間為53 ms,相比傳統(tǒng)的YOLOv3算法,性能實現(xiàn)明顯的提升,可以達(dá)到預(yù)期目標(biāo),滿足機器采摘需求。

關(guān)鍵詞:智能采茶;YOLOv3算法;蛛式機械手;機器學(xué)習(xí);圖像識別

中圖分類號:S225.99; TP391.4

文獻(xiàn)標(biāo)識碼:A

文章編號:2095-5553 (2024) 04-0199-07

收稿日期:2022年10月29日" 修回日期:2023年4月28日

基金項目:國家重點研發(fā)計劃基金資助項目(2018YFD0701002—03)

第一作者:馬志艷,男,1976年生,湖北武漢人,博士,副教授;研究方向為農(nóng)業(yè)信息化與智能化。E-mail: 79895417@qq.com

Research on key technologies of intelligent tea picking machine based on YOLOv3 algorithm

Ma Zhiyan1, 2, Li Hui1, Yang Guangyou1, 2

(1. Hubei University of Technology, Wuhan, 430068, China; 2. Hubei Province Agricultural Machinery

Equipment Intelligent Engineering Technology Research Center, Wuhan, 430068, China)

Abstract:

Accurate identification of tea shoots in a complex background is one of the key technologies to realize the intelligent picking of high-end tea. In order to realize the mechanized and precise picking of high-end tea, this paper designs a visual-based tea picking prototype, which converts the moving coordinate problem at the end of the manipulator into the corner problem of three motors of the static platform according to the path planning of the spider manipulator picking tea. The YOLOv3 algorithm is improved, the EfficientNet network is used instead of the DarkNet-53 network for feature extraction, and the objective function GIOU is used to optimize the loss function. The experimental results show that the improved YOLOv3 algorithm has an accuracy rate of 86.53% in tea bud recognition, and the average recognition time for a single image is 53 ms. Compared with the traditional YOLOv3 algorithm, the performance has been significantly improved, which can achieve the expected goal and meet the needs of machine picking.

Keywords:

intelligent tea picking; YOLOv3 algorithm; spider manipulator; machine learning; image recognition

0 引言

中國茶葉歷史悠久,文化底蘊深厚,在茶葉的生產(chǎn)和消費上居世界首位[1]。目前高端茶葉的采摘依舊是以人工采摘為主,隨著計算機視覺技術(shù)的不斷發(fā)展,茶葉嫩芽的智能識別技術(shù)也隨之不斷發(fā)展并取得了很多優(yōu)秀成果。汪建[2]基于改進(jìn)遺傳算法的神經(jīng)網(wǎng)絡(luò)識別茶葉,能較好地鑒定茶葉等級;隨后,汪建等[3]將形狀參數(shù)配合改進(jìn)的神經(jīng)網(wǎng)絡(luò)算法,實現(xiàn)茶葉品質(zhì)的自動識別。楊增福等[4]利用RGB顏色空間技術(shù),對圖像進(jìn)行分割和特征提取,獲得茶葉嫩芽圖像的邊緣,可以較好地識別茶葉嫩芽。譚和平等[5]通過提取灰度共生矩陣和Tamura方法提取茶葉嫩芽圖像的紋理特征,并通過BP神經(jīng)網(wǎng)絡(luò)實現(xiàn)了茶葉分類。在研究茶葉識別的過程中,部分學(xué)者將注意力轉(zhuǎn)向了茶葉病蟲害的識別,如李博等[6]將神經(jīng)網(wǎng)絡(luò)搭配自動模型剪枝算法,識別8種茶葉病蟲害,平均準(zhǔn)確率達(dá)97.42%。葉榮等[7]使用自適應(yīng)空間特征融合(ASFF)技術(shù)改進(jìn)茶葉病害的多尺度特征融合,平均精度為92%。邵明[8]將Meyer分水嶺算法與一種基于統(tǒng)計學(xué)的快速區(qū)域合并算法融合成一種新算法,借鑒蔣帆[9]研究的光譜優(yōu)化圖像的方法,新的算法能夠迅速準(zhǔn)確地識別出茶葉嫩芽。王琨等[10]提取茶葉的顏色特征,基于CNN訓(xùn)練,取得了較高的識別率。吳梅雪等[11]將基于K-means聚類算法的茶葉嫩芽識別算法[12],與Ostu最大方差自動閾值法識別效果進(jìn)行對比,發(fā)現(xiàn)K-means具有更好的識別效果。陳妙婷[13]借鑒任磊等[14]研究出的PSO-SVM算法分割圖像,用YOLO算法訓(xùn)練處理后的圖像,用于茶葉的分類,其靜態(tài)檢測的準(zhǔn)確率達(dá)到了84%。孫肖肖[15]選用Ostu算法來分割圖像,突出茶葉嫩芽的特征,為復(fù)雜背景下茶葉嫩芽的智能化采摘機器人的研究提供了基礎(chǔ)。毛騰躍等[16]利用鮮葉的相對幾何特征與紋理特征基于SVM構(gòu)建鮮茶葉分類器,對茶葉進(jìn)行分類,分類準(zhǔn)確率達(dá)94.24%,取得了較好的分類效果。姜苗苗等[17]借鑒丁汀[18]研究出的顏色對圖像分割影響的經(jīng)驗,利用顏色因子和圖像融合技術(shù)實現(xiàn)茶葉嫩芽圖像分割,將嫩芽與老葉區(qū)分開,平均分割準(zhǔn)確率為60.09%。Chen等[19]利用Faster R-CNN對4種茶葉進(jìn)行檢測,并分析上采樣步長對全卷積網(wǎng)絡(luò)的影響,準(zhǔn)確率為79.4%。

對于茶葉的智能采摘,本文設(shè)計一臺采茶機,選用Delta蛛式機械手進(jìn)行采摘,并用YOLOv3算法和EfficientNet-YOLOv3算法訓(xùn)練數(shù)據(jù)集,利用算法模型來識別茶葉嫩芽。

1 智能采茶樣機

本文設(shè)計一臺智能采茶樣機,如圖1所示,機架尺寸(長×寬×高)是460 mm×460 mm×500 mm。

由于試驗對象是茶葉嫩芽,在采摘過程中需要機械手具有運動慣量小、柔性強和重復(fù)定位精度高等特點,因此選用蛛式機械手進(jìn)行采摘,其機械手中主動臂長200 mm,從動臂長400 mm,工作空間較小,工作節(jié)拍達(dá)210次/min,同時重復(fù)定位精度誤差僅為±0.8 mm。由于選用的是蛛式機械手,需要配備TB5128驅(qū)動器,為保證機械手工作的穩(wěn)定性,將細(xì)分設(shè)置為16 r。為了調(diào)用算法模型,機器還配備一臺上位機并配置環(huán)境(Win10+Pytorch+Python3.6),視覺模塊配置了D435深度相機,用以實時獲取圖像并傳入上位機進(jìn)行識別與定位。

整個采茶流程分為兩步:茶葉嫩芽的識別和采摘。識別過程由YOLOv3算法實現(xiàn),采摘過程是利用蛛式機械手進(jìn)行采摘,具體流程如圖2所示。

1.1 機械手末端運動學(xué)逆解

本文選用Delta蛛式機械手來實現(xiàn)茶葉的采摘,在視覺模塊檢測并定位出出茶葉嫩芽目標(biāo)后,需要控制機械手末端按規(guī)劃的路徑移動到目標(biāo)點進(jìn)行摘取。關(guān)于機械手的運動控制,涉及機械手運動學(xué)的正逆解,對于正解,以動平臺中心軸為Z軸建立坐標(biāo)系,其中OC1軸與Y軸重合,如圖3所示。當(dāng)確定機械手各臂的需求轉(zhuǎn)角時,就可以求出3個從動臂末端(B1,B2,B3)的坐標(biāo),進(jìn)而求出A1、A2和A3的坐標(biāo)。

對于從動臂,設(shè)P點坐標(biāo)為(x0,y0,z0),則3個端點的坐標(biāo)分別為

B1=(x0+r,y0,z0)

B2=(x0-rsin30°,y0+rcos30°,z0)

B3=(x0-rsin30°,y0-rcos30°,z0)

同理可以推出主動臂3個端點的坐標(biāo)

A1=(R,0,0)

A2=(-Rsin30°,Rcos30°,0)

A3=(-Rsin30°,-Rcos30°,0)

最后考慮二連桿結(jié)構(gòu)原理(圖4),可以求出機械臂的轉(zhuǎn)角

θ=L2AC+L2BC-L2A1A22LACLBC

式中:

LAC——AC桿的長度;

LBC——BC桿的長度;

LA1A2——

A1A2桿的長度。

再根據(jù)驅(qū)動器的設(shè)置將角度問題換算成脈沖,由此可以建立脈沖和三維坐標(biāo)的關(guān)系式。

1.2 機械手末端運動學(xué)正解

對于正解,需要先預(yù)設(shè)C1、C2、C3三點的坐標(biāo),以此進(jìn)行推導(dǎo)。例如設(shè)C1點坐標(biāo)為(X1,Y1,Z1),則B1=(X1-LBCsinθ,Y1,Z1+LBCcosθ),同理可以推出B2和B3的坐標(biāo)。然后根據(jù)關(guān)系式PB1=PB2=PB3=r3,建立三元一次方程組進(jìn)行舍根,可以直接求出轉(zhuǎn)角θ。

2 改進(jìn)YOLOv3算法

整個YOLO算法的流程是:將數(shù)據(jù)集圖像導(dǎo)入算法進(jìn)行卷積,提取特征后訓(xùn)練出模型,利用模型和數(shù)據(jù)集中的測試集評估出模型的準(zhǔn)確率和召回率,具體流程如圖5所示。

2.1 數(shù)據(jù)集制作

本文從湖北省宜昌市五峰縣某茶園出芽期拍攝的茶葉圖像中挑出了423張,將其像素規(guī)范化為512像素×512像素。為提高模型的識別率,在訓(xùn)練之前,需要將這些圖像進(jìn)行降噪、直方圖均衡化等預(yù)處理來提高圖像的清晰度;為增加模型的魯棒性,需要采用翻轉(zhuǎn)、鏡像、變換顏色和變換飽和度等方法進(jìn)行數(shù)據(jù)增強(圖6)。經(jīng)過上述方法處理圖像后,可以將數(shù)據(jù)集擴充到1 692張圖像,然后通過標(biāo)注工具Labelimg給圖像打上標(biāo)簽,并按照傳統(tǒng)的(訓(xùn)練集+驗證集):測試集為7∶3的比例對圖像進(jìn)行分配處理,用于后期的模型訓(xùn)練和測試。

2.2 YOLOv3算法改進(jìn)

YOLOv3算法的工作流程主要分為特征提取、預(yù)測和后處理過程。YOLOv3在提取目標(biāo)圖像特征時,通過聚類算法獲得3組先驗框(13×13,26×26,52×52),每組先驗框又分大中小三種感受野,共9種先驗框框(116×90、156×198、373×326、30×61、62×45、59×119、10×13、16×30、33×23),以此進(jìn)行多尺度檢測。

在預(yù)測之前,需要先將圖像分為S×S的網(wǎng)格,每個網(wǎng)格會預(yù)測B個邊界框(Bounding Box)以及邊界框的置信度(Confidence Score)。其中邊界框包含4個信息(x,y,w,h),(x,y)表示邊界框相對于網(wǎng)格中心的坐標(biāo),(w,h)是相對于整張圖像的寬度和高度;而置信度的計算如式(1)所示。

C′=Pr(0)×IOU

(1)

式中:

C′——置信度;

Pr(0)——目標(biāo)落在網(wǎng)格中的概率;

IOU——

交并比,預(yù)測的邊框和真實的邊框的交集和并集的比值。

如果目標(biāo)中心落在某一網(wǎng)格中,這一網(wǎng)格就對該目標(biāo)進(jìn)行預(yù)測,最后根據(jù)預(yù)測出的置信度,通過非極大值抑制算法(NMS)去除冗余檢測框,保留最優(yōu)一個。

2.3 改進(jìn)特征提取網(wǎng)絡(luò)

在傳統(tǒng)YOLOv3算法中,特征提取網(wǎng)絡(luò)為DarkNet-53網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)構(gòu)主要由卷積層和殘差模塊組成,沒有池化層和全連接層。從總體上來看,DarkNet-53結(jié)構(gòu)就是重復(fù)堆疊下采樣卷積+n×殘差塊(n為殘差塊的個數(shù))(圖7),共有52層卷積,其作用是增加不同尺度的融合輸出,而殘差模塊的作用是防止網(wǎng)絡(luò)層數(shù)過多時,會出現(xiàn)梯度消失現(xiàn)象。

在改進(jìn)YOLOv3算法中,采用EfficientNet網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),它是在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,縮放baseline模型,平衡深度、寬度和分辨率三個維度創(chuàng)造出來的,輸入的圖像依次經(jīng)過1個3×3的卷積,7個堆疊的MBConv結(jié)構(gòu),1個1×1的卷積、池化和全連接層,其核心便是這7個MBConv結(jié)構(gòu)(移動翻轉(zhuǎn)瓶卷積),其結(jié)構(gòu)如圖8所示。MBConv結(jié)構(gòu)對輸入特征圖進(jìn)行卷積,通過堆疊提取圖像的深層特征,獲取特征圖全部像素點之間的信息。同時利用Droupout(丟棄法)丟棄一定的單元及其連接,降低噪音對特征提取的影響,以提升模型的泛化能力。

2.4 損失函數(shù)改進(jìn)

YOLOv3的損失函數(shù)是在YOLOv2的基礎(chǔ)上改進(jìn)的,其中邊界框損失(x、y、w、h)采用均方誤差MSE估算,置信度損失采用二分類交叉熵,類別損失采用多類別交叉熵進(jìn)行計算,最后加到一起就可以組成最終的loss_function(損失函數(shù))了,也就是一個loss_function搞定端到端的訓(xùn)練。其計算如式(2)所示。

Loss=bbox_loss+conf_loss+prob_loss

(2)

式中:

Loss——損失函數(shù);

bbox_loss——邊界框損失;

conf_loss——置信度損失;

prob_loss——分類損失。

傳統(tǒng)的YOLOv3算法計算損失函數(shù)時,交并比IOU沒有考慮到框之間的距離,對于相交的框,IOU可以被反向傳播,即它可以直接用作優(yōu)化的目標(biāo)函數(shù)。但是非相交的,梯度將會為0,無法優(yōu)化,廣義交并比GIOU就可以解決這個問題。GIOU的計算如式(3)所示。

GIOU=IOU-|C/(AUB)||C|

(3)

式中:

A、B——預(yù)測框和真實框;

C——兩框的最小閉包區(qū)。

由式(3)可知,GIOU的取值范圍為(-1,1],當(dāng)預(yù)測框與真實框距離越遠(yuǎn),GIOU值越接近-1;預(yù)測框與真實框距離越近,GIOU越接近0;當(dāng)預(yù)測框與真實框完全重合時,GIOU為1。因此,相比于IOU,GIOU能夠更好地評價兩邊界框的重合度,其損失函數(shù)計算如式(4)所示。

GIOUloss=1-GIOU

(4)

由式(4)可知,GIOUloss(損失函數(shù))與GIOU呈反比例關(guān)系,因此網(wǎng)絡(luò)會朝著預(yù)測框與真實框重疊的部分優(yōu)化。

3 試驗結(jié)果與分析

本試驗先利用工控機配置環(huán)境,訓(xùn)練結(jié)束后將模型加載到檢測的代碼;然后在機器運行過程中,RGB-D深度相機拍攝RGB實時圖像和深度圖像,工控機加載模型識別RGB圖像中的目標(biāo),同時通過對應(yīng)的深度圖像來獲取目標(biāo)嫩芽的深度坐標(biāo);最后將目標(biāo)坐標(biāo)傳輸?shù)綑C械手控制模塊進(jìn)行運動學(xué)逆解,按照規(guī)劃的路徑控制機械手末端的運動,實現(xiàn)茶葉嫩芽的采摘。

3.1 模型訓(xùn)練

在完成制作茶葉嫩芽數(shù)據(jù)集和搭建環(huán)境(win10+pytorch+python3.6)的工作后,先用YOLOv3算法搭配DarkNet-53網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集,再將YOLOv3算法搭配EfficientNet網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集得到相應(yīng)的模型,利用模型預(yù)測茶葉圖像中嫩芽的位置,檢驗?zāi)P褪欠裼行В蛔詈笤u估模型的準(zhǔn)確率和召回率,選取兩種模型的最優(yōu)結(jié)果并進(jìn)行對比,根據(jù)結(jié)果繪制出兩種模型的準(zhǔn)確率值隨訓(xùn)練次數(shù)的變化曲線;最后計算兩種模型預(yù)測單張圖片所需要的時間,檢驗?zāi)P褪欠襁_(dá)到實時檢測的標(biāo)準(zhǔn)。

在這兩種組合的訓(xùn)練過程中,受限于硬件條件,初始試驗的迭代次數(shù)選取50輪次,每次迭代生成一個模型文件,先將學(xué)習(xí)率降到最低10-5,然后不斷提升,根據(jù)準(zhǔn)確率和召回率的變化,選取最合適的學(xué)習(xí)率。對于傳統(tǒng)YOLOv3算法(特征提取網(wǎng)絡(luò)為DarkNet-53網(wǎng)絡(luò))的訓(xùn)練,在學(xué)習(xí)率處于最低時,最優(yōu)模型的準(zhǔn)確率為61.54%,召回率為63.65%;當(dāng)學(xué)習(xí)率上升至10-3時準(zhǔn)確率達(dá)到78.91%,召回率達(dá)到84.94%;之后再提升學(xué)習(xí)率,準(zhǔn)確率卻有所降低;當(dāng)學(xué)習(xí)率為0.1時,準(zhǔn)確率降到62.14%,召回率降到65.12%,具體數(shù)據(jù)如表1所示。

YOLOv3搭配DarkNet-53網(wǎng)絡(luò)訓(xùn)練結(jié)束后,將特征提取網(wǎng)絡(luò)更換為EfficientNet網(wǎng)絡(luò),試驗流程與前面的相似,當(dāng)?shù)螖?shù)為35和學(xué)習(xí)率為10-3時,準(zhǔn)確率為85.47%達(dá)到峰值;取得峰值后,將目標(biāo)函數(shù)IOU換成更適合茶葉檢測的GIOU,準(zhǔn)確率提升到86.53%,比傳統(tǒng)的算法準(zhǔn)確率高7.62%。從圖9可以看出,EfficientNet網(wǎng)絡(luò)訓(xùn)練出的模型,在準(zhǔn)確率方面整體上比DarkNet-53的高。因為試驗?zāi)康氖沁M(jìn)行茶葉的實時檢測,故最后還需要計算模型預(yù)測單張圖片的時間,將模型導(dǎo)入算法后,計算出預(yù)測單張圖片所需要的時間約為53 ms,也就是1 s可以檢測約19張圖片,滿足實時檢測的要求。

3.2 試驗結(jié)果分析

訓(xùn)練過程結(jié)束后,先進(jìn)行預(yù)測以檢驗?zāi)P褪欠裼行Вx取了一部分茶葉嫩芽圖片的檢測結(jié)果進(jìn)行對比。圖10(a)和圖10(b)分別是算法改進(jìn)前后的模型檢測結(jié)果,可以看出改進(jìn)的算法,有更好的識別能力。而且根據(jù)圖10(c)和圖10(d)的兩幅圖的對比,圖10(c)有1個茶葉嫩芽沒有檢測出來,可以看出改進(jìn)后的算法,對于漏檢情況也有所改善。

近年來,多種機器學(xué)習(xí)算法被應(yīng)用于茶葉識別領(lǐng)域,顯示出不同的識別效果。從表2可以看出,SSD[20]算法的識別準(zhǔn)確率為58.35%,而Faster R-CNN算法的準(zhǔn)確率提升至66.88%。此外,K-Means[21]算法的識別準(zhǔn)確率進(jìn)一步提高到77.8%,YOLOv3算法達(dá)到了78.91%的識別率。本文通過對YOLOv3算法進(jìn)行改進(jìn),將識別準(zhǔn)確率提升至86.53%。對比分析表明,通過優(yōu)化算法結(jié)構(gòu)和參數(shù)調(diào)整,能有效提升模型對茶葉圖像的識別能力。本文的數(shù)據(jù)集和試驗設(shè)置均公開透明,以便于同行驗證和進(jìn)一步的研究。

4 結(jié)論

1)" 本文設(shè)計基于視覺的智能采茶樣機,利用蛛式機械手的特點,采茶速度快,定位精度高,并且運動慣量小、柔性強,避免采摘過程中對茶葉嫩芽造成損傷。計算分析機械手的正逆解,建立三維坐標(biāo)轉(zhuǎn)換成脈沖的關(guān)系式,簡化上位機對于機械手移動路徑的規(guī)劃。

2)" 為解決在茶葉采摘過程中茶葉嫩芽識別準(zhǔn)確率不夠的問題,基于YOLOv3算法的特征提取網(wǎng)絡(luò)進(jìn)行研究,并通過YOLOv3搭配EfficientNet網(wǎng)絡(luò),模型的識別精度準(zhǔn)確率為86.53%,驗證EfficientNet網(wǎng)絡(luò)在調(diào)節(jié)好寬度、深度和分辨率的平衡后,在特征提取方面比傳統(tǒng)特征提取網(wǎng)絡(luò)效果要好,并且單張圖片的預(yù)測時間為0.053 s,在不影響實時檢測的情況下,改進(jìn)后的YOLOv3模型能夠更準(zhǔn)確地識別復(fù)雜環(huán)境下的茶葉。

參 考 文 獻(xiàn)

[1] 吳華成. 茶葉褐色葉斑病的綜合防治技術(shù)[J]. 農(nóng)業(yè)與技術(shù), 2015, 35(16): 113-114.

[2] 汪建, 杜世平, 王開明. 茶葉的計算機識別應(yīng)用研究[J]. 安徽農(nóng)業(yè)科學(xué), 2006, 34(10): 2139-2140.

Wang Jian, Du Shiping, Wang Kaiming. Research on application of computer vision in the identification of tea [J]. Journal of Anhui Agricultural Sciences, 2006, 34(10): 2139-2140.

[3] 汪建, 杜世平. 基于顏色和形狀的茶葉計算機識別研究[J]. 茶葉科學(xué), 2008(6): 420-424.

Wang Jian, Du Shiping. Identification investigation of tea based on HSI color space and figure [J]. Journal of Tea Science, 2008, 28(6): 420-424.

[4] 楊福增, 楊亮亮, 楊青, 等. 基于顏色和形狀特征的茶葉嫩芽識別方法[J]. 農(nóng)業(yè)機械學(xué)報, 2009, 40(S1): 119-123.

Yang Fuzeng, Yang Liangliang, Yang Qing, et al. Recognition of the tea sprout based on color and shape features [J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(S1): 119-123.

[5] 譚和平, 徐海衛(wèi), 胡長安, 等. 基于視覺詞袋模型的茶機智能化控制方法[J]. 中國測試, 2014, 40(6): 84-87.

Tan Heping, Xu Haiwei, Hu Chang’an, et al. Tea machine intelligent control method based on BOVW and BP neural network [J]. China Measurement amp; Test, 2014, 40(6): 84-87.

[6] 李博, 江朝暉, 洪石蘭, 等. 基于邊緣智能的茶葉病害識別[J]. 中國農(nóng)機化學(xué)報, 2022, 43(6): 175-180.

Li Bo, Jiang Chaohui, Hong Shilan, et al. Tea leaf diseases recognition based on edge intelligence [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(6): 175-180.

[7] 葉榮, 馬自飛, 高泉, 等. 基于改進(jìn)YOLOv5s-ECA-ASFF算法的茶葉病害目標(biāo)檢測[J]. 中國農(nóng)機化學(xué)報, 2024, 45(1): 244-251.

Ye Rong, Ma Zifei, Gao Quan, et al. Target detection of tea disease based on improved YOLOv5s-ECA-ASFF algorithm [J]. Journal of Chinese Agricultural Mechanization, 2024, 45(1): 244-251.

[8] 邵明. 基于計算機視覺的龍井茶葉嫩芽識別方法研究[D]. 杭州: 中國計量學(xué)院, 2013.

Shao Ming. Research on computer vision based recognition methods of Longjing tea sprouts [D]. Hangzhou: China Jiliang University, 2013.

[9] 蔣帆. 基于高光譜和圖像技術(shù)的龍井茶葉品質(zhì)檢測方法研究[D]. 杭州: 浙江工業(yè)大學(xué), 2010.

Jiang Fan. Inspection of longjing tea quality by using multi-sensor information fusion based on hyper spectral analysis and image manipulation [D]. Hangzhou: Zhejiang University of Technology, 2010

[10] 王琨, 劉大茂. 基于深度學(xué)習(xí)的茶葉狀態(tài)智能識別方法[J]. 重慶理工大學(xué)學(xué)報(自然科學(xué)), 2015, 29(12): 120-126.

Wang Kun, Liu Damao. Intelligent identification for tea state based on deep learning [J]. Journal of Chongqing University of Technology (Natural Science), 2015, 29(12): 120-126.

[11] 吳梅雪, 唐仙, 張富貴, 等. 基于K-means聚類法的茶葉嫩芽識別研究[J]. 中國農(nóng)機化學(xué)報, 2015, 36(5): 161-164, 179.

Wu Xuemei, Tang Xian, Zhang Fugui, et al. Tea buds images identification based on lab color model and K-means clustering [J]. Journal of Chinese Agricultural Mechanization, 2015, 36(5): 161-164, 179.

[12] 李燦燦, 王寶, 王靜, 等. 基于K-means聚類的植物葉片圖像葉脈提取[J]. 農(nóng)業(yè)工程學(xué)報, 2012, 28(17): 157-162.

Li Cancan, Wang Bao, Wang Jing, et al. Extracting vein of leaf image based on K-means clustering [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(17): 157-162.

[13] 陳妙婷. 基于計算機視覺的名優(yōu)茶嫩芽識別與定位[D]. 青島:青島科技大學(xué), 2019.

Chen Miaoting. Recognition and location of high-quality tea buds based on computer vision [D]. Qingdao: Tsingtao University of Science amp; Technology, 2019.

[14] 任磊, 賴惠成, 陳欽政, 等. 基于改進(jìn)分水嶺的棉花圖像分割方法[J]. 計算機工程與應(yīng)用, 2012, 48(34): 207-211, 244.

Ren Lei, Lai Huicheng, Chen Qinzheng, et al. Cotton image segmentation method based on improved watershed [J]. Computer Engineering and Applications, 2012, 48(34): 207-211, 244.

[15] 孫肖肖. 基于深度學(xué)習(xí)的茶葉嫩芽檢測和葉部病害圖像識別研究[D]. 晉中: 山西農(nóng)業(yè)大學(xué), 2019.

Sun Xiaoxiao. The research of tea buds detection and leaf diseases image recognition based on deep learning [D]. Jinzhong: Shanxi Agricultural University, 2019.

[16] 毛騰躍, 黃印, 文曉國, 等. 基于多特征與多分類器的鮮茶葉分類研究[J]. 中國農(nóng)機化學(xué)報, 2020, 41(12):75-83.

Mao Tengyue, Huang Yin, Wen Xiaoguo, et al. Research on classification of fresh tea leaves based on multiple features and classifiers [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(12): 75-83.

[17] 姜苗苗, 問美倩, 周宇, 等. 基于顏色因子與圖像融合的茶葉嫩芽檢測方法[J]. 農(nóng)業(yè)裝備與車輛工程, 2020, 58(10): 44-47.

Jiang Miaomiao, Wen Meiqian, Zhou Yu, et al. Tea bud detection method based on color factor and image fusion [J]. Agricultural Equipment amp; Vehicle Engineering, 2020, 58(10): 44-47.

[18] 丁汀. 結(jié)合顏色和區(qū)域生長的茶葉圖像分割算法研究[J]. 福建茶葉, 2017, 39(2): 31-32.

[19] Chen Y T, Chen S F. Localizing plucking points of tea leaves using deep convolutional neural networks [J]. Computers and Electronics in Agriculture, 2020, 171(9): 1-7.

[20] 王慧玲, 綦小龍, 武港山. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測技術(shù)的研究進(jìn)展[J]. 計算機科學(xué), 2018, 45(9): 18-26.

Wang Huiling, Qi Xiaolong, Wu Gangshan. Research progress of object detection technology based on convolutional neural network in deep learning [J]. Computer Science, 2018, 45(9): 18-26.

[21] 張景林. 基于K-Means和SVM耦合算法的茶葉圖像識別[J]. 泉州師范學(xué)院學(xué)報, 2016, 34(6): 48-54.

Zhang Jinglin. Tea image recognition based on K-Means and SVM coupling algorithm [J]. Journal of Quanzhou Normal University, 2016, 34(6): 48-54.

猜你喜歡
機器學(xué)習(xí)
基于詞典與機器學(xué)習(xí)的中文微博情感分析
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
下一代廣播電視網(wǎng)中“人工智能”的應(yīng)用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數(shù)據(jù)分析研究
基于Spark的大數(shù)據(jù)計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統(tǒng)
基于圖的半監(jiān)督學(xué)習(xí)方法綜述
機器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
極限學(xué)習(xí)機在圖像分割中的應(yīng)用
主站蜘蛛池模板: 久久精品丝袜| 91精品日韩人妻无码久久| 熟妇丰满人妻av无码区| 久久黄色视频影| 秋霞午夜国产精品成人片| 91破解版在线亚洲| 91蝌蚪视频在线观看| 国产杨幂丝袜av在线播放| 精品国产成人av免费| 精品人妻系列无码专区久久| 亚洲av无码专区久久蜜芽| 91在线一9|永久视频在线| 人妻一区二区三区无码精品一区| 国内丰满少妇猛烈精品播| 免费观看国产小粉嫩喷水| 黄色网在线免费观看| 国产国拍精品视频免费看| 欧美综合区自拍亚洲综合天堂| 亚洲免费毛片| 精品免费在线视频| 在线观看精品自拍视频| 四虎国产精品永久在线网址| 国产一区二区免费播放| 天天做天天爱夜夜爽毛片毛片| 夜色爽爽影院18禁妓女影院| 婷婷午夜影院| 韩国v欧美v亚洲v日本v| 国产导航在线| 91综合色区亚洲熟妇p| 国产在线视频导航| 国产剧情伊人| 欧美不卡二区| 99在线国产| 一区二区欧美日韩高清免费| 伊人久久福利中文字幕| 成人av专区精品无码国产| 青青热久麻豆精品视频在线观看| 日本a级免费| 亚洲一区无码在线| 亚洲欧洲AV一区二区三区| 国产真实二区一区在线亚洲| 自偷自拍三级全三级视频| 国产福利在线观看精品| 久久五月视频| 91在线一9|永久视频在线| 无码区日韩专区免费系列| 亚洲综合中文字幕国产精品欧美| 99视频在线免费| 亚洲精品制服丝袜二区| 久久熟女AV| 亚洲国产清纯| 亚洲欧美自拍一区| 国产经典在线观看一区| 亚洲无码免费黄色网址| 五月天久久婷婷| 国产精品视频3p| 99ri国产在线| 国产欧美另类| 日韩精品无码一级毛片免费| 综合亚洲网| 亚洲黄网在线| www.亚洲一区| 青青青国产视频手机| 亚洲人成网站观看在线观看| 亚洲一区精品视频在线| 免费在线看黄网址| 欧美日韩在线国产| 伊在人亚洲香蕉精品播放| 9久久伊人精品综合| 国产真实乱子伦精品视手机观看| 54pao国产成人免费视频 | av免费在线观看美女叉开腿| 丁香五月激情图片| 国产精品七七在线播放| 日韩精品免费一线在线观看| 国产视频一二三区| 无码日韩精品91超碰| 一级毛片免费观看久| 亚洲色偷偷偷鲁综合| 九九这里只有精品视频| 国产人成网线在线播放va| 国产乱人伦AV在线A|