999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于優(yōu)化YOLOv5算法的玉米苗間雜草檢測研究

2025-08-15 00:00:00張?zhí)煊?/span>韓靜廖洪暉曲欣銳
中國農(nóng)機化學報 2025年7期
關(guān)鍵詞:雜草閾值玉米

中圖分類號:S451 文獻標識碼:A 文章編號:2095-5553(2025)07-0220-06

Abstract:Toaddress the problems of diverse weedspecies,high detection complexity,and slow detection speed in the detection of weedsamong maize seedlings,thispaperproposesa weed detection method based on optimized YOLOv5 algorithm.The SE parameter-freeatentionmoduleis introduced intotheconvolutional layersof theYOLOv5 backbone network,withthe SE一integrated C3module replacing theoriginal C3 moduleto beterfocus ondetection targets. The traditional residual neural network is replaced with the BoTNetmodule,andglobal multi-headself-attention is used to replace 3×3 spatial convolution in thelastthree botleneck blocksof ResNet,thereby improving the accuracy of detecting smalltargets.The improvedtargetdetectionalgorithmisused todetect weeds,withnon-maizeseedlingareas inthe fieldlabeledasweeds.The super-green feature,combinedwith the OTSU threshold segmentation algorithm,is used tosegment thesoilbackgroundandidentifytheforegroundareasof weeds,effectivelysolving theproblemof weed detection inmaizesedling fields.The resultsshowthattheimproved YOLOv5algorithmachievesatarget detection precision of 97.5% for maize seedlings,which is 7.4% higher than the original YOLOv5 algorithm. The detection speed reaches 40ms ,thereby improving the detection accuracy and model robustness to meet the needs of real-time detection.

Keywords:wed detection among maize seedlings;YOLOv5;attention module;BoTNet module;super-green feature; OTSU threshold segmentation

0 引言

與高產(chǎn)作物爭奪生長空間、陽光、水分和土壤養(yǎng)分,容易引發(fā)病蟲害等問題,嚴重影響作物的健康生長,從而導致農(nóng)產(chǎn)品的產(chǎn)量和質(zhì)量下降[1,2]。因此,雜草檢測農(nóng)田雜草是對農(nóng)業(yè)生產(chǎn)最嚴重的威脅之一,雜草技術(shù)的重要性不言而喻。

目前,國內(nèi)外廣泛致力于雜草檢測研究,主要分為基于傳統(tǒng)方法和深度學習方法。傳統(tǒng)的雜草識別方法包括遙感識別法、光譜識別法;而深度學習方法則涵蓋基于圖像處理和計算機視覺技術(shù)識別法、機器視覺識別法[3-5]。研究者采用不同的技術(shù)手段來應(yīng)對雜草識別的挑戰(zhàn)。沈?qū)殗?采用顏色特征來區(qū)分棉田中的棉苗莖稈與雜草,融合雜草位置信息實現(xiàn)雜草的識別。吳蘭蘭等通過改進Itti模型,提取原始圖像特征圖,分割出目標區(qū)域,通過區(qū)域融合得到雜草區(qū)域。王二銳[8基于YOLOv4卷積神經(jīng)網(wǎng)絡(luò)模型,通過數(shù)據(jù)增強技術(shù),增加網(wǎng)絡(luò)訓練的復雜性,提高檢測準確性,實現(xiàn)雜草識別和定位的視覺系統(tǒng),其雜草檢測率為 93.19% 。然而,雜草檢測在技術(shù)層面仍然面臨一些難題:光照變化對識別準確性的影響、不同雜草種類的形態(tài)差異導致的分類挑戰(zhàn)、小目標檢測的困難、深度學習對樣本需求量大等。

本文通過優(yōu)化YOLOv5算法的玉米苗間雜草檢測研究,在主干網(wǎng)絡(luò)中引人SE無參數(shù)注意力模塊和BotNet模塊,采用超綠特征灰度化( ExG* 和OTSU閥值分割算法進行雜草分割,致力于解決這些技術(shù)上的難題,提高雜草檢測技術(shù)的精度、魯棒性和實用性。

1數(shù)據(jù)采集與處理

1.1 數(shù)據(jù)圖像采集

使用數(shù)碼相機在實地采集 3~5 葉齡玉米苗和雜草的高清圖片,如圖1所示。

圖1作物與雜草的分布情況

針對雜草和玉米苗這種特定物體的目標檢測,目前尚無可用公開數(shù)據(jù)集。因此,通過自主采集方式構(gòu)建新的數(shù)據(jù)集。樣本采集時間為2022年6月6—20日,地點位于黑龍江八一農(nóng)墾大學試驗田,采用垂直拍攝方式,采集的圖像包含玉米苗及伴生雜草,展現(xiàn)作物與雜草的分布情況。

1.2 圖像預(yù)處理

考慮到數(shù)據(jù)集的復雜性,采集的圖片在不同光照、時間、天氣和土壤背景(如土壤濕度和秸稈殘茬)條件下進行拍攝,共采集1427幅圖片,經(jīng)過篩選和清理,最終保留1050幅原始圖像。為增強數(shù)據(jù)集的豐富性,對采集的原始圖像進行數(shù)據(jù)增強處理,包括圖像裁剪、旋轉(zhuǎn)、鏡像翻轉(zhuǎn)、顏色變化以及噪聲注入等,如圖2所示。通過數(shù)據(jù)增強,將樣本容量擴展4倍,總共獲得4200幅圖像。

圖2數(shù)據(jù)增強示意圖

Fig.2 Schematic diagram of data enhancement

2 YOLOv5模型結(jié)構(gòu)與優(yōu)化

2.1 YOLOv5的模型結(jié)構(gòu)

為提升目標檢測性能,改進YOLOv5算法的主干特征提取網(wǎng)絡(luò)。在CSP層之后,引人SE注意力模塊,并采用BottleneckTransformer編碼器模塊來替代原有編碼器。優(yōu)化后YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖3優(yōu)化后YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)

Fig.3YOLOv5 network structure after optimization

2.1. 1 YOLOv5目標檢測算法原理

目前,深度神經(jīng)網(wǎng)絡(luò)目標檢測算法分為兩階段檢測和單階段檢測,主要區(qū)別在于是否存在候選框產(chǎn)生的階段。雙階段算法通常具有更高的檢測精度,常見的算法包括R—CNN、FastR—CNN、FasterR—CNN;單階段算法也稱為回歸分析目標檢測算法,雖然準確性不如FasterR一CNN算法,但實時性更好,通常采用YOLO算法和 SSD算法[9-11]

YOLO目標檢測算法將目標檢測視為一個回歸問題,直接從輸入圖像中預(yù)測物體的種類和位置,同時生成檢測框,無須進行候選框提取的復雜過程,具備高速的推理能力和低成本的模型部署優(yōu)勢。YOLOv5的網(wǎng)絡(luò)模型主要由4個關(guān)鍵部分組成,包括輸人層(Input)、主干網(wǎng)絡(luò)(Backbone)、中間連接層(Neck)以及預(yù)測層(Prediction)[12.13]。(1)輸人層(Input):定義圖像的尺寸和通道數(shù),同時采用Mosaic數(shù)據(jù)增強技術(shù),提高模型訓練速度和網(wǎng)絡(luò)精度。(2)主干網(wǎng)絡(luò)(Backbone):負責從輸入圖像中提取有關(guān)目標的關(guān)鍵信息,YOLOv5中的主干網(wǎng)絡(luò)使用CSP和Focus結(jié)構(gòu)作為基準網(wǎng)絡(luò)。(3)中間連接層(Neck):融合和處理來自不同層級的特征,以提升目標檢測的準確性。YOLOv5使用SPP模塊和FPN + PAN模塊,F(xiàn)PN層實現(xiàn)自下而上的強定位傳遞特征,又稱為特征融合層。(4)預(yù)測層(Prediction):將檢測頭預(yù)測的信息轉(zhuǎn)化為目標框的位置和類別概率,被稱為預(yù)測層,其輸出用于生成目標檢測的最終結(jié)果。

2.1.2SE卷積注意力機制

由于玉米苗和雜草在顏色、形狀和紋理特征上相似,引人SE(Squeeze-and-Excitation)注意力模塊增強網(wǎng)絡(luò)對玉米苗的關(guān)注度,特別是在復雜農(nóng)田背景中。解決原始網(wǎng)絡(luò)中存在的注意力不足問題,使網(wǎng)絡(luò)在檢測過程中更專注于檢測目標,減少無關(guān)信息的干擾。SE模塊算法流程如圖4所示。

SE注意力機制是對每個通道(特征圖中的每一個特定特征)應(yīng)用不同的權(quán)重,以突出或抑制特定通道的信息,這個過程可以分為3個步驟。

第一步,擠壓(squeeze):通過全局平均池化,將每個通道的二維特征( (H×W) 壓縮為一個實數(shù),將特征圖從 [H,W,C] 壓縮成[1,1, ?C] 的形狀,計算如式(1)所示。

式中: zc 一 壓縮后的通道描述符;uc(i,j) ——圖像在坐標 (i,j) 處的灰度值;i 一 圖像的高度;j 一 圖像的寬度;H 輸人特征圖的高度;W 輸人特征圖的寬度。

第二步,激勵(excitation):生成每個特征通道權(quán)重值,建立不同通道之間的相關(guān)性。通過兩個全連接層 (τυ1 和 w2 )完成,對前一步得到的向量 z 進行處理,從而產(chǎn)生與輸人特征圖的通道數(shù)相同數(shù)量的權(quán)重值。最終得到的通道權(quán)重值 s 中的不同數(shù)值表示不同通道的權(quán)重信息,為不同通道賦予了不同的重要性,計算如式(2)所示。

s=Fex(z,w)=σ(g(z,w))=σ(w2δ(w1z)) (2)式中: z 1 每個通道的平均值;w 權(quán)重矩陣; 1 兩個MLP層的權(quán)重。

第三步,權(quán)重(scale):通過生成的特征向量 s(1× 1×C 與特征圖 U(H×W×C) 相應(yīng)通道的點乘,得到所需的特征圖 ,計算如式(3)所示。

式中: uc 一 原始特征圖中的第 c 個通道;

sc 一 激勵權(quán)重。

通過在主干特征提取網(wǎng)絡(luò)中引入SE注意力機制,解決原網(wǎng)絡(luò)無注意力偏好問題,使網(wǎng)絡(luò)更專注于待檢測目標。

2.1.3 BoTNet模塊

在目標檢測任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)的卷積層主要關(guān)注局部信息,建立相鄰像素之間的關(guān)系,而Transformer模型具備全局感知視野,能夠建模長距離依賴關(guān)系,捕獲豐富的全局信息,這兩者之間存在互補的優(yōu)勢[14]。BoTNet將注意力模塊融合到CNN原有的模塊中。卷積層結(jié)構(gòu)如圖5所示。

BoTNet塊中使用的多頭自注意(MHSA)層,將ResNet中最后3個 3×3 卷積層替換成MHSA層,在小目標檢測方面顯著改善,同時減少了參數(shù)量,從而使得延遲最小化。

2.2雜草分割算法原理

采用超綠特征灰度化( ExG 和OTSU閾值分割算法進行雜草分割。由于王壤和綠色植被之間的顏色特征差異很大,通過超綠特征灰度化方法將彩色圖像轉(zhuǎn)換為灰度圖像,突出顯示綠色植被部分。通過OTSU閾值分割算法將灰度圖像分割為雜草和背景兩個部分,獲得二值化的分割圖像。

超綠色方法在提取綠色植物圖像方面效果出色,能夠明顯抑制陰影、雜草、苗和土壤等圖像成分,使苗、草圖像更加突出。針對作物識別和雜草檢測,超綠色方法是最常用的灰度化方法,計算如式(4)所示。

ExG=2G-R-B 式中: G # 綠色通道值;R 紅色通道值;B 藍色通道值。

經(jīng)超綠特征灰度化處理后的圖像,采用OTSU閾值分割算法自動選擇最優(yōu)閾值 T 。再利用這個閾值將圖像二值化,同時像素分為兩個類別,產(chǎn)生一個黑白的二值化圖像。OTSU算法的優(yōu)點在于其不需要人工干預(yù),能夠在圖像中自動確定合適的閾值,使圖像分割過程更加簡便和穩(wěn)定。二值化計算如式(5)所示。

當灰度值為0時,像素點為黑色,表示土壤背景;當灰度值為255時,像素點為白色,表示雜草背景。

在 ExG 特征通道圖像上應(yīng)用OTSU自適應(yīng)閾值法來確定一個適當?shù)姆指铋撝担瑢D像分割為前景和背景。對二值圖像進行形態(tài)學運算,以去除噪點并填充空洞,最終得到植被分割的前景圖像。

目標檢測算法生成檢測框后,通過在前景圖像上創(chuàng)建一個黑色掩膜,掩蓋在前景圖像的玉米苗檢測框位置,從而將玉米苗從圖像中移除,只保留待檢測的雜草目標,再使用二值圖像連通域標記算法來識別前景圖像中的雜草目標的連通域,實現(xiàn)雜草檢測。OTSU閾值分割算法通過分割圖像中的像素點,將雜草與土壤背景分離開來,這一過程包括4個步驟:(1)分割圖像中的像素點,標記雜草像素。(2)遞歸遍歷雜草像素的八鄰域,找到完整的雜草連通域。(3)連接連通域的邊界像素,構(gòu)建閉合的矩形框。(4)連通域內(nèi)像素點的均值,輸出雜草的連通域外接矩形框和質(zhì)心坐標。

3 試驗結(jié)果與分析

3.1試驗平臺與模型訓練設(shè)置

目標檢測算法需要高性能設(shè)備進行計算,試驗平臺配置如下:設(shè)備系統(tǒng)為Windows11,CPU為Intel(R)Core(TM)i7-11800H,GPU為NVIDIAGeForceRTX3060,學習框架為Python3.8。YOLOv5模型采用隨機梯度下降法(SGD)作為優(yōu)化器,通過根據(jù)梯度更新參數(shù)來降低損失函數(shù)的值。在此過程中,學習率動量被設(shè)置為0.937,初始學習率為0.01,采用余弦退火學習率策略,逐漸減小學習率[15]。此外,權(quán)重衰減系數(shù)設(shè)為0.0005,批量大小(batchsize)為16,總訓練周期(epoch)為300,前3個周期使用預(yù)熱訓練算法[16]

3.2 結(jié)果分析

3.2.1模型評估指標設(shè)置

目標檢測算法精度評估通常采用準確率 P 、召回率 R 、平均精度均值 mAP 指標,計算如式 (6)~ 式(8)所示。

式中: TP (20 模型正確預(yù)測為正類別的樣本數(shù);FP 模型錯誤預(yù)測為正類別的負樣本數(shù);(204號 FN 模型錯誤預(yù)測為負類別的正樣本數(shù);AP 平均精度;k 類別的總數(shù)。

改進后的YOLOv5算法在數(shù)據(jù)集上進行300輪訓練,性能指標曲線如圖6所示。

圖6性能指標曲線Fig.6Performance index curve

在玉米苗間雜草數(shù)據(jù)集上,模型的準確率為97.485% ,召回率為 96.982% ;當閾值為0.5時,平均精度均值為 98.5% ;當閾值為 0.5~0.95 時,平均精度均值為 74.04% ,可以看出,該模型對檢測指定目標具有很好的識別效果。

3.2.2 損失函數(shù)分析

依據(jù)設(shè)定好的訓練參數(shù),使用優(yōu)化后的YOLOv5—SE—BoT算法在標注好的數(shù)據(jù)集上進行訓練,模型損失函數(shù)曲線如圖7所示; P-R 曲線如圖8所示。YOLOv5使用GIoULoss作為boundingbox的損失函數(shù),包括誤差損失 $( b o x \_ l o s s \$ )、置信度損失 和分類損失 個部分,由于檢測目標只有玉米苗這一類,不需要對物體進行分類,所以分類損失 Lcls 損失函數(shù)圖沒有數(shù)據(jù)。如圖7所示,經(jīng)過300個周期的訓練后,其余兩類損失函數(shù)均具有較低的收斂值,模型的誤差損失 Lbox 和置信度損失 Lobj 在第8輪左右開始收斂,收斂于0.019和0.012,從而改進的YOLOv5模型具備出色的訓練收斂性能和訓練效果。試驗中,將 IoU 閾值設(shè)為0.5,計算所有圖像玉米苗的 P 一 ?R 曲線,可以看出,平均精度均值 mAP 達到 98.5% ,表明改進后的YOLOv5模型在玉米苗檢測方面有較高的識別精度。

3.2.3 不同算法模型對比

為展示改進后算法優(yōu)勢,在相同數(shù)據(jù)集下,對SSD、FasterR—CNN、原YOLOv5以及本文算法(YOLOv5—SE—BoT)進行充分訓練,性能檢測對比結(jié)果如表1所示。本文算法與SSD和FasterR—CNN相比,準確率和召回率都有顯著的提高, mAP 值分別提升 9.2%.7.8% 。與原YOLOv5算法相比, P 、R 和 mAP 分別提升 7.4%.5.5% 和 6.1% 。綜合各項性能指標,本文算法具有更好的檢測性能。

表1性能檢測對比結(jié)果Tab.1 Performance test comparison results

3.3 YOLOv5模型玉米苗檢測

為驗證本文算法在檢測效果上的優(yōu)勢,以玉米苗田圖像為例,選取雜草稀疏、雜草密集和多種雜草伴生情況下的圖片進行對比測試,對比YOLOv5和本文算法,檢測結(jié)果對比如圖9所示。可以看出,在多種雜草伴生的情況下,YOLOv5受到周圍多種雜草的干擾,容易出現(xiàn)漏檢和誤檢的情況。而本文算法表現(xiàn)出更好的穩(wěn)定性,能夠準確檢測出所有情況下的玉米苗,避免漏檢和誤檢的情況。由于本文算法引入了SE注意力模塊和Transformer編碼器模塊,檢測置信度明顯高于原始的YOLOv5算法,引人的SE注意力模塊有助于提高對檢測目標的注意力,降低無關(guān)信息的干擾,Transformer編碼器模塊增強目標定位能力,進一步降低漏檢率和誤檢率。

圖9檢測結(jié)果對比Fig. 9Comparison of test results

4結(jié)論

1)基于YOLOv5目標檢測算法構(gòu)建的模型,通過改進主干特征提取網(wǎng)絡(luò),并引人SE無參數(shù)注意力模塊,使算法模型更好地聚焦主體目標;同時將BoTNet模塊替換原本的殘差神經(jīng)網(wǎng)絡(luò),從而提高對小目標檢測的精度,模型的平均精度均值 mAP 達 98.5% 。

2)采用 ExG 超綠特征結(jié)合OTSU閾值分割算法分離土壤背景,找出玉米苗和雜草的前景區(qū)域,再通過黑色掩膜掩蓋目標檢測框位置來剔除玉米苗圖像,只保留待檢測的雜草目標,再使用二值圖像連通域標記算法來識別前景圖像中的雜草目標的連通域,實現(xiàn)玉米苗田中的雜草檢測,同時解決復雜情況下雜草種類多、檢測速度慢等問題。

3)改進后的YOLOv5算法在玉米苗的目標檢測上精確率達 97.5% ,較原始的YOLOv5算法提高7.4% 。雖然檢測速度略微降低,但檢測精度提升,滿足實時檢測的需求。

參考文獻

[1]付豪,趙學觀,翟長遠,等.基于深度學習的雜草識別方法研究進展[J].中國農(nóng)機化學報,2023,44(5):198-207.FuHao,Zhao Xueguan,Zhai Changyuan,etal.Researchprogress on weed recognition method based on deeplearningtechnology[J].JournalofChineseAgricultural Mechanization,2023,44(5):198-207.

[2]王宇博,馬廷淮,陳光明.基于改進YOLOv5算法的農(nóng)田雜草檢測[J].中國農(nóng)機化學報,2023,44(4):167—173.Wang Yubo,MaTinghuai, Chen Guangming.Weedsdetectionin farmland basedona modifiedYOLOv5algorithm[J].Journal of ChineseAgriculturalMechanization,2023,44(4):167-173.

[3]Wang A,Zhang W,Wei X. A review on weed detectionusing ground-based machine vision and image processingtechniques [J]. Computers and Electronics in Agriculture,2019,158.

[4]王寶聚,蘭玉彬,陳蒙蒙,等.機器學習在無人農(nóng)場中的應(yīng)用現(xiàn)狀與展望[J].中國農(nóng)機化學報,2021,42(10):186-192,217.Wang Baoju, LanYubin, Chen Mengmeng, etal.Application status and prospect of machine learning inunmanned farm [J]. Journal of Chinese AgriculturalMechanization,2021,42(10):186—192,217.

[5]李金陽,張偉,康燁,等.基于無人機遙感技術(shù)的大豆苗數(shù)估算研究[J].中國農(nóng)機化學報,2022,43(4):83—89.Li Jinyang,Zhang Wei,KangYe,et al. Researchonsoybeanseedlingnumberestimationbased onUAV remote sensing technology [J]. Journal of ChineseAgricultural Mechanization,2022,43(4):83-89.

[6]沈?qū)殗悩淙耍ㄜ姡龋陬伾卣鞯拿尢锞G色雜草圖像識別方法[J].農(nóng)業(yè)工程學報,2009,25(6):163—167.Shen Baoguo, Chen Shuren, Yin Jianjun, etal.on color feature [J]. Transactions of the Chinese Society ofAgricultural Engineering,2009,25(6):163—167.

[7]吳蘭蘭,徐愷,熊利榮.基于視覺注意模型的苗期油菜田間雜草檢測[J].華中農(nóng)業(yè)大學學報,2018,37(2):96—102.Wu Lanlan, Xu Kai, Xiong Lirong. Detecting weedin seedling rapeseed oil field based on visual-attentionmodel[J]. Journal of Huazhong Agricultural University,2018,37(2):96—102.

[8]王二銳.基于深度學習的前胡除草機部件設(shè)計與試驗[D].合肥:安徽農(nóng)業(yè)大學,2022.

[9]尚文卿,齊紅波.基于改進FasterR—CNN與遷移學習的農(nóng)田雜草識別算法[J].中國農(nóng)機化學報,2022,43(10):176-182.Shang Wenqing,Qi Hongbo. Identification algorithm offield weeds based on improved Faster R—CNN and transferlearning[J].JournalofChineseAgriculturalMechanization,2022,43(10):176—182.

[10]RenS,He K, Girshick R,et al.Faster R一CNN:Towards real-time object detection with region proposalnetworks [J]. IEEE Transactions on Pattern Analysisamp;Machine Intelligence,2017,39(6):1137—1149.

[11]李春明,逯杉婷,遠松靈,等.基于FasterR—CNN的除草機器人雜草識別算法[J].中國農(nóng)機化學報,2019,40(12):171—176.Li Chunming,Lu Shanting,Yuan Songling,et al.Weed identification algorithm of weeding robot based onFaster R-CNN[J]. Journal of ChineseAgricultural Mechanization,2019,40(12):17l—176.

[12]李茂暉,吳傳平,鮑艷,等.論YOLO算法在機器視覺中應(yīng)用原理[J].教育現(xiàn)代化,2018,5(41):174—176.

[13] Bochkovskiy A, WangC, LiaoH. YOLOv4:Optimal speed and accuracy of object detection [J].arXivpreprint arXiv:2004.10934,2020.

[14]王貴參,楊承林,蒲佳佳,等.基于改進的VisionTransformer雜草生長周期識別方法研究[J].長春工業(yè)大學學報,2022,43(6):712-718.

[15]東輝,陳鑫凱,孫浩,等.基于改進YOLOv4 和圖像處理的蔬菜田雜草檢測[J].圖學學報,2022,43(4):559-569.Dong Hui,Chen Xinkai,Sun Hao,et al.WeeddetectioninvegetablefieldbasedonimprovedYOLOv4 and image processing [J]. Journal of Graphics,2022,43(4):559-569.

[16]張偉康,孫浩,陳鑫凱,等.基于改進YOLOv5 的智能除草機器人蔬菜苗田雜草檢測研究[J].圖學學報,2023,44(2):346-356.Zhang Weikang,Sun Hao,Chen Xinkai,et al. Research onweed detection in vegetable seedling fields based on theimproved YOLOv5 intelligent weeding robot [J]. Journal ofGraphics,2023,44(5):346-356.

猜你喜歡
雜草閾值玉米
種植密度與有機肥互作對玉米籽粒產(chǎn)量和經(jīng)濟效益的影響
玉米種植全程機械化栽培技術(shù)要點分析
基于模糊控制的車道偏離預(yù)警模型研究
不同溫度下CL-20機械感度閾值的量化研究
爆破器材(2025年4期)2025-08-03 00:00:00
現(xiàn)代農(nóng)業(yè)玉米高產(chǎn)種植技術(shù)及病蟲害防治策略研討
基于后向散射特性的SAR遙感水體提取
人民黃河(2025年7期)2025-07-29 00:00:00
博興加強玉米大面積種植的高產(chǎn)栽培和病蟲害防治技術(shù)應(yīng)用
基于變分模態(tài)分解和自適應(yīng)雙閥值的 心電信號R波檢測
拔雜草
科教新報(2022年22期)2022-07-02 12:34:28
水稻田幾種難防雜草的防治
主站蜘蛛池模板: 波多野结衣二区| 婷婷色狠狠干| 99中文字幕亚洲一区二区| 亚州AV秘 一区二区三区| a级毛片免费网站| 国产精品19p| 2048国产精品原创综合在线| 国产丝袜第一页| 三级国产在线观看| 毛片手机在线看| 亚洲免费成人网| 亚洲三级电影在线播放| 欧美精品亚洲二区| 欧美综合中文字幕久久| 国产亚洲欧美日韩在线一区| 亚洲码在线中文在线观看| 99热这里都是国产精品| 国产精品偷伦在线观看| 区国产精品搜索视频| 免费不卡在线观看av| 91精品国产无线乱码在线| 国产在线观看第二页| 婷婷综合缴情亚洲五月伊| 亚洲欧美一区二区三区蜜芽| 国产成人区在线观看视频| 欧美中文字幕一区| 秘书高跟黑色丝袜国产91在线| 欧美在线黄| 日韩成人免费网站| 国产精品亚洲五月天高清| 97亚洲色综久久精品| 最新日本中文字幕| 国产人妖视频一区在线观看| 日本久久久久久免费网络| 国产三级韩国三级理| 中文字幕在线不卡视频| 成年人国产网站| 欧美日韩在线亚洲国产人| 精品国产Av电影无码久久久| 日韩第九页| 中文字幕有乳无码| 成人午夜网址| 久久青草免费91线频观看不卡| 毛片久久网站小视频| jizz国产在线| 国产一在线观看| 国产丰满大乳无码免费播放| 午夜视频免费一区二区在线看| 91在线国内在线播放老师| 99久久精彩视频| 欧美亚洲国产精品第一页| 四虎影视国产精品| 欧美精品啪啪一区二区三区| 亚洲高清中文字幕在线看不卡| 波多野结衣中文字幕一区| 日本午夜影院| 亚洲欧美一区在线| 3344在线观看无码| 欧美国产日韩在线观看| 在线中文字幕日韩| 玖玖精品视频在线观看| 亚洲娇小与黑人巨大交| 亚洲中文字幕97久久精品少妇| 亚洲一欧洲中文字幕在线| 欧美日韩国产精品va| 亚洲av无码专区久久蜜芽| 在线观看国产精美视频| 一级看片免费视频| 91精品综合| 国产成人久视频免费| 国产精品任我爽爆在线播放6080| 亚洲日韩久久综合中文字幕| 国产成人乱无码视频| 91精品国产91欠久久久久| 亚洲高清资源| AV熟女乱| 亚洲日韩每日更新| 国产网友愉拍精品视频| 亚洲综合激情另类专区| 人妻21p大胆| 国产网友愉拍精品视频| 伊伊人成亚洲综合人网7777 |