999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于UANP-MT 的半監督菜心雜草分割方法

2023-08-15 16:18:58蔡雨霖肖佳儀余超然岳學軍
農業工程學報 2023年11期
關鍵詞:雜草監督模型

蔡雨霖 ,肖佳儀 ,余超然 ,宋 釗 ,李 靜 ,岳學軍

(1. 華南農業大學電子工程學院/人工智能學院,廣州,510642;2. 廣東省農業科學院蔬菜研究所/廣東省蔬菜新技術研究重點實驗室,廣州,510640)

0 引 言

農田雜草具有極強的繁殖能力,并通過和作物爭奪養分、引入作物疾病、吸引有害昆蟲等方式直接或間接影響作物產量、質量,給農業生產造成嚴重損失。隨著農業無人機的發展,田間低空噴施的工作得以進一步研究和廣泛應用,逐漸取代人為施藥成為二次除草工作的主要方式。就目前而言無人機施藥針對的是整塊大田區域以全覆蓋和均勻噴施的方式進行化學除草作業,對于田間“片狀”與“點狀”的不規則雜草分布規律來說,大范圍全面性的噴施難免造成藥劑浪費甚至對環境產生污染[1-3]。對這種針對性不強且效率不高的傳統方法存在的問題,基于無人機平臺的雜草識別與精確除草成為當前研究應用的主要方向。

在計算機視覺與圖像處理領域中,對田間雜草區域的識別涉及到不同場景區域的分割和區分問題。根據圖像目標內容的不同特征,包括顏色特征,紋理特征,形狀特征,空間關系特征[4-10]等,將圖像劃分成若干個互不相交的區域,使得這些區域內的像素表現出一致性或相似性,從而能區分雜草所在區域。近年來面向無人機遙感平臺的農業識別任務中,因其極廣的視野深度和圖像維度,是對農田農情信息進行整體判斷的重要依據。對這些圖像進行處理需要一些更加精確和細致的機器視覺方法。

而得益于深度神經網絡的發展, LONG 等[11]提出了全卷積網絡FCN (fully convolutional network)的結構,實現了圖像內容分割和語義識別的端到端訓練,也同時奠定了語義分割算法的發展基調。對于農田雜草遙感平臺識別的研究領域,構建語義分割識別模型也是目前使用較多的方法。一些經典的語義分割網絡如SegNet[12]、U-Net[13]和Deeplab[14]系列等被陸續應用于水稻田,棉花地和玉米等地的雜草識別之中,皆取得了不錯的分割和識別效果[15-22]。比如GENZE 等[23]用FCN,U-Net 和Deeplabv3+等語義分割網絡和殘差網絡 ResNet[24]系列的不同組合在高粱地上的雜草分割效果做了對比,結果表明U-Net 與ResNet34 的組合分割對雜草和作物的分割效果最好,其f1-score 達到了89%。另外,針對原始網絡在特定的數據集中表現不足的問題,一些研究會對網絡做適應性的改進,如WANG 等[25-27]對 U-Net 都做了不同程度的數據集適應性改進,以得到更準確的雜草分割模型。KIM 等[28]基于U-Net 的基本結構,提出了一種兩階段的雜草識別模型,并在3 個公共數據集 (BoniRob dataset, crop/weed field image dataset (CWFID), rice seedling and weed dataset) 上做了測試,驗證了兩階段模型的優越性。

但在深度學習領域,大量的標注數據能訓練出高效的模型。但往往大量獲取標注數據并非一件易事。一種非監督的思想便由此而來,如 Mean Teacher (MT) 方法[29],旨在令教師網絡和學生網絡在未標注的數據預測上輸出一致。其后續 Perturbed Strict MT[30], Uncertainty aware MT[31]是在 MT 基礎之上的相應改進,通過增加對模型輸出的約束來達到提高模型性能的效果。再如 VERMA等[32]提出的 “插入一致性” (interpolatiuon consistency)方法,其本質上也是一種 MT 的思想。網絡期望兩張圖像以不同權重混合之后的預測輸出,能和原本各自圖像不同權重預測輸出加起來一致。由于農業生產活動周期普遍較短,耗費人力物力去做數據標注是一件成本高但時效性低的工作。但就目前而言,農業數據集上鮮有采用半監督方式去降低標簽數據的依賴性且提高圖像識別表現的研究,而是利用無監督的思想去進行數據增強。如ZOU 等[33]提出了一種具有無監督思想的數據增強方法,其對不同的數據集進行有效合成,最后這人工合成的數據集添加進訓練網絡后,在原測試集上其交并比Iou (intersection over union)達到了89.45%。PICON 等[34]則也提出了一些半監督思想的數據增強方法,其一旨在得到多種單一植株的混合合成圖像,其二是在復雜農田中先對其中作物做標注,再利用背景相減得到雜草的分割圖像。結合兩種方法進行模型訓練后,其對7 種雜草識別的平均平衡準確度 BAC (balance accuracy) 為75.71%。

上述方式固然能減少對農業數據的標注成本問題,且有較為不錯的表現,但面對復雜的田間環境時,其局限性較大。如本文研究的菜心地田間環境,其中菜心和雜草生長空間高度重合,較為密集,采用數據增強方式來做雜草識別較為困難,而用于監督學習的標注工作又過于龐大,所以需要研究一種高效的半監督雜草分割模型。針對這個問題,本文提出一種 UANP-MT (uncertainty aware and network perturbed mean teacher) 結構模型,通過增加教師網絡的擾動來保證網絡預測的魯棒性,并利用不確定性系數來提高網絡輸出的置信度,從而提高網絡的識別準確度和泛化能力,確保在少部分標注數據下雜草的高效識別。

1 材料與方法

1.1 數據獲取與數據集構建

1.1.1 數據圖像獲取

本文試驗對象為菜心地試驗田,位于廣東省農業科學院蔬菜研究所大豐試驗基地(113°37′E, 20°16′N)。菜心的生長周期較短,一般從播種到商品收獲期在 35~45 d。本文數據采集時間為2022 年9 月4 日,此時該菜心地正處于葉片生長期,也是除草的關鍵時期。數據獲取設備為大疆“御”Mavic 2 專業版相機,1 英寸CMOS,有效像素2 000 萬,視角77°,等效焦距28 mm。內置電子快門,照片分辨率為 5 472 × 3 648 像素。

數據獲取過程中,設置無人機為區域自動拍攝模式,飛行高度為5 m,飛行速度為1.5 m/s,拍攝間隔設置為1 s。為了避免無人機陰影給畫面帶來的影響,無人機飛行相機俯仰角與地面呈45°夾角,并不垂直于地面。

最終獲取130 張尺寸為 5 472 × 3 648 像素的菜心地圖像,每張圖像實際分辨率為 0.1 cm/像素。

1.1.2 數據集構建

數據集構建描述如圖1 所示。將一張5 472×3 648 尺寸的圖像分割成64 張684 × 456 像素的子圖,減少后續訓練時的內存消耗以及較大程度保證圖像不失真。經去重和預處理后,最終得到2 304 張子圖。

圖1 菜心地雜草數據集構建Fig.1 Construction of weed dataset in the cabbage field

在所有子圖中,存在一些全是背景像素的圖像,可分為兩類,一類是土壤像素,另一類是黑色地膜像素,其中基本不包含前景部分,所以歸為負樣本。在深度學習訓練中,正負樣本數的平衡是確保模型預測性能的一大前提。過多的正樣本會讓模型泛化能力不足,而過多的負樣本則會降低模型預測的準確度。在本文數據中,負樣本數量也相對較多,所以需要剔除一些冗余的負樣本數據,增加正樣本數據在訓練中的權重。

剔除的冗余負樣本子圖為148 張,剩下2 156 張子圖則構成本次試驗的全部數據。將其劃分為訓練集和測試集。訓練集占95%,為2 048 張子圖;測試集占5%,為108 張子圖。

對訓練集數據和測試集數據做語義范圍標注,標注工具為 Labelme 3.16.7 版本,平均一張684×456 像素的子圖標注時間為3~5 min。

1.2 語義分割算法

1.2.1 PSPNet

PSPNet 是ZHAO 等[35]提出來的一種基于全局信息的語義分割模型。其網絡結構如圖2 所示。輸入圖像在經過特征提取網絡“CNN”后得到輸入特征圖。緊接著對該特征圖做4 種尺寸的全局池化“Pool”,得到4 種不同尺度的池化層。圖中用藍色的立方體表示全局信息最細致的層級,其他顏色次之。為了保持全局特征的權重,采用1×1 的卷積“Conv”對這4 個層級的特征層做特征降維。然后通過雙線性插值直接對低維特征圖進行上采樣 “Upsamepling”,使其與原始特征圖尺度一致。最后,將不同層級的特征圖拼接為最終的金字塔池化全局特征。

圖2 PSPNet 網絡結構Fig.2 Network structure of PSPNet

1.2.2 Backbone

本文將探討3 種不同量級的“CNN”特征提取網絡Mobilenetv2, ResNet50 和ResNet101 在雜草識別模型中的表現。

Mobilenetv2 是一個輕量型的卷積神經網絡,其中一個模塊叫 Inverted residual block,主要包括擴展層,投影層和深度可分離卷積層。擴展層和投影層的目的分別是做特征升維和特征降維。而深度可分離卷積則完成卷積計算,它將3×3 的傳統卷積分成兩個階段,首先用與輸入通道數相等的3×3 卷積核對輸入做卷積運算,然后再用與輸出通道數相等的1×1 卷積對上一步得到的特征圖進行通道數的調整。如此便大大降低了計算量和參數量。

ResNet 系列是近年來深度學習鄰域較為主流的特征提取網絡。其網絡中設計了兩種殘差模塊,其一是以兩個3×3 卷積網絡串接在一起作為一個殘差模塊,其二是一種以1×1,3×3,1×1 這3 個卷積網絡串聯成為一個殘差模塊。ResNet 根據殘差層的數量來劃分不同的網絡。ResNet18, 20, 34, 50, 101, 152 等。其中ResNet50 和ResNet101 的使用較為普遍,兩者的區別主要是在網絡的第四個卷積階段殘差模塊數目不同。ResNet50 的浮點運算次數Flops 為3.8×109,ResNet101 的浮點運算次數Flops 為7.6×109。

1.3 Mean Teacher (MT) 網絡

Mean Teacher (MT) 是一個比較經典的半監督模型。該模型由“教師網絡”和“學生網絡”兩個網絡組成,其核心思想是鼓勵兩個網絡的輸出相似,也即是半監督學習其中一個重要的思想,“預測一致性”。

MT 的網絡結構如圖3 所示。其中xu和xl分別表示無標簽數據和標簽數據,y則表示作為監督學習部分的ground truth。

圖3 Mean Teacher (MT) 網絡結構Fig.3 Network structure of Mean Teacher (MT)

xl經過 “學生網絡” Sent 后得到輸出,這部分與y做監督學習,損失函數為 Lsup(,y)。

而 xu則分別輸入“教師網絡”Tnet和“學生網絡”Sent 得到輸出和,這一部分做一致性學習。損失函數為 Lcon。

所以最終Snet 的損失函數構成為

Tnet 和Snet 兩個網絡結構相同,在訓練不斷迭代的過程中,Snet 的參數通過損失函數梯度下降不斷更新,Tnet 的參數則通過“學生網絡”更新賦值得到。

1.4 基于UANP-MT 的雜草識別模型構建

對于MT 的“預測一致性”思想,其首要關鍵點在于兩個網絡預測結果的可靠性。若其中一個網絡的預測結果并不如期望值,那么訓練過程中將會導致整個模型擬合結果變差,甚至擬合失敗。由于“學生網絡”Sent有Ground truth 實際標簽做監督,所以主要對“教師網絡”Tnet 部分做預測結果可靠性的提升。

本文提出了一種 UANP-MT 雜草識別模型。UANPMT 模型相對于MT,其主要的提升有兩點。

其一是對Tnet 部分做了擴增,使用了兩個Tnet。我們在每一個訓練輪次的訓練內只更新其中一個Tnet 網絡的參數,來增加兩個網絡差異性,然后將兩個獨立更新權值的教師網絡的預測結果進行重復推理并平均,可以減少單一模型的隨機性和偏差,從而提高一致性學習中偽標簽的準確性和可靠性,能對學生網絡做出更加可靠的指導,提高泛化性能,如此來進一步增強預測結果的魯棒性。

其二是對“預測一致性”部分增加了對不確定信息的約束。在一致性預測中,兩個網絡對同一輸入做出的預測難免出現偏差,在不斷的迭代過程中,這樣的偏差將對模型的“預測一致性”部分造成影響,這即是不確定性的因素。

而增加對這部分的約束則可以在計算一致性損失時只對兩個網絡預測偏差較小的結果進行學習,而對預測偏差較大的結果進行抑制。因此,Snet 得到了優化和更為可靠的監督,并反過來鼓勵Tnet 部分做出質量更高的預測。

UANP-MT 的模型結構如圖4 所示。“教師網絡”Tnet 部分分為PSPNet (Tnet1) 和PSPTNet (Tnet2),兩個網絡皆以PSPNet 為基礎網絡,二者結構一致,xu輸入后分別做出和的預測。為了約束其預測結果的可靠性,令這兩個網絡在每一個訓練輪次都做出M次預測,進行均值整合后形成最終Tnet 部分的輸出 。

圖4 UANP-MT 雜草識別模型Fig.4 UANP-MT weed identification model.

因此一致性學習部分的損失函數構成為 Lcon。表示xu輸入Snet 后的預測結果。 監督學習部分的損失函數為 Lsup。表示xl輸入PSPNet (Snet) 后的預測結果。PSPNet (Snet) 同樣以PSPNet 做為基礎網絡,在結構上與Tnet 部分的兩個網絡結構一致。

總體的損失函數構成為

其中var 表示兩個網絡在重復推理過程中的差異量均值,mask用以計算Tnet 部分目標預測結果的不確定性,作為一個約束性的系數,過濾掉不可靠的預測。其計算如下式:

其主要思想是計算出M次預測的均方差作為不確定性系數,從而約束Tnet 預測結果對損失函數的影響,鼓勵Tnet 做出魯棒性強,質量高的預測。

從整體模型來說,Snet 利用 Ltotal做梯度下降不斷更新其參數。而Tnet 部分的參數則通過Snet 做EMA(exponential moving average)賦值得到。具體計算如下:

其中Wt和Ws分別表示Tnet 部分的權重參數和Snet 部分的權重參數。在每個訓練輪次,PSPNet (Sent)只對其中一個Tnet 進行 EMA 賦值,PSPNet (Tnet1) 或者PSPNet (Tnet2)。

2 試驗與結果分析

2.1 試驗環境及訓練參數設置

本文的所有試驗均在Intel(R) Core(TM) i9-10920X CPU @ 3.50 GHz 運行內存為64 GB 的計算機平臺完成,平臺操作系統為Window10,機身顯卡型號為NVIDIA GeForce RTX 3 090,中央處理器為Inter(R) Core (TM) i9-10920X @ 3.50 GHz。軟件環境在window10 Pycharm 專業版客戶端中搭建,采用python 3.8.10 版本在深度學習Tensorflow2 框架上實現。

訓練時參數設置如下:輸入尺寸為473 × 473;初始學習率為0.01;梯度下降優化器選用SGD,其內部momentum 參數設置為0.9;損失函數選用經典的交叉熵損失計算式。Batchsize 設置為4,訓練輪次為80。

2.2 模型評估指標

本文試驗效果的驗證采用語義分割中常用的指標進行評估。在下文中,需要首先對所用參數值做出標明:其中i表示類別(文中指代雜草),ti表示實際像素為i類的數量,pi表示預測像素為i類的數量。nii表示預測為i實際也是i類的數量。

像素準確率PA,其含義為在類別i的預測中,真實屬于i類像素的準確率。計算式如下:

交并比Iou,其含義為模型對某一類別預測結果和真實值的交集與并集的比值。計算式如下:

F1 分數F1 score,其含義是查準率和查全率的綜合平衡指標。計算式如下,其中 β 設為1。

2.3 結果與分析

2.3.1 Tnet 部分不同M值測試

Tnet 部分的兩個網絡在每個訓練輪次都做出M次預測,其均值結果不僅能用于判斷兩個網絡預測的不確定性,且能最終讓Tnet 部分的輸出更加穩定。所以,對于M的取值需要在試驗中進行測試驗證。

在這一環節采用訓練集的1/2 (1 024) 數據以及它們對應的標簽作為標簽數據,剩下部分1/2 (1 024) 僅采用原始數據而無標簽作為無標簽數據,進行模型訓練并測試模型在測試集上的表現。特征提取網絡采用Mobilenetv2,其輕量化的結構能極大減少訓練時長,節約時間成本。而對于M,取了5 個值進行測試。

測試結果如表1 所示。從表中可以看到,模型的性能大體上是隨著M值的升高而升高,尤其是在評估指標F1 分數上最能體現出來,當M=10 時,F1 分數為84.50%。但從交并比和像素準確度上看,當M=8 時模型性能則更佳,其交并比為92.53%, 像素準確度為97.29%。且從總體上看,由于網絡結構一致,所以模型幀率Fps (frames per second) 相差無幾。當設置M=8 時進行訓練得到的模型其Fps 為86.49 幀/s。

表1 對不同 M 值的測試Table 1 Model test of coefficient M

由于用來做均值擬合的數據越多,出現不確定性數值的概率會越大,在后續的不確定性計算有些數據不能被學習到,導致模型性能下降。所以并非對Tnet 部分做重復預測越多越好,而且M值越大,越消耗計算資源。所以綜合考慮,在后續的試驗中,都將M值設置為8。

2.3.2 不同backbone 下的模型性能測試

不同量級的特征提取網絡對數據集也有很重要的影響。選取3 種網絡,分別是Mobilenetv2, ResNet50, Res-Net101,測試不同的backbone 下模型的性能。

采用訓練集的1/2 (1 024) 數據以及它們對應的標簽作為標簽數據,剩下部分1/2 (1 024) 僅采用原始數據而無標簽作為無標簽數據,進行模型訓練并測試模型在測試集上的表現。測試結果如表2 所示。

表2 不同backbone 下的模型性能Table 2 Performances of the model with different backbones

從表2 中可以看出,ResNet50 的表現較為優異和穩定,在3 個網絡中的F1 分數和交并比都是最佳的,分別為85.40%與93.17%。且從圖5 中看出,ResNet50 的損失函數收斂更快更穩定。所以,Backbone 設置為ResNet50 對本菜心雜草數據集來看,更能提取和學習到關鍵的特征。而從推理速度上看,Mobilenetv2 因其網絡的輕量性,所以有著最高的推理速度,其幀率達到86.49幀/s。ResNet50 的幀率也達到了58.76 幀/s,也有著較為不錯的推理速度,已然能夠滿足實時性檢測的要求。至于量級更大的ResNet101 表現不如人意的原因,可能是在訓練的過程中,Snet 將參數權重通過EMA 的方式賦值給Tnet,這是一個參數累加的過程,在累加初期當前值的權重小,要隨著累加變化才能體現,所以會有一個延遲的效應。而深層網絡在參數權重有限的情況下,其學習和預測能力不能較好地發揮。所以ResNet101 在菜心雜草數據集上表現并不如ResNet50。在后續的試驗中,都將backbone 設置為ResNet50。

圖5 不同backbone 下的訓練集損失函數Fig.5 Loss function of training set with different backbones

2.3 .3 UANP-MT 模型消融試驗

將UANP-MT 拆解成獨立的UA-MT, NP-MT 和MT部分,并與UANP-MT 和原始監督網絡Sup 做消融性對比試驗。對半監督網絡,將分別利用到訓練集1/2(1 024)、 1/4 (512)、1/8 (256)、1/16 (128) 數據以及它們對應的標簽作為標簽數據,1/2 (1 024)、3/4 (1 536)、7/8(1 792)、15/16(1 920) 僅采用原始數據而無標簽作為無標簽數據;對原始監督網絡,分別利用到訓練集的1/2 (1 024)、1/4 (512)、1/8 (256)、1/16 (128) 數據以及其對應的標簽作為標簽數據,此部分沒有無標簽數據。

為了減少由隨機因素引起的誤差和噪聲,并提高試驗結果的可靠性和穩定性,對每一個網絡進行兩次模型訓練,并最終對它們在測試集上的表現進行平均取值。旨在驗證不同數據量的情況下UANP-MT 模型性能的優異性。

試驗結果如表3 所示。可以看到,其一,隨著標簽數據量的減少,所有模型的性能都逐漸下降。其二,半監督模型MT, UA-MT, NP-MT 與UANP-MT 在4 個不同數據量的數據集上的表現都優于原始的監督網絡。其三,增加了推理約束的模型UA-MT 和NP-MT 的性能在4 個不同數據量的數據集上皆優于MT。最后,在所有模型中,UANP-MT 模型在菜心雜草數據集上的性能表現最佳。

表3 模型消融試驗Table 3 Model ablation test

如在1/2 (1 024)數量的標簽數據情況下,原監督網絡Sup 在測試集上的表現為F1 分數為80.80%,交并比為86.46%。而UANP-MT 模型在只有 1/4 (512) 數量的標簽數據情況下,其在測試集上的表現已為 F1 分數為81.83%, 交并比為 90.70%,皆優于Sup。說明UANPMT 方法對標簽數據的利用性較高,在低于正常標簽數據量的情況下,UANP-MT 模型的表現甚至還優于原始網絡,驗證了其在雜草檢測上的有效性。

2.3.4 語義分割算法對比

為了進一步驗證UANP-MT 的有效性,選用SegNet,U-Net,Deeplabv3+與UANP-MT 進行算法性能對比。這3 網絡模型的原理和方法在不同的領域得到了廣泛的驗證和探究,且近幾年亦被陸續地應用于雜草檢測領域并取得了不錯地分割和識別效果,用以對比模型有著較好的參考價值。

將每個模型的backbone 特征提取網絡都設置為ResNet50,固定輸入尺寸為473×473;初始學習率為0.01。Batchsize 皆設置為4,訓練輪次為80。在相同的試驗條件下分別測試各個模型的表現。

在這一環節中,對半監督網絡UANP-MT,利用1/4 (512) 數據以及它們對應的標簽作為標簽數據,剩下部分3/4(1 536)僅采用原始數據而無標簽作為無標簽數據;對其余語義分割網絡,利用1/4 (512) 數據以及它們對應的標簽作為標簽數據,此部分沒有無標簽數據。測試結果如表4 所示。

表4 不同語義分割模型對比Table 4 Comparison of different semantic segmentation models

在所有模型中,UANP-MT 表現最佳,F1 分數為81.83%, 像素準確度為95.84%,交并比為90.70%。這幾個評估指標分別優于次之的Deeplabv3+模型 4.71,7.94,8.27 個百分點,且比原始模型提高6.29,10.89,9.89 個百分點。從推理速度上看,由于SegNet 和U-Net 網絡本身的輕量性,所以推理速度相對較高。而UANP-MT 在識別準確度較高的前提下,也有著不錯的推理速度,其幀率為 56.48 幀/s。

以上5 種模型在數據集上的實際預測情況如圖6 所示。

圖6 不同模型的預測結果Fig.6 Predictive results of different models

從圖6 中可以看到,其一,所有模型都基本能將數據集中地雜草區域檢測出來。其二,在數據量為1/4 (512)的情況下,所有模型的實際預測細致度都不高,只有一個粗略的輪廓,不能很好地勾勒細節。其三,半監督模型UANP-MT 比其它4 個監督模型來說像素涵蓋面積更廣,精度更高且細節部分更豐富一些。這也進一步驗證了UANP-MT 模型在菜心地雜草數據集上的有效性。

3 結 論

為了減少雜草識別模型對農業數據集的依賴性,本文提出了一種UANP-MT 的半監督學習方法。該方法基于MT 的思想,擴增了“教師網絡”Tnet,對其輸出進行均值整合,且增加了不確定性系數來判斷“一致性學習”過程中的預測可靠性。通過增加對網絡推理的約束來提高模型的性能,實現了低標簽數據量下模型對雜草的高效識別。

1)本文提出了一種UANP-MT 的雜草識別模型。對不同的特征提取網絡的應用進行了測試,結果證明在菜心雜草數據集上,ResNet50 更適合該模型。在Tnet 部分,測試了系數M不同取值情況下模型的性能表現,當M等于8 時結果較好。其交并比為92.53%, 像素準確度為97.29%。

2)對于UANP-MT 模型做了消融試驗。結果表明半監督學習的表現皆優于原監督網絡Sup,而UANP-MT表現最佳,其F1 分數為85.40%,交并比為93.17%。

3)與較為常用的語義分割模型SegNet,U-Net,Deeplabv3 的對比,進一步驗證了UANP-MT 模型的高效性。在只有1/4 (512) 標簽數據的情況下,其F1 分數為81.83%,像素準確度為95.85%,交并比為90.70%。分別比原始模型提高6.29,10.89,9.89 個百分點。

本文的研究成果對于田間雜草識別上具有一定借鑒意義,是一個有效降低對農業數據集依賴性,減少物力和時間成本的方法。我們對使用該方法在不同時期的菜心雜草數據集也做了一些研究,發現在源數據集訓練后的模型在不同時期的目標數據集中表現平平,具體表現在源模型能基本識別目標數據集中的雜草所在區域,但對雜草像素的預測和還原都比較有限,精度不高。今后擬采用領域自適應的方法來提高模型的泛化能力。并解決雜草識別工作中現存的一些問題,實時部署使用,實現基于無人機平臺的自動化特定區域雜草管理。

猜你喜歡
雜草監督模型
一半模型
拔雜草
科教新報(2022年22期)2022-07-02 12:34:28
重要模型『一線三等角』
突出“四個注重” 預算監督顯實效
人大建設(2020年4期)2020-09-21 03:39:12
重尾非線性自回歸模型自加權M-估計的漸近分布
監督見成效 舊貌換新顏
人大建設(2017年2期)2017-07-21 10:59:25
夯實監督之基
人大建設(2017年9期)2017-02-03 02:53:31
3D打印中的模型分割與打包
水稻田幾種難防雜草的防治
現代農業(2015年5期)2015-02-28 18:40:49
監督宜“補”不宜“比”
浙江人大(2014年4期)2014-03-20 16:20:16
主站蜘蛛池模板: 欧美乱妇高清无乱码免费| 亚洲浓毛av| 91无码视频在线观看| 在线日韩一区二区| 日韩精品无码免费一区二区三区| 国产区免费| 欧美高清日韩| 亚洲视频一区在线| 国产主播一区二区三区| 欧美成人手机在线视频| 国产精品va| 国产区福利小视频在线观看尤物| 国产一区二区三区视频| 青青草91视频| 亚洲欧洲国产成人综合不卡| 日本手机在线视频| 一级爆乳无码av| 国产成人夜色91| 最新亚洲人成网站在线观看| 无码专区在线观看| 国产菊爆视频在线观看| 亚洲精品第一在线观看视频| 狠狠ⅴ日韩v欧美v天堂| 亚洲热线99精品视频| 久久伊人久久亚洲综合| a免费毛片在线播放| 99久久国产自偷自偷免费一区| 国产精品久久自在自2021| 欧美成人午夜在线全部免费| 午夜国产大片免费观看| 国产一级在线播放| 极品性荡少妇一区二区色欲 | 国产v欧美v日韩v综合精品| 55夜色66夜色国产精品视频| 亚洲福利视频一区二区| 草草影院国产第一页| 国产va视频| 女人18毛片一级毛片在线| 国产视频 第一页| 国产高颜值露脸在线观看| 99热国产这里只有精品9九 | 99re在线视频观看| 国产精品福利社| 人妻21p大胆| 欧美日韩在线亚洲国产人| 国产99在线| 亚洲成在线观看 | 国产办公室秘书无码精品| 高清无码一本到东京热| 亚洲成综合人影院在院播放| 伊人久久精品无码麻豆精品| 国产一区成人| 九色在线观看视频| 一区二区三区毛片无码| 欧美区一区| 国产打屁股免费区网站| 日韩a级片视频| 亚洲视频影院| 国产内射在线观看| 亚洲综合色区在线播放2019| 国产导航在线| 99热这里都是国产精品| 91在线激情在线观看| 国产国模一区二区三区四区| 亚欧乱色视频网站大全| 97精品伊人久久大香线蕉| a级毛片在线免费| 国产情精品嫩草影院88av| 久久黄色一级片| 欧美亚洲激情| 国产尤物在线播放| 精品五夜婷香蕉国产线看观看| 久久综合久久鬼| 国产精品区网红主播在线观看| 国产乱人激情H在线观看| 精品久久久久久成人AV| 亚洲区视频在线观看| 91精品网站| 色综合成人| 欧美日韩北条麻妃一区二区| 高清久久精品亚洲日韩Av| 精品久久久久久成人AV|