999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于區域語義和邊緣信息融合的作物苗期植株分割模型

2021-02-14 01:55:58陳民慧朱德泉
農業機械學報 2021年12期
關鍵詞:語義特征

廖 娟 陳民慧 張 鍇 鄒 禹 張 順 朱德泉

(1.安徽農業大學工學院, 合肥 230036; 2.安徽農業大學智慧農業研究院, 合肥 230036;3.安徽省農業科學院水稻研究所, 合肥 230031)

0 引言

隨著農業自動化、智能化技術的不斷發展,機器視覺技術已廣泛應用于作物生長信息獲取、病蟲害識別、農藥精準噴施、田間智能除草以及農業機械視覺導航等領域[1]。而作物植株的準確分割是機器視覺技術的關鍵步驟,但不同作物的外觀(如形狀、尺寸、姿態等)存在較大差異,且田間自然光照環境復雜,這些因素給作物植株圖像分割帶來了一定困難。

傳統的植株分割方法多通過提取目標特定圖像中顏色[2]、紋理[3]及幾何形狀[4]等淺層特征來區分作物植株與背景,但淺層特征通常缺乏表達高層語義的能力,在表征作物植株的特定信息方面具有局限性,從而導致傳統分割方法性能下降。相比傳統方法,深度學習技術憑借其卓越的特征學習能力,可在圖像語義分割中取得更好的分割結果,現已廣泛應用于農業領域[5]。段凌鳳等[6]提出了基于全卷積神經網絡SegNet的大田稻穗分割算法,通過網絡訓練自動學習和提取稻穗圖像中深度特征,實現稻穗分割。MILIOTO等[7]構建了14通道的輸入圖像,提出了一種深度編-解碼的語義分割網絡,能夠實時分割作物和雜草。韓振浩等[8]基于全卷積神經網絡U-Net[9],實現了果園圖像中果樹與道路的像素級平穩分割。

基于深度學習的語義分割方法在作物植株分割應用中優勢明顯,但其分割效果取決于網絡在訓練過程中能否學習到豐富的有用特征,其中,高層的語義特征包含更多抽象的語義信息,低層的語義特征包含較多的邊界紋理等信息[10]。然而,當前作物植株語義分割研究多用高層特征實現像素分類,忽略了低層特征,導致分割結果缺乏精確的邊緣信息。而邊緣作為分割目標的一個重要特征,能有效表征不同區域間語義信息。為獲取精細邊緣,XIE等[11]提出整體嵌套邊緣檢測網絡(Holistically-nested edge detection,HED),通過構建多層邊緣深度監督,實現了利用卷積神經網絡提取邊緣。CHENG等[12]提出了一種融合邊緣與區域語義信息的遙感圖像分割模型,通過單層的邊緣監督,增強主干網絡對邊緣信息的感知,有效提高了小尺寸物體的分割精度。TAKIKAWA等[13]構建了一種并行卷積神經網絡的語義分割模型,明確將邊緣信息作為單獨的處理分支,采用邊緣標簽監督支路的優化,以并行的方式處理信息,能夠對目標邊界產生更清晰的預測。但現有的結合邊緣信息的語義分割網絡缺少針對作物苗期植株分割的研究,且邊緣信息對于作物生長信息獲取、生長檢測等是不可或缺的數據依據。

針對作物苗期植株語義分割中邊緣信息缺失問題,本文提出一種同時關注目標植株語義信息和邊緣信息的作物苗期植株分割網絡模型,聯合邊緣檢測與區域語義分割任務,實現作物苗期圖像中植株與背景的精確分割。以U-Net為主干框架,基于HED中側邊深度監督的思想構建邊緣感知模塊(Edge awareness module,EAM),并弱化邊緣深度監督帶來的監督沖突,引導網絡在提取植株區域的語義分割特征時,能夠關注植株的邊緣信息;基于空間空洞特征金字塔(Atrous spatial pyramid pooling,ASPP)結構[14]設計特征融合模塊(Feature fusion module,FFM),融合主干網絡中作物植株區域的語義分割特征和邊緣感知模塊中邊緣特征,以充分利用邊緣感知模塊獲取的豐富的邊緣語義信息,并利用聯合損失優化整體網絡,最終實現具有精細邊緣的作物植株分割。

1 數據集構建

1.1 數據來源

采用3個作物植株數據集開展實驗,數據集1為自制的田間水稻秧苗圖像數據集,圖像于2018年6月、2019年5月及2020年6月采集自安徽農業大學郭河實驗基地和安徽省農業科學院全椒實驗基地,水稻品種為雙季早秈稻,采集設備為Canon EOS 850D型相機,拍攝高度為0.5~1.5 m,拍攝垂直角度為0°~60°,取多個拍攝點,在不同光照條件下共采集圖像樣本560幅,圖像分辨率為3 456像素×2 304像素。數據集2和數據集3分別為公開的Plant Phenotyping Dataset[15]和Crop/Weed Field Image Datase[16],其中,數據集2共有原始圖像350幅,圖像分辨率為2 448像素×2 048像素,主要包含3種不同形態的植株圖像:葉少的Y形擬南芥幼苗135幅、長葉柄蓮座形態的擬南芥植株145幅和緊密的蓮座形態的煙草植株70幅。數據集3共有原始圖像60幅,圖像分辨率為1 296像素×966像素。圖1為3個數據集中部分樣本示例。為減少后續網絡訓練所占的內存和顯存,對數據集圖像進行壓縮處理,處理后圖像分辨率為416像素×416像素。

1.2 數據集構建與標注

為增加數據集的多樣性,增強模型的泛化能力和魯棒性,采用5種圖像增強技術:亮度隨機減弱或增強、圖像對比度隨機增強、色度動態變化30%、添加高斯噪聲和圖像隨機旋轉(0°、90°、180° 、270°)。對數據增強后的圖像進行篩選,剔除植株信息嚴重缺失的圖像,篩選后的數據集1擴充至1 400幅,數據集2增加到1 424幅,數據集3增加到549幅。

將數據增強后的3個數據樣本按照7∶2∶1分為訓練集、驗證集和測試集,對應的統計表如表1所示。使用Labelme工具對數據集1分別進行手動標注水稻秧苗區域像素和邊緣像素,標注標簽分別是背景和植株,標注后生成8位PNG灰度圖,黑色為背景,白色為植株。而數據集2、3已公開了相應的語義分割標注圖,僅使用Labelme標注其邊緣像素。原圖和可視化標注結果如圖2所示。

表1 數據分類統計表Tab.1 Data classification statistics

2 植株分割網絡結構設計

2.1 網絡結構概述

語義分割網絡U-Net整體呈“U”形,通過跳躍連接的方式將特征圖進行維度拼接,能夠保留更多的位置和特征信息,在小樣本數據集上分割性能優于其他網絡結構,且適合處理小尺寸物體的語義分割任務[17]。為此,本文在U-Net網絡模型基礎上搭建一個能共同學習目標的區域語義和邊緣特征的作物苗期植株分割網絡,網絡整體結構如圖3所示,主要包括主干網絡、邊緣感知模塊和特征融合模塊3部分,其中,主干網絡主要用于提取作物植株區域的語義分割特征;邊緣感知模塊(EAM)通過引入側面輸出,并采用圖像的邊緣標簽對其進行深度監督,以提取作物植株的邊緣特征;特征融合模塊(FFM)主要用于融合植株區域的語義分割特征和邊緣特征,提高網絡檢測精度。

2.2 主干網絡構建

U-Net采用了編-解碼結構,編碼器主要用于提取圖像特征,經過4次池化,獲取的特征尺寸逐漸縮小為輸入圖像尺寸的1/16。但原始U-Net網絡的參數較多,直接添加其他模塊易造成網絡參數量過大,網絡訓練困難[18],運行時間長,為實現田間作物苗期植株特征提取的低延遲,本文將深度可分離卷積(Depthwise separable convolution)[19]與U-Net網絡結構相結合。

如圖4所示,深度可分離卷積將標準卷積操作分解為逐深度卷積和逐點1×1卷積,通過逐深度卷積對每一個輸入通道進行單個卷積核的卷積運算,以保持輸入特征圖與輸出特征圖的通道數一致,然后用1×1逐點卷積組合不同深度卷積的輸出,實現通道數改變。深度可分離卷積與標準卷積的計算量比例公式定義為

(1)

式中Dk——深度可分離卷積的卷積核尺寸

M——輸入特征通道數

O——輸出特征通道數

相比于標準卷積層將所有卷積核都與每一個輸入特征通道進行計算,深度可分離卷積可有效地減少計算量和模型訓練參數。使用計算量小的深度可分離卷積層代替編碼器的標準卷積層,可實現U-Net的輕量化[20]。引入深度可分離卷積主干網絡的編碼器結構如表2中Stage1~Stage5所示。

解碼器部分的結構與原始U-Net相同,由表2中4個階段(Stage6~Stage9)組成,每個階段包含1層上采樣層、特征融合層和2層3×3的卷積,其中特征融合層分別融合上采樣后的特征層和編碼器中具有相應尺寸的特征層。為防止過擬合和抑制梯度消失,解碼器中各激活層(Rectified linear unit,ReLU)[21]前引入批歸一化層(Batch normalization,BN)[22],最后輸出尺寸為416像素×416像素×32通道的語義分割特征,記作S1。

2.3 邊緣感知模塊

針對區域語義分割網絡易導致分割后植株邊緣粗糙及邊緣信息丟失的問題,本研究基于HED的深度監督策略構造邊緣感知模塊(EAM),在語義分割的基礎上,聯合邊緣分割任務,并利用邊緣標簽同區域語義標簽共同監督網絡優化。但2種不同的標簽監督同時作用到網絡中,會引起監督沖突,即邊緣標簽的監督引導主干網絡通過捕獲圖像區域間的不連續性來定位精細的邊緣,而植株的語義分割標簽對網絡的監督將會引導網絡通過識別目標類別的外觀變化獲取抽象的高級語義信息,2種不同的引導信息將導致網絡提取有用特征時發生沖突。

為弱化監督沖突,LIU等[23]提出通過構建卷積模塊延長每一階段的輔助監督到邊緣分割網絡的反向傳播距離,可緩沖2種不同梯度信號對邊緣分割網絡的監督沖突。但由本文的主干網絡結構可知,U-Net的編碼器主要用于特征提取,解碼器用于特征融合和恢復圖像尺寸,對于目標特征的提取,編碼器占主導地位[9]。若將邊緣感知模塊直接構建在編碼器部分,邊緣監督會干擾編碼器提取語義特征。為此,本研究在主干網絡的解碼器部分構建邊緣感知模塊,利用解碼器作為緩沖部分,減弱邊緣監督對編碼器特征提取的沖突。邊緣感知模塊(EAM)如圖3所示,EAM包含5個邊緣特征提取分支,每個分支由一個殘差卷積塊(Residual convolution,RC)[24]、上采樣層和1×1卷積層構成,其中RC結構如圖5所示。EAM對主干網絡解碼器的每個階段均引出側層輸出,通過每個邊緣特征提取分支獲取側層邊緣特征,并利用邊緣標簽對側層邊緣特征進行監督,且每個分支的卷積層延長了邊緣監督到解碼器的梯度信號反向傳播路徑,起到緩解邊緣監督對解碼器網絡優化的沖突作用。由反向傳播機制可知,每個分支的輸出層參數通過權值誤差傳播路徑的反向傳播來更新,每一階段的側層深度監督使得每一級的側邊網絡層分別在不同的尺度上提取邊緣特征。因此,多層的深度監督將獲取不同尺度的邊緣特征,將每個分支提取的側層邊緣特征經過融合層堆疊融合,經過1×1卷積恢復通道數獲得邊緣感知輸出特征,記作E1,同時采用邊緣標簽進行深度監督,經過Sigmoid層輸出尺寸為416像素×416像素×2通道的邊緣預測圖。

表2 主干網絡卷積層結構Tab.2 Convolutional layer structure of backbone network

2.4 特征融合模塊

邊緣感知模塊可提取豐富的邊緣特征,如只在訓練過程中依靠邊緣感知模塊來修正主干網絡提取的植株區域語義特征,會遺失邊緣感知模塊提取的邊緣特征信息。為充分利用邊緣感知模塊提取的邊緣特征,進一步獲取邊緣信息完整的植株區域分割特征,提高分割效果,本文構建空間特征金字塔結構(ASPP)的特征融合模塊(FFM),融合主干網絡輸出的植株語義區域特征和邊緣感知模塊輸出的邊緣特征,其結構見圖3。

在ASPP中使用擴張率為1、6、12和18的空洞卷積和平均池化操作,空洞卷積根據擴張率對卷積核的大小進行空洞填充擴張,增大卷積感受野的同時不引入額外的參數。例如,擴張率為2的3×3卷積可以達到與5×5卷積相同的感受野。不同擴張率的空洞卷積操作可以獲取不同分辨率下的特征,可實現在多個尺度上捕獲目標語義信息和上下文的語義信息,記獲取包含上下文的多尺度特征為F1。為彌補空洞卷積中丟失的語義信息,將獲取的多尺度特征與S1、E1進行堆疊融合,并通過2層3×3的卷積操作細化特征,使用1×1卷積恢復特征通道數,獲取的特征尺寸為416像素×416像素×2通道,經過Sigmoid函數輸出分割預測圖P,其融合過程表達式為

P=σ(Conv(S1⊕E1)⊕F1)

(2)

其中

F1=ASPP(S1)

式中 ASPP——空間空洞卷積函數

⊕——特征按通道堆疊

Conv(·)——卷積運算函數

σ(·)——Sigmoid函數

2.5 多任務訓練損失

本文訓練過程中采用聯合損失函數完成網絡參數優化,損失函數定義為特征融合模塊(FFM)損失與邊緣感知模塊(EAM)損失的聯合損失,表達式為

lLoss=lseg+ledg

(3)

式中lseg——FFM預測結果的損失值

ledg——EAM預測結果的損失值

lLoss——聯合損失函數的損失值

lseg采用二分類交叉熵損失函數(Binary cross entropy,BCE)和MIOU損失函數的混合損失函數進行計算,定義為

lseg=lbce+lmiou

(4)

式中lbce——二分類交叉熵損失函數的損失值

lmiou——MIOU損失函數的損失值

二分類交叉熵損失函數lbce是二分類分割中應用最廣泛的損失,計算式為

(5)

式中N——總樣本個數

yi,j——語義分割標簽圖(i,j)處的像素值

(i,j)——圖像位置坐標

其中(i,j)∈(W,H),W、H分別是圖像的寬度、高度;i,j∈(0,1),yi,j∈{0,1},語義分割標簽圖中背景像素值為0,作物像素值為1。

MIOU損失可以衡量2個集合的相似度,已有研究[25]證明,當分割前景與背景相差較大時,MIOU的損失函數可取得較好的效果。而作物苗期植株圖像中,背景所占區域較大,前景植株所占區域較少,導致前景像素與背景像素的占比失衡,無法獲取良好的分割結果。因此,采用MIOU的損失函數可有效改善背景與前景植株所占像素不平衡帶來的訓練困難。MIOU的損失函數定義為

(6)

邊緣感知模塊的損失函數定義為EAM的5個側層輸出和最終EAM輸出的平均值。

(7)

式中K——輸出層總數

l(k)——第k層側層輸出的損失值

由邊緣感知模塊結構知K=6,包括5個側層輸出和1個邊緣感知輸出的融合層輸出。

由于邊緣感知模塊源于HED邊緣檢測網絡,可采用HED網絡中加權交叉熵函數定義l(k)。但植株圖像中邊緣像素占比較小,加權交叉熵損失函數未考慮到邊緣像素的鄰域信息。文獻[26]表明結構相似性損失SSIM(Structural similarity,SSIM)可賦予邊緣更高的權重,在訓練初始時會使得沿著邊緣的損失值最大,以有助于網絡訓練時更多地集中于邊緣部分的優化。因此,本文在構建邊緣感知模塊損失函數時引入結構相似性損失SSIM,采用7×7滑動窗口從邊緣預測圖和邊緣標簽中選取對應圖像塊,記作={r:r=1,2,…,M2}和x={xr:r=1,2,…,M2},則結構相似性損失函數定義為

(8)

μx、x——x、的平均值

σx、σ——x、的標準偏差

σx——x與的協方差

第k層側層輸出的損失值計算式為

(9)

其中

(10)

(11)

β——邊緣標簽圖中邊緣像素與非邊緣像素的比值

Y-——邊緣標簽圖的邊緣像素集合

Y+——邊緣標簽圖中的非邊緣像素集合

aj——邊緣預測圖在像素j處的像素值

bj——邊緣標簽圖在像素j處的像素值

3 實驗與分析

3.1 實驗環境與參數設置

實驗設備選用Intel(R)-Xeon(R) CPU E5-2699 v3,2.30 GHz,GPU選用NVIDIA Quadro P2000,顯存5 GB。軟件環境為Windows 64位操作系統,使用Python作為編程語言,使用Tensorflow作為深度學習框架。

網絡訓練中采用分批次(batch)訓練方法,將訓練集和驗證集分成多個批次訓練,所有訓練集圖像在網絡模型中完成遍歷計算即為一次迭代(epoch)。網絡模型初始化采用加載預訓練的權重初始化主干網絡。初始學習率為0.001,采用Adam算法優化,計算每個權重參數的自適應學習率。

3.2 評價指標

本文采用的評價標準主要包括像素準確率(Pixel accuracy,PA)、平均交并比(Mean intersection over union,MIOU)、精準率(Precision,P)和F1值(F1)。其中,PA定義為預測類別正確的像素數占總像素數的比例,MIOU為預測的結果和真實值的交集和并集之比,P表示為預測分割目標類別正確的像素準確率,F1值(F1)為綜合考慮召回率和精準率的平衡指標,同時兼顧分割的精準程度和完整性,且召回率可以反映真實標簽為分割目標的像素被正確分割的比例,衡量分割區域的完整性。

3.3 實驗結果分析

3.3.1不同分割模型性能對比分析

基于測試集樣本數據分別對本文網絡與U-Net、SegNet、PSPNet、DeepLabV3進行性能測試,表3為5種網絡分割性能參數對比結果。由表3可知,本文設計的植株分割網絡分割性能最優,對數據集1,其各項指標較U-Net、SegNet、PSPNet、DeepLabV3均有提高,其中,MIOU較U-Net提高了0.019;對數據集2,本文網絡在MIOU評價指標上達到0.932,F1值為0.978,相較于目前最為先進的DeepLabV3網絡模型,分別提高了0.041、0.042;對數據集3,圖像中目標植株較多且細小,圖像的細節信息更復雜,本文網絡較U-Net網絡,MIOU提高了0.07,PA提高了0.123。可見,本文網絡中邊緣感知模塊和特征融合模塊的設計,能夠促使網絡在訓練過程中學習到更多的細節信息,獲取較好的植株分割性能。此外,本文基于深度可分離卷積對主干網絡進行了輕量化設計,本文網絡參數共9.6×106個,而原始U-Net的網絡參數為2.42×107個,且對單幀圖像的平均檢測速度比本文網絡低32%,表明本文網絡具有參數規模小、實時性高的特點,適合應用于硬件系統資源有限的智能農業設備。

表3 不同模型作物植株分割比較Tab.3 Performance comparison of different segmentation models

圖6為不同網絡模型的分割效果,前5幅測試圖來源于數據集1、2、3,后2幅玉米苗期圖不同于訓練集,用于驗證網絡的泛化性。由圖6可知,U-Net網絡雖可分割出較全的植株區域,但易將背景像素錯誤分類為植株像素,不利于后續的植株定位、生長檢測等。SegNet存在嚴重的邊緣信息缺失,且對于細小區域的像素如植株莖部位難以準確分割,尤其是對包含細節信息較多的數據集3的分割效果較差,無法分割出完整植株。DeepLabV3和PSPNet的分割結果存在明顯的邊緣粗糙和邊緣信息缺失問題。而本文網絡在3個數據集及玉米苗期圖像都可正確地分割出植株,且植株邊緣信息能較好地保留,表明網絡中邊緣標簽監督能在網絡訓練過程中增加植株邊緣的約束條件,具有更好的高層語義和低層邊緣特征提取能力,避免背景誤分割為植株。

3.3.2EAM與FFM對網絡分割性能的影響

為了驗證本文設計的植株分割網絡中EAM、FFM的有效性,基于測試集樣本數據分別對主干網絡、主干網絡+EAM及主干網絡+EAM+FFM 3種結構進行性能測試,表4為3種結構性能參數對比結果。由表4可知,主干網絡+EAM和主干網絡+EAM+FFM在3個數據集上各項評價指標均優于主干網絡,其中主干網絡+EAM+FFM結構在3個數據集上獲得的MIOU相對于主干網絡分別提升了0.024、0.029、0.047。表明將邊緣檢測任務與語義分割任務進行聯合訓練,邊緣感知模塊對語義分割網絡產生正向的效果,能夠增加分割網絡對邊緣信息的感知,有效改善語義分割的結果。

為了更直觀展示FFM模塊對邊緣信息與區域語義信息的融合作用,圖7給出了主干網絡+EAM和主干網絡+EAM+FFM的分割效果圖,其中,圖7e為邊緣疊加圖,右下角為圖中標記框的放大顯示,圖中綠色、藍色、紅色分別代表標簽邊緣、主干網絡+EAM分割結果邊緣及主干網絡+EAM+FFM分割結果邊緣。對比邊緣線可見,紅色邊緣線比藍色線更加逼近綠色邊緣線,結合表4中的數據,主干網絡+EAM+FFM的分割性能較主干網絡+EAM有進一步提升,表明特征融合模塊FFM可充分利用邊緣感知模塊提取的邊緣特征信息來彌補主干網絡提取的特征中遺失的細節邊緣信息,獲取更完整的邊緣信息,從而得到具有精細邊緣的分割結果,提高分割精度。

表4 不同結構對測試圖像的分割性能比較Tab.4 Performance comparison of different modules on testing images

3.3.3損失函數對網絡分割性能的影響

網絡訓練過程中,損失函數通過對預測結果和標簽數據產生的誤差反向傳播指導網絡參數學習。為驗證本文設計的聯合損失函數的有效性,對網絡的損失函數進行相關的消融實驗。聯合損失函數分別定義為

lLoss1=lbce+lhed

(12)

lLoss2=lbce+lhed+lssim

(13)

lLoss3=lbce+lmiou+lhed+lssim

(14)

其中,lLoss3為本文設計的聯合損失函數。以3.2節中提及的評價指標,對比本文設計的分割網絡在3種損失函數下各數據集的分割性能如表5所示。由表5可見,在3個數據集上,lLoss2的MIOU比lLoss1高0.007~0.014,證實將SSIM損失函數項引入邊緣感知模塊,邊緣感知模塊可獲取更豐富的邊緣特征,引導主干網絡關注植株的邊緣信息,提高網絡整體的分割效果;進一步引入MIOU損失函數后,在數據集1上,F1值、P、PA雖因人工標注誤差存在而無提升,但MIOU提升0.004,且對于數據集2、3,在各評價指標上均有提升,最高提升0.021,表明在SSIM、MIOU損失函數項的共同作用下lLoss3能有效提升網絡分割性能。

表5 不同Loss函數對測試圖像的分割性能比較Tab.5 Performance comparison of different Loss functions on testing images

3.3.4不同算法的邊緣檢測性能對比

為衡量本文構建的網絡模型在提取苗期植株邊緣上的性能,將本文構建的網絡模型獲取的邊緣結果與HED邊緣檢測模型和Canny算子獲取的邊緣結果進行對比,其中,量化評價指標為F1值、P和平均絕對誤差(Mean absolute error,MAE)。MAE表示邊緣預測圖與邊緣標簽圖之間的絕對像素誤差,定義式為

(15)

式中EMAE——絕對像素誤差

S(i,j)——邊緣預測圖在像素坐標(i,j)處的像素值

G(i,j)——邊緣標簽圖在像素坐標(i,j)處的像素值

圖8為本文網絡及HED和Canny算子在測試集及玉米苗期植株的邊緣分割結果。可見,對于僅有邊緣檢測任務的HED網絡,由于缺少區域語義信息的補充,檢測的植株邊緣斷裂,造成邊緣信息缺失。Canny算子基于淺層特征區分植株邊緣和非植株邊緣,易將非植株邊緣誤檢為植株邊緣,且邊緣細化效果差。而本文網絡對3個測試集均可獲取準確的植株邊緣,且邊緣細化效果較好,如表6所示,本文網絡對3個測試集的邊緣檢測精準率均在0.9以上,且MAE低于HED和Canny算子,表明邊緣檢測任務與語義分割任務的聯合訓練,能夠有效提高作物苗期植株邊緣細化效果,彌補區域語義分割中的邊緣缺失問題。此外,本文網絡對未經訓練的玉米苗期植株也可獲取完整的邊緣,具有良好的泛化性。

4 結論

(1)以U-Net構建主干網絡,通過側邊深度監督策略構建具有緩沖單元的邊緣感知模塊,緩沖兩種監督沖突,并增強網絡特征提取過程中對植株邊緣的感知能力;基于空間特征金字塔結構構建特征融合模塊,充分融合區域語義特征和邊緣特征,融合后的特征圖中具有更強的植株區域語義信息和淺層細節信息,有效提高了作物植株分割精度和邊緣細化效果。

表6 不同算法的邊緣分割性能比較Tab.6 Performance comparison of different methods on edge segmentation

(2)將邊緣感知模塊損失函數和特征融合模塊損失函數聯合,構建聯合損失函數,用于整體網絡參數的學習優化,進一步提高網絡分割精度。與當前主流的分割模型U-Net、SegNet、PSPNet、DeepLabV3對比,對不同數據集的作物植株的語義分割像素準確率高達0.962,平均交并比達到0.932,具有良好的植株分割效果和泛化能力。在后續的研究中將對緩沖邊緣感知模塊對主干網絡的監督沖突做進一步研究,以及研究網絡的輕量化,在保證網絡模型分割精度基礎上提高其效率。

猜你喜歡
語義特征
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
“深+N季”組配的認知語義分析
當代修辭學(2011年6期)2011-01-29 02:49:50
主站蜘蛛池模板: 亚洲69视频| 国产在线观看成人91| 成人午夜久久| 视频一区视频二区日韩专区| 22sihu国产精品视频影视资讯| 国产美女在线观看| 亚洲精品第一页不卡| 秋霞午夜国产精品成人片| 亚洲乱码视频| 美女内射视频WWW网站午夜 | 久久久久夜色精品波多野结衣| 欧美日韩北条麻妃一区二区| 亚洲欧美人成人让影院| 免费无遮挡AV| 中文字幕在线不卡视频| 无码久看视频| 久久精品亚洲中文字幕乱码| 欧美人在线一区二区三区| 国产三区二区| 国产小视频a在线观看| 狠狠做深爱婷婷久久一区| m男亚洲一区中文字幕| 欧美激情网址| 九色免费视频| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲综合片| 最新日韩AV网址在线观看| 欧洲一区二区三区无码| 国产一级视频久久| 免费国产一级 片内射老| 久久伊人色| 亚洲男人的天堂久久香蕉| 喷潮白浆直流在线播放| 免费人成黄页在线观看国产| 日韩国产一区二区三区无码| 亚洲三级视频在线观看| 精品中文字幕一区在线| 国产精品视频免费网站| 国产成人成人一区二区| 国产亚洲精品在天天在线麻豆| 性欧美在线| 草草影院国产第一页| 毛片在线看网站| 91亚洲国产视频| 91无码人妻精品一区二区蜜桃| 亚洲美女久久| 国产主播一区二区三区| 国模私拍一区二区| 国产凹凸视频在线观看| 国产剧情一区二区| 欧美一级专区免费大片| 国产亚洲精品资源在线26u| 国产成人综合在线视频| 日韩二区三区| 成人午夜天| 在线观看国产黄色| 久久精品电影| 国产黑丝一区| 中文字幕亚洲乱码熟女1区2区| 四虎永久在线精品国产免费| 亚洲精品国产精品乱码不卞| 国产在线专区| 天天躁日日躁狠狠躁中文字幕| 国产欧美日韩免费| 国产成人精品男人的天堂| 18禁不卡免费网站| 波多野结衣无码视频在线观看| 欧美午夜网| 久久久久人妻一区精品| 日韩无码黄色网站| 日韩中文字幕免费在线观看| 一级毛片在线播放免费观看| 日韩午夜福利在线观看| 国产一级无码不卡视频| 99偷拍视频精品一区二区| 无码一区18禁| 国产成人无码AV在线播放动漫 | 国产成人久久777777| 欧美精品一区二区三区中文字幕| 国产乱人免费视频| 亚洲色图欧美视频| 无码又爽又刺激的高潮视频|