999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于路徑聚合擴張卷積的圖像語義分割方法*

2021-05-11 01:35:42李叔敖馬艷春劉永堅
計算機工程與科學 2021年4期
關(guān)鍵詞:語義特征信息

李叔敖,解 慶,馬艷春,劉永堅

(武漢理工大學計算機科學與技術(shù)學院,湖北 武漢 430070)

1 引言

作為計算機視覺的基礎(chǔ)任務(wù)之一,圖像語義分割的主要過程是對于一幅輸入圖像,精確地判斷圖像中的每個像素所屬的語義類別。圖像語義分割的性能對自動駕駛、機器人和視頻監(jiān)控等應(yīng)用的性能提升具有重要的現(xiàn)實意義。

目前,圖像語義分割領(lǐng)域的主流方法通常基于全卷積神經(jīng)網(wǎng)絡(luò)FCN(Fully Convolutional Networks)[1],不同方法的主要區(qū)別在于針對分割過程的特定問題產(chǎn)生不同的網(wǎng)絡(luò)結(jié)構(gòu)。FCN提出利用卷積層代替全連接層以接受任意大小的圖像輸入,同時,它利用反卷積獲得更為精細的特征。U-Net[2]對FCN做了簡單升級,在上采樣和與之對應(yīng)的下采樣之間構(gòu)建了跳躍連接,并使用和FCN不同的特征融合方式,拼接來自不同特征層的特征。Badrinarayanan等在SegNet[3]中提出了反池化操作,使用最大池化的索引進行上采樣,改善了物體邊界劃分效果的同時也減少了訓練的參數(shù)。Chen等在DeepLabv1[4]中提出了擴張卷積,同時還使用卷積神經(jīng)網(wǎng)絡(luò)級聯(lián)概率圖模型的方式使網(wǎng)絡(luò)獲得更豐富的對象信息。他們在后續(xù)研究的DeepLabv2中[5]提出擴張空間金字塔池化ASPP(Atrous Spatial Pyramid Pooling),增強了分割網(wǎng)絡(luò)在多尺度下語義分割的魯棒性。DeepLabv3[6]改進了 DeepLabv2中的擴張空間金字塔池化過程,通過使用“縱式”的ASPP模塊,使分割網(wǎng)絡(luò)獲得了更大的感受野和多尺度信息。DeepLabv3+[7]在DeepLabv3的基礎(chǔ)上,通過融合擴張金字塔池化和編碼器-解碼器結(jié)構(gòu),使模型在物體的邊界判斷上表現(xiàn)更好,也是目前最有效的語義分割框架。PSPNet[8]使用全局平均池化以聚合不同區(qū)域的上下文信息,提高了分割網(wǎng)絡(luò)獲取全局信息的能力。RefineNet[9]利用遠距離殘差連接,將粗糙的較高層次的語義特征與精細的較低層次的語義特征結(jié)合起來,生成了高分辨率的語義分割圖像,進一步提高了分割準確率。在實例分割中,Mask- RCNN[10]在Fast-RCNN[11]/Faster-RCNN[12]的基礎(chǔ)上添加了一個分割分支,該分支采用全卷積層用于掩模的預(yù)測,不僅改善了檢測的性能,同時也提升了分割的性能。PANet[13]在Mask-RCNN的基礎(chǔ)上設(shè)計自底向上的路徑,以縮短深度卷積神經(jīng)網(wǎng)絡(luò)中低層特征層到最高層特征層信息的傳播路徑,優(yōu)化了信息傳遞的方式,使信息在網(wǎng)絡(luò)中可以得到進一步的傳播。

本文從神經(jīng)網(wǎng)絡(luò)中信息的傳播路徑出發(fā),提出了一種路徑聚合型解碼器,該解碼器利用編碼器產(chǎn)生的特征圖逐步構(gòu)造另外2組特征金字塔,組成聚合性更強的解碼器結(jié)構(gòu),同時縮短分割網(wǎng)絡(luò)中的信息傳播路徑,減少解碼器網(wǎng)絡(luò)中定位信息流動難度。該解碼器使得低層的細節(jié)性結(jié)構(gòu)信息更容易傳播到高層,從而實現(xiàn)更精準的邊界分割效果。同時,本文針對語義分割任務(wù)中常使用的Softmax交叉熵損失函數(shù)對于外觀相似物體區(qū)分能力不足的情況,使用雙向交叉熵損失函數(shù)來提高網(wǎng)絡(luò)對相似物體的區(qū)分能力,在PASCAL VOC2012Aug[14]分割數(shù)據(jù)集和Cityscapes[15]數(shù)據(jù)集上對本文方法進行實驗,分別達到了80.44%和78.66%的分割精度。

2 相關(guān)工作

隨著卷積神經(jīng)網(wǎng)絡(luò)如AlexNet[16]、VGG[17]、GoogleNet[18]和ResNet[19]等被用于圖像語義分割并取得了突破性進展,F(xiàn)CN便成為圖像語義分割領(lǐng)域的主流方法,相關(guān)文獻中提出的編碼器-解碼器分割框架也被不斷采用[1,2,5,6,9]。編碼器-解碼器框架通常包含一個編碼器模塊和一個解碼器模塊,編碼器模塊一般移植于面向圖像分類任務(wù)的深度神經(jīng)網(wǎng)絡(luò),例如移除全連接層的VGG或者ResNet。在編碼階段,通過卷積網(wǎng)絡(luò)的堆疊,特征圖的尺寸逐漸縮小,同時網(wǎng)絡(luò)獲得更高級的語義信息。解碼器模塊通常由不同類型的上采樣網(wǎng)絡(luò)結(jié)構(gòu)組成,在解碼階段,使用不同的上采樣方法逐漸將特征圖恢復(fù)至輸入尺寸,恢復(fù)目標鋒銳的邊界與細節(jié)信息。但是,該框架通常存在如下問題:由于編碼器(即引入的卷積神經(jīng)網(wǎng)絡(luò))在下采樣過程中會丟失大量的細節(jié)性空間信息,且這種丟失的信息不可恢復(fù),因此解碼器難以恢復(fù)物體邊界等細節(jié)性信息,導(dǎo)致分割性能變差。解決該問題的方法分為2種:第1種方法是改進上采樣過程,增強編解碼之間的對應(yīng)關(guān)系或者融合不同網(wǎng)絡(luò)層次的語義信息。如FCN使用反卷積對特征圖進行上采樣,并通過跳級結(jié)構(gòu)來結(jié)合不同深度特征層,用以提高解碼階段特征圖分辨率;U-Net使用橫向連接來構(gòu)建下采樣(編碼過程)和與之對應(yīng)的上采樣(解碼過程)之間的連接;SegNet提出反池化過程,在編碼過程中進行池化操作時,存儲池化格內(nèi)最大值的位置,在解碼階段,使用存儲的池化索引進行反池化操作;PANet設(shè)計了自底向上的路徑增強結(jié)構(gòu),縮短了信息傳播路徑,同時有效地利用了低層特征精確的定位信息;特征金字塔網(wǎng)絡(luò)FPN(Feature Pyramid Network)[20]通過最近鄰上采樣和橫向連接逐步地構(gòu)建自頂向下的特征金字塔層,提升了被分割目標的檢測精度。第2種方法是使用擴張卷積[4 - 6],在擴大感受野的同時,有效避免頻繁下采樣帶來的分辨率損失和與物體邊界相關(guān)的細節(jié)性信息的損失。如SPP[21]使用多個不同尺寸的池化窗口對特征圖進行池化,再將得到的結(jié)果進行合并,使網(wǎng)絡(luò)不需要對輸入圖像進行裁切即可得到固定長度的輸出;文獻[4-7]提出的DeepLab系列模型將不同擴張率的擴張卷積作用于高層特征圖,在不降低其空間維度的前提下增大了感受野,避免了頻繁下采樣所導(dǎo)致的分辨率丟失,使網(wǎng)絡(luò)從多個尺度獲取圖像的上下文信息。

由于DeepLabv3+模型相對于其它模型在編碼器階段提取的特征圖具有更加豐富的語義特征,因此本文引入DeepLabv3+作為模型的編碼器模塊;同時為了實現(xiàn)更精準的邊界分割效果,引入了PANet模型中的路徑聚合結(jié)構(gòu)作為解碼器以恢復(fù)物體形狀,在FPN的基礎(chǔ)上,通過構(gòu)建另一條自底向上的聚合路徑對FPN做了進一步增強。

Figure 1 Structure of semantic image segmentation model圖1 圖像語義分割模型結(jié)構(gòu)

3 圖像語義分割模型結(jié)構(gòu)

本文提出的圖像語義分割模型整體結(jié)構(gòu)如圖1所示。圖1a表示編碼器,本文采用DeepLabv3+中Xception[22]結(jié)構(gòu)與擴張空間金字塔池化模塊(ASPP)作為編碼器,待分割圖像經(jīng)過編碼器會生成分辨率逐漸降低的特征圖像C2~C5,被逐層抽取的高層語義信息再經(jīng)過ASPP模塊即可得到不同擴張率的特征圖像,其包含多尺度上下文信息。虛線框(1)表示特征金字塔網(wǎng)絡(luò)(FPN),F(xiàn)PN接受編碼過程中產(chǎn)生不同尺寸的特征圖,P5~P2表示由特征金字塔逐步使用最近鄰上采樣和橫向連接構(gòu)造產(chǎn)生的特征圖,特征金字塔網(wǎng)絡(luò)利用了來自不同特征層的信息。虛線框(2)為本文引入的PANet路徑聚合結(jié)構(gòu),其構(gòu)建方式為在FPN網(wǎng)絡(luò)的基礎(chǔ)上自底向上進行聚合,縮短了低層信息傳播到高層的信息傳播路徑,使低層的信息更容易傳播到高層。N2~N5表示由特征金字塔層通過自底向上的路徑聚合結(jié)構(gòu)產(chǎn)生的特征層。在路徑聚合結(jié)構(gòu)之后,本文使用多尺度特征融合(虛線框(3))聚合來自不同特征層的特征進行語義分割預(yù)測,該方法相較于文獻[10,20]的方法能更加充分地利用上下文信息。

3.1 編碼器

相對于傳統(tǒng)網(wǎng)絡(luò)結(jié)構(gòu),改進的Xception結(jié)構(gòu)中所有的最大池化過程用帶步長的深度分離卷積替代,可以在獲得相當性能的同時減少模型參數(shù)量和計算花費,該結(jié)構(gòu)結(jié)合了深度分離卷積與擴張卷積,可有效提高分割準確率。因此,本文引入了DeepLabv3+模型中改進的Xception結(jié)構(gòu)(分離卷積)和擴張空間金字塔(ASPP)作為編碼器對圖像進行特征抽取。Xception結(jié)構(gòu)如圖2所示。

Figure 2 Xception structure in encoder model圖2 編碼器的Xception結(jié)構(gòu)

由圖2可知,Xception結(jié)構(gòu)由多組卷積與深度分離卷積組合而成。如圖2中“Conv 32,3×3,stride2”表示對輸入圖像采用32個3×3大小、步長為2的卷積核進行卷積。 “Seq Conv”即表示深度分離卷積,其將一個普通卷積轉(zhuǎn)化為一個深度卷積(Depthwise Convolution)和一個1×1的卷積(Pointwise Convolution),在獲得相當性能的同時極大減少了模型參數(shù)量和計算花費。圖2中沒有標明stride的卷積塊默認步長為1?!?.5×”表示Xception結(jié)構(gòu)的一次下采樣過程,2次下采樣之間存在許多中間卷積層,3次下采樣過程可分別輸出分辨率依次減半的特征圖,每次下采樣之前的特征圖分別記為{C2,C3,C4},供后續(xù)模塊作為輸入使用。

Xception模塊輸出的最高層特征圖作為擴張空間金字塔模塊(ASPP)的輸入,ASPP模塊結(jié)構(gòu)如圖3所示。ASPP模塊以Xception輸出的特征圖作為輸入,且平行地使用不同擴張率的卷積核對輸入特征圖進行卷積,獲得多尺度信息,然后將卷積得到的特征圖進行特征融合,形成256通道的特征圖作為編碼器的最終輸出。

Figure 3 Structure of atrous spatial pyramid pooling圖3 擴張空間金字塔池化

假定二維輸入特征圖x,i代表特征圖的像素坐標編號,卷積核為w,擴張率為r,k代表卷積核的各個坐標編號,則擴張卷積的輸出y如式(1)所示:

(1)

ASPP模塊的輸出由2部分構(gòu)成:(1)輸入圖像經(jīng)過1個1×1大小卷積核和3個擴張率分別為6,12,18的3×3大小卷積核卷積后輸出的結(jié)果;(2)輸入圖像首先經(jīng)過全局平均池化,再經(jīng)過256個1×1大小卷積核卷積、批歸一化,然后通過雙線性上采樣增大特征圖尺寸,最后對2個部分的結(jié)果進行拼接,并經(jīng)過1×1卷積降低通道數(shù),即可得到擴張ASPP模塊的輸出C5。

本文在訓練階段共進行4次下采樣,則編碼器輸出特征圖尺寸為輸入圖像尺寸的1/16,擴張空間金字塔的輸出即為編碼器輸出,輸出特征圖為256通道,包含豐富的語義信息。

3.2 特征金字塔網(wǎng)絡(luò)

圖像語義分割不僅需要依賴高層的語義信息對圖像中目標做出類別推斷,還需要根據(jù)更細節(jié)的信息如目標的紋理、色彩等低層特征定位出目標的位置信息。因此,本文引入了特征金字塔(FPN)結(jié)構(gòu),可以同時利用高層特征圖和低層特征圖對物體進行類別和位置預(yù)測。FPN結(jié)構(gòu)如圖4所示。

Figure 4 Structure of FPN圖4 FPN網(wǎng)絡(luò)結(jié)構(gòu)

FPN使用最高層的特征圖,通過自頂向下的上采樣與網(wǎng)絡(luò)卷積過程中產(chǎn)生的金字塔狀的特征層相結(jié)合,再與Xception主干網(wǎng)絡(luò)進行橫向連接構(gòu)建了特征金字塔。由于特征金字塔包含圖像各個尺度的特征,因此能逐步獲得低層次的目標位置和邊界信息。

FPN的構(gòu)建過程為:首先,對C5進行1×1卷積得到低分辨率特征圖P5;然后進行如下迭代:將Pi的2倍最近鄰上采樣結(jié)果與對應(yīng)的編碼器輸出特征圖Ci-1(其中Ci需經(jīng)過1×1卷積降低通道數(shù)目)進行像素相加,再經(jīng)過3×3卷積減少上采樣過程的混疊效應(yīng)[20],得到Pi(i∈{4,3,2});最后輸出特征圖集合{P2,P3,P4,P5}。其中,所有卷積通道數(shù)量設(shè)為256。

3.3 自底向上的路徑聚合

由于低層特征層對邊界或者實例部分的強烈反應(yīng)可以作為準確定位實例的指示器[23],因此將圖像的低層語義和位置等有效地在圖像分割網(wǎng)絡(luò)中進行傳播非常重要,但是以PSPNet為代表的分割模型將低層信息傳播到高層往往需要經(jīng)過50~100層甚至更多(如圖1中連接待分割圖像和P5的虛線)。針對此問題,本文引入了PANet中的自底向上路徑聚合結(jié)構(gòu),極大縮短了由低層到最高層的信息傳播路徑,降低了網(wǎng)絡(luò)層數(shù),使得來自低層的信息更容易傳播到高層,如圖1中虛線框(2)所示。具體來說,即以FPN輸出的特征圖集合{P2,P3,P4,P5},通過逐步下采樣和橫向連接,構(gòu)建一條從低層到高層的簡潔路徑,層數(shù)少于10層,因此是一條“捷徑”(如圖1中連接待分割圖像和N5的虛線)。

自底向上的路徑聚合結(jié)構(gòu)構(gòu)建過程如下所示:

Figure 5 Building of bottom-up path augmentation圖5 自底向上路徑增強構(gòu)建方式

首先,對特征圖P2進行復(fù)制得到最低層特征圖N2,然后以N2為起點,進行如下迭代:

將Ni(i∈{2,3,4})的0.5倍最近鄰下采樣結(jié)果與對應(yīng)的編碼器輸出特征圖Pi+1進行像素相加操作,再經(jīng)過3×3卷積減少下采樣過程的混疊效應(yīng)[16],得到Ni+1(i∈{2,3,4}),此過程循環(huán)進行直到生成N5;最后,輸出特征圖集合{N2,N3,N4,N5}。其中,所有卷積通道數(shù)量設(shè)為256,每個卷積層之后都跟隨一個ReLU(Rectified Linear Unit)層[24]。

3.4 多尺度特征融合

PANet的實驗結(jié)果表明,對于分割問題,特征的重要性并不是和它所屬的層級有非常強的對應(yīng)關(guān)系,高層的特征具有更大的感受野,擁有更豐富上下文信息,而低層的特征有準確的細節(jié)和位置信息,不管物體本身大小,高層特征層和低層特征層都對物體的類別和位置的預(yù)測有積極的影響,所以融合使用卷積網(wǎng)絡(luò)中不同層級的特征圖來提升語義分割性能成為一種普遍做法。如FCN和U-Net分別使用了逐像素相加和特征維度的拼接2種不同的特征融合方式,這2種方式在性能表現(xiàn)上并無明顯差距。出于使用簡單考慮,本文使用逐像素相加的方式進行特征融合。具體步驟如下:

將N5、N4和N3分別進行8倍、4倍和2倍最近鄰上采樣,將其調(diào)整到與N2相同的尺寸,然后將上采樣的結(jié)果和N2進行像素級別的最大值融合。融合后的特征圖經(jīng)過2次3×3卷積,并在第2次卷積時降低通道數(shù)至相應(yīng)數(shù)據(jù)集的類別數(shù)(本文實驗中,PASCAL VOC2012Aug設(shè)置通道數(shù)21,Cityscapes設(shè)置通道數(shù)量19),再經(jīng)過一次2倍的最近鄰上采樣恢復(fù)至輸入圖像大小尺寸,最后生成的特征圖為整個網(wǎng)絡(luò)的輸出特征圖,即最后的分割預(yù)測結(jié)果。

3.5 雙向交叉熵函數(shù)

逐像素的圖像語義分割[1]通常使用Softmax交叉熵損失函數(shù)來衡量預(yù)測結(jié)果與真實標注之間的差異。Softmax訓練的深度特征會將整個超空間按照分類個數(shù)進行劃分,保證了類別可分,但主要問題是Softmax并不要求類內(nèi)緊湊和類間分離,對于外觀形態(tài)相似的類使用Softmax交叉熵在訓練網(wǎng)絡(luò)時難以衡量出類間差異,導(dǎo)致網(wǎng)絡(luò)對相似物體區(qū)分能力下降。以四分類問題舉例,對于樣本標簽為(1,0,0,0)的樣本,假設(shè)模型A給出的激活為a(6,5,2,2),模型B給出激活為b(3,1,1,1),2個激活經(jīng)過Softmax歸一化后分別得到Softmax(a)=(71.2%,26.2%,1.3%,1.3%)和Softmax(b)=(71.1%,9.6%,9.6%,9.6%)。對2個Softmax的輸出進行交叉熵損失函數(shù)計算時,模型A的損失為-lb 0.712,B的損失為-lb 0.711,模型A和模型B損失基本一致,但模型B的激活b有唯一的較高值,而模型A的激活a有多個較高值,相較于模型A的輸出的激活,模型B的激活更加魯棒,但所使用的Softmax交叉熵損失函數(shù)無法體現(xiàn)這一點。一個樸素的想法是增加2個激活對應(yīng)的損失差異。與普通交叉熵只計算單個位置的概率值不同,本文將激活進行Softmax歸一化后產(chǎn)生的所有概率值都納入損失計算,方法如下:首先將Softmax產(chǎn)生的概率值與樣本標簽進行正常的交叉熵損失計算,然后將樣本標簽與概率均進行取反加1,再進行一次交叉熵計算,最后將2部分的結(jié)果進行相加形成最終的損失。這種損失計算方法的主要優(yōu)勢在于能體現(xiàn)出不同激活分布的差異性。

普通交叉熵損失計算公式如式(2)所示:

(2)

本文使用的雙向交叉熵損失公式如式(3)所示:

(3)

其中,yc表示長度為N的one-hot向量第c位的值,pc表示預(yù)測樣本屬于第c類的概率,N表示數(shù)據(jù)集的類別數(shù)。與一般使用的交叉熵損失函數(shù)相比,雙向交叉熵損失函數(shù)實際上是將更多通道的概率值納入計算。

4 實驗與結(jié)果

4.1 數(shù)據(jù)集與評測指標

本節(jié)在PASCAL VOC2012Aug[14,25]分割數(shù)據(jù)集和Cityscape[15]數(shù)據(jù)集上驗證所提出的網(wǎng)絡(luò)結(jié)構(gòu)和雙向交叉熵函數(shù)。PASCAL VOC2012Aug是由Hariharan等[14]對PASCAL VOC2012[25]進行了部分增強得來的。數(shù)據(jù)集包含20個前景類和1個背景類,每幅圖像都進行了像素級別的類別標注,共包含10 582(訓練增強集)幅訓練圖像,1 449幅驗證圖像,1 456幅測試圖像。Cityscape[15]數(shù)據(jù)集包含5 000幅像素級注釋的圖像,分為18個前景類和1個背景類,其中2 975幅訓練圖像,500幅驗證圖像,1 525幅測試圖像。同DeepLabv3+一樣,本文使用PASCAL VOC2012增強驗證集和Cityscape的驗證集評價模型性能。

本文使用平均交并比mIoU和像素準確度PA(Pixel Accuracy)來評價模型性能,2個評價指標的計算方法分別如式(4)和式(5)所示:

(4)

(5)

其中,nij表示屬于第i類的像素被判斷屬于第j類像素的數(shù)量,ncl表示類別數(shù),ti=∑jnij表示屬于第i類的所有像素的數(shù)量。

4.2 實驗環(huán)境與參數(shù)設(shè)置

本文基于TensorFlow框架實現(xiàn)提出的網(wǎng)絡(luò)結(jié)構(gòu),使用DeepLabv3+提供的Xception在COCO[26]和ImageNet[27]數(shù)據(jù)集上預(yù)訓練模型初始編碼器部分,解碼器部分重新訓練。本文使用和DeepLabv2、DeepLabv3相同的訓練策略,圖像輸入尺寸(cropsize)設(shè)置為513×513,使用動量梯度下降法,初始學習率設(shè)置為0.007,在訓練時使用隨機剪裁的數(shù)據(jù)增強,GPU使用4塊NVIDIA GTX1080Ti,Batchsize最大設(shè)置為16。每個對照實驗迭代步數(shù)90 000次。

4.3 實驗結(jié)果

本文提出的圖像語義分割模型在PASCAL VOC2012Aug分割數(shù)據(jù)集上的表現(xiàn)如表1所示。

表1中,OS(Output Stride)表示輸入圖像尺寸與卷積過程中最小特征圖的尺寸比值,train_os表示訓練期間的OS,eval_os表示驗證使用的OS,COCO和ImageNet分別表示將模型編碼器在COCO和ImageNet數(shù)據(jù)集上進行預(yù)訓練,Cross entropy表示使用像素交叉熵損失函數(shù),Bi-Cross entropy表示使用本文提出的雙向交叉熵損失函數(shù)。PA表示像素準確率。表1中第1行數(shù)據(jù)是在本文實驗環(huán)境下對DeepLabv3+進行復(fù)現(xiàn)的實驗結(jié)果。在驗證期間不使用多尺度輸入,訓練期間不使用左右翻轉(zhuǎn)的增強。將第1行數(shù)據(jù)作為本文對比實驗的基線,第2~8行數(shù)據(jù)表示本文依次將引入的路徑聚合結(jié)構(gòu)和雙向交叉熵函數(shù)作為控制變量的其他實驗結(jié)果。

Table 1 Model performance on PASCAL VOC2012Aug validation set

表1中第5~8行數(shù)據(jù)是本文模型使用路徑聚合型解碼器的效果。本文使用FPN與自底向上的路徑聚合結(jié)構(gòu)作為解碼器,對比第1行的DeepLabv3+結(jié)果,分割精度最高提升了1.67%,提升來自于路徑聚合結(jié)構(gòu)對分割網(wǎng)絡(luò)2個方面的優(yōu)化。一個優(yōu)化是縮短了低層特征層到高層特征層信息的傳播路徑,另一個優(yōu)化是融合使用來自不同層級的特征層進行最終的分割預(yù)測,增強了模型分割多種不同尺度物體的能力。

表1的第2、4、6、8行展示了使用雙向交叉熵損失函數(shù)的效果,雙向交叉熵損失函數(shù)將多個通道的預(yù)測值納入最終的損失中,能更加充分地利用前向傳播結(jié)果的信息。相比于單一使用普通的交叉熵損失函數(shù)(如式(2)),能更加充分利用前向傳播結(jié)果的所有通道的值,增強了模型的魯棒性,mIoU提升了0.68%~0.88%。

本文模型在Cityscapes分割數(shù)據(jù)集上的表現(xiàn)如表2所示。

Table 2 Model performance on Cityscapes validation set

本文在Cityscape數(shù)據(jù)集上實驗了提出的解碼器結(jié)構(gòu)和雙向交叉熵損失函數(shù),結(jié)果如表2所示。從表2中可以看出,同時使用路徑聚合結(jié)構(gòu)和提出的雙向交叉熵損失函數(shù)將Cityscapes驗證集上的mIoU從76.83%提升到78.66%(1.83%的提升)。

4.4 實驗結(jié)果可視化

表3所示為DeepLab v3+與本文模型分別對相同圖像進行分割的可視化效果。通過進一步改進DeepLabv3+使用的解碼器,本文所提模型在分割物體的邊界輪廓中表現(xiàn)更好,物體邊界有了更多的細節(jié),如PASCAL VOC數(shù)據(jù)集中細長的馬腿、桌腿等以及Cityscapes數(shù)據(jù)集中電線桿和樹干等狹長的物體。同時,相較于DeepLabv3+,本文模型對于外觀相似的物體具有更好的區(qū)分能力,減少了像素分類誤差。此外,我們在實驗過程中發(fā)現(xiàn)PASCAL VOC數(shù)據(jù)集存在部分標注問題,比如公交車上透過玻璃可以看到人,人車重疊部分的像素點數(shù)據(jù)集被標注為公交車,此時若分割網(wǎng)絡(luò)將該像素點標記為人,就不能簡單判定該部分像素點判斷錯誤。同樣,Cityscapes數(shù)據(jù)集中圖像下方的車頭有反光和倒影,倒影包含人(訓練時類別號為11)、騎手(訓練時類別為12)和植物(訓練時類別9)等前景實體,數(shù)據(jù)集沒有對倒影做出適當處理,在訓練過程中車頭是個不小的噪聲。

Table 3 Visualization of results on validation set

5 結(jié)束語

本文在DeepLabv3+的基礎(chǔ)上,引入一個自底向上的路徑聚合結(jié)構(gòu)來增強圖像分割網(wǎng)絡(luò)解碼器部分的解碼效果,該解碼器極大地縮短了低層特征層信息到高層特征層的傳播路徑,使得低層精確的定位信息更容易傳播到高層,改善了物體邊界的分割效果;同時,創(chuàng)新性地提出雙向交叉熵損失函數(shù),該損失函數(shù)增加了相似類的類間差距,使得網(wǎng)絡(luò)對相似物體有更好的區(qū)分能力,減少了像素分類錯誤。與對比方法比較,本文方法具有更高的像素分類準確率。

猜你喜歡
語義特征信息
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
“上”與“下”語義的不對稱性及其認知闡釋
認知范疇模糊與語義模糊
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 久久精品aⅴ无码中文字幕| 国产香蕉一区二区在线网站| 国内精品免费| 久久精品亚洲中文字幕乱码| 在线a网站| 青青青视频蜜桃一区二区| 美女国内精品自产拍在线播放| 国产91高清视频| 美美女高清毛片视频免费观看| 伊人网址在线| 亚洲人网站| 国产综合另类小说色区色噜噜 | 992Tv视频国产精品| 色综合天天娱乐综合网| 国产成人av一区二区三区| 日韩久草视频| 丰满少妇αⅴ无码区| 白丝美女办公室高潮喷水视频| 午夜啪啪网| 欧美伊人色综合久久天天| 亚洲男人天堂2020| 少妇露出福利视频| 亚洲精品在线观看91| 免费 国产 无码久久久| 欧美视频在线观看第一页| 99爱视频精品免视看| 国产网友愉拍精品| 亚洲va欧美ⅴa国产va影院| 亚洲第一香蕉视频| 亚洲日本中文字幕乱码中文| 国产成人啪视频一区二区三区| 欧美中文一区| 亚洲va精品中文字幕| 国产91丝袜在线播放动漫 | 国产xxxxx免费视频| 久久久久久国产精品mv| 国产精品毛片一区视频播| 国产成人精品无码一区二| 亚洲黄色网站视频| 少妇极品熟妇人妻专区视频| 天堂在线视频精品| 在线观看av永久| 国产人免费人成免费视频| 人妻无码中文字幕第一区| 亚洲国产精品一区二区第一页免 | 欧美精品在线免费| 91麻豆国产视频| 国产导航在线| 免费jjzz在在线播放国产| 国产成人午夜福利免费无码r| 中国国产A一级毛片| a在线亚洲男人的天堂试看| 亚洲AⅤ综合在线欧美一区| 伊人久久久久久久| 人人妻人人澡人人爽欧美一区| 免费人成又黄又爽的视频网站| 国内精品一区二区在线观看| 不卡无码网| 亚洲欧美一区二区三区蜜芽| 国产精品思思热在线| 青青草a国产免费观看| 欧美日一级片| 欧美爱爱网| 精品無碼一區在線觀看 | 乱人伦视频中文字幕在线| 国产精品密蕾丝视频| 日本欧美精品| 精品无码一区二区三区电影| 99精品影院| 亚洲欧美综合精品久久成人网| 国产午夜精品一区二区三| 色婷婷亚洲综合五月| 国产毛片高清一级国语 | 亚洲成a∧人片在线观看无码| 色婷婷成人网| 91久久偷偷做嫩草影院电| 九色最新网址| 免费一级成人毛片| 欧美日韩国产在线观看一区二区三区 | 亚洲天堂免费在线视频| 国产高清在线精品一区二区三区| 综合色区亚洲熟妇在线|