999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合超像素分割的多尺度特征融合圖像語義分割算法

2021-07-06 12:00:26官申珂鄭曉妹朱媛媛馬利莊
圖學學報 2021年3期
關鍵詞:語義特征融合

官申珂,林 曉,鄭曉妹,朱媛媛,馬利莊

結合超像素分割的多尺度特征融合圖像語義分割算法

官申珂1,林 曉1,鄭曉妹1,朱媛媛1,馬利莊2

(1. 上海師范大學信息與機電工程學院,上海 200234;2.上海交通大學電子信息與電氣工程學院,上海 200240)

深度學習的發展加快了圖像語義分割的研究。目前,最有效的圖像語義分割研究方法大部分都是基于全卷積神經網絡(FCNN),盡管現有的語義分割方法能有效地對圖像進行整體分割,但對于圖像中的重疊遮擋物體不能清晰地識別出邊緣信息,也不能有效地融合圖像高低層的特征信息。針對以上問題,在采用FCNN來解決圖像語義分割問題的基礎上,利用超像素分割對物體邊緣的特殊優勢作為輔助優化,對粗糙分割結果進行優化。同時在FCNN中利用空洞卷積設計了一個聯合局部跨階段的多尺度特征融合模塊,其能有效地利用圖像的空間信息。此外還在網絡的上采樣模塊中加入跳躍連接結構,用來增強網絡的學習能力,在訓練過程中采用2個損失函數來保證網絡穩定收斂和提升網絡的性能,圖像語義分割網絡在公開的數據集PASCAL VOC 2012上進行訓練測試。實驗結果表明,該改進算法在像素精度和分割準確率方面均有提升,且具有較強的魯棒性。

全卷積神經網絡;多尺度特征融合;超像素分割

1 相關介紹

近年來,圖像語義分割已成為計算機視覺領域中研究最為廣泛的問題之一。隨著場景理解[1-2]、自動駕駛[3]、醫學圖像處理[4-5]、圖像分割[6]等計算機視覺問題研究的深入,圖像語義分割作為上述研究的基礎,也變得越來越重要。隨著圖像數據的增長和人工智能的普及,本文提出一種準確且高效的圖像語義分割算法,不僅能幫助計算機更好地理解圖像信息,還能更加方便人們的生活[7]。

圖像語義分割的研究發展大致可以分為2個階段。第一個階段是傳統圖像語義分割方法,其方法多種多樣,其中基于圖劃分的Normalized Cut[8]和Grab Cut[9]算法最為常用。隨著深度學習的發展和圖像數據的增長,傳統的圖像語義分割方法已經不能滿足實際需求,研究者們在深度學習中找到了新的研究方向。圖像語義分割研究進入了第二階段,文獻[10]提出的全卷積神經網絡(fully convolutional neural network,FCNN)開辟了深度學習在圖像語義分割中的應用,其利用卷積層替換了卷積神經網絡VGG[11]中傳統的全連接層,并提出一種跳躍結構(skip)用來結合高層和低層信息,讓預測結果圖有更好的細節表現。文獻[12]在FCNN的基礎上提出了一種具有對稱結構的編碼器-解碼器網絡Segnet,其利用編碼器去提取圖像特征,通過記住池化操作中的位置信息利用解碼器通過上采樣操作將特征圖還原為輸入圖像大小。文獻[13-16]在FCNN和編碼器-解碼器結構的基礎上提出了DeepLab系列網絡,其通過空洞卷積(atrous convolution)[17]操作擴大感受野,再結合空洞卷積和空間金字塔池化[18]提出空洞空間金字塔池化方法(atous spatial pyramid pooling,ASPP),利用ASPP融合多尺度特征信息,設計了一個解碼器結構去恢復空間信息得到一個清晰的邊界信息。與傳統方法相比,基于深度學習的圖像語義分割方法在準確性和速度性能上有了很大地提高。

盡管現有的語義分割方法在圖像整體分割準確率上已經達到相當的水平,但是仍面臨著許多挑戰,如物體之間的重疊和遮擋使得物體的邊緣不能清晰辨認、低層特征包含豐富的空間信息,高層的圖像特征包含豐富的語義信息,兩者應該如何融合等。

為了解決物體邊緣分割不清晰的問題,本文采用結合超像素分割的輔助方法。超像素分割[19]能將圖像中顏色、紋理等屬性相似的像素集合成一個超像素,不僅能提供豐富準確的圖像邊緣信息,還能大大提高分割算法的運行效率。目前常用的超像素分割算法有SLIC[20],SEEDS[21]和GMMSP[22]等。

為了能有效地融合低層和高層的圖像特征,本文在研究現有深度學習模型的基礎上,提出了一種結合超像素分割和多尺度特征融合方法的改進圖像語義分割算法。聯合多層特征圖利用不同空洞率的空洞卷積對圖像進行局部跨階段特征提取,并融合多尺度特征,可得到包含豐富語義信息的特征圖。首先通過解碼器結構對特征進行上采樣操作,得到粗糙的分割結果圖,然后利用超像素分割圖對粗糙結果圖進行邊緣優化,最終得到完整的分割結果圖。在訓練時,本文在解碼器結構中采用DiceLoss和交叉熵相結合的損失函數,DiceLoss用來計算2個樣本間的像素相似度,交叉熵損失用來計算真實概率分布與預測概率分布間的差異,每一個損失函數對應一個尺度的真值圖,使網絡充分地學習全局信息,增強算法的魯棒性。

2 本文算法

本文提出用一個端到端的結合超像素分割的多尺度FCNN來訓練圖像語義分割圖。本文的網絡結構如圖1所示。處理過程大致可以分為2個階段,第一階段首先將原始圖像送入一個有監督訓練的FCNN,該網絡包含有10個模塊,包括5個下采樣模塊、1個多尺度特征融合模塊和4個上采樣模塊。通過對原始圖像進行5次下采樣操作得到語義信息豐富的特征圖,但是過度的下采樣操作會嚴重損失圖像的空間信息,本文設計了一個聯合多層特征圖的局部跨階段多尺度特征融合模塊,在模塊中具有多個不同空洞因子的3×3并行空洞卷積模塊,對圖像特征進行多尺度提取并進行融合,空洞卷積能增大感受野并降低空間特征的損失。然后將得到的圖像特征送入上采樣模塊逐漸將特征還原到原始圖像大小。本文還分別在2個上采樣模塊中設有損失函數,目的是讓網絡在訓練時能夠更好地收斂。在第二階段通過對原始圖像進行超像素分割,利用分割圖對網絡預測圖進行邊緣優化,得到最終的結果圖。

圖1 本文算法流程圖

2.1 有監督訓練的全卷積神經網絡

2.1.1 全卷積網絡結構

本文的第一階段是有監督訓練的FCNN,其任務是對原始圖像進行特征提取后最終得到一個粗糙的語義分割結果圖。如圖1所示,該網絡共有10個卷積子模塊,每個模塊都包含卷積層、BN層和激活層,激活函數采用ReLU。其中前5個卷積模塊為下采樣模塊,利用卷積操作對圖像進行特征提取,每經過一個下采樣操作后圖像尺寸會減小,這樣能讓網絡提取出更高維的語義信息。下采樣操作雖然能提取出高維的語義信息,但是過度下采樣操作會嚴重損失圖像的空間信息,因此本文在下采樣模塊之后設計了一個多尺度特征融合模塊,受文獻[23]的啟發,在此模塊中,首先聯合3層特征圖進行卷積操作降低維度,然后將特征圖進行分塊分階段進行處理,并利用空洞因子為2,4,8的空洞卷積對圖像特征進行多尺度提取并融合,可以有效提取出圖像的空間信息,并擴大了感受野,降低了計算復雜度。在特征融合過程中采用Concat操作將不同空洞率卷積產生的特征圖進行融合。然后是上采樣操作模塊,通過上采樣操作逐漸增大特征圖尺寸,將特征圖還原到原始圖像大小,通過類別顏色對應就能得到一個粗糙的語義分割結果。為了防止在上采樣過程中損失高維特征,本文加入了類似殘差網絡[24]的跳躍連接結構,在上采樣操作中除了接收上一個模塊的輸出以外,還接收下采樣模塊中與其大小對應的輸出特征,利用Concat操作將特征進行融合,既可以保證網絡學習到充分的特征,又能逐漸將特征還原到原始圖像大小。

如圖1所示,其中每層網絡所接收的特征圖輸入為上一層網絡的輸出特征圖,激活函數ReLU為

其中,為輸入特征圖的大小;為輸入特征圖的第個值;為對應的輸出。另外,激活函數Softmax為

其中變量符號與式(1)類似。

圖2在下采樣模塊之后設計了一個多尺度特征融合模塊。首先對前3層特征圖進行卷積降維處理并進行結合,然后對得到的特征圖利用CSPNet[25]方法進行分塊分階段處理,將特征圖分為2塊,第一階段利用空洞率為2,4,8的3個3×3空洞卷積對第1塊特征圖進行處理,擴大感受野,有效提取圖像空間信息;第二階段將第2塊特征圖與第一階段得到的結果進行結合再進行卷積計算。在多尺度特征融合模塊中,聯合部分計算式為

其中,x為輸入第層特征圖;( )為卷積操作;[ ]為Concat操作;為輸出結果。

局部跨階段部分計算式為

其中,d為空洞率為的空洞卷積操作;1為聯合部分結果的第1分塊;2為第2分塊;為結果輸出,其余與式(3)類似。

由于本文在空洞卷積模塊中采用了分塊分階段的處理方式,則可知該模塊的計算復雜度由原來的3×3×in×out×變為現在的3×3×(in/2)×out×。其中in,out和分別代表輸入維度、輸出維度和空洞卷積數量。

最后,本文在上采樣模塊中加入了跳躍連接結構用來結合上層卷積的結果,修復還原的圖像,增強網絡的精確度和魯棒性。

圖2 聯合局部跨階段多尺度特征融合

2.1.2 多級損失函數

本文采用多級損失函數的方式來進行訓練,如圖1所示,在上采樣模塊中設有2個損失函數,并期望在第2和第4上采樣模塊的輸出可以還原與真值圖接近的語義分割圖,所以對第2上采樣模塊的輸出特征圖進行4倍卷積上采樣操作得到預測結果圖,因此第一個損失函數采用DiceLoss可表達為

由于第4上采樣模塊最后采用的激活函數是Softmax函數,輸出的結果為一個概率圖,因此第二個損失函數可以利用交叉熵作為度量,即

最后將2個損失函數進行融合訓練,最終損失函數為

本文卷積神經網絡采用多級損失函數進行優化,不僅增加了網絡的精確度,而且還提高了網絡的泛化能力。

2.2 超像素分割

本文在第二階段利用超像素分割圖對粗糙語義預測結果圖進行邊緣優化。超像素分割能有效地提取出物體的邊緣信息,對預測結果進行優化,如圖3所示,由于SLIC算法運行速度快所以本文采用其對圖像進行超像素分割,選擇合適的參數(為預生成超像素塊數量,為圖像每個維度的預處理的高斯平滑核的寬度)可以利用超像素分割提取出豐富準確的邊緣信息。本文利用超像素分割圖對粗糙語義分割圖進行邊緣優化,首先對原始圖像進行超像素分割,然后利用超像素分割圖中的每塊超像素做掩膜(mask),最后通過每塊掩膜對粗糙語義分割圖進行邊緣優化。優化效果如圖4所示。利用掩膜進行優化時總體可以分為2種情況,即標簽像素在掩膜內和不在掩膜內。當標簽像素不在掩膜內可以直接忽略,當標簽像素在掩膜內則可以分為2種情況,即包含單標簽像素和包含多標簽像素。只包含單標簽像素時,可以計算標簽像素的覆蓋率若標簽像素覆蓋率大于設置參數(超像素塊中的類別標簽像素所占比例),則將掩膜內所有像素設置為標簽像素;若小于設置參數,則直接忽略。包含多標簽像素時,首先計算每種標簽像素的覆蓋率,若總覆蓋率小于設置參數,則直接忽略;若總覆蓋率大于設置參數,則利用覆蓋率最大的標簽像素填充掩膜內像素。具體實現的算法如下:

圖3 M=40時SLIC超像素分割結果

圖4 超像素塊掩膜

算法1.超像素掩膜優化算法

1. 輸入圖像為I,粗糙語義分割圖為L。 2. 對圖像I進行SLIC超像素分割,得到K個超像素塊,S(S1,S2,S3,···,SK),其中Si為第i個超像素塊。 3. 外循環for i=1:K(1) 利用每個超像素塊掩膜對L進行優化,使用P=(p1,p2,p3, ···,pl)表示Si中的每個像素,統計每個像素的所屬類別,并統計每種類別的像素總數C=(c1,c2,c3, ···,cn)。(2) if C==0:continue下一超像素塊。(3) if C==1:計算類別像素所占比例。if: 用類別像素填充該超像素塊。else:continue下一超像素塊。(4) else:內循環for j=1:n計算每種類別像素的所占比例q=(q1,q2,q3, ···,qn)。if qSUM>=80%:用所占比例最大的類別像素填充該像素塊。else:continue下一超像素塊。結束。 4. 輸出優化后的結果。

3 實驗結果與對比分析

本文的網絡模型是基于Pytorch框架進行開發的,在Intel(R) Core i7 3.4 GHz CPU,16 GB RAM, 12 GB Titan X的設備上進行網絡的訓練和測試。在訓練中,本網絡以梯度下降法訓練300輪,批處理大小設置為12張圖片。初始學習率為1e-4,然后每10輪衰減10%,動量設置為0.9,基礎網絡為ResNet101。本文提出的算法在公開數據集PASCAL VOC 2012[26]上進行訓練和測試。PASCAL VOC是一個國際計算機視覺挑戰賽,其數據集涉及物體共21類,包含人類、動物、交通工具、室內場景等,其中包含1 416張訓練圖片和1 449張驗證圖片,且圖片大小不固定。本文從定性和定量2個方面對本文提出的算法進行分析對比。

3.1 語義分割的評價標準

本文采用像素準確率(pixel accuracy,PA)和平均交并比(mean inetersection over union,mIoU)對實驗結果進行衡量。PA用來計算正確分割的像素數量與圖像像素總量的比值,即

其中,為圖像像素的類別數量;p為預測和實際類型為的像素;T為第類像素總數,一般PA值越大,說明算法準確率越高。

mIoU是表示分割結果與原始圖像真值的重合程度,即

其中,為實際類型為,預測類型為的像素總數,其余符號與式(8)中的類似,一般mIoU值越大,說明算法分割結果越符合真值圖像。

3.2 實驗結果對比

3.2.1 實驗結果定性分析

圖5為本文算法在PASCAL VOC 2012數據集上的實驗結果,圖5(a)~(f)分別代表輸入圖像、SLIC超像素分割圖、真實(ground truth)語義標簽、FCN-8s分割結果、添加多尺度特征融合模塊后的分割結果、結合超像素分割后的結果即本文算法分割結果。由圖5可知,本文算法實現的分割效果更好,分割結果最接近真實語義標簽。

圖5 分割效果對比((a)原始圖像;(b)超像素分割圖;(c)真值圖;(d)FCN-8s;(e)多尺度特征融合;(f)本文算法)

逐行對比圖5中的結果可知,FCNN中FCN-8s對于單一大目標的類別均能準確地識別并且分割效果良好,但對于有遮擋的復雜場景,就不能有效地進行分割,通過添加多尺度特征融合模塊后分割效果得到提升,之后再利用超像素分割對分割結果邊緣進行優化,所以本文算法在邊緣處理上有更好的效果。

3.2.2 實驗結果定量分析

為了確定超像素分割的參數和驗證超像素優化模塊的有效性,本文選取了不同的超像素分割數量進行驗證,如圖6所示。

為了進一步驗證超像素優化模塊對算法性能的提升,本文對比了不同取值的參數(超像素塊中的類別標簽像素所占比例)對算法性能的影響,見表1。

圖6 超像素數量對分割效果的影響

表1 不同參數取值對比

本文使用公認的評價標準對FCN-8s、添加超像素優化模塊后的算法和本文算法進行定量對比分析。圖7為各個算法在PASCAL VOC 2012數據集中的21個類別的IoU評分柱狀圖,圖中橫坐標表示類別,縱坐標表示IoU評分。

本文還與語義分割的主流算法進行對比,各個算法在PASCAL VOC 2012數據集上的PA評分、mIoU評分和網絡參數量見表2。從表2可以看出,本文算法的PA評分和mIoU評分有一定提升。

圖7 PASCAL VOC 2012各類別評分

表2 不同算法定量對比

表2中,雖然本文算法在mIoU評分上與先進算法還有差距,但是在PA評分上達到先進。由于本文算法的基礎網絡采用的是ResNet101,與其他先進算法最優結果采用的基礎網絡有所不同,所以在結果上會有差距,但是本文算法在網絡參數量評價上有一定優勢。

3.3 實驗失敗樣例分析

圖8顯示了一些失敗樣例,其中本文算法對于背景復雜或包含眾多小目標的圖片不能有效分割。在圖8(b)中本文算法能識別出物體類別,但對于人腿和馬腿這樣細小的目標不能有效地分割。圖8(c)對于復雜的背景圖像也不能有效地分割。因此后期需考慮對細小物體和復雜背景進行優化。

由實驗可知,本文算法在PA和mIoU上均有提升,說明結合超像素分割圖對圖像語義分割進行邊緣優化方法是提高圖像語義分割準確率的有效方法之一。

圖8 失敗樣例((a)原始圖像;(b)真值圖;(c)分割結果)

4 結束語

本文提出了一種2階段端到端的結合超像素分割的多尺度FCCN來解決圖像語義分割問題。相比之前的基于深度學習的研究方法,本算法有3點創新。首先是在FCCN中加入聯合局部跨階段特征融合模塊對特征圖進行多尺度特征融合,有效利用圖像空間信息降低計算復雜度,在上采樣模塊中加入對應尺寸的下采樣特征,充分利用特征信息。其次是在上采樣模塊中融合了2個損失函數進行訓練,不僅能保證網絡穩定收斂還能提高網絡的準確率。最后利用超像素分割對物體邊緣敏感的性質對原始圖像進行分割,利用超像素分割圖對網絡預測圖進行邊緣優化。本文還在公開的數據集PASCAL VOC 2012上進行測試,實驗結果證明本文提出的網絡算法在像素精度和分割準確率方面都有提升。

[1] WANG J L, LU Y H, LIU J B, et al. A robust three-stage approach to large-scale urban scene recognition[J]. Science China Information Sciences, 2017, 60(10): 235-247.

[2] CORDTS M, OMRAN M, RAMOS S, et al. The cityscapes dataset for semantic urban scene understanding[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 3213-3223.

[3] GEIGER A, LENZ P, URTASUN R. Are we ready for autonomous driving? The KITTI vision benchmark suite[C]// 2012 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2012: 3354-3361.

[4] MOON N, BULLITT E, VAN LEEMPUT K, et al. Automatic brain and tumor segmentation[M]//Medical Image Computing and Computer-Assisted Intervention — MICCAI 2002. Heidelberg: Springer, 2002: 372-379.

[5] 段杰, 崔志明, 沈藝, 等. 一種改進FCN的肝臟腫瘤CT圖像分割方法[J]. 圖學學報, 2020, 41(1): 100-107.

DUAN J, CUI Z M, SHEN Y, et al. A CT image segmentation method for liver tumor by an improved FCN[J]. Journal of Graphics, 2020, 41(1): 100-107 (in Chinese).

[6] GARCIA-GARCIA A, ORTS-ESCOLANO S, OPREA S, et al. A survey on deep learning techniques for image and video semantic segmentation[J]. Applied Soft Computing, 2018, 70: 41-65.

[7] 田萱, 王亮, 丁琪. 基于深度學習的圖像語義分割方法綜述[J]. 軟件學報, 2019, 30(2): 440-468.

TIAN X, WANG L, DING Q. Review of image semantic segmentation based on deep learning[J]. Journal of Software, 2019, 30(2): 440-468 (in Chinese).

[8] SHI J B, MALIK J. Normalized cuts and image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 888-905.

[9] ROTHER C, KOLMOGOROV V, BLAKE A. “GrabCut”: interactive fore-ground extraction using iterated graph cuts[J]. ACM Transactions on Graphics, 2004, 23(3): 309-314.

[10] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence. New York: IEEE Press, 2015: 640-651.

[11] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2020-06-24]. https://arxiv.org/abs/1409.1556.

[12] BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495.

[13] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Semantic image segmentation with deep convolutional nets and fully connected CRFs[EB/OL]. [2020-06-12]. http://de.arxiv.org/ pdf/1412.7062.

[14] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.

[15] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[EB/OL]. [2020-06-11]. http://arxiv.org/abs/1706.05587.

[16] CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[M]//Computer Vision – ECCV 2018. Heidelberg: Springer, 2018: 833-851.

[17] YU F, KOLTUN V. Multi-scale context aggregation by dilated convolutions[EB/OL]. [2020-06-10]. https://arxiv.org/pdf/1511. 07122.

[18] HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

[19] REN X, MALIK J. Learning a classification model for segmentation[C]//The 9th IEEE International Conference on Computer Vision. New York: IEEE Press, 2003: 10-17.

[20] ACHANTA R, SHAJI A, SMITH K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282.

[21] VAN DEN BERGH M, BOIX X, ROIG G, et al. SEEDS: superpixels extracted via energy-driven sampling[M]// Computer Vision – ECCV 2012. Heidelberg: Springe, 2012: 13-26.

[22] BAN Z H, LIU J G, CAO L. Superpixel segmentation using Gaussian mixture model[J]. IEEE Transactions on Image Processing, 2018, 27(8): 4105-4117.

[23] WU H K, ZHANG J G, HUANG K Q, et al. FastFCN: rethinking dilated convolution in the backbone for semantic segmentation[EB/OL]. [2021-04-09]. https://www.researchgate. net/publication/332070826_FastFCN_Rethinking_Dilated_Convolution_in_the_Backbone_for_Semantic_Segmentation.

[24] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 770-778.

[25] WANG C Y, LIAO H Y, MARK Y, et al. CSPNet: a new backbone that can enhance learning capability of CNN[EB/OL]. [2021-04-09]. https://www.researchgate.net/ publication/332070826_FastFCN_Rethinking_Dilated_Convolution_in_the_Backbone_for_Semantic_Segmentation.

[26] EVERINGHAM M, GOOL L, WILLIAMS C K I, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[27] ZHAO H S, SHI J P, QI X J. Pyramid scene parsing network[C]//2017 IEEE Conference on Computer Vision and pattern Rewgnition (CVPR). New York: IEEE Press, 2017: 2881-2890.

[28] TIAN Z, HE T, SHEN C, et al. Decoders matter for semantic segmentation: data-dependent decoding enables flexible feature aggregation[EB/OL]. [2021-04-09]. https://www. researchgate.net/publication/331562072_Decoders_Matter_for_Semantic_Segmentation_Data-Dependent_Decoding_Enables_Flexible_Feature_Aggregation.

[29] OLUWASANMI A, AFTAB M U, SHOKANBI A, et al. Attentively conditioned generative adversarial network for semantic segmentation[J]. IEEE Access, 2020(99): 1-1.

[30] KRAPAC J, SEGVIC I. Ladder-style DenseNets for semantic segmentation of large natural images[EB/OL]. [2021-04-09]. https://www.researchgate.net/publication/322646439_Ladder-Style_DenseNets_for_Semantic_Segmentation_of_Large_Natural_Images.

A semantic segmentation algorithm using multi-scale feature fusion with combination of superpixel segmentation

GUAN Shen-ke1, LIN Xiao1, ZHENG Xiao-mei1, ZHU Yuan-yuan1, MA Li-zhuang2

(1. College of Information, Mechanical and Electrical Engineering, Shanghai Normal University, Shanghai 200234, China;2. College of Electronic Information and Electrical Engineering, Shanghai Jiao Tong University, Shanghai 200240, China)

The advancement of deep learning has boosted the research on image semantic segmentation. At present, most effective methods for this research are based on the fully convolutional neural networks. Although the existing semantic segmentation methods can effectively segment the image as a whole, they cannot clearly identify the edge information of the overlapped objects in the image, and cannot effectively fuse the high- and low-layer feature information of the image. To address the above problems, superpixel segmentation was employed as an auxiliary optimization to optimize the segmentation results of object edges based on the fully convolutional neural network. At the same time, the design of a joint cross-stage partial multiscale feature fusion module can enable the utilization of image spatial information. In addition, a skip structure was added to the upsampling module to enhance the learning ability of the network, and two loss functions were adopted to ensure network convergence and improve network performance. The network was trained and tested on the public datasets PASCAL VOC 2012. Compared with other image semantic segmentation methods, the proposed network can improve the accuracies in pixel and segmentation, and displays strong robustness.

fully convolutional neural network; multiscale feature fusion; superpixel segmentation

TP 391

10.11996/JG.j.2095-302X.2021030406

A

2095-302X(2021)03-0406-08

2020-09-30;

2020-11-21

30 September,2020;

21 November,2020

國家自然科學基金項目(61872242)

National Natural Science Foundation of China (61872242)

官申珂(1994-),男,云南曲靖人,碩士研究生。主要研究方向為圖像語義分割。E-mail:guan-shenke@qq.com

GUAN Shen-ke (1994-), male, master student. His main research interest covers image semantic segmentation processing. E-mail:guan-shenke@qq.com

林 曉(1978-),女,河南南陽人,教授,博士。主要研究方向為視頻圖像處理。E-mail:lin6008@shnu.edu.cn

LIN Xiao (1978-), female, professor, Ph.D. Her main research interests cover video and digital image processing. E-mail:lin6008@shnu.edu.cn

猜你喜歡
語義特征融合
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: 亚洲成a人片| 呦女亚洲一区精品| 国产成人免费视频精品一区二区| 亚洲精品少妇熟女| 亚洲精品国偷自产在线91正片| www.99在线观看| 毛片免费视频| 九月婷婷亚洲综合在线| 无码人中文字幕| 国产在线精品人成导航| 国产在线无码av完整版在线观看| 日韩麻豆小视频| 免费中文字幕一级毛片| 国产理论最新国产精品视频| 无码国产偷倩在线播放老年人| 亚洲一区二区三区国产精华液| аv天堂最新中文在线| 亚洲婷婷在线视频| a级毛片在线免费| 亚洲香蕉久久| 55夜色66夜色国产精品视频| 国产一区三区二区中文在线| 国产在线无码一区二区三区| 国产91视频免费| 九九热精品在线视频| 国产精品免费电影| 国产视频大全| 亚洲福利视频一区二区| 一区二区三区在线不卡免费| 香蕉色综合| 亚洲欧洲天堂色AV| 91在线播放国产| 欧美成人影院亚洲综合图| 国产欧美精品专区一区二区| www亚洲精品| yjizz视频最新网站在线| 欧美久久网| 色一情一乱一伦一区二区三区小说| 国产精品网曝门免费视频| 国产亚洲精品自在线| 国产精品3p视频| 亚洲AV人人澡人人双人| 激情无码视频在线看| 国产农村1级毛片| 亚洲国产精品国自产拍A| 国产正在播放| 伊人查蕉在线观看国产精品| 免费在线播放毛片| 日本在线免费网站| 草逼视频国产| 国产呦精品一区二区三区下载| 亚洲色中色| 欧美色视频在线| 国产丝袜无码精品| 国产日本一线在线观看免费| 亚洲久悠悠色悠在线播放| 国产精品手机视频一区二区| 日本一区二区三区精品AⅤ| 最新国产精品鲁鲁免费视频| 亚洲日本中文字幕天堂网| 亚洲国产精品美女| 成年片色大黄全免费网站久久| 高清无码手机在线观看| 日韩在线第三页| 国产亚洲视频中文字幕视频| 18黑白丝水手服自慰喷水网站| 国产精品午夜福利麻豆| 性欧美精品xxxx| 日韩a级毛片| 欧美精品亚洲精品日韩专区va| 999国产精品永久免费视频精品久久| 国产精品v欧美| 伊人狠狠丁香婷婷综合色| 亚洲美女AV免费一区| 国产日本欧美亚洲精品视| 久久人妻系列无码一区| 国产毛片不卡| 欧美黄色网站在线看| 在线观看国产精品日本不卡网| 少妇极品熟妇人妻专区视频| 欧美黄色网站在线看| 九九热在线视频|