999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于級聯注意力和邊界預測改進的輕量Segformer語義分割

2024-11-15 00:00:00高延海劉永帥
無線電工程 2024年11期

關鍵詞:Segformer;級聯注意力;輔助任務;邊界預測;梯度手術

中圖分類號:TP391. 4 文獻標志碼:A 開放科學(資源服務)標識碼(OSID):

文章編號:1003-3106(2024)11-2585-09

0引言

圖像的語義分割任務是對圖像中的每個像素按照區域劃分,分為不同的類別,是計算機視覺的一項重要任務。目前,圖像語義分割許多下游任務中有很多應用,如醫學圖像分割、自動駕駛等。圖像的語義分割是當前計算視覺領域的一個重要研究方向。

在2015 年,Long 等[1]首次將深度學習應用到語義分割任務并提出了全卷積網絡(Fully Convolu-tional Network,FCN),實現了基于卷積神經網絡(Convolution Neural Network,CNN)模型的語義分割模型,之后出現了一系列如Deeplab 系列[2]、PSP-Net[3]、SegNet[4]等對卷積網絡的改進語義分割方法。2020 年,Google 團隊提出了適用于計算機視覺的Vision Transformer 網絡,并在目標檢測和語義分割任務中取得了良好的效果,超越了當時大部分的CNN 方法。后續出現了許多基于Transformer 架構的語義分割方法。Wang 等[5]將金字塔結構加入到ViT 網絡模型架構中,使網絡獲取到提取金字塔特征的能力。通過提取到金字塔特征,使網絡在與ViT 網絡相同參數量下,能夠取得更高的語義分割效果。Liu 等[6]為解決ViT 網絡計算量大的問題提出Swin Transformer 架構,用滑動窗口注意力替換其中的自注意力,在減少網絡參數量的同時,提高網絡在圖像上的預測效果。Dong 等[7]則在Swin Trans-former 的基礎上,將滑動窗口替換為十字窗口注意力,進一步優化了網絡的參數量和計算量。最后,為拓展Transformer 架構在移動端的進一步應用,Xie等[8]提出了基于Transformer 的Segformer 網絡模型,通過對自注意力進行改進以及使用了混合全連接層減少原有Transformer 的參數量,從而減少了網絡的參數量和計算復雜度。從上述研究中可以看到,Transformer 網絡模型存在計算參數量大、復雜度高的問題。因此,減少Transformer 網絡的參數量并降低網絡的復雜度,成為當前圖像領域對Transformer 網絡的研究熱點問題之一。

鑒于Transformer 架構在移動端受到參數量和計算量的限制,由Ma 等[9]的研究可以看出,任務的添加會出現梯度沖突問題。因此,本文基于Segformer網絡設計了一種新的基于級聯注意力和邊界預測的輕量語義分割網絡,主要工作如下:

① 對于原有的輕量Segformer解碼器進行了改進,加入了級聯注意力機制,使得網絡可以聚合并加強多尺度特征。

② 為解決原網絡對邊界信息提取能力弱的問題,通過加入簡單的輕量邊界預測輔助任務,并采用訓練階段啟動,測試階段關閉的策略,在減少網絡參數量的同時,提高網絡對邊界信息的感知能力。

③ 訓練階段,為防止因任務添加而導致出現梯度沖突,進而導致訓練效果下降的問題,在訓練部分加入了梯度手術優化算法,減小了任務之間間斷的梯度沖突問題,提高了模型的訓練效果。

1改進的輕量語義分割網絡

首先介紹網絡的整體架構,然后介紹改進的基于級聯注意力機制的語義分割解碼器,最后介紹設計的輕量邊界預測輔助任務和改進后的訓練策略。

1.1整體網絡架構

整體網絡架構如圖1 所示,主要采用了編碼器和解碼器的結構。對于輸入的圖像,首先使用Seg-former 的主干網絡Mitb0 對圖像進行特征提取工作。通過使用自注意力、全連接層和重疊補丁合并的操作,分別提取出相對于原圖1/4、1/8、1/16、1 / 32 大小的F1、F2、F3、F4 特征圖,之后使用1 ×1的卷積進行通道聚合,分別送入語義分支和邊界分支進行預測工作。

語義分支主要由改進的多尺度分割解碼器組成,對輸入的多尺度特征,使用門注意力、卷積注意力和上采樣組成的級聯注意力機制,通過從下到上的方式增強每層的特征信息,使得每層的特征都能更好地捕捉到深層特征中的關鍵信息。在邊界分支階段,對傳入的多尺度特征,使用卷積層和全連接層進行邊界預測,并計算損失函數。整體網絡的訓練策略為訓練時啟用邊界預測進行輔助訓練,在測試階段隱藏輔助任務的參數量,通過這種訓練策略在不增加任何多余參數量的基礎上,增強網絡對邊界信息的感知能力。

1.2改進的多尺度語義分割解碼器

原有的解碼器結果因過于簡單而無法有效利用多尺度信息,本文加入了級聯注意力[10]用于改進原有的語義分割解碼器。

改進后的多尺度語義分割解碼器整體分為4 層,每層提取到的特征分別為F1、F2、F3、F4,對應的尺度為原圖的1/4、1/ 8、1/16、1/32。對于提取的深層特征F4,首先使用一個1×1 的卷積對通道進行聚合,然后使用卷積注意力模塊(Convolutional At-tention Module,CAM)提取空間和通道信息。將使用注意力機制加強后的特征送入上一層并在當前層中使用1×1 的卷積進行通道變換。

在上一層中,對傳入的加強后深層特征,通過使用門注意力機制計算深層特征與當前層特征的相似度并映射到當前層特征中,使當前層特征F3 聚合到深層特征信息。將聚合后的特征與傳入深層特征按照通道進行拼接工作,并繼續使用CAM,從空間和通道角度對當前層特征進行特征加強。重復此過程,從下而上,使得深層特征信息聚合到了淺層特征中,豐富了網絡整體信息。將加強后的多尺度特征按照通道進行拼接,使用全連接層進行語義分割的預測。

級聯注意力中主要使用了門注意力模塊和CAM。門注意力如圖2 所示,借助門注意力層對傳過來的低分辨率特征與高分辨率特征結合計算出一張權重圖,然后將權重圖與當前層特征點乘,得到一張融合了深層特征的特征圖。

卷積注意力塊主要由通道注意力(Channel Attention,CA)、空間注意力(Spatial Attention,SA)和2層3×3卷積串聯組成。CAM 首先通過CA 對輸入特征的通道部分,通過加強重要的通道,抑制不感興趣的通道進行特征加強。接著使用SA在空間區域上加強感興趣的特征,抑制不感興趣的特征。最后,使用了2 層卷積進一步聚合前面的特征。

1.3多尺度輕量邊界輔助

本文與當前邊界任務對語義分割任務的處理做法不同,如圖3 所示,大部分工作都將邊界預測到的信息加入到了語義分割任務中,而這樣會導致出現多余的邊界參數,增大網絡參數量。因此本文借助輔助任務思想,設計了一個輕量邊界輔助在訓練階段借助參數更新,使網絡獲得邊界感知能力,并優化了分割邊界。

本文參考了原有解碼器,將其用作邊界標簽預測,由于主干網絡本身進行過預訓練,所以添加的簡單邊界預測模塊可以快速提高預測的準確性,更好地推導網絡的參數更新。

其中語義分割標簽范圍為0~255,對應的邊界標簽設置為0 和255,以加強2 個任務之間的聯系。

邊界預測模塊整體結構如圖4 所示。首先,通過使用4 個1×1 的卷積改變每一層特征通道數,然后進行上采樣操作,提高特征的分辨率。將特征沿著通道進行拼接,之后經過一個由1×1 卷積和歸一層組成的多層感知機(Multi-Layer Perception,MLP)層進行邊界預測。整體結構與Segformer 的解碼器類似,從實驗中可以看到,加入的邊界預測模塊由于輕量的結構,避免了因訓練初期繁瑣的網絡結構帶來的訓練損失負擔而導致的訓練性能下降。

1.4改進的訓練策略

由于邊界輔助任務的增加,會使網絡變為一個多任務網絡,隨之帶來了梯度沖突的問題。對此,本文設計了一個適用于添加邊界輔助任務的訓練策略,即在訓練階段加入梯度手術優化[11]算法,用于減少加入邊界輔助帶來的梯度沖突問題。

本文使用交叉熵損失函數用于損失函數計算。交叉熵損失函數是多任務中常用的損失函數,通常伴隨softmax 函數使用,具體計算如式(6)所示。整體網絡損失函數分別由語義分割損失和邊界輔助損失組成。

式(8)表示將沖突的語義分割任務梯度向量投影到任務之間的法平面上。

④ 按照②、③更新每一個梯度向量

本文在梯度更新中加入梯度手術優化算法,雖增大了顯存占用(如表1所示),但卻優化了網絡訓練過程中因加入輔助任務而產生的梯度沖突干擾,使得網絡訓練結果更好。

使用單卡16批次訓練,可以看到,添加梯度手術后增加的顯存相比原顯存占用并不多。本文網絡通過增加了1554 MB的顯存占用,使得整個網絡訓練效果更好。

2實驗

2.1數據集

ADE20K 是一個150 語義類的場景數據集,分別由20 000 張訓練圖片和2 000 張驗證圖片組成,圖片類型為RGB 三通道圖像。Cityscapes 是關于城市街道的語義數據集,擁有5 000 張精細標注的圖像和20 000 個粗略標注的附加圖像。ADE20k 數據集訓練時采用512 pixel × 512 pixel 的尺度,Cityscapes 數據集采用1 024 pixel×1 024 pixel 的尺度。其中邊界標簽的獲取可以參照文獻[12]中的獲取方式。

2.2評估指標

本文采用平均像素精度(average PixelAccuracy,aAcc)、類別平均像素準確率(mean PixelAccuracy,mAcc)和平均交并比(mean Intersectionover Union,mIoU)來衡量,

2.3實驗環境

本文提出的網絡是在mmsegmentation 框架下實現的,使用的顯卡為NVIDIA 3090,主干網絡Mit-b0是在Imagenet-1k 上預訓練的權重。

與Segformer 訓練設置相同,學習率為6 ×10-5 ,權重衰減為0.01,訓練批次為16,在ADE20k 上進行了160 000 次迭代訓練。

2.4消融實驗

本文在ADE20k 數據集上進行了消融實驗,表中Segformer+DA 表示只添加了級聯注意力模塊的模型,Segformer+BP 表示只添加了邊界預測輔助任務的模型,Segformer+DA+BP +GS 是在基礎上添加級聯注意力和邊界輔助任務,在訓練階段添加了梯度手術的網絡模型。消融實驗如表2 所示。改進的Segformer 與原Segformer 在ADE20k 數據集可視化對比如圖6 所示。

從表2 可以看出,加入級聯注意力可以極大地提高Segformer 網絡的性能,mIoU 和準確率都有所提高。添加級聯注意力模塊后,網絡可以更好地提取多尺度特征的信息。與原網絡相比,Segformer+BP的各項指標都有所提升,但提升并不明顯。

Segformer+DA +BP 是上述2個模塊結合的結果,效果明顯改善。與原網絡相比,mIoU增加了1.93% ,aAcc增加了1.03% ,mAcc 增加了2. 32% 。表明級聯注意力增強了網絡提取多尺度特征的能力,邊界輔助任務使網絡能夠關注圖像的邊界特征。

添加邊界輔助任務后,任務之間可能會出現一些沖突,阻礙原有邊界預測的輔助效果。于是本文添加了梯度手術,解決了語義分割之間的梯度沖突,使得網絡訓練取得了更好的效果,其中mIoU增加了0.45% ,aAcc 增加了0. 36% ,mAcc增加了0.57% 。

圖6中第1~ 4 列分別是原始圖像、Segformer 預測結果、Segformer+CA 預測結果和Segformer+CA +BP+GS 預測結果。以第二行圖片為例,可以看出原來的Segformer 網絡在預測結果中將海洋預測為天空,進行了錯誤預測。而在添加級聯注意力機制后成功預測出了結果。可以發現原有網絡在多尺度信息的聚合方面缺失,存在一定的缺陷。由第三行圖片可以看到,相比單獨添加級聯注意力,邊界輔助加入使得網絡預測到的邊界更為平整光滑,并且檢測到了一定的小目標信息,證明了添加邊界輔助的有效性。

2.5對比實驗

比較了添加損失梯度手術前后損失函數的變化,然后將本文的邊界輔助任務與其他研究中的邊界預測輔助任務進行比較。其中,ABP[13]邊界輔助表示了添加輔助注意力機制的邊界輔助任務,BP 代表本文的邊界輔助。在ADE20k 測試集和Cityscapes 測試集上對本文的方法和其他語義分割方法進行了比較。

2.5.1增加了梯度手術前后的對比以及添加不同輔助任務的對比

添加梯度手術的前后Loss 變化和不同輔助任務對比如圖7所示。

由圖7(a)可以看出,添加了級聯注意力和邊界輔助的模型的損失函數曲線與原始Segformer 網絡的損失函數曲線基本重合,但加入梯度手術操作后,網絡損失函數下降速度明顯比原本網絡更快。由此可以證明本文的訓練策略確實有效,提高了網絡的訓練效果,

為了驗證本文提出的輕量邊界輔助的有效性,對復雜邊界輔助任務與本文邊界輔助通過mIoU 和訓練階段的準確度進行對比。其中,Evolve _Segformer 表示Segformer+CA+GS,指在添加了級聯注意力和梯度手術的情況,ABP為復雜邊界輔助任務,其在邊界預測任務中添加了注意力機制,BP 表示本文輕量邊界預測任務,圖7(b)則是對2 種輔助任務在訓練時預測精度的對比曲線圖,每更新50 次參數就記錄一次總精確度。可以看出本文添加的邊界輔助收斂速度更快,能更快地對語義分割任務進行輔助。

不同輔助任務的對比如表3 所示,可以看出,本文添加的輕量邊界輔助可以對語義分割任務進行輔助訓練。

2.5.2不同網絡的比較

表4 和表5 中對提出的模型在ADE20k 測試集和Cityscapes 測試集上從參數大小、計算量和mIoU方面與其他模型進行了比較。

本文基于原有Segformer 網絡設計了一種新的輕量網絡結構,繼承了原始網絡輕量的優點,并且具有更高的分割精度。從表4 可以看出,雖然增加了2.69 M 的參數量和24. 67 G 計算量,但相對于其他網絡,仍然具有輕量級的優勢。Lawin 是目前對Segformer 解碼器最先進的改進。在ADE20k 數據集上,本文方法在mIoU 上比Lawin 高1.33% ,在城市景觀上比Lawin 高1. 35% 。本文方法相比當前最先進的Segformer 解碼器改進具有更高的語義分割精度,并且本文的方法在ADE20k 數據集和Cityscapes數據集上都取得了很好的效果,證明了本文方法具有較好的魯棒性。

不同網絡可視化對比如圖8 所示,可以看出,原方法存在著識別精度不高、邊界模糊的問題。從圖8 第4 行可以看出,餐盤被錯誤分割,并且邊界被識別模糊,而其他相同參數量的方法如PSPNet 和DeeplabV3+都存在這些問題。第5 列則是使用了OCRNet 的方法,可以看到相比其他方法效果更好,但相對本文方法也有一些缺失,并且由表4 可以看出OCRNet 網絡比本文方法多出了357. 22 G 的計算量和5.82 M 的參數量。由此可以看到本文方法在輕量方面的優越性,更適用于移動端的進一步應用。

3結束語

本文借助注意力機制和邊界輔助設計了一種新的輕量語義分割架構,通過結合注意力機制和多尺度框架構建了多尺度級聯注意力解碼器。加入了設計的邊界輔助模塊,從梯度更新角度提高網絡的邊界感知能力并設計了一套適用本網絡的訓練策略,避免梯度沖突的同時,提高了網絡的訓練效率。對提出的改進網絡在ADE20k 數據集上進行了消融實驗,驗證了各模塊的有效性;在不同數據集上進行的對比實驗彰顯了本文網絡的優勢。本文提出的基于級聯注意力和邊界預測的輕量改進Segformer 網絡為其他語義分割網絡分割精度的提高和網絡的輕量化提供了一種新的思路,即通過相似任務,從梯度更新角度,提高網絡對其余特征的感知能力。改進的方法在輕量化方面還有一定的提升空間,對于注意力機制的添加而導致的參數量提升,后續會對其進一步優化,減少參數量的占用。此外,后期會考慮網絡在其他領域的進一步應用。

作者簡介

高延海 男,(1999—),碩士研究生。主要研究方向:語義分割、深度學習。

劉永帥 男,(1973—),中級實驗師。主要研究方向:知識圖譜。

主站蜘蛛池模板: 亚洲综合色区在线播放2019 | 午夜福利无码一区二区| 亚洲福利视频一区二区| 欧美一区二区精品久久久| 国产乱子伦精品视频| 国产黄网站在线观看| 久久网欧美| 欧美中文字幕无线码视频| 91在线视频福利| JIZZ亚洲国产| 中文字幕无码av专区久久 | 在线亚洲天堂| 狠狠色婷婷丁香综合久久韩国| 亚洲欧美日韩色图| 亚洲精品在线91| 日韩欧美国产成人| 色久综合在线| 亚洲日本中文字幕天堂网| 香港一级毛片免费看| 亚洲成人黄色在线| 大香网伊人久久综合网2020| 国产一区二区三区在线无码| 国产成人调教在线视频| 91精品久久久无码中文字幕vr| 亚洲a级毛片| 毛片免费在线视频| 国产无码在线调教| 成人一区专区在线观看| 国产精品亚洲片在线va| 999国产精品| 九九九精品视频| 青青久在线视频免费观看| 美美女高清毛片视频免费观看| 高清免费毛片| 热九九精品| 国产伦精品一区二区三区视频优播| 在线亚洲小视频| 国产精品无码在线看| 亚洲天堂视频网站| 成人福利在线看| 日本午夜影院| 国产成人麻豆精品| 白丝美女办公室高潮喷水视频| 国产精品一线天| 日韩欧美中文字幕在线精品| 国产亚洲视频中文字幕视频| 国内精品小视频福利网址| www.youjizz.com久久| 免费国产无遮挡又黄又爽| 欧美啪啪精品| 亚洲天堂久久| 亚洲欧美日韩中文字幕一区二区三区 | 成人一级免费视频| 欧美精品1区| 亚洲男人的天堂在线观看| 国产性猛交XXXX免费看| 丁香婷婷在线视频| 日韩精品免费在线视频| 国产97视频在线观看| 99在线观看视频免费| 毛片手机在线看| 亚洲有无码中文网| 国产精品无码AⅤ在线观看播放| 国产免费福利网站| 欧美精品二区| 热这里只有精品国产热门精品| 男人天堂伊人网| 亚洲欧美精品一中文字幕| 国产精品七七在线播放| 日韩精品一区二区三区视频免费看| 四虎成人在线视频| 无遮挡国产高潮视频免费观看| 国产拍揄自揄精品视频网站| 欧美福利在线观看| 亚洲大学生视频在线播放| 久久成人国产精品免费软件| 国产丝袜丝视频在线观看| 国产精品第一区在线观看| 国产大片黄在线观看| Aⅴ无码专区在线观看| 欧美精品影院| 国产美女免费|