999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種應用于語義分割的新型親和力監督方法

2021-07-24 09:30:18曹露濛楊周旺
網絡安全與數據管理 2021年7期
關鍵詞:語義特征模型

曹露濛,楊周旺

(中國科學技術大學 大數據學院,安徽 合肥230026)

0 引言

語義分割是計算機視覺中一項具有挑戰性的任務,在自動駕駛、機器人、衛星、農業、醫療診斷等領域有著廣泛的應用。它是一項稠密分類任務,旨在對圖像進行像素點級別的分類。由于卷積神經網絡技術的迅速發展,許多語義分割神經網絡應運而生。例如,FCN[1]使用卷積層來代替完全連接層,使得神經網絡能夠適應任何輸入大小。Deeplab[2],PSPNet[3]采用空間金字塔池化來提取不同尺度的特征,然后合并特征來獲取不同尺度的上下文信息。長期以來,研究者們致力于特征復用方法和注意機制來設計分割網絡[4-6]。使用殘差和密集的跳躍連接來聚合和復用不同層的特征,使得語義分割更加準確,并使梯度更容易反向傳播。注意力模型[7-9]和非局部模型[10-11]彌補了卷積核的局部局限性,可以捕獲長程依賴。最近的研究顯示了像素分組的重要性[12-15]。Zhong Zilong等人[12]提出語義分割可以分為兩個子任務:顯式像素預測和隱式像素分組。Yu Changqian等人[13]使用標簽對類別內和類別間的先驗知識進行建模,以指導網絡的學習。KE T W等人[14]提出了一種自適應親和場(Adaptive Affinity Field,AAF)來捕獲和匹配標簽空間中相鄰像素之間的語義關系。Jiang Peng等人[15]提出了一種擴散分支,它由一個用于得分圖的種子子分支和一個用于像素級相似性的子分支組成。條件隨機場(Conditional Random Fields,CRFs)[16-18,2]方法用于語義分割,利用上下文信息優化網絡輸出,這是一種統計方法,用于對相似像素進行分組,并通過能量函數優化得分圖(score map)。以前的許多CRFs都是對網絡輸出的后處理。VEMULAPALLI R等人[17]和CHANDRA S等人[18]在CNN中引入了高斯條件隨機場,并取得了很好的效果。

語義分割網絡中的先進模塊,如注意機制、非局部模型、親和力傳播機制等,需要很高的計算開銷[7,11,19]。這主要是因為親和矩陣太大了。在許多實際應用中,本文需要一個輕快的網絡來處理GPU限制和實時性要求等需求。除了設計輕巧高效的網絡[20-22],探索在不增加額外計算負擔的情況下改進原始語義分割網絡的方法也是非常有意義的。本文注意到,在像素分組方法中,建立成對關系模型非常重要。受先前利用位置和特征向量進行二元計算工作[11,15-16]的啟發,本文設計了新的標簽親和力矩陣[13-14],并將其與分數圖(Softmax之前的特征圖)連接起來,作為相似性的懲罰。與以往的工作[13-14]不同,本文以回歸的方式建立了一個非局部親和性監督模型。本文還設計了一個平方根核用于親和性計算,使得回歸懲罰具有良好的數學解釋性。此外,本文采用空間金字塔池模塊來聚合不同尺度的信息,同時減少計算負擔。本文的主要貢獻可以概括為三個方面:

(1)本文提出了一種新的輔助損失函數,它提供了語義分割任務中交叉熵損失無法提供的二元形式監督。

(2)本文以回歸的方式建立二元成對損失函數,幫助解決基于分類的問題,并且這在數學上可解釋。

(3)本文的模型沒有增加網絡模型的推斷計算開銷,只增加了少量的訓練計算開銷,并且對GPU內存需求不高。

1 相關工作

1.1 交叉熵(Cross-Entropy,CE)

交叉熵損失是分類任務中廣泛使用的一元損失函數。語義分割任務主要使用的損失函數是基本的CE損失,此外還有一些補充。OHEM算法增加了錯誤分類樣本的權重。Focal loss[23]降低了易于分類的樣本的權重,使模型更加關注難以分類的樣本。IOU損失和Teversky損失提供了粗粒度上的監督。Dice loss的作用是對背景和前景信息進行區別。

語義分割中的一個像素點位置的交叉熵損失為:

其中yi∈{0,1},且yi只在一個維度上等于1,其他維度均為0,構成一元形式的監督。

1.2 成對建模(pair-wise modeling)

條件隨機場(CRFs)在一元形式的監督基礎上加入了二元形式的監督信息。通過引入能量函數(energy function)將i,j位置的成對關系引入懲罰函數,典型的CRFs懲罰可以寫作:

其中θi是一元勢函數,輸入是神經網絡的得分圖Score Map,θi,j是二元勢函數,計算的是i,j位置像素點的相似性。目標是使得整體能量函數下降,迫使像素點相似的位置預測結果相同。

非局部(Non-local)模型[10-11]和許多注意力(attention)模型[7-9]也集中于利用(xi,xj)的二元計算,其中(xi,xj)是特征層的矢量。在這些模塊中,經常使用對親和矩陣的行向量進行SoftMax變換歸一化,產生特征融合權值,以便在空間和通道方面捕獲長程關系。因此,親和矩陣在成對建模中占有核心地位。要建立成對關系的模型,假定xi,xj是i,j位置的特征向量,定義相似性核函數s(xi,xj),可以有點積的形式L1距離的形式|xi-xj|,指數函數的形式等。本 文 采 用 平 方 根 點 積 形 式是經過Softmax歸一化之后的特征向量,既可以保留概率信息,還可以保證親和力矩陣的計算有界,從而保證整個模塊是李普希茲(Lipschitz)連續的。

1.3 空間金字塔池化

He Kaiming等人[25]將空間金字塔池化成功地應用到目標檢測任務中,CHEN L C等人[2]使用不同采樣權重的擴張卷積作為池化層的替代,并設計了一個空洞空間金字塔池層(Atrous Spatial Pyramid Pooling layer,ASPP)來處理多個尺度。PSPNet[3]在特定層之后進行空間金字塔池化,將不同尺度的上下文特征嵌入到網絡中。Xu Mengde等人[11]修改了空間金字塔池化模型以適應非局部模型,用于減少計算負擔。本文遵循多尺度池化策略來構建非局部的關聯模式。

2 方法

2.1 標簽親和力矩陣

語義分割的標簽是一個具有離散值的單通道圖像,每個值表示一個類。生成標簽親和力矩陣的操作類似于許多視覺任務中的自注意操作:給定尺寸為1×W×H的標簽圖片,將標簽平展到一維,得到1×WH向量L,然后得到尺寸為WH×WH的親和力矩陣M,滿足以下要求:

M矩陣非常大,例如,如果標簽圖片的大小是100×100,那么L的長度是1×10 000,M的大小是10 000×10 000。此外,M在具有許多獨特標簽的場景中是稀疏的。很難對一個大的稀疏矩陣進行建模。本文采用PSP模塊,使用對稱PSP模塊使計算可行。本文使用最近鄰插值將標簽向下采樣為12×12、6×6的大小,然后將標簽展平并將它們連接在一起,得到一個1×180大小的L。圖1可視化展示了該矩陣。

圖1 標簽親和力矩陣(黑色表示0白色表示1)

2.2 親和力回歸損失(Affinity Regression loss)

一個典型的全局親和力矩陣是這樣計算的:給定一個輸入特征:X滿足X∈RC×H×W。其中C、W、H分別表示特征通道數量,特征長度和特征寬度。然后經過三個不同的1×1大小的卷積層,WφWθWγ三個卷積將X映射為三個不同的嵌入特征:φ∈θ=Wθ(X),γ=Wγ(X),表示新的輸出特征 通道 數。將輸出得到的三個不同特征進行降維展平,得到維度為的特征,其中L=H×W??梢杂嬎愕玫接H和力矩陣A:

接下來就是一些常規的歸一化運算,例如Softmax運算,在行向量方向進行歸一化,得到了調整之后的親和力矩陣。通常self-attention中的attention運算為:

在語義分割任務的最終輸出層中,利用非局部親和矩陣進行了研究。為了有相同的映射,本文修改了經典的親和力矩陣,將?、θ、γ設為恒等映射,本文就可以保留類別的通道信息,用以代表預測的概率。首先,進行Softmax變換,使信道信息成為概率。然后本文在嵌入特征上進行平方根運算。最后,本文計算了親和矩陣A,用以表示每個空間坐標點之間的相似性。

為了降低非局部親和力模型的計算復雜度,之前的許多工作[8,11]采取的技巧是減少親和矩陣A的維數,實驗結果證明,這樣做不僅能減少計算量,降低內存需求,還能顯著提高性能。本文遵循了前面的工作[11],并采用了兩種尺寸的下采樣操作。假設得分圖的大小為(C,W,H)。本文將分數映射的樣本降到(C,12,12)和(C,6,6),然后將它們平展到(C,144)、(C,36),并將兩個嵌入特征拼接起來,以獲得(C,180)嵌入特征。標簽操作與特征向下采樣位置對齊。然后本文計算親和力矩陣,得到(180,180)大小的親和力矩陣:

本文通過均方誤差損失將親和力矩陣與標簽親和矩陣進行關聯。親和力回歸損失為(Affinity Regression loss,AR loss):

整體下降函數由分類下降損失函數Cross-Entropy和親和力回歸損失函數Affinity Regression組成:

參數λ設置為0.1。

2.3 親和力回歸的數學含義

在經典的注意力模塊中,親和力矩陣通常是這樣計算的:

而在本文的實驗設置中,?=X,θ=X,而X是神經網絡的得分圖(Score Map),并且經過了下采樣拼接和通道維度的Softmax歸一化。

假定pi表示XT的第i行向量,pj表示XT的第j行向量,那么:

由柯西不等式(Cauchy inequality)可以推出:

柯西不等式成立的條件是:

其中λ為實數。這要求pi、pj是一樣的,即λ=1,并且pi、pj分布越相同,A?越趨近于1。 反之pi、pj分布越不相同,越遠離1,趨近于0。

另一方面,從排序不等式來看:

其中pi(k)、pj(k)是將非負實數序列按照從小到大順序排序后得到的第k項。

由排序不等式性質可以得知:當pik、pjk順序一致的時候即pik=pi(k),pjk=pj(k)時最大,當pik、pjk順序相反的時候最小,即:pik=pi(k),pjk=pj(c-k+1)。

在語義分割網絡的輸出中,每個空間點的通道向量中數值最大的(argmax)通道作為預測類別輸出。那么回歸1意味著的大小順序要盡可能一致,特別地,pi、pj數值最大的維度要一致,即位置i、j預測的是同一種類別。反之,回歸0,這會增大數值較大的維度乘在一起的懲罰,導致中數值大的維度盡可能與數值小的維度乘在一起,也就是說,i、j預測的是不同類別。不等式的等號是可以取到的。

由上述分析可以知道,建立的回歸下降損失函數可以起到一種全局性的結構監督作用,它是基于成對建模的函數,提供二元形式的監督信息,彌補了單一的交叉熵損失Cross-Entropy無法進行成對運算的缺陷。

本文的模型結合了二元懲罰的優點,可以看作是一個輔助損失函數,可以與分割網絡同時訓練。沒有額外的參數被添加到網絡中,意味著在網絡推斷過程中沒有增加新的計算開銷。而且訓練時額外引入的計算量特別小,計算復雜度為O(C×L2),C為通道數量或者標簽種類,L是親和力矩陣邊長,本文中L具體數值為180。

3 實驗

3.1 數據集

NYU Depth Dataset V2[26].NYUv2數據集是一個室內場景數據集,包含1 449對對齊的RGB和深度圖像,包括795個訓練圖像和654個驗證圖像。該數據集提供了40個類別的分類和13個類別的分類。本文在設置中使用40個類,并且本文沒有以任何方式直接或者間接使用深度信息。

3.2 評價指標

語義分割的最主要評價指標就是mIOU,即計算真實值和預測值兩個集合的交集和并集之比。本文采用mIOU作為評價指標。

3.3 實驗與分析

本文主要采用RefineNet[5]的輕量化版本Refine-NetLW[20]作為骨干網絡,該網絡在NYUv2數據集上表現良好,且能計算開銷小,運行速度快。本文采用了文獻[20]的實驗設置要求,只使用一塊GTX-1080Ti訓練,并且沒有在驗證集上做任何增強處理。

本文對親和力回歸損失AR loss的用法是:先預訓練網絡至一定的精度,再加入AR loss與CE loss一起進行訓練直到收斂。

圖2展示了驗證集的mIOU隨著訓練變化的曲線,可以看出加入AR loss之后,網絡的性能有了明顯的提升。

圖2 NYUv2訓練曲線

之后本文對比AR loss和傳統的Dice loss的效果,如表1所示,Dice loss對網絡性能的改進不大,只有0.1%,而加入AR loss以后,網絡在驗證集上提升了接近0.9%,效果非常顯著。

表1 Dice loss vs AR loss(NYUv2驗證集)/%

而進一步進行實驗,采用不同的ResNet骨干網絡進行實驗,可以發現,基于ResNet152的提升效果比基于ResNet50的效果明顯。

表2 替換不同殘差網絡的影響(NYUv2驗證集)/%

本文是基于成對建模的方法,計算了二元形式的懲罰函數,對比之前的二元懲罰函數模型,有非常明顯的優勢。如表3所示,本文的方法訓練開銷更小,計算復雜度更低,且不增加推斷時的計算開銷。

表3 計算復雜性比較

N的大小為500左右,因此系數80,1/10差距顯著。CRFs方法是后處理方法,在神經網絡運算之后還要再進行統計處理,訓練和推斷都比較耗時。AAF[14]對每一個點計算3個核的親和力(3×3+5×5+7×7≈80)。本文與AAF[14]都只需參與訓練,不參與推斷。

4 結論

本文提出了一種新的使用標簽親和力矩陣作為二元形式監督的范式,在處理語義分割這樣的分類問題上,引入回歸形式的監督。能夠在提高語義分割網絡性能的同時,又不引入額外的參數,可以有效地提高語義分割網絡的計算效率。在NYUv2數據集上的實驗驗證了該模型的有效性和高效性。

猜你喜歡
語義特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: www.国产福利| 中文字幕在线观| 99在线观看视频免费| 69视频国产| 亚洲国产欧美国产综合久久| 91九色国产porny| 97免费在线观看视频| 精品福利视频网| 国产chinese男男gay视频网| 欧美亚洲日韩中文| 精品91视频| 毛片在线看网站| 久久久久国产精品熟女影院| 亚洲国产成人久久精品软件| 国产真实乱人视频| 欧美97欧美综合色伦图| 国产无码精品在线播放| 91国内在线观看| 亚洲色图综合在线| 成人毛片免费在线观看| 在线观看精品国产入口| 天天综合网站| 国产成人无码播放| 亚洲va在线观看| 欧美日本在线一区二区三区| 一级香蕉人体视频| 国产不卡在线看| 亚洲v日韩v欧美在线观看| 欧美一级大片在线观看| 一级一级一片免费| 亚洲欧美天堂网| 欧美乱妇高清无乱码免费| 激情無極限的亚洲一区免费 | 这里只有精品在线| 综合社区亚洲熟妇p| 乱系列中文字幕在线视频| 国产精品美女免费视频大全| 色网站在线视频| 欧美精品亚洲精品日韩专区| 日韩视频福利| 日韩无码视频专区| 久久五月视频| 青青草a国产免费观看| 丁香亚洲综合五月天婷婷| 欧美性久久久久| 综合五月天网| 中文字幕一区二区视频| 亚洲九九视频| 亚洲欧美人成电影在线观看| 老司国产精品视频| 四虎在线观看视频高清无码| 国产美女在线免费观看| 欧美成一级| 成人av手机在线观看| 日韩经典精品无码一区二区| 久久亚洲国产最新网站| 国产女人18水真多毛片18精品| 为你提供最新久久精品久久综合| 青青久在线视频免费观看| 中文字幕av无码不卡免费| 国产办公室秘书无码精品| 色爽网免费视频| 亚洲成人网在线观看| www.亚洲一区| 永久免费精品视频| 国产精品一区二区在线播放| 亚洲三级电影在线播放| 日韩免费毛片| 亚洲第一区精品日韩在线播放| 国内精品视频| 国内精品91| 国产精品久久久久久久伊一| 免费A级毛片无码免费视频| 日本一区二区不卡视频| 国产精品中文免费福利| 日本草草视频在线观看| 欧美a√在线| 亚国产欧美在线人成| 在线观看国产网址你懂的| 乱人伦视频中文字幕在线| 又猛又黄又爽无遮挡的视频网站| 97国产在线播放|