999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)DeepLabV3+的巖屑圖像語義分割算法

2023-03-30 08:52:24羅崇興師明元王正勇滕奇志
現(xiàn)代計(jì)算機(jī) 2023年2期
關(guān)鍵詞:語義特征信息

羅崇興,師明元,王正勇*,滕奇志

(1.四川大學(xué)電子信息學(xué)院,成都 610065;2.河北省地質(zhì)礦產(chǎn)勘查開發(fā)局第六地質(zhì)大隊(duì),石家莊 050080)

0 引言

在礦產(chǎn)資源勘探和開發(fā)工作中,巖屑錄井是非常重要的一步工作,對巖屑進(jìn)行準(zhǔn)確識別是地質(zhì)勘探人員研究地層特征和地質(zhì)建模的重要基礎(chǔ)和保障。在巖屑采集現(xiàn)場,多種因素的影響,使得采集過程中獲取到的巖屑并不只是一種巖性,而是混合著多種巖性。為更好地分析巖屑巖性,需要對巖屑圖像進(jìn)行語義分割。隨著科學(xué)技術(shù)的發(fā)展,深度學(xué)習(xí)開始廣泛應(yīng)用于巖屑圖像語義分割,深度學(xué)習(xí)的引入加快了巖屑圖像處理速度,提高了巖屑識別的準(zhǔn)確率。

自2012 年,AlexNet 模型[1]在ImageNet 比賽上大放光彩,在那之后,深度學(xué)習(xí)網(wǎng)絡(luò)模型層出不窮。2014年,Simonyan 等[2]提出VGG 網(wǎng)絡(luò),采用連續(xù)的小尺寸卷積核代替了較大卷積核,卻存在需要計(jì)算更多的參數(shù),對內(nèi)存和時(shí)間要求高的問題。之后,Long 等[3]在VGG?16 網(wǎng)絡(luò)原有結(jié)構(gòu)基礎(chǔ)上提出全卷積網(wǎng)絡(luò)(fully convolu?tional networks,FCN),采用卷積層代替了傳統(tǒng)卷積中的全連接層,使圖像能進(jìn)行像素級別的語義分割,但是還存在分割結(jié)果粗糙等問題。Chen 等[4]針對語義分割中存在的池化導(dǎo)致信息丟失,標(biāo)簽之間的概率關(guān)系未利用的問題,基于FCN 網(wǎng)絡(luò)提出了DeepLab V1 網(wǎng)絡(luò),在該網(wǎng)絡(luò)中引入了全連接條件隨機(jī)場(conditional random field,CRF),以改善原始分割結(jié)果不精細(xì)的問題,同時(shí)利用空洞卷積使網(wǎng)絡(luò)在不改變參數(shù)量和計(jì)算量的情況下擴(kuò)大網(wǎng)絡(luò)感受野,獲取圖像更多的信息。在那之后,DeepLab 系列不斷發(fā)展,衍生出DeepLab V2[5],DeepLab V3[6]等網(wǎng)絡(luò)模型。2015 年,Ronneberger 等[7]基于對稱的編碼器-解碼器結(jié)構(gòu)提出了U?Net 網(wǎng)絡(luò),以方便融合分辨率相同的特征。2015 年,劍橋大學(xué)團(tuán)隊(duì)借鑒FCN 網(wǎng)絡(luò)和U?Net 網(wǎng)絡(luò),提出SegNet 模型[8],該模型的編碼結(jié)構(gòu)構(gòu)建了最大池化層索引存儲,以內(nèi)存為代價(jià)換取輕微的精度損失,解決邊界信息丟失問題。2017 年,香港大學(xué)和商湯科技聯(lián)合提出PSPNet 網(wǎng)絡(luò)[9],提出了金字塔池化模型,融合不同尺度和不同區(qū)域之間的信息,通過全局先驗(yàn)信息有效獲取高質(zhì)量的語義分類結(jié)果。Lu 等[10]首次將圖卷積模型應(yīng)用于分類,通過卷積特征圖構(gòu)建圖結(jié)構(gòu),并將其轉(zhuǎn)化為圖節(jié)點(diǎn)分類問題,解決了卷積神經(jīng)網(wǎng)絡(luò)在提取特征的過程中局部位置信息損失的問題。北京大學(xué)聯(lián)合商湯科技基于類的動(dòng)態(tài)圖卷積自適應(yīng)提出CDGCNet模型[11],利用構(gòu)造圖的動(dòng)態(tài)圖卷積結(jié)果學(xué)習(xí)特征聚集和權(quán)重分配,融合原始特征和精煉特征獲取最終預(yù)測。He等[12]提出了一種基于協(xié)作學(xué)習(xí)的多源領(lǐng)域框架,將多標(biāo)記源模型適應(yīng)到無標(biāo)記源中,并用于語義分類。

在巖屑分割領(lǐng)域,2020年,萬川等[13]對U?Net模型進(jìn)行了改進(jìn),并應(yīng)用于巖屑圖像分割中,運(yùn)用金字塔池化模塊聚合不同區(qū)域的上下文特征信息,更好地利用了全局信息。2022年,嚴(yán)良平等[14]在VGG16的基礎(chǔ)上提出了一種深度圖像引導(dǎo)的巖石顆粒分割算法,利用深度圖像的三維距離信息,提高了巖石圖像的分割精度。

為更好地對巖屑圖像進(jìn)行語義分割,本文在DeepLabV3+算法上進(jìn)行改進(jìn),并提出了一種改進(jìn)DeepLabV3+的巖屑圖像語義分割算法。

1 相關(guān)算法原理

DeepLabV3+算法采用編碼器-解碼器結(jié)構(gòu)。編碼器主要用于巖屑圖像特征提取,解碼器是將編碼器提取的特征映射到高維空間,以實(shí)現(xiàn)圖像像素級別的語義分類,通過反卷積操作不斷恢復(fù)圖像的空間維度,從而實(shí)現(xiàn)圖像語義分割。

DeepLabV3+的網(wǎng)絡(luò)結(jié)構(gòu)如圖1(a)所示,其編碼器部分由Xception[15]和ASPP 模塊[5]組成,Xception是利用若干個(gè)大小不同的卷積提取輸入特征,在減小計(jì)算量的同時(shí)獲取不同感受野,經(jīng)過Xception 模型,圖像分辨率降低為原始圖像的1/16,之后再送入ASPP 模塊。ASPP 模塊如圖1(b)所示,由不同采樣率的空洞卷積并聯(lián)組成,將結(jié)果融合在一起之后,利用1 × 1 的卷積降低輸出的通道數(shù),以實(shí)現(xiàn)用多個(gè)比例捕捉圖像上下文信息的目的。DeepLabV3+網(wǎng)絡(luò)的解碼部分,首先是將輸出的特征圖進(jìn)行上采樣操作,將特征圖尺寸擴(kuò)大四倍,之后將該特征圖和低級特征進(jìn)行拼接融合,最后再進(jìn)行上采樣,實(shí)現(xiàn)圖像語義分割,得到最終預(yù)測結(jié)果。

圖1 DeepLabV3+網(wǎng)絡(luò)結(jié)構(gòu)及ASPP模塊圖

2 改進(jìn)的DeepLabV3+

2.1 MobileNetV3

原始的DeepLabV3+模型使用Xception 特征提取網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),但Xception 對模型的參數(shù)規(guī)模和運(yùn)算速度控制不佳,使得在進(jìn)行巖屑圖像語義分割的過程中存在參數(shù)量大、推理速度慢的問題,所以本文采用MobileNetV3[5]代替原網(wǎng)絡(luò)中的Xception 模塊來提取巖屑圖像特征,在不降低模型精度的同時(shí)提高模型的速度。該模型借鑒了MobileNetV1[16]的深度可分離卷積、MobileNetV2[17]的具有線性瓶頸的逆殘差結(jié)構(gòu),并且引入了Squeeze and excitation[18]的輕量級注意力結(jié)構(gòu),采用了一種新的非線性激活函數(shù)h?swish,計(jì)算公式如下:

該函數(shù)能減少運(yùn)算量并提高模型性能。

MobileNetV3 網(wǎng)絡(luò)模型的基本模塊bneck 結(jié)構(gòu)如圖2 所示,首先利用1 × 1 的卷積進(jìn)行升維操作,之后經(jīng)過5 × 5 的深度可分離卷積提取圖像特征,然后利用注意力機(jī)制調(diào)整每個(gè)通道的權(quán)重,最后再通過1 × 1的卷積降維。

圖2 bneck結(jié)構(gòu)

2.2 注意力機(jī)制EPSANet

在神經(jīng)網(wǎng)絡(luò)中,模型學(xué)習(xí)能力越強(qiáng),需要存儲的信息也就越大,這會引起信息超載。為了更好地引導(dǎo)模型聚焦于巖屑圖像中的重要信息,本文在ASPP 模塊引入了注意力機(jī)制EPSANet[19]。如圖3所示,EPSANet能夠有效捕獲不同尺度特征圖的空間信息,同時(shí)豐富特征空間,建立長期依賴關(guān)系,進(jìn)而學(xué)習(xí)更豐富的特征表示。

圖3 EPSANet

EPSANet 首先將輸入特征圖X拆分為S個(gè)部分(X0,X1,…,XS-1),然后利用多尺度卷積核分組卷積提取不同尺度特征圖的空間信息,計(jì)算公式如下:

然后將這些特征圖拼接起來,計(jì)算公式如下:

最后對這些擁有不同尺度信息的特征圖進(jìn)行通道注意力權(quán)重加權(quán),計(jì)算公式如下:

為更好地交互多尺度通道信息,利用Softmax進(jìn)一步標(biāo)定權(quán)重信息,計(jì)算公式如下:

這本書內(nèi)容很豐富,有人體之謎、宇宙之謎、地理之謎、天文之謎、生物之謎、科技之謎、動(dòng)物之謎、歷史之謎等,讓我知道了很多我想知道的問題。

最后將對應(yīng)的權(quán)重和特征圖進(jìn)行通道級別的相乘,計(jì)算公式如下:

在ASPP模塊中引入EPSANet得到EPSANet?ASPP 模塊,如圖4 所示,能夠引導(dǎo)模型在融合特征時(shí)更好地聚焦于巖屑圖像中的重要信息,降低對無關(guān)信息的關(guān)注。

圖4 EPSANet?ASPP模塊

2.3 改進(jìn)后的網(wǎng)絡(luò)模型

改進(jìn)DeepLabV3+的巖屑圖像語義分割算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖5(a)所示,該模型的編碼器部分 由MobileNetV3 和EPSANet?ASPP 模 塊 組 成,首先經(jīng)過MobileNetV3 提取巖屑圖像特征,在不降低模型精度的同時(shí)提高模型的速度,以得到不同尺度的圖像特征;然后將最小尺寸的圖像特征送入EPSANet?ASPP模塊,EPSANet?ASPP模塊如圖5(b)所示,引入EPSANet機(jī)制的EPSANet?ASPP 模塊能夠幫助網(wǎng)絡(luò)更好地提取出特征中的重要信息,從而更高效地捕獲巖屑圖像中不同尺度信息。

圖5 改進(jìn)后的DeepLabV3+模型及ERSANet?ASPP模塊圖

由于在特征提取的過程中,低層次的特征包含較多的細(xì)節(jié)信息,更容易反映圖像特征,同時(shí)目標(biāo)位置更加準(zhǔn)確,但是缺乏語義特征信息。高層次特征具有更多的語義信息,卻只有較少的細(xì)節(jié)信息和位置信息。有效融合低級特征和高級特征能更有助于巖屑圖像語義分割,因此,在解碼器部分,本文借鑒FPN[20]的多尺度特征融合思想,在編碼器和解碼器之間構(gòu)建橫向連接,使模型在對特征圖進(jìn)行上采樣時(shí)能夠融合編碼器中MobileNetV3 提取的不同尺度特征,進(jìn)而獲取更多的圖像細(xì)節(jié)信息和更準(zhǔn)確的目標(biāo)位置信息,得到更精細(xì)的巖屑圖像語義分割結(jié)果,實(shí)現(xiàn)巖屑圖像語義分割。

3 實(shí)驗(yàn)結(jié)果及分析

為更好地評估本文算法性能,本文介紹了幾種常用的語義分割評價(jià)指標(biāo),在相同的實(shí)驗(yàn)配置條件下,對比分析了7種不同的語義分割網(wǎng)絡(luò)在巖屑圖像語義分割數(shù)據(jù)集上的表現(xiàn),分別為Danet[21]、FCN[3]、DeepLabV3+[22]、PSPNet[9]、UNet[7]、UPerNet[23]、HRNet[24]。實(shí)驗(yàn)證明,本文算法具有更高的語義分割精度,優(yōu)于其他對比網(wǎng)絡(luò)。

3.1 實(shí)驗(yàn)環(huán)境

本實(shí)驗(yàn)在Linux 操作系統(tǒng)下進(jìn)行,實(shí)驗(yàn)使用顯卡型號為NVIDIA GeForce RTX 2080 Ti,處理器為Inter(R)Core(TM)i7?9700 CPU,使用的編程語言是Python3.8.0,深度學(xué)習(xí)框架為PyTorch1.8.0,CUDA Version為11.1,內(nèi)存為32 GB。

3.2 實(shí)驗(yàn)數(shù)據(jù)集

為驗(yàn)證本文算法的有效性,首先利用巖屑圖像采集設(shè)備采集巖屑圖像,得到尺寸為4000×3750的原始巖屑圖像,部分原始巖屑圖像如圖6所示,共采集巖屑圖像126張,然后通過圖像裁剪、數(shù)據(jù)增強(qiáng)等方法將原始巖屑圖像制作成512×512 的巖屑圖像語義分割數(shù)據(jù)集共9682 張,其中7746 張用于訓(xùn)練模型,1936 張用于測試模型。實(shí)驗(yàn)數(shù)據(jù)集共有20個(gè)類別,其中包含背景和19種巖屑樣本,巖屑種類分別是油斑粉砂巖、紫紅色安山巖、深灰色安山巖、灰綠色安山巖、褐色流紋巖、灰綠色砂巖、含礫粗砂巖、紫灰色泥質(zhì)粉砂巖、灰色粉砂巖、褐色粉砂巖、灰綠色凝灰?guī)r、方解石、石灰?guī)r、頁巖、石英、灰泥巖、灰黑色泥巖、深灰黑色泥巖、棕紅泥巖,部分巖屑樣本展示如圖7所示。

圖6 原始巖屑圖像

圖7 部分巖屑樣本展示

3.3 實(shí)驗(yàn)結(jié)果及分析

語義分割是對圖像進(jìn)行像素級別的分類,常用的評價(jià)指標(biāo)有像素準(zhǔn)確率(pixel accuracy,PA)、類別平均像素準(zhǔn)確率(mean pixel accuracy,mPA)、交并比(intersection over union,IoU)和平均交并比(mean intersection over union,mIoU)。PA是指類別預(yù)測正確的像素?cái)?shù)目占總像素的比例,計(jì)算公式如下:

mPA是每個(gè)類別的PA的求和再平均的值,計(jì)算公式如下:

IoU是類別預(yù)測結(jié)果和真實(shí)結(jié)果的交集與并集的比值,計(jì)算公式如下:

mIoU是每個(gè)類別IoU的和再平均的結(jié)果,計(jì)算公式如下:

其中,Cij代表在巖屑圖像中預(yù)測分類為i類、真實(shí)分類為j類的總像素?cái)?shù),如當(dāng)i=j,代表在巖屑圖像中像素點(diǎn)的預(yù)測為i類,同時(shí)實(shí)際值也是i類,這類結(jié)果表示為真;當(dāng)i!=j,代表在巖屑圖像中像素點(diǎn)的預(yù)測是j類,但是實(shí)際分類值為i類,這類結(jié)果為假。

3.3.2 消融實(shí)驗(yàn)結(jié)果與分析

為驗(yàn)證改進(jìn)的DeepLabV3+巖屑圖像語義分割模型的有效性,分別對MoblieNetV3 模塊,注意力機(jī)制EPSANet 模塊和編解碼聯(lián)系模塊進(jìn)行消融實(shí)驗(yàn)。選取DeepLabV3+網(wǎng)絡(luò)模型作為基線模型。在自制的巖屑數(shù)據(jù)集上性能對比結(jié)果如表1所示。

從表1 可以看出,原始的DeepLabV3+網(wǎng)絡(luò)在自制巖屑數(shù)據(jù)集上的評價(jià)指標(biāo)mPA為0.68,mIoU僅有0.57;用MoblieNetV3 替換Xception 進(jìn)行特征提取后,mPA比基線模型提升了0.05,mIoU比基線模型提升了0.03,參數(shù)量減少了10.17 M,速度提升了1.75 s;在ASPP 中加入注意力機(jī)制EPSANet 后,mPA比基線模型提升了0.02,mIoU比基線模型提升了0.04;在改進(jìn)了編解碼聯(lián)系模塊后,mPA比基線模型提升了0.03,mIoU比基線模型提升了0.06。實(shí)驗(yàn)表明,本文所提出的幾個(gè)改進(jìn)方法在性能上相較于原始的DeepLabV3+網(wǎng)絡(luò)均有不同程度的提高。

表1 消融實(shí)驗(yàn)的mPA、mIoU、參數(shù)量、單張圖像處理時(shí)間對比

3.3.3 與其他模型的比較

表2是不同算法在自制的巖屑圖像語義分割數(shù)據(jù)集下性能對比結(jié)果,其中加粗?jǐn)?shù)字是橫向比較最優(yōu)結(jié)果。從表2可以看出本文算法在巖屑圖像數(shù)據(jù)集上的mPA為0.78,mIoU為0.68,分割的整體性能優(yōu)于其他對比網(wǎng)絡(luò),具有更高的分割精度。

表2 不同算法的性能對比

為更直觀地比較不同算法的性能表現(xiàn),圖8展示了不同算法在巖屑圖像上語義分割結(jié)果。對比了7種不同的語義分割算法,圖中左上方框中的巖屑是灰綠色砂巖,從圖中可以看出Deep?LabV3+、UNet、UperNet、HRNet 算法將其錯(cuò)誤識別為灰綠色安山巖。右下方框中的巖屑是深灰色安山巖,Danet、FCN、DeepLabV3+、UNet、UperNet 算法未能很好地區(qū)分該巖屑和背景。從圖8 可以看出,本文改進(jìn)的DeepLabV3+算法語義分割結(jié)果優(yōu)于對比算法。

圖8 不同模型的語義分割對比圖組1

圖9展示了不同算法在密集巖屑圖像上的語義分割結(jié)果,圖中方框中的巖屑是灰綠色凝灰?guī)r,Danet、DeepLabV3+、PSPNet、UNet、Uper?Net、HRNet 算法將該巖屑的部分像素錯(cuò)誤分類為灰綠色安山巖。從圖中可以看出,本文算法性能優(yōu)于其他對比算法。

圖9 不同模型的語義分割對比圖組2

4 結(jié)語

本文針對巖屑圖像語義分割問題,利用巖屑采集設(shè)備采集巖屑圖像制成數(shù)據(jù)集,并提出了基于DeepLabV3+算法的改進(jìn)方法。本文算法首先采用MobileNetV3 作為主干網(wǎng)絡(luò),以快速提取巖屑圖像不同尺度的特征,接著采用融合了EPSANet 的ASPP 網(wǎng)絡(luò),用于有效獲取巖屑圖像的重要信息并更好地融合圖像特征,最后借鑒FPN 思想,在解碼過程中融合編碼提取的不同尺度特征,從而得到更精準(zhǔn)的巖屑圖像語義分割結(jié)果。實(shí)驗(yàn)表明,本文算法在自制的巖屑數(shù)據(jù)集上mPA為0.78,mIoU為0.68,分割的整體效果優(yōu)于其他對比網(wǎng)絡(luò),巖屑顆粒的邊緣分割也更加精確。

猜你喜歡
語義特征信息
語言與語義
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語義模糊
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
語義分析與漢俄副名組合
主站蜘蛛池模板: 尤物在线观看乱码| 亚洲美女一区二区三区| 欧美国产在线看| 色国产视频| 中文字幕亚洲专区第19页| 亚洲精品无码日韩国产不卡| 欧美一道本| 国产亚洲精品资源在线26u| 精品少妇人妻无码久久| 免费在线成人网| 国产幂在线无码精品| 国产美女在线免费观看| 国产最新无码专区在线| 青青草原国产av福利网站| 91麻豆精品国产高清在线| 亚洲看片网| 亚洲视频二| 亚洲精品国产精品乱码不卞| 麻豆国产精品一二三在线观看| 国产真实乱子伦视频播放| 国产欧美在线观看视频| 秋霞一区二区三区| 九九久久精品免费观看| 国禁国产you女视频网站| 欧美精品一区在线看| 国产成人成人一区二区| 夜夜操天天摸| 国产丝袜无码精品| 99re免费视频| 91网址在线播放| 97se亚洲综合在线韩国专区福利| www.99精品视频在线播放| 青青操视频在线| 91欧洲国产日韩在线人成| 天天综合亚洲| 国产超碰一区二区三区| 在线观看国产精美视频| 91色综合综合热五月激情| 波多野结衣一区二区三视频 | 久操线在视频在线观看| 国产高清精品在线91| 日韩二区三区无| 亚洲成a人在线播放www| 一级成人a毛片免费播放| 亚洲中久无码永久在线观看软件 | 国产成人综合日韩精品无码首页| 亚洲男人天堂久久| 国产精品专区第1页| 欧美综合区自拍亚洲综合绿色| 青青青视频91在线 | 国产黑人在线| 久久毛片网| 波多野结衣AV无码久久一区| 五月天在线网站| 欧美三级不卡在线观看视频| 免费一级α片在线观看| 国产一级妓女av网站| 色综合激情网| 男女精品视频| 最新加勒比隔壁人妻| 中文字幕日韩视频欧美一区| 日本免费福利视频| 欧美日韩v| 久久这里只有精品国产99| 国产亚洲第一页| 日韩精品毛片| 自慰高潮喷白浆在线观看| 人人爱天天做夜夜爽| 久久人午夜亚洲精品无码区| 国产精品yjizz视频网一二区| 囯产av无码片毛片一级| 国产欧美日韩va另类在线播放 | 国产成年无码AⅤ片在线| 高清精品美女在线播放| 亚洲一级色| 成人日韩视频| 国产免费高清无需播放器| 欧美精品在线视频观看| 国产欧美日韩综合在线第一| 午夜一区二区三区| 99久久99这里只有免费的精品| 欧美笫一页|