999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于FCN+ResNet的地表建筑物識別

2021-12-29 03:55:22肖建峰
現(xiàn)代計(jì)算機(jī) 2021年31期
關(guān)鍵詞:語義特征模型

肖建峰

(南華大學(xué)計(jì)算機(jī)學(xué)院軟件工程系,衡陽 421001)

0 引言

深度學(xué)習(xí)(deep learning,DL)是機(jī)器學(xué)習(xí)(machine learning,ML)領(lǐng)域中一個(gè)新的研究方向,它被引入機(jī)器學(xué)習(xí)使其更接近于最初的目標(biāo)——人工智能(artificial intelligence,AI)[1]。近年來隨著深度學(xué)習(xí)的發(fā)展,深度學(xué)習(xí)在計(jì)算機(jī)視覺上用于語義分割有不錯(cuò)的成就。圖像分割是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要方向,是圖像處理的核心環(huán)節(jié)。伴隨深度學(xué)習(xí)技術(shù)的發(fā)展,結(jié)合深度學(xué)習(xí)的圖像分割技術(shù)在精確度上遠(yuǎn)超傳統(tǒng)圖像分割方法。卷積神經(jīng)網(wǎng)絡(luò)(CNN)與全卷積神經(jīng)網(wǎng)絡(luò)(FCN)的提出,極大促進(jìn)了圖像語義分割技術(shù)發(fā)展,研究人員提出了很多新型網(wǎng)絡(luò)模型,分割精準(zhǔn)度大幅度提升[2]。

遙感技術(shù)在空間地理信息的應(yīng)用上解決了許多的問題。遙感技術(shù)廣泛用于軍事檢測、監(jiān)視海洋環(huán)境、觀察天氣等。在民用方面,遙感技術(shù)被用來進(jìn)行地理資源檢測、農(nóng)作物分類、用地規(guī)劃、環(huán)境污染監(jiān)測、建筑識別、預(yù)測地震等方面。

本文將講述語義分割的相關(guān)內(nèi)容,闡明使用FCN和ResNet結(jié)合的網(wǎng)絡(luò)模型來對地表的建筑物進(jìn)行識別,將圖像分割出來的原理。并利用航拍的地表圖片進(jìn)行訓(xùn)練,得出實(shí)驗(yàn)結(jié)果,進(jìn)行總結(jié)。

1 語義分割

1.1 語義分割的定義

語義分割是計(jì)算機(jī)視覺中十分重要的領(lǐng)域,它是從像素的級別上識別圖像,識別出圖像中每個(gè)像素對應(yīng)的物體的種類。語義分割的目的是將圖像中的每個(gè)像素映射至一個(gè)目標(biāo)類。語義在圖像的領(lǐng)域來說就是指對圖像內(nèi)容進(jìn)行理解。分割,就是將圖像中物體從像素的顏色上分離。如圖1中對像素進(jìn)行分類識別出一只貓。

圖1 語義分割簡單示例

1.2 語義分割的應(yīng)用

1.2.1 地理位置信息

通過構(gòu)建神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù),將航拍的圖像作為輸入能有效地自動識別地表的建筑、山川、河流等位置信息,來幫助地理局進(jìn)行相關(guān)的工作。

1.2.2 用于無人駕駛

對于自動駕駛的汽車來說,判斷道路的情況是十分重要的,對無人駕駛來說語義分割是很核心的算法,通過對道路圖像的輸入利用神經(jīng)網(wǎng)絡(luò)將道路上的物體分類,從而對分析的道路情況進(jìn)項(xiàng)相應(yīng)的駕駛操作,提升駕駛的安全。如圖2所示。

圖2 道路情況語義分割

1.2.3 醫(yī)療影像分析

圖像分割是一個(gè)重要的處理步驟,它可以幫助進(jìn)行以圖像為指引的醫(yī)學(xué)干預(yù)、放射療法或是更有效的放射科診斷等[3]。如圖3所示。

圖3 醫(yī)學(xué)影像齲齒診斷語義分割

1.3 計(jì)算機(jī)視覺領(lǐng)域?qū)Ρ?/h3>

1.3.1 圖像分類

給出打好標(biāo)簽的分類的圖像,進(jìn)行訓(xùn)練然后這就是圖像分類問題。圖像分類是判別圖中物體是什么,比如是貓還是羊。

1.3.2 目標(biāo)檢測

區(qū)分圖像中的物體并進(jìn)行定位,一般對所檢測的物體進(jìn)行矩形框的標(biāo)記,同時(shí)標(biāo)注出是什么物體。如圖4所示的檢測則要使用邊界框檢測所給定圖像中的所有羊。

圖4 目標(biāo)檢測示例

1.3.3 語義分割

對圖像進(jìn)行像素級分類,預(yù)測每個(gè)像素屬于的類別,不區(qū)分個(gè)體。如圖5所示。

圖5 語義分割示例

1.3.4 實(shí)例分割

定位圖中每個(gè)物體,并進(jìn)行像素級標(biāo)注,區(qū)分不同個(gè)體。如圖6所示,3只羊都被分割出不同的顏色。

圖6 實(shí)例分割示例

2 模型介紹

2.1 用于語義分割的全卷積神經(jīng)網(wǎng)絡(luò)

CNN在卷積、非線性激活和最大池化運(yùn)算后,將特征圖展開成若干個(gè)獨(dú)立神經(jīng)元,并通過全連接方式映射為固定長度的特征向量,常應(yīng)用于對整幅圖像分類。與CNN不同,Long等人2015年提出的FCN模型(fully convolutional networks for semantic segmentation),利用特征圖同尺寸卷積運(yùn)算得到若干個(gè)卷積層用來代替CNN網(wǎng)絡(luò)中的全連接層,并采用空間插值和反卷積等上采樣技術(shù)對特征圖進(jìn)行尺度復(fù)原,最后基于多分類模型進(jìn)行逐像素預(yù)測,實(shí)現(xiàn)端到端語義分割[4]。FCN有三大特點(diǎn):

(1)接收任意尺寸輸入的全卷積網(wǎng)絡(luò)。全卷積神經(jīng)網(wǎng)絡(luò)把卷積神經(jīng)網(wǎng)絡(luò)中的全連接層使用卷積層來代替。在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,前面是卷積層,后3層是全連接層,而FCN打破了常規(guī),把后面的全連接改成卷積,最后輸出和原圖大小相同的圖片。因?yàn)樗械膶佣际蔷矸e層,故稱為全卷積網(wǎng)絡(luò)。為了實(shí)現(xiàn)圖像的像素分類,最后將圖片進(jìn)行分割,輸出應(yīng)為圖片,而全連接層的是將二維的輸入轉(zhuǎn)換為一維,不能變?yōu)槎S圖像。但是FCN將全連接層替換為卷積層就能達(dá)到輸出為低分辨率圖像的目的,同時(shí)卷積也能學(xué)習(xí)到更深的特征。網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。

圖7 FCN網(wǎng)絡(luò)結(jié)構(gòu)

(2)圖片上采樣。圖片上采樣利用反卷積把圖像變大,最后放大成和原圖大小相同的圖片(圖8)。上采樣還能提高分辨率,能夠輸出良好的結(jié)果。并確保特征所在區(qū)域的權(quán)重,最后在提高圖像分辨率和原始圖像一致性后,高權(quán)重區(qū)域就是目標(biāo)所在區(qū)域。如圖9中,自行車的圖片,沒有經(jīng)過上采樣的圖像熱圖形狀模糊,識別不出是什么物體,經(jīng)過不斷地反卷積之后圖像特征逐漸明顯,自行車的部分權(quán)重高熱圖顏色深,很好的提升了圖像分辨率保留了特征。

圖8 反卷積填充

圖9 上采樣示例

(3)融合深層粗糙特征和淺層精細(xì)特征的跳躍結(jié)構(gòu)。經(jīng)過卷積池化后的圖像特征丟失會很明顯,為了加強(qiáng)特征的學(xué)習(xí)使得輸出的圖像更加精細(xì),保留細(xì)節(jié)。FCN具有跳躍結(jié)構(gòu),如圖10所示。

圖10 FCN跳躍結(jié)構(gòu)

圖像經(jīng)過1次卷積池化過程,長變?yōu)?/2,寬變?yōu)?/2;圖像通過第2次卷積池化過程后,長變?yōu)?/4,寬變?yōu)?/4;圖像通過第3次卷積池化過程后,長變?yōu)?/8,寬變?yōu)?/8,留下第3次的池化后的featuremap;通過第4次卷積池化過程后圖像長變?yōu)?/16,寬變?yōu)?/16,這時(shí)留下第4次的池化后的特征圖featuremap;在第5次卷積池化過程后圖像長變?yōu)?/32,寬變?yōu)?/32,F(xiàn)CN-32s是直接經(jīng)過5次卷積池化后通過后幾層卷積得到的分割圖像。FCN-16s是第4次保留的featuremap和第5次的卷積池化后的上采樣疊加的圖像,能恢復(fù)一些細(xì)節(jié)。FCN-8s是第3次保留的featuremap和第4、5次上采樣的圖像再次疊加的放大圖像。此時(shí)一些細(xì)節(jié)的特征將保留下來。使用跳級連接結(jié)構(gòu),從卷積的前幾層中提取的特征圖像,分別與后一層的上采樣層連接,然后再進(jìn)行上采樣,經(jīng)過多次采樣后,可以得到與原始圖像大小相同的特征圖像,因此在復(fù)原圖像時(shí),可以獲得更多的和原圖一樣的圖像信息。

2.2 殘差網(wǎng)絡(luò)

圖11 殘差網(wǎng)絡(luò)殘差塊

殘差網(wǎng)絡(luò)是由來自Microsoft Research的4位學(xué)者提出的卷積神經(jīng)網(wǎng)絡(luò),在2015年的ImageNet大規(guī)模視覺識別競賽(imageNet large scale visual recognition challenge,ILSVRC)中獲得了圖像分類和物體識別的優(yōu)勝[5]。殘差網(wǎng)絡(luò)的特點(diǎn)是它有特殊的跳躍結(jié)構(gòu)能幫助學(xué)習(xí)更多的特征,精細(xì)化表述,同時(shí)能解決相應(yīng)的網(wǎng)絡(luò)退化梯度消失的問題。一般網(wǎng)絡(luò),隨著層數(shù)的加深,網(wǎng)絡(luò)會發(fā)生退化,即特征圖像包含的圖像信息會隨層數(shù)的增加而減少,而ResNet的跳躍結(jié)構(gòu)能將之前的層的特征直接映射到后層或者經(jīng)過降維之后疊加到后面的層,從而可以使得模型訓(xùn)練時(shí)學(xué)習(xí)更多的特征,刻畫細(xì)節(jié),最后和原圖一致。

2.3 FCN+Res Net 50模型

為了更好的實(shí)現(xiàn)對建筑物的語義分割,本文利用FCN和ResNet50網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,網(wǎng)絡(luò)結(jié)構(gòu)如圖12所示。

圖12 FCN+ResNet50模型

Conv2_x層是3個(gè)1×1,64、3×3,64、1×1,256的卷積構(gòu)成,Conv3_x層是3個(gè)1×1,128、3×3,128、1×1,512的卷積構(gòu)成,Conv4_x層是3個(gè)1×1,256、3×3,256、1×1,1024的卷積構(gòu)成,Conv5_x層 是3個(gè)1×1,512、3×3,512、1×1,2048的卷積構(gòu)成。

3 數(shù)據(jù)實(shí)驗(yàn)與結(jié)果分析

為了驗(yàn)證模型的有效性,本文使用航拍的地表建筑數(shù)據(jù)進(jìn)行訓(xùn)練,圖像分為有建筑與無建筑,訓(xùn)練測試后將圖像分類,有建筑則進(jìn)行分割圖像。

3.1 數(shù)據(jù)說明

train_mask.csv:存儲圖片的標(biāo)注的rle編碼,run-length encoding,游程編碼或行程是一種不會破壞圖像的無損壓縮的方法。

train文件夾和test文件夾:存儲訓(xùn)練集和測試集圖片,訓(xùn)練集圖片30000張,測試集圖片2500張。

3.2 處理流程

首先對圖片進(jìn)行預(yù)處理,讀取圖片,進(jìn)行rle解碼,然后對圖片進(jìn)行數(shù)據(jù)增廣。數(shù)據(jù)增廣是一種有效的正則化手段,可以防止模型過擬合,在深度學(xué)習(xí)模型的訓(xùn)練過程中被廣泛地運(yùn)用。數(shù)據(jù)增廣的目的是增加數(shù)據(jù)集中樣本的數(shù)據(jù)量,同時(shí)也可以有效增加樣本的語義空間。本文利用albu?mentations對數(shù)據(jù)進(jìn)行增廣,包括對圖片進(jìn)行裁剪、翻轉(zhuǎn)、隨機(jī)裁剪等操作。劃分好訓(xùn)練集和測試集,接著進(jìn)行模型訓(xùn)練,設(shè)置EPOCHES=20,BATCH_SIZE=32,IMAGE_SIZE=512,使 用DiceLoss作為損失函數(shù),每次訓(xùn)練時(shí)進(jìn)行正向傳播,計(jì)算損失,反向傳播。

3.3 實(shí)驗(yàn)結(jié)果

在訓(xùn)練過程中,對訓(xùn)練集和驗(yàn)證集進(jìn)行了劃分,并利用繪圖工具繪制了精度曲線和損失函數(shù)曲線。最終準(zhǔn)確率為82%。損失率為0.101。如圖13所示。

圖13 準(zhǔn)確率損失率

從圖14預(yù)測結(jié)果看出,驗(yàn)證FCN+ResNet50網(wǎng)絡(luò)模型用于地表的建筑物的識別是行之有效的。

圖14 預(yù)測結(jié)果

4 結(jié)語

本文講述了FCN+ResNet的網(wǎng)絡(luò)模型進(jìn)行語義分割的方法,主要是應(yīng)用于航拍的地表建筑識別。介紹了FCN的三大特點(diǎn),接收任意尺寸輸入的全卷積網(wǎng)絡(luò);圖片上采樣;融合深層粗略特征和淺層細(xì)節(jié)特征的跳躍結(jié)構(gòu),ResNet的跳躍結(jié)構(gòu),以及FCN是如何做到語義分割的原理。同時(shí)提出將FCN+ResNet網(wǎng)絡(luò)模型結(jié)合能更好的學(xué)習(xí)深層特征和淺層的精細(xì)特征,最后通實(shí)驗(yàn)進(jìn)行驗(yàn)證,利用航拍的地表建筑圖像數(shù)據(jù)集,使用FCN+REsNet50模型進(jìn)行訓(xùn)練最終得出不錯(cuò)的效果。因此得出FCN_ResNet網(wǎng)絡(luò)用于航拍的地表建筑識別是行之有效的,其也是語義分割表現(xiàn)不錯(cuò)的模型。

猜你喜歡
語義特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
語言與語義
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語義模糊
主站蜘蛛池模板: 久久综合一个色综合网| 国产日韩丝袜一二三区| 亚洲成年人片| 欧美中文字幕在线视频| 91午夜福利在线观看| 精品综合久久久久久97超人| 亚洲永久色| 国产福利一区在线| 国产成人亚洲无码淙合青草| 老司国产精品视频91| 久久中文字幕2021精品| 91毛片网| 中国国产A一级毛片| 综合久久久久久久综合网| 欧美成人免费午夜全| 尤物在线观看乱码| 成人一区在线| 日韩欧美一区在线观看| 国产另类乱子伦精品免费女| 精品视频一区二区三区在线播| 亚洲欧美成人网| 国产成人1024精品| 午夜一区二区三区| 毛片卡一卡二| 72种姿势欧美久久久大黄蕉| 精品无码一区二区三区电影| 久久伊人操| 国产91精品调教在线播放| 99ri国产在线| 一级香蕉视频在线观看| 一级一级一片免费| 自慰高潮喷白浆在线观看| 日韩高清欧美| 亚洲人成网站观看在线观看| 午夜a视频| 91香蕉视频下载网站| av在线无码浏览| 91久久偷偷做嫩草影院精品| 黄色网页在线观看| 亚洲日韩国产精品综合在线观看| av在线无码浏览| 毛片网站免费在线观看| 亚洲一欧洲中文字幕在线| 免费视频在线2021入口| 日韩福利在线视频| 噜噜噜综合亚洲| 亚洲swag精品自拍一区| 四虎成人精品| 青青草原国产一区二区| 国产精品尤物铁牛tv | 福利在线不卡| 久久性妇女精品免费| 波多野吉衣一区二区三区av| 亚洲男人天堂网址| 老司国产精品视频| 亚洲精品成人片在线观看| 免费在线不卡视频| 亚洲人成在线精品| 久久综合丝袜日本网| 国产精品林美惠子在线播放| 一级做a爰片久久毛片毛片| 亚洲第一区欧美国产综合| 精品三级网站| 97久久精品人人做人人爽| 国产一级片网址| 亚洲综合片| 国产精品永久不卡免费视频| 国产精品私拍在线爆乳| 中文国产成人久久精品小说| 精品国产一区91在线| 亚洲最猛黑人xxxx黑人猛交 | 欧美成人h精品网站| 亚洲VA中文字幕| 国产欧美日韩视频怡春院| 亚洲免费福利视频| 免费不卡在线观看av| A级毛片高清免费视频就| 免费A∨中文乱码专区| 亚洲av成人无码网站在线观看| 国产精品网址在线观看你懂的| 亚洲福利视频一区二区| 国产精品久久久久久久久久久久|