999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于U型神經網絡兩違疑似圖斑識別模型研究

2021-11-25 09:26:54鐘洪德
福建建筑 2021年10期
關鍵詞:模型

鐘洪德

(福州市勘測院 福建福州 350108)

0 引言

在我國城鎮化進程中,違法用地、違法建筑現象(簡稱兩違)時有發生,傳統實地巡查監管手段工作量大,耗時長,無法滿足現階段土地執法工作的需要。近年來,人們嘗試遙感影像[1]制作正射影像圖,或是采用傾斜攝影測量技術[2]建立實景真三維模型,代替人工實地巡查,極大減輕工作強度。但兩違現象的發現仍然依靠人工比對識別。

U-Net神經網絡在醫學治療分析方面表現突出[3-4],后來被運用到語義分割的各個方向,例如道路識別[5]、建筑物檢測[6]、水位監測[7]等。近兩年U-Net 開始應用于遙感影像分類領域,一些研究人員嘗試多種數據源與原始影像結合,提高U-Net模型的分類精度,在建筑物分類上取得了較好效果[8]。

本文以福州市無人機兩違監測影像為例,利用U-Net對樣本數據進行訓練,建立了兩違疑似圖斑自動識別模型,在GIS技術支持下可對大面積正射影像進行自動搜索,準確標定兩違疑似圖斑的位置和范圍,極大提高了兩違監測的自動化水平和工作效率。

1 U-Net神經網絡原理

1.1 U-Net模型

U-Net模型由壓縮通道(contracting path)和擴展通道(expansive path)組成,該模型外觀呈“U”型,非常形象[9]。U-Net具有如下特點:

①使用全卷積神經網絡,比較適應多種尺寸的輸入圖像。

②有別于一般卷積神經網絡只能回答是什么,U-Net可完成圖像分割,特別適合需要準確知道疑似圖斑位置和范圍的應用場景。

③能對有限的數據進行有效的處理和利用。

④處理速度較快。

1.2 Pytorch框架

為了幫助基于神經網絡架構的開發,Google、Facebook、Microsoft等公司開源了Tensorflow、Pytorch、CNTK等神經網絡框架。其中Pytorch是一種Python接口的深度學習框架,不僅可以實現GPU加速,還可以支持動態神經網絡。相比于其他的深度學習框架,Pytorch允許進行動態定義圖的操作,提供最大的靈活性和運行速度,因此受到了神經網絡研究者們的青睞。

2 訓練數據處理

2.1 數據來源

實驗數據來自福州市勘測院“玉屏龍江街道兩違監測項目”。該項目于近期采用無人機進行低空高分辨率(0.1)攝影,實驗數據為經過糾正、鑲嵌、勻色制作的工作底圖,以及人工識別的疑似圖斑矢量數據,以此為依據生成訓練數據。

(1)玉屏龍江街道片區正射影像圖數據,如圖1所示。

圖1 原始影像 圖2 人工識別疑似圖斑

(2)人工判別的疑似圖斑shp格式多邊形數據,如圖2所示。

2.2 訓練數據加工

U型神經網絡需要準備兩種數據,分別是樣本數據和標簽數據。

2.2.1 生成Rgb訓練數據

Rgb訓練樣本數據以人工識別圖斑shp數據為依據,使用ArcToolbox中的Export Training Data For Deep Learning(為深度學習輸出培訓數據)工具,在影像數據上直接提取。具體步驟如下:

(1)ArcMap加載疑似圖斑與影像圖,操作開始前,先對玉屏龍江街道片區疑似圖斑shp的屬性進行添加字段Classname與Classvalue,以保證后續的步驟順利進行。

(2)啟動Export Training Data For Deep Learning工具。

(3)樣本規格為128×128,步長為64×64,步長為樣本寬度的一半,這樣剛好有一個樣本中心處于相鄰樣本的邊界,使取樣有較好覆蓋度。

(4)經過處理,得到樣本文件夾,包含images、lables、stats。其中images中含有大量tif格式的圖片,如圖3所示,它們保留完整的地理坐標信息,為后續柵格疊加計算提供了條件。

圖3 訓練樣本數據

2.2.2 生成標簽數據

先將疑似圖斑矢量多邊形數據轉換為同分辨率的柵格數據,經過重分類后得到0-1二值化數據柵格,其中0像元代表正常像元,1像元代表疑似像元。

然后將二值化柵格分別與3.2.1得到的訓練樣本圖片做“乘法”或“加法”,得到與訓練樣本圖片對應的標簽圖片。如果采用“乘法”,那么結果需要做二值化處理(所有非0值重分類為1);如果采用“加法”,則在做加法前,應將訓練樣本圖片重分類成純0值柵格數據。

由于每個樣本數據對應一個標簽數據,數量較大,本文采用Arcgis的model builder構建的批處理模型完成。這個模型用到重分類工具(Reclassify)與加法工具(plus),在重分類之前再加上一個柵格迭代器進行批處理循環。輸出的標簽數據如圖4所示。

圖4 標簽數據

3 模型訓練和評價

3.1 U-Net模型的構建

(1)定義卷積類class double_conv(),包括2個“二維卷積”+“二維正則化”+“ReLU激活層”,邏輯結構如下:多個小個模塊用nn.Sequential()函數按順序執行,減少了很多步驟。

=>nn.Conv2d=>nn.BatchNorm2d=>nn.ReLU

=>nn.Conv2d=>nn.BatchNorm2d=>nn.ReLU

(2)定義下采樣類class down(),包括double_conv卷積層和nn.Maxpool2d池化層。

=>double_conv=>nn.Maxpool2d

(3)定義上采樣類class up(),根據情況,使用nn.Upsample()函數進行上采樣,或用到nn.ConvTranspose2d()函數進行逆卷積層操作。

(4)定義輸入輸出卷積層,class incov()、分別包含double_conv。class outconv(),包含標準二位卷積層nn.covn2d。

(5)定義class UNet,包括一個輸入層,4個下采樣,4個上采樣,一個輸出層。

3.2 模型訓練

將前期準備好的訓練數據隨機選取90%作為訓練集,其他10%作為驗證集。

模型訓練使用Pytorch 1.1框架軟件,損失函數采用由torch.nn.functional模塊提供的nn.MSELoss()函數,而優化函數是由torch.optim模塊提供。采用CDUA模式在NVIDIA Quadro M2200 gpu 上完成,訓練時間大約3 h。

訓練完成后,用模型算出驗證集的預測結果數據。

本文分別用32×32、64×64、128×128、256×256、512×512規格RGB訓練樣本完成5種模型的訓練,之后用模型對驗證集輸出預測數據,如圖5所示。

圖5 128×128預測數據

3.3 模型評價

為評價模型的準確度,將驗證集的預測結果與人工標定結果進行對比分析:

(1)無坐標系預測圖片加入坐標系信息,使預測數據的位置與驗證集標簽數據對齊;

(2)對驗證集標簽數據做歸一化處理,使得標簽數據與預測數據單位統一;

(3)預測圖片與標簽圖片進行減法計算,其中value為0的是識別正確的像素,value大于0或小于0的是識別錯誤的像素,最后計算正確像素個數占每張圖片的總像數的百分比,即為所求準確度。

對每種規格的驗證集進行以上操作,得出每一標簽圖片“兩違圖斑像素”精確率和召回率。如表1所示。32×32規格平均精確率72%最高,128×28規格平均召回率90%最高;256×256和512×512規格樣本精確率十分接近(約為66%),但512×512規格召回率急劇下降,說明U-Net模型對樣本規格選取較敏感。

表1 5種規格的平均準確度 %

因為“兩違圖斑像素”召回率表征了遺漏疑似圖斑的概率。實際應用時出現遺漏人工難以彌補,但精確率偏低代表發現的疑似兩違圖斑中包含較多正常圖斑被誤判,這個可以通過人工甄別剔除。因此:樣本尺寸以選取128×128為最優。

4 實例驗證

4.1 模型應用步驟

模型應用時只能接受規格化的圖片,因此不能把衛星遙感影像直接放入U-Net模型直接識別,因此,我們將遙感影像進行格網化處理。步驟如下:

(1)利用漁網工具生成網格得到漁網多邊形,使用工具:ArcToolbox→Data Management Tools→Feature Class→Create Fishnet。

(2)用漁網多邊形切割影像生成一系列小圖片,用到分割影像工具(Split Raster)進行此項操作。

(3)用已經訓練好的U型神經網絡模型,分別對切分出來的小塊圖片進行識別,生成對應的預測圖片集。

(4)依據輸入圖片坐標信息還原預測圖片的坐標信息。

(5)將所有預測圖拼接在一起得到總預測圖,用工具Mosaic to New Raster進行此項操作。

(6)在總預測圖上提取疑似圖斑的邊界。

(7)最后輸出成果圖。

4.2 實例驗證分析

為驗證模型的有效性,按上述步驟對福州市高新區2021年4月無人機正射影像圖進行自動識別,預測效果如圖6所示。

圖6 預測效果圖

對拼接好的總預測圖與人工判讀的兩違疑似圖斑柵格數據進行比對分析,結果表明:位置準確率達到95%(即在人工判定有問題的地方均有預測圖斑),精確率達到51%,有一些正常圖片出現誤判現象。

5 結語

本論文U型神經網絡建立了兩違疑似圖斑識別模型,包括:利用人工標識的疑似圖斑矢量數據制作訓練樣本數據、設計識別模型、進行模型訓練及評價,進而利用該模型對其他影像進行自動識別等。主要結論如下:

(1)模型對樣本規格敏感,128×128規格訓練得到模型為最優。

(2)試驗表明,該模型可代替人工發現兩違疑似圖斑,從而減輕人工作業的強度,提高土地執法部門的工作效率。

(3)由于疑似圖斑精確度難以同時提高,應用中發現有正常圖片被抓取。這類問題可通過人工甄別把關,或由需國土執法人員實地核實后剔除。

本論文是運用深度學習人工智能技術發現兩違疑似圖斑的有益嘗試,對于提高判讀工作效率和自動化水平,以及減輕人工作業勞動強度具有重要實際意義。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 91美女视频在线| 亚洲综合激情另类专区| 国产一区二区福利| 综合色婷婷| 美美女高清毛片视频免费观看| 亚洲天堂啪啪| 亚洲国产欧美自拍| 精品综合久久久久久97超人该| a天堂视频| 国产91熟女高潮一区二区| 亚洲丝袜中文字幕| 18禁高潮出水呻吟娇喘蜜芽| 日韩无码视频播放| 午夜福利免费视频| 99色亚洲国产精品11p| 亚洲成人手机在线| 99成人在线观看| 精品午夜国产福利观看| 青青热久麻豆精品视频在线观看| 亚洲精品无码日韩国产不卡| 欧美精品成人| 91最新精品视频发布页| 亚洲综合香蕉| 高清亚洲欧美在线看| 秘书高跟黑色丝袜国产91在线 | 黑色丝袜高跟国产在线91| 亚洲天堂视频在线播放| 欧美在线三级| 欧美日韩一区二区三| 国产精品一区在线麻豆| 国产欧美精品一区二区| 欧美在线天堂| 日韩成人在线视频| 国产微拍精品| 亚洲最新网址| 99偷拍视频精品一区二区| 亚洲最大情网站在线观看| 人妻中文字幕无码久久一区| 伊人激情综合| 国产精品嫩草影院av| 国产成人超碰无码| 午夜精品国产自在| 日韩免费成人| 国产尤物在线播放| 毛片网站观看| 8090午夜无码专区| 日本高清成本人视频一区| 国产视频资源在线观看| 伊人久综合| 成人在线综合| 综合五月天网| 手机成人午夜在线视频| 多人乱p欧美在线观看| 亚洲天堂网2014| 日本国产精品一区久久久| 九色在线观看视频| 这里只有精品在线播放| 四虎亚洲国产成人久久精品| 精品一区二区三区无码视频无码| 国产91无码福利在线| 亚洲国产精品不卡在线| 成人免费黄色小视频| 欧美亚洲日韩不卡在线在线观看| 久久中文字幕av不卡一区二区| 久久精品丝袜| 青青网在线国产| 亚洲无码高清一区| 香蕉视频国产精品人| 97久久精品人人| 欧美日韩国产在线播放| 日韩黄色大片免费看| 亚洲人妖在线| 国产美女主播一级成人毛片| 国产欧美日韩综合在线第一| 风韵丰满熟妇啪啪区老熟熟女| 国产在线拍偷自揄观看视频网站| 久久精品aⅴ无码中文字幕| 亚洲人成在线免费观看| 欧美一级爱操视频| 人妻出轨无码中文一区二区| 91精品国产情侣高潮露脸| 欧美色视频网站|