999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于高分辨率遙感影像的震災建筑物損毀檢測

2022-04-01 14:16:02
地理空間信息 2022年3期
關鍵詞:區(qū)域

魏 麟

(1.天津市勘察設計院集團有限公司,天津 300191)

地震災害是突發(fā)性重大自然災害之一,據(jù)了解,2000年以來中國因地震災害導致死亡的人數(shù)達數(shù)十萬人,占全球半數(shù)以上[1]。利用遙感技術獲得時效性強、觀測范圍廣、客觀真實的數(shù)據(jù)信息,對震后建筑物倒損信息進行快速評估,從而指導開展震后救援工作,減少生命和財產損失。隨著國產高分系列衛(wèi)星的發(fā)射升空,深度學習和計算機技術的發(fā)展,許多學者利用震前震后災區(qū)高分辨率遙感影像來研究建筑物受損情況[2];季順平[3]等通過對陰影的像素抵償來減少干擾,實現(xiàn)建筑物倒損變化檢測;YUAN J Y[4]利用CNN算法來提取建筑物,取得了較好效果。本文基于QuickBird高分辨率遙感影像,對玉樹地區(qū)震災倒損建筑進行了研究,采用多尺度分割算法和改進的U-Net網絡模型做最優(yōu)探索,從而更快速準確地識別建筑物倒損情況,為救災救援等工作提供數(shù)據(jù)支撐。

1 數(shù)據(jù)來源與研究區(qū)概況

本文采用的QuickBird高分辨率多光譜影像,對地物分析有較好的效果,但同時具有地物信息豐富、數(shù)據(jù)量龐大、陰影和同物異譜現(xiàn)象嚴重等特點。研究區(qū)位于青海省玉樹縣周邊,高分辨率遙感影像拍攝于震前和震后。遙感影像中材質不同的房屋具有不同的光譜特征。本文對建筑物結構、類型進行分析發(fā)現(xiàn),房屋損壞情況與距地震帶的距離和建筑材質有關,低矮、土木構造的建筑物比混凝土構造的建筑物更易發(fā)生倒損。

2 多尺度影像分割的建筑物倒損識別

多尺度分割方法利用不同尺寸的尺度因子實現(xiàn)影像目標的劃分。本文采用影像最優(yōu)尺度算法,以多尺度分割為基礎,融合最小非均勻區(qū)域合并算法(FNEA)[5],完善了尺度的選取規(guī)則。

2.1 影像最優(yōu)分割尺度選取

目前,通常采用試錯法進行尺度選取,但需大量實驗才能選擇最合適的分割尺度[6]。本文采用ESP方式尋找最優(yōu)分割尺度。該方法由Drǎgut等基于局部方差設計,局部方差在評價圖像分割質量方面具有較高的精度[7-8]。根據(jù)尺度的平均局部方差與相鄰尺度之間局部方差的差異來判斷分割效果,并以此選擇最優(yōu)尺度。

式中,LVi為尺度的平均局部方差;ROCi+1為尺度局部方差變化率,其值越大則表明分割效果越好。

本文選擇的分割尺度為70,形狀因子為0.6,緊致度因子為0.8,對建筑房屋進行有效分割,結果如圖1所示。

圖1 最優(yōu)尺度分割結果

2.2 建筑物區(qū)域閾值分類識別

本文以震前影像分割圖(圖1)為例,進行光譜和形狀特征分析。拍攝時段地物亮度普遍較高,建筑物區(qū)域與周邊光譜相似,分割區(qū)域形狀無規(guī)律,分割區(qū)域與地面差別明顯。因此,本文將區(qū)域最大化差異閾值設置為0.245,小于閾值則分為疑似建筑物區(qū)域;再設置光譜亮度閾值為140,大于閾值視作確定建筑物區(qū)域。

由于震后影像存在建筑物倒損,因此本文選擇分割尺度為30,形狀因子為0.7,緊致度因子為0.7進行影像分割。影像中倒塌建筑瓦礫區(qū)、裸土、完好建筑物之間有一定光譜相似性,增加了影像分割的難度。根據(jù)初步提取結果,分割區(qū)域面積在[390'630]區(qū)間,視作疑似建筑物區(qū)域;設置區(qū)域最大化差異閾值為0.24,小于閾值視作確定建筑物區(qū)域。

3 基于改進U-Net模型的建筑物倒損識別

3.1 數(shù)據(jù)預處理

高分辨率遙感影像數(shù)據(jù)需進行輻射校正,并對建筑物標簽數(shù)據(jù)與原始影像數(shù)據(jù)進行幾何校正,使得二者匹配度更高。匹配完成后,將大幅影像剪切成512×512大小的數(shù)據(jù),構建初步樣本庫。實驗研究標簽數(shù)據(jù)包括兩類:白色標記為建筑物區(qū)域,黑色標記為非建筑物區(qū)域(圖2)。

圖2 訓練集與相應標簽數(shù)據(jù)示例

3.2 U-Net神經網絡架構

U-Net神經網絡最初用于醫(yī)學影像的分割,隨著算法研究的深入,也應用到圖像分割分類中。U-Net神經網絡結構是對稱的,其創(chuàng)新點在于下采樣時特征的二次利用,并在上采樣時結合前面該層的特征來提取目標邊緣信息。

3.3 網絡模型的改進與實現(xiàn)

3.3.1 激活函數(shù)

在網絡訓練過程中,由于ReLu函數(shù)[9]的存在,訓練過程中部分神經元失去效用。若輸入值小于0,參數(shù)則無法更新,因此采用ELU函數(shù)進行替換。

式中,α為轉換系數(shù),一般設為1;x為激活前圖像的像素值。

3.3.2 網絡架構加入BN層

在每次卷積運算后,增加一個BN[9]層對各層特征進行歸一化處理,可使網絡訓練過程特征分布均勻,有利于提升模型的容錯能力和加快模型的收斂速度。

3.3.3 防止過度擬合

為了解決網絡模型在訓練過程中過度擬合的問題,本文采用Dropout正則化方法,通過丟棄隱含層中相應數(shù)量的神經元來降低神經網絡的復雜度[10]。

3.3.4 損失函數(shù)的優(yōu)化

本文采用交叉熵損失函數(shù)計算梯度,計算公式為:

受樣本不平衡的影響,少量樣本的類別提取難度較大。影像中建筑物像素占比較小,因此本文加入了dice loss損失函數(shù),計算公式為:

式中,X為標簽數(shù)據(jù)圖像;Y為分割數(shù)據(jù)的預測結果;|X∩Y|為X和Y的公共部分;|X|、|Y|分別為X、Y的元素量。

3.3.5 訓練過程中增強影像數(shù)據(jù)

由于提供的數(shù)據(jù)量有限,因此研究過程中采用多種數(shù)據(jù)增強操作進行數(shù)據(jù)量擴充,如翻轉維度、旋轉圖像等。訓練完畢后,預測時也需對數(shù)據(jù)進行增強,從而提高分割結果精度。

3.4 訓練參數(shù)設置

本文采用Adam和SGD兩種神經網絡優(yōu)化器,SGD更新時對每個樣本進行梯度更新,更新頻繁導致?lián)p失函數(shù)震蕩較大,學習率也會遞減;Adam以自適應方式計算神經網絡各參數(shù)的學習率,在優(yōu)化過程中保存前面計算過的梯度的衰減平均值,具有較快的收斂速度,但訓練后期會出現(xiàn)波動較大的現(xiàn)象,最終難以達到全局最優(yōu)解。兩種優(yōu)化器訓練得到的損失值曲線如圖3所示。

圖3 兩種優(yōu)化器訓練得到的損失值曲線

4 研究結果分析

4.1 兩種方法的實現(xiàn)效果

4.1.1 多尺度分割方法

本文采用分割尺度為60、形狀因子為0.5、緊致度因子為0.6的影像分割圖進行閾值分類,得到建筑物的提取圖如圖4所示,可以看出,分割分類結果具有很大隨機性,圖4b區(qū)域的建筑物識別效果優(yōu)于圖4c區(qū)域,后續(xù)仍需對各分割尺度數(shù)值和分類閾值做進一步優(yōu)化改進。

圖4 震前分類結果

多尺度分割算法建筑物倒損識別結果如圖5所示,黃色部分為震中倒損建筑區(qū)域。由于震前、震后影像中的建筑物提取均存在誤差,因此建筑物倒損識別效果不佳。

圖5 多尺度分割算法建筑物倒損識別結果

4.1.2 改進的U-Net網絡模型分割

基于改進的U-Net網絡模型提取建筑物的精度和準確度較高,但邊緣提取效果不佳,也存在少量誤提現(xiàn)象,后續(xù)需對模型參數(shù)做優(yōu)化,改進分割分類效果。

4.2 建筑物提取精度評價

為了便于比較建筑識別效果,本文對高分辨率影像進行人工分類標記,記為真值,如圖6所示,黃色標記為正常建筑區(qū)域,紅色標記為倒損建筑區(qū)域。

圖6 建筑物人工標記真值

本文將建筑物提取結果與真值進行比較,采用總體精度、用戶精度和Kappa系數(shù)進行精度評價(表1)。總體精度為正確分類的像元數(shù)與總像元數(shù)的比值,用戶精度為正確分類的像元數(shù)與真值像元數(shù)的比值,Kappa系數(shù)是反映分割結果與真值之間一致性的客觀評價指標。由表1可知,基于U-Net神經網絡分割得到的建筑物精度較高,可對震害監(jiān)測有相當好的效果。

表1 建筑物提取精度評價表

4.3 建筑物倒損識別精度評價

本文采用總體精度、用戶精度和Kappa系數(shù)3個評價指標對建筑物倒損識別進行精度評價,結果如表2所示,可以看出,基于U-Net神經網絡分割的識別精度較高,由于其進行了大量的數(shù)據(jù)標記訓練,因此建筑物提取精度較高;多尺度分割算法也有較高的建筑物倒損識別精度,這是由設置合適的閾值分類達到的效果。

表2 建筑物倒損識別精度評價表

5 結語

本文以玉樹地區(qū)為研究區(qū),對震后建筑物倒損區(qū)域的識別方法進行了研究。采用兩種方法對建筑物提取和倒損識別進行了實驗,并利用混淆矩陣橫向比較了各方法識別結果的精度。結果表明,利用改進的U-Net神經網絡方法進行建筑物倒損識別的總體精度、用戶精度、Kappa系數(shù)均較高,精度可達80%以上,能為有關部門災害決策提供數(shù)據(jù)支撐。然而,本文采用的兩種方法都只是對現(xiàn)有方法的實現(xiàn)和較小程度的優(yōu)化,還存在一些挑戰(zhàn)和改進,如影像拍攝時間不同使得同一地區(qū)震前、震后影像分割結果有較大差異;深度學習方法依賴于海量的樣本,樣本的制作比較耗費人力物力,制約了模型的提取精度;對于遙感影像的綜合處理,還可加入高程數(shù)據(jù)、對房屋高度進行監(jiān)測,從而實現(xiàn)更精確的建筑物倒損識別。

猜你喜歡
區(qū)域
分割區(qū)域
探尋區(qū)域創(chuàng)新的密碼
科學(2020年5期)2020-11-26 08:19:22
基于BM3D的復雜紋理區(qū)域圖像去噪
軟件(2020年3期)2020-04-20 01:45:18
小區(qū)域、大發(fā)展
商周刊(2018年15期)2018-07-27 01:41:20
論“戎”的活動區(qū)域
敦煌學輯刊(2018年1期)2018-07-09 05:46:42
區(qū)域發(fā)展篇
區(qū)域經濟
關于四色猜想
分區(qū)域
公司治理與技術創(chuàng)新:分區(qū)域比較
主站蜘蛛池模板: 91欧美亚洲国产五月天| 欧美一级高清片欧美国产欧美| 欧美久久网| 色哟哟国产精品一区二区| 久久动漫精品| 国产乱论视频| 久久综合五月| 亚洲区第一页| 国产精品漂亮美女在线观看| 欧美不卡视频一区发布| 成人a免费α片在线视频网站| 在线看片免费人成视久网下载| 精品国产aⅴ一区二区三区| 就去吻亚洲精品国产欧美| 美女裸体18禁网站| 毛片免费高清免费| 久久综合激情网| 久久福利片| 久久久久久久久18禁秘| 欧美.成人.综合在线| 亚洲精品成人片在线播放| 日韩a级毛片| 丁香五月亚洲综合在线| 欧美精品高清| 第一页亚洲| 国产精品亚洲天堂| 亚洲系列中文字幕一区二区| 亚洲国内精品自在自线官| 2022国产91精品久久久久久| 日韩欧美中文在线| 国产成人精品视频一区视频二区| 中文字幕丝袜一区二区| 国产理论精品| 狠狠做深爱婷婷久久一区| 欧美中文字幕在线播放| 精品久久久久久中文字幕女| 久久无码免费束人妻| 欧美一区福利| 男人天堂亚洲天堂| 亚洲欧洲自拍拍偷午夜色| 国产高清无码第一十页在线观看| 国产亚洲精久久久久久无码AV| 国产精品成人免费视频99| 色婷婷视频在线| 中文无码日韩精品| 精品第一国产综合精品Aⅴ| 最新亚洲av女人的天堂| 亚洲一区黄色| 日韩欧美一区在线观看| 中文字幕日韩欧美| 国产又爽又黄无遮挡免费观看| 好吊妞欧美视频免费| 国产精品xxx| 国产成人精品亚洲日本对白优播| 国产欧美又粗又猛又爽老| 一本大道AV人久久综合| 日本欧美在线观看| 找国产毛片看| 久久亚洲天堂| 亚洲中文字幕精品| 午夜丁香婷婷| 精品国产福利在线| 亚洲嫩模喷白浆| 影音先锋亚洲无码| 国产在线91在线电影| 最新日韩AV网址在线观看| 亚洲中文字幕国产av| 国产va在线| 中文字幕亚洲无线码一区女同| 99久久无色码中文字幕| 秋霞午夜国产精品成人片| 五月天福利视频| 精品国产香蕉伊思人在线| 婷婷色一二三区波多野衣| 国产免费一级精品视频| 日韩经典精品无码一区二区| 精品一区二区三区中文字幕| 亚洲男人的天堂在线观看| 亚洲天堂免费| 九九精品在线观看| 在线免费不卡视频| 国产视频自拍一区|