魏 麟
(1.天津市勘察設計院集團有限公司,天津 300191)
地震災害是突發(fā)性重大自然災害之一,據(jù)了解,2000年以來中國因地震災害導致死亡的人數(shù)達數(shù)十萬人,占全球半數(shù)以上[1]。利用遙感技術獲得時效性強、觀測范圍廣、客觀真實的數(shù)據(jù)信息,對震后建筑物倒損信息進行快速評估,從而指導開展震后救援工作,減少生命和財產損失。隨著國產高分系列衛(wèi)星的發(fā)射升空,深度學習和計算機技術的發(fā)展,許多學者利用震前震后災區(qū)高分辨率遙感影像來研究建筑物受損情況[2];季順平[3]等通過對陰影的像素抵償來減少干擾,實現(xiàn)建筑物倒損變化檢測;YUAN J Y[4]利用CNN算法來提取建筑物,取得了較好效果。本文基于QuickBird高分辨率遙感影像,對玉樹地區(qū)震災倒損建筑進行了研究,采用多尺度分割算法和改進的U-Net網絡模型做最優(yōu)探索,從而更快速準確地識別建筑物倒損情況,為救災救援等工作提供數(shù)據(jù)支撐。
本文采用的QuickBird高分辨率多光譜影像,對地物分析有較好的效果,但同時具有地物信息豐富、數(shù)據(jù)量龐大、陰影和同物異譜現(xiàn)象嚴重等特點。研究區(qū)位于青海省玉樹縣周邊,高分辨率遙感影像拍攝于震前和震后。遙感影像中材質不同的房屋具有不同的光譜特征。本文對建筑物結構、類型進行分析發(fā)現(xiàn),房屋損壞情況與距地震帶的距離和建筑材質有關,低矮、土木構造的建筑物比混凝土構造的建筑物更易發(fā)生倒損。
多尺度分割方法利用不同尺寸的尺度因子實現(xiàn)影像目標的劃分。本文采用影像最優(yōu)尺度算法,以多尺度分割為基礎,融合最小非均勻區(qū)域合并算法(FNEA)[5],完善了尺度的選取規(guī)則。
目前,通常采用試錯法進行尺度選取,但需大量實驗才能選擇最合適的分割尺度[6]。本文采用ESP方式尋找最優(yōu)分割尺度。該方法由Drǎgut等基于局部方差設計,局部方差在評價圖像分割質量方面具有較高的精度[7-8]。根據(jù)尺度的平均局部方差與相鄰尺度之間局部方差的差異來判斷分割效果,并以此選擇最優(yōu)尺度。

式中,LVi為尺度的平均局部方差;ROCi+1為尺度局部方差變化率,其值越大則表明分割效果越好。
本文選擇的分割尺度為70,形狀因子為0.6,緊致度因子為0.8,對建筑房屋進行有效分割,結果如圖1所示。

圖1 最優(yōu)尺度分割結果
本文以震前影像分割圖(圖1)為例,進行光譜和形狀特征分析。拍攝時段地物亮度普遍較高,建筑物區(qū)域與周邊光譜相似,分割區(qū)域形狀無規(guī)律,分割區(qū)域與地面差別明顯。因此,本文將區(qū)域最大化差異閾值設置為0.245,小于閾值則分為疑似建筑物區(qū)域;再設置光譜亮度閾值為140,大于閾值視作確定建筑物區(qū)域。
由于震后影像存在建筑物倒損,因此本文選擇分割尺度為30,形狀因子為0.7,緊致度因子為0.7進行影像分割。影像中倒塌建筑瓦礫區(qū)、裸土、完好建筑物之間有一定光譜相似性,增加了影像分割的難度。根據(jù)初步提取結果,分割區(qū)域面積在[390'630]區(qū)間,視作疑似建筑物區(qū)域;設置區(qū)域最大化差異閾值為0.24,小于閾值視作確定建筑物區(qū)域。
高分辨率遙感影像數(shù)據(jù)需進行輻射校正,并對建筑物標簽數(shù)據(jù)與原始影像數(shù)據(jù)進行幾何校正,使得二者匹配度更高。匹配完成后,將大幅影像剪切成512×512大小的數(shù)據(jù),構建初步樣本庫。實驗研究標簽數(shù)據(jù)包括兩類:白色標記為建筑物區(qū)域,黑色標記為非建筑物區(qū)域(圖2)。

圖2 訓練集與相應標簽數(shù)據(jù)示例
U-Net神經網絡最初用于醫(yī)學影像的分割,隨著算法研究的深入,也應用到圖像分割分類中。U-Net神經網絡結構是對稱的,其創(chuàng)新點在于下采樣時特征的二次利用,并在上采樣時結合前面該層的特征來提取目標邊緣信息。
3.3.1 激活函數(shù)
在網絡訓練過程中,由于ReLu函數(shù)[9]的存在,訓練過程中部分神經元失去效用。若輸入值小于0,參數(shù)則無法更新,因此采用ELU函數(shù)進行替換。

式中,α為轉換系數(shù),一般設為1;x為激活前圖像的像素值。
3.3.2 網絡架構加入BN層
在每次卷積運算后,增加一個BN[9]層對各層特征進行歸一化處理,可使網絡訓練過程特征分布均勻,有利于提升模型的容錯能力和加快模型的收斂速度。
3.3.3 防止過度擬合
為了解決網絡模型在訓練過程中過度擬合的問題,本文采用Dropout正則化方法,通過丟棄隱含層中相應數(shù)量的神經元來降低神經網絡的復雜度[10]。
3.3.4 損失函數(shù)的優(yōu)化
本文采用交叉熵損失函數(shù)計算梯度,計算公式為:

受樣本不平衡的影響,少量樣本的類別提取難度較大。影像中建筑物像素占比較小,因此本文加入了dice loss損失函數(shù),計算公式為:

式中,X為標簽數(shù)據(jù)圖像;Y為分割數(shù)據(jù)的預測結果;|X∩Y|為X和Y的公共部分;|X|、|Y|分別為X、Y的元素量。
3.3.5 訓練過程中增強影像數(shù)據(jù)
由于提供的數(shù)據(jù)量有限,因此研究過程中采用多種數(shù)據(jù)增強操作進行數(shù)據(jù)量擴充,如翻轉維度、旋轉圖像等。訓練完畢后,預測時也需對數(shù)據(jù)進行增強,從而提高分割結果精度。
本文采用Adam和SGD兩種神經網絡優(yōu)化器,SGD更新時對每個樣本進行梯度更新,更新頻繁導致?lián)p失函數(shù)震蕩較大,學習率也會遞減;Adam以自適應方式計算神經網絡各參數(shù)的學習率,在優(yōu)化過程中保存前面計算過的梯度的衰減平均值,具有較快的收斂速度,但訓練后期會出現(xiàn)波動較大的現(xiàn)象,最終難以達到全局最優(yōu)解。兩種優(yōu)化器訓練得到的損失值曲線如圖3所示。

圖3 兩種優(yōu)化器訓練得到的損失值曲線
4.1.1 多尺度分割方法
本文采用分割尺度為60、形狀因子為0.5、緊致度因子為0.6的影像分割圖進行閾值分類,得到建筑物的提取圖如圖4所示,可以看出,分割分類結果具有很大隨機性,圖4b區(qū)域的建筑物識別效果優(yōu)于圖4c區(qū)域,后續(xù)仍需對各分割尺度數(shù)值和分類閾值做進一步優(yōu)化改進。

圖4 震前分類結果
多尺度分割算法建筑物倒損識別結果如圖5所示,黃色部分為震中倒損建筑區(qū)域。由于震前、震后影像中的建筑物提取均存在誤差,因此建筑物倒損識別效果不佳。

圖5 多尺度分割算法建筑物倒損識別結果
4.1.2 改進的U-Net網絡模型分割
基于改進的U-Net網絡模型提取建筑物的精度和準確度較高,但邊緣提取效果不佳,也存在少量誤提現(xiàn)象,后續(xù)需對模型參數(shù)做優(yōu)化,改進分割分類效果。
為了便于比較建筑識別效果,本文對高分辨率影像進行人工分類標記,記為真值,如圖6所示,黃色標記為正常建筑區(qū)域,紅色標記為倒損建筑區(qū)域。

圖6 建筑物人工標記真值
本文將建筑物提取結果與真值進行比較,采用總體精度、用戶精度和Kappa系數(shù)進行精度評價(表1)。總體精度為正確分類的像元數(shù)與總像元數(shù)的比值,用戶精度為正確分類的像元數(shù)與真值像元數(shù)的比值,Kappa系數(shù)是反映分割結果與真值之間一致性的客觀評價指標。由表1可知,基于U-Net神經網絡分割得到的建筑物精度較高,可對震害監(jiān)測有相當好的效果。

表1 建筑物提取精度評價表
本文采用總體精度、用戶精度和Kappa系數(shù)3個評價指標對建筑物倒損識別進行精度評價,結果如表2所示,可以看出,基于U-Net神經網絡分割的識別精度較高,由于其進行了大量的數(shù)據(jù)標記訓練,因此建筑物提取精度較高;多尺度分割算法也有較高的建筑物倒損識別精度,這是由設置合適的閾值分類達到的效果。

表2 建筑物倒損識別精度評價表
本文以玉樹地區(qū)為研究區(qū),對震后建筑物倒損區(qū)域的識別方法進行了研究。采用兩種方法對建筑物提取和倒損識別進行了實驗,并利用混淆矩陣橫向比較了各方法識別結果的精度。結果表明,利用改進的U-Net神經網絡方法進行建筑物倒損識別的總體精度、用戶精度、Kappa系數(shù)均較高,精度可達80%以上,能為有關部門災害決策提供數(shù)據(jù)支撐。然而,本文采用的兩種方法都只是對現(xiàn)有方法的實現(xiàn)和較小程度的優(yōu)化,還存在一些挑戰(zhàn)和改進,如影像拍攝時間不同使得同一地區(qū)震前、震后影像分割結果有較大差異;深度學習方法依賴于海量的樣本,樣本的制作比較耗費人力物力,制約了模型的提取精度;對于遙感影像的綜合處理,還可加入高程數(shù)據(jù)、對房屋高度進行監(jiān)測,從而實現(xiàn)更精確的建筑物倒損識別。