李海江,劉耀林,譚榮輝,邱麗娟
(1.武漢大學資源與環境科學學院,湖北 武漢 430079;2.武漢大學地理信息系統教育部重點實驗室,湖北 武漢 430079)
?
一種新的基于高分辨率全色影像的城市建成區邊界提取算法
李海江1,2,劉耀林1,2,譚榮輝1,2,邱麗娟1,2
(1.武漢大學資源與環境科學學院,湖北 武漢 430079;2.武漢大學地理信息系統教育部重點實驗室,湖北 武漢 430079)
針對城市建成區在高分辨率全色影像中的特點,提出了一種城市建成區邊界提取的新算法。該算法首先基于邊緣檢測算子提取城市建成區的邊緣密度特征,然后基于灰度共生矩陣和神經網絡算法提取其紋理特征,最后結合多種數學形態學的方法提取出城市建成區邊界。最后以武漢市為例,采用資源三號全色影像對比傳統提取算法與本文提出的新算法,結果表明本文算法精度有明顯提高,提取正確率能達到90%以上,且誤判率和漏判率較低。
邊緣檢測算子;灰度共生矩陣;神經網絡;數學形態學;資源三號衛星全色影像
城市建成區的范圍反映的是一個城市發展的規模,是城市規劃中一個十分重要的指標。城市建成區的面積是計算城市的人口密度、公共設施水平、城市單位面積產值和城市擴張系數等一系列指標的基礎[1]。準確提取城市建成區邊界是研究城市空間格局變化、城市擴張和城市驅動力分析等問題的關鍵,對城市經濟發展、城市規劃、土地資源管理等許多方面有著重要的作用[2-5]。
目前關于城市建成區范圍的概念還沒有統一的標準,不同學者對城市建成區的理解也存在差異[6-10]。王穎芳對建成區的概念作了深入分析,認為建成區前綴以“城鎮”為宜,具體可以細化為“城區建成區”和“鎮區建成區”,其范圍的提取需要在遙感影像提取的基礎上根據外業調查等數據進行修正[1]。在僅以遙感影像為數據源進行研究的前提下,本文所述的“城市建成區邊界”僅指通過遙感影像提取的城市建成區邊界,即城市行政轄區范圍內實際建設發展起來的、相對集中分布的城鎮建設用地的邊界。
以往通過人工方式提取城市建成區邊界雖然準確率高,但效率低且成本耗費大,導致了數據更新延遲等問題。近年來關于全色影像上城市建成區的提取研究逐漸增多,這些研究中所指的“城區”和本文所指的“城市建成區”內涵一致。這些方法大致可以分為兩類。一類是基于區域增長算法的半自動提取方法,它首先需要人為確定城市建成區的數目,為每一塊城市建成區人為設置種子點或區域,其算法的關鍵在于確定用于分割識別的相似性判據[11-13]。這類算法對居民地這類單一類型的提取效果較好,但城市建成區是由建筑物、道路、綠地、水域及空地等多種地物類型相互延續、相互交錯而構成的復雜混合體,僅通過選擇種子并設置合適的閾值進行區域生長十分困難。另一類方法則主要是基于分類的思想,根據光譜和紋理特征進行分類并作進一步處理以達到提取城市建成區的目的。文貢堅等采用分層方法,首先根據紋理能量測度提取出候選區域,然后使用建筑物的直線方向特性和邊緣密度特性進行提取,但該方法只適于單個中心且空地與水域面積較少的全色影像[14]。陳雁等針對中低分辨率影像的紋理特征,提出基于模糊集理論和貝葉斯準則的分類算法,算法速度較快,但該算法對高分辨率影像的效果未知[15]。陳洪等使用Gabor濾波的方法,自動確定最佳中心頻率來檢測城區,是一種非監督分類方法,無須訓練樣本,但該方法需要計算多個中心頻率下整幅影像在4個方向上的濾波,這對一個城市區域大小的高分辨率遙感圖像而言運算量太大,不適用于城市建成區邊界的提取[16]。
針對以上方法存在的問題,本研究提出了一種針對高分辨率全色影像的城市建成區邊界提取新算法。該算法首先分別提取出城市建成區的邊緣密度特征和紋理特征;然后結合數學形態學方法提取出城市建成區邊界;最后以具有多個中心且具有較大水域面積的武漢市為例,采用資源三號全色影像進行試驗以驗證該算法的有效性。
城市建成區在全色影像中主要具有如下特點[14-15]:
1) 平面區域的連通性。城市建成區表現在全色影像中是一個或多個二維平面區域,每個區域具有連通性,且連通面積通常較大。
2) 邊緣密度特征顯著。由于城市建成區內除去少部分空地、水域和植被等,大部分是建筑物,其分布和走向通常比較規律且具有豐富的邊緣點信息,因而城市建成區的邊緣密度值往往比非城市建成區大得多。
3) 紋理特征顯著。人肉眼能直觀地識別出全色影像中的城市建成區,其重要原因是城市建成區具有特定的紋理特征。通常而言,城市建成區相對于其周圍區域灰度變化通常更加劇烈,相鄰像元的灰度反差效果更加明顯,紋理更加粗糙。
1.紋理特征提取
在全色影像中,紋理表示影像顯示的重復性結構,反映了灰度的空間變化,是遙感圖像目標識別的一個基本特征[17]。目前常用的紋理描述法主要分為統計法、結構法和頻譜法3種[18]。其中灰度共生矩陣(gray level co-occurrence matrix,GLCM)屬于統計方法中的一種常用方法,它反映了不同像元相對位置的空間信息,在一定程度上也反映了紋理影像中各灰度級在空間上的分布特性[19-20]。
為了避免灰度級數較大而引起的GLCM維數太大,在求GLCM之前一般將灰度級壓縮為一定級數,一般將灰度級設為16級。此外還需設置計算的步長、方向及掃描窗口的大小。為了充分利用影像的分辨率信息,將步長d設為1。掃描的窗口越大,得到的紋理信息越不清晰,且計算時間越長,試驗中選擇3×3大小的窗口進行計算。紋理方向一般設為0°、45°、90°和135° 4個方向,試驗中取這4個方向的均值進行計算。


表1 灰度共生矩陣紋理特征統計量
2.神經網絡分類
本研究使用誤差反向傳播前饋網絡,即BP(back propagation)網絡,其包含1個輸入層、若干個隱含層和1個輸出層。對于3層BP網絡的結構,如果輸入層、隱含層和輸出層的單元個數分別為n、q、m,則該3層網絡可表示為BP(n,q,m),利用該網絡可實現n維輸入向量Xn=[X1X2…Xn]T到m維輸出向量Xm=[X1X2…Xm]T的非線性映射。BP網絡采用誤差反向傳播算法,能根據輸出值與目標輸出計算誤差,再由誤差根據某種準則逐層修改權值,如此反復使誤差達到指定要求[21]。
BP網絡輸入層是作為外部數據進入網絡提供的接口,節點個數為輸入變量個數,本研究基于8個紋理特征進行神經網絡分類,因此輸入層的神經元節點數設為8。輸出層的節點數取決于需要分類數,本研究需要分為城市建成區和非城市建成區兩類,故將其設為2。隱含層是神經網絡中最為重要的部分,主要負責從輸入樣本中提取特征。由于任何在閉區間內的1個連續函數都可以用單隱含層的BP網絡逼近,因此本研究中使用單個隱含層。隱含層節點個數的選擇是一個十分復雜的問題,節點太多會導致學習時間過長、誤差不一定最佳,也會導致容錯性差等問題。本研究中采用如下經驗公式[22]確定
(1)
式中,n表示輸入層的節點數,為8;m表示輸出層的節點數,為2;a是1到10之間的常數。取a=4,則隱含層的節點數設為7。
3.算法流程
本文的算法流程如圖1所示。

圖1 城市建成區邊界提取算法流程
1) 預處理。參考城市行政區邊界,對影像進行裁剪,使其保留只屬于行政區內的影像;然后對影像作直方圖均值拉伸處理,使影像具有更好的表現力。
2) 邊緣密度特征提取。考慮城市建成區的結構特征,對影像的邊緣密度特征進行提取,其流程如圖2所示。設影像大小為R×C,首先對影像進行分塊,將其劃分為N×N(試驗中取N=128)大小的若干個子區域影像,然后利用邊緣檢測算子(試驗使用Canny算子[23])提取出城市建成區的邊緣點,再分別計算每個子區域影像的密度ρ
ρ=m/N2
(2)
式中,m表示該子區域影像中的邊緣點個數。對每個子區域影像,設置一個閾值T(試驗中取T=10%),當密度ρ不小于該閾值時視為城市建成區邊緣密度的合理區,否則視為非城市建成區。將邊緣密度合理區像元值設為1,非城市建成區設為0,即

(3)
式中,b[i][j]表示邊緣密度合理區b的第i行第j列的像元值,i=1,2,…,R;j=1,2,…,C。

圖2 邊緣密度特征提取流程
3) 紋理特征提取。對于預處理的影像,首先將影像量化,再采用滑動窗口算法計算每個像元所在窗口的灰度共生矩陣值,進而計算出8個紋理特征值(見表1)。這樣每一個紋理特征均為一幅影像,將這8幅影像合成為8個波段,得到紋理特征影像,用于下一步的分類,其流程如圖3所示。
4) 神經網絡分類。將得到的紋理特征影像采用神經網絡分類法分為城市建成區和非城市建成區兩類。試驗選取的兩類訓練樣本各有1280個點,學習率為0.1,循環次數為5000次。對于分類得到的任意像元c,若屬于城市建成區則賦值為1,否則為0,即

(4)
式中,c[i][j]表示紋理特征合理區c的第i行第j列的像元值,i=1,2,…,R;j=1,2,…,C。

圖3 紋理特征提取流程
5) 與操作。將邊緣密度合理區和紋理特征合理區進行與操作運算,得到城市建成區的候選區,即對以上得到的邊緣密度合理區b和紋理特征合理區c,取

(5)
式中,d[i][j]表示城市建成區候選區d的第i行第j列的像元值,i=1,2,…,R;j=1,2,…,C。
6) 提取中心區域。以上步驟得到的城市建成區候選區往往不是封閉、完整的區域,而會顯得比較破碎,區域之間存在縫隙和空洞,因此考慮采用密度過濾的方式對密度較大的區域進行填充。首先對影像再次進行分塊處理,將其劃分為N2×N2大小,這里的N2應比步驟2)中的N要小,試驗取N2=32。依據式(2)統計每個小區域的密度ρ,設置閾值T2(試驗中取T2=0.8),依據式(3)進行計算,將城市建成區中心區域像元值設為1,非城市建成區設為0,即
(6)
式中,e[i][j]表示城市建成區中心區域e的第i行第j列的像元值,i=1,2,…,R;j=1,2,…,C。
7) 或操作。將城市建成區候選區和城市建成區中心區域進行或操作運算,所得到的區域即為城市建成區的大致區域,即對以上得到的城市建成區候選區d和城市建成區中心區域e,取

(7)
式中,f[i][j]表示城市建成區的大致區域f的第i行第j列的像元值,i=1,2,…,R;j=1,2,…,C。
8) 面積過濾與區域空洞填充。以上步驟得到的城市建成區會存在許多小圖斑,根據城市建成區的區域連通性特點,這些圖斑需要過濾掉。采用區域連通算法[24]統計每個區域的面積,設置面積閾值M,將面積小于M的區域過濾掉,這樣得到的區域會因為城市建成區中的小湖泊、草地等而存在“空洞”。為了得到完整的城市建成區,采用基于數學形態學的區域填充算法將其中的“空洞”填充。
9) 邊界修整與提取。步驟8)得到的邊界可能會由于邊緣密度的過濾使其部分邊緣呈鋸齒狀,因此可以采用數學形態學中腐蝕(erode)和膨脹(dilate)算子進行修整。本文先用膨脹算子將邊界擴展,然后用腐蝕算子將城市邊界收縮,使得到的城市建成區邊界較為平滑。最后采用基于數學形態學中針對二值影像的邊緣提取算法得到城市建成區的邊界,并運用GIS工具將柵格格式的城市建成區及其邊界轉換為矢量格式。
本文的研究區為湖北省武漢市。武漢市地處華中腹地,位于東經113°41′~115°05′,北緯29°58′~31°22′。武漢市河網水系縱橫交錯,且湖泊眾多,貫穿的長江和漢江將武漢市劃分為武昌、漢口和漢陽3鎮。試驗采用的數據是2012年7月資源三號衛星的全色影像,其空間分辨率為2.1 m,紋理和幾何信息十分豐富,影像的尺寸大小為19 100像素×16 055像素,如圖4(a)所示。

圖4 試驗過程
筆者根據本文算法對該影像進行城市建成區邊界的提取。圖4為試驗過程中的一些中間結果。圖4(b)為根據原始影像提取的邊緣密度合理區,其中白色區域表示合理區,黑色區域代表非合理區;圖4(c)是采用神經網絡分類得到的分類圖,即紋理特征合理區,白色區域表示合理區,黑色區域代表非合理區;圖4(d)的白色區域是進行面積過濾、空洞填充后得到的城市建成區。算法最終得到的結果如圖5(a)所示。

圖5 試驗結果與對比
為了驗證本文算法的有效性和準確性,嘗試將本文算法的試驗結果與區域增長算法和陳雁等提出的快速模糊分割算法[15]提取結果進行比較。
區域增長算法以灰度標準偏差作為城市建成區特性描繪子進行提取, 但提取的城市建成區區域較小,十分破碎,且由于每個區域均需要人工設置種子點,難以自動化提取,故未能提取出整個城市建成區。快速模糊分割算法參考文獻[15]采用局部平穩性LC和相關性COR作為特征向量進行分割,得到的城市建成區結果如圖5(b)所示。圖5(c)是根據原始影像進行人工目視解譯得到的城市建成區。
試驗采用識別正確率、誤判率和漏判率3個指標來定量衡量算法的提取效果。其中,識別正確率表示正確識別的像元占原始影像實際城市建成區像元的百分比;誤判率指錯誤識別為城市建成區的像元占原始影像實際城市建成區像元的百分比;漏判率采用未識別出的城市建成區像元占原始影像實際城市建成區像元的百分比來表示。
表2為快速模糊分割算法與本文算法的精度對比表。數據表明,快速模糊分割算法的算法識別率僅為73.3%,且誤判率和漏判率較高,分別為30.5%和10.7%,這說明該算法不太適合處理高分辨率影像;而本研究的算法識別正確率達到了91.2%,誤判率為5.2%,漏判率為4.1%。與快速模糊分割算法相比而言,本文算法的識別正確率有明顯的提高,誤判率和漏判率也有較大的改善,提取的精度更高。

表2 精度對比表
本文針對高分辨率全色影像,提出了一種基于紋理分析與神經網絡的城市建成區邊界自動提取新算法。試驗結果表明該算法能有效提取出城市建成區邊界,且與適合中低分辨率的快速模糊分割算法相比,本文算法的識別正確率更高,誤判率、漏判率更低。但本文算法在提取的精度方面還有進一步提升的空間,且所提取的城市建成區仍需根據外業調查等數據作進一步修正,這也是需要進一步研究的地方。
[1] 王穎芳.城鎮建成區邊界界定方法研究及應用[D].杭州:浙江大學, 2012.
[2] 王偉.濟南市城區土地利用空間格局演化與優化研究[D].濟南:山東師范大學, 2004.
[3] 樸妍,馬克明.北京城市建成區擴張的經濟驅動:1978-2002[J].中國國土資源經濟,2006(7): 34-37.
[4] 劉文鍇,楊磊庫,梁洪有,等.Landsat衛星遙感影像在焦作市建成區擴展變化監測中的應用[J].河南理工大學學報:自然科學版,2009,28(4): 445-448.
[5] 孫雁,劉志強,王秋兵,等.1910年以來沈陽城區土地利用空間格局變化[J].中國土地科學, 2012(9): 41-47.
[6] 牟鳳云,張增祥,遲耀斌,等.基于多源遙感數據的北京市1973—2005年間城市建成區的動態監測與驅動力分析[J].遙感學報,2007,11(2):257-268.
[7] 陳淑興,韓波,柯長青,等.濟南市建成區擴展的時空特征及驅動力分析[J].地理空間信息,2009,7(5):117-120.
[8] 張雪峰,楊晏立,何政偉,等.蘇、錫、常建成區遙感方法提取及城市擴展分析[J].測繪科學,2011,36(2): 113-115.
[9] 王躍,程丹.蘇州建成區范圍界定及形態分析[J].蘇州科技學院學報:自然科學版,2011,28(3): 70-74.
[10] 李天華,馬玲,楊武年,等.應用遙感和GIS技術提取城市建成區及驅動力分析——以南京市為例[J].測繪科學,2007,32(4): 124-125.
[11] BINS L S, FONSECA L M G, ERTHAL G J, et al.Satellite Imagery Segmentation: a Region Growing Approach[J].Simpósio Brasileiro de Sensoriamento Remoto.1996(8): 677-680.
[12] 路威,張占睦.多尺度幾何信息分割算法在居民地提取中的應用[J].信息工程大學學報,2003,4(2): 54-57.
[13] 蘇俊英,曹輝,張劍清.高分辨率遙感影像上居民地半自動提取研究[J].武漢大學學報:信息科學版,2004,29(9): 791-795.
[14] 文貢堅,李德仁,葉芬.從衛星遙感全色圖像中自動提取城市目標[J].武漢大學學報:信息科學版,2003,28(2): 212-218.
[15] 陳雁,萬壽紅,龔育昌.全色遙感圖像中城區的快速模糊分割算法[J].計算機應用,2008,28(12): 3112-3115.
[16] 陳洪,陶超,鄒崢嶸,等.一種新的高分辨率遙感影像城區提取方法[J].武漢大學學報:信息科學版,2013,38(9): 1063-1067.
[17] 阮秋琦.數字圖像處理學[M].3版.北京: 電子工業出版社, 2013: 352-353.
[18] 劉曉民.紋理研究綜述[J].計算機應用研究,2008,25(8): 2284-2288.
[19] 陳美龍,戴聲奎.基于GLCM算法的圖像紋理特征分析[J].通信技術,2012(2): 108-111.
[20] HARALICK R M, SHANMUGAM K, DINSTEIN I H.Textural Features for Image Classification[J].IEEE Transactions on Systems, Man and Cybernetics,1973,SMC-3(6): 610-621.
[21] 陳明.MATLAB神經網絡原理與實例精解[M].北京:機械工業出版社, 2013: 156-166.
[22] 湯紅忠.基于神經網絡的車牌識別系統研究[D].湘潭:湘潭大學, 2004.
[23] CANNY J.A Computational Approach to Edge Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986,PAMI-8(6): 679-698.
[24] Di STEFANO L, BULGARELLI A.A Simple and Efficient Connected Components Labeling Algorithm[C]∥Proceedings of IEEE International Conference on Image Analysis and Processing.Venice:IEEE,1999.
A New Algorithm of Urban Built-up Area Boundary Extraction Based on High-resolution Panchromatic Image
LI Haijiang,LIU Yaolin,TAN Ronghui,QIU Lijuan
李海江,劉耀林,譚榮輝,等.一種新的基于高分辨率全色影像的城市建成區邊界提取算法[J].測繪通報,2015(7):36-41.
10.13474/j.cnki.11-2246.2015.0206
2014-06-09
李海江(1991—),男,碩士,主要研究方向為地理信息系統與遙感影像處理。E-mail:942535021@qq.com
劉耀林。E-mail: yaolin610@163.com
P237
:B
:0494-0911(2015)07-0036-06