王 劍, 王英華, 劉宏偉, 何敬魯
(1. 西安電子科技大學雷達信號處理國家重點實驗室, 陜西 西安 710071; 2. 西安電子科技大學信息感知技術協同創新中心, 陜西 西安 710071)
遙感圖像變化檢測技術用于檢測同一地點在某一段時間內發生的變化,在災害監測、土地調查和目標偵查等民用和軍用方面具有廣泛的應用[1-2]。近年來,有關極化合成孔徑雷達(polarimetric synthetic aperture radar,PolSAR)圖像變化檢測的研究受到越來越多的關注。PolSAR系統受天氣條件和光照條件的影響較小,其數據不僅能夠提供幅度信息,還可以描述目標的散射特性,進一步提供有關場景地物更加豐富的信息,因此在圖像解譯中比單極化合成孔徑雷達(synthetic aperture radar,SAR)更具優勢[3]。
遙感圖像變化檢測步驟一般包括:圖像預處理,差異圖提取及變化二值圖生成[1]。由于PolSAR數據的特點,傳統的PolSAR變化檢測的研究主要集中于統計方法。2003年,文獻[4]提出了基于Wishart似然比檢驗統計量的變化檢測方法,通過2幅PolSAR圖像中相同位置像素的協方差矩陣相似性檢驗,實現PolSAR圖像變化檢測;2014年,文獻[5]利用異質雜波模型實現PolSAR圖像變化檢測;2016年文獻[2]基于矩陣相似性的思想,提出了基于Hotelling-Lawley Trace檢驗統計量的變化檢測方法;此外,文獻[6-7]提出了基于超像素和Wishart分布的變化檢測方法以及基于超像素和混合Wishart分布的變化檢測方法;文獻[8]提出了結合超像素和多數投票的變化檢測方法;近年來,在單極化SAR及高光譜圖像變化檢測方面,文獻[9-11]提出了多種基于機器學習與深度學習的變化檢測算法,取得了重要的進展,同時也提供了新的研究思路。
文獻[2,4-5]均為基于統計建模的方法,而文獻[6-8]都使用了超像素分割并對Wishart似然比方法做了改進,但上述方法存在3個問題:
(1)對PolSAR數據統計建模不能夠完全精確地擬合原始PolSAR數據的分布,導致所得結果不夠準確,產生大量的虛警。
(2)基于檢驗統計量的方法都需要設定虛警率或顯著性水平以獲得閾值用于判別,不同參數產生的結果差異較大,且無法實現自動檢測。
(3)使用簡單的超像素分割可能會造成誤分割,造成檢測結果不夠準確。
針對以上問題,受到文獻[9-12]的啟發,本文提出了結合深度學習的PolSAR變化檢測方法,具體流程如圖1所示。

圖1 基于DCNN的PolSAR圖像變化檢測方法Fig.1 PolSAR image change detection method based on DCNN
本文方法具有以下特點:
(1)結合二時相PolSAR圖像的共有信息和各自特有信息,實現聯合超像素分割與合并,更準確地提取空間信息。
(2)利用深度卷積神經網絡(deep convolutional neural network,DCNN)在分類任務當中的優勢,將變化檢測問題轉化為分類問題進行處理,訓練DCNN并用于分類。
超像素分割在遙感圖像處理當中具有廣泛的應用[13-15]。為了實現二時相圖像的超像素分割,同時結合2幅圖像的共有和特有信息得到一致的超像素分割結果,本文使用文獻[8]中的PolSAR聯合超像素分割方法將圖像分割為Ns個超像素區域,得到分割結果S。
為進一步提取空間信息,本文在文獻[14]提出的單幅單極化SAR圖像超像素合并方法的基礎上進行修改,實現了二時相多極化SAR圖像的聯合超像素合并。在合并過程中,對于2幅PolSAR場景共有的同質區域,進行超像素合并;而對于場景復雜區域,不進行超像素合并。場景復雜區域指的是呈現為紋理復雜、散射機制變化劇烈以及強度變化劇烈的區域,為了保持這類區域中邊界的完整和準確,有必要在區域內不進行超像素合并操作。以下4個準則用于實現聯合超像素合并。
鄰接準則[14]。該準則就是要找到相鄰的超像素對,服從式(1)
(1)
式中,si和sj代表聯合分割之后的任意2個超像素。C1(i,j)是表示任意2個超像素是否具有鄰接關系的量。C1(i,j)=1時,超像素si與sj是鄰接的;C1(i,j)=0時,則超像素si與sj不具有鄰接關系。
相似性準則。直接將文獻[14]中的相似性準則特征提取方法運用于二時相PolSAR對數功率圖,得到任意超像素si的特征向量K1(i)和K2(i)(i代表超像素標號,式(2)中j表示與i不同的超像素標號,下標表示PolSAR圖像序號)。相似性準則定義為
C2(i,j)=‖[K1(i),K2(i)]-[K1(j),K2(j)]‖1
(2)
式中,[A,B]符號表示將2個特征向量A與B連接構成一個新的特征向量的操作;‖ · ‖1表示1范數距離。式(2)中,[K1(i),K2(i)]表示超像素si在第1和第2時相圖像當中的特征向量連接而成的新的特征向量,[K1(j),K2(j)]同理。因此,C2(i,j)表示了超像素對(si,sj)在特征空間中的距離。
空間連續性準則[14]。該準則的目的是在合并超像素的同時保持邊緣結構不被破壞。類似于文獻[13]中紋理特征向量的提取,運用4種尺度的Prewitt核[16]對PolSAR對數功率圖提取邊緣特征,可以得到超像素的邊緣特征向量H1(i,j)和H2(i,j)。由此定義空間連續性準則為
C3(i,j)=
(3)

Wishart距離準則。該準則用到PolSAR圖像的Wishart距離w1(i,j)與w2(i,j)(第一和第二時相中超像素si與sj的Wishart距離[4])。該準則計算公式為
C4(i,j)=‖[w1(i,j)w2(i,j)]‖1
(4)
式中,w1(i,j)表示超像素對(si,sj)在第一時相的Wishart距離,而w2(i,j)表示他們在第二時相的Wishart距離。實際上,C4(i,j)通過Wishart距離度量了超像素對(si,sj)在散射機制和強度上的差異度,C4(i,j)的值越大,表示超像素對之間的差異越大,反之越小。
根據上述4個準則,計算得到任意超像素對(si,sj)之間的4個歸一化準則量C1(i,j)、C2(i,j)、C3(i,j)和C4(i,j)。為了實現超像素合并,首先根據鄰接準則C1(i,j)找到鄰接的超像素對,D1表示超像素分割后所有鄰接超像素對的集合,即
D1={(si,sj)|C1(i,j)=1,i≠j,i,j=1,2,…,Ns}
(5)
再根據其余3條準則確定要合并的超像素,即
D2={(si,sj)|Ck(i,j)≤β,(si,sj)∈D1,k=2,3,4}
(6)
D2為需要合并的超像素對的集合,其中β為[0,1]區間內的值,需要預先設定。為了驗證β對超像素合并的影響,設置不同的β值進行超像素合并。通過對比實驗發現,當β值設置過小時,超像素合并不完全,出現欠合并的現象;當β值設置過大時,出現過度合并的現象;而β取值在[0.16,0.2]時,能夠達到較好的合并效果,因此本文當中將β設定為0.16。
圖2給出了局部區域的聯合超像素分割及合并的結果圖。為了更好地反映分割與合并算法的效果,使用PolSAR圖像的Pauli偽彩色圖[3]表示原圖像,如圖2(a)和圖2(b)所示。圖2(c)與圖2(d)分別是圖2(a)與圖2(b)經過聯合超像素分割的結果,超像素邊界用白色線表示,2幅圖像的分割區域完全一致,同時分割考慮了2幅圖的特有信息,即對于圖2(a)或圖2(b)當中特有的區域,如發生變化的區域,也能夠很好地實現分割。圖2(e)和圖2(f)是在圖2(c)與圖2(d)的基礎上,進行超像素合并后的結果。


圖2 局部區域聯合超像素分割結果與合并結果Fig.2 Joint super pixel segmentation results and merging results in local area
從圖2中可以觀察到,在同質區域,實現了超像素合并,將同質區域當中的超像素合并在一起,形成了一個或有限幾個面積較大的超像素塊;而在場景復雜區域中,沒有進行超像素合并,該區域內超像素仍保持較小的面積。
超像素合并之后,使用基于區域的Wishart距離可以得到差異圖。區域級Wishart距離[15,17]定義如下
(7)

(8)
式(8)表示基于超像素的PolSAR變化檢測差異度量計算方式,與式(7)的區別在于,d(si)表示了二時相圖像在同一超像素區域si的差異。當前存在的問題是,聯合合并之后超像素大小是不均勻的,即存在N同質區域超像素?N非同質區域超像素的情況,由圖2也可觀察到該結論。此現象導致同質區域間的差異值遠遠大于非同質區域間的,這與實際情況相違。基于以上原因,本文修改距離公式得到以下差異度量為
(9)
式(9)是用參數Ni歸一化后的距離度量公式,保持距離的合理性的同時去掉了Ni對距離計算的影響,使距離計算正確且與實際情況相符。通過使用合并后的超像素標記計算差異值,一定程度上去除了同質區域相干斑噪聲的影響,同時由于場景復雜區域內的超像素未合并,該區域的邊緣特征得到保持,提升了差異圖中變化區域形狀信息表示的準確性。
預分類算法是為了獲得大量有標號的樣本用于訓練神經網絡及初次劃分圖像場景。本文的預分類算法改進了文獻[18]所提的預分類算法。原方法中閾值設定過程涉及到差異圖特征提取、聚類及參數設置等步驟。本文方法在此基礎上進行改進。首先對差異圖進行大尺度的中值濾波,一定程度消除相干斑帶來的影響。窗口尺寸一般設為30×30,然后用模糊C均值聚類(fuzzy C mean clustering,FCM)算法[19]依據像素幅值進行二類分類,根據分類結果獲得變化類的樣本數T,將其設定為閾值。利用中值濾波的平滑效果,差異圖中反映變化的區域將擴大,同時部分由相干斑噪聲引起的面積很小的偽變化區域被去除。改進后的方法相比于原始方法[18]可以獲得更多的正負類偽訓練樣本,更好的魯棒性能,且能夠實現閾值的自動化選擇。除閾值設定外,其余步驟與原始方法一致。
使用上述方法可以獲得預分類結果圖像I,I中像素被分為3類:變化類、待確定類和未變化類,在圖像中分別由標號1、0.5和0表示。為了提高樣本的置信度,按如下方式進一步處理結果I:對結果圖像I中的像素點(x,y),用Lx,y表示該像素點的標號,若Lx,y=0.5,則保持該點標號不變;否則,取其5×5的鄰域作為操作區域,若操作區域當中有超過一半的像素標號與Lx,y一致,則保持(x,y)的標號不變,否則將Lx.y置為0.5,即將該樣本點劃分到待確定類。最終預分類算法將整個圖像場景分為3類,即變化類(L=1),未變化類(L=0)及待確定類(L=0.5)。
深度學習在單極化SAR圖像處理當中已經得到了廣泛的應用,但在多極化SAR圖像處理領域應用較少。文獻[12]在2016年提出了基于DCNN的PolSAR圖像分類算法,相比于傳統方法取得了更好的結果,表明了深度學習在PolSAR圖像處理中提取特征和分類方面的優勢,受到該方法及一系列基于深度學習的單極化SAR圖像變化檢測方法[9-11]的啟發,本文提出了基于DCNN的PolSAR圖像變化檢測算法。
3.1.1 PolSAR圖像特征選擇
全極化SAR數據由4個通道構成,分別為SHH、SHV、SVH和SVV(下標第1個字母代表接收極化方向,第2個字母代表發射極化方向)。單站情況下,SHV=SVH,一般使用大小為3×3的極化協方差矩陣或者極化相干矩陣描述每一像素點處的散射信息[3]。
為了更有效地訓練DCNN,從原始圖像數據中每一像素點處提取6種原始特征構成網絡輸入,即
(10)
式中,SPAN表示散射功率;T22代表極化相干矩陣對角線上的第2個元素;T33代表極化相干矩陣對角線上的第3個元素,其中A、B、C特征來自極化相干矩陣,分別反映了散射總功率、方向為0°的偶次散射及方向為45°的二面角散射[3];D、E、F分別表示Pauli極化分解[3]偽彩色圖像的3個通道。本文A、B、C特征取自文獻[12]。對于文獻[12]中的其他特征,通過分析其在變化檢測當中的可分性,發現可分性不夠好,因此去掉了這些特征。根據文獻[20],PolSAR數據經過Pauli分解和偽彩色編碼得到的偽彩色特征對于分類有提升效果,也能更好地突出變化區域的形狀和輪廓信息,所以在特征A、B、C的基礎上,加入Pauli偽彩色圖的3通道作為補充,進一步提升特征的整體可分性。
3.1.2 數據標準化
為實現像素級上的分類,需要構建以像素為中心的特征表達作為網絡的原始輸入。本文方法中,提取以任意坐標(x,y)為中心的s×s(s代表像素點數,且s為奇數)鄰域中所有像素點的6種特征作為(x,y)的特征表達,即得到尺寸為s×s×6的特征表示。具體到變化檢測任務,兩幅圖像在(x,y)坐標處對應的特征分別記為p1(x,y)和p2(x,y),將p1(x,y)和p2(x,y)按數據維度的第一維聯結起來,即拼接成大小為2s×s×6的聯合特征。對訓練集、驗證集、測試集樣本都需要進行數據標準化操作,操作后所得的聯合特征數據將用于后續的訓練和測試過程。
本文使用的DCNN連接類似于經典的AlexNet[21]與文獻[12]的網絡結構,結構如圖3所示。假定輸入數據大小為m×n×c,在卷積層Conv1,需要進行P=2的空間填充,此時數據尺寸為(m+4)×(n+4)×c,用20個3×3×c的卷積核實現卷積操作,生成維度(m+2)×(n+2)×20的數據。池化層功能相當于下采樣,可以削減數據大小和權值數,本方法中池化層都采用最大值池化[21]。在池化層P1,由于本文輸入數據設定為2s×s,其中s為奇數,卷積后數據的第2維無法進行步幅為2的池化,因此需要在池化之前在第2維做P=1的零填充,然后進行2×2的最大值池化,輸出維度(m/2+1)×((n+1)/2+1)×20的數據。在卷積層Conv2,首先進行P=1的零填充操作,此時數據大小為(m/2+3)×((n+1)/2+3)×20,經50個3×3×20的卷積核操作得到維度(m/2+1)×((n+1)/2+1)×50的輸出。在池化層P2,池化后的數據尺寸為((m+2)/4)×((n+3)/4)×50。全連接層F1輸出大小為1×1×500。F1后接ReLU激活函數[21]實現非線性變換并加速算法收斂。全連接層F2有2個輸出,其后接Softmax Loss層[22],輸出的2個值分別表示樣本屬于變化類與非變化類的概率,最終據此概率判斷輸入樣本的類別。

圖3 DCNN結構Fig.3 Architecture of DCNN
本文采用經典方式訓練DCNN,損失函數為交叉熵函數[22],使用沖量隨機梯度下降算法[23]在反向傳播過程中更新參數,使用文獻[12]中深度卷積網絡的更新規則進行更新,具體表示為

(11)
ωi+1=ωi+vi+1
(12)
式中,ωi代表第i次迭代的權值參數;L表示損失函數。
式(11)中,沖量參數設為0.9,權值衰減系數(weight-decay)設為0.000 5,i代表迭代次數,vi代表第i次迭代時的速度參數,ε表示學習率。此外,學習率的設定方式也與文獻[12]中的更新方式相同。訓練開始之前,網絡中所有權值和偏置用均值為0、方差為0.01的高斯分布隨機初始化,速度值v初始化為0。
為了驗證本文算法的有效性,在實測數據上進行變化檢測實驗,同時與多種PolSAR變化檢測方法進行對比。使用制圖精度、用戶精度、總體分類精度及Kappa系數[24]等指標對多種算法的實驗結果進行評估。本文使用的實驗數據是由美國空軍實驗室(airforce research laboratory,AFRL)提供的X波段三通道PolSAR數據[25],實驗所用數據為2幅三通道PolSAR圖像,場景大小均為1 501×1 501,兩幅圖像發生的變化主要為車輛的移動,具體可見圖4。圖4(a)與圖4(b)分別是實驗當中所使用的原始PolSAR數據的Pauli分解偽彩色圖像,圖4(a)是第一時相的偽彩色圖,圖4(b)是第二時相的偽彩色圖,圖4(a)與4(b)的不同之處就是場景中的車輛發生了移動,產生了變化。圖4(c)是人工標記的Groundtruth圖像,反映了真實的車輛變化區域。

圖4 實驗圖像和參考圖像Fig.4 Experiment images and Groundtruth image
利用本文所提算法及像素級Wishart似然比檢測[4](記為Wishart)、基于HLT檢驗統計量的變化檢測[2](Hotelling-Lawley Trace Statistic,記為HLT)、似然比變化檢測算法[26](記為LR)、超像素級Wishart似然比檢測[6](記為Region Wishart)、基于超像素和多數投票(method based on superpixel and majority voting,SMV)[8]等方法對所選數據進行實驗。Wishart(0.005)表示在顯著性水平為0.005時的檢測結果,Wishart(k-means)表示對檢驗統計量進行k-means聚類的實驗結果,HLT(0.005)和HLT(k-means)意義也同上。LR(0.1)表示閾值設為0.1的結果。實驗參數設置方面,為了驗證鄰域大小對實驗結果的影響,分別使用3×3、5×5、7×7、9×9的鄰域數據構建訓練集數據、驗證集數據和測試集數據,數據當中每一個樣本的大小分別為6×3×6、10×5×6、14×7×6和18×9×6,相應地將這4種樣本訓練的DCNN簡稱為DCNN1、DCNN2、DCNN3和DCNN4,通過實驗結果對比將DCNN4結果作為本文結果。此外,在實驗當中,超像素分割尺度設為3,合并準則閾值β設為0.16,其余參數如上文所述。實驗結果在表1和圖5當中給出。由于預分類算法獲得的偽訓練樣本中存在嚴重的類別不平衡現象,因此對少數類即變化類采用翻轉和復制的方式進行數據擴充,一定程度上改善了類別的不平衡程度。
表1中,Pc(producer’s accuracies of changed)與Pu(producer’s accuracies of unchanged)分別表示變化類和未變化類制圖精度[5,7],Uc(user’s accuracies of changed)與Uu(user’s accuracies of unchanged)分別表示變化和未變化類用戶精度[5,7],FA(number of false alarms)、MA(number of missed alarms)、Pcc與Kappa分別表示虛警數、漏警數、總體分類精度及Kappa系數[24]。

表1 多種變化檢測方法性能參數比較

圖5 實驗結果對比Fig.5 Comparison of experimental results
由表1中的性能參數對比及圖5中實測數據實驗結果對比可知,本文方法DCNN4的結果相比于其他方法更具優勢。相對于本方法而言,統計建模方法能夠獲得較高的檢測率,同時虛警率也很高,這是由于不能夠對數據進行精確的統計建模造成的;對于運用超像素分割的方法,分割的不準確性或所選擇的特征對于不同數據的表現不同都會導致超像素方法的不穩定。本文方法首先借助聯合超像素合并的空間信息得到了類別的粗劃分結果,然后訓練神經網絡可以從數據本身學到優化的特征表達用于分類任務,避免了統計建模或超像素分割的不準確性帶來的誤差。由圖5看出,本文所提方法的檢測結果與人工標注的參考圖更加接近,檢測區域更平滑與集中,能夠更加準確地反映變化區域的形狀。
通過對比多種方法所得到的實驗結果與性能參數,可以總結出本文方法相對于傳統方法具有以下優點:①本文方法能夠很大程度降低相干斑噪聲的影響。從結果圖中可以看出,相對于大部分傳統算法,本文結果的虛警點數更少;②本文方法結合超像素合并與DCNN訓練,能夠較好地保持變化區域的輪廓信息,由圖5及表1中Pcc和Kappa系數等參數的對比可以證明本文方法對變化區域輪廓刻畫的準確性比傳統方法更高。
本文以PolSAR圖像變化檢測為目的,構建了以DCNN為中心的變化檢測算法,將變化檢測問題轉換為分類問題加以解決,實現了自動的、無監督的變化檢測。本方法結合了空間和像素的信息,通過兩種信息的交互使用,一定程度克服了單獨使用像素級或者超像素級的方法的缺點。同時,利用DCNN在特征提取和分類方面的優越性,在保持較高檢測率的同時將虛警控制在較低的水平,提高了算法的穩定性,相比于傳統算法具有更好的性能。
參考文獻:
[1] 公茂果, 蘇臨之, 李豪, 等. 合成孔徑雷達影像變化檢測研究進展[J].計算機研究與發展, 2016, 53 (1): 123-137.
GONG M G, SU L Z, LI H, et al. A survey on change detection in synthetic aperture radar imagery[J]. Journal of Computer Research and Development, 2016, 53 (1): 123-137.
[2] AKBARI V, ANFINSEN S N, DOULGERIS A P, et al. Polarimetric SAR change detection with the complex hotelling-lawley trace statistic[J]. IEEE Trans.on Geoscience and Remote Sensing, 2016, 54(7): 3953-3966.
[3] LEE J S, POTTIER E. Polarimetric imaging: from basics to applications[M]. Boca Raton, FL: CRC Press, 2009.
[4] CONRADSEN K, NIELSEN A A, SCHOU J, et al. A test statistic in the complex Wishart distribution and its application to change detection in polarimetric SAR data[J]. IEEE Trans.on Geoscience and Remote Sensing, 2003, 41(1): 4-19.
[5] LIU M, ZHANG H, WANG C. Change detection of multilook polarimetric SAR images using heterogeneous clutter models[J]. IEEE Trans.on Geoscience and Remote Sensing, 2014, 52(12): 7483-7494.
[6] YANG W, SONG H, XIA G S, et al. Dissimilarity measurements for processing and analyzing PolSAR data: a survey[C]∥Proc.of the IEEE International Geoscience and Remote Sensing Symposium, 2015: 1562-1565.
[7] YANG W, YANG X L, YAN T H, et al. Region-based change detection for polarimetric SAR images using Wishart mixture models[J]. IEEE Trans.on Geoscience and Remote Sensing, 2016, 54 (11): 6746-6756.
[8] XIE L, ZHANG H, WANG C, et al. Superpixel-based PolSAR images change detection[C]∥Proc.of the 5th IEEE Asia-Pacific Conference on Synthetic Aperture Radar,2015: 792-796.
[9] GONG M G, ZHAN T, ZHANG P Z, et al. Superpixel-based difference representation learning for change detection in multispectral remote sensing images[J]. IEEE Trans.on Geoscience and Remote Sensing, 2017, 55(5): 2658-2673.
[10] GONG M G, ZHAO J J, MIAO Q G, et al. Change detection in synthetic aperture radar images based on deep neural networks[J]. IEEE Trans.on Neural and Learning Systems, 2016, 27(1): 125-138.
[11] LI Y, GONG M G, JIAO L C, et al. Change-detection map learning using matching pursuit[J]. IEEE Trans.on Geoscience and Remote Sensing, 2015, 53(8): 4712-4723.
[12] ZHOU Y, WANG H, XU F, et al. Polarimetric SAR image classification using deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1935-1939.
[13] WANG Y H, LIU H W. PolSAR ship detection based on superpixel-level scattering mechanism distribution features[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(8): 1780-1784.
[14] YU H, ZHANG X R, WANG S, et al. Context-based hierarchical unequal merging for SAR image segmentation[J]. IEEE Trans.on Geoscience and Remote Sensing, 2013, 51(2): 995-1009.
[15] HE J L, WANG Y H, LIU H W, et al. A novel automatic PoLSAR ship detection method based on superpixel-level local information measurement[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(3): 384-388.
[16] HARALICK R M. Digital step edges from zero crossing of second directional derivatives[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 1984, 6(1): 58-68.
[17] CAO F, HONG W, WU Y, et al. An unsupervised segmentation with an adaptive number of clusters using the SPAN/H/α/a space and the complex Wishart clustering for fully polarimetric SAR data analysis[J]. IEEE Trans.on Geoscience and Remote Sensing, 2007, 45(11): 3454-3467.
[18] GAO F, DONG J, LI B, et al. Automatic change detection in synthetic aperture radar images based on PCANet[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1792-1796.
[19] BEZDEK J C, EHRLICH R, FULL W. FCM: the fuzzy c-means clustering algorithm[J].Computers and Geosciences,1984,10(2): 191-203.
[20] UHLMANN S, KIRANYAZ S. Integrating color features in polarimetric SAR image classification[J]. IEEE Trans.on Geoscience and Remote Sensing, 2014, 52(4): 2197-2216.
[21] KRIZHEVSKY A, SUTSKEVER I, HINTON G E, et al. ImageNet classification with deep convolutional neural networks[C]∥Proc.of the Advances in Neural Information Processing Systems, 2012: 1097-1105.
[22] XU C, LU C, LIANG X,et al. Multi-loss regularized deep neural network[J]. IEEE Trans.on Circuits and Systems for Video Technology, 2016, 26(12): 2273-2283.
[23] POLJAK B T. Some methods of speeding up the convergence of iterative methods[J]. USSR Computational Mathematics and Mathematical Physics, 1964, 4(5): 1-17.
[24] STEHMAN S V. Selecting and interpreting measures of thematic classification accuracy[J]. Remote Sensing of Environment, 1997, 62(1): 77-89.
[25] SCARBOROUGH S M, GORHAM L R, MINARDI M J, et al. A challenge problem for SAR change detection and data compression[C]∥Proc.of the International society for optical Engineering, 2010: 1-5.
[26] FERRO-FAMIL L, NEUMANN M. Recent advances in the derivation of PoL-inSAR statistics: study and applications[C]∥Proc.of the 7th European Conference on Synthetic Aperture Radar, 2008: 1-4.