999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度卷積神經(jīng)網(wǎng)絡(luò)的PolSAR圖像變化檢測(cè)方法

2018-06-28 09:08:32王英華劉宏偉何敬魯
關(guān)鍵詞:區(qū)域方法

王 劍, 王英華, 劉宏偉, 何敬魯

(1. 西安電子科技大學(xué)雷達(dá)信號(hào)處理國(guó)家重點(diǎn)實(shí)驗(yàn)室, 陜西 西安 710071; 2. 西安電子科技大學(xué)信息感知技術(shù)協(xié)同創(chuàng)新中心, 陜西 西安 710071)

0 引 言

遙感圖像變化檢測(cè)技術(shù)用于檢測(cè)同一地點(diǎn)在某一段時(shí)間內(nèi)發(fā)生的變化,在災(zāi)害監(jiān)測(cè)、土地調(diào)查和目標(biāo)偵查等民用和軍用方面具有廣泛的應(yīng)用[1-2]。近年來(lái),有關(guān)極化合成孔徑雷達(dá)(polarimetric synthetic aperture radar,PolSAR)圖像變化檢測(cè)的研究受到越來(lái)越多的關(guān)注。PolSAR系統(tǒng)受天氣條件和光照條件的影響較小,其數(shù)據(jù)不僅能夠提供幅度信息,還可以描述目標(biāo)的散射特性,進(jìn)一步提供有關(guān)場(chǎng)景地物更加豐富的信息,因此在圖像解譯中比單極化合成孔徑雷達(dá)(synthetic aperture radar,SAR)更具優(yōu)勢(shì)[3]。

遙感圖像變化檢測(cè)步驟一般包括:圖像預(yù)處理,差異圖提取及變化二值圖生成[1]。由于PolSAR數(shù)據(jù)的特點(diǎn),傳統(tǒng)的PolSAR變化檢測(cè)的研究主要集中于統(tǒng)計(jì)方法。2003年,文獻(xiàn)[4]提出了基于Wishart似然比檢驗(yàn)統(tǒng)計(jì)量的變化檢測(cè)方法,通過(guò)2幅PolSAR圖像中相同位置像素的協(xié)方差矩陣相似性檢驗(yàn),實(shí)現(xiàn)PolSAR圖像變化檢測(cè);2014年,文獻(xiàn)[5]利用異質(zhì)雜波模型實(shí)現(xiàn)PolSAR圖像變化檢測(cè);2016年文獻(xiàn)[2]基于矩陣相似性的思想,提出了基于Hotelling-Lawley Trace檢驗(yàn)統(tǒng)計(jì)量的變化檢測(cè)方法;此外,文獻(xiàn)[6-7]提出了基于超像素和Wishart分布的變化檢測(cè)方法以及基于超像素和混合Wishart分布的變化檢測(cè)方法;文獻(xiàn)[8]提出了結(jié)合超像素和多數(shù)投票的變化檢測(cè)方法;近年來(lái),在單極化SAR及高光譜圖像變化檢測(cè)方面,文獻(xiàn)[9-11]提出了多種基于機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的變化檢測(cè)算法,取得了重要的進(jìn)展,同時(shí)也提供了新的研究思路。

文獻(xiàn)[2,4-5]均為基于統(tǒng)計(jì)建模的方法,而文獻(xiàn)[6-8]都使用了超像素分割并對(duì)Wishart似然比方法做了改進(jìn),但上述方法存在3個(gè)問(wèn)題:

(1)對(duì)PolSAR數(shù)據(jù)統(tǒng)計(jì)建模不能夠完全精確地?cái)M合原始PolSAR數(shù)據(jù)的分布,導(dǎo)致所得結(jié)果不夠準(zhǔn)確,產(chǎn)生大量的虛警。

(2)基于檢驗(yàn)統(tǒng)計(jì)量的方法都需要設(shè)定虛警率或顯著性水平以獲得閾值用于判別,不同參數(shù)產(chǎn)生的結(jié)果差異較大,且無(wú)法實(shí)現(xiàn)自動(dòng)檢測(cè)。

(3)使用簡(jiǎn)單的超像素分割可能會(huì)造成誤分割,造成檢測(cè)結(jié)果不夠準(zhǔn)確。

針對(duì)以上問(wèn)題,受到文獻(xiàn)[9-12]的啟發(fā),本文提出了結(jié)合深度學(xué)習(xí)的PolSAR變化檢測(cè)方法,具體流程如圖1所示。

圖1 基于DCNN的PolSAR圖像變化檢測(cè)方法Fig.1 PolSAR image change detection method based on DCNN

本文方法具有以下特點(diǎn):

(1)結(jié)合二時(shí)相PolSAR圖像的共有信息和各自特有信息,實(shí)現(xiàn)聯(lián)合超像素分割與合并,更準(zhǔn)確地提取空間信息。

(2)利用深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)在分類(lèi)任務(wù)當(dāng)中的優(yōu)勢(shì),將變化檢測(cè)問(wèn)題轉(zhuǎn)化為分類(lèi)問(wèn)題進(jìn)行處理,訓(xùn)練DCNN并用于分類(lèi)。

1 基于區(qū)域信息的差異圖生成

1.1 二時(shí)相PolSAR圖像聯(lián)合超像素分割與合并

超像素分割在遙感圖像處理當(dāng)中具有廣泛的應(yīng)用[13-15]。為了實(shí)現(xiàn)二時(shí)相圖像的超像素分割,同時(shí)結(jié)合2幅圖像的共有和特有信息得到一致的超像素分割結(jié)果,本文使用文獻(xiàn)[8]中的PolSAR聯(lián)合超像素分割方法將圖像分割為Ns個(gè)超像素區(qū)域,得到分割結(jié)果S。

為進(jìn)一步提取空間信息,本文在文獻(xiàn)[14]提出的單幅單極化SAR圖像超像素合并方法的基礎(chǔ)上進(jìn)行修改,實(shí)現(xiàn)了二時(shí)相多極化SAR圖像的聯(lián)合超像素合并。在合并過(guò)程中,對(duì)于2幅PolSAR場(chǎng)景共有的同質(zhì)區(qū)域,進(jìn)行超像素合并;而對(duì)于場(chǎng)景復(fù)雜區(qū)域,不進(jìn)行超像素合并。場(chǎng)景復(fù)雜區(qū)域指的是呈現(xiàn)為紋理復(fù)雜、散射機(jī)制變化劇烈以及強(qiáng)度變化劇烈的區(qū)域,為了保持這類(lèi)區(qū)域中邊界的完整和準(zhǔn)確,有必要在區(qū)域內(nèi)不進(jìn)行超像素合并操作。以下4個(gè)準(zhǔn)則用于實(shí)現(xiàn)聯(lián)合超像素合并。

鄰接準(zhǔn)則[14]。該準(zhǔn)則就是要找到相鄰的超像素對(duì),服從式(1)

(1)

式中,si和sj代表聯(lián)合分割之后的任意2個(gè)超像素。C1(i,j)是表示任意2個(gè)超像素是否具有鄰接關(guān)系的量。C1(i,j)=1時(shí),超像素si與sj是鄰接的;C1(i,j)=0時(shí),則超像素si與sj不具有鄰接關(guān)系。

相似性準(zhǔn)則。直接將文獻(xiàn)[14]中的相似性準(zhǔn)則特征提取方法運(yùn)用于二時(shí)相PolSAR對(duì)數(shù)功率圖,得到任意超像素si的特征向量K1(i)和K2(i)(i代表超像素標(biāo)號(hào),式(2)中j表示與i不同的超像素標(biāo)號(hào),下標(biāo)表示PolSAR圖像序號(hào))。相似性準(zhǔn)則定義為

C2(i,j)=‖[K1(i),K2(i)]-[K1(j),K2(j)]‖1

(2)

式中,[A,B]符號(hào)表示將2個(gè)特征向量A與B連接構(gòu)成一個(gè)新的特征向量的操作;‖ · ‖1表示1范數(shù)距離。式(2)中,[K1(i),K2(i)]表示超像素si在第1和第2時(shí)相圖像當(dāng)中的特征向量連接而成的新的特征向量,[K1(j),K2(j)]同理。因此,C2(i,j)表示了超像素對(duì)(si,sj)在特征空間中的距離。

空間連續(xù)性準(zhǔn)則[14]。該準(zhǔn)則的目的是在合并超像素的同時(shí)保持邊緣結(jié)構(gòu)不被破壞。類(lèi)似于文獻(xiàn)[13]中紋理特征向量的提取,運(yùn)用4種尺度的Prewitt核[16]對(duì)PolSAR對(duì)數(shù)功率圖提取邊緣特征,可以得到超像素的邊緣特征向量H1(i,j)和H2(i,j)。由此定義空間連續(xù)性準(zhǔn)則為

C3(i,j)=

(3)

Wishart距離準(zhǔn)則。該準(zhǔn)則用到PolSAR圖像的Wishart距離w1(i,j)與w2(i,j)(第一和第二時(shí)相中超像素si與sj的Wishart距離[4])。該準(zhǔn)則計(jì)算公式為

C4(i,j)=‖[w1(i,j)w2(i,j)]‖1

(4)

式中,w1(i,j)表示超像素對(duì)(si,sj)在第一時(shí)相的Wishart距離,而w2(i,j)表示他們?cè)诘诙r(shí)相的Wishart距離。實(shí)際上,C4(i,j)通過(guò)Wishart距離度量了超像素對(duì)(si,sj)在散射機(jī)制和強(qiáng)度上的差異度,C4(i,j)的值越大,表示超像素對(duì)之間的差異越大,反之越小。

根據(jù)上述4個(gè)準(zhǔn)則,計(jì)算得到任意超像素對(duì)(si,sj)之間的4個(gè)歸一化準(zhǔn)則量C1(i,j)、C2(i,j)、C3(i,j)和C4(i,j)。為了實(shí)現(xiàn)超像素合并,首先根據(jù)鄰接準(zhǔn)則C1(i,j)找到鄰接的超像素對(duì),D1表示超像素分割后所有鄰接超像素對(duì)的集合,即

D1={(si,sj)|C1(i,j)=1,i≠j,i,j=1,2,…,Ns}

(5)

再根據(jù)其余3條準(zhǔn)則確定要合并的超像素,即

D2={(si,sj)|Ck(i,j)≤β,(si,sj)∈D1,k=2,3,4}

(6)

D2為需要合并的超像素對(duì)的集合,其中β為[0,1]區(qū)間內(nèi)的值,需要預(yù)先設(shè)定。為了驗(yàn)證β對(duì)超像素合并的影響,設(shè)置不同的β值進(jìn)行超像素合并。通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)β值設(shè)置過(guò)小時(shí),超像素合并不完全,出現(xiàn)欠合并的現(xiàn)象;當(dāng)β值設(shè)置過(guò)大時(shí),出現(xiàn)過(guò)度合并的現(xiàn)象;而β取值在[0.16,0.2]時(shí),能夠達(dá)到較好的合并效果,因此本文當(dāng)中將β設(shè)定為0.16。

圖2給出了局部區(qū)域的聯(lián)合超像素分割及合并的結(jié)果圖。為了更好地反映分割與合并算法的效果,使用PolSAR圖像的Pauli偽彩色圖[3]表示原圖像,如圖2(a)和圖2(b)所示。圖2(c)與圖2(d)分別是圖2(a)與圖2(b)經(jīng)過(guò)聯(lián)合超像素分割的結(jié)果,超像素邊界用白色線表示,2幅圖像的分割區(qū)域完全一致,同時(shí)分割考慮了2幅圖的特有信息,即對(duì)于圖2(a)或圖2(b)當(dāng)中特有的區(qū)域,如發(fā)生變化的區(qū)域,也能夠很好地實(shí)現(xiàn)分割。圖2(e)和圖2(f)是在圖2(c)與圖2(d)的基礎(chǔ)上,進(jìn)行超像素合并后的結(jié)果。

圖2 局部區(qū)域聯(lián)合超像素分割結(jié)果與合并結(jié)果Fig.2 Joint super pixel segmentation results and merging results in local area

從圖2中可以觀察到,在同質(zhì)區(qū)域,實(shí)現(xiàn)了超像素合并,將同質(zhì)區(qū)域當(dāng)中的超像素合并在一起,形成了一個(gè)或有限幾個(gè)面積較大的超像素塊;而在場(chǎng)景復(fù)雜區(qū)域中,沒(méi)有進(jìn)行超像素合并,該區(qū)域內(nèi)超像素仍保持較小的面積。

1.2 結(jié)合空間信息的Wishart似然比差異圖

超像素合并之后,使用基于區(qū)域的Wishart距離可以得到差異圖。區(qū)域級(jí)Wishart距離[15,17]定義如下

(7)

(8)

式(8)表示基于超像素的PolSAR變化檢測(cè)差異度量計(jì)算方式,與式(7)的區(qū)別在于,d(si)表示了二時(shí)相圖像在同一超像素區(qū)域si的差異。當(dāng)前存在的問(wèn)題是,聯(lián)合合并之后超像素大小是不均勻的,即存在N同質(zhì)區(qū)域超像素?N非同質(zhì)區(qū)域超像素的情況,由圖2也可觀察到該結(jié)論。此現(xiàn)象導(dǎo)致同質(zhì)區(qū)域間的差異值遠(yuǎn)遠(yuǎn)大于非同質(zhì)區(qū)域間的,這與實(shí)際情況相違。基于以上原因,本文修改距離公式得到以下差異度量為

(9)

式(9)是用參數(shù)Ni歸一化后的距離度量公式,保持距離的合理性的同時(shí)去掉了Ni對(duì)距離計(jì)算的影響,使距離計(jì)算正確且與實(shí)際情況相符。通過(guò)使用合并后的超像素標(biāo)記計(jì)算差異值,一定程度上去除了同質(zhì)區(qū)域相干斑噪聲的影響,同時(shí)由于場(chǎng)景復(fù)雜區(qū)域內(nèi)的超像素未合并,該區(qū)域的邊緣特征得到保持,提升了差異圖中變化區(qū)域形狀信息表示的準(zhǔn)確性。

2 預(yù)分類(lèi)算法

預(yù)分類(lèi)算法是為了獲得大量有標(biāo)號(hào)的樣本用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)及初次劃分圖像場(chǎng)景。本文的預(yù)分類(lèi)算法改進(jìn)了文獻(xiàn)[18]所提的預(yù)分類(lèi)算法。原方法中閾值設(shè)定過(guò)程涉及到差異圖特征提取、聚類(lèi)及參數(shù)設(shè)置等步驟。本文方法在此基礎(chǔ)上進(jìn)行改進(jìn)。首先對(duì)差異圖進(jìn)行大尺度的中值濾波,一定程度消除相干斑帶來(lái)的影響。窗口尺寸一般設(shè)為30×30,然后用模糊C均值聚類(lèi)(fuzzy C mean clustering,FCM)算法[19]依據(jù)像素幅值進(jìn)行二類(lèi)分類(lèi),根據(jù)分類(lèi)結(jié)果獲得變化類(lèi)的樣本數(shù)T,將其設(shè)定為閾值。利用中值濾波的平滑效果,差異圖中反映變化的區(qū)域?qū)U(kuò)大,同時(shí)部分由相干斑噪聲引起的面積很小的偽變化區(qū)域被去除。改進(jìn)后的方法相比于原始方法[18]可以獲得更多的正負(fù)類(lèi)偽訓(xùn)練樣本,更好的魯棒性能,且能夠?qū)崿F(xiàn)閾值的自動(dòng)化選擇。除閾值設(shè)定外,其余步驟與原始方法一致。

使用上述方法可以獲得預(yù)分類(lèi)結(jié)果圖像I,I中像素被分為3類(lèi):變化類(lèi)、待確定類(lèi)和未變化類(lèi),在圖像中分別由標(biāo)號(hào)1、0.5和0表示。為了提高樣本的置信度,按如下方式進(jìn)一步處理結(jié)果I:對(duì)結(jié)果圖像I中的像素點(diǎn)(x,y),用Lx,y表示該像素點(diǎn)的標(biāo)號(hào),若Lx,y=0.5,則保持該點(diǎn)標(biāo)號(hào)不變;否則,取其5×5的鄰域作為操作區(qū)域,若操作區(qū)域當(dāng)中有超過(guò)一半的像素標(biāo)號(hào)與Lx,y一致,則保持(x,y)的標(biāo)號(hào)不變,否則將Lx.y置為0.5,即將該樣本點(diǎn)劃分到待確定類(lèi)。最終預(yù)分類(lèi)算法將整個(gè)圖像場(chǎng)景分為3類(lèi),即變化類(lèi)(L=1),未變化類(lèi)(L=0)及待確定類(lèi)(L=0.5)。

3 基于DCNN的PolSAR圖像變化檢測(cè)

深度學(xué)習(xí)在單極化SAR圖像處理當(dāng)中已經(jīng)得到了廣泛的應(yīng)用,但在多極化SAR圖像處理領(lǐng)域應(yīng)用較少。文獻(xiàn)[12]在2016年提出了基于DCNN的PolSAR圖像分類(lèi)算法,相比于傳統(tǒng)方法取得了更好的結(jié)果,表明了深度學(xué)習(xí)在PolSAR圖像處理中提取特征和分類(lèi)方面的優(yōu)勢(shì),受到該方法及一系列基于深度學(xué)習(xí)的單極化SAR圖像變化檢測(cè)方法[9-11]的啟發(fā),本文提出了基于DCNN的PolSAR圖像變化檢測(cè)算法。

3.1 PolSAR圖像特征選擇與數(shù)據(jù)標(biāo)準(zhǔn)化

3.1.1 PolSAR圖像特征選擇

全極化SAR數(shù)據(jù)由4個(gè)通道構(gòu)成,分別為SHH、SHV、SVH和SVV(下標(biāo)第1個(gè)字母代表接收極化方向,第2個(gè)字母代表發(fā)射極化方向)。單站情況下,SHV=SVH,一般使用大小為3×3的極化協(xié)方差矩陣或者極化相干矩陣描述每一像素點(diǎn)處的散射信息[3]。

為了更有效地訓(xùn)練DCNN,從原始圖像數(shù)據(jù)中每一像素點(diǎn)處提取6種原始特征構(gòu)成網(wǎng)絡(luò)輸入,即

(10)

式中,SPAN表示散射功率;T22代表極化相干矩陣對(duì)角線上的第2個(gè)元素;T33代表極化相干矩陣對(duì)角線上的第3個(gè)元素,其中A、B、C特征來(lái)自極化相干矩陣,分別反映了散射總功率、方向?yàn)?°的偶次散射及方向?yàn)?5°的二面角散射[3];D、E、F分別表示Pauli極化分解[3]偽彩色圖像的3個(gè)通道。本文A、B、C特征取自文獻(xiàn)[12]。對(duì)于文獻(xiàn)[12]中的其他特征,通過(guò)分析其在變化檢測(cè)當(dāng)中的可分性,發(fā)現(xiàn)可分性不夠好,因此去掉了這些特征。根據(jù)文獻(xiàn)[20],PolSAR數(shù)據(jù)經(jīng)過(guò)Pauli分解和偽彩色編碼得到的偽彩色特征對(duì)于分類(lèi)有提升效果,也能更好地突出變化區(qū)域的形狀和輪廓信息,所以在特征A、B、C的基礎(chǔ)上,加入Pauli偽彩色圖的3通道作為補(bǔ)充,進(jìn)一步提升特征的整體可分性。

3.1.2 數(shù)據(jù)標(biāo)準(zhǔn)化

為實(shí)現(xiàn)像素級(jí)上的分類(lèi),需要構(gòu)建以像素為中心的特征表達(dá)作為網(wǎng)絡(luò)的原始輸入。本文方法中,提取以任意坐標(biāo)(x,y)為中心的s×s(s代表像素點(diǎn)數(shù),且s為奇數(shù))鄰域中所有像素點(diǎn)的6種特征作為(x,y)的特征表達(dá),即得到尺寸為s×s×6的特征表示。具體到變化檢測(cè)任務(wù),兩幅圖像在(x,y)坐標(biāo)處對(duì)應(yīng)的特征分別記為p1(x,y)和p2(x,y),將p1(x,y)和p2(x,y)按數(shù)據(jù)維度的第一維聯(lián)結(jié)起來(lái),即拼接成大小為2s×s×6的聯(lián)合特征。對(duì)訓(xùn)練集、驗(yàn)證集、測(cè)試集樣本都需要進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化操作,操作后所得的聯(lián)合特征數(shù)據(jù)將用于后續(xù)的訓(xùn)練和測(cè)試過(guò)程。

3.2 DCNN結(jié)構(gòu)

本文使用的DCNN連接類(lèi)似于經(jīng)典的AlexNet[21]與文獻(xiàn)[12]的網(wǎng)絡(luò)結(jié)構(gòu),結(jié)構(gòu)如圖3所示。假定輸入數(shù)據(jù)大小為m×n×c,在卷積層Conv1,需要進(jìn)行P=2的空間填充,此時(shí)數(shù)據(jù)尺寸為(m+4)×(n+4)×c,用20個(gè)3×3×c的卷積核實(shí)現(xiàn)卷積操作,生成維度(m+2)×(n+2)×20的數(shù)據(jù)。池化層功能相當(dāng)于下采樣,可以削減數(shù)據(jù)大小和權(quán)值數(shù),本方法中池化層都采用最大值池化[21]。在池化層P1,由于本文輸入數(shù)據(jù)設(shè)定為2s×s,其中s為奇數(shù),卷積后數(shù)據(jù)的第2維無(wú)法進(jìn)行步幅為2的池化,因此需要在池化之前在第2維做P=1的零填充,然后進(jìn)行2×2的最大值池化,輸出維度(m/2+1)×((n+1)/2+1)×20的數(shù)據(jù)。在卷積層Conv2,首先進(jìn)行P=1的零填充操作,此時(shí)數(shù)據(jù)大小為(m/2+3)×((n+1)/2+3)×20,經(jīng)50個(gè)3×3×20的卷積核操作得到維度(m/2+1)×((n+1)/2+1)×50的輸出。在池化層P2,池化后的數(shù)據(jù)尺寸為((m+2)/4)×((n+3)/4)×50。全連接層F1輸出大小為1×1×500。F1后接ReLU激活函數(shù)[21]實(shí)現(xiàn)非線性變換并加速算法收斂。全連接層F2有2個(gè)輸出,其后接Softmax Loss層[22],輸出的2個(gè)值分別表示樣本屬于變化類(lèi)與非變化類(lèi)的概率,最終據(jù)此概率判斷輸入樣本的類(lèi)別。

圖3 DCNN結(jié)構(gòu)Fig.3 Architecture of DCNN

3.3 訓(xùn)練DCNN

本文采用經(jīng)典方式訓(xùn)練DCNN,損失函數(shù)為交叉熵函數(shù)[22],使用沖量隨機(jī)梯度下降算法[23]在反向傳播過(guò)程中更新參數(shù),使用文獻(xiàn)[12]中深度卷積網(wǎng)絡(luò)的更新規(guī)則進(jìn)行更新,具體表示為

(11)

ωi+1=ωi+vi+1

(12)

式中,ωi代表第i次迭代的權(quán)值參數(shù);L表示損失函數(shù)。

式(11)中,沖量參數(shù)設(shè)為0.9,權(quán)值衰減系數(shù)(weight-decay)設(shè)為0.000 5,i代表迭代次數(shù),vi代表第i次迭代時(shí)的速度參數(shù),ε表示學(xué)習(xí)率。此外,學(xué)習(xí)率的設(shè)定方式也與文獻(xiàn)[12]中的更新方式相同。訓(xùn)練開(kāi)始之前,網(wǎng)絡(luò)中所有權(quán)值和偏置用均值為0、方差為0.01的高斯分布隨機(jī)初始化,速度值v初始化為0。

4 實(shí)驗(yàn)結(jié)果

為了驗(yàn)證本文算法的有效性,在實(shí)測(cè)數(shù)據(jù)上進(jìn)行變化檢測(cè)實(shí)驗(yàn),同時(shí)與多種PolSAR變化檢測(cè)方法進(jìn)行對(duì)比。使用制圖精度、用戶精度、總體分類(lèi)精度及Kappa系數(shù)[24]等指標(biāo)對(duì)多種算法的實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)估。本文使用的實(shí)驗(yàn)數(shù)據(jù)是由美國(guó)空軍實(shí)驗(yàn)室(airforce research laboratory,AFRL)提供的X波段三通道PolSAR數(shù)據(jù)[25],實(shí)驗(yàn)所用數(shù)據(jù)為2幅三通道PolSAR圖像,場(chǎng)景大小均為1 501×1 501,兩幅圖像發(fā)生的變化主要為車(chē)輛的移動(dòng),具體可見(jiàn)圖4。圖4(a)與圖4(b)分別是實(shí)驗(yàn)當(dāng)中所使用的原始PolSAR數(shù)據(jù)的Pauli分解偽彩色圖像,圖4(a)是第一時(shí)相的偽彩色圖,圖4(b)是第二時(shí)相的偽彩色圖,圖4(a)與4(b)的不同之處就是場(chǎng)景中的車(chē)輛發(fā)生了移動(dòng),產(chǎn)生了變化。圖4(c)是人工標(biāo)記的Groundtruth圖像,反映了真實(shí)的車(chē)輛變化區(qū)域。

圖4 實(shí)驗(yàn)圖像和參考圖像Fig.4 Experiment images and Groundtruth image

利用本文所提算法及像素級(jí)Wishart似然比檢測(cè)[4](記為Wishart)、基于HLT檢驗(yàn)統(tǒng)計(jì)量的變化檢測(cè)[2](Hotelling-Lawley Trace Statistic,記為HLT)、似然比變化檢測(cè)算法[26](記為L(zhǎng)R)、超像素級(jí)Wishart似然比檢測(cè)[6](記為Region Wishart)、基于超像素和多數(shù)投票(method based on superpixel and majority voting,SMV)[8]等方法對(duì)所選數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。Wishart(0.005)表示在顯著性水平為0.005時(shí)的檢測(cè)結(jié)果,Wishart(k-means)表示對(duì)檢驗(yàn)統(tǒng)計(jì)量進(jìn)行k-means聚類(lèi)的實(shí)驗(yàn)結(jié)果,HLT(0.005)和HLT(k-means)意義也同上。LR(0.1)表示閾值設(shè)為0.1的結(jié)果。實(shí)驗(yàn)參數(shù)設(shè)置方面,為了驗(yàn)證鄰域大小對(duì)實(shí)驗(yàn)結(jié)果的影響,分別使用3×3、5×5、7×7、9×9的鄰域數(shù)據(jù)構(gòu)建訓(xùn)練集數(shù)據(jù)、驗(yàn)證集數(shù)據(jù)和測(cè)試集數(shù)據(jù),數(shù)據(jù)當(dāng)中每一個(gè)樣本的大小分別為6×3×6、10×5×6、14×7×6和18×9×6,相應(yīng)地將這4種樣本訓(xùn)練的DCNN簡(jiǎn)稱(chēng)為DCNN1、DCNN2、DCNN3和DCNN4,通過(guò)實(shí)驗(yàn)結(jié)果對(duì)比將DCNN4結(jié)果作為本文結(jié)果。此外,在實(shí)驗(yàn)當(dāng)中,超像素分割尺度設(shè)為3,合并準(zhǔn)則閾值β設(shè)為0.16,其余參數(shù)如上文所述。實(shí)驗(yàn)結(jié)果在表1和圖5當(dāng)中給出。由于預(yù)分類(lèi)算法獲得的偽訓(xùn)練樣本中存在嚴(yán)重的類(lèi)別不平衡現(xiàn)象,因此對(duì)少數(shù)類(lèi)即變化類(lèi)采用翻轉(zhuǎn)和復(fù)制的方式進(jìn)行數(shù)據(jù)擴(kuò)充,一定程度上改善了類(lèi)別的不平衡程度。

表1中,Pc(producer’s accuracies of changed)與Pu(producer’s accuracies of unchanged)分別表示變化類(lèi)和未變化類(lèi)制圖精度[5,7],Uc(user’s accuracies of changed)與Uu(user’s accuracies of unchanged)分別表示變化和未變化類(lèi)用戶精度[5,7],FA(number of false alarms)、MA(number of missed alarms)、Pcc與Kappa分別表示虛警數(shù)、漏警數(shù)、總體分類(lèi)精度及Kappa系數(shù)[24]。

表1 多種變化檢測(cè)方法性能參數(shù)比較

圖5 實(shí)驗(yàn)結(jié)果對(duì)比Fig.5 Comparison of experimental results

由表1中的性能參數(shù)對(duì)比及圖5中實(shí)測(cè)數(shù)據(jù)實(shí)驗(yàn)結(jié)果對(duì)比可知,本文方法DCNN4的結(jié)果相比于其他方法更具優(yōu)勢(shì)。相對(duì)于本方法而言,統(tǒng)計(jì)建模方法能夠獲得較高的檢測(cè)率,同時(shí)虛警率也很高,這是由于不能夠?qū)?shù)據(jù)進(jìn)行精確的統(tǒng)計(jì)建模造成的;對(duì)于運(yùn)用超像素分割的方法,分割的不準(zhǔn)確性或所選擇的特征對(duì)于不同數(shù)據(jù)的表現(xiàn)不同都會(huì)導(dǎo)致超像素方法的不穩(wěn)定。本文方法首先借助聯(lián)合超像素合并的空間信息得到了類(lèi)別的粗劃分結(jié)果,然后訓(xùn)練神經(jīng)網(wǎng)絡(luò)可以從數(shù)據(jù)本身學(xué)到優(yōu)化的特征表達(dá)用于分類(lèi)任務(wù),避免了統(tǒng)計(jì)建?;虺袼胤指畹牟粶?zhǔn)確性帶來(lái)的誤差。由圖5看出,本文所提方法的檢測(cè)結(jié)果與人工標(biāo)注的參考圖更加接近,檢測(cè)區(qū)域更平滑與集中,能夠更加準(zhǔn)確地反映變化區(qū)域的形狀。

通過(guò)對(duì)比多種方法所得到的實(shí)驗(yàn)結(jié)果與性能參數(shù),可以總結(jié)出本文方法相對(duì)于傳統(tǒng)方法具有以下優(yōu)點(diǎn):①本文方法能夠很大程度降低相干斑噪聲的影響。從結(jié)果圖中可以看出,相對(duì)于大部分傳統(tǒng)算法,本文結(jié)果的虛警點(diǎn)數(shù)更少;②本文方法結(jié)合超像素合并與DCNN訓(xùn)練,能夠較好地保持變化區(qū)域的輪廓信息,由圖5及表1中Pcc和Kappa系數(shù)等參數(shù)的對(duì)比可以證明本文方法對(duì)變化區(qū)域輪廓刻畫(huà)的準(zhǔn)確性比傳統(tǒng)方法更高。

5 結(jié) 論

本文以PolSAR圖像變化檢測(cè)為目的,構(gòu)建了以DCNN為中心的變化檢測(cè)算法,將變化檢測(cè)問(wèn)題轉(zhuǎn)換為分類(lèi)問(wèn)題加以解決,實(shí)現(xiàn)了自動(dòng)的、無(wú)監(jiān)督的變化檢測(cè)。本方法結(jié)合了空間和像素的信息,通過(guò)兩種信息的交互使用,一定程度克服了單獨(dú)使用像素級(jí)或者超像素級(jí)的方法的缺點(diǎn)。同時(shí),利用DCNN在特征提取和分類(lèi)方面的優(yōu)越性,在保持較高檢測(cè)率的同時(shí)將虛警控制在較低的水平,提高了算法的穩(wěn)定性,相比于傳統(tǒng)算法具有更好的性能。

參考文獻(xiàn):

[1] 公茂果, 蘇臨之, 李豪, 等. 合成孔徑雷達(dá)影像變化檢測(cè)研究進(jìn)展[J].計(jì)算機(jī)研究與發(fā)展, 2016, 53 (1): 123-137.

GONG M G, SU L Z, LI H, et al. A survey on change detection in synthetic aperture radar imagery[J]. Journal of Computer Research and Development, 2016, 53 (1): 123-137.

[2] AKBARI V, ANFINSEN S N, DOULGERIS A P, et al. Polarimetric SAR change detection with the complex hotelling-lawley trace statistic[J]. IEEE Trans.on Geoscience and Remote Sensing, 2016, 54(7): 3953-3966.

[3] LEE J S, POTTIER E. Polarimetric imaging: from basics to applications[M]. Boca Raton, FL: CRC Press, 2009.

[4] CONRADSEN K, NIELSEN A A, SCHOU J, et al. A test statistic in the complex Wishart distribution and its application to change detection in polarimetric SAR data[J]. IEEE Trans.on Geoscience and Remote Sensing, 2003, 41(1): 4-19.

[5] LIU M, ZHANG H, WANG C. Change detection of multilook polarimetric SAR images using heterogeneous clutter models[J]. IEEE Trans.on Geoscience and Remote Sensing, 2014, 52(12): 7483-7494.

[6] YANG W, SONG H, XIA G S, et al. Dissimilarity measurements for processing and analyzing PolSAR data: a survey[C]∥Proc.of the IEEE International Geoscience and Remote Sensing Symposium, 2015: 1562-1565.

[7] YANG W, YANG X L, YAN T H, et al. Region-based change detection for polarimetric SAR images using Wishart mixture models[J]. IEEE Trans.on Geoscience and Remote Sensing, 2016, 54 (11): 6746-6756.

[8] XIE L, ZHANG H, WANG C, et al. Superpixel-based PolSAR images change detection[C]∥Proc.of the 5th IEEE Asia-Pacific Conference on Synthetic Aperture Radar,2015: 792-796.

[9] GONG M G, ZHAN T, ZHANG P Z, et al. Superpixel-based difference representation learning for change detection in multispectral remote sensing images[J]. IEEE Trans.on Geoscience and Remote Sensing, 2017, 55(5): 2658-2673.

[10] GONG M G, ZHAO J J, MIAO Q G, et al. Change detection in synthetic aperture radar images based on deep neural networks[J]. IEEE Trans.on Neural and Learning Systems, 2016, 27(1): 125-138.

[11] LI Y, GONG M G, JIAO L C, et al. Change-detection map learning using matching pursuit[J]. IEEE Trans.on Geoscience and Remote Sensing, 2015, 53(8): 4712-4723.

[12] ZHOU Y, WANG H, XU F, et al. Polarimetric SAR image classification using deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1935-1939.

[13] WANG Y H, LIU H W. PolSAR ship detection based on superpixel-level scattering mechanism distribution features[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(8): 1780-1784.

[14] YU H, ZHANG X R, WANG S, et al. Context-based hierarchical unequal merging for SAR image segmentation[J]. IEEE Trans.on Geoscience and Remote Sensing, 2013, 51(2): 995-1009.

[15] HE J L, WANG Y H, LIU H W, et al. A novel automatic PoLSAR ship detection method based on superpixel-level local information measurement[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(3): 384-388.

[16] HARALICK R M. Digital step edges from zero crossing of second directional derivatives[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 1984, 6(1): 58-68.

[17] CAO F, HONG W, WU Y, et al. An unsupervised segmentation with an adaptive number of clusters using the SPAN/H/α/a space and the complex Wishart clustering for fully polarimetric SAR data analysis[J]. IEEE Trans.on Geoscience and Remote Sensing, 2007, 45(11): 3454-3467.

[18] GAO F, DONG J, LI B, et al. Automatic change detection in synthetic aperture radar images based on PCANet[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1792-1796.

[19] BEZDEK J C, EHRLICH R, FULL W. FCM: the fuzzy c-means clustering algorithm[J].Computers and Geosciences,1984,10(2): 191-203.

[20] UHLMANN S, KIRANYAZ S. Integrating color features in polarimetric SAR image classification[J]. IEEE Trans.on Geoscience and Remote Sensing, 2014, 52(4): 2197-2216.

[21] KRIZHEVSKY A, SUTSKEVER I, HINTON G E, et al. ImageNet classification with deep convolutional neural networks[C]∥Proc.of the Advances in Neural Information Processing Systems, 2012: 1097-1105.

[22] XU C, LU C, LIANG X,et al. Multi-loss regularized deep neural network[J]. IEEE Trans.on Circuits and Systems for Video Technology, 2016, 26(12): 2273-2283.

[23] POLJAK B T. Some methods of speeding up the convergence of iterative methods[J]. USSR Computational Mathematics and Mathematical Physics, 1964, 4(5): 1-17.

[24] STEHMAN S V. Selecting and interpreting measures of thematic classification accuracy[J]. Remote Sensing of Environment, 1997, 62(1): 77-89.

[25] SCARBOROUGH S M, GORHAM L R, MINARDI M J, et al. A challenge problem for SAR change detection and data compression[C]∥Proc.of the International society for optical Engineering, 2010: 1-5.

[26] FERRO-FAMIL L, NEUMANN M. Recent advances in the derivation of PoL-inSAR statistics: study and applications[C]∥Proc.of the 7th European Conference on Synthetic Aperture Radar, 2008: 1-4.

猜你喜歡
區(qū)域方法
永久基本農(nóng)田集中區(qū)域“禁廢”
分割區(qū)域
學(xué)習(xí)方法
關(guān)于四色猜想
分區(qū)域
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢(qián)方法
捕魚(yú)
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 天天综合网色中文字幕| 日本午夜网站| 国产亚洲男人的天堂在线观看| 97在线视频免费观看| 欧美日韩国产在线人成app| 99中文字幕亚洲一区二区| 久久国产黑丝袜视频| 亚洲国产日韩视频观看| AV网站中文| 国产在线专区| 在线99视频| 亚洲品质国产精品无码| 永久免费无码成人网站| 久青草免费在线视频| 四虎影院国产| 久久9966精品国产免费| 91日本在线观看亚洲精品| 国产精品短篇二区| 国产成人精品一区二区| 国产精选小视频在线观看| 波多野结衣久久精品| 亚洲欧美国产视频| 黄色网址免费在线| 中文字幕亚洲专区第19页| 免费一级全黄少妇性色生活片| 99精品免费在线| 日韩精品无码免费一区二区三区 | 久草视频中文| 中国国产高清免费AV片| 在线看AV天堂| 日本国产在线| 五月婷婷综合网| 欧美激情网址| 国产精品粉嫩| 亚洲欧美另类中文字幕| 伊人色天堂| 亚洲欧洲日韩久久狠狠爱| 色综合天天操| 国产精女同一区二区三区久| 国产自在线拍| 国产区在线观看视频| 亚洲精品视频网| 亚洲精品欧美日本中文字幕| 999精品在线视频| 国产精品嫩草影院视频| 亚洲欧美一区二区三区麻豆| 国产v精品成人免费视频71pao| 欧美日韩北条麻妃一区二区| 国产视频 第一页| 国产凹凸视频在线观看| 婷婷久久综合九色综合88| 91国内在线观看| 日本道中文字幕久久一区| 亚洲美女高潮久久久久久久| 日本亚洲欧美在线| 99尹人香蕉国产免费天天拍| 免费国产高清精品一区在线| 成人亚洲国产| 91原创视频在线| 久久香蕉国产线看观看亚洲片| 六月婷婷激情综合| 欧美国产日韩另类| 婷婷伊人久久| 国产啪在线91| 亚洲欧美天堂网| 婷婷中文在线| 精品无码专区亚洲| 午夜精品区| 国产亚洲精品97在线观看| 亚洲av片在线免费观看| 乱人伦99久久| 欧美成人精品在线| 福利小视频在线播放| 中文字幕伦视频| 一级全免费视频播放| 国产视频只有无码精品| 欧美国产中文| 99这里只有精品免费视频| 精品無碼一區在線觀看 | 日本黄色不卡视频| 亚洲日韩精品无码专区| 亚洲精品片911|