趙娟萍 郭煒煒 柳 彬 崔世勇 張增輝* 郁文賢
①(上海交通大學智能探測與識別上海市高校重點實驗室 上海 200240)
②(德國宇航局遙感技術研究所 德國韋斯靈 82234)
基于概率轉移卷積神經網絡的含噪標記SAR圖像分類
趙娟萍①郭煒煒①柳 彬①崔世勇②張增輝*①郁文賢①
①(上海交通大學智能探測與識別上海市高校重點實驗室 上海 200240)
②(德國宇航局遙感技術研究所 德國韋斯靈 82234)
合成孔徑雷達(Synthetic Aperture Radar, SAR)圖像分類是SAR圖像解譯的重要任務。以卷積神經網絡(Convolutional Neural Networks, CNN)為代表的監督學習方法需要大量已標注的訓練樣本。然而對于SAR圖像真值標注而言,由于SAR特殊的成像機理,圖像受相干斑噪聲、幾何畸變和結構缺失等因素影響較為嚴重,非直觀性較強,使得SAR圖像人工標注非常困難,極易出錯,從而導致CNN等模型學習和泛化性能急劇降低。針對這種含噪標記條件下的SAR圖像分類問題,該文提出了一種基于概率轉移模型的卷積神經網絡(Probability Transition CNN, PTCNN)方法,該方法在傳統CNN模型基礎上,基于含噪標記與正確標記之間的概率轉移模型,建立噪聲標記轉移層,這種新的卷積網絡模型可潛在地校正錯誤標記,增強了含噪標記下分類模型的魯棒性。與經典CNN等模型相比,在構建的16類SAR圖像地物數據集和MSTAR數據集上的實驗結果表明該文方法相比于經典CNN等模型,在保持SAR圖像分類性能的同時具有較好的抗噪性,能夠有效校正訓練樣本中的標注錯誤,從而降低了SAR圖像有監督分類任務對樣本標注質量的要求,具有一定的研究價值與應用前景。
合成孔徑雷達(SAR)圖像分類;監督學習;含噪標記;概率轉移卷積神經網絡(PTCNN);深度特征
合成孔徑雷達(Synthetic Aperture Radar, SAR)全天時全天候的優勢使其在軍用和民用領域中都有著非常廣泛的應用。近年來,以卷積神經網絡(Convolutional Neural Networks, CNN)[1]為代表的監督學習方法在自然圖像理解,如圖像分類[2,3]、目標檢測[4]、以及自然語言處理[5,6]等領域中取得了顯著成功。在SAR圖像解譯領域,學者們也對CNN應用于SAR圖像分類和識別進行了初步嘗試[7—13],在MSTAR數據集和地物分類數據集上[12]的測試結果顯示CNN能夠顯著提高SAR目標識別和地物分類的準確率,表明CNN對SAR圖像解譯同樣具有很大潛力。為了解決MSTAR數據規模小和避免過擬合問題,文獻[7,10]基于自編碼方法進行網絡的預訓練,文獻[11,13]對MSTAR原始數據進行變換來增加樣本數量,文獻[9]將CNN作為一種特征提取器來提取MSTAR圖像深度特征,并結合SVM進行MSTAR車輛目標識別。最近,文獻[13]提出了一種全卷積神經網絡(A-ConvNets)對MSTAR車輛目標進行識別,識別率達到了99%以上,取得了目前在MSTAR數據集上最好的效果。
雖然CNN在SAR圖像分類中取得了較好的效果,但是這種監督學習方法需要大規模、正確標注的訓練樣本[14]。然而SAR特殊的成像機理(相干成像、主動式、微波波段等)使得圖像存在嚴重的相干斑噪聲、幾何畸變與結構缺失現象,圖像非直觀性強、理解難度大,即使經驗豐富的判讀專家也需要借助豐富的先驗信息才能對SAR圖像進行準確判讀;對于非合作目標,先驗信息的缺乏極易導致圖像錯標。SAR圖像中這種觀測樣本與其標注不一致的現象造成SAR圖像解譯中的含噪標記問題。在SAR圖像分類中,直接使用含噪標記樣本進行監督學習,必然會使得分類性能下降、模型復雜度上升和過擬合問題[15]。目前,含噪標記條件下的圖像分類問題在計算機視覺和機器學習領域也逐漸引起重視,主要的解決方法是通過改進損失函數的正則化約束項來提高分類器對噪聲標記的魯棒性[15,16],而且這些方法基于人工設計的特征,且特征提取與分類器訓練分階段進行,并不具備特征學習的能力,使得分類性能和對噪聲標記的魯棒性進一步降低。而近年來興起的CNN等深度模型由于參數多,雖然具有更強特征學習和表達能力,但更容易受到噪聲標記的影響。
目前,針對這種SAR圖像解譯中廣泛存在的含噪標記問題還鮮有研究。為解決該問題,克服含噪標記條件下SAR圖像的分類識別性能和泛化性能下降問題,本文提出了一種基于概率轉移模型的卷積神經網絡(Probability Transition CNN, PTCNN)方法,該方法在CNN模型基礎上,基于含噪標記與正確標記之間的概率轉移模型,建立了噪聲標記轉移層,構建了一種新的卷積網絡模型,其一方面能充分利用CNN較強的圖像表征能力,另一方面可潛在地對錯誤標記進行校正,從而增強了含噪標記條件下CNN模型的魯棒性,降低了經典CNN方法對訓練樣本標注質量的要求。本文分別在構建的16類SAR圖像地物數據集和美國MSTAR數據集上進行實驗,分析了不同噪聲比例條件下SAR圖像分類性能,并與經典CNN方法和支持向量機(Supported Vector Machine, SVM)算法進行對比,實驗結果表明相比于傳統模型,本文提出的PTCNN模型具備較好的抗噪性,在含噪標記條件下能夠保持較好的分類性能,從而有效降低了SAR圖像標注質量對分類器性能的影響。
針對含噪標記條件下的SAR圖像分類問題,本文PTCNN網絡結構如圖1所示,該模型主要分為兩部分:(1)深度特征提取部分;(2)概率轉移模型部分。深度特征提取部分采用經典的CNN模型提取訓練樣本x的深度特征(圖中C1, C2, C3, C4, C5均表示卷積層,S1, S2表示降采樣層,Fc6, Fc7,Fc8表示全連接層),概率轉移模型通過softmax分類器對深度特征進行分類,提取訓練樣本真值標注y的后驗概率含噪標記問題中隨機變量之間的相互依賴關系如圖2所示,由貝葉斯原理可得含噪標記的后驗概率

圖1 概率轉移卷積神經網絡Fig. 1 Probability transition convolutional neural network

圖2 SAR圖像含噪標記模型Fig. 2 Model of SAR image noisy labels
CNN是一種典型的有監督深度學習方法,其最初是受靈長動物視覺神經機制的啟發而設計的一種具有深度學習能力的人工神經網絡。CNN直接將原始圖像作為網絡輸入,有效避免了傳統算法中的特征提取和數據重建過程,提高了算法效率。但是,CNN并不是一個黑盒子,其內部通過一系列數學運算實現圖像表征。
具有局部連接和權值共享特性的卷積層是CNN的核心組成部分,該層每個神經元的輸入與前一層的局部感受野(Receptive Field)連接,提取圖像局部特征。其中,同一特征圖中的神經元提取前一層特征圖中不同位置的局部特征,而對單一神經元來說其提取的特征是前一層若干不同特征圖中相同位置的局部特征。
為了使神經網絡具有非線性擬合能力,需要將卷積等線性運算得到的結果通過一個非線性的激活函數。激活函數為CNN網絡引入非線性特征,使其具有非線性擬合能力。激活函數不僅影響數據的映射方式,而且不同的激活函數因梯度不同還會影響反向傳播過程。因此,反向傳播算法要求激活函數具有連續、可微、單調非遞減的性質。常用的激活函數有Sigmoid激活函數、tanh激活函數和ReLU激活函數。
降采樣層以采樣區域的大小為步長來掃描圖像。該網絡層在有效減少模型參數的同時保留了圖像的結構信息。常用的降采樣方法有最大值降采樣、均值降采樣等。
CNN訓練過程中由于有標記樣本規模小、網絡參數多,模型訓練容易過擬合。Dropout層在每次迭代訓練過程中隨機舍棄一些神經元,僅利用剩下的神經元參與訓練,有效減少了模型參數,能夠防止過擬合現象發生。
本文根據SAR圖像樣本庫構建與標注過程中變量之間的實際依賴關系,建立如圖2所示的SAR圖像含噪標記模型,圖中yn,分別表示觀測樣本xn對應的真值標注和含噪標注,和Q分別為深度特征提取參數集、softmax分類器參數集和概率轉移矩陣,本文假設含噪標記數據集中共有N個訓練樣本。
對于有噪聲標記的SAR圖像數據集D=其中觀測樣本集為相應的含噪標注集為真值標注集假設數據集共有K類,則。在模型訓練過程中,如果網絡輸入的觀測樣本表示為xn∈X,輸入數據在前向傳播過程中通過CNN逐層非線性映射到區分性較強的深度特征空間為:

然后通過softmax分類器獲得輸入數據真值標注的后驗概率P(yn|xn),將其寫成矩陣形式為:


將式(3)表示為矩陣形式


最后,通過最小化含噪標記條件下的正則化損失函數


如果Q=I,則有而理想情況下
3.1.1 SAR圖像地物數據集本文實驗數據來源于中國武漢地區和上海交通大學閔行校區的兩景TerraSAR-X衛星影像,其成像參數如表1所示。
針對這兩景TerraSAR-X影像,本文構建了一個包含16類地物類型(港口、稀疏建筑區、池塘、橋梁、濕地、艦船、小溪、公路、運動場、沙灘、密集建筑區、河流、森林、道路、綠化帶、水體)共5336個正確標記樣本的樣本庫。

表1 TerraSAR-X衛星成像參數Tab. 1 TerraSAR-X satellite imaging parameters
本文SAR圖像地物樣本庫構建借助德國宇航局的半自動化人機交互軟件平臺[20]并結合實地調繪完成。經過多視和上采樣處理后的兩景影像地距向像元尺寸在0.7 m~0.8 m之間,方位向像元尺寸均在0.6 m~0.7 m之間,因此將兩景圖像統一標注是合理的。高分辨率SAR圖像中200×200的樣本尺寸(本數據集中每個切片對應實際地表范圍約為150 m×130 m)能夠比較全面地反映圖像的類別信息[21,22],使得切片具有比較明顯的語義含義。表2所示為SAR地物樣本庫訓練集和測試集,其中每類地物類型總量的60%用于訓練,其余40%用于測試。
3.1.2 MSTAR數據集該部分實驗數據來源為美國MSTAR計劃公布的地面靜止軍事目標的聚束式SAR實測數據[23]。MSTAR數據集包含了軍用和民用的多種靜止軍事車輛目標,目標方位角覆蓋了0°~360°。本文用MSTAR數據中的10類目標并截取中間88×88大小的切片作為訓練和測試樣本[13],其中訓練集和測試集分別用15°方位角和17°方位角下的SAR樣本切片,訓練數據集和測試數據集如表3所示。
3.2.1 類別噪聲仿真為了驗證PTCNN模型的有效性,本文利用構建的16類正確標記TerraSAR-X地物數據集和MSTAR數據集仿真兩組含噪標記樣本庫。含噪標記仿真方法為:從每組訓練集的每類樣本中隨機抽取一定比例(本文噪聲比例分別選取10%, 20%, 30%, 40%, 50%),將相應類別標記設置為噪聲標記,其中標記噪聲服從式(8)所示的均勻分布。

表2 SAR圖像地物分類訓練與測試數據集Tab. 2 Training and testing set for SAR image land cover classification

其中,Pe表示訓練集中每類樣本正確標注的比例,則相應的含噪標記比例為1—Pe。
3.2.2 參數初始化本文將CNN作為一種特殊的特征學習方法,通過逐層線性或非線性映射從原始數據中提取圖像的深度特征。圖3(a)和圖3(b)分別為16類地物要素和MSTAR數據集車輛目標的深度特征提取模塊網絡結構。圖3(a)中“Conv1”、“Conv2”、“Conv3”、“Conv4”、“Conv5”層權值初始化為方差0.01的高斯分布,“Conv1”、“Conv3”層偏置設置為常數0,“Conv2”、“Conv4”、“Conv5”層偏置設置為常數1,“Norm1”、“Norm2”層局部窗口大小為5×5,縮放因子指數項β=0.75,“Fc6”, “Fc7”層權值初始化為方差0.05的高斯分布,偏置設置為常數1, “Fc8”層權值初始化為方差0.01的高斯分布,偏置初始化為常數0。圖3(b)中網絡結構參數初始化參照文獻[13]。

表3 用于訓練和測試的MSTAR數據集Tab. 3 Training and testing set of MSTAR database
3.2.3 對比算法為了說明本文方法能夠一定程度上解決含噪標記條件下的SAR圖像分類問題,降低錯誤標注對分類器性能的影響,提高分類模型對噪聲標記的魯棒性,本文將PTCNN與經典CNN方法和基于傳統特征的SVM算法進行對比。兩組數據集中經典CNN方法與PTCNN方法的區別都是僅僅缺少噪聲標記轉移層。

圖3 深度特征提取網絡結構Fig. 3 Deep feature extraction structure
而由于SVM算法分類性能與特征選擇密切相關,對于地物數據集,本文采用基于Gabor特征的SVM分類算法[20],這里提取的Gabor特征為48維(由4個方向、6個尺度下特征圖的均值和標準差依次組成),SVM分類器采用RBF核函數,通過網格搜索法得到最佳誤差項懲罰參數C=8000.0,最佳核函數系數
對于MSTAR數據集,采用基于PCA特征的SVM算法[24],PCA特征采用圖像原始幅度信息,特征維數通過網格搜索尋優法取35維。SVM分類器參數采用5次多項式核函數,通過網格搜索法得到最佳誤差項懲罰參數C=1,最佳多項式系數,最佳常數項值r=0[16]。
3.2.4 評價指標評價指標采用每種方法在每種噪聲比例下的分類準確率、混淆矩陣。
3.3.1 地物數據集實驗高分辨率TerraSAR-X影像豐富的地物類型和龐大的數據量為本實驗提供了充足的數據源,地物樣本數據庫通過PTCNN模型,采用迭代優化策略更新模型參數。模型訓練采用基于動量(momentum)法的SGD算法,初始學習率為0.001,每迭代400次學習率更新一次,衰減率為0.1,動量設置為0.9,最大迭代次數設置為4000使損失函數收斂。
不同噪聲比例下的地物分類準確率如表4所示。從表中可以看出,無論噪聲比例如何變化,PTCNN的分類準確率都優于其他兩種方法,且經典CNN模型分類準確率優于基于Gabor特征的SVM分類算法。因此,在SAR圖像地物要素分類性能方面:PTCNN>經典CNN>Gabor+SVM。

表4 不同標記噪聲比例下的地物分類準確率(%)Tab. 4 Land cover classification accuracies of different label noise fraction (%)
圖4(a)顯示了3種方法的地物分類準確率隨噪聲比例的變化曲線。從圖中可以看出,本文PTCNN網絡在不同噪聲比例下地物分類準確率保持在98.80%左右,基本不隨噪聲比例變化而變化,經典CNN網絡和基于Gabor特征的SVM算法分類準確率隨著噪聲比例的增加下降較明顯,其中SVM算法準確率最低且隨噪聲比例增加下降速度最快。所以在抗噪性能方面:PTCNN>經典CNN>Gabor+SVM。
圖4(b)為3種方法對車輛目標的分類準確率隨噪聲比例的變化曲線,從圖中可以看出,經過20000次迭代更新,PTCNN模型在不同噪聲比例下準確率最高,且隨噪聲比例的變化幅度較小,驗證了PTCNN模型對噪聲的敏感性較低,體現出其較好的抗噪性能。而基于PCA特征的SVM算法比經典CNN算法隨噪聲比例變化更緩慢,說明前者比后者抗噪性能好。說明PTCNN模型的抗噪性能最好,SVM算法次之,經典CNN模型抗噪性能最差。

圖4 分類準確率隨噪聲比例變化曲線Fig. 4 Classification accuracy varies with noise fraction

圖5 類別噪聲比例為30%時3種方法的測試混淆矩陣Fig. 5 Confusion matrix of three method with 30% noise fraction
圖5(a)、圖5(b)、圖5(c)分別是訓練樣本噪聲比例為30%時3種算法測試結果的混淆矩陣,明顯可以看出PTCNN模型的測試準確率最高,只有極個別樣本被錯分,經典CNN模型次之,基于Gabor特征的SVM算法測試準確率最低。
圖5給出了含噪標記條件下SAR圖像訓練樣本的PTCNN特征、CNN特征和Gabor特征,采用t-SNE (t-distributed Stochastic Neighbor Embedding)方法分別將其特征分布映射到2維空間中并可視化(3種方法在不同噪聲比例下的特征分布如圖6所示,圖中不同顏色表示不同的含噪標記,不同聚類表示預測的不同標記)。從圖6第1列圖6(a1)~圖6(f1)可以看出不同標記噪聲比例下的錯標樣本都被重新歸類,特征分布基本不隨噪聲比例變化而變化,從視覺上直觀地驗證了PTCNN模型較好的抗噪性能和分類性能。同樣地,從圖6中第2列圖6(a2)~圖6(f2)可以看出經典CNN特征受噪聲影響較大,且特征的可區分性隨標記噪聲比例的增加越來越差。圖6第3列圖6(a3)~圖6(f3)可以看出傳統Gabor特征可區分性比深度特征差,且對噪聲比較敏感。


圖6 不同標記噪聲比例下3種方法的特征分布Fig. 6 Feature distribution of three method with different noise label fractions
3.3.2 MSTAR數據集實驗MSTAR數據集對車輛目標分類的過程中,參數衰減系數設置為0.004,網絡學習率采用步進式策略,基礎學習率設為0.001,每迭代500次學習速率更新1次,各層權重與偏置更新策略采用基于動量(momentum)法的SGD算法,動量設置為0.9,最大迭代次數設置為20000次,直至目標函數收斂。不同噪聲比例下MSTAR車輛目標分類準確率如表5所示,同樣可以看出,不同噪聲比例下PTCNN模型對車輛目標的分類準確率優于經典CNN模型,而經典CNN模型分類性能又優于基于PCA特征的SVM算法。

表5 不同標記噪聲比例下MSTAR車輛目標分類準確率(%)Tab. 5 Classification accuracies of MSTAR vehicle target with different noise fractions (%)
SAR圖像由于其特殊的成像機理使得圖像目視解譯困難,直接獲取大規模、高質量標注的訓練樣本非常困難。本文針對含噪標記條件下的SAR圖像分類問題,提出了一種基于概率轉移模型的卷積神經網絡方法(PTCNN),首先提取訓練樣本的CNN特征,然后基于錯誤標記與正確標記之間的轉移概率模型,建立噪聲標記轉移層,從而構建了一種新的含噪標記條件下的卷積網絡模型。對比實驗采用基于傳統特征的概率轉移模型、采用經典CNN模型和SVM算法,分析不同比例噪聲對SAR圖像分類性能的影響,對比驗證了PTCNN模型相比經典CNN模型,能夠利用含噪標記樣本訓練出分類性能較好的模型,并且能夠潛在校正含噪標記,減小了含噪標記對模型訓練的影響,從而降低了SAR圖像分類任務對訓練樣本標注質量的要求,具有一定的研究價值與應用前景。
[1]Krizhevsky A, Sutskever I, and Hinton G E. Imagenet classification with deep convolutional neural networks[C].Advances in Neural Information Processing Systems, 2012:1097—1105.
[2]He K, Zhang X, Ren S,et al.. Spatial pyramid pooling in deep convolutional networks for visual recognition[J].IEEE transactions on pattern analysis and machine intelligence,2015, 37(9): 1904—1916. DOI: 10.1109/TPAMI.2015.2389824.
[3]Chan T H, Jia K, Gao S,et al.. PCANet: A simple deep learning baseline for image classification?[J].IEEE Transactions on Image Processing, 2015, 24(12): 5017—5032.DOI: 10.1109/TIP.2015.2475625.
[4]Chen X, Xiang S, Liu C L,et al.. Vehicle detection in satellite images by hybrid deep convolutional neural networks[J].IEEE Geoscience and remote sensing letters,2014, 11(10): 1797—1801. DOI: 10.1109/LGRS.2014.2309695.
[5]Kalchbrenner N, Grefenstette E, and Blunsom P. A convolutional neural network for modelling sentences[J].arXiv Preprint arXiv: 1404. 2188, 2014.
[6]Kim Y. Convolutional neural networks for sentence classification[J].arXiv Preprint arXiv: 1408. 5882, 2014.
[7]Chen S and Wang H. SAR target recognition based on deep learning[C]. 2014 International Conference on Data Science and Advanced Analytics (DSAA), Shanghai, 2014: 541—547.
[8]Wagner S. Combination of convolutional feature extraction and support vector machines for radar ATR[C]. 17th International Conference on Information Fusion (FUSION),Salamanca, 2014: 1—6.
[9]田壯壯, 占榮輝, 胡杰民, 等. 基于卷積神經網絡的SAR圖像目標識別研究[J]. 雷達學報, 2016, 5(3): 320—325.Tian Zhuangzhuang, Zhan Ronghui, Hu Jiemin,et al.. SAR ATR Based on Convolutional Neural Networks[J].Journal of Radars, 2016, 5(3): 320—325.
[10]Li X, Li C, Wang P,et al.. SAR ATR based on dividing CNN into CAE and SNN[C]. 5th Asia-Pacific Conference on Synthetic Aperture Radar (APSAR), Singapore, 2015:676—679.
[11]Ding J, Chen B, Liu H,et al.. Convolutional Neural Network With Data Augmentation for SAR Target Recognition[J].IEEE Geoscience and Remote Sensing Letters, 2016, 13(3): 364—368.
[12]Zhao J, Guo W, Cui S,et al.. Convolutional neural network for SAR image classification at patch level[C]. International Geoscience and Remote Sensing Symposium (IGARSS),Beijing, 2016: 945—948.
[13]Chen S, Wang H, Xu F,et al.. Target Classification Using the Deep Convolutional Networks for SAR Images[J].IEEE Transactions on Geoscience and Remote Sensing, 2016,54(8): 4806—4817. DOI: 10.1109/TGRS.2016.2551720.
[14]Deng J, Dong W, Socher R,et al.. Imagenet: A large-scale hierarchical image database[C]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Miami Beach, Florida, 2009: 248—255.
[15]Zhu X and Wu X. Class noise vs. attribute noise: A quantitative study[J].Artificial Intelligence Review, 2004,22(3): 177—210. DOI: 10.1007/s10462-004-0751-8.
[16]Chang C C and Lin C J. LIBSVM: a library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology(TIST), 2011, 2(3): 27.
[17]Jia Y, Shelhamer E, Donahue J,et al.. Caffe: Convolutional architecture for fast feature embedding[C]. Proceedings of the 22nd ACM International Conference on Multimedia,Orlando, 2014: 675—678.
[18]Hecht-Nielsen R. Theory of the backpropagation neural network[C]. IEEE International Joint Conference on Neural Networks, 1989: 593—605.
[19]Bottou L. Stochastic gradient learning in neural networks[J].Proceedings of Neuro-Nmes, 1991, 91(8).
[20]Cui S, Dumitru C O, and Datcu M. Semantic annotation in earth observation based on active learning[J].International Journal of Image and Data Fusion, 2014, 5(2): 152—174.DOI: 10.1080/19479832.2013.858778.
[21]Popescu A A, Gavat I, and Datcu M. Contextual descriptors for scene classes in very high resolution SAR images[J].IEEE Geoscience and Remote Sensing Letters,2012, 9(1): 80—84. DOI: 10.1109/LGRS.2011.2160838.
[22]Singh J, Cui S, Datcu M,et al.. A survey of density estimation for SAR images[C]. 20th European of Signal Processing Conference (EUSIPCO), 2012: 2526—2530.
[23]Ross T D, Worrell S W, Velten V J,et al.. Standard SAR ATR evaluation experiments using the MSTAR public release data set[C]. Aerospace/Defense Sensing and Controls. International Society for Optics and Photonics,1998: 566—573.
[24]Wu T, Chen X, Ruang X W,et al.. Study on SAR target recognition based on support vector machine[C]. 2nd Asian-Pacific Conference on Synthetic Aperture Radar, 2009:856—859.

趙娟萍(1991—),女,陜西渭南人,學士,于2014年獲西安電子科技大學學士學位,2014年9月至今,在上海交通大學電子信息與電氣工程學院攻讀博士研究生。研究方向為雷達圖像解譯、機器學習。
E-mail: juanpingzhao@sjtu.edu.cn

郭煒煒(1983—),男,江蘇南通人,博士,分別于2005年、2007年和2011年獲國防科技大學信息與通信工程專業學士、碩士和博士學位。2014年至今,在上海交通大學電子信息與電氣工程學院做博士后。主要從事圖像理解、模式識別與機器學習等方面的研究。
E-mail: gwnudt@163.com

柳 彬(1985—),男,湖南衡陽人,博士,助理研究員,分別于2007年、2009年和2015年獲上海交通大學信息工程、信號與信息處理和信號與信息處理學士、碩士和博士學位。2012年10月至2013年4月在法國巴黎高科電信學院訪問研究。2015年12月,任上海交通大學電信學院信息技術與電氣工程研究院助理研究員。主要從事雷達圖像的分割分類、目標檢測識別、多時相分析等方面的研究。
E-mail: bliu.rsti@sjtu.edu.cn

崔世勇(1984—),男,山東濰坊人,博士,德國宇航中心研究員。師從國際著名遙感影像信息挖掘學者Mihai Datcu教授和國際著名SAR學者Otmar Loffeld教授。2013年從德國錫根大學畢業并獲得電子工程與計算機科學博士學位。從2009年至今,在德國宇航中心遙感技術所從事機器學習和圖像分析相關科研工作。在該領域已經發表多篇國際學術期刊論文。擔任該領域主要期刊(IEEE TGRS, IEEE GRSL, IEEE JSTARS)的審稿人。主要研究方向包括:統計機器學習,數據挖掘,計算機視覺,圖像分析與理解等方向。
E-mail: shiyong.cui@dlr.de

張增輝(1980—),男,山東金鄉人,博士,副研究員,分別于2001年、2003年和2008年獲國防科技大學應用數學、計算數學和信息與通信工程專業學士、碩士和博士學位。2008年6月,任國防科大理學院數學與系統科學系講師;2014年2月,任上海交通大學電子信息與電氣工程學院副研究員。主要從事新體制雷達系統、雷達信號處理、壓縮感知理論等方面的研究。
E-mail: zenghui.zhang@sjtu.edu.cn

郁文賢(1964—),男,上海松江人,博士,教授,博士生導師,上海交通大學講席教授。中國第2代衛星導航系統重大專項測試評估與試驗驗證專家組專家,高分辨率對地觀測系統重大專項專家委員會地面系統組專家,“十二五”總裝備部衛星應用技術專業組顧問,裝發部上海市“北斗導航與位置服務”共建重點實驗室主任,上海交通大學學術委員會委員,雷達信號處理國防科技重點實驗室學術委員會委員,“十一五”國家863計劃信息獲取與處理技術主題第一、第二屆專家組組長,“十一五”總裝備部雷達探測技術專業組專家,主要研究方向為先進探測技術和多維信號與信息處理,研究內容包括新型成像系統、微波圖像處理和解譯、信息融合、目標識別等。
E-mail: wxyu@sjtu.edu.cn
s: The National Natural Science Foundation of China (61331015), The China Postdoctoral Science Foundation(2015M581618)
Convolutional Neural Network-based SAR Image Classification with Noisy Labels
Zhao Juanping①Guo Weiwei①Liu Bin①Cui Shiyong②Zhang Zenghui①Yu Wenxian①
①(Shanghai Key Laboratory of Intelligent Sensing and Recognition,Shanghai Jiaotong University,Shanghai200240,China)
②(Remote Sensing Technology Institute (IMF),German Aerospace Center (DLR),Wessling82234,Germany)
SAR image classification is an important task in SAR image interpretation. Supervised learning methods, such as the Convolutional Neural Network (CNN), demand samples that are accurately labeled.However, this presents a major challenge in SAR image labeling. Due to their unique imaging mechanism, SAR images are seriously affected by speckle, geometric distortion, and incomplete structural information. Thus,SAR images have a strong non-intuitive property, which causes difficulties in SAR image labeling, and which results in the weakened learning and generalization performance of many classifiers (including CNN). In this paper, we propose a Probability Transition CNN (PTCNN) for patch-level SAR image classification with noisy labels. Based on the classical CNN, PTCNN builds a bridge between noise-free labels and their noisy versions via a noisy-label transition layer. As such, we derive a new CNN model trained with a noisily labeled training dataset that can potentially revise noisy labels and improve learning capacity with noisily labeled data. We use a 16-class land cover dataset and the MSTAR dataset to demonstrate the effectiveness of our model. Our experimental results show the PTCNN model to be robust with respect to label noise and demonstrate its promising classification performance compared with the classical CNN model. Therefore, the proposed PTCNN model could lower the standards required regarding the quality of image labels and have a variety of practical applications.
SAR image classification; Supervised learning; Noisy labels; Probability Transition Convolutional Neural Network (PTCNN); Deep features
TN957.52
A
2095-283X(2017)05-0514-10
10.12000/JR16140
趙娟萍, 郭煒煒, 柳彬, 等. 基于概率轉移卷積神經網絡的含噪標記SAR圖像分類[J]. 雷達學報, 2017,6(5): 514—523.
10.12000/JR16140.
Reference format:Zhao Juanping, Guo Weiwei, Liu Bin,et al.. Convolutional neural network-based SAR image classification with noisy labels[J].Journal of Radars, 2017, 6(5): 514—523. DOI: 10.12000/JR16140.
2016-12-06;改回日期:2017-04-07;網絡出版:2017-04-21
*通信作者: 張增輝 zenghui.zhang@sjtu.edu.cn
國家自然科學基金重點項目(61331015),中國博士后基金項目(2015M581618)