歐陽針+陳瑋



摘要:卷積神經網絡(Convolutional Neural Networks,CNNs)具有強大的特征自學習與抽象表達能力,在圖像分類領域有著廣泛應用。但是,各模塊較為固定的幾何結構完全限制了卷積神經網絡對空間變換的建模,難以避免地受到數據空間多樣性的影響。在卷積網絡中引入自學習的空間變換結構,或是引入可變形的卷積,使卷積核形狀可以發生變化,以適應不同的輸入特征圖,豐富了卷積網絡的空間表達能力。對現有卷積神經網絡進行了改進,結果表明其在公共圖像庫和自建圖像庫上都表現出了更好的分類效果。
關鍵詞:卷積神經網絡;圖像分類;空間變換;可變形卷積
DOIDOI:10.11907/rjdk.171863
中圖分類號:TP317.4
文獻標識碼:A 文章編號:1672-7800(2017)006-0198-04
0 引言
圖像分類一直是計算機視覺領域的一個基礎而重要的核心問題,具有大量的實際應用場景和案例。很多典型的計算機視覺問題(如物體檢測、圖像分割)都可以演化為圖像分類問題。圖像分類問題有很多難點需要解決,觀測角度、光照條件的變化、物體自身形變、部分遮擋、背景雜波影響、類內差異等問題都會導致被觀測物體的計算機表示(二維或三維數值數組)發生劇烈變化。一個良好的圖像分類模型應當對上述情況(以及不同情況的組合)不敏感。使用深度學習尤其是深度卷積神經網絡,用大量圖像數據進行訓練后可以處理十分復雜的分類問題。
卷積神經網絡是為識別二維形狀而專門設計的一個多層感知器,這種網絡結構對平移、縮放、傾斜等擾動具有高度不變性,并且具有強大的特征學習與抽象表達能力,可以通過網絡訓練獲得圖像特征,避免了復雜的特征提取與數據重建過程。通過網絡層的堆疊,集成了低、中、高層特征表示。AlexNet等網絡模型的出現,也推動了卷積網絡在海量圖像分類領域的蓬勃發展。
1 卷積神經網絡
卷積神經網絡是人工神經網絡的一種,其“局部感知”“權值共享”[1]等特性使之更類似于生物神經網絡,網絡模型復雜度大大降低,網絡訓練更容易,多層的網絡結構有更好的抽象表達能力,可以直接將圖像作為網絡輸入,通過網絡訓練自動學習圖像特征,從而避免了復雜的特征提取過程。
Yann LeCun等[2]設計的LeNet-5是當前廣泛使用的卷積網絡結構原型,它包含了卷積層、下采樣層(池化層)、全連接層以及輸出層,構成了現代卷積神經網絡的基本組件,后續復雜的模型都離不開這些基本組件。LeNet-5對手寫數字識別率較高,但在大數據量、復雜的物體圖片分類方面不足,過擬合也導致其泛化能力較弱。網絡訓練開銷大且受制于計算機性能。
2012年,在ILSVRC競賽中AlexNet模型[3]贏得冠軍,將錯誤率降低了10個百分點。擁有5層卷積結構的AlexNet模型證明了卷積神經網絡在復雜模型下的有效性,并將GPU訓練引入研究領域,使得大數據訓練時間縮短,具有里程碑意義。AlexNet還有如下創新點:①采用局部響應歸一化算法(Local Response Normalization,LRN),增強了模型的泛化能力,有效降低了分類錯誤率;②使用Dropout技術,降低了神經元復雜的互適應關系,有效避免了過擬合;③為了獲得更快的收斂速度,AlexNet使用非線性激活函數ReLU(Rectified Linear Units)來代替傳統的Sigmoid激活函數。
Karen等[4]在AlexNet的基礎上使用更小尺寸的卷積核級聯替代大卷積核,提出了VGG網絡。雖然VGG網絡層數和參數都比AlexNet多,但得益于更深的網絡和較小的卷積核尺寸,使之具有隱式規則作用,只需很少的迭代次數就能達到收斂目的。
復雜的網絡結構能表達更高維的抽象特征。然而,隨著網絡層數增加,參數量也急劇增加,導致過擬合及計算量大增,解決這兩個缺陷的根本辦法是將全連接甚至一般的卷積轉化為稀疏連接。為此,Google團隊提出了Inception結構[5],以將稀疏矩陣聚類為較為密集的子矩陣來提高計算性能。以Inception結構構造的22層網絡GoogLeNet,用均值池化代替后端的全連接層,使得參數量只有7M,極大增強了泛化能力,并增加了兩個輔助的Softmax用于向前傳導梯度,避免梯度消失。GoogLeNet在2014年的ILSVRC競賽中以Top-5錯誤率僅6.66%的成績摘得桂冠。
網絡層數的增加并非永無止境。隨著網絡層數的增加,將導致訓練誤差增大等所謂退化問題。為此,微軟提出了一種深度殘差學習框架[6],利用多層網絡擬合一個殘差映射,成功構造出152層的ResNet-152,并在2015年的ILSVRC分類問題競賽中取得Top-5錯誤率僅5.71%的成績。隨后,對現有的瓶頸式殘差結構進行改進,提出了一種直通結構[7],并基于此搭建出驚人的1001層網絡,在CIFAR-10分類錯誤率僅4.92%。至此,卷積神經網絡在越來越“深”的道路上一往直前。
2 可變形的卷積神經網絡
2.1 空間變換網絡
空間變換網絡(Spatial Transformer Network,STN)[8]主要由定位網絡(Localisation net)、網格生成器(Grid generator)和可微圖像采樣(Differentiable Image Sampling)3部分構成,如圖1所示。
定位網絡將輸入的特征圖U放入一個子網絡(由卷積、全連接等構成的若干層子網絡),生成空間變換參數θ。θ的形式可以多樣,如需要實現2D仿射變換,那么θ就是一個2×3的向量。
2.3 本文模型
本文以自建的3層卷積網絡C3K5(如圖6所示)和VGG-16作為基準網絡,分別引入空間變換網絡、可變形卷積和可變形池化,構造出8個卷積神經網絡,用以驗證可變形模塊對淺層網絡和深層網絡的影響,如表1所示。
圖6中C3K5網絡模型包含3個帶有ReLU層、LRN層和池化層的卷積模塊,卷積層采用步長為1的5×5卷積核,輸出保持原大小,池化層采用步長為2核為2×2的最大值池化,即每經過一個卷積模塊,特征圖縮小為原來的一半。
3 實驗與分析
3.1 實驗設置
本文實驗環境:CPU為Intel i5-7400,8G內存,顯卡為GTX1060,采用Cuda8+CuDNN6.0加速。
實驗數據集包括公共圖像數據集mnist、cifar-10、cifar-100和自建圖像數據集pen-7。公共數據集分別有50 000張訓練樣本圖像和10 000張測試樣本圖像。自建數據集pen-7為京東商城的七類筆圖像庫,每類有600張圖片,圖像分辨率為200×200,總計訓練樣本數3 360,測試樣本數840, 圖7為其中的14個樣本。
3.2 結果與分析
分別將表1中的10個卷積網絡應用到mnist、cifar-10、cifar-100和pen-7四個數據集進行訓練,batch-size設置為100,即每次傳入100張圖片進行訓練,每訓練100次測試一次(記為一次迭代),總共迭代100次,取最后10次迭代的準確率計算平均值,得各網絡應用在不同數據集的分類結果,如表2所示。
實驗結果表明,在卷積網絡中引入空間變換網絡、用可變形的卷積層和可變形的池化層替換傳統的卷積層和池化層,不管是在淺層網絡還是在深層網絡,都能獲得更高的分類準確率,這驗證了空間變換網絡和可變形卷積(池化)結構,豐富了卷積神經網絡的空間特征表達能力,提升了卷積網絡對樣本的空間多樣性變化的魯棒性。包含3種模塊的網絡獲得了最高的分類精度,使空間變換網絡、可變形卷積層和可變形池化層在更多應用場景中并駕齊驅成為可能。
4 結語
通過在現有卷積神經網絡中引入空間變換網絡、可變形的卷積層和可變形的池化層,使得卷積網絡在mnist、cifar-10、cifar-100及自建的pen-7數據集中獲得了更高的分類精度,包含3種模塊的網絡獲得了最高分類精度,證明了空間變換網絡、可變形的卷積層和可變形池化層都能豐富網絡的空間特征表達能力,協同應用于圖像分類工作,這為后續研究打下了堅實的基礎。
參考文獻:
[1]BOUVRIE J. Notes on convolutional neural networks[J].Neural Nets,2006(1):159-164.
[2]Y LECUN,L BOTTOU,Y BENGIO,et al.Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
[3]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]. International Conference on Neural Information Processing Systems. Curran Associates Inc,2012:1097-1105.
[4]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014(6):1211-1220.
[5]SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[J]. CVPR, 2015(3):1-9.
[6]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]. Computer Vision and Pattern Recognition. IEEE, 2015:770-778.
[7]HE K, ZHANG X, REN S, et al. Identity mappings in deep residual networks[J]. arXiv,2016(1603):5-27.
[8]JADERBERG M, SIMONYAN K, ZISSERMAN A, et al. Spatial transformer networks[J].Computer Science, 2015(5):1041-1050.
[9]DAI J, QI H, XIONG Y, et al. Deformable convolutional networks[J]. arXiv: 2017(1703):62-111.
(責任編輯:杜能鋼)
英文摘要Abstract:Convolutional neural networks (CNNs) have powerful abilities of self-learning and abstract expression and they have gained extensive research and wide application in the field of image classification. However, since each module has a fixed geometric structure, it fundamentally limits the modeling of spatial transformation by convolutional neural networks, and is inevitably affected by the spatially diversity of data. The involve of a self-learning spatial transform structure and the deformable convolutional which can change its shape to adapt different input feature are both enrich the spatial expression ability of convolutional networks. In combination with the two characteristics, the existing convolutional neural networks are improved, and a better classification result is obtained in both the public image library and my own image library.
英文關鍵詞Key Words: Convolutional Neural Network; Image Classification; Spatial Transform; Deformable Convolutional