999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

采用深度可分離卷積和改進特征融合的MSSD

2021-04-25 05:38:52劉增力
電視技術 2021年3期
關鍵詞:深度特征融合

席 磊,劉增力

(1.昆明理工大學 信息工程與自動化學院,云南 昆明 650500;2.昆明理工大學 云南省人工智能重點實驗室,云南 昆明 650500)

0 引 言

基于近年來卷積神經網絡、深度學習技術以及計算機技術的進步,以神經網絡為代表的目標檢測技術日益凸顯出其卓越的性能和巨大的潛力。自AlexNet[1]誕生后,神經網絡用來進行目標檢測的工作逐漸增多。各種目標檢測模型層出不窮,同時檢測性能不斷提升。目前,目標檢測模型主要分為兩類,一類是以RCNN[2]為代表的雙階目標檢測器,另一類是以 SSD[3]和 YOLO[4]為代表的單階目標檢測器。SSD是最早出現的單階檢測器之一,不僅達到了實時檢測要求,而且在精度上取得了較好的效果。但是,SSD本身的結構并不完善。隨著技術的更迭,SSD的改進版不斷出現。DSSD[5]利用性能更好的殘差網絡替代VGG。殘差網絡相對于VGG有著更好的特征提取能力,結合反卷積進行特征融合后實現了更高的精度,特別是對小目標的檢測,取得了更好的效果。但是,由于殘差網絡計算量的增加,它的檢測速度稍慢。FSSD[6]同樣采用特征融合策略將低層的特征圖拼接融合,將得到的新的尺寸為38×38的低層特征作為基礎進行后續的特征提取工作,提高了低層特征信息的提取能力。DenseSSD[7]在結構中設計了DenseSkip模塊,模塊內部采用類似瓶頸結構,進行多次1×1+3×3的卷積。它的特征復用類似DenseNet,且使用特征金字塔方式進行特征融合。RFBNet[8]則從感受野大小差異帶來的信息差異出發,設計了易于遷移使用的RFB模塊,利用大小不同的感受野的卷積核進行特征提取。

本文提出一種改進的目標檢測模型MSSD,結合深度可分離卷積的優勢,采用新的特征融合方式,進一步挖掘了模型本身的結構優勢,有效提高了模型的檢測性能。

1 相關工作

SSD 的骨干網絡為 VGG16[9]。VGG 憑借其卓越的性能獲得了ImageNet 2014挑戰賽分類的亞軍和定位的冠軍。VGG16包含13個卷積層、5個池化層以及3個全連接層。筆者將VGG16加以改動,去掉VGG16的全連接層后,添加卷積層conv6和conv7,13個卷積層不變,將原作的第5個池化層的尺寸從2×2變為3×3。此外,新增的conv6采用膨脹卷積的思想,在conv7后添加額外的卷積處理。

SSD可接受的輸入尺寸有300×300和512×512兩種。SSD300 由 conv4-3、conv7、conv8-2、conv9-2、conv10-2及conv11-2輸出的特征圖做預測,大小分別為38、19、10、5、3、1。在每個特征圖上依次設置不同尺寸的預選框,共計有8 732個預選框。每個待預測特征圖會通過各自的分類和位置回歸網絡,即如圖1所示的cls和loc。檢測框經過NMS篩選、剔除,得到最終的目標輸出。

深度可分離卷積(Depthwise Separable Convolution)最早由 Sifre[10]提出。這種思想成為 Xception[11]和MobileNets[12]的核心。深度可分離卷積與普通卷積的不同在于卷積過程。若輸入特征圖尺寸為C×H×W,卷積核尺寸為k×k,C表為輸入通道數,H和W分別為高和寬,O為輸出通道數,則對于普通卷積可得到其參數量為k×k×O×C。

對于深度可分離卷積,可以分為兩步進行。第一步進行卷結核為k×k的深度卷積。該卷積在通道空間上實現,即針對輸入的C個通道分別進行k×k的卷積,輸出通道數不變。該過程的參數量為k×k×C。第二步是對上述結果進行逐點卷積(Pointwise Convolution),即1×1的卷積,輸出通道數為O,則參數量為1×1×C×O,總參數量為k×k×C+C×O,過程如圖2所示。

圖1 SSD結構

圖2 深度可分離卷積

以conv7的輸出特征圖1 024×19×19為例,當卷積核為3×3、輸出通道數512時,可以計算出深度可分離卷積的參數量只有普通卷積的參數量1/9左右。雖然深度可分離卷積的參數量有所減少,但是仍然能夠保證特征提取信息的質量。

2 MSSD的設計

本文設計的MSSD(Modified SSD)模型結構如圖3所示。其中,MDSC表示改進的深度可分離卷積模塊,作為特征提取基礎單元,扮演的是原始SSD中額外層的角色。同時,MSSD使用相鄰層特征融合的方式加強了特征的復用,使得獲取的新特征在信息表達層面更進一步。

2.1 MDSC模塊

借鑒深度可分離卷積的思想,本文設計了一種改進的深度可分離卷積模塊MDSC(Modified Depthwise Separable Convolution),結構如圖4所示。圖4中的3×3表示深度卷積,1×1為逐點卷積,經過批歸一化層(Batch Normalization,BN)和激活層(Rectified Linear Unit,ReLU)后緊跟另一個深度卷積和逐點卷積。雖然單純的兩次深度可分離卷積對參數量的減少有幫助,但不足以提高特征的表達。為了獲得更多有用的信息,在此基礎上增加兩個恒等映射連接進行兩次信息融合。一次是在兩次深度可分離卷積后,另一次是在最大池化后。

圖3 MSSD結構

圖4 MDSC模塊

特征圖融合一般有兩種方式。第一種是通道合并,待融合特征圖的通道數可以不同,相當于拓寬了特征圖的通道數。第二種是元素相加,要求合并前特征圖的通道數相同,合并后特征圖通道數不發生改變。本模型所有的融合方式均采用第二種方式。

2.2 AFF融合方式

SSD輸出6個特征圖預測,相互之間并無交流。由于眾多模型已經證明,不同特征圖之間的有效融合可以在一定程度上提高模型的性能,因此本文也將使用特征融合的方法對不同輸出層的特征圖進行融合,期望得到更豐富的信息。

較為流行的對特征融合的處理方式是特征金字塔 FPN[13],如圖 5(a)所示。通過對高層特征上采樣、逆向和低層特征融合以及高層語義信息和低層細節信息互補,得到新的特征輸出,有效地將高低層特征的優勢結合在一起。考慮到對于一系列尺寸逐漸減小的特征圖,相鄰尺寸特征圖之間的信息表達更加接近,相互之間的聯系更為緊密,因此對相鄰特征圖進行單獨處理。FPN這種融合方式聯合了多層特征,在得到融合調整后不斷進行上采樣,會帶來較多的冗余信息。因此,本文采用一種新的特征融合方式,即緊鄰特征圖融合(Adjacent Features Fusion,AFF),結構如圖5(b)所示,其中紅色表示上采樣,綠色表示下采樣。第i層特征fi緊鄰上下兩層的特征分別為fi-1和fi+1,將i-1層進行下采樣操作D,將i+1層進行上采樣操作U,之后和fi融合得到新的特征輸出Fi,即:

上采樣通過反卷積實現,下采樣通過最大池化實現。所有添加的卷積層后緊跟BN層,達到加速模型訓練和避免過擬合的目的。待融合特征圖通道數不同時,則通過1×1卷積完成變換。

圖5 兩種特征融合方式

3 實驗過程

本次實驗平臺為Ubuntu 18。在GPU上加速訓練,GPU版本為GTX 1080Ti。深度學習框架為Pytorch。模型在PASCAL VOC 2007和VOC 2012訓練集上訓練,在VOC 2007測試集上測試。

3.1 消融實驗

首先,訓練SSD+MDSC的模型,即利用MDSC替換原始額外層。訓練時,設置batch_size為32,使用隨機梯度下降優化算法,動量設置為0.9。采用預熱訓練策略進行500次預熱訓練后,學習率從0逐漸增大至0.001,之后開始穩定訓練。隨后在80 000次和100 000次迭代時,學習率依次衰減為0.1,共進行120 000次訓練。它的模型精度為78.3%,提升了1.1%,證明了所采用的MDSC模塊的有效性。

其次,在SSD+MDSC的基礎上采用AFF融合方式進行訓練,即對本文提出的MSSD進行訓練。學習率衰減發生在90 000次和110 000次。考慮到模型復雜度的提升,調整訓練次數,共進行130 000次訓練。實驗發現,當去掉3×3特征圖的下采樣,且1×1特征圖不參與融合而獨立輸出預測時,模型的檢測精度并未受到影響。為了減少模型計算量,最終采用的模型為去掉3×3下采樣的模型結構。可以發現,在測試集上的精度由78.3%增長至79.1%,性能提升0.8%。

再次,為驗證AFF的有效性,對特征金字塔融合方式進行對比,即采用SSD+MDSC+FPN的模型進行訓練。該模型在測試集上的mAP為78.7%,與AFF的融合方式有0.4%的差距,表明所采用的緊鄰特征圖融合方法更有效。

最后,對輸入尺寸為512×512的圖片進行訓練,batch_size設置為16,同樣進行預熱訓練,學習率0.001在90 000次和110 000次時依次減為原來的0.1,總計訓練135 000次,測試集上其mAP達到81.8%。

5種模型在VOC 2007測試集的訓練結果,如表1所示。

表1 VOC 2007測試集結果

MSSD300和SSD300在各類檢測中的性能對比,如表2所示。

表2 MSSD和SSD對VOC2007測試集各類別目標的檢測精度mAP

可以看出,除了對boat和cat兩類目標的檢測精度有所下降外,本文提出的MSSD在各個類別目標的檢測精度都有所提升,尤其是對bottle和plant的檢測精度,分別提升了7.10%和3.31%。

MSSD與其他模型的檢測精度對比如表3所示。表3中的模型均在VOC 2007和VOC 2012訓練集上訓練,并且在VOC 2007測試集上測試,測試所采用的backbone也經過預訓練。對比本文提出的MSSD與SSD的各種代表性變體可以發現,其檢測精度優于SSD的眾多變體,且速度也占有優勢。SSD樣本檢測結果如圖6所示,MSSD樣本檢測結果如圖7所示。

表3 各種檢測模型的檢測精度對比

圖6 SSD樣本檢測結果

圖7 MSSD樣本檢測結果

4 結 語

本文提出了一種結合深度可分離卷積和新型特征融合方法的目標檢測模型MSSD。采用改進的深度可分離卷積模塊代替SSD中的部分卷積層,既提高了精度,又在一定程度上節省了參數,并在此基礎上使用緊鄰特征圖融合的方法對輸出特征進行重復利用,效果略優于特征金字塔式的融合方式。最終得到的改進模型MSSD在速度和精度上取得了很好的平衡,其綜合性能優于一些SSD的變體。下一步將對MSSD進行優化,對MDSC模塊做進一步完善,對融合過程的采樣做優化處理。

猜你喜歡
深度特征融合
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
深度理解一元一次方程
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 激情综合网址| 久久永久视频| 亚洲天堂啪啪| 精品久久人人爽人人玩人人妻| 色婷婷亚洲十月十月色天| 国产成人精品一区二区不卡| 囯产av无码片毛片一级| 中文字幕 91| 国产丰满大乳无码免费播放| 国产成人高精品免费视频| 国产呦视频免费视频在线观看| 国产在线八区| 亚洲精品在线观看91| 国产后式a一视频| 成人无码区免费视频网站蜜臀| 国产精品护士| 色妞永久免费视频| 欧美激情伊人| 国产精品亚洲五月天高清| 精品无码日韩国产不卡av| 国产99欧美精品久久精品久久| 午夜福利视频一区| 国产国拍精品视频免费看| 国产免费网址| 亚洲欧美日本国产专区一区| 婷婷午夜天| 久久综合伊人77777| 亚洲无码高清视频在线观看| 人妻21p大胆| 成人亚洲国产| 国产精品成| 强乱中文字幕在线播放不卡| 国产小视频网站| av色爱 天堂网| 欧美日本激情| 久久久久无码国产精品不卡| 欧美19综合中文字幕| 国产精品久久久久久影院| 成人在线欧美| 中文字幕亚洲精品2页| 久久狠狠色噜噜狠狠狠狠97视色 | 国产成人在线无码免费视频| 国产成人免费| 国产成人1024精品下载| 欧美一区二区三区香蕉视| 国产精品视频a| 青青草国产免费国产| 亚洲中文字幕无码mv| 亚洲成年人网| 九色91在线视频| 一级毛片网| 亚洲精品自产拍在线观看APP| 成年午夜精品久久精品| 国产精品成人一区二区不卡 | 亚洲天堂色色人体| 国产欧美日韩精品第二区| 久久国产成人精品国产成人亚洲 | 国产人前露出系列视频| 中文字幕亚洲另类天堂| 国产18在线| 成人在线欧美| 国产欧美日韩资源在线观看| 国产精品一老牛影视频| 亚洲成人手机在线| 亚洲swag精品自拍一区| 97se亚洲综合在线天天| 亚洲欧美一区二区三区麻豆| 久久久久国产精品嫩草影院| 99热国产这里只有精品9九| 亚洲三级成人| 99久久人妻精品免费二区| 91久久国产成人免费观看| 在线观看国产网址你懂的| 91小视频在线观看| yy6080理论大片一级久久| 99视频国产精品| 日韩AV无码一区| 一本大道香蕉久中文在线播放 | 欧美高清三区| 天天摸天天操免费播放小视频| 欧洲熟妇精品视频| 直接黄91麻豆网站|