999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

單階段多框檢測器無人機航拍目標識別方法

2021-12-07 10:09:18朱槐雨李博
計算機應用 2021年11期
關鍵詞:特征融合檢測

朱槐雨,李博

(1.電子科技大學機械與電氣工程學院,成都 611731;2.電子科技大學中山學院機電工程學院,廣東中山 528400)

0 引言

近年來,隨著無人機(Unmanned Aerial Vehicle,UAV)技術的快速發展,基于無人機地面航拍成像在軍事偵察、地質勘探、罪犯追蹤等領域[1-2]得到了廣泛的應用。但無人機航拍圖像屬于遠距離成像,成像視場較大,圖像中的目標較小并且融入復雜的背景中難以區分[3-4]。因此,如何快速準確地檢測出航拍圖像中的各類目標成為目標檢測領域重要的研究方向。

目前,基于卷積神經網絡(Convolution Neural Network,CNN)[5]的目標檢測模型大致分為Two-Stage 和One-Stage 兩種類型。前者先在特征圖上生成若干個候選框,再通過卷積神經網絡對候選框里面的目標進行分類回歸;后者直接在特征層上進行分類回歸,免去候選框提取的步驟,盡管對目標分類準確度和位置坐標回歸精度有所損失,但One-Stage 檢測速度相較Two-Stage 有著明顯的優勢。Girshick 等[6]提出了區域卷積神經網絡(Region-based Convolutional Neural Network,R-CNN)模型,但該模型步驟繁瑣、訓練速度慢;針對R-CNN的不足之處,Girshick[7]又提出了快速區域卷積神經網絡(Fast Region-based Convolutional Neural Network,Fast R-CNN)目標檢測模型,該模型在公共特征層上截取候選區域,并引入感興趣區域(Region Of Interest,ROI)池化,大幅度加快了訓練過程;Ren 等[8]利用區域建議網絡(Region Proposal Nerwork,RPN)通過卷積過程直接在公共特征層上生成候選區域,從而進一步加快訓練檢測過程,并由此提出了更快速區域卷積神經網絡(Faster R-CNN,Faster R-CNN)模型。兩階段目標檢測模型具有很高的分類精度,但檢測太慢不能滿足實時檢測要求。Redmon 等[9]提出了YOLO(You Only Look Once)目標檢測模型,YOLO 在多個位置直接回歸目標的分類情況。Liu等[10]提出單階段多框檢測器(Single Shot multibox Detector,SSD),該模型結合了Faster R-CNN 快速生成候選框的優點和YOLO 檢測速度快的優點,同時SSD300(輸入圖像分辨率為300 × 300)和SSD512(輸入圖像分辨率為512 × 512)采用多尺度特征檢測的方法,使其同時具有較快檢測速度和較高的檢測精度。不同目標檢測模型在PASCAL VOC2007數據集上的各類平均精度均值(mean Average Precision,mAP)和幀率對比[11]如表1所示。

表1 不同目標檢測模型在PASCAL VOC2007數據集上的mAP與幀率對比Tab.1 Comparison of mAP and frame rate of different target detection models on PASCAL VOC2007 dataset

在表1 中,SSD 在準確率和檢測速度兩方面相較R-CNN系列和YOLO 都有著明顯的優勢;但是SSD 對中小目標特征提取較弱,容易出現漏檢的情況,并且SSD 模型中6 個特征層(Conv4_3、fc7、Conv6_2、Conv7_2、Conv8_2、Conv9_2)相互獨立沒有關聯。針對上述情況,Cao等[12]通過雙線性插值將SSD的fc7 和Conv6_2 特征層上采樣 到38×38 的維度,并與Conv4_3 特征層進行融合,同時引入Inception block 模塊增強特征提取,該模型在KITTI 數據集上mAP 達到了92.18%,同時滿足實時檢測要求(67 frame/s),相較SSD效果提升顯著;但該模型引入過多特征融合模塊,這樣勢必會增加冗余信息,并且對小目標仍然會出現漏檢的情況。Li等[13]提出了一種多塊SSD 檢測方法,將輸入圖像分為四個區域,分別將這四個區域輸入SSD 模型進行檢測,輸出時對四塊SSD 進行子層非極大值抑制(Non-Maximum Suppression,NMS)[14],該模型在自制的無人機航拍數據集中相較原版SSD 的mAP 提高了9.20%,改善了SSD 模型漏檢的情況;顯然分塊SSD 計算量龐大,導致該模型只能進行點采樣,無法實現對一個特定地區的實時監控。Zhu等[15]將注意力機制[16]引入SSD,提出了Attention_SSD目標檢測模型,在VOC2007和VOC2012公開數據集上的mAP達到了81.70%;但該模型缺少特征層的融合,低層特征缺少小目標語義信息,對小目標的檢測效果仍然不及預期。姚桐等[17]將寬殘差網絡(Wide Residual Network,WRN)和焦點損失函數引入SSD,模型AP達到了76%,幀率為16 frame/s,相較于原有模型提升有限。Fu 等[18]提出了DSSD(Deconvolutional SSD)目標檢測模型,該模型在主干網絡的末端增加了反卷積層,并將VGG16[19]替換為特征提取能力更強的殘差網絡(Residual Network,ResNet)[20],高層特征通過反卷積與低層特征融合引入上下文信息,從而更加準確地檢測小目標;在PASCAL VOC2007測試集上mAP達到了78.60%,而且對小目標的檢測準確率提升尤為明顯,如鳥(bird)和瓶子(bottle)提升幅度達到了5.92% 和6.31%,但它的檢測速度僅有9.5 frame/s。其檢測速度慢有兩點原因:1)反卷積的引入不僅增加了計算量還引入了新的參數;2)ResNet101屬于深層卷積神經網絡,會大量消耗計算資源。Redmon 等[21]基于YOLO模型提出了YOLOv3(YOLO version3)目標檢測模型,該模型通過上采樣實現多尺度檢測,對小目標檢測效果優于SSD。趙爽等[22]通過在YOLOv2 中引入圖像切分和特征融合機制來改善原有模型對小目標檢測效果較差的情況,實驗結果表明,改進后的模型mAP 提升了8%,優點在于沒有增加先驗框的數量,但綜合準確率仍然處于較低的水平,且圖像切分會額外增加計算量。Li 等[23]通過對比Faster-RCNN、SSD、YOLOv3 在高分衛星對農業溫室成像的檢測效果,來找到最適合檢測地面上溫室大棚的目標檢測模型;實驗中,溫室在圖像中的占比非常小,YOLOv3 模型中因為上采樣的存在,對小目標檢測效果較好,因而在實驗中獲得了比Faster-RCNN和SSD更高的準確率。劉英杰等[24]引入級聯網絡結構Cascade R-CNN,通過級聯多個交并比(Intersection over Union,IoU)閾值遞增的檢測器使模型mAP 提升了9.7%,多次級聯可以提升對小目標的檢測能力,但級聯后的卷積層有大量的冗余信息,增加了計算量。

針對現有SSD 模型難以對小目標實現準確的檢測,在現有SSD 基礎上提出了一種連續上采樣(Continuous Upsampling,CU)特征融合的航拍目標檢測方法CU-SSD。

1 SSD模型

1.1 SSD模型結構

SSD模型結構如圖1所示。

圖1 SSD模型結構Fig.1 SSD model structure

SSD 模型的主要思路是在圖像上均勻密集地生成具有不同尺度和長寬比的先驗框,利用CNN 提取特征后,物體分類與先驗框的回歸同時進行,整個過程只需要一步,所以優勢是速度快。輸入圖像經過VGG16主干網絡生成6個不同尺度的特征層,在6 個特征層上分別進行兩次3×3 的卷積過程,卷積維度Channel分別為:

其中:loc 和conf 分別表示卷積過程在坐標回歸層和分類層上;num_ priors為特征層上每一個像素對應的先驗框數量;classes表示需要檢測的類別數量(包括背景)。由式(1)得到每個先驗框的4 個調整參數loc(x,y,w,h)和每個類別的置信度,調整參數對先驗框的長寬和中心位置進行微調得到預測框。在SSD模型中生成8732個預測框,最后經過非極大值抑制后,取出每一類分數大于顯示閾值(只有模型輸出框分數大于閾值才會在圖像上顯示,這里設為0.5)的框作為最終輸出。

1.2 SSD默認框尺度設定

SSD 模型通過在各特征層上進行密集采樣生成默認框即先驗框,假設模型中特征層數為m,則第i層特征層上的先驗框尺度Si可表示為:

其中:Smin表示先驗框占輸入圖像的最小比例;Smax表示先驗框占輸入圖像的最大比例。此外,SSD 模型在生成先驗框時設定了不同的長寬比rj∈{1,2,1/2,3,1/3},由尺度Si和長寬比rj可以得到第i個特征層上的先驗框的長(Wij)和寬(Hij):

式中,j表示5 種長寬比的先驗框。當長寬比等于1 時額外增加一種尺度的先驗框:

式中,j=6代表第6個先驗框的長和寬。

各特征層上的先驗框映射到輸入圖像得到候選框,候選框將與對應圖像的原標記框(ground truth bound)即真實框進行對比,計算交并比(IoU):

其中:A為真實框覆蓋區域;B為候選框覆蓋區域。對比過程如圖2 所示,候選框與原標記框的重疊率即它們的交集與并集的比值,最理想情況是完全重疊,比值為1。

圖2 交并比計算Fig.2 IoU calculation

1.3 SSD損失函數

SSD總的損失函數表示為:

其中:x為預測框預測得到的類別;c表示真實的類別;l代表預測框位置坐標;g代表真實框的位置坐標;N表示與真實框匹配的所有預測框的數量,當N=0時,L(x,c,l,g)=0;Lcon(fx,c)表示分類損失函數;Llo(cx,l,g)表示預測框位置損失函數;α表示分類損失和位置損失兩者的權重,這里設置為1。

2 CU-SSD模型

現有SSD模型中,高層特征與低層特征之間沒有關聯,模型對小目標檢測效果較差,容易出現漏識別的情況,并且現有SSD模型主要依賴Conv4_3特征層對小目標進行檢測,該特征層對小目標的檢測能力有限。針對這類情況,本文通過新增Conv3_3 特征層、連續上采樣特征融合和調整先驗框尺寸的方法對SSD模型進行改進。

2.1 CU-SSD模型結構

在卷積神經網絡結構中,較淺的特征層預測較小的目標,而更深的特征層預測較大的目標。在較淺的特征層中往往含有目標的位置和細節信息,但是缺少對分類影響較大的語義信息。Conv4_3特征層在VGG16主干特征提取網絡中的第10層,語義信息提取能力不足。因此,對網絡中的特征層進行特征融合,增強各特征層的分類效果。CU-SSD 模型結構如圖3所示。

圖3 CU-SSD模型結構Fig.3 CU-SSD model structure

在原有6 層特征中,新增Conv3_3 特征層與原有6 層特征共同構成7 層特征金字塔(Feature Pyramid Network,FPN)。首先,輸入層會把任意輸入尺寸(M×N× 3)圖像的長邊縮放到320,短邊同比例變換保證圖像不失真,將輸入圖像變換成320 ×N的尺寸(N≤320),短邊不足320 的部分按像素(128,128,128)填充,這樣輸入圖像被歸一化到320×320;其次,輸入圖像經過主干網絡后,前4 個特征層的尺寸為偶數,使得相鄰兩個特征層尺寸相差2倍(包括第5個層特征),這樣便于連續上采樣;然后,因為Conv8_2 和Conv9_2 特征層所含信息量較少,所以從Conv7_2 特征層開始進行2 倍上采樣,將上采樣完成后的特征層命名為UpConv7_2,再將UpConv7_2 層和Conv6_2 層進行特征融合,融合后特征層(稱為Fuse6_2)替換Conv6_2層進行下一步的分類;最后,將Fuse6_2再進行2倍上采樣與fc7 特征融合,重復上述過程直到Conv3_3 特征層完成融合。經過特征融合后,各特征層的相互關系為:

式中:Xk為VGG16中前4個特征層;Yk為Xk特征融合后的特征層;Yk將替換原有的Xk層,并作為后續的分類層;U()表示對特征層Yk+1進行上采樣。

采用熱力圖即類激活映射(Class Activation Map,CAM)[25]對上采樣結果進行分析。原始圖像如圖4(a)所示;經過卷積神經網絡后特征層Conv7_2的輸出結果如圖4(b)表示??紤]兩種上采樣方式:雙線性插值和最近鄰域插值,采樣結果如圖4(c)和圖4(d)所示。1)在上采樣的結果方面:最近鄰域插值最大限度地保留了特征層的原始信息;2)在上采樣的過程方面:由于最近鄰域插值算法簡單,運算速度更快。在對Conv7_2(5× 5× 256)特征層上采樣為UpConv7_2(10 ×10 × 256)的過程中,雙線性插值耗時1.164 ms,而最近鄰域插值僅為0.626 ms。因此,上采樣方式采用最近鄰域插值。

圖4 特征層上采樣結果Fig.4 Upsampling results on feature layer

2.2 特征融合模塊

在卷積神經網絡中,特征融合方式主要有Concatenate 和Add兩種方式,如圖5所示。

假設特征圖Feature Map1 的維度為W1*H1*C1,特征圖Feature Map2 的維度為W2*H2*C2。在Concatenate 的情況下Feature Map1 和Feature Map2 在通道數(C)方向上直接重疊,需要重疊的兩個矩陣可以擁有不同的通道數,重疊后的通道數代數相加,如圖5(a)所示;在Add 的情況下Feature Map1 和Feature Map2 特征圖對應位置元素相加,此時需要相加的兩個矩陣擁有相同的寬高和通道數,如圖5(b)所示。

圖5 特征融合方式Fig.5 Feature fusion methods

通常來說,經過Concatenate 和Add 操作后還會進行一次卷積過程:

式中:[X,Y]和(X+Y)分別代表特征圖Feature Map1、Feature Map2 通過Concatenate 和Add 操作后的矩陣塊。通過改變卷積過程W1和W2可以使得[W1X,W1Y]和W2X+W2Y結果相等,這樣也說明了Add 是Concatenate 的一種特殊情況(當W1=W2)。Concatenate 表示通道數的合并,圖像通過增加通道數從而增加信息量;而Add 描述的是特征圖像每個通道的信息量增多,圖像的維度并未增加。對最終分類結果而言Add 效果更好,并且Add 不會增加通道數,計算量會比Concatenate 更小,因此本文使用Add 特征融合方式。特征融合模塊如圖6所示。

圖6 特征融合模塊Fig.6 Feature fusion module

特征層k表示VGG16 主干網絡中Conv3_3、Conv4_3、fc7、Conv6_2 和Conv7_2 前5 個特征層。首先,將前5 個特征層進行一次卷積核大小為1× 1、通道數為256 的卷積,使這5 個特征層的維度統一到256;其次,特征層k的寬高為特征層k+1的2倍,將特征層k+1進行尺寸為(2,2)的上采樣,使其與特征層k有相同的寬高和通道數;再將特征層k和上采樣后的特征層k+1通過Add方式進行特征融合;最后融合產生的新特征層作為分類層輸出,同時也作為下一個特征融合模塊的輸入,直到Conv3_3特征層完成融合。

以Conv3_3 特征層為例,原圖像經過卷積神經網絡后的熱力圖如圖7 所示。熱力圖的顏色表示特征層輸出的概率大小,由深藍到深紅概率值逐漸增大,概率越高則特征層認為對應位置是目標的可能性越大。融合前Conv3_3 層和融合后Conv3_3層的熱力圖分別如圖7(b)和圖7(c)所示。融合后的熱力圖真實目標對應的位置色溫高,表明該區域比融合前更容易識別為目標。

圖7 Conv3_3層熱力圖Fig.7 Heat map of Conv3_3 layer

2.3 先驗框設定

SSD 模型在圖像輸入之前會根據式(2)、(3)、(4)在不同尺度的特征層上生成不同規模和不同長寬比的先驗框。本文中,CU-SSD 的模型結構除了增加了特征融合模塊還新增了Conv3_3 特征層,同時還調整了輸入圖像的尺寸,因此需要對原有的先驗框尺寸進行調整,調整結果如表2所示。

表2 中,Min_size和Max_size分別代表不同特征層的先驗框尺度映射到原圖像上的最小值和最大值。在CU-SSD中,把S1調整為0.05 即Conv3_3 對應的Min_size為16(0.05× 320);S2為0.1?,F有SSD 最低特征層為Conv4_3,對應先驗框尺寸為30 和60;CU-SSD 中加入了Conv3_3 特征層,對應先驗框尺寸為16 和32;兩種先驗框在原圖上的情況如圖8 所示。在CU-SSD 模型結構中,選取IoU≥0.7 的候選框作為正樣本(候選框中含有目標);選取IoU≤0.3 的候選框作為負樣本(候選框中為背景);其余部分(0.3

表2 先驗框尺寸Tab.2 Size of anchor box

圖8 不同特征層先驗框比較Fig.8 Comparison of anchor boxes of different feature layers

3 實驗與結果分析

3.1 實驗數據集和平臺

本文實驗數據集來自于中國科學院大學公開的高清航拍目標數據集UCAS-AOD,該數據集使用Google Earth 軟件對全球部分區域進行截取。數據集中的目標為地面上的飛機和車輛,數據集的組成如表3 所示。從數據集中隨機取出1283 張圖像作為訓練集,227張圖像作為測試集。

表3 數據集組成Tab.3 Dataset composition

實驗硬件配置如下:CPU 為Intel Core i5-9300H@2.4 GHz;內存為16 GB;GPU 為NVIDIA GeForce GTX 1650(4 GB)。軟件平臺為:Windows 1064 位系統;Python 版本為3.6;tensorflow-gpu 版本為1.12.0;Keras 版本為2.1.5;CUDA版本為9.0,cuDNN版本為7.3;編程軟件為PyCharm。參與對比的目標檢測模型有:SSD、FSSD(feature Fusion SSD)、RFBNet(Receptive Field Block Net)、YOLOv3 和CU-SSD。輸入層圖像尺寸均調整為320×320;訓練策略統一采用遷移學習,預加載的參數權重均來自于在PASCAL VOC2007 數據集上預訓練得到的權重;遷移訓練時SSD、FSSD、RFBNet 和CU-SSD 凍結前21 層,YOLOv3 凍結前184 層;Batch Size 設為8。凍結訓練時學習率為5E-4,解凍后學習率為2E-4。訓練過程中對輸入圖像進行隨機剪裁、平移、縮放、鏡像和飽和度對比度調整。

訓練過程如圖9 所示,總共迭代90 個epoch。凍結訓練時部分神經網絡權值不會更新,隨著訓練次數的增加,驗證集和訓練集loss前期快速下降,但很快趨于平緩。神經網絡權值解凍后(epoch=15 時),全局權值都可以更新,驗證集和訓練集loss繼續快速下降,整體訓練過程呈現出兩個階梯形狀。65個epoch后驗證集loss開始震蕩,訓練集loss繼續緩慢下降;epoch=86 時驗證集loss最低為1.763,用該權重進行后續對比實驗,防止模型過擬合。

圖9 訓練過程中的loss曲線Fig.9 Loss curves during training process

3.2 結果分析

為了準確地評測CU-SSD模型的實際性能,采用各類平均精度均值(mAP)作為評測指標。mAP 中,AP 為各類別P-R(Precision-Recall)曲線下的面積。其中,Precision為查準率即正確分類的正樣本占所有正樣本的比例,Recall為查全率即預測到的正樣本占真實正樣本的比例,計算式如下:

式中:TP為正確分類的正樣本數;FP為錯誤分類的正樣本數;FN表示將正樣本錯誤分類為負樣本的數量。各類AP 曲線圍成的面積越接近于1,mAP值越高,模型性能越好。

不同模型在UCAS-AOD 數據集上的mAP、幀率以及模型大小(Size)如表4 所示。現有SSD 和FSSD 模型由于結構簡單,速度較快,但mAP 較低,并且汽車(car)類別的AP 值明顯低于飛機(plane)類別;航拍汽車目標比飛機目標小,特征不如飛機明顯,特征層之間沒有特征融合(FSSD 僅有主干網絡特征融合)導致模型對汽車識別效果差。RFBNet通過空洞卷積進行特征層內部的特征增強,但沒有特征層之間的融合模塊;在本文實驗中相較于現有SSD 準確率提升了4.05%,提升不明顯,并且降低了運算速度,模型增大到142 MB。YOLOv3模型結構中存在上采樣特征融合模塊,因此,在現有SSD的基礎上mAP 提升了11.78%,car 類別的AP 提升更明顯,提升幅度達到了24.15%;對plane 類別AP 提升了2.42%。同時YOLOv3 有著較快的運算速度,但是模型達到了235 MB。相較于現有SSD,CU-SSD 的mAP 提升幅度達到了17.62%,對car 類別檢測的AP 提升達到了34.78%,對plane 類別的AP 提升也有4.66%,同時模型僅為79 MB。綜上,CU-SSD 的mAP相較于現有SSD有明顯的提升,但也注意到,運算速度下降到了9 frame/s,對模型實時性的影響也較大。

表4 不同模型的性能結果Tab.4 Performance results of different models

CU-SSD 不同特征層融合結果如表5 所示,融合層數表示SSD 模型中特征層融合層數(如“3”表示前3 層融合,“0”表示無特征融合)。實驗結果表明:隨著參與融合的特征層數的增加,模型預測準確率逐漸增加;融合層數達到5 層時,mAP 達到最大值,大于5層后有下降的趨勢;融合5層時對car類別效果最好,準確率為93.44%;融合4 層時對plane 類別效果最佳,準確率為96.24%;前5 個特征層進行融合時,模型的整體效果達到了最佳。

表5 不同特征融合層數的實驗結果Tab.5 Experimental results of different feature fusion layers

SSD、YOLOv3 和CU-SSD 的car 和plane 類別P-R 曲線如圖10 所示。在car 類別中,三種模型的P-R 曲線差異較大,在相同召回率的情況下,CU-SSD 的預測率遠高于SSD;并且隨著召回率的增加,CU-SSD 相較于SSD 的預測率的提升也愈加明顯。在plane 類別中,由于該類別在圖像中占的比例較大,三種模型P-R 曲線差異不明顯;僅當Recall>0.7 時,CU-SSD的性能相較于SSD、YOLOv3模型有所提升,提升幅度較小。

圖10 car和plane類別的P-R曲線Fig.10 P-R curves of car and plane categories

在SSD和CU-SSD對車輛和飛機的檢測過程中,顯示閾值均設為0.5,檢測結果如圖11和圖12所示。

圖11 SSD和CU-SSD對車輛類別的檢測效果Fig.11 Detection effects of SSD and CU-SSD on car category

圖12 SSD和CU-SSD對飛機類別的檢測效果Fig.12 Detection effects of SSD and CU-SSD on plane category

在對車輛類別的檢測結果中,現有SSD 對圖像中的車輛目標檢測率非常低,大多數目標被漏檢,同時也出現了錯誤檢測的情況;而CU-SSD 對圖像中目標的檢測效果遠優于現有SSD,并且沒有出現誤檢的情況,只有少數目標會被漏檢,在目標被樹木部分遮擋的情況下仍然正確能檢測出目標,CU-SSD檢測性能提升明顯。在對飛機類別的檢測結果中,現有SSD 的檢測效果和對車輛的檢測效果類似,仍然會出現大量目標無法檢測的現象。SSD 可以檢測到在圖像中所占像素比例較大的飛機目標,但是當飛機目標較小時,SSD 模型就不能正確地將其檢測出來;在CU-SSD 中,對不同尺度的飛機目標都能正確檢測,未出現漏檢的情況。本文改進的SSD 方法對小目標的檢測效果相較于現有SSD 模型有了明顯的改善,改進后的模型有較強的魯棒性,在復雜的環境下對航拍圖像中的車輛和飛機目標有著良好的檢測效果。

3.3 SSD不同改進模塊對比

本文從三個方面對SSD 進行改進:1)新增Conv3_3 特征層,記作Conv3_3 模塊;2)增加不同特征層之間的特征融合,記作Fusion 模塊;3)對先驗框尺寸進行調整,記作anchors 模塊。為了進一步探究各模塊對SSD 檢測效果的提升情況,進行了SSD+Fusion、SSD+anchors、SSD+anchors+Fusion 和SSD+Conv3_3+anchors的實驗。由于Conv3_3特征層需要為其分配先驗框尺寸,Conv3_3 和anchors 模塊必須同時存在,因此,對于Conv3_3 模塊的對比僅進行Conv3_3+anchors 的實驗。該實驗過程與3.1節中的步驟相同,實驗結果如表6所示。

表6 不同改進模塊的性能對比Tab.6 Performance comparison of different improved modules

從組1 與組2、3 的對比結果可以得出:單獨增加anchors模塊對模型的檢測效果提升最大,特別是對小目標car類別的提升最明顯;而單獨增加Fusion模塊模型性能反而下降,這與表4 中的SSD 和FSSD 結果類似,其中FSSD 對原有VGG16 網絡僅增加了特征融合,這表明在SSD模型中,僅引入特征融合不利于本文數據集的檢測。從組3 與組4、5 的對比結果可以得出:在加入了anchors 模塊的前提下,再增加Conv3_3 或Fusion 模塊對模型性能都有提升且提升幅度相當。從組1~6對比結果可以得出:實驗中的最優組合為SSD+Conv3_3+Fusion+anchors即CU-SSD。

4 結語

針對航拍圖像中目標普遍較小、圖像質量欠佳等問題,本文在現有SSD 模型基礎上,通過新增Conv3_3 特征層提高對小目標的檢測能力;并進一步通過對Conv3_3、Conv4_3、fc7、Conv6_2 和Conv7_2 前5 個特征層進行連續上采樣特征融合,使主干網絡中低層的細節信息和高層的語義信息有機地融合在一起;最后,通過調整先驗框尺寸,使得模型將尺度較小的正樣本和負樣本準確地分開。與SSD、FSSD、RFBNet 和YOLOv3 等模型相比,CU-SSD 模型在UCAS-AOD 數據集上準確率達到了94.78%,在參與對比的模型中效果最佳。進一步通過對比SSD中不同改進模塊的實驗結果表明:新增Conv3_3特征層、前5 個特征層融合和調整先驗框尺寸的組合可使模型效果達到最優。但由于CU-SSD 模型新增了Conv3_3 特征層,先驗框數量達到了35190個,同時特征融合使得模型結構更加復雜,增加了整個模型的計算量,降低了檢測的實時性。因此,后續要優化先驗框的數量和特征融合策略,以進一步提升檢測精度和速度。

猜你喜歡
特征融合檢測
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 高清无码一本到东京热| 亚洲成人动漫在线观看 | 国产资源免费观看| 亚洲va欧美va国产综合下载| 国产喷水视频| 日本高清免费一本在线观看| 这里只有精品在线播放| 亚洲成人在线网| 青草91视频免费观看| 日本一区二区不卡视频| 成人欧美日韩| 国产精品嫩草影院av| 欧洲成人在线观看| 久久视精品| 一级毛片在线播放免费| 99热免费在线| 免费一级全黄少妇性色生活片| 精品91自产拍在线| 亚洲精品天堂自在久久77| 欧美伦理一区| 久久久久免费看成人影片| 亚洲AV永久无码精品古装片| yy6080理论大片一级久久| 大陆精大陆国产国语精品1024| 一区二区影院| 久久香蕉欧美精品| 久久成人国产精品免费软件| 欧美不卡视频一区发布| 国产精品女熟高潮视频| 国产精品第| 国产三区二区| 欧美精品伊人久久| 高清无码一本到东京热| 精品伊人久久久香线蕉| 免费人成在线观看视频色| 四虎亚洲国产成人久久精品| 日本午夜影院| 久久中文字幕2021精品| 亚洲视频一区| 亚洲VA中文字幕| 色婷婷成人| 国产青青草视频| 国产美女精品一区二区| 国产高清在线精品一区二区三区 | 日韩午夜片| 国产屁屁影院| 激情综合婷婷丁香五月尤物| 国产SUV精品一区二区6| 刘亦菲一区二区在线观看| 亚洲国产精品人久久电影| 国产精品福利尤物youwu | 久久综合色88| 欧美成人手机在线观看网址| 精品视频福利| 亚洲人成网站观看在线观看| 国内精品久久九九国产精品| 一级毛片不卡片免费观看| 国产激情第一页| 高清不卡毛片| 欧美日韩成人在线观看| 久久毛片基地| 国产精品粉嫩| 亚洲h视频在线| 在线无码九区| 日本精品中文字幕在线不卡| 米奇精品一区二区三区| 九九久久99精品| 中文字幕在线免费看| 国产精品久久精品| 亚洲成人在线网| 丝袜无码一区二区三区| 高清无码手机在线观看| 精品国产一二三区| 一级成人欧美一区在线观看 | 国产精品伦视频观看免费| 成人亚洲天堂| 国产91精品久久| 国产精品页| 欧美三级日韩三级| 亚州AV秘 一区二区三区| 国产色伊人| 欧美人与性动交a欧美精品|