999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

特征增強的單階段遙感圖像目標檢測模型

2022-07-04 05:49:48汪西莉
西安電子科技大學學報 2022年3期
關(guān)鍵詞:特征檢測信息

汪西莉,梁 敏,劉 濤

(陜西師范大學 計算機科學學院,陜西 西安710119)

遙感圖像目標檢測是遙感解譯的重要任務(wù)之一,隨著卷積神經(jīng)網(wǎng)絡(luò)的興起,其研究和應用取得了很大進展。盡管如此,仍有一些難點問題阻礙了檢測性能的提升,如遙感圖像目標大小、形態(tài)等差異大、目標分布不均勻、空間場景復雜、存在遮擋等,使得不同尺度目標和遮擋目標的精確檢測較為困難。

若采用網(wǎng)絡(luò)最后一層特征和固定大小的錨框,很難靈活應對不同尺度目標的檢測。為此,基于深度模型解決此問題,近年來采用的方法主要有:① 圖像金字塔,如圖像金字塔的尺度歸一化(Scale Normalization for Image Pyramids,SNIP)[1]和混合分辨率(Hybrid-Resolution,HR)[2],可以顯著提升檢測精度,但計算量大,難以應用于實時目標檢測。② 在單層特征圖上使用錨框機制解決,如Faster R-CNN[3]和R-FCN(Region-based Fully Convolutional Networks)[4],使用不同大小的錨框檢測不同尺度的目標,但是單層特征圖信息有限,效果提升受限。③ 特征金字塔結(jié)構(gòu),它在多層不同分辨率特征圖上使用錨框機制檢測多尺度目標,是使用較多的策略[5]。如SSD(Single Shot multiBox Detector)[6]和MS-CNN[7]依賴深層低分辨率特征圖檢測大的目標,淺層高分辨率特征圖檢測小目標。由于淺層特征圖缺乏對象語義信息,對小目標的檢測效果不好,后續(xù)研究多將深層特征圖的語義信息融合至淺層特征圖,如DSSD(Deconvolutional Single Shot Detector)[8]利用反卷積上采樣深層特征圖,與淺層特征圖相乘融合,增加淺層特征的語義信息;RefineNet[9]使用反卷積上采樣深層特征,相加融合不同層的特征;FPN(Feature Pyramid Networks)[10]、RetinaNet[11]和Mask R-CNN[12]等使用插值法上采樣深層特征圖與淺層特征圖相加融合,增加淺層特征圖的語義信息;STDN(Scale-Transferrable Detection Network)[13]使用STM(Scale-Transfer Module)和池化構(gòu)造特征金字塔;PFPNet(Parallel Feature Pyramid Network)[14]使用多次池化操作(Spatial Pyramid Pooling,SPP)生成不同分辨率的特征圖,然后使用通道拼接融合不同層的特征(Multi-Scale Context Aggregation,MSCA);M2Det[15]構(gòu)造MLFPN(Multi-Level Feature Pyramid Network)結(jié)構(gòu),使特征金字塔的每一層特征都來自于多個不同層次,豐富特征層的信息;Libra R-CNN[16]將FPN結(jié)構(gòu)上的不同分辨率的特征層融合調(diào)整后相加到FPN每層特征上,進一步強化各層特征的信息;PANet(Path Aggregation Network)[17]在FPN結(jié)構(gòu)的基礎(chǔ)上構(gòu)造自底向上路徑,增加淺層特征的細節(jié)定位信息并傳遞至深層特征,使特征圖的語義信息和細節(jié)信息都更加豐富。

有效的特征金字塔結(jié)構(gòu)需要在不同層次獲取有效的目標特征,以便在多層不同分辨率的特征圖上使用錨框機制檢測不同尺度的目標,因此在特征金字塔結(jié)構(gòu)中,既需要將遠離輸入層的深層特征圖豐富的語義信息傳遞至離輸入層近的淺層特征圖,增加后者的語義信息,也需要將淺層特征圖豐富的細節(jié)信息傳遞至深層特征圖,增加后者的細節(jié)信息。細節(jié)定位信息和目標語義信息的有效提取是提升不同尺度目標檢測精度的基礎(chǔ)。

在卷積神經(jīng)網(wǎng)絡(luò)的特征逐層傳遞過程中,引起特征丟失主要有兩個原因。一是下采樣操作越多,特征丟失越多;二是中間經(jīng)過的特征層數(shù)越多,特征丟失越多。根據(jù)文獻[17]的分析,F(xiàn)PN網(wǎng)絡(luò)構(gòu)造了自頂向下路徑,將深層特征圖的語義信息傳遞至淺層特征圖,而淺層特征圖的細節(jié)信息是通過主干網(wǎng)絡(luò)路徑傳遞至深層特征圖的,自頂向下路徑和對應的主干網(wǎng)絡(luò)路徑的下采樣率是相同的,相同下采樣率的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,中間經(jīng)過的特征層數(shù)越多,特征丟失越多。FPN中自頂向下路徑上的特征層數(shù)較少,語義信息的傳遞效果較好;主干網(wǎng)路徑上層數(shù)多,細節(jié)信息的傳遞效果相對較差。因此PANet網(wǎng)絡(luò)在自頂向下路徑的基礎(chǔ)上構(gòu)造自底向上路徑,減少中間經(jīng)過的特征層數(shù),提升細節(jié)信息的傳遞效果。

由于背景復雜或遮擋等的影響,造成目標特征被干擾、與周圍環(huán)境不易區(qū)分,這種情況下精確地檢測目標極具困難性。使用位置注意力強化目標區(qū)域特征是提升目標檢出率的有效方法,對解決遮擋問題也有實際意義。可以通過強化目標邊界框內(nèi)的區(qū)域來強化目標的特征,如FAN(Face Attention Network)[18]注意力模塊將邊界框內(nèi)的像素標記為目標像素,邊界框外的像素標記為背景像素,形成弱監(jiān)督像素級標簽,損失函數(shù)為圖像分割損失函數(shù),訓練后將位置注意力權(quán)重作用至預測特征圖,增強識別為目標像素的區(qū)域,相對弱化識別為背景像素的區(qū)域,重標定預測特征圖的特征分布。

FAN注意力模塊的不足之處在于:弱監(jiān)督標簽導致注意力權(quán)重生成不夠精確,強化的目標邊界框內(nèi)的像素并不全是目標。如圖1(a)所示,F(xiàn)AN位置注意力反強化目標邊界框內(nèi)的所有像素,而在基于錨框的目標檢測網(wǎng)絡(luò)中,主要是邊界框內(nèi)的中心區(qū)域負責檢測目標,如圖1(b)所示。邊界框內(nèi)靠近邊界的很多像素屬于背景,因此FAN的做法同時強化了一些非目標區(qū)域,如果能更精確地強化目標,則有利于檢測精度的提升。

為了在特征逐層傳遞過程中更好地保留、融合細節(jié)和語義信息,文中提出跳躍連接特征金字塔模塊(Feature Pyramid Network with Shortcut Connections,SCFPN)。為彌補語義信息從深層特征傳遞至淺層特征的丟失問題,在主干網(wǎng)絡(luò)末端使用全局平均池化生成聚合豐富語義信息的特征圖,利用跳躍連接相加融合至自頂向下路徑上的各層特征圖,以增加各層特征的語義信息;同時將高分辨率特征圖的細節(jié)定位信息利用跳躍連接相加融合至自底向上路徑上的各層特征圖,增加各層特征的細節(jié)信息。為使位置注意力的生成方式(即關(guān)注邊界框中心區(qū)域)與目標檢測頭網(wǎng)絡(luò)中基于錨框的檢測方式保持一致,筆者提出基于錨框的位置注意力模塊(Anchor-based Spatial Attention Module,ASAM)。該模塊采用基于錨框的識別方法,以達到只強化邊界框內(nèi)中心區(qū)域的目的。在預測時,預測以像素位置為中心的錨框包含目標的概率,再使用通道維度取最大值方法將預測值壓縮形成位置注意力權(quán)重,作用至預測特征圖上以更精確地調(diào)整預測特征圖的特征分布。

為評價提出的跳躍連接特征金字塔模塊和基于錨框的位置注意力模塊的有效性,將其嵌入到目標檢測模型RetinaNet中,設(shè)計了一個特征增強的單階段遙感圖像目標檢測模型FENet。主要貢獻總結(jié)如下:① 提出跳躍連接特征金字塔模塊,緩解特征金字塔結(jié)構(gòu)中特征逐層傳遞造成信息丟失的問題,進一步增強預測特征圖的語義和細節(jié)信息,為檢測不同大小的目標提供基礎(chǔ);② 提出基于錨框的位置注意力模塊,通過強化錨框中心區(qū)域的特征,盡可能準確地強化目標特征,以提升目標的檢測性能。在UCAS-AOD[19]和RSOD[20]遙感圖像數(shù)據(jù)集上檢測多類目標,筆者給出的模型在精度和速度上展現(xiàn)出優(yōu)于比較方法的結(jié)果。

1 FENet模型

FENet模型的總體框架如圖2所示。該模型首先使用主干網(wǎng)絡(luò)ResNet-50[21](圖2中的A)和跳躍連接特征金字塔模塊(圖2中的B和C)從輸入圖像中提取卷積特征,然后使用添加基于錨框的位置注意力模塊的目標檢測頭網(wǎng)絡(luò)(圖2中的D)生成預測邊界框以及類別分數(shù),并使用NMS(Non-Maximum Suppression)篩選檢測結(jié)果。目標檢測頭網(wǎng)絡(luò)中的分類和回歸子網(wǎng)絡(luò)與RetinaNet的對應子網(wǎng)絡(luò)設(shè)置相同,分別連接4個256通道的卷積操作后,再分別添加KA個通道的卷積層和4A個通道的卷積層,經(jīng)過激活層后預測目標類別分數(shù)和位置信息,其中K表示類別數(shù),A表示每一像素位置的錨框數(shù)量。下面詳細介紹FENet模型中的跳躍連接特征金字塔模塊和基于錨框的位置注意力模塊(圖2中的ASAM)。

圖2 FENet模型結(jié)構(gòu)

1.1 跳躍連接特征金字塔模塊(SCFPN)

如圖2所示,在提取特征的主干網(wǎng)絡(luò)(圖2中的A)之后添加兩個步長為2的卷積操作,生成兩個不同分辨率的特征圖(即P6、P7預測特征圖)。隨著傳遞層數(shù)增加,逐層傳遞特征逐漸丟失信息,因此在構(gòu)造自頂向下和自底向上路徑的過程中,添加跳躍連接以彌補特征丟失。在構(gòu)造自頂向下路徑(圖2中的B)的過程中,先在主干網(wǎng)絡(luò)末尾添加全局平均池化操作,生成聚合豐富語義信息的特征圖,稱為GAP(Global Average Pooling)特征圖(圖2中的G)。在每次使用最近鄰插值上采樣特征圖后和主干網(wǎng)絡(luò)上對應的特征圖相加融合的同時加上GAP特征圖,使自頂向下路徑上的特征圖(圖2中的P3、P4、P5)既融合逐層依次傳遞的語義信息,又直接融合GAP語義信息,達到增強特征圖語義信息的目的。

給定主干網(wǎng)絡(luò)上的特征圖Ci∈RC×H×W和全局平均池化形成的特征圖G256×H×W,則自頂向下路徑上對應的特征圖Pi∈R256×H×W可表示為

(1)

特征金字塔結(jié)構(gòu)中,語義信息沿著自頂向下的路徑(圖2中的B)傳遞,中間經(jīng)過的特征層數(shù)不多,語義信息丟失相對較少;而細節(jié)定位信息沿著主干網(wǎng)絡(luò)路徑(圖2中的A)傳遞,中間經(jīng)過的特征層數(shù)多,細節(jié)定位信息丟失相對較多。為此在自頂向下路徑(圖2中的B)的基礎(chǔ)上構(gòu)造自底向上路徑(圖2中的C),減少中間經(jīng)過的特征層數(shù),使細節(jié)定位信息也可有效傳遞至深層特征圖。

在構(gòu)造自底向上路徑的過程中,從P3特征圖開始下采樣特征圖,依次傳遞細節(jié)信息,與對應自頂向下路徑上的特征圖(圖2中的P3、P4、P5)相加融合。此外,將P3特征圖分別2倍、4倍池化,相加融合至自底向上路徑上的各層特征圖,使該路徑上的特征圖(圖2中的N3、N4、N5)既融合依次傳遞的細節(jié)定位信息,又融合直接池化得到的細節(jié)信息,達到增強特征圖細節(jié)定位信息的目的。

給定自頂向下路徑上的特征圖Pi∈R256×H×W,則自底向上路徑上對應的特征圖Ni∈R256×H×W可表示為

Ni=Pi+M2(Ni-1)+M2i-3(P3) ,

(2)

其中,Mk表示k倍池化下采樣,i∈[4,5]。

最終將特征圖N3、N4、N5作為預測特征圖,這些特征圖既有豐富的語義信息,又有豐富的細節(jié)定位信息。

1.2 基于錨框的位置注意力模塊(ASAM)

首先分析FAN位置注意力機制,其次介紹筆者提出的ASAM位置注意力機制。

FAN位置注意力機制將框級標簽轉(zhuǎn)化為弱監(jiān)督像素級標簽,使用全卷積網(wǎng)絡(luò)依據(jù)弱監(jiān)督像素級標簽預測像素類別。將像素的目標置信度分數(shù)作為位置注意力權(quán)重,指數(shù)化后作用于預測特征圖上,強化目標像素特征,弱化背景像素特征。FAN將目標邊界框內(nèi)的背景像素也標記為目標像素,會影響像素類別預測的準確度,從而降低位置注意力權(quán)重生成的準確度。此外,F(xiàn)AN位置注意力機制將目標邊界框內(nèi)的像素區(qū)域都強化,但基于錨框的目標檢測尋找目標邊界框中心位置附近的像素對應的錨框與邊界框標簽的IOU(Intersection Over Union)大的樣本,在訓練時視其為正樣本,測試時通常是微調(diào)后需要保留的預測結(jié)果,因此該區(qū)域特征是需要強化的,而其他區(qū)域(即目標邊界框內(nèi)非中心位置附近的區(qū)域和背景區(qū)域)像素對應的錨框與邊界框標簽的IOU較小甚至為零,在訓練期間或者為負樣本或者不參與訓練,在測試期間通常是屬于根據(jù)類別置信度分數(shù)和后處理操作篩選掉的預測結(jié)果,因此這些區(qū)域是要弱化的。而FAN位置注意力機制對它們不加區(qū)別。

可見基于錨框的目標檢測要求施加位置注意力權(quán)重標定預測特征圖的特征分布時,主要強化目標邊界框中心位置附近的像素,其他位置的像素要弱化。因此文中提出基于錨框的位置注意力模塊,基于錨框判別像素是否是正樣本像素。

具體地,在訓練時,將與邊界框標簽的IOU較大的錨框視為正樣本錨框,否則為負樣本錨框。錨框的大小設(shè)置與目標檢測頭網(wǎng)絡(luò)中錨框的設(shè)置相同,損失函數(shù)為二分類Focal Loss交叉熵損失函數(shù)。若一個像素對應的多個錨框中有一個錨框是正樣本,則該像素屬于正樣本,需要被強化;若其對應的錨框都是負樣本錨框,則該像素屬于負樣本,應被弱化。可見邊界框中心位置附近的像素對應的錨框與邊界框標簽的IOU較大,會被識別為正樣本,進而被強化,而非中心位置的像素和背景區(qū)域的像素對應的錨框與邊界框標簽的IOU較小或為零,會被識別為負樣本像素,從而被弱化。因此這樣判斷一個像素是否是正樣本像素,滿足基于錨框的目標檢測方法的要求。

在預測時,當某一位置像素對應的錨框中包含負責預測對象的錨框時,負責預測對象的錨框的預測值接近1,使用通道維度取最大值壓縮后的結(jié)果也接近于1,將壓縮后的結(jié)果值作為位置注意力權(quán)重作用于預測特征圖,強化正樣本像素。當某一位置像素對應的錨框都不負責預測對象時,所有錨框的預測值都接近于0,使用通道維度取最大值壓縮后結(jié)果接近于0,將其作為位置注意力權(quán)重作用于預測特征圖,弱化負樣本像素。

具體如圖2中的ASAM所示。首先,連接4次卷積操作;其次,基于錨框判別特征圖上每一位置像素的類別;然后,在通道維度取最大值壓縮預測結(jié)果特征圖;最后,采用先點乘預測特征圖再相加融合至預測特征圖的注意力施加方式,強化正樣本像素、弱化負樣本像素。通過強化目標區(qū)域特征和弱化非目標區(qū)域特征重標定預測特征圖的特征分布,提升目標檢測網(wǎng)絡(luò)的檢測精度。

給定特征圖F∈RC×H×W,則位置注意力權(quán)重特征圖Ms(F)∈R1×H×W可表示為

(3)

(4)

1.3 損失函數(shù)

使用多任務(wù)損失函數(shù)聯(lián)合優(yōu)化FENet模型的參數(shù)。損失函數(shù)由分類損失Lc、回歸損失Lr和注意力損失La三部分構(gòu)成,具體定義為

(5)

其中,k表示特征金字塔層次的索引(k∈[3,7]),Ak表示特征金字塔層次Pk上定義的錨框的集合。

2 實驗結(jié)果和分析

使用ResNet-50作主干網(wǎng)絡(luò),用在ImageNet上預訓練的權(quán)重初始化主干網(wǎng)絡(luò)。在跳躍連接特征金字塔模塊后的注意力、分類和回歸子網(wǎng)絡(luò)中,前4個卷積層以偏置b=0和高斯方差σ= 0.01的權(quán)重初始化。在分類子模塊和基于錨框的位置注意力模塊中做預測的卷積層以偏b=log((1-π)/π)和π=0.01初始化。所有實驗在一塊Titan X GPU上訓練,實驗數(shù)據(jù)集以7∶3隨機劃分成訓練集和測試集,圖像尺寸800×800像素,batch-size為2。使用隨機梯度下降法訓練模型,迭代訓練100個epoch,初始學習率為0.001,學習率在60 epoch和80 epoch分別降低為原來的1/10。權(quán)重衰減和動量分別設(shè)置為0.000 1和0.900 0。

2.1 數(shù)據(jù)集與評價指標

在兩個遙感圖像目標檢測數(shù)據(jù)集UCAS-AOD和RSOD上進行實驗。UCAS-AOD數(shù)據(jù)集中有汽車圖像510張,包含汽車樣本7 114個;飛機圖像1 000張,包含飛機樣本7 482個。RSOD 數(shù)據(jù)集有2 326 張圖像,類別包含飛機、油桶、操場、立交橋4種,圖像采集于Google Earth。其中飛機圖像446張,包含飛機樣本4 993個;油桶圖像165張,包含油桶樣本1 586 個;操場圖像189張,包含操場樣本191個;立交橋圖像176張,包含立交橋樣本180個;其余是背景圖像。使用mAP和運行時間作為評價指標。

定義精確率P(Precision)為

(6)

召回率R(Recall)為

(7)

其中,RTP指正類被判定為正類,RFN指正類被判定為負類,RFP指負類被判定為正類,RTN指負類被判定為負類。

AP(Average Precision)被定義為在11個不同召回率水平[0,0.1,0.2,…,1.0]上的最大精確率的平均值:

(8)

其中,Pmax(r)指在召回率為r時的最大精確率。AP是單個類別目標的評價指標,mAP指多個類別目標的AP的平均值。

2.2 增加跳躍連接特征金字塔模塊的實驗

在UCAS-AOD遙感數(shù)據(jù)集上對比了FAN模型和添加跳躍連接特征金字塔模塊的FAN模型的實驗結(jié)果。實驗結(jié)果見表1,采用跳躍連接特征金字塔模塊mAP提升了1.35%,表明跳躍連接可以在一定程度上彌補逐層傳遞時的信息丟失問題,增強特征圖的語義和細節(jié)信息。

表1 FAN和FAN+SCFPN在UCAS-AOD數(shù)據(jù)集上的性能比較

在自底向上路徑上逐層傳遞特征細節(jié)定位信息的過程中,我們嘗試3種不同的特征圖下采樣操作,分別是池化、步長為2的卷積操作以及使用通道分離后,一部分通道特征池化、另一部分通道特征卷積下采樣。表2展示了這3種不同做法在UCAS-AOD數(shù)據(jù)集上的實驗結(jié)果。3種下采樣操作中,池化操作不需要學習參數(shù),相對來說速度最快,卷積操作需要學習參數(shù),會增加運行時間,第3種操作兼用卷積操作和池化操作,復雜度更高。綜上以及結(jié)合表2的實驗結(jié)果,文中在跳躍連接特征金字塔模塊的自底向上路徑上使用池化下采樣操作。

表2 跳躍連接特征金字塔模塊在UCAS-AOD數(shù)據(jù)集上的實驗

2.3 增加位置注意力模塊的實驗

表3在UCAS-AOD數(shù)據(jù)集上對比了不使用位置注意力模塊的模型和文中FENet模型的結(jié)果。從實驗結(jié)果可以看到,使用基于錨框的位置注意力模塊有0.43%的精度提升,表明在基于錨框的位置注意力模塊中,強化的正樣本像素的特征區(qū)域與目標檢測頭網(wǎng)絡(luò)中負責預測邊界框的特征區(qū)域更為匹配,提升了目標檢測頭網(wǎng)絡(luò)的檢測能力。

表3 使用和不使用基于錨框的位置注意力模塊的FENet模型在UCAS-AOD數(shù)據(jù)集上的性能比較

筆者嘗試了3種位置注意力生成方式,第1種在基于錨框的位置注意力模塊中第4個卷積操作之后添加一個降維的卷積操作,將256通道的特征圖轉(zhuǎn)變?yōu)?維權(quán)重特征圖;第2種使用取最大值壓縮通道的方式將基于錨框的位置注意力模塊的預測特征圖壓縮為1維通道的權(quán)重特征圖;第3種在第2種方式的基礎(chǔ)上再做卷積操作,以學習將壓縮后的預測特征圖轉(zhuǎn)化為位置注意力權(quán)重的轉(zhuǎn)化參數(shù)。3種做法的實驗結(jié)果展示在表4中,3種位置注意力生成方式都比較有效。考慮到對預測結(jié)果特征圖的利用及簡單性,采用第2種位置權(quán)重生成方式。

表4 不同的位置注意力生成方式在UCAS-AOD數(shù)據(jù)集上的對比實驗

下面在UCAS-AOD數(shù)據(jù)集上對位置注意力權(quán)重特征圖的不同施加方式進行了實驗,分別對比了權(quán)重相乘后相加、直接權(quán)重相乘以及指數(shù)化權(quán)重后相乘3種方式,結(jié)果如表5所示。注意力權(quán)重在0到1之間,所以直接權(quán)重相乘會對預測特征圖的目標區(qū)域和背景區(qū)域都產(chǎn)生不同程度的弱化,因此需要采用權(quán)重大于1的方式,結(jié)合表5的實驗結(jié)果考慮,筆者選擇相乘后相加的位置注意力權(quán)重施加方式。

表5 位置注意力權(quán)重的施加方式在UCAS-AOD數(shù)據(jù)集上的實驗對比結(jié)果

2.4 目標檢測實驗及分析

表6是文中模型FENet和其他模型在UCAS-AOD數(shù)據(jù)集上的對比情況,結(jié)果均來自文中實驗。FENet取得95.47%的精度,高于采用特征金字塔和焦點損失的RetinaNet和特征注意力網(wǎng)絡(luò)FAN,在UCAS-AOD數(shù)據(jù)集上取得較高的精度。

表6 FENet模型和對比模型在UCAS-AOD數(shù)據(jù)集上的性能比較

為了驗證文中模型的有效性與魯棒性,在RSOD遙感數(shù)據(jù)集上對比了文中模型和其他先進模型,如表7所示。RetinaNet、FAN和FENet結(jié)果為文中實驗所得,其他模型結(jié)果來自文獻[22]。用于多角度目標檢測的RFN(Rotated Feature Network)模型[22]的mAP精度達到了92.30%,立交橋和操場的檢測性能較好,飛機的檢測精度有一定的提升,但仍不高。采用密集連接特征金字塔結(jié)構(gòu)的Densely Connected FPN模型[23]對飛機的檢測精度有進一步的提升,對油桶的檢測精度也有明顯的提升,在ResNet-50的主干網(wǎng)絡(luò)下mAP達到91.53%,而使用ResNet-101主干網(wǎng)絡(luò)時mAP達到94.19%,精度顯著提高。FAN和RetinaNet對不同尺度的目標都能較好地處理,飛機和油桶的檢測精度得到進一步提升,但是立交橋、操場的精度略有降低。文中模型FENet在保持立交橋、操場較高檢測精度的同時,提升了飛機和油桶的檢測精度,在RSOD數(shù)據(jù)集上超越了其他模型。

表7 FENet模型和其他先進模型在RSOD遙感數(shù)據(jù)集上的性能比較

表8對比了文中模型和其他遙感目標檢測模型在RSOD圖像上的測試時間,各實驗使用的GPU型號是12 GB存儲的Titan X。其中FENet和FAN模型結(jié)果來自文中實驗,其他模型結(jié)果來自文獻[23]。

表8 不同目標檢測模型在RSOD數(shù)據(jù)集上的測試時間對比

從表8可以看出單階段目標檢測模型普遍比兩階段模型檢測時間短,F(xiàn)ENet的測試時間和其他單階段檢測模型相差不大。

圖3展示了文中模型FENet和對比模型RetinaNet、FAN在UCAS-AOD遙感目標測試集的部分檢測結(jié)果。從圖3可見,飛機的大小有明顯的不同,方向不一。對于飛機目標,RetinaNet和FAN有漏檢或檢測框沒有準確框住目標的情況。汽車目標普遍較小,仔細看也有大小不一、停放方向不一的情況。對汽車RetinaNet和FAN有漏檢的情況,如第4行右下角的汽車。第5行左側(cè)中間的汽車有部分被樹遮擋,RetinaNet沒有檢出,而FAN和FENet都檢出了。

圖3 UCAS-AOD數(shù)據(jù)集上的部分檢測結(jié)果

圖4展示了文中模型FENet在RSOD測試集上的部分檢測結(jié)果。該數(shù)據(jù)集有4類目標,立交橋、操場偏大,相比之下,油罐和飛機偏小,而且油罐和飛機即使同類目標也存在目標大小不一的情況。從圖中可以看出,F(xiàn)ENet采用跳躍連接特征金字塔模塊和基于錨框的位置注意力模塊,使其對不同大小的同類和不同類目標展現(xiàn)了較好的檢測結(jié)果。

圖4 FENet在RSOD數(shù)據(jù)集上的部分檢測結(jié)果

3 結(jié)束語

為解決在特征金字塔結(jié)構(gòu)中,語義信息和細節(jié)信息逐層傳遞引起的特征丟失問題,以及位置注意力權(quán)重生成方式與基于錨框的目標檢測頭網(wǎng)絡(luò)的預測方式不一致的問題,筆者提出由跳躍連接特征金字塔模塊和基于錨框的位置注意力模塊構(gòu)成的單階段遙感圖像目標檢測模型FENet。FENet模型通過構(gòu)建自頂向下和自底向上的特征金字塔路徑,以及層間、同層連接和融合,緩解語義信息和細節(jié)信息逐層傳遞過程中信息丟失的問題,從而更好地獲得具有語義和細節(jié)信息的預測特征圖;同時設(shè)計了新的位置注意力權(quán)重生成方式,與基于錨框的卷積預測模塊的預測方式保持一致,強調(diào)目標的特征,進而提升目標檢測模型的性能。通過UCAS-AOD和RSOD遙感數(shù)據(jù)集上的實驗,以及與相關(guān)方法的比較,結(jié)果表明,所提模型可以提升在不同大小目標上的檢測精度,作為單階段目標檢測方法,具有較快的檢測速度,驗證了文中方法的有效性和魯棒性。筆者所提模型FENet與當前目標檢測中先進的模型相比,在檢測速度方面仍然有提升空間,下一步工作考慮使用可分離卷積減少冗余卷積操作,在不降低模型精度的情況下縮短模型的檢測速度。

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 婷婷五月在线| 国产欧美性爱网| 69视频国产| 91久久偷偷做嫩草影院电| 在线欧美国产| 精品国产网| 国产成人超碰无码| 99这里只有精品免费视频| 高清精品美女在线播放| 少妇露出福利视频| 白浆免费视频国产精品视频| 在线观看无码av五月花| 久久综合久久鬼| 美女被躁出白浆视频播放| 影音先锋丝袜制服| 欧美亚洲国产精品久久蜜芽| 欧美另类第一页| 国产成人AV男人的天堂| 国产精品久线在线观看| 狠狠色综合久久狠狠色综合| 国产乱肥老妇精品视频| 72种姿势欧美久久久大黄蕉| 亚洲欧美综合精品久久成人网| 国产尤物jk自慰制服喷水| 亚洲区一区| 一区二区影院| 欧美日本中文| 国产青榴视频在线观看网站| 亚洲国产精品一区二区第一页免| 亚洲欧洲日韩综合| 国产精品视频导航| 久久77777| 久久久久亚洲av成人网人人软件| AV无码国产在线看岛国岛| 91激情视频| 亚洲丝袜中文字幕| 日韩无码黄色网站| 亚洲精品中文字幕无乱码| 九九九久久国产精品| 99久久精彩视频| 国产导航在线| 国产高清在线精品一区二区三区| 97精品伊人久久大香线蕉| 99视频精品全国免费品| 色婷婷视频在线| 亚洲综合色婷婷| 欧美影院久久| 无码免费的亚洲视频| 2021国产乱人伦在线播放| 欧美特黄一级大黄录像| 国产一区二区三区在线观看视频 | 一区二区在线视频免费观看| 欧美一区二区三区不卡免费| 亚洲成人高清在线观看| 亚洲第一天堂无码专区| 成人小视频网| 都市激情亚洲综合久久| 亚洲一道AV无码午夜福利| 久久久精品国产SM调教网站| 国产无码在线调教| 一级香蕉视频在线观看| 99视频全部免费| 国产亚洲精品精品精品| 五月综合色婷婷| 老色鬼久久亚洲AV综合| 色婷婷亚洲综合五月| 青青草一区二区免费精品| 福利视频一区| 亚洲中久无码永久在线观看软件| 国产欧美精品一区二区| 亚洲欧美h| 久久青草视频| 久久国产成人精品国产成人亚洲| a天堂视频| av尤物免费在线观看| 2019国产在线| 亚洲最新在线| 国产一级毛片网站| 久久久久亚洲AV成人人电影软件| 久久不卡精品| 91精品aⅴ无码中文字字幕蜜桃| 免费一级毛片不卡在线播放|