999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進Faster R-CNN的紅外艦船目標檢測算法

2021-03-06 02:47:52顧佼佼李炳臻姜文志
紅外技術 2021年2期
關鍵詞:特征檢測

顧佼佼,李炳臻,劉 克,姜文志

基于改進Faster R-CNN的紅外艦船目標檢測算法

顧佼佼1,李炳臻2,劉 克1,姜文志1

(1. 海軍航空大學 岸防兵學院,山東 煙臺 264001;2. 中國人民解放軍95668部隊,云南 昆明 650000)

針對Faster R-CNN算法中對于紅外艦船目標特征提取不充分、容易出現重復檢測的問題,提出了一種基于改進Faster R-CNN的紅外艦船目標檢測算法。首先通過在主干網絡VGG-16中依次引出三段卷積后的3個特征圖,將其進行特征拼接形成多尺度特征圖,得到具有更豐富語義信息的特征向量;其次基于數據集進行Anchor的改進,重新設置Anchor boxes的個數與尺寸;最后優化改進后Faster R-CNN的損失函數,提高檢測算法的整體性能。通過對測試數據集進行分析實驗,結果表明改進后的檢測算法平均精確度達到83.98%,較之于原Faster R-CNN,精確度提升了3.95%。

深度學習;目標檢測;艦船目標;紅外圖像;Faster R-CNN

0 引言

紅外艦船目標檢測在海上救援、海上軍事活動等方面都具有十分重要的意義,尤其在軍事領域,由于紅外成像系統受光照條件影響小、成像穩定以及工作距離遠等優點,因此紅外艦船目標檢測對于海戰場的戰場監測與偵察具有深遠的研究價值。目前基于深度學習的目標檢測算法在近年來取得了很大的突破,檢測精度與速度與傳統算法相比都有著質的飛躍,并在各個方面都有著十分廣泛的應用,因此提出一種基于深度學習目標檢測算法的紅外艦船目標檢測方法,將深度學習的方法應用到紅外成像領域。

目前主流的目標檢測算法可以分成兩大類[1],One-stage算法與Two-stage算法,R-CNN[2]是最早被提出的Two-stage算法,同時也是將卷積神經網絡應用到目標檢測領域的開山之作,但檢測速度較慢,隨后提出的Fast R-CNN[3]、Mask-R-CNN[4]與Faster R-CNN[5],使目標檢測的精度不斷提高,Faster R-CNN還創新性地提出并使用了RPN(region proposal network)網絡以生成候選區域,Two-stage類型的算法較之于One-stage算法速度相對較慢,但是優點在于精度較高。One-stage算法基于回歸的思想,使用CNN卷積特征,直接產生物體的類別概率和位置坐標值(無region proposal),經過單次檢測可以得到最終的檢測結果,結構更加簡潔,比較典型的算法有Redmon J.于2015年提出的YOLO V1[6]、2016年提出的YOLO V2[7]、Liu W.提出的SSD(single shot multi box detector)[8],2017年提出的DSSD(deconvolutional single shot multibox detector)[9]以及2018年提出的YOLO V3[10],不足之處在于小目標檢測精度不高并會出現漏檢誤檢的問題。

深度學習目標檢測算法發展迅速,在紅外圖像領域也有所應用,李慕鍇在文獻[11]中,提出了一種基于YOLO V3的紅外行人目標檢測算法,并在原有算法的基礎上進行優化,準確率達到了85.89%;崔少華在文獻[12]中提出了一種改進的卷積神經網絡用于檢測紅外行人目標,選擇LeNet-7作為檢測網絡,提高了檢測效率;但是針對紅外艦船目標的檢測,仍舊是基于傳統方法,向濤在文獻[13]中提出了一種基于顯著區域提取和目標精確分割相結合的紅外艦船目標檢測方法,提升了檢測的準確率;邢莎在文獻[14]中提出了基于局部邊緣梯度特征分析的艦船目標檢測方法,通過采用自適應濾波、多尺度搜索等方法進行紅外艦船目標檢測;宮劍在文獻[15]中提出了一種基于引導濾波和自適應尺度局部對比度的艦船目標檢測方法,應用于紅外偏振圖像,具有較高的準確性和魯棒性;上述紅外艦船目標檢測方法雖然都取得了不錯的效果,但是仍需手動提取特征,耗時耗力,因此本文提出了一種改進的Faster R-CNN目標檢測算法,對紅外艦船目標進行檢測,并通過改進網絡結構、基于數據集進行Anchor的改進以及優化損失函數的方法對原算法進行改進,使得改進后的算法更適用于紅外艦船目標檢測。

1 Faster-R-CNN算法原理

1.1 設計思想

Faster R-CNN是在R-CNN與Fast R-CNN的基礎上進行改進得到的。在Faster R-CNN中,引進了Region Proposal Networks(RPN網絡)代替Selective search生成候選區域檢測框,同時引入Anchor box的概念。簡言之就是采用一個卷積神經網絡來提取候選區域,并將其與Fast R-CNN檢測網絡合并成一個網絡進行訓練和檢測,提高速度。

網絡架構簡圖如圖1所示。

具體的算法步驟為:

1)使用一組基礎卷積層提取待檢測圖片的feature map(特征圖),該特征圖同時被輸入后續的網絡與RPN網絡,共享卷積特征;

2)RPN網絡根據特征圖生成region proposals(候選區域),輸出候選框矩陣及其得分;

3)ROI pooling層收集前步得到的feature map以及RPN傳輸的region proposals,池化操作得到proposal feature map,送入后續的全連接層;

4)全連接層利用proposal feature map進行分類,同時進行邊框回歸(Bounding box regression)得到最終檢測框的位置以及得分信息。

Faster R-CNN的主干網絡是VGG-16,圖2是VGG-16的參數列表。

VGG16將卷積網絡分成了5段,每一段由兩至三個卷積層和池化層組成,MaxPool代表池化層,FC_4096代表全連接層,4096代表有4096個神經節點;Softmax代表最后的分類器。一般都選取VGG-16作為Faster R-CNN的特征提取網絡,也可以采用Res Net、Inception Net等來代替。

1.2 RPN網絡

Faster R-CNN最大的創新點就是引入了RPN網絡,其主要作用是目標物體的精確定位,利用VGG16的第五段卷積層Conv5-3上的特征圖產生多個Anchor建議框,再利用Softmax函數判斷屬于目標物體或者屬于背景的概率,引入Anchor的概念用以候選區域生成,Anchor是9個由代碼生成的矩形框,涵蓋了一張圖片上的所有區域。RPN網絡究其本質是通過卷積神經網絡生成候選區域,輸入任意尺寸的圖像都可輸出目標候選框矩陣及得分。具體示意圖如圖3所示:主干網絡VGG-16對原輸入圖片進行卷積操作,提取特征并在第五段卷積之后得到該輸入圖片的卷積特征圖,然后使用一個滑動窗口(即3×3卷積核)在得到的特征圖上進行滑動,得到一個512維的特征向量,并將此特征向量輸入下一層的兩個平行的全連接層進行分類和位置回歸,由于每個滑動窗口的中心點對應種Anchor(在Faster R-CNN中,=9),因此對于分類層來說輸出2個結果,即每個候選框的目標以及背景概率,而邊框回歸層共輸出4個結果,即每個候選框的位置坐標信息{,,,},并對得分信息進行非極大抑制(non maximum suppression, NMS)后輸出得分較高的邊框信息。

圖1 Faster R-CNN網絡結構圖

圖2 VGG-16網絡參數列表圖

而Anchor則是一組固定大小的參考窗口,分為3組,面積分別為1282、2562、5122;而每種面積依據長寬比又分為3組,分別為2:1、1:2、1:1,共有9個,相當于一組模板,在任意圖像的任意位置都采用這組模板,如圖4所示。

對每個滑窗位置可計算滑窗中心點對應原圖中心點,通過中心點和Anchor大小得到滑窗位置與原圖位置的映射關系,繼而讓RPN網絡學習此Anchor是否含有待檢測物體。

1.3 邊框回歸(Bounding box regression)

在Faster R-CNN中,采用邊框回歸來實現Anchor box到近似Ground truth box(GT)的過渡,示例圖如圖5所示。圖5中,虛線矩形框代表代表原始的預測Anchor,實線矩形框代表目標的真實值GT,而邊框回歸的作用就是將紅色的框進行微調,并尋找一種函數關系,使得原始預測框經過映射得到一個跟真實值更加接近的回歸窗口¢,也就是圖5中的點劃線預測框。

圖3 RPN網絡結構示意圖

圖4 Anchor示意圖

在圖5中,給定=(A,A,A,A),GT=(G,G,G,G),Bounding box regression則試圖尋找一種映射關系,使得(A,A,A,A)=(G¢,G¢,G¢,G¢),其中,(G¢,G¢,G¢,G¢)≈(G,G,G,G)。通過采取平移和縮放變換得到最終的結果:首先對做平移操作:

接下來做縮放:

上述公式中,需要學習得到的是d(),d(),d(),d()這4個變換,相應的平移因子(t,t)、(t*,t*)和縮放因子(t,t)、(t*,t*)如公式(3)所示:

式中:(,,,)、(a,a,a,a)、(*,*,*,*)分別對應預測框、Anchor box以及Ground truth box中心點的坐標及寬和高。上述公式的意義就在于將Anchor box擬合回歸到附近的真實邊界框GT,并將經過回歸變換后的Anchor box輸出成為預測框。

2 改進的Faster R-CNN目標檢測算法

2.1 改進的網絡結構

在卷積神經網絡中,低層卷積主要提取目標的細節信息,在網絡位置中靠前,高層卷積主要用來提取抽象的語義信息[16],在網絡結構中位置比較靠后,通過運行CNN解釋器[17]得到卷積過程中的可視化特征圖,不同層級的特征圖對比如圖6所示。

其中,圖6(a)為紅外艦船原圖,圖6(b)為VGG-16中經過第1段卷積Conv1后輸出的特征圖,圖6(c)為VGG-16中第3段卷積模塊Conv3后輸出的特征圖,圖6(d)為VGG-16中第5段卷積模塊Conv5后輸出的特征圖。從圖6可以明顯得看出,低層卷積輸出的特征圖相比于高層卷積輸出的特征圖細節信息更加豐富,特征也要更加明顯。

基于此提出了一種多尺度提取特征的方法,選取VGG-16作為主干網絡,去除全連接層,利用VGG-16中的卷積層進行特征提取,選取3段卷積后不同尺度的特征圖進行特征拼接并輸入RPN網絡生成檢測候選區域,改進后的網絡結構如圖7所示。

在改進后的Faster R-CNN網絡結構中,選取Conv1、Conv3、Conv5卷積層后提取的特征圖作為多尺度特征圖,以Conv3特征圖為基準,并對Conv1的特征圖進行池化操作縮小至相同尺寸、Conv5的特征圖進行反卷積增大至相同尺寸,再進行特征拼接,因為同一尺寸大小的特征圖便于進行特征拼接,然后輸入至RPN網絡進行候選區域生成,拼接后特征圖如圖8所示。

從圖8可以看出,特征拼接使得待檢測目標的細節信息變得更加豐富。并且對于Conv5特征圖所進行的反卷積操作是卷積的反向過程,也是一種上采樣的方式,但不同于基于插值的上采樣方法,反卷積操作可以在訓練過程中反向傳播學習、調整參數,使得上采樣參數更加合理。因此放大圖片的尺寸的同時,提供了一種最優的“上采樣”方式,使得反卷積過后的特征圖較之前相比,具有更加豐富的細節特征。

圖5 Bounding box regression示例說明

圖6 不同層級卷積后特征圖對比

圖7 改進后網絡結構圖

圖8 特征拼接后特征圖

在圖7改進后的網絡結構中,RPN網絡則根據特征拼接后的多尺度特征圖生成region proposals(候選區域),輸出候選框矩陣及其得分,ROI pooling層收集前步得到的多尺度特征圖以及RPN傳輸的region proposals,池化操作得到proposal feature map,送入后續的全連接層,全連接層利用proposal feature map進行分類,同時進行邊框回歸(Bounding box regression)得到最終檢測框的位置以及得分信息。

2.2 基于數據集的Anchor改進

Faster R-CNN采用Anchor box作為每個滑窗位置的先驗框并對目標物體進行檢測,Anchor的本質其實就是一組矩形框模板,本文在此基礎上,結合紅外艦船目標的特性,對Anchor的尺寸和個數進行改進,由于紅外圖片與可見光圖片相比,具有分辨率低、對比度低、目標反射特征少等特點,目標與背景中一些細微的差異很難被分辨,因此原算法中,針對可見光圖片中通用目標而設置的9種尺寸比例大小的Anchor,并不適用于紅外艦船目標的檢測,對此本文針對紅外艦船目標的特性,重新設置Anchor的尺寸和個數。

在原算法中,Anchor的尺寸大小共有9種,考慮到過多的Anchor對于目標檢測會帶來多余的參數計算,為避免冗余參數計算帶來檢測速度的變慢,將改進后的Anchor尺寸比例大小減少為兩個尺度,長寬比為3種,共6種不同的Anchor boxes:

首先增大Anchor初始感受野大小,用以彌補紅外艦船目標反射特征少的特點,將Anchor初始感受野base_size大小設置為32×32(原算法中為16×16),并將Anchor感受野進行23=8、24=16兩種倍數的放大,參數設置為scales=2*np.arange(3,5),此時16×16區域變成256×256與512×512,然后將寬高比例大小設置為0.5、1、3,參數設置為ratios=[0.5,1,3],將上述的兩個區域按1:2、1:1、3:1進行變換,共得到改進后的6個不同的Anchor,如圖9所示。

依據Anchor box和Ground truthbox的IOU(Intersection over Union,意為交并比,即Anchor box與GT(Ground truth box)重疊面積與總面積的比例)來進行下一步操作,如果IOU>0.7,則認為此Anchor中大概率包含目標,如果IOU≤0.7,則認為此Anchor為背景,如果0.3>IOU≥0.7,則認為此Anchor沒有作用,在檢測及訓練過程中丟棄,避免增加冗余計算參數。

圖9 改進后的Anchor示意圖

2.3 損失函數

整個損失函數由分類損失與回歸損失兩部分構成,根據前文對網絡結構的改進,借鑒主干網絡VGG-16與R-CNN的損失函數,對Faster R-CNN的損失函數進行優化改進,在回歸損失中加入平方項,使其在零點處導數變得更為平滑;分類損失部分采用對數函數表達分類誤差。改進后的損失函數具體如下所示:

1)分類損失cls

在公式(4)中cls代表Anchor個數,在網絡訓練過程中,會選取256個Anchor,因此cls=256;p代表第個Anchor為預測目標的概率,p*是GT的預測概率,即當第個Anchors與GT間IOU>0.7,認為該Anchor中大概率包含目標,p*=1;cls(p, p*)是目標與背景的損失,選取對數函數表達這部分的誤差。公式(4)的含義就是計算每一個Anchor的對數損失,然后除以訓練中挑選的總Anchor數,得到平均損失。

2)回歸損失reg

在公式(5)中,常見的回歸誤差一般選擇平方損失函數,但該損失函數誤差懲罰過高,因此在這里選擇smooth L1 loss代表損失誤差,計算公式為:

在RPN網絡中=3,在Fast R-CNN中=1;而p*reg(t,t*)這一項代表著只有當p*=1,也就是有目標時,才有回歸損失,其他情況下,這一項均為0;t=(t,t,t,t)是一個向量,代表預測框的4個坐標;t*是預測框對應的真實值GT的4個坐標;前面的參數則用來平衡回歸損失與分類損失,使兩者差距不宜過大,reg≈2400,cls≈256,因此=10,起到平衡權重的作用。

將上述分類損失與回歸損失相加便可得整個網絡的損失函數:

3 實驗與分析

在這部分選用的訓練集是從網上、工廠搜集的1000張包含艦船目標的紅外圖像,測試集為100張包含大小各類紅外艦船目標的圖片,分布在港口、碼頭、海洋等各個背景條件下。評價指標mAP(mean average precision)是對目標檢測算法的檢測精度進行效能評估的最常用的度量指標[18],FPS(frame per second)作為檢測速度的評價指標,選擇這兩項對訓練好的模型進行精度和速度的評估。

3.1 模型訓練

由于搜集到的數據集數量有限,擔心不足以支撐模型的訓練,因此對搜集到的數據進行數據增強處理,通過左右鏡像與上下鏡像增強自己的訓練數據集,數據增強后示例如圖10所示。

在圖10中,圖10(a)為紅外艦船原圖,圖10(b)為原圖經過左右鏡像后得到的圖片,圖10(c)、圖10(d)為將上述兩張圖片進行上下鏡像后得到的圖片。通過運行left_right.py與up-down.py對1000張數據集進行批量操作,共得到數據增強后的圖片集4000張。

實驗環境的操作系統為Windows10,深度學習框架為tensorflow1.9.0。實驗硬件環境的CPU為Intel(R) Core(R) i7 9700KF,內存為32 G。GPU為NVIDIA(R) GTX(R) 1080TI。訓練過程中的參數設置:batch_size=16,預訓練模型為VGG-16,初始學習率為0.001,衰減因子為0.0005。首先將學習率設置成0.001訓練10000次,接下來在上一步訓練的基礎上將學習率設置成0.0001繼續訓練10000次,再接著將學習率設置為0.00001繼續訓練,使損失函數進一步收斂,得到訓練好的最終訓練模型,圖11為訓練過程中的損失函數圖像。

從圖11中可以看出在訓練迭代20000次時,損失函數已經收斂至0.2附近,繼續訓練至10000次左右發現損失函數已穩定收斂于0.2上下,由于改進后的網絡結構增加了多尺度特征圖從而引入了額外的參數,擔心繼續訓練下去會產生模型過擬合的問題,于是在30000次停止訓練,得到訓練結束的最終模型。

圖10 數據增強示例圖

圖11 改進的Faster R-CNN損失函數曲線

3.2 模型測試

通過對不同包含艦船目標紅外圖像進行測試,測試效果如圖12所示,可以看到檢測效果非常好,檢測框上方是類別名稱和置信度,訓練好的模型可以準確識別出不同尺寸、不同大小、不同質量的圖片的艦船目標。

圖12 紅外艦船圖像檢測結果

3.3 結果分析

在目標檢測算法中,評價一個算法模型的優劣最客觀的評價指標有召回率(Recall)、準確率(Precision)、平均準確率AP、均值平均準確率mAP,通常使用均值平均精度(即mAP)來評估一個檢測算法的檢測準確度,數值越大檢測效果越好,在本次實驗中,目標類別只有一類,因此mAP值就等于AP值。

對于某一類問題,將分類的目標計為正例(positive)和負例(negtive),那么就有如下的指標:

1)True positives(TP):被正確地劃分為正例的個數,即實際為正例而且被分類器判別出正例的數目;

2)False positives(FP):被錯誤地劃分為正例的個數,即實際為負例但被分類器判別為正例的數目;

3)False negatives(FN):被錯誤地劃分為負例的個數,即實際為正例但被分類器判別為負例的數目;

4)True negatives(TN):被正確地劃分為負例的個數,即實際為負例并且被分類器判別為負例的數目。

這些指標間的關系如表1所示。

表1 分類結果判別表

召回率以及準確率的定義公式分別為:

在公式(6)中,并在本次實驗中,TP代表正確檢測到艦的個數;FP代表誤檢測是艦船的個數;FN代表漏檢測艦船的個數。AP值就為召回率與準確率所圍成的R-P曲線面積,mAP值等于AP值;

使用原Faster R-CNN算法在同一數據集進行30000次的訓練,訓練結束后,在測試數據集上進行測試,對比改進前后檢測效果;通過分別運行python工程文件mAP-master,對測試集進行計算得到改進前后的平均準確率AP值,并且得到R-P曲線,如圖13所示。

圖13中橫坐標為召回率,縱坐標為相應的準確率,原Faster R-CNN算法在紅外艦船測試集上的平均準確率AP=80.03%,經過改進之后在同一測試集上的平均準確率AP=83.98%,在本次實驗中mAP=AP。改進前后的檢測效果對比如圖14所示。

圖13 改進前后Faster R-CNN在紅外艦船測試集上的R-P曲線

篩選出的這兩組圖像均可以很好地表現改進算法的相比于原有算法的改進成效,從圖14前4組對比圖片中可以明顯看出,改進后的算法在在選紅外目標的位置準確性方面有了很大的提升,這是因為基于紅外數據集改進的Anchor尺寸更適合紅外艦船目標,從而使得最后輸出的預測框能夠更為準確地框選紅外目標;同時在檢測紅外目標精度方面也有了很大提升,如圖14最后兩組對比圖片所示,這是由于改進后網絡結構中增加的多尺度特征圖使得模型可以提取到更為豐富的紅外目標特征信息;原算法中容易出現重復檢測的問題也得到了改善,如圖14第5、6組對比圖片所示,一方面,這是由于網絡結構中增加了多尺度特征圖從而提高了特征提取能力,另一方面,對訓練數據集所做的數據增強處理在某種程度上也使得重復檢測的問題得到了緩解;綜上所述,改進后的算法在框選目標位置準確性、檢測準確率上有了很大程度的提升,同時也改善了原算法中容易出現重復檢測問題。

對改進前后的兩種算法,運行python工程文件mAP-master之后可得到檢測100張圖片所花費的時間,原Faster R-CNN檢測100張圖片所花費時間為31.28s,改進后FasterR-CNN檢測100張圖片所花費時間為33.84s,其具體的性能對比如表2所示。

圖14 Faster R-CNN改進前后紅外目標檢測效果對比

從表中可以看出,原Faster R-CNN算法的mAP值為80.03%,而改進后算法的mAP值為83.98%,較之于改進前提升了3.95%,精度提高的同時,檢測每張圖片所花費的時間較之于改進前稍有變長,這是因為在網絡結構中增加了3個特征圖進行拼接形成多尺度特征圖用于加強對紅外目標的特征提取從而引入了額外的計算參數所導致的。

表2 改進前后算法性能對比

4 結論

提出了一種改進Faster R-CNN的紅外艦船目標檢測算法,對網絡結構和Anchor進行改進,同時優化了損失函數。該算法應用于紅外艦船目標檢測時,檢測精度可以達到83.98%,較原算法相比提高了3.95%;對比算法改進前后的紅外圖像檢測結果,驗證了改進方法的可行性。本文研究的改進方法使得紅外艦船目標的檢測效果大大提升,可將改進后的算法模型應用在軍事及工業領域,工業領域方面可應用于夜晚或嚴重光照不足條件下的碼頭、港口過往船舶檢測,對海上救援、海上交通都有著重要的應用研究價值;在軍事領域方面不僅可以應用于海上戰場進行艦船目標檢測,還可裝備應用于紅外反艦武器系統上,提升打擊精度,從而提升部隊戰斗力。

[1] 施澤浩, 趙啟軍. 基于全卷積網絡的目標檢測算法[J]. 計算機技術與發展, 2018(5):55-58.

SHI Zehao, ZHAO Qijun. Target detection algorithm based on full convolution network[J]., 2018(5): 55-58.

[2] Uijlings J R R, Sande K E A V D, Gevers T, et al. Selective search for object recognition[J]., 2013, 104(2): 154-171.

[3] Girshick R. Fast R-CNN[C]//, 2015, 2015: 1440-1448.

[4] Kaiming H , Georgia G, Piotr D, et al. Mask R-CNN[J]., 2018, 18(11): 1-1.

[5] Ren S, He K, Girshick R, et al. Faster r-cnn: towards real-time object detection with region proposal networks[C]//, 2017, 39(6): 1137-1149.

[6] Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//, 2015: 779-788.

[7] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger[C]//, 2017, 12(7): 6517-6525.

[8] LIU W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector[C]//2016, Cham: Springer, 2016, 9905: 21-37.

[9] FU C Y, LIU W, Ranga A, et al. DSSD: deconvolutional single shot detector[C]//2017, 2017: 2999-3007.

[10] Redmon J, Farhadi A. YOLO v3: An incremental improvement [C]//, 2018, 24(9): 2458-2476.

[11] 李慕鍇, 張濤, 崔文楠. 基于YOLOv3的紅外行人小目標檢測技術研究[J]. 紅外技術, 2020, 42(2): 176-181.

LI Muyi, ZHANG Tao, CUI Wennan. Research on infrared pedestrian small target detection technology based on YOLO v3[J]., 2020, 42(2): 176-181.

[12] 崔少華, 李素文, 黃金樂, 等. 改進的CNN用于單幀紅外圖像行人檢測的方法[J]. 紅外技術, 2020, 42(3): 238-244.

CUI Shaohua, LI Suwen, HUANG Jinle, et al. Improved CNN square method for human detection of single-frame infrared image[J]., 2020, 42(3): 238-244.

[13] 向濤. 一種基于顯著區域提取的紅外圖像艦船目標檢測方法[J]. 電訊技術, 2020, 60(7): 50-56.

XIANG Tao. A ship target detection method based on salient region extraction in infrared image[J]., 2020, 60(7): 50-56.

[14] 邢莎, 吉林, 雍楊, 等. 基于梯度統計特性的自動紅外艦船目標檢測[J]. 數字技術與應用, 2013(10): 66-68, 70.

XING Sha, JI Lin, YONG Yang, et al. Automatic infrared ship target detection based on gradient statistics[J]., 2013(10): 66-68, 70.

[15] 宮劍, 呂俊偉, 劉亮, 等. 紅外偏振圖像的艦船目標檢測[J]. 光譜學與光譜分析, 2020, 40(2): 586-594.

GONG Jian, LV Junwei, LIU Liang, et al. Ship target detection based on infrared polarization image[J]., 2020, 40(2): 586-594.

[16] 吳天舒, 張志佳, 劉云鵬. 基于改進SSD的輕量化小目標檢測算法[J]. 紅外與激光工程, 2018(7): 37-43.

WU Tianshu, ZHANG Zhijia, LIU Yunpeng. Lightweight small beacon detection algorithm based on improved SSD[J]., 2018(7): 37-43.

[17] WANG Zijie J, Robert Turko, Omar Shaikh, et al. CNN explainer: learning convolutional neural networks with interactive visualization[J]., 2019(6): 1-13.

[18] Zeiler M D, Fergus R. Visualizing and understanding convolutional networks[C]//, Berlin, Heidelberg: Springer, 2014, 8689: 818-833.

Infrared Ship Target Detection Algorithm Based on Improved Faster R-CNN

GU Jiaojiao1,LI Bingzhen2,LIU Ke1,JIANG Wenzhi1

(1. Naval Aviation University, Coast Guard Academy, Yantai 264001, China;2. Unit 95668 People’s Liberation Army of China, Kunming 650000, China)

To solve the problem of insufficient feature extraction and repeated detection of infrared ship targets by the Faster R-CNN algorithm, a ship target detection algorithm based on an improved Faster R-CNN is proposed. First, three feature graphs are drawn from the backbone network, VGG-16, after a three-segment convolution, and the features are spliced to form a multi-scale feature graph to obtain a feature vector with richer semantic information; second, the Anchor is improved based on the dataset, and the number and size of the Anchor boxes are reset; finally, the loss function of the improved Faster R-CNN is optimized to improve the feature extraction ability of the target. An analysis of the experimental results on the test dataset demonstrates that the average accuracy of the improved detection algorithm was 83.98%, which is 3.95% higher than that of the original Faster RCNN.

deep learning, target detection, ship target, infrared image, Faster R-CNN

TP399

A

1001-8891(2021)02-0170-09

2020-06-11;

2020-07-06 .

顧佼佼(1984-),男,博士,講師,主要研究方向:人工智能深度學習技術。

李炳臻(1996-),男,碩士,主要研究方向:深度學習技術。E-mail:libingzhen123456@163.com。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: a级免费视频| 国产成人AV男人的天堂| 久久无码av三级| 久久性妇女精品免费| 亚洲人成在线精品| a在线观看免费| 熟妇人妻无乱码中文字幕真矢织江 | 青青操国产视频| 免费一级毛片完整版在线看| 久久精品无码国产一区二区三区 | 亚洲日韩精品无码专区97| 亚洲综合天堂网| 人妻91无码色偷偷色噜噜噜| 免费网站成人亚洲| 亚洲欧美另类视频| 国产精品久久久久久搜索| 狠狠五月天中文字幕| jizz亚洲高清在线观看| 亚洲精品在线观看91| 萌白酱国产一区二区| 国产国产人免费视频成18| jizz亚洲高清在线观看| 欧洲亚洲一区| 国产成人亚洲毛片| 精品人妻系列无码专区久久| 国产欧美自拍视频| 青青久久91| 99爱在线| 四虎国产永久在线观看| 免费无码AV片在线观看国产| 精品无码日韩国产不卡av | 日本不卡在线播放| 美女一区二区在线观看| 国产毛片高清一级国语| 五月天综合婷婷| 动漫精品中文字幕无码| 日本免费一区视频| 无码国产伊人| 亚洲国产欧美中日韩成人综合视频| 欧美精品在线免费| 日韩精品毛片人妻AV不卡| 久草视频一区| 国产拍在线| 69视频国产| 美女无遮挡拍拍拍免费视频| 亚洲欧美日韩色图| 欧美天堂久久| 五月婷婷中文字幕| 国产精品无码AV片在线观看播放| 71pao成人国产永久免费视频| 性69交片免费看| 黄网站欧美内射| 日韩精品视频久久| 欧美日韩导航| 亚洲乱亚洲乱妇24p| 最新无码专区超级碰碰碰| 岛国精品一区免费视频在线观看 | 久久无码av三级| 国产91特黄特色A级毛片| 国产久操视频| 久久久久免费看成人影片| 少妇人妻无码首页| 欧美成一级| 亚洲欧美自拍一区| 九九热视频在线免费观看| 中文国产成人精品久久| 中国成人在线视频| 伊人久久青草青青综合| 少妇高潮惨叫久久久久久| 一级毛片免费不卡在线| 国产欧美性爱网| 伊人久久大香线蕉aⅴ色| 亚洲欧美另类日本| 经典三级久久| 九色视频一区| 精品综合久久久久久97超人| 亚洲国产一成久久精品国产成人综合| 香蕉精品在线| 国产女人18毛片水真多1| 亚洲男人天堂2020| 亚洲国产欧美国产综合久久| 亚洲va视频|