

















摘 要:針對對無人機采集到的多源圖像的艦船目標融合檢測問題,提出一種基于多模態特征融合旋轉檢測網絡(multi modal feature fusion detection network based on rotation, MFFDet R)的多源艦船圖像融合檢測方法。首先,為提升檢測速度,采用單階段無錨框設計降低計算量。隨后,為提升檢測精度,采用旋轉任務對齊學習進行標簽分配和對齊。然后,為實現多模態特征的充分融合,設計多模態特征融合網絡。最后,根據特定場景有針對性地設計檢測頭和角度預測頭,以提升網絡檢測性能。通過實驗對比驗證,結果表明所提方法可以有效實現對多源艦船的融合檢測,且對不同場景艦船目標的檢測性能優于其他方法。
關鍵詞: 多源圖像; 融合檢測; 任務對齊學習; 特征融合
中圖分類號: TP 391.4
文獻標志碼: ADOI:10.12305/j.issn.1001 506X.2025.02.06
Multi source ship image fusion detection method based on MFFDet R
JIANG Jie, LING Qing*, YAN Wenjun, LIU Kai
(Aviation Combat Service Academy, Naval Aviation University, Yantai 264001,China)
Abstract:A multi source ship image fusion detection method based on multi modal feature fusion detection network based on rotation (MFFDet R) is proposed to address the issue of ship target fusion detection for multi source images obtained by unmanned aerial vehicles. Firstly, a single stage anchor free frame design is adopted to reduce computational complexity to improve detection speed. Subsequently, rotation task alignment learning is adopted for label allocation and alignment to improve detection accuracy. Then, a multimodal feature fusion network is designed to achieve full fusion of multimodal features. Finally, detection heads and angle prediction heads are designed for specific scenarios to improve network detection performance. Through experimental comparison and verification, the results show that the proposed method can effectively achieve fusion detection of multi source ships, and its detection performance for ship targets in different scenarios is superior to other methods.
Keywords:multi source image; fusion detection; task alignment learning; feature fusion
0 引 言
當前,隨著無人機航拍數據采集的愈加便捷,其在各個領域應用的場景也愈加廣泛,無人機在智慧交通、地質勘測、蟲害預防、預警偵查等方面發揮出重要作用,通過對無人機采集到的多源視頻圖像進行目標檢測跟蹤識別,是當前研究的重點內容[1-3]。艦船目標一直是檢測任務中的難點問題,一是艦船目標種類較多且形狀和大小不規則,因船型、船種、船舶用途等因素而異;二是艦船在航行時易被其他船只、建筑物、云霧等遮擋,且艦船本身的顏色、紋理等特征較少,也會影響檢測效果;三是海上環境復雜,易受海浪、浮冰、光照變化等因素干擾;四是數據集的不足,對艦船目標的數據獲取和標注成本較高[4-6]。針對上述情況,通過對無人機采集到的多源圖像進行特征提取融合,是有效提升檢測效果的重要途徑之一。多源圖像融合(multi source image fusion, MIF)是指將多源信道所采集到的關于同一目標的圖像數據經過圖像和計算機技術處理,最大限度地提取各自信道中的有利信息,最后綜合成高質量的圖像。融合后的結果可以更好地將多幅圖像在時空上的相關性和信息上的互補性進行整合,從而將更為重要的圖像特征進行表征,以便于后續處理。
因此,多源圖像的融合檢測,相比于單源圖像融合檢測而言,其特征信息更加豐富,應用場景更加廣泛,可以有效增強檢測的準確性,特別是對小目標、疑似目標具有更高的檢出率,可進一步減少檢測的波動性和不確定性,增強算法的魯棒性[7-9]。
針對多源圖像的融合檢測同樣存在許多研究難點,一是數據的異構性,不同傳感器采集到的數據類型、格式及精度存在差異;二是數據的不確定性,多源數據受到的干擾因素更多,易產生誤差;三是融合算法的選擇,需要考慮如何兼顧檢測的實時性和準確性[10]。為解決以上問題,相關學者做了大量的研究工作,并提出很多方法。目前,針對多源融合檢測的方法主要分為4類,一是基于像素級的融合方法,即根據圖像色度、飽和度、亮度的色彩空間,將多源圖像合成為一幅圖像后,再進行特征提取和檢測。文獻[11]提出一種基于小波變換的像素融合方法,通過將圖像分解為不同頻率的子圖像,然后采用不同的融合策略,重構出新的圖像。文獻[12]提出一種基于潛在低階表示的自適應尺度像素融合方法,將紅外和可見光圖像分解為兩個尺度表示,以構造自適應權值,用于圖像重建。二是基于特征融合的方法,即對圖像幾何特征、紋理特征、方向梯度直方圖等進行提取,將多個圖像源的特征進行融合后再進行檢測。文獻[13]提出一種基于邊緣卷積濾波與合成孔徑雷達及光學多特征分類的檢測方法。文獻[14]設計一種基于不變特征的風格轉換網絡,利用多源數據間的共享知識學習不變特征,以實現信息互補,再采用通用網絡完成目標檢測。三是基于決策融合的方法,即對圖像源信息進行提取并分類后,根據現實任務需要選擇有用的特征信息進行融合,從而做出最優的決策。文獻[15]提出一種將有監督和無監督分類器相結合的方法以進行信息提取,再通過支持向量機完成決策的選擇。文獻[16]提出利用社會網絡分析多模態生物特征的模式,根據多源圖像的類間特征和類內特征進行決策融合。四是基于深度學習的方法,利用深度學習模型對多個圖像源進行訓練,然后將模型進行融合,得到最終的檢測結果。文獻[17]設計一種低秩雙線性池化注意力網絡,將不同模態的圖像特征雙線性池化后,利用權重矩陣進行低秩分解,根據低秩權重因子進行反向傳播,實現端到端學習。文獻[18]提出一種艦船關鍵子區域檢測識別融合網絡,根據艦船特征點劃分不同的子區域,在特征金字塔上提取不同子區域特征,對其分配不同權重,并與全局特征進行融合,以增強表征能力。
目前,基于深度學習的方法相比于其他3類方法,檢測效果較好,適用范圍更廣,但是用于多源艦船目標檢測的方法相對較少,且沒有針對性地解決艦船多尺度、小目標、受遮擋等問題。基于此,本文提出一種基于深度學習的多源艦船圖像融合檢測方法,構建多模態特征融合旋轉檢測網絡(multi modal feature fusion detection network based on rotation, MFFDet R),通過多路骨干網絡對多源圖像進行特征提取,并有針對性地設計網絡頸部和頭部,最終完成對多源艦船目標的檢測。
1 MFFDet R目標檢測算法
MFFDet R是一個高效的單階段無錨框旋轉框檢測網絡,采用旋轉框檢測是因為對于近岸場景下的艦船目標而言,船與船的排列十分密集,采用旋轉框檢測,可以有效提升檢測性能。旋轉框是指具有一定角度的矩形框,因為物體本身與圖像坐標軸會存在大小不一的傾斜角,所以使用旋轉框描述物體相比于使用水平框進行描述,可以包含更少的背景,從而使定位更加精細[19]。特別是當前的旋轉框檢測算法多為有錨框的方法,且多使用插值和可復型卷積網絡來對齊卷積特征圖和旋轉物體,為模型的部署帶來了不便。因此,MFFDet R采用無錨框方法,在每一個像素上放置一個錨點,為檢測頭設置上、下邊界,將基準真實值分配給相應的特征圖,然后計算邊界框的中心位置,選擇最近的像素點作為正樣本。
1.1 網絡框架
網絡主干RESCSPNet,由殘差網絡ResNet50與跨階段局部網絡CSPNet結合組成,可以將殘差連接緩解梯度消失與跨階段密度連接降低計算負擔兩個優勢互補。網絡結構共包含3個連續卷積層,通過殘差塊ResBlock[20]進行連接,同時有效擠壓提取(effective squeeze and extraction,ESE)層[21]也被用于在每個特征提取階段中施加通道注意力[22],以多模態特征融合網絡(multi modal feature fusion network,MFFN)作為頸部,引出P3、P4和P5這3個特征圖做檢測。為進一步提升模型精度,設計高效任務對齊頭(efficient task aligned head, ET head),引入了一個解耦的角度預測頭。算法的框架模型如圖1所示。
1.2 旋轉任務對齊學習
考慮到在近岸場景下艦船目標排列十分緊密且相互間存在遮擋的情況,為更好地克服分類和定位不一致的問題,提升檢測準確度,提出旋轉任務對齊學習(rotated task alignment learning, Rotated TAL)方法,對標簽分配采用Rotated TAL方法[23]來完成旋轉框檢測。該方法由動態標簽分配和任務對齊損失組成,動態標簽分配意味著預測損失感知,根據預測為每個基準真實值分配動態數量的正錨框,通過顯式地對齊這兩個任務,Rotated TAL可以同時獲得最高的分類分數和最精確的邊界框;對于旋轉任務對齊損失,使用標準化的任務一致性度量t,即t^,來替換損失中的目標,采用每個實例中最大的交并比(intersection over union, IoU)進行歸一化,該分類的二進制交叉熵(binary cross entropy, BCE)[24]可以重寫為
L=∑Ni=1BCE(pi,t^i)(1)
式中:pi表示該角度i在每個區間內下降的概率。
任務一致性度量的計算方法為
t=sα·uβ(2)
式中:s為預測的分類得分;u為預測的邊界框與相應的基準真實值之間的IoU值;α、β為系數。
1.3 多模態特征融合網絡MFFN
為了提取更加豐富的語義信息特征并與精確定位信息相結合,對多模態特征的融合處理,除采用傳統特征金字塔網絡(feature pyramid network,FPN)[25]自頂向下進行上采樣的模式,還設計了多種融合路徑。首先,對每個特征圖進行感興趣區域(region of interest, ROI)對齊操作,以提取目標的特征。然后,對元素級特征進行最大融合操作,以使網絡適配新的特征,對于相鄰的層特征不是簡單地疊加到一起,而是采用拼接的方式,以獲得更高的預測準確度。最后,設計自底向上進行下采樣的路徑,將底層信息與高層信息相融合,設計增強路徑,采用橫向、跨級連接的方式來豐富每個級別的特征信息,縮短底層到頂層的距離,以減少計算量。路徑結構如圖2所示。
1.4 高效任務對齊頭
針對艦船多尺度、小目標的問題,提出速度和準確性兼具的ET head。ET head可以很好地增強檢測過程中分類與回歸的交互性。ET head通過計算任務交互的特征值,由任務對齊預測器(task aligned predictor, TAP)[26]進行預測,根據任務對齊學習提供的學習信號對兩個預測的空間分布進行對齊。
ET Head和Rotated TAL通過協作改進兩項任務的一致性,如圖3所示。ET Head首先對FPN特征進行分類和定位預測。然后,Rotated TAL基于一種任務對齊度量來計算兩個預測之間的對齊程度。最后,ET Head在反向傳播過程中使用Rotated TAL計算的學習信號自動調整其分類概率和定位預測。對齊程度最高的錨點通過概率圖獲得更高的分類分數,并通過學習的偏移量獲得更準確的邊界框預測。
1.5 ProbIoU損失
由于角度的周期性和邊緣的交換能力,基于直接回歸的旋轉對象檢測器存在邊界不連續問題。采用ProbIoU損失作為回歸損失[27]進行聯合優化(x,y,w,h,θ)。為了計算ProbIoU損失,將旋轉矩形框建模為高斯矩形框(Gaussian bounding box,GBB),然后利用兩個GBB之間的距離等度量作為回歸損失。
給定兩個以GBB表示的對象,使用巴氏系數計算兩個概率分布之間的距離,來獲得一個實際的距離度量。兩個二維概率密度函數p(x)和q(x)之間的巴氏距離BD為
BD(p,q)=-ln BC(p,q)(3)
式中:BC為巴氏系數;p為預測得分;q為目標IoU得分。巴氏距離BD并不是一個實際的距離,因為其不滿足三角不等式,因此定義海林格距離HD為實際距離:
HD(p,q)=1-Bc(p,q)(4)
式中:HD(p,q)滿足距離度量的所有要求,并且可以作為高斯參數的函數分析表達。
將GBB和ProbIoU用于訓練紅外與可見光融合旋轉檢測器,假設p={x1,y1,a1,b1,c1}是網絡回歸的GBB參數集,q={x2,y2,a2,b2,c2}是期望GBB的真實標注。對象檢測器中的定位損失為
L1(p,q)=HD(p,q)=1-ProbIoU(p,q)∈[0,1]
L2(p,q)=BD(p,q)=-ln(1-L21(p,q))∈[0,∞](5)
式中:定位損失可以相對于p微分,并且梯度可以解析計算,當p=q時達到理想的最小值零。
1.6 解耦的角度預測頭
傳統旋轉框檢測模型直接在一個回歸分支中預測(x,y,w,h,θ)。然而,對于學習矩陣而言,其需要更多的特征,因此對其進行解耦,設計一個獨立的輕量級角度預測分支,僅包含一個ESE注意力模塊和一層卷積層[28]。
采用分類聚焦損失(distribution focal loss, DFL)[29]直接學習角度的通用分布,將[0,π/2]的角度區間劃分為90份,每一份的區間大小為π/180,然后通過積分得到預測的角度值:
θ=∑90°i=0°pi·i·ω(6)
式中:pi表示該角度在每個區間內下降的概率。
1.7 可學習門控單元
針對艦船目標特性,為加強對微小和密集目標的檢測性能,加速推理過程和降低部署難度,增加可學習門控單元(learnable gating unit, LGU),以控制來自前一層的信息,實現自適應融合不同感受野的特征。在訓練階段,網絡包含3×3卷積、1×1卷積、直連(shortcut)連接等結構,以強化推理階段,通過重新參數化處理將網絡變換為類視覺幾何組(visual geometry group, VGG)網絡的3×3卷積規范結構。
y=f(x)+α1g(x)+α2x(7)
式中:f(x)為1×1卷積函數;g(x)為3×3卷積函數;α1和α2是可學習的參數。在推理過程中,可學習的參數可以與卷積層一起重新參數化,從而使參數的速度和數量都不會發生變化。
1.8 損失函數
分別將變焦損失(varifocal loss, VFL)[30]和DFL應用到目標檢測器中,對分類和定位任務進行學習,以獲得性能的改善。計算公式如下:
VFL(p,q)=-q(qln p+(1-q)ln(1-p), qgt;0
-αpγln(1-p), q=0(8)
式中:對于正樣本,q為生成的邊界框與基準邊界框之間的IoU,對于負樣本,q為0。
DFL(Si,Si+1)=-((yi+1-y)ln Si+
(y-yi)ln(Si+1))(9)
式中:yi與yi+1分別為標簽y附近的預測值;Si、Si+1分別為預測值yi、yi+1對應的概率。
VFL使用目標分數對正樣本的損失進行加權,使高IoU正樣本對損失的貢獻相對較大,讓模型在訓練期間更加關注高質量樣本,而非低質量樣本。對于DFL,為了解決檢測框表示不靈活的問題,使用一般分布來預測邊界框。
最終設計損失函數Loss如下:
Loss=α·lossVFL+β·lossGIoU+γ·lossDFL∑Nposit^(10)
式中:t^表示歸一化目標分數;α、β、γ為權重系數;lossVFL為變焦損失函數;lossDFL為分類聚焦損失函數;lossGIoU為高斯分布損失函數。
2 實驗與結果分析
2.1 數據集構建
實驗數據集通過操作民用無人機航拍采集不同地點、不同場景下的多模態艦船視頻影像進行制作,首先使用OpenCV工具包將視頻分解成一系列的圖像幀,并按照設定的時間間隔對視頻幀進行提取,在分解視頻幀、生成圖像幀的過程中,根據每個圖像幀的幀列序號進行命名,有助于保證整個數據集的順序和組織,最終共得到紅外和可見光船舶圖像30 506張。將圖像分別存放于兩個文件夾,其中相同圖像序號為同一時間同一場景采集,但是因傳感器的差異,其視場角大小不同,故圖像并非嚴格對齊,使用Label img工具對樣本進行標注,并將樣本保存為VOC數據格式。圖4為所制作的多源艦船圖像數據集的部分樣本。
2.2 實驗環境及評價指標
實驗操作系統為Ubuntu20.04,深度學習框架為Pytorch1.9.0,開發工具為Visual Studio,硬件環境CPU為Inter(R) Core(R)i7,GPU為NVIDIA(R) GTX(R) 3080。
評價指標包括平均準確率均值(mean average precision, mAP)、參數量(parameters)、每秒十萬億次浮點運算次數(giga float point operations per second, GFLOPs)、每秒處理幀數((frames per second, FPS),FPS、mAP數值越大,表示模型檢測性能越好。
算法消融實驗、對比實驗及網絡訓練結果均采用可見光圖像輸入作為檢測網絡基準模型。多源檢測輸入源圖像在同一時刻采用同一標簽,將輸出可視化結果設定為可見光圖像。
2.3 消融實驗
為驗證旋轉任務對齊學習、解耦角度預測頭、角度預測與DFL、可學習門控單元對模型檢測性能的提升,共設計4組消融實驗進行對比,對比結果如表1所示。表1中的參數為每秒百萬浮點運算(million float point operations per second, MFLOPs)從實驗結果可以看出,采用旋轉任務對齊學習方法可以有效提升網絡的檢測精度且不會影響實時性,改進角度預測頭雖然在一定程度上增加了參數量,但是對檢測精度的提升也是顯著的,角度預測與DFL可學習門控單元的引入也對精度的提升有一定的增益,最終相比于原基線網絡,mAP提升了2.53%,參數量增加了2.64M,GLOPs增加了12.56。
2.4 算法性能對比實驗
為客觀評價改進模型對算法性能的整體提升效果,選取當前主流的旋轉目標檢測算法進行對比,采用DOTA1.0和DOTA2.0數據集進行測試,該數據集來自不同傳感器和平臺航拍圖像,其中DOTA1.0共包含15個類別共2 806幅圖片,DOTA2.0共包含18個類別共11 268幅圖片。針對檢測實時性,采用Tesla V100數據集進行測試。如表2所示,mAP1、mAP2分別為DOTA1.0、2.0數據集檢測結果,FPS為Tesla V100數據集檢測結果。可以看出,本文算法的mAP分別可達82.7%和62.3%,FPS可達78.0,反映出模型結構改進對網絡的性能有明顯的提升效果,算法的準確度和實時性都優于其他算法。
2.5 網絡訓練及驗證
使用自建多源艦船數據集對網絡模型進行訓練,采用隨機抽取的方式,選用8 000張圖像構建訓練集,選用2 000張圖像用作測試集。修改配置文件參數為訓練周期數為100,學習率為0.001,批大小為4,置信度閾值為0.5,步長為32。使用隨機梯度下降作為優化器進行迭代,輸入圖片像素統一設定為512×512。
算法經訓練后如圖5所示,圖5(a)、圖5(b)分別為平均精確度和分類損失的訓練結果。可以看出,網絡模型經本數據集訓練后,訓練效果較好,整體損失值較少,未出現過擬合現象,收斂速度快,波動小,檢測精度高。
為比較不同回歸損失函數對算法性能的影響,選取旋轉目標檢測損失函數、相對熵進行比較,旋轉目標檢測損失函數通過采用卡爾曼濾波器模擬傾斜交叉比的定義,實現與傾斜交叉比的趨勢水平對齊。不同損失函數的計算兩個高斯分布之間的庫-萊伯勒散度,并將其作為相對熵的回歸損失。對比結果如表3所示,可以看出選取其他損失函數會導致檢測性能降低。
為驗證多源融合檢測網絡對不同源圖像檢測的提升效果,排除網絡模型參數變化對檢測結果的影響,對單源圖像及兩路同源圖像的檢測結果進行對比實驗,結果如表4所示。從對比結果可以看出,網絡對多源圖像檢測精度的提升是符合預期的。
為驗證旋轉框檢測對多源艦船目標檢測性能的提升,選取當前主流水平框算法進行對比實驗,所用數據集為自建離岸數據集和近岸數據集,以驗證在不同場景下的檢測效果。mAP1、mAP2分別為離岸結果和近岸結果,結果如表5所示。可以看出,本文算法對近岸場景下的檢測效果優于水平框檢測算法。
2.6 可視化結果
多源艦船圖像融合檢測方法適用于處理有云霧影響、海浪干擾、光照條件較差等復雜場景。此時采用單源檢測難以取得較好的效果,因此選取數據集中部分檢測難度大的樣本的檢測結果,如圖6和圖7所示,以作為可視化展示。
圖6所示為無人機在遠距離拍攝下,受海平面反射影響,艦船目標較小且色彩紋理特征不明顯,可以驗證網絡的抗干擾性能。從驗證結果可以看出,單一檢測下可見光和紅外的置信度分別為0.83和0.35,經融合檢測后置信度提升至0.86,反映出算法可以提升對小目標的檢測性能,有效處理干擾情況。
圖7是拍攝艦船在有云霧干擾下的場景,可以驗證網絡對遮擋情況的檢測性能。從驗證結果可以看出,單一檢測下可見光和紅外的置信度分別為0.61和0.34,經融合檢測后置信度為0.81,反映出算法處理云霧遮擋的效果較好。
圖8是多艦船目標在同一畫面中的場景,可以驗證網絡對多目標的融合檢測性能。從驗證結果可以看出,單一檢測下兩個目標的可見光和紅外的置信度為0.74、0.66和0.61、0.74,經融合檢測后置信度為0.85、0.84,反映出算法可以有效實現多目標的融合檢測,且融合后的檢測精度有明顯提升。
3 結束語
為解決多源艦船圖像融合檢測問題,提出MFFDet R。根據無人機航拍艦船目標特點,有針對性地設計網絡模塊,首先采用單階段無錨框范式,并對網絡結構進行優化,降低網絡參數量和時延,提升實時性。隨后,采用旋轉任務對齊學習方法提升檢測精度,并通過強化檢測頭、解耦角度預測頭提升對遮擋目標的檢測性能。最后,設計可學習門控單元,加強了對小目標的檢測能力。通過對網絡性能的實驗驗證并與其他同類算法進行對比,結果表明本文方法不僅可以實現多源目標融合檢測,并且可有效提升對艦船目標的檢測性能,從可視化實驗結果中可以看出本文方法能夠較好地滿足現實任務的需要。下一步將對不同模態下的艦船目標融合識別問題展開進一步研究。
參考文獻
[1]王彥情, 馬雷, 田原. 光學遙感圖像艦船目標檢測與識別綜述[J]. 自動化學報, 2011, 37(9): 1029-1039.
WANG Y Q, MA L, TIAN Y. Overview of ship target detection and recognition in optical remote sensing images[J]. Journal of Automation, 2011, 37(9): 1029-1039.
[2]趙其昌, 吳一全, 苑玉彬. 光學遙感圖像艦船目標檢測與識別方法研究進展[J]. 航空學報, 2023, 34(1): 242-251.
ZHAO Q C, WU Y Q, YUAN Y B. Research progress on ship target detection and recognition methods in optical remote sensing images[J]. Journal of Aeronautics, 2023, 34(1): 242-251.
[3]何友, 熊偉, 劉俊, 等. 海上信息感知與融合研究進展及展望[J]. 火力與指揮控制, 2018, 43(6): 1-10.
HE Y, XIONG W, LIU J, et al. Research progress and prospects on maritime information perception and fusion[J]. Firepower and Command and Control, 2018, 43(6): 1-10.
[4]甘春生. 星載遙感圖像艦船檢測方法研究[D]. 遼寧: 沈陽航空航天大學, 2016.
GAN C S. Research on ship detection methods in spaceborne remote sensing images[D]. Liaoning: Shenyang University of Aeronautics and Astronautics, 2016.
[5]LEI S, ZOU Z X, LIU D G, et al. Sea land segmentation for infrared remote sensing images based on superpixels and multi scale features[J]. Infrared Physics amp; Technology, 2018, 91: 12-17.
[6]ZHI B X, ZHOU F. Analysis of new top hat transformation and the application for infrared dim small target detection[J]. Pattern Recognition, 2010, 43(6): 2145-2156.
[7]LIU R, LU Y, GONG C, et al. Infrared point target detection with improved template matching[J]. Infrared Physics amp; Technology, 2012, 55(4): 380-387.
[8]李海軍, 孔繁程, 林云. 基于改進YOLOv5s的紅外艦船檢測算法[J]. 系統工程與電子技術, 2023, 45(8): 2415-2422.
LI H J, KONG F C, LIN Y. Infrared ship detection algorithm based on improved YOLOv5s[J]. Systems Engineering and Electronics, 2023, 45(8): 2415-2422.
[9]潘為年. 基于深度學習的紅外成像艦船目標檢測方法研究[D]. 成都: 電子科技大學, 2021.
PAN W N. Research on infrared imaging ship target detection method based on deep learning[D]. Chengdu: University of Electronic Science and Technology of China, 2021.
[10]ZHANG J X. Multi source remote sensing data fusion: status and trends[J]. International Journal of Image and Data Fusion, 2010, 1(1): 5-24.
[11]LI M J, DONG Y B, WANG X L. Pixel level image fusion based the wavelet transform[C]∥Proc.of the 6th International Congress on Image and Signal Processing, 2013, 2: 995-999.
[12]HAN X, LYU Y, SONG T X. An adaptive two scale image fusion of visible and infrared images[J]. IEEE Access, 2019, 7: 56341-56352.
[13]YOU T T, TANG Y. Visual saliency detection based on adaptive fusion of color and texture features[C]∥Proc.of the 3rd IEEE International Conference on Computer and Communications, 2017: 2034-2039.
[14]楊曦, 張鑫, 郭浩遠, 等. 基于不變特征的多源遙感圖像艦船目標檢測算法[J]. 電子學報, 2022, 50(4): 887.
YANG X, ZHANG X, GUO H Y, et al. Ship target detection algorithm based on invariant features in multi source remote sensing images[J]. Journal of Electronics, 2022, 50(4): 887.
[15]WANG A, JIANG J N, ZHANG H Y. Multi sensor image decision level fusion detection algorithm based on D S evidence theory[C]∥Proc.of the 4th International Conference on Instrumentation and Measurement, Computer, Communication and Control, 2014, 620-623.
[16]PAUL P P, GAVRILOVA M L, ALHAJJ R. Decision fusion for multimodal biometrics using social network analysis[J]. IEEE Trans.on Systems, Man, and Cybernetics: Systems, 2014, 44(11): 1522-1533.
[17]關欣, 國佳恩, 衣曉. 基于低秩雙線性池化注意力網絡的艦船目標識別[J]. 系統工程與電子技術, 2023, 45(5): 1305-1314.
GUAN X, GUO J E, YI X. Ship target recognition based on low rank bilinear pooling attention network[J]. Systems Engineering and Electronics, 2023, 45(5): 1305-1314.
[18]DELIANG X, YIHAO X U, JIANDA C, et al. An algorithm based on a feature interaction based keypoint detector and sim CSPNet for SAR image registration[J]. Journal of Radars, 2022, 11(6): 1081-1097.
[19]ZHANG Y C, ZHANG W B, YU J Y, et al. Complete and accurate holly fruits counting using YOLOX object detection[J]. Computers and Electronics in Agriculture, 2022, 198: 107062.
[20]DEVER W G. The chronology of Syria Palestine in the second millennium BCE: a review of current issues[J]. Bulletin of the American Schools of Oriental Research, 1992, 288(1): 1-25.
[21]SONG G L, LIU Y, WANG X G. Revisiting the sibling head in object detector[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 11563-11572.
[22]FU A M, ZHANG X L, XIONG N X, et al. VFL: a verifiable federated learning with privacy preserving for big data in industrial IOT[J]. IEEE Trans.on Industrial Informatics, 2020, 18(5): 3316-3326.
[23]FENG C J, ZHONG Y J, GAO Y, et al. Tood: task aligned one stage object detection[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2021: 3490-3499.
[24]LI X, WANG W H, WU L J, et al. Generalized focal loss: learning qualified and distributed bounding boxes for dense object detection[J]. Advances in Neural Information Processing Systems, 2020, 33: 21002-21012.
[25]LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]∥Proc.of the IEEE conference on computer vision and pattern recognition, 2017: 2117-2125.
[26]LIU Z, LI Y, YAO L, et al. Task aligned generative meta learning for zero shot learning[C]∥Proc.of the AAAI Confe rence on Artificial Intelligence, 2021, 35(10): 8723-8731.
[27]LLERENA J E. Probabilistic intersection over union for training and evaluation of oriented object detectors[J]. 2022, 15(6): 156-178.
[28]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[29]ZHANG H Y, WANG Y, DAYOUB F, et al. Varifocalnet: an IoU aware dense object detector[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 8514-8523.
[30]LI X, WANG W H, WU L J, et al. Generalized focal loss: learning qualified and distributed bounding boxes for dense object detection[J]. Advances in Neural Information Processing Systems, 2020, 33: 21002-21012.
作者簡介
姜 杰(1990—),男,助理工程師,博士研究生,主要研究方向為人工智能、圖像處理。
凌 青(1987—),女,副教授,博士,主要研究方向為電磁信號處理。
閆文君(1986—),男,副教授,博士,主要研究方向為電磁信號處理。
劉 凱(1986—),男,副教授,博士,主要研究方向為人工智能、深度學習。