999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

選擇性坐標注意力下紅外圖像無人機目標檢測方法

2025-04-05 00:00:00吳茜魏晶鑫陳中舉
現代電子技術 2025年7期

摘" 要: 為解決無人機帶來的安全隱患與隱私侵犯等問題,提出選擇性坐標注意力下紅外圖像無人機目標檢測方法?;谶x擇性坐標注意力機制,通過非對稱卷積核在不同方向上捕捉不同尺度和形狀的特征,將無人機特征的行列位置信息進行編碼,動態地調整不同位置特征的權重,強化關鍵區域的特征表示。將多個紅外圖像輸入YOLOv5網絡中進行訓練和處理后,在主干網絡中經卷積操作后嵌入選擇性坐標注意力機制,實現紅外圖像無人機目標特征精確提取。采用GIoU作為損失函數,優化預測框的位置和大小,實現紅外圖像無人機目標精準檢測。實驗結果表明:該方法對大小不同的無人機目標均能實現準確且快速的定位與檢測,能夠保持較高的檢測精度。

關鍵詞: 坐標注意力機制; 特征融合; YOLOv5網絡; 紅外圖像; 無人機目標; 目標檢測

中圖分類號: TN911.73?34; TP391" " " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2025)07?0043?05

UAV object detection method for infrared images based on selective coordinate attention

WU Xi, WEI Jingxin, CHEN Zhongju

(School of Computer Science, Yangtze University, Jingzhou 434023, China)

Abstract: This paper proposes an unmanned aerial vehicle (UAV) object detection method for infrared images based on selective coordinate attention in order to avoid the security risks and privacy violations caused by UAVs. On the basis of the selective coordinate attention mechanism, the asymmetric convolutional kernels are used to capture features of different scales and shapes in different directions. The row and column position information of UAV features is encoded, the weights of different position features are adjusted dynamically, and the feature representations of key regions are strengthened. After inputting multiple infrared images into the YOLOv5 network for training and processing, a selective coordinate attention mechanism is embedded in the backbone network after convolution operation, so as to achieve accurate feature extraction of UAV objects in infrared images. The GIoU is taken as the loss function to optimize the position and size of the prediction box, so as to achieve accurate detection of UAV objects in infrared images. The experimental results show that the method can locate and detect UAV objects of different sizes accurately and quickly, and can maintain high detection accuracy.

Keywords: coordinate attention mechanism; feature fusion; YOLOv5 network; infrared image; UAV object; object detection

0" 引" 言

無人機的廣泛使用帶來了一系列安全和隱私問題[1],其數量及飛行活動顯著增多,這使得無人機與其他航空器、建筑物及人員的碰撞風險急劇攀升。同時,無人機配備的高清攝像頭和傳感器能夠輕易捕獲個人或敏感信息,若被濫用,將嚴重侵犯他人隱私。因此,紅外圖像無人機目標檢測成為了一個備受關注的研究課題[2?3]。

文獻[4]將圖像輸入到YOLOv3?MobileNetv2模型中,并在卷積層中加入注意力機制,實現紅外圖像無人機目標檢測,但是若初始參數設置不當或訓練數據不足,會導致網絡性能不佳或出現過擬合等問題。文獻[5]結合圖像翻譯和共享標簽,利用YOLOv5s網絡結合梯度反轉層優化特征適應性,采用最大均值差異損失縮小不同圖像特征分布差異,并使用AdamW優化器進一步提升紅外圖像無人機目標的檢測精度,但是該方法在圖像翻譯和目標檢測的過程中,每一步都有引入誤差的可能性。文獻[6]融合高層語義信息與低層特征,利用上下文信息增強模塊(CIE)精準定位目標,適應不同尺度目標,實現紅外圖像無人機的檢測,但是該方法過于復雜,導致訓練和推理速度降低。文獻[7]將通道與不同方向上的注意力模塊進行連接,對獲取通道與不同方向上的特征信息進行融合,增強紅外目標的特征,通過SIoU損失函數進行訓練,提高網絡的收斂速度和紅外圖像目標的檢測精度,但是該方法的YOLOv7引入了更多的超參數和復雜的網絡結構,使得模型的優化和調整變得更加困難。

基于以上紅外圖像無人機目標檢測方法存在的不足,本文提出了選擇性坐標注意力下紅外圖像無人機目標檢測方法。

1" 紅外圖像無人機目標檢測方法

1.1" 選擇性坐標注意力機制

針對紅外圖像無人機目標提取特征有限的問題,選擇性坐標注意力機制可以通過非對稱卷積核在不同的空間方向上捕捉不同尺度和形狀的特征[8?9],全面地描述無人機目標的復雜形態,提取紅外圖像無人機目標的特征;再將無人機特征的行列位置信息進行編碼,使得網絡能夠充分利用位置信息,對不同位置的特征進行有針對性的處理,并且可以根據位置信息動態地調整特征的權重,強化關鍵區域的特征表示,同時抑制無關區域的干擾。選擇性坐標注意力機制的結構如圖1所示。

為拓寬無人機捕獲視野,抓取不同方向上紅外圖像無人機目標的特征信息,假設輸入圖像為[Y∈RW×H×C],其中,[W]表示寬度,[H]表示高度,[C]表示通道數,通過非對稱的卷積核在[W]和[H]上分別使用一定大小的橫向卷積核和縱向卷積核,得到這兩個方向上的特征分別為[O']:[Y→U′1,U′2,…,U′k∈RW×H×C]和[O]:[Y→U″1,U″2,…,U″k∈RW×H×C]。同時,為了適應不同尺度和形狀的無人機目標,通過引入超參數[k],使網絡可以靈活地調整兩個方向上特征提取分支的數量,并且調整各分支的感受野。融合兩個方向的特征后,通過ReLU激活函數進一步形成更加全面的無人機目標特征表示,進一步增強了特征的判別能力。得到紅外圖像無人機目標兩個方向上的特征為:

[U'=ReLUsum(U′1,U′2,…,U′k)] (1)

[U=ReLUsum(U″1,U″2,…,U″k)] (2)

進一步將兩個方向上的特征融合,獲取紅外圖像無人機目標的總體特征:

[U=sum(U'+U)] (3)

通過非對稱卷積核、特征提取分支的多樣性和特征融合,有效地提高了網絡對紅外圖像中無人機目標的特征表示能力,為后續的目標檢測任務奠定了堅實的基礎[10]。

在紅外圖像無人機目標檢測任務中,無人機往往會因為不明物體的遮擋,無法獲取全部有效的特征。因此,將引入坐標注意力機制(CA模塊),結合編碼的方式強化無人機目標特征圖中重要的元素,并抑制對檢測任務貢獻較小的元素以保證對無人機目標的獲取更加全面。CA模塊的具體操作可以分為如下兩個步驟。

1) 在坐標信息嵌入的步驟中,對于特征圖[U],使用大小為[(1,W)]和[(H,1)]的池化核對兩個方向進行全局平均池化,輸出尺寸為[(C,1,W)]和[(C,H,1)]的特征向量。精確地識別出哪些位置的特征對于無人機目標的檢測更為重要,使網絡在面對不明物體遮擋時,仍能準確地定位到無人機目標的關鍵特征。

2) 針對復雜背景情況,將[(C,1,W)]和[(C,H,1)]進行維度轉換后,沿著通道方向連接,獲取大小為[C×1×(W+H)]的向量,將其通過[1×1]的卷積操作,獲取大小為[C r×1×(W+H)]的特征向量,其中[r]為一個縮減比例,用于降低網絡的復雜性。將其沿著特征圖兩個方向分解成大小為[C r×1×W]和[C r×1×H]的兩個特征向量,分別使用[1×1]卷積進行變換,使其通道數量一致。通過歸一化操作后,獲取兩個注意力權重特征向量[C×1×W]和[C×1×H],將其與[U]逐個元素地相乘,從而根據位置信息調整特征圖[U]的權重,突出關鍵區域并抑制不重要的信息,有助于網絡在復雜的背景環境中更加聚焦于無人機目標的有效特征。

通過選擇性特征融合,使網絡更準確地在紅外圖像中定位無人機目標的區域位置,并加強對無人機目標的特征提取,提升目標檢測模型的性能。將[C]通道中兩個方向的特征向量進行壓縮后得到特征編碼[ZW]和[ZH],通過中間映射層[D]和[E]進行轉換,其中,[D]和[E]是[1×1]卷積層,學習如何將原始特征轉換為注意力權重,經softmax算子對[ZW]和[ZH]進行歸一化,得到在[C]上兩個方向的注意力分布為:

[gHC=eDCZHeDCZH+eECZW] (4)

[gWC=eECZWeDCZH+eECZW] (5)

式中:[e]表示自然指數;[gWC]與[gHC]的和為1,確保每個位置的注意力權重都是歸一化的。

通過[gWC]與[gHC]對原始特征進行加權融合,使每個位置的特征值都根據對應位置的注意力權重進行調整,在[C]通道第[(i, j)]個特征可表示為:

[UC(i, j)=U'(i, j)×gWC(i)+U(i, j)×gHC(j)] (6)

通過選擇性特征融合,網絡可以更加關注重要的區域,忽略不相關的區域,進一步提升了紅外圖像無人機目標特征提取的能力。

1.2" 基于改進YOLOv5網絡的無人機目標檢測

基于選擇性特征融合的思想,YOLOv5網絡能夠更有效地提取和利用圖像中的特征信息,從而提高無人機目標檢測的準確性和效率。YOLOv5網絡作為一種先進的目標檢測算法,具有出色的性能和速度[11?12]。由于紅外圖像存在對比度低、噪聲多等問題,傳統的YOLOv5網絡難以充分提取和利用紅外圖像中的有用特征。因此,基于YOLOv5網絡[13],通過在卷積層后嵌入選擇性坐標注意力機制,提升對紅外圖像無人機目標特征的提取能力。YOLOv5網絡結構主要包括以下三部分。

1) 輸入端:結合多個紅外圖像創建一個訓練樣本,YOLOv5通過自動計算錨框[14],以適應訓練樣本中無人機目標大小和形狀,預測邊界框。同時,為了適應網絡的輸入尺寸,需要對輸入紅外圖像進行縮放,實現紅外圖像的初步處理。

2) 主干網絡:通過下采樣操作,在紅外圖像特征圖上捕獲更多的信息,同時減少空間尺寸。再經卷積層進行卷積操作,提取不同級別的特征。經卷積操作后,通過嵌入1.1節的坐標注意力機制進一步實現紅外圖像無人機目標的特征提取。

3) 預測端:由于紅外圖像中會同時存在大、中、小不同尺寸的無人機目標,因此使用多尺度特征圖能夠提供更豐富的上下文信息和更準確的定位能力。

將全部預測框按照不同的類別標簽進行分組,然后在每個類別內部按照可靠性得分進行排序,將可靠性最高的作為基準預測框,求出它與其他預測框的交并比(IoU),公式表達如下:

[IoU=P?QP?Q=AB] (7)

式中:[P]表示紅外圖像無人機目標的基準預測框;[Q]表示紅外圖像無人機目標預測框;[A]表示[P]和[Q]的交集;[B]表示[P]和[Q]的并集。

設置一個閾值[γ],若某個預測框與基準預測框的IoU值大于[γ],則認為它們重疊,并且保留可靠性最高的預測框,抑制可靠性較低的預測框。不斷操作該步驟,直至處理完全部預測框。

為了更好地評估紅外圖像無人機目標檢測中預測框與真實框之間的重疊程度[15],在基于YOLOv5網絡的目標檢測方法中,GIoU(廣義交并比)被用作損失函數的一部分,能夠優化預測框的位置和大小。GIoU的計算公式如式(8)所示:

[GIoU=IoU-F-(P?Q)F] (8)

式中[F]表示包含[Q]和[P]的最小矩形框。

GIoU的損失函數可表示為:

[GIoULoss=1-GIoU=1-IoU+F-(P?Q)F] (9)

通過[GIoULoss]在訓練過程中優化預測框的位置和大小,當預測框與基準預測框的重疊程度越高時,[GIoULoss]的值越小,反之,則越大。通過最小化[GIoULoss],YOLOv5網絡可以學習到如何更準確地檢測紅外圖像無人機目標的位置和大小,從而提升紅外圖像無人機捕獲目標特征的能力。

2" 實驗分析

為了驗證本文方法的有效性,從互聯網上爬取了560張無人機蜂群圖像,并經過紅外技術處理,自制了一個無人機數據集。該數據集共包含1 228個無人機目標,涵蓋了各種無人機類型、姿態和場景,為后續的目標檢測研究提供了豐富的數據資源。

通過Roboflow軟件對每張紅外圖像中的無人機目標進行標注,賦予相應的標簽,使每個無人機目標在圖像中都有一個明確的位置和類別信息。將392張包含無人機目標的紅外圖像作為訓練集,剩下的168張包含無人機目標的紅外圖像作為測試集,用于測試網絡的性能。

同時,確保訓練集和測試集中的無人機目標數量、尺寸分布、遮擋程度等保持一致,避免引入偏差?;谝陨蠈嶒灜h境的設置,本文方法的紅外圖像無人機目標檢測結果如圖2所示。

由圖2中可以看出,在面對復雜的紅外圖像時,本文方法能夠迅速且準確地定位到無人機目標的位置。對于紅外圖像中的大目標,由于其特征明顯且占據較多的像素空間,網絡能夠很容易地捕捉到其關鍵信息,從而進行準確定位;而對于小目標,盡管其像素數量較少,特征可能相對模糊,但本文方法通過優化算法和模型結構,依然能夠準確地識別并定位這些小目標,實現紅外圖像無人機目標的檢測。

為了進一步驗證本文方法的有效性,在自制數據集中選取包含多種天氣條件和遮擋程度下的紅外圖像無人機目標數據,評估本文方法在不同天氣條件下,包括正常天氣和雨天,以及重度遮擋情況下,IoU閾值為0.6、0.4和0.2時的檢測精確度,檢測結果如表1所示。

從表1中可以看出,在正常天氣條件下,本文方法的平均精確度較高;而在雨天和重度遮擋條件下,平均精確度均有所下降,特別是在重度遮擋情況下,對紅外圖像無人機目標檢測的性能有一定的影響。但隨著IoU閾值的降低,本文方法在三種不同條件下的平均精確度都有所提高,在被重度遮擋情況下,本文方法的IoU閾值為0.2時,其檢測精度在90%以上。

為了驗證不同方法對紅外圖像無人機目標檢測的能力,在自制數據集中隨機抽選一張在霧天拍攝,且存在被遮擋情況的無人機圖像,并分別通過顯著圖融合方法、無監督域方法和本文方法進行無人機目標的檢測,驗證三種方法是否能夠在復雜環境下檢測出無人機目標,驗證結果如圖3所示。

從圖3a)中能夠看出,顯著圖融合方法雖然能夠檢測出紅外圖像中大多數的無人機目標,但由于圖像中某些與無人機特征相似的物體,使得該方法存在誤檢情況,此外,對于被樹木遮擋的無人機目標,該方法無法進行有效檢測;在圖3b)中,無監督域方法相較于顯著圖融合方法在誤檢方面有了明顯的改進,沒有出現誤檢的情況,但該方法同樣無法檢測出被樹木遮擋的無人機目標;而在圖3c)中,本文方法不僅沒有出現誤檢的情況,并且能夠準確地檢測出被樹木遮擋的無人機。證明了本文方法能夠準確、快速地檢測出紅外圖像中全部的無人機目標,同時避免了誤檢和漏檢的情況,為實際應用提供了更加可靠和有效的解決方案。

3" 結" 論

本文結合YOLOv5網絡和選擇性坐標注意力機制的優勢,構建出針對紅外圖像無人機目標檢測的高效、準確的方法,并在自制數據集上驗證了不同IoU閾值以及不同天氣和遮擋條件下,本文方法均能保持較高的檢測精度。相信在未來通過不斷優化和完善該方法,將能夠為紅外圖像目標檢測領域的發展作出更大的貢獻。

注:本文通訊作者為陳中舉。

參考文獻

[1] 崔令飛,郭永紅,修全發,等.基于國產嵌入式智能計算平臺的無人機檢測方法[J].兵工學報,2022,43(z1):146?154.

[2] 張學思,張婷,劉兆英,等.基于輕量型卷積神經網絡的海面紅外顯著性目標檢測方法[J].山東大學學報(工學版),2022,52(2):41?49.

[3] 張栩培,賀占莊,馬鐘,等.一種自標簽特征點異源圖像目標檢測算法[J].北京理工大學學報,2021,41(5):558?568.

[4] 趙興科,李明磊,張弓,等.基于顯著圖融合的無人機載熱紅外圖像目標檢測方法[J].自動化學報,2021,47(9):2120?2131.

[5] 宋子壯,楊嘉偉,張東方,等.基于無監督域適應的低空海面紅外目標檢測[J].光學學報,2022,42(4):127?134.

[6] LUO H, WANG P, CHEN H, et al. Object detection method based on shallow feature fusion and semantic information enhancement [J]. IEEE sensors journal, 2021, 21(19): 21839?21851.

[7] 梁曉,李俊.基于改進YOLOv7的紅外無人機目標檢測方法[J].電光與控制,2023,30(12):38?43.

[8] 郭陽陽,洪文浩,丁屹,等.基于坐標注意力機制和YOLO v5s模型的山羊臉部檢測方法[J].農業機械學報,2023,54(7):313?321.

[9] 朱勇,肖沁,李正周,等.基于海面場景感知的紅外小目標檢測方法[J].光子學報,2022,51(12):294?311.

[10] 宋鵬鵬,龔聲蓉,鐘珊,等.基于雙注意力擦除和注意力信息聚合的弱監督目標檢測[J].計算機工程,2023,49(3):113?120.

[11] 孫備,黨昭洋,吳鵬,等.基于多分支注意力改進的YOLOv5無人艇目標檢測方法[J].無人系統技術,2023(5):89?97.

[12] 陳成琳,鮑春,曹杰,等.基于改進YOLOv3的遙感小目標檢測網絡[J].計算機仿真,2023,40(8):30?35.

[13] 譚顯東,彭輝.改進YOLOv5的SAR圖像艦船目標檢測[J].計算機工程與應用,2022,58(4):247?254.

[14] 郭雨.基于輕量化改進型YOLOv5的車輛檢測方法[J].建模與仿真,2023,12(3):1840?1849.

[15] 蔡云澤,張彥軍.基于雙通道特征增強集成注意力網絡的紅外弱小目標檢測方法[J].空天防御,2021(4):14?22.

[16] 楊軍利,屈子昂,楊沛達,等.基于改進蟻群算法的無人機災區航跡規劃[J].電子設計工程,2024,32(10):120?124.

作者簡介:吳" 茜(1999—),女,湖北荊門人,在讀碩士研究生,研究方向為目標檢測。

魏晶鑫(2000—),女,湖北襄陽人,在讀碩士研究生,研究方向為目標檢測。

陳中舉(1976—),男,湖北荊州人,碩士研究生,副教授,研究方向為人工智能。

收稿日期:2024?04?17" " " " " "修回日期:2024?05?08

基金項目:中國高校產學研創新基金:新一代信息技術創新項目(2023IT269)

主站蜘蛛池模板: 国产精品女熟高潮视频| 国产在线91在线电影| 国产成人免费手机在线观看视频| 亚洲欧美精品日韩欧美| 亚洲h视频在线| 丁香婷婷激情综合激情| 国产欧美日韩视频怡春院| 国产精品免费福利久久播放| 男女男精品视频| 欧美在线网| 久久天天躁狠狠躁夜夜躁| 国产在线啪| 日韩午夜片| 在线日韩日本国产亚洲| 国产精品三级专区| 中文字幕啪啪| 女人毛片a级大学毛片免费| 国产精品无码影视久久久久久久| 日韩毛片在线视频| 国产精品人莉莉成在线播放| 日韩免费毛片视频| 中美日韩在线网免费毛片视频| 欧洲高清无码在线| 午夜精品久久久久久久99热下载| 婷五月综合| 亚洲国产清纯| 欧美色伊人| 国产人免费人成免费视频| 天天婬欲婬香婬色婬视频播放| 五月激情综合网| 一本一道波多野结衣av黑人在线| 国产在线精彩视频二区| 无码国产伊人| 国产精品大白天新婚身材| 一本大道在线一本久道| 黄色污网站在线观看| 亚洲第一视频网| 精品人妻一区二区三区蜜桃AⅤ| 成人免费黄色小视频| 久久一本精品久久久ー99| 国产爽歪歪免费视频在线观看| 欧美视频在线不卡| 亚洲av日韩av制服丝袜| 国产性精品| 亚洲综合婷婷激情| 久久人人妻人人爽人人卡片av| 欧美精品亚洲精品日韩专区va| 制服丝袜一区| 日韩av资源在线| 久久性视频| 超薄丝袜足j国产在线视频| 在线精品视频成人网| 国产无遮挡裸体免费视频| 国产精品对白刺激| 亚洲第一黄色网| 永久天堂网Av| 无码不卡的中文字幕视频| 欧美狠狠干| 欧美一区二区丝袜高跟鞋| 国产日本一区二区三区| 亚洲二区视频| 四虎精品国产AV二区| 99在线视频精品| 亚洲人成电影在线播放| 婷婷丁香在线观看| 国产精品毛片一区| 欧美在线伊人| 国产精品香蕉| 国产视频久久久久| 黄色污网站在线观看| 免费A∨中文乱码专区| 一本无码在线观看| 久久国产V一级毛多内射| 国产波多野结衣中文在线播放| 免费无码一区二区| 久久semm亚洲国产| 国产一二三区在线| 欧洲高清无码在线| 国产一区二区三区日韩精品| 成人在线观看一区| 国产午夜精品鲁丝片| 18禁影院亚洲专区|