999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進YOLOv5 的區域入侵檢測算法

2024-01-01 00:00:00陶晶吳浩
宜賓學院學報 2024年6期

摘 要:針對現有基于傳感器的入侵檢測技術誤報率高、存在安全隱患等問題,提出一種改進YOLOv5 的區域入侵檢測算法:以YOLOv5 為基礎,在Backbone 中引入CBAM 注意力機制,增強網絡對特征的提取能力;在Neck 中增加操作層繼續對特征圖進行上采樣處理,并將操作后獲取到的特征圖與Backbone 中第二層的特征圖進行Concat 融合,以此獲取更大的特征圖進行小目標檢測;結合掩膜法與圖像像素坐標系劃分警戒區域,對進入警戒區域的可疑目標進行檢測,以防止非法入侵的發生.實驗結果表明:入侵檢測算法mAP 值為83.4%,分別較YOLOv5、YOLOX、SSD、Faster-RCNN 提高1.8%、17.3%、28.2%、40.6 %,檢測速度達25.4 frame/s,僅次于YOLOv5,能夠滿足真實安防場景下對入侵目標的檢測需求,且具備良好的泛化能力.

關鍵詞:入侵檢測;YOLOv5;注意力機制;小目標檢測

中圖分類號:TB391.41

DOI: 10.19504/j.cnki.issn1671-5365.2024.06.02

區域入侵檢測是指通過監控系統對特定區域進行實時監控、及時檢測和報警未經授權進入該區域的人員或物品,對于機場、銀行、政府機構軍事基地等重要場所的安全保障具有十分重要的意義.目前使用最多的區域入侵檢測技術有激光對射技術、紅外對射技術、振動光纖、電子圍欄等. 但是現階段這些方案由于安裝維護成本高、誤報率高、用電安全等問題仍無法在私人住宅安防領域大面積推廣[1-2].

當前,區域入侵檢測技術在諸多領域被廣泛應用. 在“智慧油田”領域,田楓等人提出了一種基于視頻的油田危險區域入侵檢測智能綜合識別算法[3],根據油田危險因素對危險區域進行劃分,然后分別利用改進YOLOv5 目標檢測算法與三偵差分法分別對白天場景與夜間場景的油田危險區域的運動目標進行檢測;李婷玉等人基于SOLOv2 分割算法與CenterNet 檢測網絡研究了一種油田近海區域作業人員入侵檢測模型[4],有效解決了油田作業現場危險區域小目標檢測效果差、實時性不佳等問題. 在“智慧校園”領域,向翼凌等人提出一種基于時空聯合約束的視頻區域入侵檢測算法[5],對校園中湖邊等危險區域、門道等公共場所進行視頻區域入侵檢測,對校園安全提供了一種有效的實時預警方法. 在“智慧工地”領域,劉歡基于ViBe 和YO?LOv5 設計了一種面向智慧工地的入侵檢測系統[6],并提出一種基于多級特征掩碼融合的前景分割算法(CFMFN)提取入侵目標,實現了系統對魯棒性和實時性要求. 在“鐵路安全”領域,郭磊設計了一種基于深度學習的鐵路關鍵區域入侵檢測系統[7],采用deeplab 語義分割模型與改進YOLOv3 相結合的方式實現了鐵路關鍵區域內異物目標的識別和檢測,并搭建入侵檢測數據上報平臺,可以對鐵路關鍵區域的入侵檢測數據實時查看與統計分析,為監管人員提供更全面的監控信息.

目前,區域入侵檢測算法存在如下難點:(1)當防護面積過大時,視頻遠景監控導致檢測目標較小且畫質較模糊;(2)如何界定警戒區域并及時判斷入侵行為的發生. 針對上述難點,結合真實應用場景,本文提出一種基于YOLOv5 的區域入侵檢測改進算法:根據圖像像素坐標,結合掩膜參數Mask 對警戒區域進行劃分,對進入警戒區域的目標進行入侵檢測,并對重點防護區域的實時、準確檢測需求進行驗證.

1 基于改進YOLOv5的區域入侵檢測算法

1.1 YOLOv5 目標檢測算法原理

YOLOv5 是一種單階段目標檢測算法,網絡結構主要由Input、Backbone、Neck、Prediction 四部分組成(如圖1).以640×640 的圖片作為輸入,使用主干網絡CSPDarknet 提取特征,將原始640×640×3 圖像復制4 份,然后在Focus 結構中進行切片操作得到4 個320×320×3 切片,再使用Concat 進行深度連接,輸出為320×320×12,通過一個卷積核數為32 的卷積層,生成320×320×32 的輸出,最后經過Batch_norm 和Leaky_ReLU 將結果輸入到下一個卷積層.這個過程提高了特征圖上每個點感受野的大小,減少了原始信息丟失的頻率與計算量,進而加快了檢測速度. 在Neck 部分,采用雙向特征金字塔網絡PANet 對特征圖進行融合,充分利用特征圖的位置信息和語義信息,提升網絡對目標物體的檢測性能. 檢測頭部分與YOLOv4 結構基本一致.

1.2 改進YOLOv5 異常目標檢測算法

本文結合實際應用場景,對YOLOv5 作如下改進:在主干網絡Backbone 中引入CBAM 注意力機制,在Prediction 部分增加一個額外的小目標檢測層.

1)CBAM 注意力機制. 本文算法主要應用于室外環境,需要從復雜的背景信息中提取出異常目標的特征信息并過濾無關信息. 另外,在本文自定義數據集中小目標數據較多,因為小目標占據像素較少,極易出現在深層網絡中丟失特征信息的情況,導致漏檢、錯檢,影響模型整體的檢測精度. 因此,選擇在主干網絡引入CBAM 注意力機制,通過增大小目標在整張特征圖中的權重,促使待檢測目標特征信息更容易被網絡學習,同時避免待檢測目標的特征信息被卷積時冗余的背景信息所掩蓋. CBAM 注意力機制主要分為通道注意力模塊和空間注意力模塊,通道注意力機制著重檢測目標的內容,空間注意力機制著重檢測目標的位置,兩者結合可以使目標的主要特征更加聚焦,有效節約了參數和計算1)CBAM 注意力機制. 本文算法主要應用于室外環境,需要從復雜的背景信息中提取出異常目標的特征信息并過濾無關信息. 另外,在本文自定義數據集中小目標數據較多,因為小目標占據像素較少,極易出現在深層網絡中丟失特征信息的情況,導致漏檢、錯檢,影響模型整體的檢測精度. 因此,選擇在主干網絡引入CBAM 注意力機制,通過增大小目標在整張特征圖中的權重,促使待檢測目標特征信息更容易被網絡學習,同時避免待檢測目標的特征信息被卷積時冗余的背景信息所掩蓋. CBAM 注意力機制主要分為通道注意力模塊和空間注意力模塊,通道注意力機制著重檢測目標的內容,空間注意力機制著重檢測目標的位置,兩者結合可以使目標的主要特征更加聚焦,有效節約了參數和計算1)CBAM 注意力機制. 本文算法主要應用于室外環境,需要從復雜的背景信息中提取出異常目標的特征信息并過濾無關信息. 另外,在本文自定義數據集中小目標數據較多,因為小目標占據像素較少,極易出現在深層網絡中丟失特征信息的情況,導致漏檢、錯檢,影響模型整體的檢測精度. 因此,選擇在主干網絡引入CBAM 注意力機制,通過增大小目標在整張特征圖中的權重,促使待檢測目標特征信息更容易被網絡學習,同時避免待檢測目標的特征信息被卷積時冗余的背景信息所掩蓋. CBAM 注意力機制主要分為通道注意力模塊和空間注意力模塊,通道注意力機制著重檢測目標的內容,空間注意力機制著重檢測目標的位置,兩者結合可以使目標的主要特征更加聚焦,有效節約了參數和計算

相應的過程表達式為[10]:

2)小目標檢測層. YOLOv5 對小目標檢測效果不好的主要原因是其下采樣倍數較大,導致小尺寸目標的特征信息難以被較深的特征圖學習到. 因此,本文選擇增加小目標檢測層,將較淺特征圖與較深特征圖拼接后再進行檢測[11]. 原始的YOLOv5 網絡模型只有三個檢測層,對應三組初始化Anchor值,其中小數值Anchor 檢測大的目標,大數值An?chor 檢測小的目標. 現在已有基礎上增加一組An?chor([5,6; 8,15; 16,11]),取值約為最小一組Anchor 值的一半;然后在網絡第17 層后增加7 個操作層,繼續對特征圖進行上采樣處理,使得特征圖繼續擴大,同時在改進后網絡的第20 層將獲取到的特征圖與骨干網絡中第二層的特征圖進行Concat 融合,以此獲取更大的特征圖進行小目標檢測;在網絡第31 層后增加一個小目標檢測層[12-13],加上原有的三個檢測層,總共使用四層進行檢測,增強網絡對小目標的檢測能力. 添加小目標檢測層后,網絡Neck 與Predic?tion 部分結構如圖3 所示.

1.3 基于改進YOLOv5 的區域入侵檢測方法

與傳統入侵檢測技術相比[14-16],基于視頻監控的區域入侵檢測技術難點在于如何在視頻監控中劃分警戒區域并進行精準地入侵檢測. 本文劃分警戒區域的方法為:在圖像的像素坐標系下,提取待檢測區域外接矩形的四點像素坐標,結合掩膜(Mask)形成封閉區域,即警戒區域. 掩膜的應用可以理解為一個由0 和1 組成的二進制圖像,當對待檢測區域進行掩模處理后,值為1 的區域正常顯示,值為0 的區域被屏蔽,在進行目標檢測時被忽略,這樣即可利用掩膜法形成檢測區域,也即警戒區域,其主要過程如圖4 所示:圖4(b)是由0 和1 組成的二進制圖像;圖4(c)是本文入侵檢測場景中的掩模圖,其中紅色區域為警戒區域(形狀由組成警戒區域四個點的坐標決定,可根據實際情況靈活調整),黑色區域為屏蔽區域;圖4(d)是掩模圖與背景圖像的組合,可以明顯看出警戒區域以外的區域全部被屏蔽. 具體來說,本文入侵檢測方法的原理可以理解為:在警戒區域內檢測到目標,即視為“目標入侵該區域”,如果沒有檢測到目標,則不進行入侵判斷.

2 實驗設計

2.1 數據集準備

數據集由表1 所示的三部分構成,共計6 000 張圖像,按8︰1︰1 的比例劃分為訓練集、驗證集以及測試集,用于模型的訓練以及性能的驗證.

2.2 模型訓練

使用圖像處理工作站進行實驗,配置如表2 所示,訓練時將基礎學習率(learning rate)設置為0.01,訓練輪數(epoch)設置為300,一次訓練所選取的樣本數(batch size)設置為64.

2.3 消融實驗

在YOLOv5 中,小目標的特征信息容易被主干網絡忽視,CBAM 注意力機制模塊與主干網絡Back?bone 結合可以對這些隱含的特征信息進行注意力重構,將重要特診信息進行突出[18-19],這也是本文選擇在Backbone 中引入CBAM 注意力機制模塊的主要原因. 針對采用兩種改進策略的有效性以及CBAM 注意力機制融合到主干網絡不同位置的效果在相同數據集上設計消融實驗進行縱向對比分析,以網絡平均精確率均值mAP 的變化來判斷改進策略是否有效,將CBAM 與C3 模塊結合的模塊命名為CBAM_C3,結果如表3 所示. 由表3 可知,在主干網絡中將CBAM 模塊與C3 模塊融合后對模型召回率與檢測精度提升較為明顯,其中網絡整體mAP值提高1.2%,說明引入注意力機制后,小目標的特征信息更容易被網絡學習到,網絡對小目標的檢測能力得以提高. 增加小目標檢測層后,網絡整體mAP 值提高1.5%. 這表明,增加小目標檢測層后,原網絡難以學習到小目標物體特征信息的問題得到了改善,網絡的整體檢測精度得以提升. 最后,在網絡結構中融合CBAM 與小目標檢測層得到本文算法CS-YOLOv5,其mAP 值為83.4%,比未改進前mAP值高1.8%,表明本文采用的改進策略真實有效,能夠提高網絡對入侵目標的檢測精度.2.4 對比實驗

2.4.1 客觀對比實驗

為了驗證本文算法的優越性,在相同配置的條件下使用相同的數據集,與主流one-stage 標檢測模型YOLOX、SSD 以及two-stage 目標檢測模型Faster RCNN 作對比,采用mAP 指標對各檢測算法進行評價,對比實驗結果如表4 所示.

表4 對比試驗結果顯示,在相同的條件下,本文算法的準確率、召回率、平均精確率均值均為最高,說明本文算法在相同的測試集下誤檢率最低、可以檢測到最多的目標,且檢測性能最佳. 由此說明,本文提出的CS-YOLOv5 異常目標檢測算法能夠對進入警戒區域的異常目標進行準確識別,可以滿足真實入侵場景下的檢測需求.

2.4.2 主觀對比實驗

為進一步說明本文提出的CS-YOLOv5 異常目標檢測算法在真實環境下對入侵目標檢測效果的優越性,在測試集中隨機挑選3 張圖片進行對比分析,各網絡檢測效果如圖5 所示.

從圖5 可以看出,SSD 和Faster-RCNN 網絡的檢測效果最差,SSD 存在嚴重的漏檢現象,Faster-RCNN 檢測精度較低,可能由于網絡學習能力不足導致;YOLOX 與YOLOv5 的檢測性能僅次于本文算法,但是兩種算法均未檢測出第一張圖像中被圍欄遮擋的小目標;最后,本文提出的CS-YOLOv5 能夠將3 張測試圖中的所有的遮擋目標與小目標都檢測出來,同時擁有不錯的置信度,說明本文算法的檢測性能最好,進一步說明本文采用的改進策略真實有效.

2.5 入侵場景測試

應用本文提出的區域入侵檢測算法在真實場景下模擬入侵實驗,具體效果如圖6 所示. 圖6(a)目標未進入警戒區域,圖6(b)檢測到目標入侵警戒區域,圖6(c)通過改變坐標調整了警戒區域.。

3 結語

本文針對傳統的區域入侵檢測技術安裝維護成本高、誤報率高、安全隱患大等問題,提出了一種基于YOLOv5 的區域入侵檢測改進算法. 算法以YO?LOv5 網絡為基礎,在主干網絡中引入CBAM 注意力機制,并頸部增加一個額外的小目標檢測層,有效提升了網絡的特征提取能力、提高了對小目標物體的檢測精度. 在檢測部分,應用圖像像素坐標系與掩膜參數劃分警戒區域進行入侵檢測. 實驗表明,本文算法實時性好、能適應環境變化,進行入侵檢測時有較高的準確率.

參考文獻:

[1] TAO J, WU H, DENG S, et al. Overview of intelligenthome security and early warning system based on internet ofthings technology[J]. International Core Journal of Engineer?ing, 2022, 8(5): 727-732. doi: 10.6919/ICJE. 202205_8(5).0093.

[2] 邢軍輝. 基于云平臺的入侵檢測系統設計[D]. 鄭州: 河南工業大學, 2020.

[3] 田楓, 白欣宇, 劉芳, 等. 1 種基于視頻的油田危險區域入侵檢測智能綜合識別技術研究[J]. 中國安全生產科學技術,2022, 18(3): 68-75.

[4] 李婷玉, 姜文文, 邢金臺, 等. 油田作業現場近海周界區域入侵檢測[J]. 計算機系統應用, 2022, 31(1): 236-241.

[5] 向翼凌, 何偉. 面向校園安全的視頻區域入侵檢測算法[J].武漢工程大學學報, 2019, 41(1): 93-97.

[6] 劉歡. 面向智慧工地的入侵檢測算法研究[D]. 重慶: 重慶理工大學, 2022.

[7] 郭磊. 基于深度學習的鐵路關鍵區域的入侵檢測系統[D].北京: 北京交通大學, 2020.

[8] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional blockattention module[C]//Ferrari V, Hebert M, Sminchisescu C, etal. Computer Vision – ECCV 2018. Springer, 2018: 3-19. doi:10.1007/978-3-030-01234-2_1.

[9] 李宇瓊, 周永軍, 蔣淑霞, 等. 基于注意力機制的交通標志識別[J]. 電子測量技術, 2022, 45(8): 116-120.

[10] 武歷展, 王夏黎, 張倩, 等. 基于優化YOLOv5s 的跌倒人物目標檢測方法[J]. 圖學學報, 2022, 43(5): 791-802.

[11] ZHU X, LYU S, WANG X, et al. TPH-YOLOv5: ImprovedYOLOv5 based on transformer prediction head for objectdetection on drone-captured scenarios[C]//IEEE/CVF Inter?national Conference on Computer Vision. Montreal: IEEE,2021: 2778-2788. doi:10.1109/ICCVW54120.2021.00312.

[12] 桂方俊, 李堯. 基于CBA-YOLO 模型的煤矸石檢測[J]. 工礦自動化, 2022, 48(6): 128-133.

[13] 黃彤鑌, 黃河清, 李震, 等. 基于YOLOv5 改進模型的柑橘果實識別方法[J]. 華中農業大學學報, 2022, 41(4):170-177.

[14] LOHANI D, CRISPIM-JUNIOR C, BARTHéLEMY Q,et al. Perimeter intrusion detection by video surveillance: Asurvey[J]. Sensors, 2022, 22(9): 3601. doi:10.3390/s22093601.

[15] REN Z, YAO J, HUANG Y, et al. High-performance railwayperimeter security system based on the inline time-divisionmultiplexing fiber Fabry-Perot interferometric sensor array[J].Optik, 2022(249): 168191. doi:10.1016/j.ijleo.2021.168191.

[16] DEJDAR P, ZáVI?KA P, VALACH S, et al. Image edge de?tection methods in perimeter security systems using distrib?uted fiber optical sensing[J]. Sensors, 2022, 22(12): 4573. doi:10.3390/s22124573.

[17] OUYANG W, WANG X. A discriminative deep model forpedestrian detection with occlusion handling[C]//2012 IEEEConference on Computer Vision and Pattern Recognition.Providence: IEEE, 2012: 3258-3265. doi: 10.1109/cvpr.2012.6248062.

[18] 龔惟新,楊珍,李凱等. 基于改進YOLOv5s 的自然環境下獼猴桃花朵檢測方法[J]. 農業工程學報,2023,39(06):177-185.

[19] 王鵬飛, 黃漢明, 王夢琪. 改進YOLOv5 的復雜道路目標檢測算法[J]. 計算機工程與應用, 2022, 58(17): 81-92.

【編校:王露】

基金項目:四川省科技廳項目(2021YFG0313,2022YFS0518,2022ZHCG0035);人工智能四川省重點實驗室項目(2019RYY01);四川輕化工大學人才引進項目(2021RC12);四川輕化工大學研究生創新基金資助項目(Y2022116)

主站蜘蛛池模板: 亚洲精品第1页| 久久精品国产91久久综合麻豆自制| 国产小视频a在线观看| 久久人体视频| 永久天堂网Av| 全部免费特黄特色大片视频| 在线高清亚洲精品二区| 激情六月丁香婷婷| h视频在线播放| 国产后式a一视频| 国产理论最新国产精品视频| 亚洲精选无码久久久| 国产呦视频免费视频在线观看| 怡春院欧美一区二区三区免费| 激情亚洲天堂| 91视频青青草| 亚洲无码电影| 26uuu国产精品视频| 91在线丝袜| 永久免费无码日韩视频| A级毛片高清免费视频就| 99久久无色码中文字幕| 999精品在线视频| 国内嫩模私拍精品视频| 人妖无码第一页| 免费日韩在线视频| 国产亚洲精品无码专| 亚洲IV视频免费在线光看| 国产91小视频| 91精品国产自产在线老师啪l| 日韩小视频在线播放| 国产三级韩国三级理| 国产成人免费视频精品一区二区| 免费国产小视频在线观看| 亚洲女同一区二区| 精品三级在线| 亚洲最大福利视频网| 国产区人妖精品人妖精品视频| 漂亮人妻被中出中文字幕久久| 亚洲色欲色欲www在线观看| 久久一级电影| 第一区免费在线观看| 日韩视频精品在线| 国产精品污视频| 日韩欧美国产综合| 最新国产成人剧情在线播放| 亚洲视频在线青青| 一本大道在线一本久道| 亚洲二区视频| 波多野一区| 亚洲国产成人久久77| 亚洲AⅤ综合在线欧美一区| 欧美特黄一级大黄录像| 国产一区三区二区中文在线| 亚洲第一成年网| 亚洲视屏在线观看| 免费看av在线网站网址| 亚洲精品不卡午夜精品| 国产精品区网红主播在线观看| 亚洲成肉网| 日韩在线观看网站| 国产视频资源在线观看| 精品无码日韩国产不卡av| 亚洲人成高清| 亚洲色图综合在线| 一级毛片免费不卡在线视频| 欧美午夜在线播放| 狠狠综合久久久久综| 日韩二区三区| 亚洲丝袜第一页| 国产精品综合久久久| 浮力影院国产第一页| 老色鬼欧美精品| 成人午夜视频在线| 欧美日韩91| 国产欧美日韩免费| 日韩中文字幕亚洲无线码| 97超爽成人免费视频在线播放| 久热中文字幕在线| 亚洲aaa视频| 亚洲毛片一级带毛片基地| 麻豆精品在线视频|