999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Transformer改進YOLO v4的火災檢測方法

2021-12-07 12:37:20王國睿
智能計算機與應用 2021年7期
關鍵詞:深度學習

摘 要: 針對火災檢測算法檢測多尺度火焰和煙霧精度低,且實時性差的問題,提出了一種基于Transformer改進YOLO v4的火災檢測方法。首先,結合MHSA(Multi-Head Self-Attention)改進了CSPDarknet53主干網絡,建模全局依賴關系以充分利用上下文信息。此外,基于MHSA改進了PANet模塊進行多尺度特征圖融合,獲取更多的細節特征。為驗證改進方法的有效性,與YOLO v4、YOLO v3等算法進行比較。實驗證明,不僅能夠檢測多尺度目標,且視頻監控場景下達到實時性,具有準確率高、誤報率低、檢測實時性等優點,滿足監控視頻場景下的火災檢測任務。

關鍵詞: 深度學習; 注意力機制; YOLO v4算法; 火災檢測

文章編號: 2095-2163(2021)07-0086-05中圖分類號:TP183文獻標志碼: A

Fire detection method based on Transformer improved YOLO v4

WANG Guorui

(College of Computer Science and Engineering, Shandong University of Science and Technology, Qingdao

Shandong 266590, China)

【Abstract】Aiming at the problem of low accuracy and poor real-time performance of? the fire detection algorithms in detecting multi-scale flames and smoke, a fire detection method based on Transformer improved YOLO v4 is proposed. First, combined with MHSA (Multi-Head Self-Attention) to improve the CSPDarknet53 backbone network,? global dependencies is modeled to make full use of context information. In addition, based on MHSA, the PANet module is improved to perform multi-scale feature map fusion to obtain more detailed features. In order to verify the effectiveness of the improved method, it is compared with YOLO v4, YOLO v3 and other algorithms. Experiments have proved that it can not only detect multi-scale targets, but also achieve real-time performance in video surveillance scenarios. It has the advantages of high accuracy, low false alarm rate, and real-time detection, which can meet the fire detection tasks in surveillance video scenarios.

【Key words】deep learning; attention mechanism; YOLO v4 algorithm; fire detection

0 引 言

隨著社會的不斷發展,各類災害對公共安全與社會財富的危險性也相應地有所增加,其中火災較為常見,防范與及時發現火災越來越受到重視。傳統的火災檢測方法,通常是采集溫度、煙霧傳感器數據進行火災檢測,缺點是誤報率比較高、實時性較差。基于圖像識別的火災檢測方式,因其具有響應快、事后追溯直觀等特點,被廣泛應用于監控視頻場景下的火災檢測與實時報警任務。

近年來,深度學習技術在圖像分類、目標檢測等計算機視覺領域得到廣泛應用,并取得豐碩的研究成果。基于深度學習的火災檢測方法主要通過CNN進行特征提取獲取火災圖像特征,然后進行分類與回歸獲得檢測結果。文獻[1]提出基于改進YOLO v3[2]的火災檢測與識別方法,通過改進YOLO v3解決小目標識別性能不足的問題。文獻[3]提出嵌入DenseNet[4]結構和空洞卷積模塊改進YOLO v3的火災檢測方法,通過在Darknet-53[5]中嵌入空洞卷積模塊來擴展感受野,提升對多尺度目標火災的特征提取效果,其本質是充分利用上下文信息。文獻[6]采用Anchor-Free網絡結構的實時火災檢測算法,優點是避免了Anchor方法中超參數過多、網絡結構復雜的缺點,主干網絡選取MobileNetV2[7],同時引入了特征選擇模塊。上述火災檢測方法存在以下問題:

(1)主干網絡多為圖像分類任務設計的,未針對目標檢測任務對進行優化,導致算法缺乏魯棒性。

(2)通過堆疊卷積模塊擴展網絡深度,雖然獲得良好的檢測效果,但難以達到實時性。

(3)針對火災小尺度目標檢測任務性能不足。

在此基礎上,通過借鑒Bottleneck Transformer[8]算法設計思想,提出了一種改進YOLO v4[9]的火災檢測方法,主要改進點如下:

(1)在原CSPDarknet53[10]中引入了MHSA(Multi-Head Self-Attention)層,有效地將目標之間的信息與位置感知相關聯,增強網絡全局依賴關系建模的能力,充分利用多尺度上下文信息,提升火災小目標的檢測能力。

(2)采用同樣的方式對PANet[11]模塊進行優化,改善多尺度特征融合能力,獲取更多特征細節。

實驗表明,改進的YOLO v4算法在監控視頻場景下檢測精度達到94%,檢測速度達到26幀/s,優于現有的其他火災檢測算法,滿足監控視頻場景下的火災檢測。

1 YOLO v4與 MHSA原理

1.1 YOLO v4算法原理

YOLO v4算法是一種端到端的實時目標檢測框架,其網絡結構如圖1所示,該網絡主要包括CSPDarknet53、SPP附加模塊[12]、PANet路徑聚合模塊、YOLO v3 頭部。

在Darknet53基礎上引入CSP結構,減少了計算量并增強梯度表現,主要思想:在輸入block之前,分為2個部分。其中,一個部分直接通過一個短路進行連接,該方式降低了20%的計算量,提高了計算能力。同時使用Mish[13]激活函數,在PANet中使用了Leaky relu激活函數,通過上述方式使得YOLO v4的檢測精度更高。

SPP附加模塊與PANet路徑聚合網絡稱為Neck結構,優化了多尺度特征融合的能力。研究中,SPP附加模塊采用5×5、9×9、13×13三種不同尺度的最大池化操作,擴展了感受野。PANet路徑聚合網絡主要通過從底向上的路徑增強、自適應特征池化、全連接融合的方式形成新的不同尺度特征圖。

1.2 MHSA模塊網絡結構

近年來,Transformer不僅在NLP領域取得可觀成果,同時在CV領域獲取巨大成功,比如圖像分類任務的ViT[14]、目標檢測任務的DETR[15]和Deformable DETR[16]模型,均是基于Transformer思想設計的。UC Berkeley和Google基于Transformers結構設計了BoTNet[8],是一種簡單且功能強大的Backbone。通過僅在ResNet的最后3個bottleneck blocks中用多頭注意力層(Multi-Head Self-Attention, MHSA)替換3×3空間卷積,如圖2所示。MHSA層如圖3所示,引入相對位置編碼不僅考慮內容信息,而且考慮不同位置的要素之間的相對距離,有效地相關聯物體之間的信息與位置感知。

2 改進的YOLOv4火災檢測方法

2.1 網絡結構改進

2.1.1 特征提取主干網絡的改進

主干網絡由5個采用CSP單元模塊組成,分別為CSPRes1、CSPRes2、CSPRes8-1、CSPRes8-2、CSPRes4,每個模塊中有多個殘差單元構建,參見圖1。引入CSP結構單元,一定程度降低計算量,但難以建模全局依賴關系。本文借鑒了Bottleneck Transformer結構對主干網絡改進,采用MHSA層替換3×3空間卷積層。通過上述方式不僅增強網絡全局依賴關系建模的能力,同時減少了參數,降低了計算時延。

對主干網絡的改進主要思路為2點:

(1)使用卷積從大圖像中學習抽象和低分辨率的特征圖。

(2)使用全局(all2all)Self-Attention來處理和聚合卷積捕獲高層語義信息。

采用這種混合設計的方式,通過使卷積進行空間下采樣并結合注意力模型集中在較小的分辨率上,同時可以有效地處理大尺度圖像。具體改進思路如下:

(1)首先改進網絡中CSPRes8-1與CSPRes8-2,CSPRes8-x模型,輸入經過一層3×3卷積層處理后分成2個分支,第一分支僅經過一層1×1點卷積層處理,第二分支先經過一層1×1點卷積層處理以及循環經過8個ResBlock Bottleneck模塊,緊接著經過一層1×1點卷積層,并與第一分支輸入的特征圖進行拼接,再將拼接后的特征圖經過1×1點卷積處理后輸出。將模塊中3×3卷積層替換為MHSA層,如圖4所示。

(2)主干網絡中CSPRes4與CSPRes8-x模塊結構相似,主要區別在于ResBlock Bottleneck結構不同,CSPRes4模塊中ResBlock Bottleneck模塊先經過3×3卷積層,然后是1×1點卷積處理。其次,CSPRes4經過4個ResBlock Bottleneck模塊循環。具體改進方式將ResBlock Bottleneck模塊中3×3卷積層替換為MHSA層,如圖5所示。

2.1.2 PANet模塊改進

PANet路徑聚集模塊為YOLO v4的Neck,參見圖1。對PANet的改進,同樣借鑒Bottleneck Transformer設計思想,將網絡中部分3×3 CBL單位替換為MHSA層,如圖6所示。

2.2 火災檢測方法流程

火災檢測方法以改進的YOLOv4網絡結構為基礎,火災檢測的主要流程如下:

(1)對構建的火災檢測訓練集進行預處理,標簽轉換為YOLOv4標準訓練集格式。

(2)將經過預處理的訓練集圖像輸入到改進的CSPDarknet53網絡進行特征提取。

(3)獲取CSPRes8-1層、CSPRes8-2層為輸出第一、第二尺度的特征,CSPRes4層經過SPP處理獲取第三尺度的特征。

(4)上述三種尺度特征經過PANet層進行特征融合,獲取76×76、38×38、19×19三種尺度的最終輸出特征。

(5)分別將3種尺度特征輸入的YOLOv4檢測層,經過多輪訓練生成最終的網絡權值。

(6)測試階段,將測試圖像輸入到YOLOv4網絡中,調用訓練得到的網絡權值進行預測,并輸出火災檢測結果。

3 實驗結果與分析

3.1 火災檢測數據集

由于公開火災數據集較少,通過采集互聯網數據與視頻監控數據兩種方式,構建涵蓋室內、野外、工廠、城市高樓、隧道等多個場景的火災檢測數據集。采集約5萬張圖片,通過數據清洗,12 886張用于構建數據集,如圖7所示。

3.2 實驗環境與模型訓練

基于Ubuntu 18.04 操作系統,硬件配置為2塊Intel 至強 E5 CPU,顯卡為6塊 16GB NVIDIA Tesla P100,內存500 GB。采用python與PyTorch深度學習框架搭建模型。

訓練參數:初始學習率為0.001、動量初始值為0.9、權重衰減率為0.000 5,批處理大小為64,迭代次數為8 000,采用步階衰減學習率調度策略。

3.3 實驗結果分析

改進的YOLO v4分別與YOLO v3、YOLO v4對比實驗,主要對比精確率、召回率、平均精度(mAP)和檢測時間,見表1。

分析可知,改進YOLO v4算法相比YOLO v3、YOLO v4,精確率方面提升11.2%、7.4%,召回率方面提升8.9%、6.3%,mAP提升9%、4.8%。改進后的YOLO v4,檢測速度比YOLO v3與YOLO v4均有大幅度提升,檢測速度達到27幀/s。火災檢測結果如圖8所示。

實驗表明改進的火災檢測算法能夠檢測大尺度與小尺度的火焰與煙霧目標,既是在存在干擾目標、目標遮擋的復雜場景下,依然能夠有效檢測目標,具有檢測精度高、誤檢率低、魯棒性等優點。

4 結束語

針對YOLO v4火災檢測性能不足的問題,借鑒Bottleneck Transformer結構設計思想,引入MHSA層對YOLO v4主干網絡CSPDarknet和PANet模塊進行改進。由于火災檢測數據集較少,采集了大量圖片與視頻火災數據,構建多場景火災檢測數據集。

通過對比YOLO v4、YOLO v3火災檢測方法表明,本文改進后的方法比現有的火災檢測方法具有更好的魯棒性、更低的誤檢測率,檢測精度與實時性均有良好的性能。測試集上達到94.6%的準確率、85.6%的召回率、87.3%的mAP。未來的研究工作中,重點研究結合Transformer改進網絡進行優化,提升檢測效果與實時性,以及擴展現有的火災檢測數據集,增加火災樣本的多樣性,提升檢測算法的泛化能力。

參考文獻

[1]任嘉鋒, 熊衛華, 吳之昊,等. 基于改進YOLOv3的火災檢測與識別[J]. 計算機系統應用, 2019, 28(12):171-176.

[2]REDMON J, FARHADI A. YOLOv3: An incremental improvement[J]. arXiv preprint arXiv:1804.02767, 2018.

[3]張為, 魏晶晶. 嵌入DenseNet結構和空洞卷積模塊的改進YOLO v3火災檢測算法[J]. 天津大學學報(自然科學與工程技術版), 2020, 53(9):100-107.

[4]HUANG G, LIU Z, LAURENS V, et al. Densely Connected Convolutional Networks[J]. arXiv preprint arXiv:1608.06993, 2016.

[5] REDMON J. Darknet: Open source neural networks in C[EB/OL]. [2013-2016]. http://pjreddie.com/darknet/.

[6]晉耀,張為. 采用Anchor-Free網絡結構的實時火災檢測算法[J]. 浙江大學學報(工學版), 2020, 54(12):163-169.

[7]SANDLER M, HOWARD A, ZHU M, et al. MobileNetV2: Inverted residuals and linear bottlenecks[J]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Salt Lake City, UT, USA: IEEE, 2018:4510-4520.

[8]SRINIVAS A, LIN T Y, PARMAR N, et al. Bottleneck transformers for visual recognition[J]. arXiv preprint arXiv:2101.11605, 2021.

[9]BOCHKOVSKIY A, WANG C Y, LIAO H. YOLOv4: Optimal speed and accuracy of object detection[J]. arXiv preprint arXiv:2004.10934,2020.

[10]WANG C Y, LIAO H, YEH I H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Seattle, WA, USA :IEEE,2019:1571-1580.

[11]CHEN Yunian, WANG Yanjie, ZHANG Yang, et al. PANet: A context based predicate association network for scene graph generation[C]// 2019 IEEE International Conference on Multimedia and Expo (ICME). Shanghai, China:IEEE, 2019:508-513.

[12]HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Spatial pyramid pooling in deep Convolutional Networks for visual recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 37(9):1904-1916.

[13]MISRA D. Mish: A self regularized non-monotonic neural activation function[J]. arXiv preprint arXiv:1908.08681,2019.

[14]DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[J]. ICLR2021,Vienna, Austria:[s. n.], 2020:1-21.

[15]CARION N, MASSA F, SYNNAEVE G, et al. End-to-end object detection with transformers[M]//VEDALDI A, BISCHOF H, BROX T, et al. Computer Vision-ECCV 2020. ECCV 2020. Lecture Notes in Computer Science. Cham :Springer, 2020,12346:213-229.

[16]ZHU Xizhou, SU Weijie, LU Lewei, et al. Deformable DETR: Deformable transformers for end-to-end object detection[J]. arXiv preprint arXiv:2010.04159, 2020.

[17]ZHENG Zhaohui, WANG Ping, LIU Wei, et al. Distance-IoU loss: Faster and better learning for bounding box regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.

作者簡介: 王國睿(2000-),男,本科生,主要研究方向:圖像視覺。

收稿日期: 2021-04-27

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 五月丁香伊人啪啪手机免费观看| 久久6免费视频| 在线观看无码a∨| 欧美国产综合视频| 精品国产欧美精品v| 亚洲欧美日韩精品专区| 91系列在线观看| 一区二区在线视频免费观看| 亚洲视频欧美不卡| 日韩欧美国产中文| 免费看一级毛片波多结衣| 综合色88| 一级毛片无毒不卡直接观看| 欧美一级高清片欧美国产欧美| 91精品专区| 99热这里只有精品国产99| 国产剧情无码视频在线观看| 亚洲成人在线免费| 不卡午夜视频| 国产免费a级片| 国产99免费视频| 国产成人8x视频一区二区| 国产在线精品99一区不卡| 全部免费毛片免费播放| 精品无码人妻一区二区| 直接黄91麻豆网站| 亚洲成人精品在线| 国产成人永久免费视频| 99精品在线看| 久久伊人久久亚洲综合| av免费在线观看美女叉开腿| 中文字幕欧美成人免费| 中国精品自拍| 国产av剧情无码精品色午夜| 精品国产免费第一区二区三区日韩| 国产网友愉拍精品| 呦系列视频一区二区三区| 一本色道久久88| 玖玖精品视频在线观看| 尤物在线观看乱码| 欧美日韩国产在线播放| 亚洲国产欧洲精品路线久久| 国产亚洲精品在天天在线麻豆| 99精品视频九九精品| 亚洲另类国产欧美一区二区| 伊人久久久久久久久久| 国产亚洲男人的天堂在线观看| 波多野吉衣一区二区三区av| 国产成人亚洲欧美激情| 99国产精品国产| 一级看片免费视频| 男女精品视频| 国产成人乱无码视频| 成年人国产网站| 国产农村妇女精品一二区| 国产精品一区在线观看你懂的| 一级做a爰片久久毛片毛片| 欧洲av毛片| 特级aaaaaaaaa毛片免费视频 | WWW丫丫国产成人精品| 97av视频在线观看| 亚洲一区精品视频在线| 久久久久亚洲av成人网人人软件| 国产在线精品人成导航| 亚洲午夜天堂| 五月天久久综合国产一区二区| 国产欧美在线视频免费| 国产美女叼嘿视频免费看| 国产精品浪潮Av| 色哟哟国产精品| 久久久四虎成人永久免费网站| 欧美综合中文字幕久久| 国产无码制服丝袜| 国产日韩精品欧美一区喷| 欧美a网站| 久久鸭综合久久国产| av在线5g无码天天| 亚洲中文字幕97久久精品少妇| 亚洲天堂自拍| 老汉色老汉首页a亚洲| 91丝袜乱伦| 三上悠亚精品二区在线观看|