999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的火焰檢測(cè)方法

2021-09-16 19:26:29何揚(yáng)胡秀云
科技創(chuàng)新導(dǎo)報(bào) 2021年14期
關(guān)鍵詞:特征提取深度學(xué)習(xí)

何揚(yáng) 胡秀云

摘? 要:近年來(lái),大多數(shù)火災(zāi)自動(dòng)報(bào)警系統(tǒng)都是通過(guò)檢測(cè)感溫、感煙和感光等傳感器的方法進(jìn)行檢測(cè),只能針對(duì)單一特征信息進(jìn)行判斷識(shí)別,受到外界空間、環(huán)境或人為因素的影響。卷積神經(jīng)網(wǎng)絡(luò)(CNN)以其高準(zhǔn)確率的識(shí)別率在廣泛應(yīng)用成為一個(gè)活躍的研究課題。然而如何可靠、有效地解決火焰檢測(cè)問(wèn)題仍然是實(shí)踐中一個(gè)具有挑戰(zhàn)性的問(wèn)題。本文提出了一種新的基于CNN的火焰實(shí)時(shí)檢測(cè)算法,該算法通過(guò)對(duì)普通攝像機(jī)監(jiān)控場(chǎng)景產(chǎn)生的視頻數(shù)據(jù)進(jìn)行處理。首先,為了提高識(shí)別效率,提出了一種候選目標(biāo)區(qū)域特征提取算法,用于處理可疑火焰區(qū)域。其次,提取候選區(qū)域的圖像特征根據(jù)設(shè)計(jì)的基于CNN的深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行分類,最后根據(jù)分類得到相應(yīng)的判斷。

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)? 火焰檢測(cè)? 特征提取? 深度學(xué)習(xí)

中圖分類號(hào):TP319? ? ? ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1674-098X(2021)05(b)-0109-03

Flame Detection Method Based on Convolution Neural Network

HE Yang? HU Xiuyun

(School of Information Science and Engineering, Shenyang Ligong University, Shenyang, Liaoning Province, 110159 China)

Abstract: In recent years, most of the automatic fire alarm systems are detected by detecting temperature, smoke and light sensors. They can only judge and identify single feature information, which is affected by the external space, environment or human factors. Convolutional neural network (CNN) has become an active research topic in a wide range of applications because of its high accuracy. However, how to solve the problem of flame detection reliably and effectively is still a challenging problem in practice. In this paper, a new real-time flame detection algorithm based on CNN is proposed. The algorithm processes the video data produced by ordinary camera monitoring scene. Firstly, in order to improve the recognition efficiency, a candidate target region feature extraction algorithm is proposed to deal with the suspicious flame region. Secondly, the image features of candidate regions are extracted and classified according to the designed CNN based deep neural network model. Finally, the corresponding judgment is obtained according to the classification.

Key Words: Convolution neural network; Flame detection; Feature extraction; Deep learning

為了有效地實(shí)時(shí)檢測(cè)火災(zāi),傳統(tǒng)的火焰檢測(cè)方法識(shí)別算法大多采用人工特征,如顏色、形狀、質(zhì)地和運(yùn)動(dòng)。然而,火焰單一特征的提取不能滿足高的火焰檢測(cè)率。所以各種深度學(xué)習(xí)算法被廣泛應(yīng)用于該領(lǐng)域,反向傳播(BP)、貝葉斯神經(jīng)網(wǎng)絡(luò)(BNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),去提高火災(zāi)視頻檢測(cè)性能。

1? 火焰檢測(cè)方法概述

提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)[1]的彩色火焰特征檢測(cè)與識(shí)別方法。首先,利用所提出的RGB模型[2]提取火焰圖像的顏色特征,得到候選區(qū)域。其次,利用神經(jīng)網(wǎng)絡(luò)對(duì)歸一化特征圖進(jìn)行分類。最后,利用卷積神經(jīng)網(wǎng)絡(luò)的分類結(jié)果得到報(bào)警信號(hào),并對(duì)所提出的神經(jīng)網(wǎng)絡(luò)的性能進(jìn)行了測(cè)試。本文選用方法主要包括3個(gè)主要階段。

2? 火焰視頻圖像采集

首先選取火焰視頻圖像數(shù)據(jù)作為自己的訓(xùn)練集[3],訓(xùn)練集主要包含在不同環(huán)境下采集的圖像數(shù)據(jù),其次訓(xùn)練集中的圖像數(shù)據(jù)包括75%的正序列(fire)和25%的負(fù)序列(nofire),正序列即包含帶有火焰的數(shù)據(jù)圖像,負(fù)序列即不帶有火焰的圖像數(shù)據(jù)。

3? 擬定方法

本文以提高火災(zāi)探測(cè)性能為目標(biāo),提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的火災(zāi)探測(cè)方法。

算法原理圖如圖1所示。該算法可分為2個(gè)主要階段。第一,提出了一種基于不同環(huán)境的顏色模型來(lái)精確分割視頻序列中的火災(zāi)候選區(qū)域。第二,通過(guò)以下方法確定歸一化候選區(qū)域,即一種基于CNN的新型結(jié)構(gòu)。第三,根據(jù)辨識(shí)結(jié)果做出響應(yīng)。

3.1 候選火焰區(qū)域提取方法

因?yàn)榛馂?zāi)危害極大,警告越早火災(zāi)造成的損失越小。因此,火焰識(shí)別算法的實(shí)時(shí)性要求在實(shí)際消防工程中具有重要意義。

傳統(tǒng)的目標(biāo)檢測(cè)深度學(xué)習(xí)方法大多基于多尺度滑動(dòng)窗口[4],但這些方法大大降低了算法的效率。本文通過(guò)加入火焰顏色特征模型,提高了算法的計(jì)算速度。由于RGB模型的計(jì)算復(fù)雜度低于其他顏色模型[5],因此本文采用RGB模型提取火焰顏色特征。首先,利用火焰顏色模型對(duì)原始圖像進(jìn)行分割,得到候選區(qū)域,基于統(tǒng)計(jì)經(jīng)驗(yàn)數(shù)據(jù),實(shí)驗(yàn)結(jié)果表明,火災(zāi)的每個(gè)RGB像素應(yīng)滿足以下條件:

這里,M(x,y)表示分段函數(shù)圖像顏色二值化掩模,fR(x,y)是通道R的值,fB(x,y)是通道B的值。然后,通過(guò)獲取連通區(qū)域的外矩形,提取神經(jīng)網(wǎng)絡(luò)的歸一化候選區(qū)域,得到不同外場(chǎng)景的外矩形區(qū)域的二值圖像。

3.2 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)的結(jié)構(gòu)分為3個(gè)部分:卷積層、池化層和全連通層。這3個(gè)部分的功能分別是魯棒特征提取、函數(shù)特征降維和分類[6]。根據(jù)CNN的結(jié)構(gòu),提出了一種新的CNN結(jié)構(gòu)更適合火災(zāi)探測(cè)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

3.2.1 卷積層

卷積層是所提出的神經(jīng)網(wǎng)絡(luò)的核心。為了有效區(qū)分火和像火一樣的分心,這些層由一個(gè)矩形的神經(jīng)元網(wǎng)格組成,這使得分類更加快捷。在卷積層中,基于RGB模型的火災(zāi)圖像經(jīng)過(guò)三次卷積運(yùn)算,卷積核大小分別設(shè)置為最優(yōu)參數(shù)。眾所周知,ReLU[7]函數(shù)φ(x)具有單側(cè)抑制、寬激發(fā)邊界和稀疏激活等優(yōu)點(diǎn),因此具有ReLU函數(shù)φ(x)在每個(gè)卷積層后采用,滿足以下條件:φ(x)=max(0,x),其中max(.)表示0和x之間的較大值。第一層卷積核函數(shù)的可視化,神經(jīng)網(wǎng)絡(luò)模型的卷積濾波器主要檢測(cè)邊緣、角度和曲線等低階特征。然后,第一層的卷積特征映射,可以看出得出不同的特征由不同的濾波器檢測(cè)出來(lái)。

3.2.2 匯集層

在前3個(gè)ReLU函數(shù)φ(x)之后,處理后的數(shù)據(jù)在池層中進(jìn)行下采樣。為了減少更多參數(shù)的成本,采用了一個(gè)最大池化窗口。為了提高該結(jié)構(gòu)的泛化能力,避免擬合現(xiàn)象的產(chǎn)生,數(shù)據(jù)在前兩個(gè)池化層用范數(shù)理論進(jìn)行歸一化。歸一化函數(shù)滿足以下條件:

其中,||.||1和||.||2分別代表L1范數(shù)和L2范數(shù),x表示卷積特征向量火災(zāi)候選區(qū)域。

3.2.3 完全連接層

最后,在第3個(gè)池化層之后,全連通層的功能是級(jí)聯(lián)火災(zāi)特征圖像。為了減少過(guò)平滑現(xiàn)象,在最后2個(gè)ReLU函數(shù)φ(x)之后采用了dropout方法,包括以一定的概率將所選層中每個(gè)隱藏神經(jīng)元的輸出設(shè)置為零。

4? 結(jié)語(yǔ)

本文提出的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的算法流程圖如圖2所示。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的過(guò)程中,卷積層的訓(xùn)練就是訓(xùn)練一些卷積濾波器,這些濾波器具有高激活度的獨(dú)特模式,以達(dá)到CNN的目的。層數(shù)越多,特征就越復(fù)雜。為了訓(xùn)練出更好的卷積核,并得到這些卷積核更有效的組合方式,本文利用所提出的模型得到最優(yōu)參數(shù),然后用最優(yōu)參數(shù)對(duì)測(cè)試樣本進(jìn)行有效分類,訓(xùn)練集和測(cè)試集的損失函數(shù)通過(guò)計(jì)算可以得出,隨著訓(xùn)練和測(cè)試迭代次數(shù)的增加,損失函數(shù)都減小,函數(shù)趨于穩(wěn)定。試驗(yàn)精度通過(guò)計(jì)算可以得出,隨著訓(xùn)練迭代次數(shù)的增加,測(cè)試精度提高。

參考文獻(xiàn)

[1] 楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法綜述[J].信號(hào)處理,2018,34(12):1474-1489.

[2] 王玲.彩色數(shù)字圖像的量子表示及加密算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2020.

[3] 馬天兵,劉健,杜菲,等.基于改進(jìn)Otsu方法的振動(dòng)圖像分割研究[J].電光與控制,2019,26(2):11-15,31.

[4] 鐘卓耀.基于深度學(xué)習(xí)的自然場(chǎng)景圖像中文字檢測(cè)的研究和應(yīng)用[D].廣州:華南理工大學(xué),2020.

[5] 陳杰.基于色彩信息的圖像增強(qiáng)研究[D].南京:南京郵電大學(xué),2017.

[6] 章琳,袁非牛,張文睿,等.全卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(1):25-37.

[7] 王紅霞,周家奇,辜承昊,等.用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計(jì)[J].浙江大學(xué)學(xué)報(bào):工學(xué)版,2019,53(7):1363-1373.

猜你喜歡
特征提取深度學(xué)習(xí)
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 国产男女XX00免费观看| 最新国语自产精品视频在| 欧美成人日韩| 国产成人精品高清不卡在线 | 欧美一级在线看| 国产丰满大乳无码免费播放| 亚洲人成电影在线播放| 乱人伦99久久| 久久精品国产精品国产一区| 99久久国产综合精品2020| 日本在线国产| 丁香六月激情综合| 亚洲码一区二区三区| 77777亚洲午夜久久多人| 91无码国产视频| 久久国产精品波多野结衣| jijzzizz老师出水喷水喷出| 成人综合久久综合| 国产一级妓女av网站| 国产农村精品一级毛片视频| 91口爆吞精国产对白第三集| 欧美国产日韩一区二区三区精品影视| 欧美激情福利| 国产在线观看高清不卡| 婷五月综合| 高清欧美性猛交XXXX黑人猛交| 国产91成人| 国产精品免费久久久久影院无码| 农村乱人伦一区二区| 欧美成一级| 伊人丁香五月天久久综合| 人妻丰满熟妇αv无码| 国产精品19p| 亚洲va欧美va国产综合下载| 国产欧美在线观看精品一区污| 欧美翘臀一区二区三区| 国产午夜无码专区喷水| 国产成人高清精品免费| 成人一级黄色毛片| 小说 亚洲 无码 精品| 国产亚洲欧美在线视频| 国产成人区在线观看视频| 91视频青青草| 国产精品丝袜视频| 欧洲亚洲一区| 国产精品嫩草影院av| 99热这里只有免费国产精品| 人妻中文久热无码丝袜| 一区二区三区在线不卡免费| 国产高颜值露脸在线观看| 国产不卡一级毛片视频| 亚洲精品天堂自在久久77| 欧美成人亚洲综合精品欧美激情| 日本91视频| 国产精品主播| 亚洲中文字幕在线一区播放| 一本无码在线观看| www.91在线播放| 人妻丰满熟妇啪啪| 久久99国产综合精品女同| 在线国产毛片| 国产高清在线观看91精品| 老司机精品一区在线视频| 亚洲人成网址| 亚洲精品国产首次亮相| 欧美区一区| 精品国产成人三级在线观看| 亚洲aaa视频| 久久久久国产一区二区| 一区二区理伦视频| 2021最新国产精品网站| 不卡的在线视频免费观看| 91网在线| 色老头综合网| 日韩精品毛片人妻AV不卡| 毛片免费在线| 亚洲国产看片基地久久1024 | 亚洲av无码人妻| 九九视频免费看| 丁香婷婷久久| 2022国产无码在线| 91在线高清视频|