999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的火焰檢測(cè)方法

2021-09-16 19:26:29何揚(yáng)胡秀云
科技創(chuàng)新導(dǎo)報(bào) 2021年14期
關(guān)鍵詞:特征提取深度學(xué)習(xí)

何揚(yáng) 胡秀云

摘? 要:近年來(lái),大多數(shù)火災(zāi)自動(dòng)報(bào)警系統(tǒng)都是通過檢測(cè)感溫、感煙和感光等傳感器的方法進(jìn)行檢測(cè),只能針對(duì)單一特征信息進(jìn)行判斷識(shí)別,受到外界空間、環(huán)境或人為因素的影響。卷積神經(jīng)網(wǎng)絡(luò)(CNN)以其高準(zhǔn)確率的識(shí)別率在廣泛應(yīng)用成為一個(gè)活躍的研究課題。然而如何可靠、有效地解決火焰檢測(cè)問題仍然是實(shí)踐中一個(gè)具有挑戰(zhàn)性的問題。本文提出了一種新的基于CNN的火焰實(shí)時(shí)檢測(cè)算法,該算法通過對(duì)普通攝像機(jī)監(jiān)控場(chǎng)景產(chǎn)生的視頻數(shù)據(jù)進(jìn)行處理。首先,為了提高識(shí)別效率,提出了一種候選目標(biāo)區(qū)域特征提取算法,用于處理可疑火焰區(qū)域。其次,提取候選區(qū)域的圖像特征根據(jù)設(shè)計(jì)的基于CNN的深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行分類,最后根據(jù)分類得到相應(yīng)的判斷。

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)? 火焰檢測(cè)? 特征提取? 深度學(xué)習(xí)

中圖分類號(hào):TP319? ? ? ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1674-098X(2021)05(b)-0109-03

Flame Detection Method Based on Convolution Neural Network

HE Yang? HU Xiuyun

(School of Information Science and Engineering, Shenyang Ligong University, Shenyang, Liaoning Province, 110159 China)

Abstract: In recent years, most of the automatic fire alarm systems are detected by detecting temperature, smoke and light sensors. They can only judge and identify single feature information, which is affected by the external space, environment or human factors. Convolutional neural network (CNN) has become an active research topic in a wide range of applications because of its high accuracy. However, how to solve the problem of flame detection reliably and effectively is still a challenging problem in practice. In this paper, a new real-time flame detection algorithm based on CNN is proposed. The algorithm processes the video data produced by ordinary camera monitoring scene. Firstly, in order to improve the recognition efficiency, a candidate target region feature extraction algorithm is proposed to deal with the suspicious flame region. Secondly, the image features of candidate regions are extracted and classified according to the designed CNN based deep neural network model. Finally, the corresponding judgment is obtained according to the classification.

Key Words: Convolution neural network; Flame detection; Feature extraction; Deep learning

為了有效地實(shí)時(shí)檢測(cè)火災(zāi),傳統(tǒng)的火焰檢測(cè)方法識(shí)別算法大多采用人工特征,如顏色、形狀、質(zhì)地和運(yùn)動(dòng)。然而,火焰單一特征的提取不能滿足高的火焰檢測(cè)率。所以各種深度學(xué)習(xí)算法被廣泛應(yīng)用于該領(lǐng)域,反向傳播(BP)、貝葉斯神經(jīng)網(wǎng)絡(luò)(BNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),去提高火災(zāi)視頻檢測(cè)性能。

1? 火焰檢測(cè)方法概述

提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)[1]的彩色火焰特征檢測(cè)與識(shí)別方法。首先,利用所提出的RGB模型[2]提取火焰圖像的顏色特征,得到候選區(qū)域。其次,利用神經(jīng)網(wǎng)絡(luò)對(duì)歸一化特征圖進(jìn)行分類。最后,利用卷積神經(jīng)網(wǎng)絡(luò)的分類結(jié)果得到報(bào)警信號(hào),并對(duì)所提出的神經(jīng)網(wǎng)絡(luò)的性能進(jìn)行了測(cè)試。本文選用方法主要包括3個(gè)主要階段。

2? 火焰視頻圖像采集

首先選取火焰視頻圖像數(shù)據(jù)作為自己的訓(xùn)練集[3],訓(xùn)練集主要包含在不同環(huán)境下采集的圖像數(shù)據(jù),其次訓(xùn)練集中的圖像數(shù)據(jù)包括75%的正序列(fire)和25%的負(fù)序列(nofire),正序列即包含帶有火焰的數(shù)據(jù)圖像,負(fù)序列即不帶有火焰的圖像數(shù)據(jù)。

3? 擬定方法

本文以提高火災(zāi)探測(cè)性能為目標(biāo),提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的火災(zāi)探測(cè)方法。

算法原理圖如圖1所示。該算法可分為2個(gè)主要階段。第一,提出了一種基于不同環(huán)境的顏色模型來(lái)精確分割視頻序列中的火災(zāi)候選區(qū)域。第二,通過以下方法確定歸一化候選區(qū)域,即一種基于CNN的新型結(jié)構(gòu)。第三,根據(jù)辨識(shí)結(jié)果做出響應(yīng)。

3.1 候選火焰區(qū)域提取方法

因?yàn)榛馂?zāi)危害極大,警告越早火災(zāi)造成的損失越小。因此,火焰識(shí)別算法的實(shí)時(shí)性要求在實(shí)際消防工程中具有重要意義。

傳統(tǒng)的目標(biāo)檢測(cè)深度學(xué)習(xí)方法大多基于多尺度滑動(dòng)窗口[4],但這些方法大大降低了算法的效率。本文通過加入火焰顏色特征模型,提高了算法的計(jì)算速度。由于RGB模型的計(jì)算復(fù)雜度低于其他顏色模型[5],因此本文采用RGB模型提取火焰顏色特征。首先,利用火焰顏色模型對(duì)原始圖像進(jìn)行分割,得到候選區(qū)域,基于統(tǒng)計(jì)經(jīng)驗(yàn)數(shù)據(jù),實(shí)驗(yàn)結(jié)果表明,火災(zāi)的每個(gè)RGB像素應(yīng)滿足以下條件:

這里,M(x,y)表示分段函數(shù)圖像顏色二值化掩模,fR(x,y)是通道R的值,fB(x,y)是通道B的值。然后,通過獲取連通區(qū)域的外矩形,提取神經(jīng)網(wǎng)絡(luò)的歸一化候選區(qū)域,得到不同外場(chǎng)景的外矩形區(qū)域的二值圖像。

3.2 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)的結(jié)構(gòu)分為3個(gè)部分:卷積層、池化層和全連通層。這3個(gè)部分的功能分別是魯棒特征提取、函數(shù)特征降維和分類[6]。根據(jù)CNN的結(jié)構(gòu),提出了一種新的CNN結(jié)構(gòu)更適合火災(zāi)探測(cè)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

3.2.1 卷積層

卷積層是所提出的神經(jīng)網(wǎng)絡(luò)的核心。為了有效區(qū)分火和像火一樣的分心,這些層由一個(gè)矩形的神經(jīng)元網(wǎng)格組成,這使得分類更加快捷。在卷積層中,基于RGB模型的火災(zāi)圖像經(jīng)過三次卷積運(yùn)算,卷積核大小分別設(shè)置為最優(yōu)參數(shù)。眾所周知,ReLU[7]函數(shù)φ(x)具有單側(cè)抑制、寬激發(fā)邊界和稀疏激活等優(yōu)點(diǎn),因此具有ReLU函數(shù)φ(x)在每個(gè)卷積層后采用,滿足以下條件:φ(x)=max(0,x),其中max(.)表示0和x之間的較大值。第一層卷積核函數(shù)的可視化,神經(jīng)網(wǎng)絡(luò)模型的卷積濾波器主要檢測(cè)邊緣、角度和曲線等低階特征。然后,第一層的卷積特征映射,可以看出得出不同的特征由不同的濾波器檢測(cè)出來(lái)。

3.2.2 匯集層

在前3個(gè)ReLU函數(shù)φ(x)之后,處理后的數(shù)據(jù)在池層中進(jìn)行下采樣。為了減少更多參數(shù)的成本,采用了一個(gè)最大池化窗口。為了提高該結(jié)構(gòu)的泛化能力,避免擬合現(xiàn)象的產(chǎn)生,數(shù)據(jù)在前兩個(gè)池化層用范數(shù)理論進(jìn)行歸一化。歸一化函數(shù)滿足以下條件:

其中,||.||1和||.||2分別代表L1范數(shù)和L2范數(shù),x表示卷積特征向量火災(zāi)候選區(qū)域。

3.2.3 完全連接層

最后,在第3個(gè)池化層之后,全連通層的功能是級(jí)聯(lián)火災(zāi)特征圖像。為了減少過平滑現(xiàn)象,在最后2個(gè)ReLU函數(shù)φ(x)之后采用了dropout方法,包括以一定的概率將所選層中每個(gè)隱藏神經(jīng)元的輸出設(shè)置為零。

4? 結(jié)語(yǔ)

本文提出的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的算法流程圖如圖2所示。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的過程中,卷積層的訓(xùn)練就是訓(xùn)練一些卷積濾波器,這些濾波器具有高激活度的獨(dú)特模式,以達(dá)到CNN的目的。層數(shù)越多,特征就越復(fù)雜。為了訓(xùn)練出更好的卷積核,并得到這些卷積核更有效的組合方式,本文利用所提出的模型得到最優(yōu)參數(shù),然后用最優(yōu)參數(shù)對(duì)測(cè)試樣本進(jìn)行有效分類,訓(xùn)練集和測(cè)試集的損失函數(shù)通過計(jì)算可以得出,隨著訓(xùn)練和測(cè)試迭代次數(shù)的增加,損失函數(shù)都減小,函數(shù)趨于穩(wěn)定。試驗(yàn)精度通過計(jì)算可以得出,隨著訓(xùn)練迭代次數(shù)的增加,測(cè)試精度提高。

參考文獻(xiàn)

[1] 楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法綜述[J].信號(hào)處理,2018,34(12):1474-1489.

[2] 王玲.彩色數(shù)字圖像的量子表示及加密算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2020.

[3] 馬天兵,劉健,杜菲,等.基于改進(jìn)Otsu方法的振動(dòng)圖像分割研究[J].電光與控制,2019,26(2):11-15,31.

[4] 鐘卓耀.基于深度學(xué)習(xí)的自然場(chǎng)景圖像中文字檢測(cè)的研究和應(yīng)用[D].廣州:華南理工大學(xué),2020.

[5] 陳杰.基于色彩信息的圖像增強(qiáng)研究[D].南京:南京郵電大學(xué),2017.

[6] 章琳,袁非牛,張文睿,等.全卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(1):25-37.

[7] 王紅霞,周家奇,辜承昊,等.用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計(jì)[J].浙江大學(xué)學(xué)報(bào):工學(xué)版,2019,53(7):1363-1373.

猜你喜歡
特征提取深度學(xué)習(xí)
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 精品久久久久久久久久久| 老司机精品一区在线视频| 亚洲无码高清视频在线观看| AV片亚洲国产男人的天堂| 激情無極限的亚洲一区免费| 在线观看亚洲人成网站| 亚洲天堂区| 无码综合天天久久综合网| 狠狠色香婷婷久久亚洲精品| 国产日本一区二区三区| 久久精品人妻中文视频| 国产乱码精品一区二区三区中文 | www精品久久| 国产精选小视频在线观看| 亚洲国产精品VA在线看黑人| 精品国产免费人成在线观看| 黄色网在线| 亚洲成a人片77777在线播放| 亚洲第一区在线| 亚洲欧美成人影院| 91精品国产自产在线观看| 超碰91免费人妻| 午夜少妇精品视频小电影| 在线精品自拍| 99热这里只有精品5| 国产十八禁在线观看免费| 国产人妖视频一区在线观看| 99视频全部免费| 亚洲婷婷丁香| 青草娱乐极品免费视频| 午夜天堂视频| 一级爆乳无码av| 免费无码又爽又刺激高| 国产黑丝视频在线观看| 自慰高潮喷白浆在线观看| 婷婷中文在线| 亚洲黄色高清| 毛片久久网站小视频| 日本国产精品一区久久久| 一本一道波多野结衣av黑人在线| 欧美啪啪一区| 国产在线观看99| 午夜啪啪网| 亚洲人成网站在线观看播放不卡| 久久不卡精品| 这里只有精品在线| 99久久国产综合精品2020| 国产成人综合久久| 高清无码不卡视频| 亚洲AⅤ综合在线欧美一区| 91无码人妻精品一区| 国产欧美日韩va| 爽爽影院十八禁在线观看| 911亚洲精品| 2020精品极品国产色在线观看| 在线不卡免费视频| 国产精品手机在线播放| 欧美成人精品高清在线下载| 97se亚洲综合在线天天| 成人欧美在线观看| 亚洲国产日韩一区| 红杏AV在线无码| 在线日韩日本国产亚洲| 国产麻豆va精品视频| 精品自拍视频在线观看| 激情综合网激情综合| 国产精品亚洲专区一区| 免费观看亚洲人成网站| 国产91视频免费观看| 无码中文字幕乱码免费2| 国产精品漂亮美女在线观看| 国产福利一区二区在线观看| 一级香蕉人体视频| 国产成人91精品| 欧美乱妇高清无乱码免费| 久久特级毛片| 这里只有精品在线| 国产成人午夜福利免费无码r| 99性视频| 久久99国产综合精品1| 亚洲熟妇AV日韩熟妇在线| a级毛片在线免费观看|