嚴云洋,陳垂雄,劉以安,高尚兵
(1.淮陰工學院 計算機與軟件工程學院,江蘇 淮安 223003; 2.江南大學 物聯網工程學院,江蘇 無錫 214122)
維度加權模式動態紋理特征的火焰檢測
嚴云洋1,2,陳垂雄1,2,劉以安2,高尚兵1
(1.淮陰工學院 計算機與軟件工程學院,江蘇 淮安 223003; 2.江南大學 物聯網工程學院,江蘇 無錫 214122)
對疑似火焰區域提取紋理特征時,用局部三值模式描述火焰靜態紋理特征不利于區分火焰與其他紋理均勻的干擾物,用KNN算法(k-nearest neighbor algorithm)分類效率較低。針對這些問題,提出用三正交平面局部混合模式(three orthogonal planes local mixed pattern, LMP-TOP)描述火焰的靜動態紋理,再輸入維度加權的支持向量機進行分類識別。LMP-TOP是對第一維XY平面,采用八鄰域的均勻局部二值模式(uniform local binary pattern, LBPu2)三正交平面局部混合模式表示火焰的靜態紋理特征;對第二維XT和第三維YT平面,則采用局部三值模式(local ternary patter, LTP)融入火焰在時間維度上的變化信息,這樣在得到火焰的靜態特征的同時也融入了其動態特征。根據3個維度單獨用于識別的準確率,賦予其相應的權重,用維度加權的支持向量機進行分類識別。實驗結果表明,相比Sthevanie等算法,本文所提出的方法火焰識別率和檢測效率均較高。
靜態紋理;動態紋理;正交特征;加權特征;支持向量機;火焰檢測;特征提取;局部二值模式
基于視覺的火災檢測相比傳統的火災檢測方法具有反應快、適用范圍廣等優點,因此正成為火災檢測技術應用研究的熱點,而基于視覺的火焰檢測是基于視覺的火災檢測的一個重要依據。但基于視覺的火焰檢測方法目前仍存在著魯棒性差、檢測效率低等問題。紋理特征是火焰圖像的一種靜態特征,反映的是圖像或圖像區域像素亮度值在空間中分布與組合的變化情況,通過紋理判別,可以有效排除與火焰相近的一些干擾物。龍銘等[1]選取反差、灰度相關、能量和逆差矩等4種紋理特征統計量,描述了火焰圖像分割區域的灰度紋理特征;嚴云洋等[2]和盧英[3]等用多尺度局部二值模式(local binary pattern,LBP)特征描述火焰的靜態紋理,從而得到更全面的火焰特征信息。盧英等[4]還提出了一種基于多尺度LBP與GBP紋理特征的火焰識別算法,提高大空間建筑場景中基于視頻圖像的火災的識別率。張彤等[5-7]對火焰紋理的局部二值模式進行了不同方向的研究。實際上,火焰不僅有靜態時特定的紋理,也有動態時紋理的某些變化特征。比如火焰區域的某些像素灰度值在時域上會有較大的變化,特別是處于火焰邊緣區域的像素。邵婧等[8]提出了一種基于動態紋理特征分析的新型圖像型火災檢測算法;趙亞琴[9]提出一種利用旅行者行為圖論的火災火焰視頻動態紋理分析與識別方法;Audrey等[10]則利用簡單的紋理描述器去說明大約98%的火焰檢測。可見火焰的靜、動態紋理對火焰的識別都是有效的,如果在提取火焰靜態紋理特征的同時,能恰當地描述火焰的動態紋理,將有助于更準確地描述火焰,從而提高火焰檢測的準確率;Zhao等[11]對LBP進行了較為合理的擴展,提出了具有代表性的卷積局部二值模式(volume local binary pattern,VLBP),把時域信息融入動態紋理中。同時,為了減少計算量和使算子更容易擴展,又提出僅僅考慮3個正交平面上的2維LBP模式,得到了三正交平面局部二值模式(three orthogonal planes local binary pattern, LBP-TOP)。并將該方法用于人臉表情識別,取得了顯著的成果。許多研究表明LBP-TOP在描述動態紋理方面能取得不錯的效果。Xu等[12]將其用于擁擠場景中檢測不尋常的事件;Sthevanie等[13]將LBP-TOP稍作改變用于火焰動態紋理識別,以加速火焰識別過程,并用KNN算法對火焰視頻與非火焰視頻進行分類。
本文考慮到有些火焰呈現大面積白色,表面相對平滑,如果按照Sthevanie等[13]方法,將火焰XY平面的紋理特征用LTP[14]表示,在閾值的作用下靜態紋理模式將過于集中,不利于與其他干擾物區別。因此本文將八鄰域的LBPu2[15]作為XY平面的靜態紋理特征描述子,在盡可能保留火焰靜態紋理模式的同時,不至于維數過多。同時,Sthevanie等[13]用KNN算法對火焰紋理的三維特征進行分類識別,考慮到3個維度的特征串聯維數較多,用KNN算法效率較低,本文用維度加權的支持向量機進行分類識別,即根據火焰紋理3個維度單獨作用的識別率賦予相應的權重,再用支持向量機分類識別。實驗結果表明,本文算法相比Sthevanie等[13]的算法在火焰識別準確率和檢測效率上都有較大的提高,在Bilkent大學火災視頻庫的實驗中,本文算法也表現出了較高的火焰檢測率和較低的誤檢率。
通常情況下,視頻序列可以看成XY平面在時間軸T上的堆積,然而,它其實也是XT平面在Y軸上的堆積或者YT平面在X軸上的堆積。XY平面代表了物體的表觀信息,XT平面給出了某一行隨著時間變化的視覺信息,而YT平面則給出了某一列隨著時間變化的視覺信息,如圖1所示,左邊為400×300×250的視頻序列。Zhao等[11]對視頻序列除邊界外的所有像素分別提取XY、XT、YT3個正交平面的LBP,然后將它們連接成一個特征直方圖,處理過程如圖2所示。通過這種方法,就同時考慮了紋理在時間和空間上的信息。對于XY、XT、YT3個平面的鄰域采樣點個數和X、Y、T3個方向的半徑都可以不同,它們分別被表示為PXY、PXT、PYT以及RX、RY、RT,這樣相應的動態紋理特征就被標記為LBP-TOPPXY,PXT,PYT,RX,RY,RT[11]。

(a)400×300×250的視頻

(b)XY平面視覺效果

(c)XT平面視覺效果

(d)YT平面視覺效果 圖1 視頻序列及其3個正交平面的視覺效果[11]Fig.1 Video sequences and vsual effects of 3 orthogonal planes

(a)動態紋理中的3個正交平面

(b)每個平面的LBP直方圖

(c)連接的特征直方圖 圖2 三正交平面局部二值模式提取的過程Fig.2 The process of extracting local binary pattern in three orthogonal planes
在火焰視頻中, Sthevanie等[13]考慮到火焰多層次的靜態紋理特性,用LTP將火焰與常見的均勻紋理干擾物區別開來。考慮到有些火焰會呈現大面積白色,如圖3(a)所示,這時火焰表面也變得均勻,如果使用LTP表示火焰靜態紋理特征,在閾值的作用下,特征模式將過于集中,與均勻紋理的干擾物有著一樣的模式分布,不利于區分兩者,為此,本文對XY平面采用8鄰域的LBPu2進行描述,如圖3(c)所示,在盡可能保留火焰靜態特征的同時,不至于使特征維數過大。

(a)火焰視頻的某一幀圖像

(b)該幀圖像火焰區域采用4鄰域的LTP表示的直方圖(閾值為5)

(c)該幀圖像火焰區域采用8鄰域LBPu2表示的靜態特征直方圖 圖3 有大面積白色區域的火焰示例圖片及其用不同方式提取的紋理直方圖Fig.3 A sample flame with large area of white and its texture histogram extracted in different ways
對于XT和YT平面,它們反映的是火焰隨著時間的變化特性,火焰的邊緣會出現周期性閃爍,具體表現為火焰邊緣的像素值會出現較大的周期性變化,而一般干擾物不會。可以想象,對于某一個像素,當它(像素值)與時間軸上剛好發生閃爍的幀上的相應位置比較時,或者大于某一正閾值(Th),或者小于某一負閾值(-Th)。引入閾值Th的目的是為了排除由于光照等因素引起的像素值隨時間的微小變化。由以上分析可知,當把時間軸T上的半徑RT取值為火焰閃爍的間隔,將得到較為明顯的火焰變化特征。根據文獻[16]分析,火焰的閃爍頻率主要分布在7~12 Hz之間,而視頻的采集幀率一般為25 f/s,所以每隔兩、三幀火焰閃爍一次,實驗中發現每隔兩幀火焰紋理有較大變化,故本文將時間軸半徑RT取值為2。同時考慮到火焰在相應位置閃爍,這對應于正交的主方向,所以把PXT、PYT取值為4,這對于使用LTP表示的特征也有利于避免維數過多,同時不至于丟失太多信息。本文把這種用LBP和LTP合作描述動態紋理三維特征的描述子叫做三正交平面局部混合模式(LMP-TOP)。
因為用LMP-TOP描述的火焰動態紋理特征維數較多,本文選擇適用于高維度空間向量的支持向量機進行分類識別。支持向量機是以統計學習理論為基礎的一種二分類器,它通過訓練數據集建立一個超平面,并使得兩類樣本以最大間隔分開,然后利用訓練結果模型對測試數據集進行分類。對于小樣本和多維度的數據集,支持向量機相比其他分類器具有較為明顯的效果。
由于不同平面提取的火焰特征是不同的(1個靜態特征,2個動態特征),不難想到它們對視頻的分類貢獻度是不同的,如果為不同平面賦予相應權重,將使核函數盡可能被貢獻度大的平面特征所支配,從而提高分類準確率。為此本文為不同平面特征賦予相應的權重w,其計算方法如下[11]:
首先分別計算3個平面的識別率,這樣就得到了3個識別率X=[x1,x2,x3];然后認為識別率越高,它的貢獻度增長得也越快,比如識別率從70%增長到80%好于識別率從50%增長到60%,即使它們之間都只有10%的差別。相比于最低的識別率,兩個較高的識別率相對優勢可以用式(1)計算:

式中:I為三維的單位向量,最后,把最低的識別率權重設為1,另外兩個維度的識別率權重可以根據其與最低識別率的線性關系得到,如式(3),W為對應3個維度的權重向量。

本文的特征加權矩陣P可由式(5)得到
式中:wi(i=1,2,3)是維度權重,Ai(i=1,2,3)是3個維度的單位對角矩陣,Ai的階數由每個維度的特征數決定。
考慮到徑向基核函數的適用性,本文選擇使用徑向基Gauss核函數。特征加權徑向基核函數為

式中:γ為核函數的寬度參數,本文使用K折交叉結合網格搜索算法尋找最優的γ。
本文在CPU為Intel.i3,主頻為3.40 GHz,內存為4.00 GB的實驗環境下用MATLAB R2012b進行測試。在參數選擇上,除上文分析過的外,依據文獻[13],把RX、RY都取值為1,幀樣本數[13]NP取值為5,由于RT取值為2,所以本文實際上是對序列長度為9的疑似火焰區域進行LMP-TOP提取。
訓練的過程如圖4所示,首先依據火焰的顏色特征提取視頻中某一幀的疑似火焰區域,本文的疑似火焰區域用文獻[17]的方法提取,然后再以該幀為結尾幀,序列長度為9的連續視頻片段中對疑似火焰區域進行LMP-TOP提取,最后把得到的特征放入特征加權的支持向量機中進行訓練,得到效果最好的模型。

圖4 訓練過程Fig.4 Training process
測試過程如圖5所示,對測試視頻提取疑似火焰區域后,也提取其LMP-TOP描述子,最后用訓練得到的模型進行識別分類。

圖5 測試過程Fig.5 Test process
本文的實驗庫是從網上下載的44段視頻,其中包括22段火焰視頻和22段常見的與火焰顏色相似的干擾視頻。這些火焰干擾物視頻既包括始終靜止的,也包括運動的,既有表面粗糙的,也有表面均勻的。本文把上述視頻均分成兩部分,分別用于訓練與測試。即把11段火焰視頻和11段非火焰視頻用于訓練,剩下的用于測試。
訓練和測試過程均從每個視頻中選擇100個疑似火焰序列,這樣用于訓練和測試的樣本各有2 200個。為了驗證上文的分析,確定3個正交平面分別用哪種模式提取特征效果更好,以及對LTP中閾值的確定,本文通過改變LMP-TOP的參數設計了幾組實驗,如表1所示。

表1 不同參數設置的識別率差別
表1中,第1~4組只改變XY平面特征描述子,第1組采用4鄰域的LBP,第2組采用4鄰域的LTP,第3組采用8鄰域的LBPu2,第4組采用傳統的8鄰域LBP,這4組XT和YT平面特征都用4鄰域的LTP描述;第5組把XT平面和YT平面的特征用8鄰域的LBPu2表示,其他的與第3組一致;1~4組中LTP閾值都設置為5,而第6組設置為10,其他的與第3組一致。
由第1~4組數據可以看出當XY平面用8鄰域的LBPu2描述時效果最好,這是因為用傳統的4鄰域LBP描述火焰靜態紋理特征時將把許多信息丟失掉,而用LTP方法,在閾值的作用下紋理模式過于集中,不利于區分。至于傳統的8鄰域LBP,由于其包含了許多弱相關或不相關的特征,反而不利于分類識別,且其維數也是一個大問題。由第3組和第5組數據可以看出對于XT和YT平面的動態火焰紋理特征描述,用4鄰域的LTP比8鄰域的LBPu2識別效果更好,這是因為在光照、視頻質量等因素的影響下,非火焰視頻某位置像素值在LBPu2中可能被認為發生了變化,而在LTP中,它將被視為不變,從而把火焰與非火焰區分開來。由第3、6組可以看出,閾值取值為5較為合適,因為過大的閾值將使火焰像素值的變化也檢測不出來。比較第2組和第4組的識別率可以知道本文算法相比Sthevanie等[13]的算法效果得到了提高。此外,從幾組數據中可以看出,該特征提取分類方法在視頻火焰識別中效果不錯,最高可以達到93.36%,且使用維度加權的方法比直接連接3個平面特征效果好(最后一列中括號內為各個維度的權重),這是因為通過維度加權使核函數的計算更多地依賴于強相關的維度特征。
為了更好地對本文的算法進行評估,本文對目前火災檢測領域公認的數據庫Bilkent大學火災視頻庫(http://signal.ee.bilkent.edu.tr/VisiFire/index.html)的8段視頻進行了測試,并將結果與Sthevanie等[13]的算法及國內外部分文獻[18-20]進行對比,測試視頻示例如圖6所示,檢測結果及與其他文獻的對比數據如表2、表3所示,其中LMP-TOP各參數的設置及使用的持向量機模型與第3組實驗一致。

(a)視頻1

(b)視頻2

(c)視頻3

(e)視頻5

(g)視頻7

(d)視頻4

(f)視頻6

(h)視頻8

視頻序列火焰總幀數準確檢測幀數準確率/%文獻[18]文獻[19]文獻[20]文獻[13]本文算法文獻[18]文獻[19]文獻[20]文獻[13]本文算法138622535035735236258.390.792.591.293.8261650557538544645882.093.362.561.474.4342431841737732834375.098.488.977.480.9423021522022722623093.565.798.798.3100.0518517818017917218096.297.396.893.097.3620419519619718019995.696.196.696.697.5

表3 非火焰視頻檢測結果
從表2和表3可以看出文獻[18]對于森林火焰有較高的準確率,對于其他類型的火焰,尤其是當非火焰干擾時準確率大幅度降低,這是因為它只用森林的火焰樣本進行統計分析,所以在其他場景的適用性較低,而因為檢測步驟過于簡單,對火焰的一些主要特征缺少分析,所以對車燈這種具有類似火焰顏色的運動物體誤檢率高。文獻[19]采用雙差法并結合HSI空間中的3個顏色公式檢測運動目標,雖然基于多閾值判定的雙差法在火焰視頻中檢測結果較好,但也容易誤檢類似火焰顏色的運動物體,所以對于車燈的干擾誤檢率極高。文獻[20]利用視覺顯著性來檢測火焰,當火焰與背景相似時,火焰的顯著性將減弱,所以漏檢率上升,如視頻2、3。但由于文獻中融合和火焰顏色、紋理、閃頻等特征,所以檢測效果不錯。文獻[13]也即Sthevanie等的算法對于火焰3個維度的紋理特征都統一使用局部三值模式,并用KNN算法進行分類,由于火焰靜態紋理特征在三值模式的閾值作用下可能過于集中,這將不利于火焰與其他紋理均勻的干擾物的區分,本文用LBPu2來提取火焰的靜態紋理特征,在有效保留火焰紋理信息的同時,不至于維數過高。同時,本文根據3個維度紋理特征單獨作用于火焰識別的準確率賦予3個維度相應的權重,用維度加權的支持向量機進行分類識別,有效地使核函數的計算更多地依賴于強相關的維度特征,從而使本文算法的檢測準確率相比Sthevanie等的算法有了較大提高。
本文算法在火焰位置相對固定的情況下(如視頻1、4、5、6),檢測效果較好,但是在風大火焰搖擺不定的場景下(如視頻2、3),火焰的檢測率下降,這是因為本文動態紋理提取方法是以某一幀的疑似火焰區域進行定位,整個特征向量是在以該區域為底面積,序列長度為高的體積內進行計算的,如果幀間火焰位置漂移太多,統計的其他幾幀靜態特征和動態特征大部分將不再是火焰區域的,而是背景區域的,從而造成誤判。對于非火焰的車燈(視頻7、8),本文算法雖然相比文獻[18]和文獻[19]有大幅提升,但相比文獻[20]還是有點不足,這是因為本文僅用到了火焰的顏色和靜動態紋理特征,所以對某些非火焰的判斷依據不夠充分。
在檢測時間方面,本文是在9幀連續視頻序列里提取動態紋理進行分類識別的,對于分辨率為320×240的視頻,如果直接使用訓練好的支持向量機模型,這個時間平均為1.17 s,即從火焰開始燃燒到發現火焰的時間為1.17 s,它比Sthevanie等[13]用KNN算法的時間(2.51 s)提高了一倍多,從這里可以看出在維數較多時支持向量機相對于KNN算法的優勢。
針對Sthevanie等對疑似火焰區域提取靜動態紋理時,用局部三值模式描述火焰靜態紋理特征不利于把火焰與其他紋理均勻的干擾物區別開來,使用KNN算法分類效率較低的問題,本文用均勻局部二值模式代替局部三值模式來提取火焰的靜態紋理特征,在有效保留火焰靜態紋理特征的同時,不至于維數較高。同時用維度加權的支持向量機代替KNN算法進行視頻火焰紋理的分類,實驗結果表明本文算法在檢測準確率和檢測效率上均有較大提高,且用維度加權的方法相比直接連接三維特征效果更好,在Bilkent大學火災視頻庫的實驗中,本文算法也表現出了較高的火焰檢測率和較低的誤檢率。但對于夜晚車燈等干擾物,極易對火焰檢測造成干擾,本文的檢測效果并非那么理想。所以今后將致力于融入火焰的其他特征,進一步提高算法的魯棒性。
[1]龍銘,胡愛閩,江熹.大空間火災火焰圖像分割區域的靜態特征描述與提取[J]. 機械設計與制造, 2013(4): 211-213.
LONG Ming, HU Aimin, JIANG Xi. Static visual features description and extraction of flame image segmented region of large space fire[J]. Machinery design and manufacture, 2013(4): 211-213.
[2]嚴云洋,唐巖巖,劉以安.使用多尺度LBP特征和SVM的火焰識別算法[J]. 山東大學學報:工學版,2012, 42(5): 47-52
YAN Yunyang, TANG Yanyan, LIU Yian. Flame detection based on LBP features with multi-scales and SVM[J]. Journal of shandong university: engineering science, 2012, 42(5): 47-52.
[3]盧英,王慧琴,秦立科. 高大空間建筑火災精確定位方法[J]. 吉林大學學報:工學版, 2016, 46(6): 2067-2073.
LU Ying, WANG Huiqin, QIN Like. Precise positioning method of fire in large space buildings[J]. Journal of Jilin university: engineering science, 2016, 46(6): 2067-2073.
[4]盧英,王慧琴,柴茜等. 基于多尺度LBP與GBP特征的火焰識別[J]. 計算機科學, 2015, 42(10): 316-320.
LU Ying, WANG Huiqin, CHAI Xi, et al. Recognition based on multi-scale LBP and GBP features[J]. Computer science, 2015, 42(10): 316-320.
[5]張彤,王倩,范九倫,等. 基于時空局部二值模式的火災視頻識別[J]. 西安郵電大學學報, 2015, 20(3): 76-80.
ZHANG Tong, WANG Qian, FAN Jiulun, et al. Fire video recognition based on spatio temporal local binary pattern[J]. Journal of Xi’an university of posts and telecommunications, 2015, 20(3): 76-80.
[6]張霞,黃繼風. 結合LBP直方圖和SVM的視頻火焰檢測[J]. 計算機應用與軟件, 2016, 33(8): 216-220.
ZHANG Xia, HUANG Jifeng. Video fire detection based on LBP histogram and SVM[J]. Computer applications and software, 2016, 33(8): 216-220.
[7]萬瑞軍,李小康,沈繼忱. 基于完整局部二值和閾值優化的火焰邊緣檢測[J]. 計算機與數字工程, 2015, 43(11): 2040-2043.
WAN Ruijun, LI Xiaokang, SHEN Jichen. Flame edge detection based on completet local binary pattern and threshold optimization[J]. Computer and digital engineering, 2015, 43(11): 2040-2043.
[8]邵婧,王冠香,郭蔚. 基于視頻動態紋理的火災檢測[J]. 中國圖象圖形學報, 2013, 18(6): 647-653.
SHAO Jing, WANG Guanxiang, GUO Wei. Fire detection based on video dynamic texture[J]. Journal of image and graphics, 2013, 18(6): 647-653.
[9]趙亞琴. 利用旅行者圖的火焰視頻動態紋理分析與識別[J]. 計算機工程與設計, 2015, 35(10): 2769-2774.
ZHAO Yaqin. Dynamic texture analysis and recognition of fire video using traveler graph[J].Computer engineering and design, 2015, 35(10): 2769-2774.
[10]AUDREY C, TABY P, BRECKON. A non-temporal texture driven approach to real-time fire detection[C]//Proceedings of IEEE International Conference on Image Processing. Washington D C: IEEE Computer Society Press, 2011: 1741-1744.
[11]ZHAO G, PIETIKAINEN M. Dynamic texture recognition using local binary patterns with an application to facial expressions[J]. IEEE transactions on pattern analysis and machine intelligence, 2007, 29(6): 915-928.
[12]XU J, DENMAN S, FOOKES C, et al. Unusual event detection in crowded scenes using bag of lbps in spatio-temporal patches[C]//Proceedings of 2011 International Conference on Digital Image Computing Techniques and Applications. Washington D C: IEEE Computer Society Press, 2011: 549-554.
[13]STHEVANIE F, NUGROHO H, YULIANTO FA. Visual-based fire detection using local binary pattern-three orthogonal planes[C]//Proceedings of IEEE International Conference on Computational Intelligence and Cybernetics 2013. Washington D C: IEEE Computer Society Press, 2013: 155-159.
[14]TAN X, TRIGGS B. Enhanced local texture feature sets for face recognition under difficult lighting conditions[C]//Proceedings of the 3rd International Conference on Analysis and Modeling of Faces and Gestures. Berlin,German: Springer Berlin Heidelberg, 2007: 168-182.
[15]OJALA T, PIETIKAINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE transactions on pattern analysis and machine intelligence, 2002, 24(7): 971-987.
[16]安患偉,袁宏永,屈玉貴. 數據采集在火焰閃爍頻率的測量研究及分析中的應用[J]. 火災科學, 2000, 9(2): 43-47.
AN Huanwei, YUAN Hongyong, QU Yugui. Data collection on the research of fire flash frequency[J]. Fire safety science, 2000, 9(2): 43-47.
[17]CHEN T H, WU P H, CHIOU Y C. An early fire-detection method based on image processing[C]//Proceedings of the 2004 IEEE International Conference on Image Processing. Washington D C: IEEE Computer Society Press, 2004: 1707-1710.
[18]CELIK T, DEMIREL H. Fire detection in video sequences using a generic color model[J]. Fire safety journal, 2009, 44(2): 147-158.
[19]CHEN T H, WU P H, CHIOU Y C. An early fire-detection method based on image processing[C]//Proceedings of 2004 International Conference on Image Processing.Washington D C: IEEE Computer Society Press, 2004: 1707-1710.
[20]杜靜, 嚴云洋,高尚兵,等. 時空視覺選擇性注意機制的視頻火焰檢測[J]. 計算機輔助設計與圖形學學報,2014, 26(3): 479-485.
DU Jing, YAN Yunyang, GAO Shangbing, et al. Video flame detection[J]. Journal of computer-aided design and computer graphics, 2014, 26(3): 479-485.
Firedetectionbasedondynamictexturefeaturesunderadimension-weightedmode
YAN Yunyang1,2, CHEN Chuixiong1,2, LIU Yi’an2, GAO Shangbing1
(1. Faculty of Computer & Software Engineering, Huaiyin Institute of Technology, Huaian 223003, China;2. School of Internet of Things Engineering, Jiangnan University, Wuxi 214122, China)
In fire detection modeling, a local ternary pattern is generally used to extract the static and dynamic textures of the suspected flame. But it is difficult to distinguish the flame from other uniform texture interferences when a local ternary pattern is used to describe the static texture features. The efficiency is low when the KNN (k-Nearest Neighbor) algorithm is used for classification. Aimed at solving these problems, a novel method is proposed here, whereby an LMP-TOP (local mixed pattern-three orthogonal planes) method is used to depict the static and dynamic textures of a suspected flame area. A dimension-weighted support vector machine was used for the classification. Applying LMP-TOP, an eight neighborhood uniform local binary pattern (LBPu2) was used to denote the static texture features of the flame on the 1st-dimension planeXY, and a local ternary pattern was used to describe the change in flame information on the 2nd-and 3rd -dimension planes,XTandYTrespectively, by fusing with information in the time dimension. The static and dynamic characteristics of the flame were therefore integrated. The dimension weight was assigned according to the individual recognition accuracy. Then, a support vector machine with dimension weighting was used for classification. Experimental results show that the accuracy of flame identification and the detection efficiency are better with the proposed method than with corresponding algorithms such as Sthevanie.
static texture; dynamic texture; orthogonal feature; weighted feature; support vector machine; flame detection; feature extraction; local binary pattern
2016-07-22.網絡出版日期2017-04-07.
國家自然科學基金項目(61402192);江蘇省“六大人才高峰”項目(2013DZXX-023);江蘇省“333工程”(BRA2013208);淮安市科技計劃項目(HAG2013057,HAG2013059).
嚴云洋. E-mail:areyyyke@163.com.
10.11992/tis.201607021
http://kns.cnki.net/kcms/detail/23.1538.tp.20170407.1734.006.html
TP391
A
1673-4785(2017)04-0548-08
中文引用格式:嚴云洋,陳垂雄,劉以安,等.維度加權模式動態紋理特征的火焰檢測J.智能系統學報, 2017, 12(4): 548-555.
英文引用格式:YANYunyang,CHENChuixiong,LIUYi’an,etal.Firedetectionbasedondynamictexturefeaturesunderadimension-weightedmodeJ.CAAItransactionsonintelligentsystems, 2017, 12(4): 548-555.

嚴云洋, 男,1967年生,教授、博士、CCF會員,江蘇省計算機學會常務理事及人工智能專委會副主任委員,主要研究方向為數字圖像處理、模式識別,發表學術論文100余篇,其中被SCI、EI檢索50 余篇。

陳垂雄,男,1988年生,碩士研究生,主要研究方向為數字圖像處理、模式識別。

劉以安,男,1963年生,博士、教授,主要研究方向為模式識別、數據融合。