許明偉,王東濤,葉劍華
(天津職業(yè)技術(shù)師范大學(xué)自動化與電氣工程學(xué)院,天津 300222)
港口作為船舶安全進出的主要樞紐,是維護社會正常運轉(zhuǎn)的重要產(chǎn)業(yè)之一。港口信息管理系統(tǒng)是一種以人工巡視和監(jiān)控為主導(dǎo)、計算機輔助的一種港口安全系統(tǒng)。隨著港口的火災(zāi)負(fù)荷風(fēng)險不斷加大,傳統(tǒng)的安全監(jiān)測系統(tǒng)智能化水平相對落后,僅依靠典型煙感、溫感傳感器和固定攝像頭已無法全方位迅速探測火災(zāi)發(fā)出的變化信息[1],而且人工監(jiān)控安防效率低下,一旦未能及時解決安全隱患,不僅會擾亂港口秩序,還可能造成重大人員、設(shè)備和財產(chǎn)損失。近年來,無人機和圖像識別技術(shù)不斷發(fā)展,使港口全方位監(jiān)視成為可能[2]。圖像識別作為人工智能的分支,目前已經(jīng)在各領(lǐng)域中取得了較好的成績,如人臉識別、目標(biāo)追蹤、指紋識別等。近幾年,許多學(xué)者用BP 神經(jīng)網(wǎng)絡(luò)對圖像處理做出了研究,文獻(xiàn)[3]提出改進后的BP 神經(jīng)網(wǎng)絡(luò)和支持向量機結(jié)合能夠有效地識別森林火災(zāi)圖像。但是,在我國港口領(lǐng)域中尚未有成熟的應(yīng)用。本文設(shè)計了基于卷積神經(jīng)網(wǎng)絡(luò)的港口防火系統(tǒng),較好地解決了人力監(jiān)測范圍有限、地域環(huán)境復(fù)雜和監(jiān)測成本高等問題[4]。
港口防火系統(tǒng)由無人機采集、圖傳技術(shù)和圖像識別3 部分組成[5],系統(tǒng)總體架構(gòu)如圖1 所示。為滿足防火系統(tǒng)的需求,有針對性地對無人機進行二次開發(fā)并選用合理的圖傳技術(shù)。多臺無人機可同時傳入同一臺PC 機,實現(xiàn)對不同空間的探測。無人機通過攜帶高清運動相機對港口的水域和陸域進行高空圖像采集,通過4G 信號將圖傳給上位機進行圖像識別,最終將圖像識別的結(jié)果顯示在屏幕并通過GSM 將報警信號發(fā)送至安防人員。

圖1 系統(tǒng)總體架構(gòu)
考慮到港口特殊環(huán)境和實時監(jiān)測要求,選用M200 V2系列無人機作為港口安全系統(tǒng)識別目標(biāo)的設(shè)備,在此基礎(chǔ)上進行二次開發(fā),使其達(dá)到港口無人機的要求。具體功能如下:
(1)FPV 運動相機,支持電子防抖動,動態(tài)有效像素1 200 萬,支持可見度低時拍攝。
(2)傳輸加密協(xié)議,確保圖傳數(shù)據(jù)安全無誤。
(3)配備智能避障和防撞燈塔的功能[6]。
(4)配置手提式攜帶控制端操作平臺,手動、自動2 種模式隨意切換。
在配備這些功能的基礎(chǔ)上,根據(jù)港口安全系統(tǒng)環(huán)境,外部增加功能如下:
(1)無人機上配備SD 卡,可及時儲存監(jiān)控畫面,防止丟失。
(2)GPS+北斗導(dǎo)航模塊,實時監(jiān)控?zé)o人機的位置[7]。
(3)工業(yè)級煙霧、室溫度、顆粒傳感器。
(4)GSM 短信報警模塊。
二次開發(fā)后,無人機可以及時檢測火情重要參數(shù)指標(biāo),處理港口極端環(huán)境下無法及時監(jiān)控港口安全的問題。通過GSM 實時反饋用戶,同時將拍攝畫面通過圖傳技術(shù)實時傳輸至終端[8],實現(xiàn)遠(yuǎn)程高清視頻流實時傳輸?shù)哪康模垢劭诜阑鹣到y(tǒng)智能化、實時化、自動化。
不同的圖傳技術(shù),傳輸性能和傳輸距離均不相同,各項圖傳技術(shù)參數(shù)指標(biāo)如表1 所示。

表1 各項圖傳技術(shù)參數(shù)指標(biāo)
在港口安全系統(tǒng)下,實時性和圖傳距離作為主要參考標(biāo)準(zhǔn),在設(shè)立基站的情況下,4G 信號圖傳技術(shù)可以實現(xiàn)港口全覆蓋。而在集裝箱等金屬密集的港口環(huán)境下會影響圖傳的信號質(zhì)量,需要穿透性和抗干擾性強的圖傳技術(shù)。考慮5G 時代的到來,4G 無線圖傳技術(shù)是實現(xiàn)港口安全系統(tǒng)的最佳選擇[9]。

圖2 港口安全系統(tǒng)軟件流程圖
中控室將無人機采集到的圖像數(shù)據(jù)集中起來,傳輸至JS 研發(fā)設(shè)計的前端軟件——港口安全巡檢系統(tǒng)。軟件可以將攝像頭和傳感器采集到的數(shù)據(jù)通過圖傳技術(shù)實時顯示在界面中,港口安全系統(tǒng)軟件流程圖[10]如圖2 所示。后臺進行快速的圖像識別,將火情坐標(biāo)信息保存在MySQL 數(shù)據(jù)庫中。在軟件中,一旦重點指標(biāo)超出閾值,系統(tǒng)會立即通過GSM 發(fā)送報警電話至手機聯(lián)系工作人員。本設(shè)計以天津港爆炸為例,無人機拍攝的視頻畫面實時傳入中控室,根據(jù)現(xiàn)場的情況首先進行降噪處理,然后將每一幀的圖片傳入后臺系統(tǒng)進行卷積神經(jīng)網(wǎng)絡(luò)處理,與事先準(zhǔn)備好的訓(xùn)練數(shù)據(jù)做對比,監(jiān)測出畫面中的火源和煙霧[11]。
卷積神經(jīng)網(wǎng)絡(luò)(convolution neural networks,CNN)作為前饋式神經(jīng)網(wǎng)絡(luò),是采用多層次結(jié)構(gòu)網(wǎng)絡(luò)并且擁有魯棒性的深度學(xué)習(xí)的一種方法。CNN 通過減少網(wǎng)絡(luò)中的可訓(xùn)練參數(shù)的數(shù)量提升算法效率,采用反向傳播算法優(yōu)化算法。卷積神經(jīng)網(wǎng)絡(luò)在圖像識別上得到廣泛運用,利用CNN 建立模式分類器,將CNN 作為通用的模式分類器,可以直接運用于圖像中。港口安全系統(tǒng)選用卷積神經(jīng)網(wǎng)絡(luò)來識別火災(zāi),首先將圖片網(wǎng)格化至96×96×3 的像素三色圖像,經(jīng)過3 個卷積塊,卷積塊流程如圖3 所示。

圖3 卷積塊流程
具體操作如下:
(1)卷積層 選用3×3 的矩陣作為卷積核,對原圖像進行卷積層處理,提取特征值,丟失圖像邊界的信息,但是不改變圖像的大小,將丟失的邊緣數(shù)據(jù)用0補齊[15]。卷積過程如圖4 所示。

圖4 卷積過程
(2)激活函數(shù) 對卷積后的圖像做RELU 激活函數(shù)處理,RELU 可以簡化計算過程,節(jié)省計算量。RELU的公式表示為:

式中:x 為神經(jīng)元輸入?yún)?shù)。
使(-∞,0)的神經(jīng)元輸出值為0,(0,+∞)神經(jīng)元輸出不變,可以緩解過擬合的問題。
(3)批量歸一化 對神經(jīng)元進行批歸一化處理,歸一化公式為:

式中:μβ為入?yún)?shù)的均值;σβ為入?yún)?shù)的方差;xi為輸入的參數(shù)。
利用方差和均值作為優(yōu)化條件,使得優(yōu)化后的分布更吻合真實分布[9]。
(4)池化層 將過濾后的矩陣經(jīng)過2×2 矩陣過濾器分成n 塊,取最大的元素,可以得到最新的更小的特征圖像,池化過程如圖5 所示,輸出不改變圖像的大小[16]。

圖5 池化過程
(5)隨機失活 隨機屏蔽神經(jīng)網(wǎng)絡(luò)中25%的神經(jīng)元,做神經(jīng)網(wǎng)絡(luò)處理后,將屏蔽的神經(jīng)元重新激活保持輸出參數(shù)不變,起到防止過擬合的問題。
(6)經(jīng)過3 次卷積塊處理后,對所有1 024 個參數(shù)的神經(jīng)元進行全連接層。全連接層是連接所有特征將特征值送入softmax 分類器中,得到最后的輸出結(jié)果。
相對于其他的圖像識別算法,CNN 卷積神經(jīng)網(wǎng)絡(luò)獨特的優(yōu)勢最為適用港口的安全系統(tǒng)[12]。對于圖像分析而言,CNN 具有以下3 種優(yōu)勢:
(1)不需要通過分析整張圖片就可以辨別特征。無人機航拍巡視的監(jiān)控畫面的視角很廣,信息量很大。為了達(dá)到實時傳輸?shù)哪康模枰肅NN 這一特征加快計算機運算的速度,增加效率。
(2)相同的模式出現(xiàn)在不同的區(qū)域。同樣的煙霧特征出現(xiàn)在不同的圖像和不同的場景當(dāng)中,利用同樣的神經(jīng)元(neural)、相同的參數(shù)即可檢測出來。額外設(shè)置的神經(jīng)網(wǎng)絡(luò)層和激活函數(shù)去重新辨別新的圖片就顯得冗余[13]。
(3)二次采樣的像素不會改變目標(biāo)的形狀。將圖片縮小以提高運算的速度卻不會改變運算的結(jié)果。感應(yīng)層采用4 路的高清攝像頭采集到的畫面雖然清晰,但也伴隨像素高,占用內(nèi)存大等實際問題。利用二次采樣將圖片進行壓縮,減少內(nèi)存損耗的同時卻不會影響結(jié)果[14]。
設(shè)置100 次迭代次數(shù)和1×10-3學(xué)習(xí)率后,分別將1 000 張火焰和煙霧圖像作為輸入數(shù)據(jù)。隨機抽取80%作為訓(xùn)練數(shù)據(jù),20%作為測試數(shù)據(jù),利用有學(xué)習(xí)速度衰變的Adam 優(yōu)化器和二元交叉熵作為編譯模型,通過判斷訓(xùn)練數(shù)據(jù)的優(yōu)良自動更改模型的參數(shù),實現(xiàn)高精度的測試集,達(dá)到實現(xiàn)的目的,實現(xiàn)對火焰和煙霧的分類效果。
最后用準(zhǔn)備好的數(shù)據(jù)集導(dǎo)入設(shè)計好的CNN,用Keras 訓(xùn)練的安防系統(tǒng)圖鑒深度學(xué)習(xí)分類器得到的訓(xùn)練集和測試集的準(zhǔn)確率和錯誤率如圖6 所示,最后將對象標(biāo)記和精確度標(biāo)記出來,顯示在軟件上,實驗結(jié)果顯示如圖7 所示。

圖6 訓(xùn)練集和測試集的準(zhǔn)確率和錯誤率

圖7 實驗結(jié)果顯示
通過實驗,可以發(fā)現(xiàn)迭代100 次后的訓(xùn)練數(shù)據(jù)準(zhǔn)確度和測試數(shù)據(jù)的準(zhǔn)確度分別為99.79%和99.87%。卷積神經(jīng)網(wǎng)絡(luò)可以避免其他干擾,很好地識別圖像中存在的煙霧和火焰,并且將顯示結(jié)果輸出。
本次實驗的實驗環(huán)境為Ubuntu 系統(tǒng)TensorFlow+python3.5+Kera+matplotlib,為了突出此處深度學(xué)習(xí)的高效性,對測試數(shù)據(jù)的圖像與BP 神經(jīng)網(wǎng)絡(luò)進行圖像識別對比,對比結(jié)果如表2 所示。

表2 不同算法的數(shù)據(jù)對比結(jié)果
實驗發(fā)現(xiàn),CNN 卷積神經(jīng)網(wǎng)絡(luò)在基于無人機圖像識別的安全監(jiān)測系統(tǒng)中效果更佳,耗時更短。解決了港口巡檢難和巡檢人數(shù)缺乏的問題。
本文設(shè)計了一種基于卷積神經(jīng)網(wǎng)絡(luò)圖像識別的港口火災(zāi)監(jiān)測系統(tǒng)。該系統(tǒng)采用無人機進行港口圖像采集,采用卷積神經(jīng)網(wǎng)絡(luò)算法進行港口火災(zāi)圖像識別。實驗結(jié)果表明,基于CNN 的圖像識別算法對火災(zāi)圖像處理速度快,實時性強,而且準(zhǔn)確度高,系統(tǒng)能夠及時發(fā)現(xiàn)港口火災(zāi),有助于解決港口安全方面的問題。本文提出的火災(zāi)監(jiān)測安全系統(tǒng)同樣也適用于機場、火車站等客流量大、安防要求高的密集場所,該研究具有廣泛的應(yīng)用前景。