趙維科 焦良葆 孟 琳 浦 東
(南京工程學(xué)院人工智能產(chǎn)業(yè)技術(shù)研究院 南京 211167)
傳統(tǒng)的煙霧檢測(cè)方法主要是根據(jù)煙霧、氣體、溫度等物理量變化,采用感溫、感光、氣體探測(cè)以及復(fù)合式探測(cè)而設(shè)計(jì)了各式各樣的煙霧探測(cè)器。但是煙霧探測(cè)器由于自身的特性而受到空間的限制,尤其是在室外環(huán)境,煙霧探測(cè)器無(wú)法檢測(cè)大范圍,而且煙霧易被氣流吹散,煙霧到達(dá)不了煙霧探測(cè)器。故而近年來(lái),煙火隱患的探測(cè)技術(shù)正逐漸朝著視頻圖像處理的趨勢(shì)發(fā)展,通過(guò)最近興起的機(jī)器視覺(jué)技術(shù)可以對(duì)煙火隱患這類目標(biāo)進(jìn)行有效的檢測(cè)定位,從而能夠更準(zhǔn)確的定位煙霧發(fā)生地,避免火災(zāi)發(fā)生更多地延伸。相比煙霧探測(cè)器,具有監(jiān)控范圍廣、監(jiān)控距離遠(yuǎn)、反應(yīng)快速等顯著的特點(diǎn)。
隨著計(jì)算機(jī)科學(xué)的發(fā)展和深度學(xué)習(xí)理論的不斷完善,目標(biāo)檢測(cè)的研究得到進(jìn)一步發(fā)展,檢測(cè)精度與速率都有大幅提升。文獻(xiàn)[12]中將SSD算法中的VGG16網(wǎng)絡(luò)進(jìn)行重構(gòu),通過(guò)增加6個(gè)卷積層和1個(gè)池化層,來(lái)提升對(duì)高鐵監(jiān)控視頻中煙火的檢測(cè)精準(zhǔn)度,一定程度上減少了目標(biāo)檢測(cè)漏報(bào)率,但同時(shí)由于增加了網(wǎng)絡(luò)層數(shù)導(dǎo)致模型變大而使得檢測(cè)速率降低,影響實(shí)時(shí)檢測(cè)效果。文獻(xiàn)[14]利用深度卷積網(wǎng)絡(luò)生成對(duì)抗網(wǎng)絡(luò)和自適應(yīng)前景分割技術(shù)來(lái)對(duì)輸電線路的工程車輛入侵進(jìn)行檢測(cè),該算法在煙火隱患檢測(cè)的應(yīng)用中會(huì)因在前景分割時(shí)花費(fèi)較多時(shí)間大幅降低了識(shí)別速率而導(dǎo)致漏幀。文獻(xiàn)[15]根據(jù)交通燈尺寸特點(diǎn),精簡(jiǎn)YOLO網(wǎng)絡(luò)結(jié)構(gòu),然而在對(duì)復(fù)雜環(huán)境下的檢測(cè)中識(shí)別效果會(huì)大幅下降,無(wú)法準(zhǔn)確定位識(shí)別目標(biāo)。文獻(xiàn)[17]通過(guò)結(jié)合跨階段局部網(wǎng)絡(luò)對(duì)骨干網(wǎng)絡(luò)進(jìn)行改進(jìn),降低計(jì)算量,同時(shí)利用改進(jìn)后特征融合增強(qiáng),有效提升了在復(fù)雜環(huán)境下檢測(cè)中的目標(biāo)識(shí)別效果,由于山火煙霧這類形狀不固定的柔性目標(biāo),在環(huán)境中檢測(cè)更加復(fù)雜,需要對(duì)柔性目標(biāo)檢測(cè)提取更多的特征信息。深度卷積網(wǎng)絡(luò)的深度學(xué)習(xí)主流目標(biāo)檢測(cè)算法主要有兩階段的Fast R-CNN[2~3]和一階段的YOLO[4,14~15,17,19,23]和SSD[12],其中YOLO算法經(jīng)過(guò)更新發(fā)展,結(jié)合了多特征提取以及殘差網(wǎng)絡(luò)特性,使得對(duì)目標(biāo)的檢測(cè)精度識(shí)別速率都有較大提升。
針對(duì)上述問(wèn)題以及應(yīng)用需求,本文提出了YO?LO深度卷積網(wǎng)絡(luò)的優(yōu)化算法,該優(yōu)化算法包含了2個(gè)方面的創(chuàng)新點(diǎn):一是,利用GIoU_Loss損失函數(shù)替換L2 Loss損失函數(shù),降低損失值,提升檢測(cè)精度;二是,在輸出層之前添加SPP模塊,將目標(biāo)特征從多尺度方面進(jìn)行融合,融合多尺度可以擴(kuò)大感受范圍,獲得更豐富的信息,從而提高目標(biāo)檢測(cè)的準(zhǔn)確性。
煙火隱患作為一類特定目標(biāo)可以劃分為兩種目標(biāo),分別為山火和煙霧,利用目標(biāo)檢測(cè)算法[4]可以對(duì)煙火隱患做出大致范圍的劃定。
目標(biāo)檢測(cè)是將圖像或者視頻中的目標(biāo)與其他不感興趣區(qū)域進(jìn)行區(qū)分,判斷是否存在目標(biāo),確定目標(biāo)位置,識(shí)別目標(biāo)種類的計(jì)算機(jī)視覺(jué)任務(wù)。以AlexNet為分界線,2012年之前為傳統(tǒng)算法,包括Viola-Jones[6]算法、HOG特征算法以及DPM[1]模型。2012年,Hinton教授的團(tuán)隊(duì)使用了卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)了一種名為AlexNet的網(wǎng)絡(luò)結(jié)構(gòu),該網(wǎng)絡(luò)結(jié)構(gòu)在ImageNet數(shù)據(jù)集上擊敗了所有傳統(tǒng)方法,使得卷積神經(jīng)網(wǎng)絡(luò)成為計(jì)算機(jī)視覺(jué)領(lǐng)域中最重要的工具。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法大致分為三類:1)基于區(qū)域建議的算法,如R-CNN[3]、Fast R-CNN[2]、Faster R-CNN等。2)基于目標(biāo)回歸的檢測(cè) 算 法,如YOLO、SSD[12],retinanet,EfficientDet。3、基于Anchor-free的算法,如CornerNet,Center?Net,F(xiàn)COS等。
使用coco數(shù)據(jù)集對(duì)比不同目標(biāo)檢測(cè)算法可知,基于目標(biāo)回歸的檢測(cè)算法在檢測(cè)精度上高于An?chor-free的算法,檢測(cè)速率上遠(yuǎn)超區(qū)域建議的算法。在這基礎(chǔ)之上,目前目標(biāo)回歸算法中的YOLO算法在檢測(cè)精度上與Fast R-CNN相近,檢測(cè)速率上也與SSD相持平,如表1所示,因此YOLO算法在對(duì)目標(biāo)進(jìn)行實(shí)時(shí)監(jiān)測(cè)效果最佳。
YOLO本質(zhì)上是一個(gè)實(shí)現(xiàn)了識(shí)別與回歸功能的深度卷積神經(jīng)網(wǎng)絡(luò),通過(guò)對(duì)圖片的全局區(qū)域進(jìn)行訓(xùn)練,速度加快的同時(shí),能夠更好的區(qū)分目標(biāo)和背景。
這個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)主要是由一系列的1×1和3×3的卷積層組成,每個(gè)卷積層后都會(huì)跟一個(gè)BN層和一個(gè)LeakyReLU激活函數(shù),網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。它一共有53個(gè)全連接卷積層,所以該網(wǎng)絡(luò)模型結(jié)構(gòu)又稱為Darknet-53。該結(jié)構(gòu)為了增加網(wǎng)絡(luò)的深度,借鑒引入Resnet網(wǎng)絡(luò)中的殘差結(jié)構(gòu),相比較其他深度卷積網(wǎng)絡(luò)算法中類似VGG那樣直筒型的網(wǎng)絡(luò)結(jié)構(gòu),YOLO因殘差結(jié)構(gòu)訓(xùn)練層難度大大減少,因此這里可以將網(wǎng)絡(luò)做到53層,精度明顯提升。

圖1 YOLO網(wǎng)絡(luò)結(jié)構(gòu)
對(duì)于原YOLO算法在應(yīng)用到煙火隱患檢測(cè)時(shí)對(duì)于不固定形狀的煙火圖像在檢測(cè)時(shí),會(huì)產(chǎn)生大范圍的煙霧檢測(cè)不全,同時(shí)還會(huì)對(duì)小范圍目標(biāo)的煙霧檢測(cè)不準(zhǔn)的問(wèn)題,因此提出了下面的改進(jìn)策略。
在YOLO算法中把目標(biāo)邊界框表示為四個(gè)變量(x,y,w,h)或(X1,Y1,X2,Y2)。目標(biāo)邊界框回歸問(wèn)題通常采用L2 loss(L1 loss、Smooth L1 loss)對(duì)上述四個(gè)變量進(jìn)行回歸,但是,這種做法有以下缺點(diǎn):
1)L2 loss在計(jì)算邊界框損失時(shí),先獨(dú)立地求出四個(gè)點(diǎn)的損失Loss,然后進(jìn)行相加,這種做法假設(shè)了這四個(gè)點(diǎn)是相互獨(dú)立的,但實(shí)際上應(yīng)該是有一定相關(guān)性的,因?yàn)檫@四個(gè)點(diǎn)都依賴于同一個(gè)目標(biāo)。
2)實(shí)際評(píng)價(jià)框檢測(cè)的指標(biāo)是使用IoU,這兩者是不等價(jià)的,多個(gè)檢測(cè)框可能有相同大小的L2 Loss,但它們的IoU可能差異很大。
3)L2 loss并不具有尺度不變性。大邊界框的L2損失通常會(huì)大于小邊界框的損失,這使得在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,網(wǎng)絡(luò)會(huì)更加注重大邊界框的定位,忽視小邊界框的定位,最終導(dǎo)致模型對(duì)小目標(biāo)的檢測(cè)性能比較差。
由圖2所示,其中灰色框?yàn)檎鎸?shí)框,黑色框?yàn)轭A(yù)測(cè)框,從圖中可以看出,當(dāng)L2范數(shù)相等時(shí),IoU與GIoU的值都有很大的差異,這表明使用L范數(shù)來(lái)作為衡量邊界框的距離是不合適的。

圖2 L2范數(shù)相等時(shí)IoU及GIoU對(duì)比
為了解決上述問(wèn)題,提出了IoU來(lái)構(gòu)造損失函數(shù),然而IoU loss在當(dāng)預(yù)測(cè)框A和目標(biāo)框B不相交時(shí),即IoU(A,B)=0時(shí),不能反映A,B距離的遠(yuǎn)近,此時(shí)損失函數(shù)不可導(dǎo),IoU loss無(wú)法優(yōu)化兩個(gè)框不相交的情況。如圖3所示,場(chǎng)景1和場(chǎng)景2的IoU都為0,由于場(chǎng)景1的兩邊界框比場(chǎng)景2的更近,L范數(shù)更小,因此場(chǎng)景1的檢測(cè)效果更佳。

圖3 IoU為0的兩種不同情況的回歸
針對(duì)IoU作為坐標(biāo)誤差損失函數(shù)IoU無(wú)法優(yōu)化無(wú)重疊的bounding box,所以本文使用一種泛化版的GIoU[8],計(jì)算公式如下:

其中,C是能完全包圍A和B的最小矩形框。與IoU相似,GIoU[7]也是一種距離度量,作為損失函數(shù)的話,LGIoU=1-GIoU滿足損失函數(shù)的基本要求。GIoU不僅關(guān)注重疊區(qū)域,還關(guān)注其他的非重合區(qū)域,能更好的反映兩者的重合度。當(dāng)兩個(gè)框沒(méi)有重疊區(qū)域時(shí),此時(shí)GIoU是一個(gè)在[-1,0]范圍內(nèi)變化的數(shù),存在梯度,能夠?qū)τ?xùn)練進(jìn)行優(yōu)化,優(yōu)化方向是逐漸拉近兩個(gè)框之間的距離。將GIoU作為YOLO的邊界框回歸損失函數(shù),可以有效降低目標(biāo)檢測(cè)訓(xùn)練過(guò)程時(shí)的損失值,從而提高識(shí)別的準(zhǔn)確精度。
在目標(biāo)檢測(cè)領(lǐng)域,為了更好的提取融合特征,通常在Backbone和輸出層,會(huì)插入一些層,這個(gè)部分稱為Neck。相當(dāng)于目標(biāo)檢測(cè)網(wǎng)絡(luò)的頸部,也是非常關(guān)鍵的。改進(jìn)的Neck結(jié)構(gòu)主要采用了SPP模塊[16]、FPN+PAN的方式。
3.2.1 SPP模塊
SPP模塊的全名是空間金字塔池化層模塊[17]。圖像空間金字塔[18]是多尺度圖像處理,它使用多分辨率并表征了圖像強(qiáng)大而簡(jiǎn)單的結(jié)構(gòu)[19],所提出的模型獲取高級(jí)特征,紋理特征,提高了模型的準(zhǔn)確性。在SPP模塊中,使用k={1×1,5×5,9×9,13×13}的最大池化的方式,再將不同尺度的特征圖進(jìn)行Concat操作如圖4所示,此處的最大池化采用padding操作,移動(dòng)的步長(zhǎng)為1,比如13×13的輸入特征圖,使用5×5大小的池化核池化,padding=2,因此池化后的特征圖仍然是13×13大小。在《DC-SPP-Yolo》[22]中對(duì)YOLO目標(biāo)檢測(cè)的SPP模塊進(jìn)行了對(duì)比測(cè)試,結(jié)果表明,采用SPP模塊的方式,比單純使用k×k最大池化的方式,更有效地增加主干特征的接受范圍,顯著的分離了最重要的上下文特征。在使用608×608大小的圖像進(jìn)行測(cè)試時(shí)發(fā)現(xiàn),在COCO目標(biāo)檢測(cè)任務(wù)中,以0.5%的額外計(jì)算代價(jià)將AP50增加了2.7%,因此采用SPP模塊。

圖4 SPP模塊
3.2.2 FPN+PAN
FPN+PAN借鑒的是18年CVPR的PANet[20],當(dāng)時(shí)主要應(yīng)用與圖像分割領(lǐng)域,將其拆分應(yīng)用到Y(jié)O?LO中,進(jìn)一步提高特征提取的能力。YOLO的只有單一的FPN層,它是自頂向下的,將高層的特征信息通過(guò)上采樣的方式進(jìn)行傳遞融合,得到進(jìn)行預(yù)測(cè)的特征圖。而改進(jìn)的結(jié)構(gòu)在FPN層的后面還添加了一個(gè)自底向上的特征金字塔,其中包含了兩個(gè)PAN結(jié)構(gòu)[21],如圖5所示。這樣結(jié)合操作,F(xiàn)PN層自頂向下傳達(dá)強(qiáng)語(yǔ)義特征,而特征金字塔則自底向上傳達(dá)強(qiáng)定位特征,兩兩聯(lián)手,從不同的主干層對(duì)不同的檢測(cè)層進(jìn)行特征聚合,從而擴(kuò)大感受野,提高特征提取能力,提高檢測(cè)精度。

圖5 FPN+PAN結(jié)構(gòu)
本文中基于Darknet框架搭建神經(jīng)網(wǎng)絡(luò),利用C和Python編程語(yǔ)言進(jìn)行實(shí)驗(yàn)。模型訓(xùn)練和測(cè)試環(huán)境如下:Intel(R)Xeon(R)Glod5118 CPU@2.3GHz處理器,GeForce RTX2080Ti型GPU,24GB顯存,Centos7.0操作系統(tǒng),內(nèi)存128G。
本文以YOLO V3作為改進(jìn)和比較的對(duì)象,但本文所述的改進(jìn)適合于所有YOLO框架算法。實(shí)驗(yàn)中將改進(jìn)的YOLO算法與原算法進(jìn)行比較。
利用國(guó)網(wǎng)公司南京分公司與蘇州分公司提供的輸電通道煙火隱患數(shù)據(jù)進(jìn)行模型訓(xùn)練和測(cè)試。采用電力桿塔上安置的攝像頭對(duì)輸電通道周圍環(huán)境進(jìn)行拍攝,針對(duì)輸電線路通道中可能存在的山火以及煙霧進(jìn)行模型訓(xùn)練以及測(cè)試。選用其中拍攝清晰、無(wú)明顯壓縮痕跡的二維目標(biāo)圖像作為數(shù)據(jù)集,轉(zhuǎn)換標(biāo)簽文件格式。將數(shù)據(jù)集按照8∶1∶1的比例隨機(jī)分為互斥的訓(xùn)練集,驗(yàn)證集和測(cè)試集,如表2所示,其中山火為主要檢測(cè)類別,煙霧由于其涉及范圍較廣,容易出現(xiàn)誤判斷,因而將其歸類為次要檢測(cè)類別。

表2 數(shù)據(jù)集類別及數(shù)量
在深度卷積神經(jīng)網(wǎng)絡(luò)中的參數(shù)是數(shù)以萬(wàn)計(jì)的,為了使得這些參數(shù)能夠達(dá)到最佳工作狀態(tài)則需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,因此提出了數(shù)據(jù)增強(qiáng)的方法來(lái)利用有限的數(shù)據(jù)集產(chǎn)生更多的等價(jià)數(shù)據(jù)。使用Mosaic數(shù)據(jù)增強(qiáng)[10,13],對(duì)四張煙火隱患圖片進(jìn)行隨機(jī)旋轉(zhuǎn)拼接,每一張圖片都有其對(duì)應(yīng)的目標(biāo)框,利用四張圖片拼接之后就獲得一張新的圖片,同時(shí)也會(huì)獲得這張圖片對(duì)應(yīng)的目標(biāo)框,將這張新的圖片傳入到神經(jīng)網(wǎng)絡(luò)當(dāng)中去學(xué)習(xí),相當(dāng)于一下子傳入四張圖片進(jìn)行學(xué)習(xí),訓(xùn)練效果相對(duì)于原本算法增強(qiáng)了近4倍。利用labelimg標(biāo)注軟件將這2類目標(biāo)標(biāo)注出來(lái),根據(jù)VOC數(shù)據(jù)集目錄結(jié)構(gòu),將數(shù)據(jù)集標(biāo)記文件保存為txt格式。

選用查全率R、查準(zhǔn)率P和平均精度mPA評(píng)估模型的檢測(cè)準(zhǔn)確率,其中R、P的計(jì)算公式如下:式中:T為將目標(biāo)煙火隱患預(yù)測(cè)為對(duì)應(yīng)目標(biāo);F為將目標(biāo)煙火隱患預(yù)測(cè)為非對(duì)應(yīng)目標(biāo);P為將非目標(biāo)煙火隱患預(yù)測(cè)為目標(biāo)。通過(guò)計(jì)算每個(gè)樣本類別的T、P、F值,得到每個(gè)類別對(duì)應(yīng)的查全率、查準(zhǔn)率。通過(guò)計(jì)算每個(gè)樣本類別的T、P、F值,得到每個(gè)類別對(duì)應(yīng)的查全率、查準(zhǔn)率從而繪制查全率-查準(zhǔn)(PR)曲線,mAP為曲線下的面積[23]。mAP的計(jì)算公式如下:

式中f為PR曲線。
利用國(guó)網(wǎng)公司提供的數(shù)據(jù)集進(jìn)行訓(xùn)練得到原算法和改進(jìn)后YOLO算法的訓(xùn)練模型,并對(duì)其性能進(jìn)行比較。實(shí)驗(yàn)中設(shè)定batch為64,即在訓(xùn)練集中每次迭代處理64個(gè)樣本,設(shè)定subdivisions為8,即將batch分割為8個(gè)batch。本文中訓(xùn)練迭代次數(shù)為33800,學(xué)習(xí)率0.001,使用數(shù)據(jù)集,在GPU上進(jìn)行了約1天的訓(xùn)練,獲得最終煙火隱患目標(biāo)檢測(cè)模型權(quán)重。
為了評(píng)估GIoU_Loss損失函數(shù)融合后的YOLO算法的識(shí)別效果,引入了Loss損失曲線圖,用于與原來(lái)的使用常用邊界框損失函數(shù)的YOLO算法進(jìn)行比較,通過(guò)Loss損失曲線圖可以看出,通過(guò)GIoU_Loss損失函數(shù)與YOLO算法融合后,算法通過(guò)Darknet框架進(jìn)行訓(xùn)練后的損失值最終降低至0.5532,而原本使用L2 Loss損失函數(shù)的YOLO損失值最終降低至0.8905,損失值效果提升了近62%,L2 Loss損失函數(shù)Loss曲線圖如圖6改進(jìn)前所示,GIoU_Loss損失函數(shù)Loss曲線圖如圖6改進(jìn)后所示。

圖6 Loss損失曲線圖
為了評(píng)估融合了金字塔池化層的YOLO算法對(duì)復(fù)雜環(huán)境下目標(biāo)檢測(cè)的識(shí)別效果,利用原始數(shù)據(jù)集訓(xùn)練數(shù)據(jù)增強(qiáng)后的YOLO算法,進(jìn)行金字塔池化層融合實(shí)驗(yàn),并將融合后的識(shí)別結(jié)果與原始模型結(jié)果進(jìn)行比對(duì)分析,圖7所示為改進(jìn)后的算法與原算法在測(cè)試集中PR曲線對(duì)比。從圖中可以看出,相比于原算法,改進(jìn)后的算法PR曲線下的面積更大,平均精度更高。相比于YOLO算法,改進(jìn)后的算法平均精度提升了2.7%。

圖7 PR曲線圖
為了驗(yàn)證本文算法相較其他網(wǎng)絡(luò)模型的優(yōu)勢(shì),首先在同樣的實(shí)驗(yàn)環(huán)境下利用相同的訓(xùn)練樣本數(shù)據(jù)重新訓(xùn)練了SSD、Fast R-CNN以及YOLO原網(wǎng)絡(luò),獲得相應(yīng)的模型,然后利用相同的測(cè)試數(shù)據(jù)集,將其他模型檢測(cè)結(jié)果與本文算法模型進(jìn)行對(duì)比。
以模型檢測(cè)平均準(zhǔn)確率mAP、檢測(cè)速度FPS作為評(píng)價(jià)指標(biāo),分別對(duì)比SSD、Fast R-CNN、YOLO原算法以及本文算法的性能,如表3所示。
從表3中可以看出,本文算法在平均準(zhǔn)確率上幾乎與Fast R-CNN持平,同時(shí)檢測(cè)速度上與SSD與YOLO算法模型相近,因此,本文算法在針對(duì)山火煙霧這類目標(biāo)檢測(cè)時(shí)相較于其他網(wǎng)絡(luò)模型有著準(zhǔn)確率高和速率快的優(yōu)勢(shì)。

表3 各模型檢測(cè)結(jié)果
為了進(jìn)一步體現(xiàn)本文算法相對(duì)于原算法在檢測(cè)精度上的優(yōu)勢(shì),利用查全率和查準(zhǔn)率兩個(gè)評(píng)價(jià)指標(biāo)對(duì)原算法和本文算法進(jìn)行對(duì)比。通過(guò)Mosaic數(shù)據(jù)增強(qiáng)、GIoU_Loss損失函數(shù)、金字塔池化層融合后的YOLO能夠在一定程度上在不影響YOLO實(shí)時(shí)檢測(cè)速率的同時(shí)提升檢測(cè)精度,識(shí)別精度在閾值設(shè)置為0.2時(shí)對(duì)比數(shù)據(jù)如表3所示。
通過(guò)表4可知,原算法在查全率和查準(zhǔn)率上對(duì)于原算法都有較大提升,山火的查全率提升了1.9%,查準(zhǔn)率提升了2.4%,煙霧的查全率提高了0.8%,查準(zhǔn)率提高了1.8%。

表4 查全查準(zhǔn)率對(duì)比
其檢測(cè)效果圖如圖8所示,在圖中可以看出對(duì)于不同形狀的煙霧都能有較好的檢測(cè)效果。

圖8 檢測(cè)效果圖
本文中提出的YOLO改進(jìn)算法,該算法通過(guò)Mosaic數(shù)據(jù)增強(qiáng),優(yōu)化網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集,提升訓(xùn)練效果;利用GIoU_Loss損失函數(shù)來(lái)降低訓(xùn)練損失值;同時(shí),引入空間金字塔池化,增大感受野,提高小目標(biāo)識(shí)別效果,從而在不影響識(shí)別速率的同時(shí)提高復(fù)雜化境下的煙火隱患檢測(cè)識(shí)別精度。使用改進(jìn)后的算法對(duì)山火煙霧這類安全隱患進(jìn)行實(shí)時(shí)監(jiān)測(cè),快速定位隱患火災(zāi)發(fā)生地,有效避免災(zāi)害進(jìn)一步擴(kuò)散。
實(shí)驗(yàn)結(jié)果表明,YOLO優(yōu)化算法取得了更高的檢測(cè)準(zhǔn)確率的同時(shí)優(yōu)化了數(shù)據(jù)集改善了誤報(bào)率較高的問(wèn)題,基本滿足了對(duì)煙火隱患的實(shí)時(shí)監(jiān)測(cè)需求。另外,該優(yōu)化算法并不局限于煙火隱患的檢測(cè),也可應(yīng)用于其他領(lǐng)域的目標(biāo)檢測(cè),具有廣闊的應(yīng)用場(chǎng)景,適用性強(qiáng)。