999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于梯度流特征融合的泵站安全風(fēng)險(xiǎn)檢測(cè)

2024-01-26 11:04:34侯欣偉李一帆白巖冰劉鵬宇
關(guān)鍵詞:特征提取泵站特征

梁 磊,侯欣偉,李一帆,白巖冰,劉鵬宇

(1.北京市南水北調(diào)團(tuán)城湖管理處,北京 100195;2.北京工業(yè)大學(xué)信息學(xué)部,北京 100124;3.先進(jìn)信息網(wǎng)絡(luò)北京實(shí)驗(yàn)室,北京 100124;4.北京工業(yè)大學(xué)計(jì)算智能與智能系統(tǒng)北京市重點(diǎn)實(shí)驗(yàn)室,北京 100124)

通過(guò)信息化、數(shù)字化和智能化手段提升泵站安全風(fēng)險(xiǎn)的感知和檢測(cè)水平是泵站安全監(jiān)管發(fā)展的趨勢(shì)。[1]泵站作為水利工程的重要樞紐,其日常運(yùn)行中涉及的大型電機(jī)、變壓器等大型設(shè)備也給作業(yè)人員帶來(lái)一定的安全風(fēng)險(xiǎn),因此需要對(duì)泵站重點(diǎn)區(qū)域進(jìn)行安全帽佩戴檢測(cè)、人員入侵檢測(cè)和煙火檢測(cè)以避免安全事故的發(fā)生。由于人工巡檢存在監(jiān)管不及時(shí)、效率低下等多種弊端,因此迫切需要適合泵站場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)技術(shù),保障泵站內(nèi)部的平穩(wěn)運(yùn)行。

目前對(duì)于安全風(fēng)險(xiǎn)檢測(cè)任務(wù)的研究主要分為傳統(tǒng)方法和基于深度學(xué)習(xí)的方法。傳統(tǒng)方法主要通過(guò)邊緣檢測(cè)、特征聯(lián)合和支持向量機(jī)等方法對(duì)目標(biāo)區(qū)域進(jìn)行檢測(cè)。Rubaiya和Silva等人將梯度直方圖算法與圖像頻域信息相結(jié)合先確定人體區(qū)域位置,最后使用圓形霍夫變換來(lái)檢測(cè)人員是否佩戴安全帽。Guan等人提出了一種由顏色注意模塊(MCM)的重復(fù)塊組成的顏色注意神經(jīng)網(wǎng)絡(luò),通過(guò)每個(gè)MCM模塊提取該區(qū)域的顏色特征信息,從而實(shí)現(xiàn)對(duì)煙火的檢測(cè)。[2]吳春香等人通過(guò)邊緣檢測(cè)算子和腐蝕膨脹等操作進(jìn)行檢測(cè),再通過(guò)聯(lián)合特征學(xué)習(xí)實(shí)現(xiàn)人員入侵檢測(cè)。由于傳統(tǒng)方法比較依賴特征提取和特征匹配的結(jié)果,在復(fù)雜場(chǎng)景下的檢測(cè)精度不佳,難以適用于泵站復(fù)雜場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)任務(wù)。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,越來(lái)越多的學(xué)者嘗試將深度學(xué)習(xí)技術(shù)應(yīng)用于安全風(fēng)險(xiǎn)檢測(cè)任務(wù)。Long等人將一階段目標(biāo)檢測(cè)模型SSD算法應(yīng)用于安全帽檢測(cè)任務(wù)中,通過(guò)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)特征的提取,但是無(wú)法適應(yīng)人員密集場(chǎng)景下的安全帽檢測(cè)任務(wù)。[3]Huang等人對(duì)Yolov3進(jìn)行改進(jìn),通過(guò)對(duì)預(yù)測(cè)帽框進(jìn)行像素統(tǒng)計(jì)并結(jié)合對(duì)應(yīng)的權(quán)重得到最終預(yù)測(cè)的輸出結(jié)果,但是對(duì)于遮擋現(xiàn)象多的場(chǎng)景的檢測(cè)效果顯得不盡人意。Mukhriddin Mukhiddinov等人通過(guò)帶有卷積注意力模塊和h-swish激活函數(shù)對(duì)YOLOv4進(jìn)行改進(jìn),提高了煙火檢測(cè)任務(wù)的檢測(cè)速度,但對(duì)煙霧的檢測(cè)精度有待提高[4]。

為了應(yīng)對(duì)泵站場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)任務(wù)中存在的特征提取能力不足和環(huán)境因素干擾等問(wèn)題,本文以YOLOX目標(biāo)檢測(cè)模型為基礎(chǔ),提出一種泵站場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)算法,在特征提取網(wǎng)絡(luò)中引入梯度流特征提取模塊和坐標(biāo)注意力機(jī)制,同時(shí)在特征融合網(wǎng)絡(luò)中引入BiFPN結(jié)構(gòu)提升不同尺寸目標(biāo)特征的融合效果。通過(guò)對(duì)比實(shí)驗(yàn)可知,本文所提算法在泵站場(chǎng)景下的檢測(cè)效果要優(yōu)于常見(jiàn)目標(biāo)檢測(cè)算法,能夠有效應(yīng)對(duì)泵站場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)任務(wù)。

1 面向泵站場(chǎng)景的安全風(fēng)險(xiǎn)檢測(cè)方法

1.1 改進(jìn)型安全風(fēng)險(xiǎn)檢測(cè)網(wǎng)絡(luò)

本文所提的目標(biāo)檢測(cè)網(wǎng)絡(luò)主要包含輸入端、主干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)和預(yù)測(cè)網(wǎng)絡(luò)4個(gè)部分,分別負(fù)責(zé)輸入圖像的預(yù)處理、特征提取、特征融合和目標(biāo)位置、類別的預(yù)測(cè)工作。特征提取網(wǎng)絡(luò)中引入梯度流特征提取模塊和坐標(biāo)注意力機(jī)制,在特征融合網(wǎng)絡(luò)中采用BiFPN結(jié)構(gòu)提高不同尺寸目標(biāo)特征的融合效果,具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 改進(jìn)型安全風(fēng)險(xiǎn)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)圖

1.1.1改進(jìn)的主干網(wǎng)絡(luò)

主干網(wǎng)絡(luò)在目標(biāo)檢測(cè)模型中負(fù)責(zé)輸入圖像的特征提取工作,安全風(fēng)險(xiǎn)檢測(cè)任務(wù)中經(jīng)常出現(xiàn)的誤檢、漏檢等現(xiàn)象均與特征提取網(wǎng)絡(luò)的特征提取能力有直接聯(lián)系。[5]改進(jìn)后的模型將原始的YOLOX模型中的Res特征提取模塊替換成了特征提取能力更強(qiáng)的C2F_CA模塊,結(jié)構(gòu)如圖2所示。

圖2 特征提取模塊結(jié)構(gòu)對(duì)比圖

原始的Res模塊借鑒了CSPNet提取分流的思想,同時(shí)結(jié)合殘差結(jié)構(gòu)理念提出的。Res模塊主要包含了兩個(gè)分支,主分支梯度流模塊是由輸入特征圖X經(jīng)過(guò)CBS操作后,采用多個(gè)Bottleneck堆疊而成,其作用是對(duì)特征圖進(jìn)行降維以減少參數(shù)的計(jì)算量,另一個(gè)分支則經(jīng)過(guò)一個(gè)CBS操作后與主分支通過(guò)concat操作拼接在一起得到最終輸出特征。[6]Res模塊的主分支只是通過(guò)Bottleneck的堆疊操作獲得了最后一層梯度Bottleneck的輸出結(jié)果,忽視了Bottleneck降維過(guò)程中其他梯度層的特征信息。本文在借鑒了ELAN思想的基礎(chǔ)上設(shè)計(jì)了如圖2(b)所示的C2F_CA模塊,C2F_CA模塊刪除了原本的次分支結(jié)構(gòu)以減少模塊的計(jì)算量,輸入特征在經(jīng)過(guò)CBS操作和Split操作后采用并行的方式對(duì)Bottleneck進(jìn)行堆疊,將每一層Bottleneck的輸出進(jìn)行保留,最終通過(guò)concat操作進(jìn)行特征信息的拼接。相較于原本的Res模塊,C2F_CA模塊采用并行結(jié)構(gòu)在不增加龐雜計(jì)算量的同時(shí)獲得了更加豐富的梯度流信息,提高了網(wǎng)絡(luò)的特征提取能力。

利用深層網(wǎng)絡(luò)提取的特征圖,不同的通道包含著不同的特征信息,學(xué)習(xí)不同通道間的特征信息對(duì)提高檢測(cè)的準(zhǔn)確度具有重要意義[7],因此本文采用了結(jié)合通道信息和特征空間位置信息的輕量型注意力機(jī)制Coordinate Attention。其具體的結(jié)構(gòu)如圖3所示:

圖3 坐標(biāo)注意力機(jī)制結(jié)構(gòu)圖結(jié)構(gòu)示意圖

為提高泵站安全風(fēng)險(xiǎn)檢測(cè)算法的檢測(cè)速度,本文選擇采用計(jì)算速度更快的SimSPPF模塊替換原始YOLOX-s中的SPP模塊[10],兩種模塊的具體結(jié)構(gòu)如圖4所示。

圖4 SPP模塊和SimSPPF模塊結(jié)構(gòu)對(duì)比圖

SPP模塊中采用并行池化的方式將輸入分為4個(gè)分支,[10]其中3個(gè)分支分別采用池化核為5、9、13的最大池化操作,另一個(gè)分支不進(jìn)行任何操作,最后將4個(gè)分支的結(jié)果拼接整合,幫助模型在提高特征融合效果的同時(shí)降低計(jì)算量。池化操作的計(jì)算量與池化核的大小有關(guān),一般池化核越大,計(jì)算量就越大。相較于SPP模塊在并行池化時(shí)采用了池化核為5、9、13的最大池化,SimSPPF模塊選擇采用3個(gè)池化核為5的最大池化通過(guò)串行加并行的方式進(jìn)行改進(jìn)。SimSPPF模塊將原本SPP模塊中池化核為9的最大池化操作分解為兩次池化核為5的最大池化操作的疊加,因此可以充分利用第1次池化核為5的最大池化計(jì)算結(jié)果,在第1個(gè)池化核為5的最大池化后串聯(lián)1個(gè)池化核為5的最大池化,得到與池化核為9的最大池化相同的結(jié)果的同時(shí)通過(guò)降低池化核大小減少了模塊的計(jì)算量。同理,池化核為13的最大池化也是由3個(gè)池化核為5的最大池化串聯(lián)而成。SimSPPF模塊將SPP模塊中采用的SiLu激活函數(shù)替換成了速度更快的ReLu激活函數(shù),[11]通過(guò)上述操作,SimSPPF在幾乎不改變結(jié)果的同時(shí)大大降低了模塊的計(jì)算量,進(jìn)一步降低了移動(dòng)端部署的算力壓力。

1.1.2改進(jìn)型的Neck網(wǎng)絡(luò)

原始的YOLOX-s算法的特征融合網(wǎng)絡(luò)采用FPN和PANet相結(jié)合的方式構(gòu)建特征金字塔結(jié)構(gòu),具體結(jié)構(gòu)如圖5(a)所示。FPN將深層具有的強(qiáng)語(yǔ)義信息傳遞到淺層特征中,[12]而PANet將淺層特征具有的強(qiáng)位置信息傳遞到深層特征中,通過(guò)FPN和PANet的結(jié)合實(shí)現(xiàn)不同尺寸大小檢測(cè)層的參數(shù)聚合,最終實(shí)現(xiàn)不同層級(jí)之間的特征融合。其中PANet的輸入均為FPN處理過(guò)的特征信息而缺少主干網(wǎng)絡(luò)提取的原始特征信息,這可能會(huì)導(dǎo)致學(xué)習(xí)偏差,在特征融合時(shí)會(huì)存在特征信息丟失的問(wèn)題。因此本文所提G-YOLOX算法采用BiFPN結(jié)構(gòu)[13]對(duì)特征金字塔進(jìn)行改進(jìn),具體結(jié)構(gòu)如圖5(b)所示。

圖5 特征金字塔結(jié)構(gòu)對(duì)比圖

1.2 預(yù)測(cè)網(wǎng)絡(luò)優(yōu)化

H-YOLOX的預(yù)測(cè)頭依舊沿用了YOLOX-s的解耦頭結(jié)構(gòu),損失函數(shù)主要分為分類損失和回歸損失兩部分,分類損失采用的是BCELoss,回歸損失則是由CIOU_Loss組成,最終的損失由上述損失經(jīng)過(guò)加權(quán)計(jì)算獲得。其中BCELoss的計(jì)算方法如下公式所示。

(1)

式中,P′—對(duì)應(yīng)預(yù)測(cè)的值;y—判斷是否是真實(shí)類別的標(biāo)簽,y=1時(shí)表示模型預(yù)測(cè)的目標(biāo)為對(duì)應(yīng)真實(shí)類別目標(biāo),y=0時(shí)表示模型預(yù)測(cè)的目標(biāo)不是對(duì)應(yīng)的真實(shí)目標(biāo)。CIOU_Loss的計(jì)算方法如下所示:

(2)

式中,ρ—?dú)W式距離;b、bgt—預(yù)測(cè)框、真實(shí)框的中心點(diǎn);c—預(yù)測(cè)框和真實(shí)框的對(duì)角線距離;α—權(quán)重系數(shù);v—測(cè)量的長(zhǎng)寬比。

(3)

式中,A—真實(shí)框;B—預(yù)測(cè)框;IOU—判斷真實(shí)框和預(yù)測(cè)框的重合程度標(biāo)準(zhǔn)。

2 泵站場(chǎng)景安全風(fēng)險(xiǎn)檢測(cè)數(shù)據(jù)集

本文使用的數(shù)據(jù)集為在泵站監(jiān)控下實(shí)地拍攝的圖片,共3500張,包含佩戴安全帽和未佩戴安全帽、有煙火和無(wú)煙火及有人員闖入違禁區(qū)域和無(wú)人員闖入違禁區(qū)域6類目標(biāo)。為防止網(wǎng)絡(luò)訓(xùn)練時(shí)出現(xiàn)過(guò)擬合的情況,通過(guò)左右翻轉(zhuǎn)、平移、拉伸、旋轉(zhuǎn)和裁剪等方式對(duì)數(shù)據(jù)樣本進(jìn)行擴(kuò)充,最終將數(shù)據(jù)集擴(kuò)充到10123張。通過(guò)圖像標(biāo)注軟件LabelImg進(jìn)行圖像標(biāo)注,并按照8∶1∶1的比例劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集,輸入的圖像尺寸大小統(tǒng)一為640×640。

3 實(shí)驗(yàn)結(jié)果與分析

本文實(shí)驗(yàn)的操作系統(tǒng)為Ubuntu18.02,CPU為intel-i7-10875,GPU為NVIDIA GeForce RTX 3080,并基于遷移學(xué)習(xí)的策略使用預(yù)訓(xùn)練權(quán)重進(jìn)行訓(xùn)練,加速模型的收斂。訓(xùn)練的學(xué)習(xí)率為0.0005,Batchsize為32,epoch為100,并使用adam作為優(yōu)化器。

3.1 評(píng)價(jià)指標(biāo)

本文采用目標(biāo)檢測(cè)任務(wù)常用的精確率(Precision)、召回率(Recall)均值平均精度(mAP)作為評(píng)價(jià)指標(biāo),其中Precision表示模型預(yù)測(cè)為正樣本且真實(shí)標(biāo)注為正樣本占模型預(yù)測(cè)為正樣本的整體比例,Recall表示模型預(yù)測(cè)為正樣本且真實(shí)標(biāo)注為正樣本占全部正樣本的比例,[14]具體的計(jì)算方法如式(4)—(5)所示:

(4)

(5)

式中,TP—模型預(yù)測(cè)為正例且真實(shí)標(biāo)注為正例;FP—模型預(yù)測(cè)為正例而真實(shí)標(biāo)注為負(fù)例;FN—模型預(yù)測(cè)為負(fù)例而真實(shí)標(biāo)注為正例。AP值用來(lái)評(píng)估某一類目標(biāo)的預(yù)測(cè)效果,[15]一般是Precision的值在(0,1)區(qū)間內(nèi)對(duì)Recall進(jìn)行積分獲得的值,mAP為多類目標(biāo)的AP均值,具體計(jì)算方法如式(6)—(7)所示。

(6)

(7)

式中,n—目標(biāo)類別數(shù);i—當(dāng)前類別的序號(hào)。

3.2 消融實(shí)驗(yàn)

為證明本文所提方法的有效性,選取原始的YOLOX作為基準(zhǔn),并在此基礎(chǔ)上添加本文所提不同模塊進(jìn)行驗(yàn)證,具體結(jié)果見(jiàn)表1。根據(jù)結(jié)果可以發(fā)現(xiàn)原始的YOLOX在本數(shù)據(jù)集上的精確率和召回率分別達(dá)到了89.21%和84.17%,均值平均精度達(dá)到了86.91%。在添加了本文提出的mAP模塊后均有所提升,所提最終算法mAP達(dá)到了93.5%,證明本文所提方法在泵站場(chǎng)景下安全風(fēng)險(xiǎn)檢測(cè)任務(wù)的可行性。

表1 安全風(fēng)險(xiǎn)檢測(cè)算法消融實(shí)驗(yàn)性能評(píng)估表

3.3 對(duì)比實(shí)驗(yàn)

3.3.1定性分析

為驗(yàn)證本文所提算法H-YOLOX算法的性能,本文選擇與目前常見(jiàn)效果較好的YOLOv5、YOLOX和YOLOv7三種常見(jiàn)的目標(biāo)檢測(cè)算法在相同的實(shí)驗(yàn)環(huán)境和超參數(shù)設(shè)置中進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)采用的數(shù)據(jù)集為本文所建數(shù)據(jù)集,訓(xùn)練的epoch均為100,具體效果如圖6所示。由圖中可以看出,在安全帽檢測(cè)、人員入侵檢測(cè)和煙火檢測(cè)中,其他的算法均有漏檢目標(biāo)的情況出現(xiàn),因此足以證明本文所提的方法在復(fù)雜的泵站場(chǎng)景下安全風(fēng)險(xiǎn)檢測(cè)效果要優(yōu)于其他常見(jiàn)的目標(biāo)檢測(cè)算法。

圖6 不同算法效果對(duì)比圖

3.3.2定量分析

為更好的分析本文方法與常見(jiàn)的目標(biāo)檢測(cè)算法的性能對(duì)比,我們選用mAP作為評(píng)價(jià)指標(biāo)來(lái)衡量安全風(fēng)險(xiǎn)檢測(cè)的準(zhǔn)確率,最終本文所提方法mAP達(dá)到了93.5%,損失Loss隨epoch變化如圖7所示。

圖7 訓(xùn)練損失折線圖

同時(shí),與常見(jiàn)的目標(biāo)檢測(cè)算法YOLOv5、YOLOX和YOLOv7等算法相比,mAP均有不同程度的提高,性能對(duì)比結(jié)果見(jiàn)表2,足以證明本文所提方法的優(yōu)越性,能夠適用于泵站復(fù)雜場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)問(wèn)題。

表2 本文模型與主流目標(biāo)檢測(cè)模型性能對(duì)比表

4 結(jié)論

為解決泵站場(chǎng)景下遠(yuǎn)距離小尺寸目標(biāo)和特征遮擋給安全風(fēng)險(xiǎn)檢測(cè)技術(shù)帶來(lái)的檢測(cè)精度不佳,本文以YOLOX目標(biāo)檢測(cè)模型為基礎(chǔ),提出一種泵站場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)算法,在特征提取網(wǎng)絡(luò)中引入梯度流特征提取模塊和坐標(biāo)注意力機(jī)制,同時(shí)在特征融合網(wǎng)絡(luò)中引入BiFPN結(jié)構(gòu)提升不同尺寸目標(biāo)特征的融合效果。通過(guò)對(duì)比實(shí)驗(yàn)可知,本文所提算法能夠有效解決泵站場(chǎng)景下的安全風(fēng)險(xiǎn)檢測(cè)問(wèn)題,最終mAP達(dá)到了94.78%,后續(xù)將考慮設(shè)計(jì)更加輕量化的模型來(lái)提升安全風(fēng)險(xiǎn)檢測(cè)的速度。

猜你喜歡
特征提取泵站特征
張家邊涌泵站建設(shè)難點(diǎn)及技術(shù)創(chuàng)新實(shí)踐
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
2016年河南省己建成泵站數(shù)量
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
全省已建成泵站數(shù)量
河南省2014年已建成泵站數(shù)量
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 久久性妇女精品免费| 欧美一区二区三区不卡免费| AV无码无在线观看免费| 欧洲高清无码在线| 国产乱子伦无码精品小说| 亚洲香蕉伊综合在人在线| 欧美日本不卡| 乱人伦中文视频在线观看免费| 2021国产精品自产拍在线观看| 91在线精品麻豆欧美在线| 毛片在线播放a| 亚洲天堂在线视频| 亚洲 日韩 激情 无码 中出| 青青青国产在线播放| 九九九国产| 免费国产小视频在线观看| 自慰高潮喷白浆在线观看| 精品国产成人a在线观看| 高清大学生毛片一级| 亚洲精品无码久久毛片波多野吉| 日韩国产另类| 国产精品私拍99pans大尺度 | 少妇露出福利视频| 国产一级视频久久| 亚洲日韩国产精品综合在线观看| 亚洲第一视频区| a级毛片视频免费观看| 色综合五月婷婷| aaa国产一级毛片| 国内精品91| 超清人妻系列无码专区| 国产成人精品视频一区二区电影| 亚洲欧美在线看片AI| 国产欧美亚洲精品第3页在线| 亚洲视频一区在线| 欧美成人午夜视频免看| 午夜一区二区三区| 香蕉色综合| 中文字幕av一区二区三区欲色| 欧美日韩午夜| 青青草原国产免费av观看| 久久久精品国产SM调教网站| 美女视频黄频a免费高清不卡| 久久精品亚洲中文字幕乱码| 国产靠逼视频| 欧美午夜久久| 欧美日韩国产在线人成app| 视频国产精品丝袜第一页| 国产真实自在自线免费精品| 亚洲综合日韩精品| 久青草网站| 亚洲精品在线影院| 国产在线精品99一区不卡| 天天综合色天天综合网| 亚洲国产精品一区二区第一页免 | 婷婷五月在线视频| 成人无码区免费视频网站蜜臀| 亚洲区视频在线观看| 亚洲男人天堂2018| 69精品在线观看| 亚洲AV一二三区无码AV蜜桃| jijzzizz老师出水喷水喷出| 日韩精品亚洲精品第一页| 永久在线精品免费视频观看| 自偷自拍三级全三级视频 | 亚洲a级在线观看| 亚洲天堂免费| 东京热高清无码精品| 伊人久久婷婷| 国产精品女熟高潮视频| 女同久久精品国产99国| 自慰网址在线观看| 伊人蕉久影院| 国产69精品久久| 永久免费av网站可以直接看的| 在线欧美一区| 欧洲在线免费视频| 在线无码九区| 中文字幕2区| 亚洲视频四区| 成人年鲁鲁在线观看视频| 久久精品亚洲专区|