999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度特征圖的變電站設(shè)備缺陷遞進檢測

2025-08-06 00:00:00張可黃文禮侯仕杰代北敏陳思寶
計算技術(shù)與自動化 2025年2期
關(guān)鍵詞:缺陷檢測目標(biāo)檢測

摘 要:針對現(xiàn)有變電站設(shè)備缺陷檢測中目標(biāo)尺度差異大、背景復(fù)雜等問題,提出了一種基于多尺度特征圖的變電站設(shè)備缺陷遞進檢測方法。首先通過深度殘差網(wǎng)絡(luò)提取變電站設(shè)備缺陷圖像的原始特征圖,利用多尺度特征聚合方法構(gòu)建多尺度特征圖;其次對缺陷目標(biāo)進行兩階段的遞進檢測,第一階段對缺陷目標(biāo)進行前景和背景的二分類與坐標(biāo)回歸,第二階段對前景目標(biāo)的具體缺陷類別進行判斷和進一步坐標(biāo)回歸。本文方法同時將第一階段的類別結(jié)果作為語義信息對特征圖添加空間注意力機制,能夠?qū)Σ煌叨鹊奶卣鲌D的特征值進行自適應(yīng)加權(quán),增強前景區(qū)域的特征響應(yīng),同時抑制背景區(qū)域,從而增強了缺陷檢測方法的魯棒性和泛化能力。在真實變電站設(shè)備缺陷圖像數(shù)據(jù)集上的實驗結(jié)果表明所提方法具有良好的檢測性能。

關(guān)鍵詞:缺陷檢測;目標(biāo)檢測;遞進檢測;變電站設(shè)備;多尺度特征圖

中圖分類號:文獻標(biāo)識碼:A

Substation Equipment Defect Progressive Detection

Based on Multi scale Feature Map

ZHANG Ke1,2, HUANG Wenli1,2, HOU Shijie1,2, DAI Beimin3, CHEN Sibao3

(1.Anhui NARI Jiyuan Power Grid Technology Co., Ltd., Hefei,Anhui 230088, China;

2. State Grid Electric Power Research Institute(NARI Group Corporation), Nanjing, Jiangsu 211000, China;

3. School of CSE, Anhui University, Hefei,Anhui 230601, China)

Abstract:Aiming at the problem of poor robustness of existing detection methods when object scale is variant and background is complex, this paper proposes a progressive detection method for substation equipment defects based on multi scale feature maps. Firstly, original feature maps of substation equipment defect images are extracted by deep residual network, and multi scale feature maps of substation equipment images are constructed by multi scale feature aggregation method. Secondly, the detection process goes through two stages. The first stage is the classification of foreground and background of defect objects and coordinate regression. The second stage determines the specific category of foreground objects and further performs coordinate regression. The first stage category results are used as semantic information to add a spatial attention mechanism on the feature map, which can adaptively weight the feature values of feature maps of different scales to enhance the feature response of the foreground area, while suppressing the background area, thereby enhancing the robustness and generalization ability of the proposed method. Experimental results on real substation equipment defect image data set show that the proposed method has better detection performance.

Key words:defect detection; object detection; progressive detection; substation equipment; multi scale feature map

變電站日常安全檢查直接關(guān)系到電網(wǎng)的安全運行,隨著智慧電力不斷建設(shè)[1],基于計算機視覺的變電站設(shè)備缺陷自動檢測的研究正逐步深入[2-4]。

針對變電站設(shè)備的缺陷檢測不同于常規(guī)的目標(biāo)檢測問題,尤其是對變電站設(shè)備的非正常狀態(tài)、異物、破損等缺陷的檢測。首先,圖片拍攝角度和距離在不同的檢測點有較大差異,導(dǎo)致圖片中的缺陷大小有明顯差異,且缺陷本身也有較大差異;其次,變電站的背景信息相對于自然場景圖片較為復(fù)雜,充斥著各種電力設(shè)施;最后,出于電力安全因素,往往要求在保證缺陷檢測準(zhǔn)確率的基礎(chǔ)上盡可能少地出現(xiàn)缺陷漏檢的情況。這些都給變電站設(shè)備缺陷自動檢測帶來了較大困難。

目前的變電站設(shè)備缺陷檢測方法主要有傳統(tǒng)方法和基于深度神經(jīng)網(wǎng)絡(luò)方法兩大類。傳統(tǒng)方法主要利用圖像處理技術(shù)[5-7],設(shè)計各種特征算子以提取特征(如尺度不變特征變換 [8]和加速穩(wěn)健特征[9]等),以及設(shè)計各種分類模型[10-15]。而深度神經(jīng)網(wǎng)絡(luò)方法則并不顯性地設(shè)計特征算子。LF Net[16]通過孿生網(wǎng)絡(luò)(Siamese Network)[17]來訓(xùn)練整個神經(jīng)網(wǎng)絡(luò)。Wang等[18]聯(lián)合應(yīng)用孿生網(wǎng)絡(luò)[19]和Deepcompare[20]學(xué)習(xí)圖像間非線性距離矩陣,實現(xiàn)圖像間的特征匹配。樊瑋等[21]使用VGG16作為網(wǎng)絡(luò)的基本模型,采用孿生網(wǎng)絡(luò)結(jié)構(gòu),分別從參考圖像和查詢圖像中提取不同網(wǎng)絡(luò)層的深度特征拼接后送入一個編碼層,檢測出變化區(qū)域。更多的方法[22]考慮到更深更復(fù)雜的深度模型結(jié)構(gòu)以及更好地設(shè)計損失函數(shù)。LIFT[23]嘗試通過可微運算方式將檢測器、方向估計器和描述器三個部分組合起來,訓(xùn)練一個端到端的網(wǎng)絡(luò)。SuperPoint[24]訓(xùn)練一個由共享的特征編碼器和兩個解碼器組成全卷積網(wǎng)絡(luò),分別用于特征檢測和描述,最后聯(lián)合兩個可學(xué)習(xí)的編碼器實現(xiàn)圖像目標(biāo)檢測。在這些方法中,傳統(tǒng)方法需要人工提取特征,泛化能力弱,正逐漸被深度學(xué)習(xí)方法替代。而目前深度方法在應(yīng)用于變電站設(shè)備缺陷檢測時,受變電站復(fù)雜背景以及缺陷目標(biāo)尺度差異的影響較大,難以取得理想的效果。

為了提升變電站設(shè)備缺陷自動檢測的性能,本文主要工作如下:首先,構(gòu)建多尺度特征圖,隨著網(wǎng)絡(luò)層數(shù)的遞增,高層特征圖主要表達的是高層語義特征。底層特征圖分辨率更高,具有更多的細節(jié)信息,小目標(biāo)在其中的響應(yīng)更加明顯。高層特征圖分辨率較小,具有更大的感受野,大目標(biāo)的響應(yīng)更加明顯。通過提取融合不同尺度上的特征圖,能充分描述圖像底層的視覺特征和高層的語義特征,同時由于高層圖中背景區(qū)域的特征響應(yīng)較小,所以在融合過程中能夠在一定程度上抑制底層特征圖中冗余的背景區(qū)域的特征響應(yīng),克服檢測噪聲。這對復(fù)雜的變電站設(shè)備缺陷存在的不同尺度問題較為有效。其次,在多尺度特征圖基礎(chǔ)上進行由粗到細的遞進檢測,同時添加空間注意力機制,降低模型訓(xùn)練與檢測難度,提升模型魯棒性與泛化能力。最后,本文設(shè)計了對應(yīng)的局部和全局損失函數(shù),其中局部損失函數(shù)為第一階段和第二階段各自的損失函數(shù),全局損失函數(shù)為兩者的加權(quán)和,通過全局損失函數(shù)實現(xiàn)對網(wǎng)絡(luò)的端到端訓(xùn)練,訓(xùn)練效率高且模型各部分參數(shù)更加協(xié)調(diào)。

1 多尺度特征圖遞進檢測網(wǎng)絡(luò)

本文提出的用于變電站設(shè)備缺陷視覺檢測的網(wǎng)絡(luò)框架借鑒了ResNet[25]的殘差學(xué)習(xí)思想,重新構(gòu)建了多尺度特征提取網(wǎng)絡(luò),通過變電站設(shè)備缺陷圖像[26]的多尺度特征提取,將底層小尺度特征和高層大尺度特征進行特征融合,提高網(wǎng)絡(luò)模型的表達能力。所提多尺度特征圖遞進檢測網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

該多尺度特征圖遞進檢測網(wǎng)絡(luò)首先基于ResNet網(wǎng)絡(luò)提取原始特征圖,用于第一階段的檢測,使用卷積的方式獲取二分類的特征分類結(jié)果與初始坐標(biāo)回歸結(jié)果。其次對ResNet原始特征圖進行重新構(gòu)建,通過反向連接構(gòu)建新的多尺度特征圖,增強特征圖的魯棒性,并且添加空間注意力機制,提升模型的泛化能力。最后,在新的多尺度特征圖上進行第二階段的檢測,并復(fù)用第一階段的檢測結(jié)果,實現(xiàn)遞進式的精確缺陷目標(biāo)分類與定位。

1.1 深度特征提取與多尺度特征圖構(gòu)建

本文采取深度殘差網(wǎng)絡(luò)ResNet來提取深度特征。其主要思想是在網(wǎng)絡(luò)中增加直連通道,并保留傳統(tǒng)網(wǎng)絡(luò)層一定比例的輸出,允許原始輸入特征直接傳到后面的層中。ResNet中的殘差單元可以表示為:

yl=h(xl)+F(xl,Wl), xl+1=f(yl)(1)

式中,xl和xl+1分別表示第l個殘差單元的輸入和輸出,F(xiàn)是殘差函數(shù),h(xl)表示學(xué)習(xí)到的殘差特征,Wl表示卷積網(wǎng)絡(luò)每層特征權(quán)值,而h(xl)=xl表示恒等映射,f(·)是ReLU激活函數(shù)。淺層l到深層L的學(xué)習(xí)特征為:

xL=xl+∑Li=lF(xi,Wi)(2)

本文所提的多尺度特征圖網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。對于ResNet,使用Conv1,Conv2_x,Conv3_x,Conv4_x和Conv5_x的每個階段最后殘差塊的特征激活輸出xl+1,對應(yīng)的特征圖表示為{C1,C2,C3,C4,C5}。本文的方法在構(gòu)建特征圖的過程中同時保留低層次和高層次特征,在不同尺度上映射對應(yīng)的特征響應(yīng)圖。首先,對卷積層C進行3×3卷積得到特征圖,將頂層特征圖進行上采樣與上層特征圖相加得到多尺度特征圖Q,對每個尺度圖上進行1×1卷積操作,進行特征圖通道壓縮,使得每個尺度的特征圖通道保持一致,并減少參數(shù)量,生成最終的多尺度空間上的特征圖P。本文方法與文獻[30]FPN的區(qū)別在于,先使用3×3的卷積層對特征圖進行通道數(shù)修正,經(jīng)過上采樣與特征圖相加之后,再進行1×1卷積,最后獲得多尺度特征圖,并融合空間注意力機制,使得多尺度特征包含的信息更加豐富。

1.2 遞進目標(biāo)檢測

第一階段目標(biāo)分類與回歸在原始ResNet的輸出特征圖{C1,C2,C3,C4,C5}上進行,使用共享的3×3分類卷積層與回歸卷積層{CN1,LN1},獲得每個特征圖上對應(yīng)的分類與回歸結(jié)果。其中CN1是輸出通道數(shù)為2的卷積層,用于預(yù)測目標(biāo)屬于前景和背景的概率,LN1是輸出通道數(shù)為4的卷積層,用于預(yù)測目標(biāo)的坐標(biāo)偏移量。

對分類結(jié)果進行softmax運算,此時2個通道分別對應(yīng)物體屬于前景和背景的概率。之后單獨取出前景概率分布圖{P1,P2,P3,P4,P5}。同時基于圖2中的操作和原始特征圖{C1,C2,C3,C4,C5}進行深度多尺度特征圖構(gòu)建,獲得{D1,D2,D3,D4,D5}。將對應(yīng)尺度的特征響應(yīng)圖與概率分布圖進行點乘操作,獲得用于第二階段的多尺度特征響應(yīng)圖{E1,E2,E3,E4,E5}。以E1為例,則:

P1=soft max (CN1(C1))(3)

E1=∑cP1·D1c(4)

這里·表示點乘,表示特征圖D1的第個通道。

與第一階段的檢測過程類似,第二階段檢測基于特征響應(yīng)圖{E1,E2,E3,E4,E5},通過共享的3×3卷積層{CN2,LN2}進行分類與檢測。第二階段的檢測結(jié)果需要建立在第一階段檢測結(jié)果的基礎(chǔ)上。具體來說,對于分類過程,在第一階段中被判為背景類的目標(biāo)將不再參與第二階段的分類損失計算,而被判為前景類的物體將進行具體的多類別分類。對于檢測過程,初始坐標(biāo)修正為第一階段坐標(biāo)回歸進行解碼后的結(jié)果,以此重新計算與真實坐標(biāo)之間的回歸損失。

通過對變電站設(shè)備缺陷圖像的第一階段檢測后,可以獲得原始不同尺度特征圖所對應(yīng)的分類結(jié)果響應(yīng)圖,分類結(jié)果特征圖是一個雙通道的特征圖,其大小與被卷積的特征響應(yīng)圖相同,反映了特征響應(yīng)圖中不同區(qū)域?qū)儆谇熬盎虮尘暗母怕省Mㄟ^softmax運算進行得分歸一化,可以獲得特征圖每個特征點屬于前景的概率P。為了更好地利用第一階段檢測中的分類信息,本文采用空間注意力的思想,將P與構(gòu)建出的深度多尺度特征響應(yīng)圖D進行通道點乘操作,增強D中正樣本所屬區(qū)域的特征響應(yīng),同時抑制負樣本所屬區(qū)域的特征響應(yīng)。

2 損失函數(shù)設(shè)計

兩階段的檢測網(wǎng)絡(luò)以遞進和全卷積的方式實現(xiàn)目標(biāo)分類與回歸,以第二階段的結(jié)果為最終結(jié)果。檢測網(wǎng)絡(luò)將一張待檢測圖像作為網(wǎng)絡(luò)輸入,通過ResNet網(wǎng)絡(luò)獲得第一階段的特征圖,通過第一階段檢測網(wǎng)絡(luò)進行第一階段的檢測。之后通過空間注意力機制和多尺度特征圖構(gòu)建第二階段的特征圖,并對第一階段的檢測結(jié)果進行解碼,在此基礎(chǔ)上進行第二階段的檢測。因此,本文同時使用第一階段的檢測損失函數(shù)Losss1和第二階段的檢測損失函數(shù)Losss2。

第一階段損失函數(shù)由前景和背景的二分類損失lossc1和坐標(biāo)回歸損失lossl1構(gòu)成:

Losss1=lossc1+lossl1(5)

式中,lossc1為二分類交叉熵損失函數(shù):

lossc1=1N∑iyilog(y′i)+(1-yi)log(1-y′i)(6)

式中,i表示第i個待檢測候選區(qū)域,yi為真實類別標(biāo)簽,yi′為預(yù)測類別標(biāo)簽,N1為參與第一階段檢測的候選區(qū)域數(shù)目。lossl1為smoothL1損失函數(shù),本文使用了四點參數(shù)化計算的方式,分別回歸中心點的相對偏移與長寬的自然對數(shù)值:

tx=(x-xa)/wa, ty=(y-ya)/ha

tw=log(w/wa), th=log(h/ha)

t*x=(x*-xa)/wa, t*y=(y*-ya)/ha

t*w=log(w*/wa), th=log(h*/ha)(7)

式中,x,xa,x*分別表示預(yù)測信息、候選區(qū)域信息和真實坐標(biāo)信息中的中心點橫坐標(biāo);y,ya,y*分別表示預(yù)測信息、候選區(qū)域信息和真實坐標(biāo)信息中的中心點縱坐標(biāo);w,wa,w*分別表示預(yù)測信息、候選區(qū)域信息和真實坐標(biāo)信息中的寬;h,ha,h*分別表示預(yù)測信息、候選區(qū)域信息和真實坐標(biāo)信息中的高;t表示預(yù)測橫坐標(biāo)相對于候選框橫坐標(biāo)的偏移距離,tx和ty分別代表預(yù)測橫坐標(biāo)和縱坐標(biāo),t*表示真實框相對于候選框的偏移距離,t*x和t*y分別代表真實橫坐標(biāo)和縱坐標(biāo)。然后定義坐標(biāo)回歸損失lossl1如下:

lossl1=0.5x2ifxlt;1

x-0.5otherwise(8)

式中,x表示真實平移縮放參數(shù)與預(yù)測平移縮放參數(shù)的差值,例如tx-t*x。

第二階段的檢測損失函數(shù)Losss2同樣由兩部分構(gòu)成,分別為多分類的交叉熵損失lossc2和坐標(biāo)回歸損失lossl2:

Losss2=lossc2+lossl2(9)

所使用的計算方法與第一階段損失函數(shù)基本類似,因此不再贅述。不同的是,在計算多分類損失時,在第一階段中被判定為背景類的目標(biāo)不再參與此時的損失計算,能夠有效緩解正負樣本之間的不平衡問題,降低訓(xùn)練難度。在計算坐標(biāo)回歸損失時,基于第一階段的坐標(biāo)回歸結(jié)果和式(7)進行解碼操作,獲得此時的目標(biāo)坐標(biāo),在此基礎(chǔ)上進行新一輪的坐標(biāo)回歸,從而獲得更精確的結(jié)果。

最終網(wǎng)絡(luò)框架訓(xùn)練時所使用的端到端損失Losstotal為兩個階段損失的加權(quán)和:

Losstotal=λ1Losss1+λ2Losss2(10)

其中λ1,λ2均為大于0且小于等于1的調(diào)和系數(shù),本實驗中均設(shè)為1。

3 完整檢測框架

本文所提的基于多尺度特征圖的變電站設(shè)備缺陷遞進檢測的完整框架主要包括三個部分:一是圖像深度特征提取;二是多尺度特征圖構(gòu)建;三是缺陷目標(biāo)遞進檢測分類。完整的檢測框架如圖3所示。

本文采用的多級遞進檢測包含兩個階段:第一階段檢測對物體進行二分類判斷(前景或背景);第二階段檢測僅對第一級檢測中判定為前景的目標(biāo)進行具體的多分類判定。本文所提出的兩階段檢測與Faster RCNN不同,其中不包含對每個樣本的單獨特征提取與池化操作,而是直接通過卷積層獲得完整的特征圖,從而加快檢測速度。兩階段檢測都包含坐標(biāo)回歸過程,且第二階段回歸建立在第一階段回歸的基礎(chǔ)上。通過第一階段檢測能夠過濾掉候選區(qū)域中大部分簡單背景樣本,從而有效平衡后續(xù)檢測中的正負樣本數(shù)量,降低訓(xùn)練難度。

第一階段檢測使用ResNet所抽取的不同分辨率特征圖作為輸入,對候選目標(biāo)區(qū)域進行二分類判別和坐標(biāo)回歸。在第二階段檢測中,考慮到變電站內(nèi)設(shè)備缺陷圖片的多樣性與拍攝位置的不同,相同或者不同的缺陷目標(biāo)在圖片中會呈現(xiàn)多種尺度。為了解決此問題,本文利用ResNet所抽取到的原始不同分辨率的特征圖,通過特征聚合方法構(gòu)建變電站設(shè)備缺陷圖像多尺度特征圖,實現(xiàn)有效的多尺度目標(biāo)檢測。通過第一階段檢測的輸出結(jié)果,可以獲得每個候選目標(biāo)區(qū)域的分類結(jié)果C1以及前景目標(biāo)的回歸坐標(biāo)L1。對C1進行分析,可以獲得每個候選區(qū)域?qū)儆谇熬盎蛘弑尘啊τ诒尘皡^(qū)域,不再對其進行判別和坐標(biāo)回歸。對于前景區(qū)域,在當(dāng)前特征圖上進行第二次類別檢測C2與坐標(biāo)回歸L2。相比于第一階段檢測,第二階段檢測同樣是使用卷積方式實現(xiàn),不同的是此次分類是針對前景類別的多分類,用于具體判斷前景區(qū)域?qū)儆谀囊环N缺陷類別。坐標(biāo)回歸過程建立在第一階段檢測的基礎(chǔ)上,先通過坐標(biāo)解碼獲得第一次檢測中的坐標(biāo)結(jié)果。在此基礎(chǔ)上,進行二次坐標(biāo)回歸,提升回歸精度。

4 實驗結(jié)果及分析

4.1 數(shù)據(jù)集

本文針對變電站設(shè)備缺陷檢測任務(wù)的需求,采集了真實變電站場景的正常設(shè)備圖像與缺陷設(shè)備圖像數(shù)據(jù)集并進行標(biāo)注,包含絕緣子、表針、閘刀等6類設(shè)備,每類采集了1000張圖像。圖像采集背景為不同時間點同一位置。拍攝角度存在小角度偏移,圖像數(shù)據(jù)也包含光照變化、遮擋、形變等情況。圖4顯示了真實場景下變電站設(shè)備6類正常圖像示例。圖5顯示了真實場景下變電站設(shè)備6類缺陷圖像示例。

為了達到較好的測試效果,對數(shù)據(jù)集進行了鏡像操作,擴充了數(shù)據(jù)集,總計12000個圖像樣本。本文采用4/5的圖像數(shù)據(jù)作為訓(xùn)練集,剩下1/5的數(shù)據(jù)作為測試集。

4.2 網(wǎng)絡(luò)訓(xùn)練分析

本文的實驗環(huán)境為搭載Ubuntu系統(tǒng)與4張NVIDIA1080Ti顯卡的服務(wù)器,網(wǎng)絡(luò)backbone為ResNet101,使用Adam 優(yōu)化策略進行參數(shù)更新。圖6顯示了網(wǎng)絡(luò)第二階段絕緣子圖像的特征響應(yīng)圖示例。由圖6所示結(jié)果可見,網(wǎng)絡(luò)對于絕緣子附近區(qū)域的響應(yīng)度更高,從而印證網(wǎng)絡(luò)提取特征的有效性,構(gòu)建的多尺度特征響應(yīng)圖使得絕緣子特征更加明顯,并能一定程度上抑制雜草等背景的干擾。

4.3 定量結(jié)果分析

定量實驗結(jié)果分析中,本文采用的評價指標(biāo)是均值平均精度(mean Average Precision, mAP)。mAP是目標(biāo)檢測中衡量識別精度的指標(biāo),C個類別物體檢測中,每一個類別都可以根據(jù)召回率(Recall) 和查準(zhǔn)率(Precision) 繪制一條Precision Recall曲線(PR曲線),該曲線下的面積即為AP。mAP是多個類別AP的平均值。表1展示了本文算法對比單尺度特征進行缺陷檢測的結(jié)果。單尺度特征圖直接使用ResNet 網(wǎng)絡(luò)的Conv5層輸出。考慮時效性,本文主要對比單尺度ResNet34、ResNet50和ResNet101。從表1可以看出,基于殘差網(wǎng)絡(luò)多尺度融合的特征圖具有更高的準(zhǔn)確性。

為了驗證文中所提出的空間注意力機制和兩階段遞進檢測的有效性,本文分別進行了消融實驗。實驗結(jié)果如表2和表3所示。

從表2和表3可以看出,空間注意力機制與兩階段遞進檢測分別對檢測結(jié)果有不同程度的提升。其原因在于空間注意力機制能增強前景目標(biāo)區(qū)域的特征,并且抑制背景區(qū)域的噪聲影響。在使用ResNet50和ResNet101作為特征提取網(wǎng)絡(luò)時,使用空間注意力機制時mAP分別提升了0.3%和1.2%。而兩階段遞進檢測的作用在于通過第一階段的二分類檢測,有效地過濾掉大量的簡單背景樣本,從而平衡參與第二階段分類損失計算的正負樣本數(shù)量,避免因簡單樣本過多導(dǎo)致的梯度累積,降低訓(xùn)練難度,從而達到更好的訓(xùn)練效果。

本文針對不同單階段檢測方法和雙階段檢測方法進行對比實驗,并記錄其在不同類別的缺陷目標(biāo)上的檢測精度。從表4中可以看出,在所建立的訓(xùn)練集上本文的算法相比SSD和YOLO的mAP精度分別提高了7%和6%,表明了本方法比單階段檢測方法更加有效。同時本文較雙階段檢測方法Faster RCNN(FRCNN)提高了3個百分點,說明在復(fù)雜數(shù)據(jù)集上結(jié)合了多尺度學(xué)習(xí)思想的深度神經(jīng)網(wǎng)絡(luò)性能更優(yōu)異,證明了本文設(shè)計的變電站設(shè)備缺陷遞進檢測方法的有效性。

最后,為了驗證文中所提出方法的先進性與泛化能力,將本文算法與一些常用目標(biāo)檢測方法在公開的文獻[27]VOC2007數(shù)據(jù)集上和變電站數(shù)據(jù)集上分別進行了檢測精度的比較,結(jié)果如表5所示。雖然受限于模型參數(shù)量和網(wǎng)絡(luò)復(fù)雜度,在公開數(shù)據(jù)上的本文方法的效果未取得最好,但是在特定的變電站數(shù)據(jù)集中,本文所提出的方法取得了最好的檢測精度,mAP為72.9%,可以看出文中所提方法的有效性。

4.4 定性結(jié)果分析

為驗證本文所提算法在應(yīng)對變電站內(nèi)復(fù)雜的外部環(huán)境下的設(shè)備缺陷檢測效果,圖8顯示了一些檢測結(jié)果示例。可以看出所提方法在復(fù)雜背景及存在角度偏移的場景中能夠準(zhǔn)確地檢測出變電站設(shè)備缺陷所在位置。當(dāng)同一設(shè)備處于不同狀態(tài)下時,能夠屏蔽樹木、草地等噪聲影響。對同一場景中光照及人員走動造成的目標(biāo)尺度變化等情況同樣能準(zhǔn)確地檢測出缺陷位置。

誤的檢測結(jié)果,表明這些方法容易受到復(fù)雜環(huán)境的干擾,魯棒性較差。對比表計指針變化和變電站內(nèi)異物的實驗結(jié)果可以看到,對于相機拍攝的小角度偏移所帶來的影響,本文算法相比于Faster RCNN更精確,且SSD和YOLO受背景細微變化和角度影響檢測出錯誤區(qū)域。不難發(fā)現(xiàn)SSD和YOLO檢測到正確目標(biāo)的同時也受樹木、陰影等干擾出現(xiàn)誤檢。通過對比,本文算法由于充分利用了深度網(wǎng)絡(luò)多尺度特征,并設(shè)計自適應(yīng)的空間注意力機制與遞進檢測,對噪聲及小角度偏移不敏感,魯棒性好,誤檢率和漏檢率更低。

5 結(jié) 論

提出了一種基于多尺度特征圖的變電站設(shè)備缺陷遞進檢測方法。首先通過深度殘差網(wǎng)絡(luò)的卷積層提取變電站設(shè)備缺陷圖像的原始特征圖,利用多尺度特征聚合方法構(gòu)建變電站圖像多尺度特征圖。然后檢測過程經(jīng)過兩個階段,第一階段對物體進行前景和背景的二分類與坐標(biāo)回歸,第二階段判斷前景物體的具體類別并進一步進行坐標(biāo)回歸。同時將第一階段的類別結(jié)果作為語義信息對特征圖添加空間注意力機制,增強了圖像缺陷檢測方法的魯棒性和泛化能力。在真實變電站設(shè)備缺陷數(shù)據(jù)集上的實驗結(jié)果表明,所提方法優(yōu)于多數(shù)經(jīng)典目標(biāo)檢測方法,提高了變電站設(shè)備缺陷自動檢測的準(zhǔn)確率。

本文方法不足之處在于未能更充分利用第一階段的坐標(biāo)回歸結(jié)果,僅將其作為第二階段坐標(biāo)回歸的初始值。未來可以參照可變性卷積的思想,利用第一階段的坐標(biāo)對后續(xù)卷積過程中的采樣區(qū)域直接進行調(diào)整,通過獲得更加準(zhǔn)確的感受野來提升檢測性能。

參考文獻

[1] 鄭玉平,王丹,萬燦,等.面向新型城鎮(zhèn)的能源互聯(lián)網(wǎng)關(guān)鍵技術(shù)及應(yīng)用[J].電力系統(tǒng)自動化,2019,43(14):2-16.

[2] 熊小萍,許爽,蒙登越,等.基于Faster R CNN的輸電線路缺陷識別模型研究[J].自動化與儀器儀表,2020(3):1-6.

[3] 劉召,張黎明,耿美曉,等.基于改進的Faster R CNN高壓線纜目標(biāo)檢測方法[J].智能系統(tǒng)學(xué)報,2019,14(4):627-634.

[4] 趙小魚,徐正飛,付淵.一種適用于智能變電站巡檢機器人的異物檢測算法研究[J].現(xiàn)代電子技術(shù),2015,38(10):124-127.

[5] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2011: 2564-2571.

[6] 聞新,謝天夏,閆鈞華,等.改進結(jié)構(gòu)相似度的紅外兩波段圖像目標(biāo)配準(zhǔn)[J].儀器儀表學(xué)報,2017,38(12):236-244.

[7] 賈迪,楊寧華,孫勁光.像對匹配的模板選擇與匹配[J].中國圖象圖形學(xué)報,2017,11:1512-1520.

[8] LOWE D G. Distinctive image features from scale invariant keypoints[J].International Journal of Computer Vision, 2004, 60(2): 91-110.

[9] BAY H, ESS A, TUYTELAARS T, et al. Speeded up robust features (SURF)[J].Computer Vision amp; Image Understanding, 2008, 110(3): 346-359.

[10]楚瀛,李帥奇,基于聯(lián)合特征的變電站設(shè)備圖像識別[J]. 電力科學(xué)與技術(shù)學(xué)報. 2018, 33(1): 102-107.

[11]李大湘,吳倩,李娜.基于SIFT與PMK的鞋印圖像比對算法[J].現(xiàn)代計算機,2016(4):64-67.

[12]曲長文,李智,周強,等.基于CCA差異圖融合的SAR圖像變化檢測算法[J].火力與指揮控制,2018,43(12):1-4.

[13]劉曉偉,孟巖,龔浩,等.基于多特征融合的SAR圖像輸電走廊變化檢測[J].電力科學(xué)與技術(shù)學(xué)報,2012(4):59-65.

[14]金立軍,胡娟,閆書佳.基于圖像的高壓輸電線間隔棒故障診斷方法[J].高電壓技術(shù),2013,39( 5) :1040-1045.

[15]崔巨勇,曹云東,王文杰.基于分水嶺與 Krawtchou不變矩相結(jié)合的改進方法在變電站巡檢圖像處理中的應(yīng)用[J].中國電機工程學(xué)報,2015,35( 6) :1329-1335.

[16]ONO Y, TRULLS E, FUA P, et al. LF Net: learning local features from images[C]//Neural Information Processing Sys., 2018: 6237-6247.

[17]XUFENG H, THOMAS L, YANGQING J, et al. Matchnet: unifying feature and metric learning for patch-based matching[C]// IEEE Conference on Computer Vision amp; Pattern Recognition, 2015: 3279-3286.

[18]WANG L , QIAO Y , TANG X . Action recognition with trajectory pooled deep convolutional descriptors[C]// IEEE

Conference on Computer Vision and Pattern Recognition, 2015: 4305-4314.

[19]WANG J, CHEN K, YANG S, et al. Region proposal by guided anchoring[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019: 2965-2974.

[20]SERGEY Z, NIKOS K. Learning to compare image patches via convolutional neural networks[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2015: 4353-4361.

[21]樊瑋,周末,黃睿.多尺度深度特征融合的變化檢測[J]. 中國圖像圖形學(xué)報, 2020, 25(4): 669-678.

[22]BALNTAS V, RIBA E, PONSA D, et al. Learning local feature descriptors with triplets and shallow convolutional neural networks[C]// British Machine Vision Conference, 2016: 119.1-119.11.

[23]YI K M, TRULLS E, LEPETIT V, et al. LIFT: learned invariant feature transform[C]//European Conference on ComputerVision, 2016: 1-15.

[24]DETONE D, MALISIEWICZ T, RABINOVICH A. SuperPoint: self supervised interest point detection and description[C]//2018 IEEE Conference on Computer Vision and Pattern Recognition. Workshops, 2018: 337-349.

[25]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

[26]LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]// IEEE International Conferenceon Computer Vision,2017: 2980-2988.

[27]LIU W , ANGUELOV D , ERHAN D , et al. SSD: single shot multibox detector[C]//European Conference on Computer Vision,2016: 21-37.

[28]REDMON J , FARHADI A . YOLO9000: better, faster, stronger[J]// IEEE Conference on Computer Vision andPattern Recognition, 2017:6517-6525.

[29]REN S , HE K , GIRSHICK R , et al. Faster R CNN: towards real time object detection with region proposal networks[J]//IEEE Transactions on Pattern Analysis amp; Machine Intelligence, 2017, 39(6):1137-1149.

[30]LIN T Y ,DOLLAR P ,GIRSHICK R , et al. Feature pyramid networks for object detection[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2017: 936-944.

[31]HE K , GKIOXARI G , PIOTR DOLLAR, et al. Mask R-CNN[J].IEEE Transactions onPattern Analysis andMachine Intelligence, 2020, 42(2): 386-397.

[32]DAI J , LI Y , HE K , et al. R FCN: object detection via region based fully convolutional networks[C]// NIPS,2016: 379-387.

[33]Z. CAI and N. VASCONCELOS, Cascade R CNN: delving into high quality object detection[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018: 6154-6162.

[34]PAN H, CHEN G, JIANG J. Adaptively dense feature pyramid network for object detection[J]. IEEE Access, 2019, 7: 81132-81144.

猜你喜歡
缺陷檢測目標(biāo)檢測
智能圖像識別的關(guān)鍵算法及其應(yīng)用綜述
汽車動力電池匯流排焊接生產(chǎn)線的激光焊接缺陷檢測與預(yù)警系統(tǒng)研究
時代汽車(2025年14期)2025-08-12 00:00:00
基于機器視覺的電池電芯缺陷智能檢測技術(shù)討論
時代汽車(2025年16期)2025-08-12 00:00:00
基于數(shù)字信號處理技術(shù)的雷達系統(tǒng)目標(biāo)檢測方法研究
主站蜘蛛池模板: 国产精品一区二区在线播放| 久久久久无码国产精品不卡| 国产人人乐人人爱| 中字无码av在线电影| 国产va在线观看免费| 国产人成网线在线播放va| 色精品视频| 久久先锋资源| 中文字幕日韩欧美| 色综合成人| 8090午夜无码专区| 精品无码日韩国产不卡av| 亚洲中文无码h在线观看| 亚洲91在线精品| 国产无码在线调教| 国产成a人片在线播放| 午夜国产精品视频| 欧美一区精品| 国产免费福利网站| 成人免费网站久久久| AV不卡国产在线观看| 99ri国产在线| 久久精品亚洲中文字幕乱码| 999国内精品久久免费视频| 国产aⅴ无码专区亚洲av综合网| 亚洲精品在线影院| 成人免费一区二区三区| 国产成人AV综合久久| 国产欧美一区二区三区视频在线观看| a亚洲天堂| 狠狠色香婷婷久久亚洲精品| 激情無極限的亚洲一区免费 | 欧美综合中文字幕久久| 日韩美毛片| 亚洲一级毛片免费看| 乱系列中文字幕在线视频| 91精品国产一区自在线拍| 精品99在线观看| 国产精品女主播| 婷婷亚洲最大| 亚洲精品无码日韩国产不卡| 亚洲欧洲日韩综合色天使| 永久免费AⅤ无码网站在线观看| 中文字幕啪啪| 午夜久久影院| 伊人成人在线| 精品偷拍一区二区| 国产精品吹潮在线观看中文| 99ri精品视频在线观看播放| 国产特级毛片| 乱人伦视频中文字幕在线| 亚洲国内精品自在自线官| 日韩无码黄色| 又爽又大又光又色的午夜视频| 国产精品亚洲精品爽爽| 亚洲a级毛片| 国产成人一区| 91精品国产情侣高潮露脸| 精品免费在线视频| 久久成人免费| 一级成人a毛片免费播放| 久久综合九色综合97婷婷| 亚洲一区二区在线无码| 99热最新网址| www.国产福利| 污网站在线观看视频| 成人免费午间影院在线观看| 99这里精品| 狼友视频国产精品首页| 另类专区亚洲| 国产成人免费高清AⅤ| 亚洲性视频网站| 欧美激情综合一区二区| 91香蕉视频下载网站| 97人妻精品专区久久久久| 97国内精品久久久久不卡| 精品国产91爱| 99在线视频精品| 国产欧美日韩资源在线观看| 国产在线八区| 国产香蕉国产精品偷在线观看| 蜜桃视频一区二区三区|