999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積注意力的輸電線路防震錘檢測識別

2022-03-30 07:12:44張智堅
計算機測量與控制 2022年3期
關鍵詞:特征檢測模型

李 飛,王 超,浦 東,陳 瑞,張智堅

(1.南京工程學院 人工智能產業技術研究院,南京 211167;(2.南京工程學院 信息與通信工程學院,南京 211167)

0 引言

隨著我國國家電網發展規模的不斷擴大,電力傳輸線途經的地理環境愈加復雜,如沼澤、山脈、湖泊、盆地、水庫等,不僅在建設時存在困難,而且加大了后期維護的難度。遭遇大風等惡劣天氣時,輸電線將發生振動跳躍,導致懸掛點處會反復彎折,進而可能引發斷線,甚至倒塔事件。為了減少導線因外力因素引起的振動,輸電線路中普遍采用防震錘來吸收能量。但是由于風雨侵蝕、金屬生銹等原因,防震錘可能會出現斷裂、滑移等故障,將失去其原有的牽制力。因此及時檢測防震錘發現它的故障并迅速處理,這對電網系統的穩定運行具有深遠意義[1]。

無人機因為其體型小、靈活度高、反應迅速的特點已被廣泛應用于輸電線路的巡檢中。傳統方法對無人機拍攝圖片進行目標物檢測識別時,主要對輸電線路及其部件的顏色、形狀以及邊緣特征進行處理,如Haar特征、線性反投影(LBP,local binary pattern)特征等。文獻[2]提出了基于分塊的Haar新特征以及基于區域的LBP新特征,達到減小漏檢率的目的。文獻[3]結合直方圖均衡化、形態學處理和RGB彩色模型,實現銹蝕缺陷的檢測。文獻[4]通過提取防震錘的Haar特征,并結合AdaBoost算法進行識別,能夠較好地從復雜背景中識別出防震錘。這些傳統的圖像處理算法具備占用資源小等優點,但都是針對某種特定的環境,對于復雜的環境魯棒性較差。

隨著深度學習的快速發展,基于深度學習卷積神經網絡的輸電線路部件檢測已成為熱點。文獻[5]通過構建深度學習的網絡模型提取圖像特征,并設置閾值,判斷原始圖像中防震錘故障的概率。文獻[6]提出結合DeepLabV3+語義分割網絡與防震錘的空間上下文關系對其進行識別與缺陷診斷。文獻[7]采用Faster RCNN卷積神經網絡算法對高重疊防震錘區域進行迭代合并,構建防震錘識別模型。文獻[8]為了實現高壓輸電線路部件的缺陷檢測和故障診斷,提出基于改進YOLOv3的高壓輸電線路關鍵部件目標檢測算法。文獻[9]使用單目標多分類檢測器(SSD,single shot multiBox detector[10])網絡模型進行防震錘的檢測,已取得較好的效果,但是當圖片中存在大量被遮擋的防震錘時,效果較差。

綜合上述的防震錘故障檢測算法來看,深度學習檢測目標的方法已經成為主流,針對上述問題,鑒于ResNet[11]殘差網絡結構比視覺幾何組(VGG,visual geometry group)網絡結構的運算高效且有更強的特征提取能力,所以本文采用ResNet-50作為SSD的骨干網絡,同時在特征提取階段引入文獻[12]提出的注意力機制,它結合了空間注意力和通道注意力機制,能顯著提高圖像分類和目標檢測的正確率。當該算法應用于防震錘實時識別時,識別準確率能達到81%,同時召回率提升了3.7%。

1 相關算法介紹

1.1 SSD目標檢測算法

SSD算法同時借鑒了YOLO[13]和Faster R-CNN[14]網絡的思想并結合兩者的優點。SSD基于前向傳播的卷積神經網絡(CNN,convolutional neural network),使用錨點框[15]的思想:原始圖像經過卷積神經網絡提取特征后,由非極大值抑制(NMS,non-maximum suppression)算法處理,可以直接回歸目標的位置和類別。其網絡結構如圖1所示。

圖1 SSD網絡結構

從圖1可以看出,SSD由VGG16基礎網絡和附加特征層網絡(Extra Feature Layers)兩部分構成。卷積層Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2構成了特征金字塔結構,可以在多個尺度上進行目標檢測。SSD將VGG-16的FC6和FC7全連接層替換成Conv6和Conv7層,并添加Conv8_2、Conv9_2、Conv10_2、Conv11_2四個卷積層來獲取錨點框。這6層的特征圖相加,共得到8732個錨點框,如表1所示。

表1 各卷積層錨點框個數

默認框(default box)生成及篩選:

SSD算法的錨點(anchor)生成默認框(default box)的方法與Faster R-CNN算法基本相同。首先將輸入的圖像劃分成8×8的網格圖像,設置的默認框會將圖像中的目標全部包含進去。通過設置的k值可以計算默認框的大小,計算方式如下:

(1)

其中:Smin=0.2為Conv4_3與原圖尺度的比例大小,Smax=0.9為Conv11_2與原圖尺度的比例大小。設置的錨點框寬高比一般為ar=1,2,3,1/2,1/3從而求得默認框的寬和高,公式如下:

(2)

鑒于過多的默認框會增加計算成本,而有的默認框中并無目標存在,通常采用重疊度(IOU,intersection over union[16])匹配策略對錨點框進行篩選。IOU用來計算預測框與真實框的重合比率,其計算公式如下:

(3)

其中:S預代表的是默認錨點框,S真代表的是真實框。IOU匹配策略中,閾值通常設置為0.5。

1.2 注意力機制

注意力機制的本質就是一組注意力權重系數,即在目標區域中提取對任務目標更有價值的信息,同時抑制或忽略某些無關的細節信息。在深層網絡中,注意力機制可以幫助獲取某些重要的目標特征,即對輸入圖像有針對性主動提取特征中相關性較大的部分,使更有利于網絡模型訓練的特征被學習。目前圖像處理中最常用的注意力機制分為通道注意力(Channel Attention)[17]和空間注意力(Spatial attention)[18]兩部分。

1.2.1 通道注意力

通道注意力關注的是“what”的問題,即關注的是這張圖上哪些內容是有重要作用的。輸入圖像經過由卷積核組成的卷積層得到特征矩陣,卷積核的個數決定了特征矩陣的通道數,但并不是每一個通道對于主要特征的提取都十分有用。通道注意力首先對輸入的特征圖F∈RC×H×W進行最大值池化和平均池化,將兩個特征圖進行維度壓縮,轉發到多層感知器(Multi-Layer Perceptron, MLP),共享全連接,將兩個特征圖基于元素對應相乘的加和操作后,再經過sigmoid函數進行激活,得到含有權重的通道注意力特征圖,其網絡結構如圖2所示。

圖2 通道注意力機制

(5)

1.2.2 空間注意力

空間注意力關注的是“where”的問題,即圖像在整張圖片的哪個位置,空間注意力是通道注意力的補充,通過空間特征的加權來有選擇地聚合各個空間特征。空間注意力首先對輸入不同的特征圖F∈RC×H×W的相同位置進行最大值池化和平均池化,再將特征圖進行維度的壓縮,然后將兩個結果基于通道融合。本文通過一個卷積操作,將結果降維為1個通道。再經過sigmoid函數操作,得到含有權重的空間注意力特征圖Ms(F)∈R1×H×W,方法如下:

Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))=

(6 )

其中:σ為sigmoid操作。本文經過多次實驗對比,選用比3×3卷積核效果更好的7×7卷積核。空間注意力的網絡結構如圖3所示。

圖3 空間注意力機制

2 融合卷積注意力機制的防震錘檢測方法

2.1 整體網絡架構

針對SSD中原來的特征提取網絡對小目標定位能力差,且運算量大,檢測效率較低的問題,本文采用ResNet殘差網絡結構代替SSD的VGG網絡結構作為目標檢測的骨干網絡,并在該骨干網絡中引入融合卷積注意力機制,通過壓縮提取中間特征,提高對物體檢測的精度和速度。整體網絡結構如圖4所示。

圖4 整體網絡結構圖

2.2 特征提取網絡

通常加深網絡模型的層數,可以提高模型的學習能力,但是更深的網絡模型使用隨機梯度下降(SGD,stochastic gradient descent)優化算法會變得更困難,同時會出現梯度消失的情況。為了解決這個問題,文獻[11]提出了殘差網絡ResNet,它在速度和精度上都優于VGG,它的核心是通過建立前面層與后面層之間的“短路連接”(skip connection),有助于訓練過程中梯度的反向傳播,能訓練出更深的網絡。

無人機拍攝輸電線路部件圖像的背景往往十分復雜,可能有些部件粘連在一起,導致部件無法呈現它原本的特征。而淺層網絡VGG對特征抓取能力不夠強,ResNet-50殘差網絡中包含了50個Conv的操作,能更好地提取圖像特征,其結構如表2所示。

表2 ResNet-50網絡結構

輸入圖像在經過卷積和池化后進入第一層殘差塊中,在接下來的每一個階段都要進行經過一次卷積和歸一化的操作,殘差結構塊如圖5所示。

圖5 殘差結構塊

由圖5可以看出,殘差學習塊主要基于自身映射(identity mapping)和殘差映射(residual mapping)兩個映射,輸出是卷積計算部分加上自身映射,relu函數再次激活。VGG網絡用于提取小目標的特征層在傳遞信息時,總會存在特征信息丟失問題,但ResNet殘差結構能直接將輸入信息直接傳遞到輸出,可以解決信息丟失問題,降低學習目標難度,且ResNet模型的參數量比VGG網絡顯著減少,如表3所示。

表3 VGG與ResNet計算過程中參數量對比

表3中可以看出,VGG前向傳播一次需要14.2億次浮點數據計算,而ResNet僅需要3.8億浮點數據計算,運算量約減少了4倍左右,且ResNet網絡模型占用空間更小,有利于更多圖片進行一次性批量訓練。

2.3 卷積注意力機制模塊

為了使圖像的有益信息在整個網絡框架中傳遞,抓取到防震錘的關鍵特征,加強關鍵信息對整張圖片的增益,提高對防震錘的檢測能力。本文在殘差網絡ResNet-50的卷積塊中引入卷積注意力機制,結合通道和空間注意力,記為通道空間注意力模型(CSAM,channel space attention module),如圖6所示。

圖6 通道空間注意力模塊(CSAM)

輸入的中間特征圖為I∈RC×H×W,該特征圖首先輸入通道注意力機制模塊,獲得含有權重的通道注意力特征圖Mc∈RC×1×1,圖中Mul代表對應矩陣元素相乘,將含有權重的通道注意力特征圖與原特征圖相乘,獲得中間特征圖仍然為I∈RC×H×W,然后將此中間特征圖輸入空間注意力機制模塊,獲得含有權重的空間注意力特征圖Ms∈RC×1×1,將獲得含有權重的空間注意力特征圖與上一層特征圖相乘,得到同時獲得空間注意力與通道注意力的特征圖。

上述過程也就是將通道注意力與空間注意力相結合,實現層級間信息的最大化,引導模型在迭代時獲得更顯著的防震錘檢測網絡模型。

CSAM模塊對ResNet-50網絡可能產生不利影響,導致預訓練模型參數不能匹配新的網絡模型,因此CSAM不能直接加在ResNet-50網絡內部。本文將CSAM模塊置于Conv_1(7×7)卷積層之后,即原始輸入300×300的彩色RGB圖像,通過一個7×7卷積層后的特征圖作為CSAM模塊的初始特征圖輸入。由CSAM模塊找出特征圖中任意位置之間的空間依賴,對所有位置上的特征加權和更新。相應兩個位置之間的特征相似性作為權重用來提升獲取主要特征的能力,而不需要關注于它們之間的距離。相較于SENet[19],CSAM模塊通道注意力中加入的全局最大池化在一定程度上彌補了平均值池化AvgPool丟失的信息,且在CSAM模塊空間中,生成的二維空間注意力特征圖使用卷積核大小為7的卷積層進行編碼,避免了選用較小卷積核只關注局部特征的缺點,對保留重要的空間信息很有幫助。同時,本文在Conv4_x的第一個block中將stride設置為1,讓通過Conv4_x之后的特征圖尺寸縮小一半,這樣Conv3_x輸出特征圖尺寸為512×38×38,Conv4_x輸出為1 024×38×38,而不是原來ResNet網絡中的1 024×19×19。本文提出的網絡在ResNet殘差結構之后增添了5個層后,再加上ResNet的Conv4_x的特征圖,一共提取6張特征圖,這些選出的各個層的特征圖將被用于種類和位置的預測,如表4所示。

表4 融合卷積注意力及殘差網絡結構表

3 實驗結果與分析

3.1 實驗平臺

本文實驗所用的軟、硬件平臺參數配置如表5所示。

表5 實驗平臺參數設置

3.2 數據集與實驗參數

3.2.1 數據集

本實驗采用標準數據集與自建數據集結合的方式來測試網絡的性能。標準數據集采用Pascal VOC2007和COCO2017。Pascal VOC2007訓練集共5 011幅,測試集共4 952幅,數據集包含了20個分類且光照、拍攝角度等因素各不相同。COCO2017數據集是一個大型的、豐富物體檢測數據集,由復雜的日常景物截圖組成,共標注了含背景在內81類經過精確分割進行位置標定的目標。訓練集118 287張圖片,驗證集5 000張圖片,測試集40 670張圖片。標準數據集可以作為衡量圖像分類識別能力的基準,對模型的評判具有一定的意義。

自建數據集由某市供電公司提供,共8 295張無人機拍攝的輸電線路高清原始圖,將其中的7 465張圖片作為測試集,830張圖片作為驗證集,其中共包含防震錘的數量為11 876個。

3.2.2 實驗參數

在進行訓練時,所有的批處理(batchsize)均設置為64,初始學習率設置為10-3,動量參數設置為0.9,權重衰減為2×10-4。

對于VOC2007數據集,共訓練40 000次,算法分別在2 640次和3 230次學習率衰減。對比改進前后算法的收斂性,改進后的Resnet結構算法收斂性要略優于原VGG結構算法,同時兩種算法針對VOC2007數據集在26 000次左右均已經趨于收斂,如圖7所示。

圖7 VOC2007數據集上的損失曲線對比

對于COCO數據集,共訓練440,000次,以便得到對該數據集的較好擬合和較佳預測。

3.3 實驗結果及分析

首先在VOC2007數據集上進行測試,其中mAP@0.5為網絡模型在IOU閾值大于0.5時,多類預測時每一類的精度(precison)取平均值。通過表6對比,可以發現采用殘差網絡作為骨干網絡并增加注意力機制CSAM模塊,平均精度提升了1.5%左右,其中鳥類、羊類等特征明顯的有顯著提升,約為5%左右。測試效果如圖8所示。

表6 PASCAL VOC2007 test數據集上的檢測結果

圖 8 本文算法在VOC2007數據集復雜場景的檢測效果

由于算法輕量化提升,整個算法模型的正向推理時間也有所改善,檢測一張圖片時速度約提升了25 ms,如表7所示。

表7 算法檢測時間對比

在COCO2017數據集上進行測試,用以評估算法有效性。從表8中可以見到,本文算法(SSD+ResNet+CSAM)相對于幾種典型算法在檢測精度上均有所提高,效果見圖9。

表8 各算法精度對比

圖9 本文算法在COCO2017數據集復雜場景的檢測效果

在驗證算法的有效性后,將含有防震錘的圖片進行訓練測試,在訓練時采用了遷移學習[20]策略,可以加快防震錘的網絡訓練,優化模型的學習效率,在相同的時間內能訓練出精度更高的網絡。除了采用在標準數據集測試算法模型中的mAP平均準確率評價指標外,還使用了國網運檢部規定的recall召回率來衡量算法模型找出的防震錘相對總數占比,得到的結果如表9所示。

表9 算法改進前后防震錘檢測結果

由表9的對比可以看出,在算法引入融合注意力模塊和殘差結構塊后,識別防震錘的平均準確率達到了81%,相較于原來提升了2.5%。在面對輸電線路復雜背景、光線多變等不良因素影響下,能夠減少圖像信息丟失,提取到圖像更深層特征信息以提高識別精度,識別效果明顯提升。同時提取特征圖經過融合預測,并結合已有的預訓練的卷積神經網絡權重,查全率提升了約3.7%,有效解決了因監視點距離防震錘較遠造成的目標過小從而引起的漏檢問題。選取部分不同背景下無人機拍攝的包含防震錘的輸電線路圖片,圖像實際共拍攝到20個防震錘,原SSD算法[10]識別到13個防震錘目標而本文算法共識別到17個防震錘目標,檢測結果對比見圖10。

圖10 防震錘檢測識別效果

4 結束語

本文提出了一種融合卷積注意力機制和SSD模型相結合的防震錘檢測方法,將傳統SSD模型中主干網絡用ResNet網絡來替代,加快了網絡的推理速度和特征提取能量,同時在模型中融入CSAM注意力模塊,更好地區分圖像前景與背景,訓練時采用了遷移學習大大地減少了網絡的訓練時間。本文提出的檢測方法在標準數據集VOC2007、COCO2017以及自建數據集都有較好的表現,為輸電線路關鍵部件的檢測提供了新的思路方法。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 久久五月视频| 色悠久久久久久久综合网伊人| 欧美国产菊爆免费观看| 午夜视频www| 日本欧美在线观看| 久久精品最新免费国产成人| 福利姬国产精品一区在线| 国产尤物jk自慰制服喷水| 亚洲中文字幕av无码区| 亚洲国产在一区二区三区| 精品久久久久久久久久久| 国产va欧美va在线观看| 国语少妇高潮| 亚洲欧洲日韩综合| m男亚洲一区中文字幕| 国产人免费人成免费视频| 精品无码专区亚洲| 国产粉嫩粉嫩的18在线播放91| 国产夜色视频| 精品国产一区91在线| 全部无卡免费的毛片在线看| 亚洲国语自产一区第二页| 中文成人无码国产亚洲| 国产精品大白天新婚身材| 91色国产在线| 国产在线98福利播放视频免费| 狠狠综合久久| 青青网在线国产| 97精品伊人久久大香线蕉| 国产精品香蕉在线观看不卡| 国产亚洲欧美另类一区二区| 97久久精品人人| 久久黄色影院| 日本三级欧美三级| 国产熟女一级毛片| 国产人人乐人人爱| 国产在线小视频| 国产精品中文免费福利| 久久国产精品麻豆系列| www中文字幕在线观看| 久久亚洲国产一区二区| 国产精品xxx| 久热re国产手机在线观看| 亚洲91精品视频| 国产成人无码综合亚洲日韩不卡| 精品一区二区三区自慰喷水| 欧美一级黄色影院| 久久永久免费人妻精品| 国产免费精彩视频| 自拍偷拍欧美日韩| 久久动漫精品| 九色在线观看视频| 久久精品人妻中文系列| 97久久超碰极品视觉盛宴| 国产91透明丝袜美腿在线| 无码中文字幕乱码免费2| a色毛片免费视频| 亚洲va欧美va国产综合下载| 91精品国产综合久久不国产大片| 在线国产欧美| 婷婷丁香色| 综合社区亚洲熟妇p| 日本精品中文字幕在线不卡| 日韩资源站| 狠狠综合久久| 久久久噜噜噜久久中文字幕色伊伊 | 男女男精品视频| 久久黄色一级视频| 亚洲av无码人妻| 成人韩免费网站| 99伊人精品| 无码粉嫩虎白一线天在线观看| 夜夜操狠狠操| 一级做a爰片久久免费| 国产精品主播| 二级特黄绝大片免费视频大片| 无码aⅴ精品一区二区三区| 久久亚洲美女精品国产精品| 99精品影院| 亚洲伊人天堂| 欧美日韩国产在线人成app| 99精品影院|