999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv4及SR-GAN的絕緣子缺陷辨識研究

2021-12-29 07:00:24高偉周宸郭謀發
電機與控制學報 2021年11期
關鍵詞:特征檢測模型

高偉,周宸,郭謀發

(福州大學 電氣工程與自動化學院,福州 350108)

0 引 言

絕緣子作為輸電線路中起著機械支撐和電氣絕緣作用的部件,是輸電線路中不可缺少的重要組成元件。因絕緣子終年曝露于戶外,極易遭受自然氣候災害、機械負荷及人為因素的破壞,成為易發生缺陷的部件之一[1]。

絕緣子缺陷的快速檢測一直是國內外學術界研究的熱點問題。傳統的檢測方法是人工定期對輸電線路進行巡視和觀測[2]。該方法雖然簡單,但效率不高,而且還需要借助外部儀器測量,如紅外熱成像儀[3]、超聲波儀[4]等,在觀察角度和光線的影響下,很容易出現誤判。

近幾年來,以低成本、易操縱、易懸停為特點的無人駕駛飛機逐漸應用于輸電線路的巡檢工作[5]。無人機巡檢雖然可獲得大量詳實的輸電線路圖像,后期卻需要人工進行圖像的閱讀和分析,工作量巨大。此外,工作人員由于自身專業水平的參差不齊以及視覺疲勞而導致的精力不足,常常容易判斷疏漏。為解決這一問題,機器視覺和機器學習自動辨識圖像成為當前研究的熱門,其本質是利用算法代替人眼對圖像進行閱讀、處理和識別。此方法無需人工處理數據和經驗判斷,提高了巡檢效率,增強了電網的安全可靠性[6-8]。

基于機器視覺的絕緣子缺陷檢測方法需要在圖像中定位絕緣子的位置,并將其與背景進行分割,透過特征提取或規則設定來區分正常和缺陷絕緣子。文獻[9]使用最大類間方差法對絕緣子圖像進行閾值分割,并用絕緣子對應位置的像素點個數來定位絕緣子的缺陷位置。文獻[10]根據絕緣子片在圖像中呈現橢圓形的特點,對分割后的絕緣子片輪廓點進行橢圓擬合,以缺陷絕緣子擬合橢圓誤差大于正常絕緣子作為判據,區分正常與缺陷絕緣子。文獻[11]對絕緣子片進行獨立分割,根據分割后相鄰絕緣子片間的歐氏距離判斷其是否存在缺陷,文獻[12]首先區分出絕緣子片是否重合或分離。對于重合的絕緣子片,沿軸向切成條狀,然后按照分離式絕緣子篇的方式處理,即以固定的歐氏距離分割單個絕緣子片。最后,根據分割后的絕緣子片中心點連線是否為直線,對其缺陷進行判斷?;跈C器視覺的缺陷檢測方法實現簡單,在特定條件下能快速地定位缺陷位置,但也存在局限:算法的準確率嚴重依賴分割結果。由于輸電線路的絕緣子多處于崇山峻嶺之中,背景環境復雜,光線干擾嚴重,這些因素會嚴重影響分割質量。同時,人為確定的缺陷識別特征缺乏魯棒性,當背景環境、拍攝角度、缺陷位置等發生變化時,將導致識別精確度下降。在圖像處理方面,機器學習已經取得了很大的成功,利用機器學習算法來檢測無人機航拍的絕緣子圖像和識別缺陷已逐漸成為電力領域中一種新的巡檢方法。文獻[13]先采用Faster R-CNN算法定位絕緣子位置,接著將AlexNet與VGG16相結合實現絕緣子缺陷檢測。然而,這種定位后再進行缺陷辨識的方法在診斷程序上比較復雜,并且使用了區域建議網絡,使得檢測速度降低,實時性差。文獻[14]采用YOLOv2網絡進行絕緣子定位,對定位的絕緣子通過垂直投影的曲線判別缺陷類型。但是,YOLOv2網絡對同一個預測框內多個目標識別能力差,而且文獻中提出的先定位再分類方案比較復雜,處理時間長。雖然機器學習算法能自適應的從海量的航拍圖像中挖掘絕緣子的表層特征,對噪聲干擾有很強的魯棒性,但還存在諸多問題:

(1)缺陷檢測模型的目標是既能準確地辨識出缺陷又能滿足實時檢測的要求,但事實上,檢測速度與準確率無法同時提升。

(2)在實際的應用中,缺乏足夠數量的缺陷樣本,而充足的正負樣本是保證目標檢測算法精確度的關鍵。

(3)缺陷本身比較微小,在圖像中表現為低分辨率目標,經過多次卷積后在特征圖中存在信息丟失的情況。

針對以上問題,本研究的主要貢獻為:

(1)提出了一種數據增強方法,通過分割圖像前景與新背景融合,豐富訓練數據的背景與數量,保證有足夠的數據用于網絡訓練。

(2)在YOLOv4模型的訓練過程中,通過多階段遷移學習進行訓練并動態改變各階段的學習率,使訓練后的模型整體性能得到提升。

(3)在YOLOv4模型的檢測過程中,通過改變輸出網絡結構提高網絡檢測速度,對難以檢測的圖像通過SR-GAN生成高分辨率圖像后進行檢查,提升檢測的準確性。

1 數據增強

基于深度學習的缺陷檢測算法需要大量帶缺陷的樣本用于訓練。針對缺陷樣本不足的問題,一般使用數據增強技術進行處理。最常見的數據增強方式為對樣本進行縮放、旋轉、翻轉。為了豐富數據樣本背景,需要將分割后的目標融合各種不同的背景。本研究使用的數據增強步驟如圖1所示,分別為:1)圖像預處理;2)前景背景分割;3)前景與新背景融合;4)隨機數據增強。

圖1 缺陷絕緣子樣本的生成過程Fig.1 Generation process of defective insulator samples

無人機拍攝的圖像受制于現場環境條件,往往含有大量的噪聲以及背景帶來的干擾。為排除這些干擾對背景分割的負面影響,需要對圖像進行預處理。一般會采用均值濾波與高斯濾波去除環境噪聲以提高圖像的對比度。接著使用Grabcut算法[15]結合模板匹配算法[16]對圖像進行背景分割以獲得較好的分割效果,步驟如圖2所示。

圖2 分割算法的流程Fig.2 Flow of segmentation algorithm

具體步驟是:1)模板庫構建。模板匹配算法需要先構建一個模板庫,模板庫圖像為從現場圖像中提取出各尺度的絕緣子圖像。2)使用模板匹配算法對輸入圖像進行處理。算法通過遍歷整張圖像,與模板庫圖像進行對比,畫出與模板庫圖像相似部分的前景框??蛑邪壳熬凹吧倭勘尘?,減少大部分背景的影響。3)Grabcut算法分割。對模板匹配畫出的前景框通過Grabcut算法進行分割,得到所需前景的邊界輪廓。最后,將前景圖像放入新背景的隨機位置進行像素融合,融合圖像中的新背景為無人機在現場航拍中的背景圖像。像素點融合的公式如式(1)所示:

(1)

式中:Pnew為新生成圖像某一像素點的像素值;Pb為該像素點處背景圖像像素;Pf為該像素點處前景圖像像素;α,β分別為背景像素融合參數與前景像素融合參數,α,β∈[0,1]且α+β=1。圖像融合參數的設置能使新生成的圖像邊緣更加平滑,融合后的像素點表現更為自然。

2 YOLOv4檢測模型

YOLO(You Only Look Once)模型是一種基于深度學習的目標檢測模型,運行速度較快,在實時系統中被廣泛使用。YOLOv4模型[17]是最新的YOLO系列模型,由Alexey Bochkovskiy等人于2020年提出。與YOLOv3模型[18]相比,YOLOv4的檢測精度與速度分別提升了10%與12%。

YOLOv4的結構如圖3所示,由主干網絡、外加模塊和特征處理層構成。

2.1 主干網絡

YOLOv4的主干網絡為CSPDarkNet53,主要作用是提取目標對象的特征,具體結構如圖3所示。對于一個輸入維度為(416,416,3)的圖像,由于1網絡中每個殘差塊包含一個3×3的卷積核和一個1×1的卷積核,因此特征圖每次經過殘差塊處理后,通道數翻倍,尺寸縮小為原來的二分之一。最后提取網絡最后三層特征圖用于后續處理,這三個殘差塊輸出的特征圖維度分別為(13,13,1 024)、(26,26,512)和(52,52,256)。高層特征圖擁有較大的感受野,但分辨率較低,適合大目標檢測。低層特征圖分辨率高,細節信息表達能力強,適合小目標檢測。

2.2 外加特征處理模塊

YOLOv4模型的外加特征處理模塊為SPPNet與PANet,具體作用如圖3所示。SPPNet僅對殘差塊1輸出的特征進行處理,該特征會輸入四個大小分別為13×13、9×9、5×5和1×1最大池化核,將每個池化后的結果堆疊后再輸出。PANet對高層特征進行上采樣,特征圖的維度變為原來的兩倍后與上一層同維度特征進行堆疊。對低層特征進行下采樣,特征圖的維度變為原來的一半后與下一層同維度特征進行堆疊,輸出包含三個特征層信息的特征供特征處理層使用。經過外加模塊后,YOLOv4模型的三個輸出層構成特征金字塔結構,維度大小分別為(13,13,75)、(26,26,75)、(52,52,75),特征中包含更多的細節和語義信息,能讓特征處理層更好的利用這些特征進行分類及回歸。

2.3 特征處理層

特征處理層對輸出的特征進行解碼,得出預測結果。預測過程如圖3所示。經過YOLOv4網絡處理后,輸出特征的維度為n×n×75,然后將圖片分成n×n的網格,確認每個網格中是否存在物體。存在物體的網格將構成先驗框,最后根據特征中的信息,調整先驗框后即為特征層的預測結果。每個特征層輸出的特征都進行一次解碼,取各特征層預測結果中置信度最大的那個作為最終的預測結果。

圖3 YOLOv4模型結構Fig.3 Model structure of YOLOv4

3 改進YOLOv4的絕緣子缺陷檢測方法

3.1 模型訓練改進

(1)訓練策略

本研究采用多階段遷移學習[19]作為模型訓練的迭代策略。遷移學習是一種將已經訓練好且在其他目標檢測領域辨識效果較好的模型用于另一個領域模型訓練的方法。其通過發掘兩個領域數據之間的內在聯系,能有效減少訓練時間,提高模型辨識準確率。多階段遷移學習示意圖如圖4所示。首先,通過加載一個在ImageNet上使用VOC數據集訓練完成的YOLOv4模型作為預訓練模型。其次,將源域的圖像特征遷移至目標域的圖像,發掘兩個域圖像之間的共同特征,同時將源域模型參數遷移至目標域模型。最后,通過絕緣子數據集對模型進行兩段訓練。第一階段在凍結n個殘差塊后訓練余下的殘差塊及全連接層。n的大小與訓練集大小有關,訓練集越大,能訓練的參數就越多,凍結的殘差塊越少。凍結的模塊作為特征提取器參與訓練但不改變權重。第二階段解凍所有殘差塊進行訓練。此時,只需要較小的學習率進行訓練,并對整個模型進行微調。微調完成的模型即可用于絕緣子缺陷檢測。

圖4 遷移學習示意圖Fig.4 Schematic diagram of transfer learning

(2)學習率設置

由于采用了多階段遷移學習,凍結訓練階段與解凍訓練階段的學習率不同:凍結訓練階段需要較大的學習率加快網絡收斂,解凍訓練階段只需要較小的動態學習率對模型進行微調。傳統的動態學習率調整方法,在訓練開始時設置較大學習率加快網絡收斂,訓練后期設置較小的學習率使網絡更好地收斂。但較小的學習率在訓練過程容易陷入局部最優,導致網絡無法向全局最優點靠攏。為解決上述問題,本研究采用余弦退火學習率衰減法[20]進行學習率調節。它是一種在訓練過程中動態調整學習率的方法,過程如圖5所示。

圖5 余弦退火學習率衰減法Fig.5 Cosine annealing learning rate decay

首先,設置一個學習率上限和下限。接著,隨著訓練次數增加,學習率先是線性增加至上限,再以余弦函數的形式降至下限。然后,重復這個過程直至訓練完成。當學習率由大變小時,網絡逐漸向一個局部最優點靠攏;當學習率線性增大時,網絡能夠跳出該局部最優點,向下一個局部最優點靠攏,最終以各局部最優點的最優值作為輸出結果。

3.2 目標檢測過程改進

(1)輸出層改進

圖像經過YOLOv4網絡處理后,輸出3個n×n×75維的張量進行預測。這里的75是由(3×(1+4+20))計算得到。其中,3代表3個不同尺度的先驗框;1代表先驗框中預測物體的置信度;4代表先驗框的調整策略,包括中心點x,y坐標調整策略和長寬調整策略,調整先驗框中心點的位置及長寬;20代表VOC2007數據集的類別個數。但絕緣子串檢測中輸出的類別不足20類時,可以根據絕緣子串檢測的具體需求對網絡輸出結構進行適應性改進,將網絡輸出張量變為n×n×x。其中x的定義如下:

x=num_anchor×(num_class+5)

(2)

式中,num_anchor為先驗框的數量,num_classes為要分類的數量,5為輸出對應類的置信度和先驗框的調整策略中的中心點調整策略和寬高調整策略。本研究將絕緣子類型分為正常絕緣子與缺陷絕緣子兩類,因此網絡的輸出張量變為n×n×21。

(2)檢測圖像改進

訓練好的模型在目標檢測中,有時候會生成不止一個預測框,此時就要設置約束條件對生成的預測框進行篩選。首先,設置一個置信度閾值,當預測框置信度大于閾值時,預測框才會被保留。其余的預測框被刪除。其次,當剩余的多個預測框重疊時,通過非極大值抑制算法(non-maximum suppression,NMS)[21]篩選出某一片區域置信度最大的預測框。保留它,同時抑制其余的框,最后剩下的框即為預測結果。

在絕緣子缺陷檢測中,缺陷在整張圖像中屬于非常微小的一部分,圖像在模型中經過進一步壓縮后,圖像中的小目標容易出現特征丟失的現象,產生小目標漏檢問題。為此,本研究提出了結合超分辨率生成網絡(super-resolution reconstruction generative adversarial networks,SR-GAN)[22]的絕緣子缺陷目標檢測方法。SR-GAN是利用圖像重建技術,將低分辨率(low Resolution,LR)圖像生成高分辨率(high resolution,HR)圖像。最后將生成的HR圖像用于目標檢測。

對抗生成網絡(generative adversarial networks,GAN)[23]主要由生成器(Generator,G)和判別器(Discriminator,D)兩個模型構成。生成器通過輸入的信息偽造數據,判別器則判斷偽造數據屬于真實數據的概率。當判別器判斷偽造數據是真實數據的概率小于0.5,優化生成器重新生成數據用于判別;當判別器判別偽造數據是真實數據的概率大于0.5,優化判別器重新判別數據[24]。通過生成器和判別器的不斷對抗,直至G模型和D模型達到博弈平衡,最終將訓練完成的生成器用于生成數據。SR-GAN是GAN衍生模型,訓練過程如圖6所示,具體步驟為:(1)對原始圖像進行下采樣獲得LR圖像;(2)將LR圖像放入生成器G中生成高分辨率圖像;(3)把高分辨率圖像與原始圖像輸入判別網絡D判定:若D網絡判斷生成圖像屬于輸入圖像的概率小于0.5,則模型返回G網絡中繼續訓練;若判斷生成圖像屬于輸入圖像概率大于0.5,則模型返回D網絡中繼續訓練,直至優化判別網絡次數大于一百次時,訓練結束;(4)將生成器G用于圖像超分辨率重建。

圖6 SR-GAN訓練流程圖Fig.6 Training flow of SR-GAN

使用SR-GAN生成的高分辨率圖像,如圖7所示。可以看出,所生成的高分辨率圖像突出了圖像中的細節特征,使目標物體的紋理更為清晰。雖然生成的高分辨率圖像能有效提升圖像質量,提高目標檢測精度,但SR-GAN生成高分辨率圖像需要較長的運行時間,影響網絡的實時性。而且許多圖片并不需要生成高分辨率圖像就能獲得準確的結果。

圖7 高低分辨率圖片對比Fig.7 Comparison of high and low resolution pictures

通過觀察發現,現場采集的絕緣子圖像中,絕緣子數量少于三個時,圖像中的絕緣子一般屬于較大目標,這類圖像不需要生成高分辨率圖像即可定位絕緣子及缺陷位置。在固定尺寸的圖像中絕緣子數量越多,越容易出現小目標。圖像中的小目標,經過特征提取后,容易出現目標信息部分丟失,導致檢測結果表現為出現低置信度的預測框,再經過NMS時就被抑制了。而置信度低于0.3的預測框中大部分為非絕緣子的誤檢目標,不需要考慮。因此,鑒于SR-GAN使用過程的局限性,在使用SR-GAN進行目標檢測時,本研究設定了兩個約束:

(1)圖像中檢測到三個及以上置信度大于0.3且預測框無重合的絕緣子。

(2)圖像中存在置信度為0.3~0.5的預測框。

對同時滿足上述兩個約束的圖像采用SR-GAN生成高分辨率圖像后再進行檢測,將此次的檢測結果作為最終預測結果。

3.3 基于改進YOLOv4的絕緣子缺陷檢測

對于輸入為(416,416,3)的圖像,經過YOLOv4后輸出的三個特征層維度為(13,13,21)、(26,26,21)、(52,52,21),對特征層解碼后即為預測結果。以輸出維度為(13,13,21)的特征層為例,對輸入圖像的解碼過程如圖8所示。首先,將輸入圖像分為13×13的網格,每個網格負責檢測其區域內的目標。若物體的中心點位于圖中紅色的網格內,則物體就由這個網格點來預測。接下來,該網格點生成三個藍色的先驗框,先驗框根據特征層中坐標調整策略與長寬調整策略進行調整后,模型預測出調整后三個先驗框的置信度。取調整后三個先驗框中置信度最高的黃色框,作為最后的預測框,輸出該預測框及其置信度。最后,判斷該圖片是否滿足約束1及約束2:若不滿足,則該預測框即為最終預測結果;若滿足,則將圖片輸入SR-GAN網絡生成高分辨率圖像后用高分辨率圖像重新檢測,將此次的檢測結果為最終的預測結果。

圖8 絕緣子缺陷檢測過程Fig.8 Process of insulator defect detection

4 實驗結果及分析

4.1 實驗介紹

(1)數據集

在無人機航拍過程中收集到2 100張正常絕緣子和40張缺陷絕緣子圖像,分辨率為1 200×900,所有的標簽采用VOC2007格式。圖9展示了正常和缺陷絕緣子的航拍圖像。由于缺陷絕緣子的數量太少,因此對40張進行數據增強,得到1 840張新生成圖像,從而構成1 880張缺陷絕緣子數據集,效果如圖10所示。絕緣子數據集由2 100張正常絕緣子和1 880張缺陷絕緣子圖像構成,從中隨機選取3 600張組成訓練集,剩余的380張圖像作為測試集。置信度閾值取0.6。

圖9 現場絕緣子圖片Fig.9 Insulator image on site

圖10 生成缺陷絕緣子圖片Fig.10 Generated image of defective insulator

(2)實驗環境配置

計算機配置為Xeon(R)W-2123處理器、2塊NVDIA GeForce GTX 1080Ti顯卡和32G內存;操作系統為Ubuntu16.04;深度學習軟件架構是Pytorch。

(3)評價標準

包括精確度(Precision,Pre)、召回率(Recall,Rec)、每類目標的平均精度(Average Precision,AP)、平均精度均值(mean Average Precision,mAP)和每秒傳輸幀數(Frames Per Second,FPS)。其中,精確度用于衡量算法找出樣本的準確性;召回率用于衡量算法找出數據集中某類樣本的能力,計算公式如下:

(3)

(4)

式中:TP為模型判定為正樣本且本身也為正樣本的樣本數;FP為模型判定為正樣本但本身為負樣本的樣本數;FN為模型判定為負樣本但本身為正樣本的樣本數。

當交并比(intersection over union,IOU)的閾值不同時,檢測結果的精確度與召回率也會發生改變,因此使用單一的精確度或者召回率作為評價指標都存在局限性。當選取的IOU值足夠多時,各IOU值的精確度與召回率組成的曲線稱為PR(Precision-Reacll)曲線。AP值[25]定義為P-R曲線與坐標軸所圍成的面積,其同時衡量了算法在檢測某類目標時的精確度與召回率。AP值越大,算法對該目標的檢測效果越好。當求出所有目標的AP值后,mAP的計算公式為:

(5)

式中:n為分類的總數;APi為第i類的AP值。mAP值越大,表明算法整體檢測效果越好。FPS定義為算法每秒處理的圖片數量。FPS越大,每秒處理的圖像數量越多,代表算法運行速度越快。

(4)參數設置

由于采用了多階段遷移學習的訓練策略,每階段的學習率、批處理尺寸和迭代次數都不一樣。具體參數如表1所示。

表1 實驗參數Table 1 Experimental parameters

4.2 改進措施的性能驗證

為了提高絕緣子缺陷辨識的準確率,本研究提出了改進YOLOv4模型,通過施加一些方法改善網絡的整體性能。包括在訓練過程采用多階段遷移學習、余弦退火學習率衰減法,檢測過程通過優化輸出層結構和SR-GAN實現對缺陷快速準確的辨識。為此,本節評價了各種改進措施對網絡整體性能的影響,并通過實驗確定各種措施所對應的最佳參數。

多階段遷移學習凍結的層數需要根據數據集的大小來確定。數據集越小,需要參與訓練的參數就越少,凍結的層數就越多。因此,通過對不使用遷移學習和凍結不同層數的遷移學習模型的檢測效果對比,尋找最合適的訓練參數,結果如表2所示??梢钥闯觯捎诙嚯A段遷移學習載入預訓練權重訓練,訓練過程只需對模型未凍結部分進行微調,顯著提升網絡的訓練速度及模型的整體性能。相比于傳統的無遷移學習,遷移學習訓練出的模型使算法的mAP值至少提升了14%,訓練速度提高了三倍。針對本研究使用的數據集,發現在網絡凍結25層時檢測效果最好,由此確定最佳的凍結參數。接著,結合本研究提出其他不同改進措施進行測試,其表現如表3所示,其中,“√”表示施加了對應的措施。

表2 訓練策略對算法的影響Table 2 Impact of training strategy on algorithm

從表3中可以看出,單獨使用YOLOv4模型進行檢測,mAP值達到70.15%。倘若訓練過程采用余弦退火法改進學習率,由于算法從各局部最優點中選出最優值生成最終模型,其mAP值提升了4%。根據目標檢測任務的實際需求,將網絡輸出維度由n×n×75變為n×n×21,降低了檢測網絡的計算量,極大提高了檢測速度。通過SR-GAN生成的圖像能夠增強圖像的細節紋理信息,提高圖像的質量,許多原圖中檢測不到的東西,能在新的圖像中得到檢測,如圖11所示??梢园l現,高質量的檢測圖像能顯著提高網絡對小目標的辨識能力,相比于改進前,mAP值又提升了9%。

表3 改進策略對算法的影響Table 3 Impact of training strategy on algorithm

圖11 檢測結果對比Fig.11 Comparison of test result

4.3 實驗過程及結果

測試集中有380張圖像,所有圖像中存在551個絕緣子與181個缺陷。檢測過程中統計出各類別目標在對應置信度下的TP、FP與FN,并根據公式(3)和(4)計算出各類目標在不同置信度下的精確度與召回率,圍成的曲線如圖12所示。

圖12 檢測結果P-R曲線Fig.12 Test result expressed by P-R curve

根據圖12得知,絕緣子的AP值為92.2%,缺陷的AP值為86.88%。最后根據公式(5)計算出的mAP值為89.54%,檢測結果如圖13所示??梢钥闯?,算法對于山地、平原、房屋、桿塔等復雜背景環境中的絕緣子,都能給出較好的辨識效果;改進模型本身結合SR-GAN生成高分辨率圖像能準確的辨識出絕緣子及其微小的缺陷。實驗結果表明算法能精確且快速的辨識出絕緣子缺陷。

圖13 檢測結果展示Fig.13 Show off detection result

為了檢驗訓練模型的魯棒性和對新缺陷的識別能力,又從現場獲得20張帶缺陷絕緣子的照片,用訓練好的模型進行測試。測試結果如下:絕緣子檢測的AP值92.5%,缺陷的AP值為85.5%,mAP值為89%。測試結果和380張數據集的結果接近,說明所訓練的模型在測試新缺陷的時候,不會降低或喪失辨識能力。

所提算法在實際應用的魯棒性和實時性值得進一步探究,為此采用現場拍攝的未經任何處理的無人機視頻進行測試。在無人機巡檢時,圖像中可能存在很多背景絕緣子,但是一般會圍繞一個焦點絕緣子進行觀測。因此,本研究以焦點絕緣子為分析對象,從絕緣子辨識和缺陷定位能力方面進行評價。選取一段總時長10 s的視頻,每秒30幀畫面。算法對每張圖像的識別時間是0.08 s,為保證檢測過程的流暢性,以每十幀提取一張圖片進行檢測,即每秒識別3張。

視頻的拍攝角度為:無人機由遠及近、從上往下拍攝絕緣子,當絕緣子完全出現在畫面中,再環繞拍攝。從圖14可以看出,絕緣子識別的置信度逐漸提高,由于本研究的置信度閾值為0.6,因此,對于絕緣子,算法能100%檢測到出來。在視頻播放至第3.67 s(第11張圖片)時,缺陷輪廓暴露在畫面中,缺陷檢測的置信度瞬間從0變化到0.8,算法立刻定位到缺陷的位置。隨著角度的變化,在第8 s(第24張圖片)時,缺陷消失于畫面中,置信度又瞬間跌落到0。視頻檢測實驗證明所提方法在實際應用中具有良好的魯棒性和實時性。

圖14 動態視頻檢測結果Fig.14 Dynamic video detection results

4.4 方法對比

目前,目標檢測算法按照檢測過程可以分為一階段檢測算法(One-stage)和兩階段檢測算法(Two-stage)。一階段檢測算法通過主干網絡給出的特征張量直接回歸目標的類別置信度與預測框位置;兩階段檢測算法先通過區域建議網絡生成候選框,再通過目標區域檢測網絡回歸目標類別置信度與預測框位置。一階段檢測算法檢測速度較快,以YOLO系列算法為代表;兩階段檢測算法檢測速度雖然不如前者,但精度更高,以Faster-RCNN算法為代表。因此,通過將所提方法與YOLOv3及Faster-RCNN進行對比,以評估所提方法在目標檢測上的性能差異。對比指標為mAP與FPS。

Tao等人[26]提出了一種級聯型Faster-RCNN網絡用于絕緣子缺陷檢測,通過級聯兩個Faster-RCNN模型完成絕緣子缺陷檢測。模型一的主干網絡為VGG-16,用于絕緣子定位;模型二的主干網絡為ResNet-101,用于缺陷檢測。吳濤等人[27]采用YOLOv3網絡用于檢測缺陷絕緣子,通過刪除網絡中的冗余卷積塊構成輕量級網絡,網絡提取出的特征構成特征金字塔結構并用于絕緣子及其缺陷的分類及定位。

對比結果如表4所示??梢园l現,Faster-RCNN算法在絕緣子定位的準確率上高于YOLOv3算法;YOLOv3算法采用了特征金字塔結構,通過多層次特征進行檢測,在檢測缺陷這種小目標的準確率大于Faster-RCNN算法;所提方法使用了外加模塊SPPNet與PANet實現特征融合,拓展網絡的感受野,極大提高了網絡辨識的準確率。在處理速度上,Faster-RCNN不如YOLO系列算法。相對于YOLOv3算法,所提方法的處理速度比前者快了一倍。

表4 不同目標檢測算法對比Table 4 Comparison of different target detection algorithms

5 結 論

本研究提出了基于YOLOv4的絕緣子定位及缺陷檢測的方法。相比于現有方法,YOLOv4模型具有速度更快,精度更高的特點。針對缺陷檢測中出現的缺陷樣本不足、模型對小目標泛化能力低下問題,提出了一種數據增強和基于SR-GAN的高分辨率圖像檢測的方法,同時在訓練過程中采用了多階段遷移學習和余弦退火衰減學習率策略顯著提高了模型整體的性能。實驗結果表明,所提方法的缺陷檢測mAP值達到89.54%,FPS達到每秒12.24幀,高于Faster-RCNN和YOLOv3算法。所提方法在實際應用中可以滿足絕緣子缺陷檢測的準確性和實時性要求。未來,可進一步開展對低照度以及模糊背景下所提方法應用和性能提高的研究工作。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 大陆精大陆国产国语精品1024| 国产精品无码久久久久久| 毛片视频网| 日本一区中文字幕最新在线| 九九九精品视频| 日韩欧美高清视频| 国产成本人片免费a∨短片| 狠狠色狠狠色综合久久第一次| 久久动漫精品| 久久人搡人人玩人妻精品| 亚洲国产日韩在线观看| 好久久免费视频高清| 欧美精品伊人久久| 国产久草视频| 亚洲精品在线影院| 久久精品国产精品青草app| 免费高清a毛片| 无码一区18禁| аv天堂最新中文在线| 成人毛片免费观看| 天堂在线亚洲| 国产高清在线精品一区二区三区| 中字无码av在线电影| 精品福利视频网| 日本三级欧美三级| 无码av免费不卡在线观看| 日本人妻丰满熟妇区| 26uuu国产精品视频| 国产精品所毛片视频| 国产一区二区精品福利| 国产成人久视频免费| 欧美精品高清| 99久久人妻精品免费二区| 欧美无遮挡国产欧美另类| 国产精品免费电影| 日韩精品久久无码中文字幕色欲| 国产主播喷水| 国产免费福利网站| 五月天综合婷婷| 亚洲精品无码抽插日韩| 亚洲精品无码久久久久苍井空| 欧美区国产区| 国产区人妖精品人妖精品视频| 在线视频一区二区三区不卡| 亚洲成人网在线观看| 成人免费一级片| 无码人中文字幕| 亚洲一区二区在线无码| 国产欧美日韩精品综合在线| 国产在线自揄拍揄视频网站| 中文字幕首页系列人妻| 亚洲人精品亚洲人成在线| 国产成人高精品免费视频| 啪啪啪亚洲无码| 伊人激情综合| 国产精品七七在线播放| 国产亚洲现在一区二区中文| 欧美一级黄片一区2区| 性69交片免费看| 无遮挡一级毛片呦女视频| 在线观看91香蕉国产免费| 亚洲综合亚洲国产尤物| 不卡无码网| 亚洲国产成人麻豆精品| 99精品视频九九精品| 成人午夜久久| 91精品国产自产在线观看| 久久九九热视频| 色婷婷在线播放| 国产va视频| 欧美激情视频一区| 亚洲第一色视频| 亚洲香蕉伊综合在人在线| 日韩经典精品无码一区二区| 亚洲综合精品第一页| 午夜福利在线观看成人| 曰韩人妻一区二区三区| 国产一二三区在线| 一本大道香蕉久中文在线播放| 亚洲天堂网在线视频| 久久久久亚洲Av片无码观看| 国产成人8x视频一区二区|