999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv2和遷移學習的管道巡檢航拍圖像第三方施工目標檢測

2020-06-01 10:54:30諶貴輝李忠兵錢濟人
計算機應用 2020年4期
關鍵詞:特征提取檢測

諶貴輝,易 欣*,李忠兵,錢濟人,2,陳 伍,2

(1. 西南石油大學電氣信息學院,成都610500; 2. 浙江浙能天然氣運行有限公司科創中心,杭州310000)

(?通信作者電子郵箱1171866631@qq.com)

0 引言

石油、天然氣等能源輸送管道是現代社會經濟發展的基礎設施,但是油氣管道在使用過程中會受到外界環境、內部運輸物質等因素的影響,存在很高的風險,一旦發生危險,將產生巨大的危害。而外界環境風險事故中,第三方損害占比是最高的[1]。第三方損害中包括直接的威脅管道安全的挖掘機、打樁機以及定向鉆等工程機械,間接威脅管道安全的有違章占壓建筑、重型車輛碾壓等。隨著無人機技術的快速發展,在電力行業中無人機已經得到了較好的實際應用[2-3]。在油氣管道巡檢應用中,對無人機采集的圖像信息的處理方式是人工判別[4-5]或者應用于其他場景[6],存在著勞動強度大、時間成本高和結果不穩定等問題。為解決該問題,本文將深度學習目標檢測算法引入到天然氣管道無人機巡線監測系統中,通過全球定位系統(Global Positioning System,GPS)信息以及目標的位置信息判斷目標距離管道的信息,所以整個圖像智能檢測系統關鍵是獲取目標類別及準確的位置信息。

傳統的目標檢測方法采用手工設計特征,然后針對特征設計相應的檢測模型,其應用范圍、檢測精度和速度都有很大的局限性。近年來,基于深度學習的目標檢測算法獲得了很大的進展,根據檢測方式可以分為兩大類:一類是基于區域推薦的兩階段算法,首先通過滑動窗口獲得候選目標,再使用卷積神經網絡(Convolution Neural Network,CNN)進行類別和位置的預測;其特點是精度較高但實時性較差,代表性算法有RCNN(Regions with CNN)[7]、Fast RCNN[8]、Faster RCNN[9]等,盡管該類算法的檢測精度較高,但是出于對第三方施工目標監測的要求,需要算法擁有較高的檢測速度。另一類是基于回歸方法的端到端算法,將目標檢測看作回歸問題,直接通過網絡預測出目標的類別及位置信息;其特點是速度快但精度相對而言要低一些,代表性算法有YOLO(You Only Look Once)[10]、YOLOv2[11]、YOLOv3[12]、單階段多邊框目標檢測算法(Single Shot multibox Detector,SSD)[13]和針對SSD存在的小目標檢測能力弱而改進的反卷積單階段多邊框目標檢測算法(Deconvolution Single Shot multibox Detector,DSSD)[14]等。其中,YOLOv2 和YOLOv3 都是在YOLO 算法的基礎上對特征提取和目標預測方面逐步進行改進、演變而來的,相較于YOLO和YOLOv3,YOLOv2 在檢測精度和檢測速度上擁有更好的綜合性能。SSD 采用VGG16 網絡結構進行特征提取,在多個尺度下通過錨點機制對目標進行檢測,提高了檢測效果,但是同時檢測速度也有所降低。DDSD 除了用Res-101 替換VGG16外,還引進反卷積模塊和殘差連接方式,提高SSD對小目標的檢測能力。目前前沿的目標檢測算法雖然在常規數據集上能取得較好效果,但是應用在無人機管道巡檢航拍圖像上的效果并不好,主要面臨圖像目標小、數據集較少以及圖像質量等多方面問題。

由于第三方施工目標尤其是挖掘機對管道危害性較大,出于管道安全保護考慮,對檢測速度有較高的要求。因此在優先考慮檢測速度的前提下,綜合考慮檢測精度,本文提出基于YOLOv2 的改進算法和結合遷移學習的航拍圖像小目標實時檢測算法。

本文主要工作如下:

1)提出能夠有效提高小目標檢測能力和位置信息檢測精度的Aerial-YOLOv2實時檢測的卷積神經網絡;

2)通過數據增強的方法擴大數據集規模并結合遷移學習訓練網絡;

3)使用K-means 算法聚類分析出適合本文數據集特點的錨點框尺寸以及數量;

4)使用自適應對比度增強算法對航拍圖像進行處理。寸。2)回歸預測。首先將Darknet-19 提取的特征經過2 層卷積運算后,將其和特征提取模塊中的26 × 26 × 512 的特征矩陣進行降采樣后進行合并,隨后通過3×3 的卷積計算對其特征整合,最后在使用1×1 的卷積層調整輸出維度為13× 13×425 的輸出矩陣,YOLOv2 最后對這個輸出矩陣進行檢測。YOLOv2 借鑒Faster RCNN 錨點框的思想引入錨點機制,選擇5 個符合數據集特點的錨點框,并利用錨點框對輸出矩陣解碼。其中,13× 13× 425 的矩陣將圖像分成13× 13 個網格,每個網格包含5 個錨點,每個錨點都預測目標的置信度、目標位置及類別。隨后獲得每個錨點最大的預測概率對應的類別,然后將該類別概率與置信度相乘獲得該錨點的分數,然后刪除每個網格中的錨點分數低于0.6 的錨點,再進行非極大值抑制(Non-Maximum Suppression,NMS)操作,去除重復率過大的預測框。

圖1 YOLOv2目標檢測算法流程Fig.1 Flowchart of YOLOv2 target detection algorithm

圖2 YOLOv2特征提取模塊及其組成Fig.2 YOLOv2 feature extraction module and its composition

1 相關知識

YOLOv2延續了YOLOv1的核心思想,將目標檢測問題看作回歸問題,用一個卷積神經網絡完成對目標的定位以及識別,同時也針對YOLOv1 的特征提取和回歸預測部分作了改進。

YOLOv2 目標檢測的算法流程如圖1 所示。由圖1 可知,YOLOv2 網絡結構主要由兩部分組成:1)特征提取。采用包含19層卷積層(不包含池化層)的名為Darknet-19的結構來對416 × 416 × 3 的輸入圖像特征進行提取,生成一個大小為13× 13× 1024 的特征矩陣。Darknet-19 特征提取部分如圖2(a)所示,由池化層和卷積塊組成,池化層起到下采樣及降維作用,卷積塊根據所包含卷積數量不同又分為A、B兩種類型,如圖2(b)~(c)所示。其中,Conv 表示該層是卷積層并包含批歸一化和Leaky-Relu激活函數,3× 3或者1× 1表示卷積核尺

2 基于Aerial-YOLOv2的航拍圖像目標檢測

YOLOv2 目標檢測算法不能直接應用在無人機航拍圖像目標的檢測,主要存在以下幾個問題:

1)航拍圖像目標具有尺度多樣性,但在網絡結構上,YOLOv2 僅在單一尺度上進行檢測,無法在多個尺度下對目標尤其是小目標進行有效檢測;另一方面,YOLOv2 使用的最大池化層使目標位置信息出現丟失[15],預測目標位置會出現較大偏差。

2)在深度學習中,模型質量與所使用的數據集的數量有直接關系。在傳統的深度學習訓練方法下直接使用已有標簽的數據訓練的模型檢測性能較差,需要根據航拍圖像的特點使用針對少量樣本訓練模型的方法。

3)YOLOv2使用3個錨點框作為先驗知識進行目標檢測,但是這些錨點框并不適合本文數據集的數據特點。

4)受天氣、背景和拍攝高度等影響,使用時部分輸入圖像的邊緣紋理模糊、對比度低,會降低算法檢測效果。

為了解決上述問題,本文提出基于Aerial-YOLOv2的航拍圖像的檢測算法,總體框架如圖3 所示。本文算法主要包括4 個部分:基于YOLOv2 改進的Aerial-YOLOv2 網絡結構、基于DOTA(Dataset for Object Detection in Aerial Images)[16]數據集的遷移學習、基于聚類分析的錨點框選擇以及自適應對比度增強(Adaptive Contrast Enhancement,ACE)預處理。在訓練階段使用DOTA 數據集在擁有同樣特征提取部分的網絡上進行訓練,然后將其遷移到Aerial-YOLOv2網絡對應部分。隨后對采集的關于第三方施工相關車輛以及違章占壓建筑物的航拍圖像數據集使用數據增強方法后,再對經過遷移學習的Aerial-YOLOv2網絡進行訓練,并使用聚類分析出適合該數據集特點的錨點框。在實際使用過程中,使用ACE 圖像預處理對圖像進行處理,然后將其送入訓練好的Aerial-YOLOv2網絡進行檢測,將檢測出的正樣本添加至航拍圖像數據集中,擴大數據集規模。

圖3 低空航拍圖像檢測算法總體框架Fig.3 Overall framework of low-altitude aerial image detection algorithm

2.1 Aerial-YOLOv2網絡結構設計

為預防漏檢目標對管道安全產生威脅和提高檢測信息準確度,需要降低漏檢率并且能夠對目標實現精確定位檢測,本文設計適合航拍圖像目標檢測的網絡結構Aerial-YOLOv2,如圖4 所示。從中可看出:Aerial-YOLOv2 網絡采用全卷積網絡(Fully Convolutional Network,FCN)[17]結構,整體結構由特征提取和回歸預測兩個模塊組成,Conv 表示該層是卷積層,每個卷積層分別表示出了卷積核尺寸和卷積核數量(“/”后的數字表示步長,省略的默認步長為1),卷積組由3× 3卷積和1×1卷積組成。

YOLOv2 為擴大特征感受野,使用最大池化層對特征進行降采樣,但是最大池化層在計算過程中會丟失部分信息,所以Aerial-YOLOv2 使用步長為2 的卷積核代替最大池化層進行降采樣,更好地保留目標的位置信息。

除此之外,Aerial-YOLOv2 將YOLOv2 特征提取部分中用于提取特征的卷積塊使用本文提出的卷積模塊替換,通過同一尺度下的卷積信息的融合,強化特征表達能力。YOLOv2在回歸預測部分對特征提取部分中的16 降采樣特征最后一層卷積特征繼續降采樣后,與32 倍降采樣特征進行融合后進行檢測,Aerial-YOLOv2 為加強網絡對小目標的檢測能力,首先在32倍降采樣尺度下都進行預測,然后對32倍降采樣特征進行2倍上采樣后與特征提取部分的16倍降采樣特征融合后進行預測。

圖4 Aerial-YOLOv2網絡結構Fig.4 Aerial-YOLOv2 network structure

2.1.1 特征提取模塊

為減少參數數量[18]和緩解梯度消失問題[19],使網絡對不同層的卷積信息都能夠被充分利用[20],提高網絡對小目標的特征提取能力,本文提出一種殘差密集卷積(Residual Dense-Convolution3,RD-C3)模塊結構。RD-C3 模塊在同一個尺度下通過加強對不同層次的卷積特征的傳遞,實現對目標特征的高效利用并且由于簡化了低層特征和高層特征間的聯通路徑,提高了反向傳播的效率。具體結構如圖5所示。

圖5 RD-C3模塊的結構Fig.5 Structure of RD-C3 module

整個RD-C3模塊能夠充分利用同一尺度下的信息,由3×3和1× 1的卷積組成。將尺度內的3×3 卷積通過類似密集連接中的旁路方式連接,通過1× 1卷積自適應地聚合特征信息并起到降低網絡計算量的作用,最后聚合所有局部卷積特征的信息和該尺度下的輸入端進行殘差連接,實現該尺度下的全局殘差學習,最后2 個RD-C3 模塊中卷積核的數量相較YOLOv2 中對應卷積減少一半。另外,每個卷積層經過卷積計算后,都要再經過一個批歸一化和非線性的Leaky-Relu 激活函數計算,Leaky-Relu計算如式(1)所示:

其中:xi為卷積層的輸出值;a 一般為(0,0.5)區間的一個固定值;yi為輸出值。

2.1.2 回歸預測模塊

在回歸預測模塊中通過融合底層紋理特征和高層語義特征的多尺度的方式進行目標檢測。YOLOv2僅僅在32倍降采樣的特征圖上進行檢測,而經過32 倍降采樣之后,高層特征難免會丟失部分細節信息,該檢測尺度下的目標檢測層對小目標的檢測能力是有限的。為了加強網絡對小目標的檢測能力,Aerial-YOLOv2 對網絡輸出的32 倍降采樣特征進行檢測之外,還增加一層16 倍降采樣特征檢測層。圖像特征在Aerial-YOLOv2 中的傳遞過程如圖6 所示,該圖可直觀地表示多尺度回歸預測。

由圖6 可知,原始圖像通過特征提取模塊多層卷積計算后生成大小為13× 13× 425(仍以416 × 416 圖像尺寸為例)的高層語義特征,后經過3× 3和1個1× 1組成的卷積組計算后,生成13× 13× 425 的預測矩陣后直接在該尺度下進行一次檢測。隨后將大小為13× 13× 512 的32 倍降采樣特征進行2倍上采樣后與特征提取模塊中16倍降采樣層的輸出進行特征拼接,然后再經過一個卷積組后生成大小為26 × 26 ×425的預測矩陣,然后在該尺度下在對其進行一次檢測。

圖6 Aerial-YOLOv2特征傳遞流程Fig.6 Flowchart of Aerial-YOLOv2 feature transfer

2.2 Aerial-YOLOv2遷移學習

為了訓練Aerial-YOLOv2網絡,實驗數據為使用大疆精靈4Pro 無人機在100~130 m 飛行高度、10~12 m/s 的飛行速度條件下,通過正射角度拍攝的不同天氣、不同時段下的共1 500張關于第三方施工相關車輛以及違章占壓建筑物的可見光無人機航拍圖像,拍攝的地面背景環境包括農村、城鎮、河流以及山地,包括挖掘機、推土機以及頂棚3類目標,分別有1 257、439 和2 404 個目標。將圖像按照8∶2 原則分為訓練集和測試集。

深度學習模型效果與訓練樣本數量有極大的關聯性,在擁有大量訓練樣本的基礎上,才能得到高質量的深度學習模型。由于已知標簽的航拍圖像數據集較少,直接將數據用來訓練Aerial-YOLOv2模型,得到的模型泛化性能較差從而不能夠對多樣、復雜背景下的目標進行準確檢測。對此,本文采用遷移學習的方式[21]來訓練模型,Yosinski 等[22]驗證了遷移學習中特征遷移的可行性。將包含2 806 張遙感圖像,共15 個類別、18萬個目標的DOTA數據集[22]作為源域,本文的數據集作為目標域,通過遷移學習的方法將從源域學習到的模型參數與Aerial-YOLOv2模型共享,從而解決模型訓練數據量不足的問題。

根據所擁有數據的情況,本文將遷移學習分為兩部分:1)利用DOTA 數據集的訓練集共2 100 張圖像訓練特征提取模塊,根據模型在包含706 張圖像的測試集上的召回率和準確率之和評價模型訓練效果;2)遷移特征提取模塊參數到Aerial-YOLOv2模型對應部分,在此基礎上再訓練回歸預測模塊。對于特征提取模塊的訓練,根據Aerial-YOLOv2模型中特征提取模塊來構建檢測模型。如圖7 所示,該檢測模型以Aerial-YOLOv2模型的特征提取模塊為基礎,經過兩層卷積層運算,最后通過YOLOv2檢測層獲取檢測結果。

建立檢測模型后,利用DOTA 數據集進行訓練。檢測模型訓練完畢后,將其特征提取模塊的參數遷移到Aerial-YOLOv2的特征提取部分,遷移過程如圖7所示。

將遷移學習的特征提取模塊的參數進行凍結,即這部分的學習率為0,鎖定特征提取模塊的卷積核?;貧w預測部分參數使用隨機值,然后使用本文的數據集對Aerial-YOLOv2進行訓練。

圖7 遷移學習過程Fig.7 Transfer learning process

為了直接擴大數據集的規模,本文采用結合數據增強的遷移學習訓練方法。本文采用的數據增強的方法有:1)隨機旋轉、翻轉圖像。隨機旋轉原始圖像-30°~30°,左右隨機翻轉原始圖像。2)平移。將原始圖像在上下左右某一個隨機方向上整體移動圖像尺寸的1/10。3)曝光度、飽和度和亮度調整。將圖像從RGB空間轉換到HSV空間后,在原始圖像0.8~1.2倍范圍內調整曝光度和飽和度,在原始圖像0.7~1.3倍范圍內調整亮度。4)ACE 圖像預處理:在某個范圍內隨機調整核心尺寸閾值和系數參數值,獲得不同的對比度增強的圖像,提升模型泛化能力。按照每種方法擴增一倍的策略,數據集擴增到共7 500張圖像。

2.3 基于無人機航拍數據集的錨點框選擇

Aerial-YOLOv2在回歸預測部分使用錨點預測,符合數據集特點的錨點框數量和尺寸可以加強模型檢測能力和減少訓練時間。本文通過K-means 聚類方法確定合適的錨點框數量以及尺寸。K-means 算法通常使用的距離度量函數為歐氏距離、曼哈頓距離等,但是在聚類錨點框的時候,希望能使候選錨點框和邊界框之間有盡可能高的交并比(Intersection Over Union,IOU),而如果采用常規的距離度量函數會導致同樣的交并比誤差,而大尺寸的邊界框比小尺寸的邊界框會在度量函數上產生更多偏差,而影響聚類結果準確性,所以本文使用新的距離度量公式[12]:

其中:centroid 表示簇的中心的邊界框;box 表示樣本框;IOU(box,centroid)表示聚類中心的邊界框和樣本框的交并比。

本文分別遞增地選取K-means 的錨點框數量K,獲得K 與交并比之間的關系如圖8所示。

圖8 錨點框數量K與交并比的關系Fig.8 Relationship between number of anchor boxes K and intersection ratio

從圖8 可知,在K = 6 時曲線增長明顯放緩,所以選擇錨點框的數量為6,對應的邊界框的大小設置為6個錨點框中心的大小,按照(錨點框長,錨點框寬)的形式表示,其值分別為(7.6,4.1)、(29.5,35.5)、(22.0,29.8)、(4.6,9.5)、(8.7,12.4)和(34.1,22.6)。

2.4 基于ACE的航拍圖像增強預處理

由于航拍圖像是在一定高度下拍攝的,并且受天氣和周圍環境的影響,目標的部分重要特征會出現紋理模糊、圖像噪聲大的情況,所以本文采用自適應局部對比度增強算法(ACE)進行圖像預處理。

ACE算法流程如下,首先將圖像分為兩部分:一部分主要包含低頻信息的反銳化掩膜,通過圖像的低通濾波(平滑、模糊技術)獲得;另一部分是高頻成分,通過原圖像減去反銳化掩膜獲得。隨后對高頻部分進行放大(方法系數為對比度增益(Contrast Gain,CG)),最后將其加入到反銳化掩膜中,得到ACE增強后的圖像。

ACE 算法的核心是計算增益系數CG,通過計算以該像素為中心的像素平均值和方差獲得CG 系數。局部區域的中心點的像素平均值和方差按照式(4)~(5)計算:

其中:n 為以像素點(i,j)為中心點、大小為(2n + 1) ×(2n + 1)的局部區域的尺寸;x(k,l)為該局部區域內的像素點(k,l)的像素值;mx(i,j)為該局部區域的像素平均值;σx(i,j)為該局部區域的標準差(Local Standard Deviation,LSD)。ACE 算法可表示如下:

其中:f(i,j)表示像素點(i,j)對應的對比度增強后的像素值;G(i,j)為對比度增益(即前文所提CG),一般為常數,但是為了預防出現過分增強的情況,針對不同的像素點采用不同的增益。采用如下的解決方法:

其中:D 是個取值范圍為0~1的常數;mx(i,j)/σx(i,j)的值為對比度增益(即CG),是空間自適應的,并且和局部均方差成反比,在圖像的邊緣或者其他變化劇烈的圖像部分,CG 值就較小,不會產生振鈴效應。

3 實驗與結果分析

為了驗證Aerial-YOLOv2 網絡結構的有效性以及基于Aerial-YOLOv2網絡實現無人機航拍圖像目標檢測的可行性,將YOLOv2 和Aerial-YOLOv2 應用于無人機航拍圖像目標檢測。實驗過程中所采用的數據集為人工標注的航拍圖像。實驗設備配置為英偉達GTX1080顯卡,英特爾XREON處理器。

實驗主要分為兩部分:1)比較YOLO 系列、SSD 網絡與Aerial-YOLOv2 網絡的性能,驗證Aerial-YOLOv2 網絡的有效性;2)使用經過數據增強和自適應對比度增強處理的數據集,作為遷移學習的目標域數據集來訓練網絡,驗證本文所使用訓練策略的有效性。

3.1 Aerial-YOLOv2網絡驗證結果

為了驗證Aerial-YOLOv2 算法的有效性,分別對SSD、YOLOv2、YOLOv3 等基礎算法和Aerial-YOLOv2 算法進行訓練,訓練過程中設置相同的超參數。將測試集圖像作為模型輸入,直接通過網絡回歸預測出目標類別和位置信息。通過預測目標的邊框與標簽的邊界框之間的平均交并比(mean Intersection Over Union,mIOU)來衡量預測的位置信息的準確性,另外選取預測框得分閾值為0.5,出于安全角度考慮,實際情況相對于準確度而言對漏檢的容忍度更低,尤其是對挖掘機這種直接威脅管道安全的目標的漏檢,大于閾值表示檢測成功。最終,使用準確率、召回率、平均交并比以及檢測速度作為模型的評價指標。

以上幾種目標檢測算法在航拍圖像目標檢測的實驗結果如表1 所示。從表1 可看出,本文所提的Aerial-YOLOv2 網絡在準確率、召回率上都高于YOLOv2,而僅僅犧牲了一點檢測速度。而YOLOv3 雖然使用了更深的網絡結構,并使用了多種改進策略,但是對于包含信息較少的小目標而言,過深的網絡結構在提取信息能力上會遇到一個瓶頸,這時反而還會降低網絡的檢測速度。所以Aerial-YOLOv2 網絡通過對網絡結構進行多方面的改進后,其檢測效果相對于YOLOV3 各方面都有提升,尤其是對一些小目標的召回率有相當大的提升,說明本文算法在檢測小目標方面的有效性。

表1 不同算法航拍圖像目標檢測實驗結果Tab.1 Experimental results of aerial image target detection by different algorithms

基礎的YOLOv2 網絡和Aerial-YOLOv2 進行航拍圖像測試,檢測出目標的能力對比如圖9所示。圖9(a)是YOLOv2的檢測結果,圖9(b)是Aerial-YOLOv2 經過相同訓練策略后的檢測結果。通過對比兩圖可以發現,YOLOv2 僅能檢測到特征明顯的目標,漏檢體積較小、并未受到遮擋的目標;而Aerial-YOLOv2 則能夠檢測到較小,但特征不明顯的目標,大幅地提升了模型的召回率。

圖9 YOLOv2和Aerial-YOLOv2目標檢測結果Fig.9 Target detection results of YOLOv2 and Aerial-YOLOv2

實驗結果表明,對于航拍圖像目標檢測而言,Aerial-YOLOv2 網絡能夠在YOLOv2 基礎之上以較少地增加運算量為代價,通過改進網絡特征提取和回歸預測模塊,使得網絡在準確率、召回率以及平均交并比等目標檢測指標上有大幅提升。

3.2 訓練策略的影響

為了驗證不同訓練策略對網絡目標檢測性能的影響。在相同原始數據集的情況下,在訓練階段對Aerial-YOLOv2分別采用不同的訓練策略,在相同的測試集上便可獲得不同訓練策略對網絡目標檢測性能的影響,結果如表2 所示。表2 中,策略1 表示結合數據增強的遷移學習,策略2 表示通過K-means 方法聚類出數據集合適的錨點數量及尺寸,策略3表示基于ACE 的圖像預處理。由表2 可知,直接使用原始數據集進行訓練,模型效果泛化性能較差,在測試集上表現為準確率和召回率都較低。策略1 在大量數據的訓練下,網絡中的參數得到充分訓練,測試結果表明綜合指標大幅提升。策略2 能為神經網絡提供準確的先驗知識,預測框更接近真實的錨點框,平均交并比指標明顯提高。策略3 通過圖像預處理,解決圖像目標特征紋理模糊問題,加強模型對目標的檢測能力,召回率得到較大提升。策略1+2 通過對訓練集更好地利用以及使用更合適的訓練方法,準確率和目標位置準確度均獲得提高;綜合使用策略1+2+3,模型準確率為94%,召回率為91%,平均交并比為0.75。相對于直接訓練Aerial-YOLOv2網絡,準確率、召回率和平均交并比分別提高12 個百分點、12個百分點和0.12。

表2 Aerial-YOLOv2在不同訓練策略下的檢測性能Tab.2 Aerial-YOLOv2 detection performance under different training strategies

由實驗結果可知,由于使用多種訓練策略,模型的召回率指標提高最多。召回率越高表明漏檢率越低,對于第三方施工中可能對管道造成直接威脅的挖掘機、打樁機等,漏檢率指標對管道安全至關重要。如果直接使用常規訓練方法進行訓練,Aerial-YOLOv2 網絡召回率僅有79%,這表明可能會有大量目標未被檢測到,而使用本文的多種訓練策略之后,召回率提高至91%,對保障管道安全至關重要。

圖10 為傳統訓練方法訓練Aerial-YOLOv2 和本文訓練策略的檢測結果的典型對比。圖10(a)為傳統訓練方法后的檢測結果,圖10(b)為使用策略1+2+3的檢測結果。由對比檢測結果圖可知,兩者都對小目標有較好的檢測能力,這是Aerial-YOLOv2 網絡結構采用合適的錨點框與特征融合的多尺度檢測方式的結果。但圖10(a)中仍然會有部分漏檢目標,圖中使用黑色圓圈標注。漏檢原因是因為目標僅有部分出現在圖像中,使用本文的訓練方法使網絡對特征的學習和分類能力更強,能對同一目標不同狀態進行更好檢測,正如表2 所示,由于更少的漏檢而較大地提高了召回率。

圖10 不同訓練方法典型結果對比Fig.10 Comparison of typical results of different training methods

綜上所述,結合數據增強的遷移學習可以提升模型多項指標,基于K-means 的錨點框先驗選擇可以提升目標檢測的平均交并比,基于ACE 的圖像預處理可以提升目標檢測的召回率,綜合使用多種訓練方法可有效提高模型整體性能。

4 結語

本文利用深度學習技術實現管道巡檢中對無人機航拍圖像的第三方施工、違章占壓建筑物的目標檢測,提出基于改進YOLOv2 網絡結構與結合數據增強的遷移學習的目標檢測算法。首先利用RD-C3 模塊替代YOLOv2 中的卷積組和改進網絡的回歸預測方式,加強網絡對小目標的檢測能力。為解決數據集的問題,利用數據增強擴大數據集規模并通過K-means算法聚類分析出適合本數據集特點的錨點框,然后再結合遷移學習的方法訓練改進后的網絡,最后再通過自適應對比度增強的方法提升圖像質量。實驗結果表明,本文所提改進算法最終準確率、召回率分別可以達到94%、91%,每張圖像檢測時間為14 ms,可以滿足無人機管道智能巡檢中目標檢測的需要;但本文的數據增強方法會造成部分數據的冗余,在數據處理方法方面仍然需要更進一步的研究。

猜你喜歡
特征提取檢測
特征提取和最小二乘支持向量機的水下目標識別
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 国产精鲁鲁网在线视频| 五月婷婷综合网| 谁有在线观看日韩亚洲最新视频| 欧洲极品无码一区二区三区| 成人午夜视频网站| 男人天堂伊人网| 亚洲欧美不卡| 最新国产麻豆aⅴ精品无| 亚洲经典在线中文字幕| 免费人成又黄又爽的视频网站| 亚洲69视频| 久久亚洲国产视频| 久久99国产乱子伦精品免| 久久国产精品电影| 免费A∨中文乱码专区| 久久国产精品波多野结衣| 国产成人AV男人的天堂| 色综合激情网| 色悠久久久久久久综合网伊人| 中日无码在线观看| 国产高清色视频免费看的网址| 91在线精品麻豆欧美在线| 国产福利影院在线观看| 国产在线精品美女观看| 全裸无码专区| 黄色三级毛片网站| 国产欧美另类| 午夜精品久久久久久久99热下载 | a天堂视频| 一本大道无码日韩精品影视| 成色7777精品在线| 无码内射中文字幕岛国片| 欧美在线国产| 99这里只有精品免费视频| 国产精品亚洲一区二区三区z | 亚洲成人www| 亚洲欧美激情小说另类| 一级福利视频| 国产亚洲日韩av在线| 99久久免费精品特色大片| 日韩欧美中文字幕一本| 亚洲日韩国产精品无码专区| 国产成人1024精品| 91在线一9|永久视频在线| 色婷婷丁香| 91精品视频播放| 精品国产女同疯狂摩擦2| 国产男人的天堂| 国产91丝袜在线观看| 亚洲无码免费黄色网址| 亚洲资源站av无码网址| 国产毛片基地| 伊人久久婷婷| 在线观看国产精品日本不卡网| 少妇极品熟妇人妻专区视频| 国产精品九九视频| 中国精品久久| 婷婷色中文网| 影音先锋亚洲无码| 自拍偷拍欧美| 亚洲欧美另类中文字幕| 国产大全韩国亚洲一区二区三区| 国产三级毛片| 思思99热精品在线| 999在线免费视频| 国产欧美在线观看一区| 亚洲人成网站在线播放2019| 国产亚洲欧美日韩在线观看一区二区| 日韩人妻无码制服丝袜视频| 亚洲资源在线视频| 无码日韩人妻精品久久蜜桃| 国产精品尤物铁牛tv| 欧美成人午夜视频免看| 青青久久91| 97se亚洲综合在线韩国专区福利| 大香伊人久久| 国产欧美日韩18| 日韩在线2020专区| 凹凸精品免费精品视频| 欧美成人亚洲综合精品欧美激情| 欧美国产视频| 久久国产黑丝袜视频|