楊 恒 田 兵 李 越 李 卓
太原科技大學 太原 030024
隨著時代的不斷發展,視覺識別在起重機金屬結構缺陷檢測已取得很大突破。鄭祥盤等[1]提出一種雙網絡并行模型對起重機金屬結構缺陷進行檢測;Gonda F等[2]提出了一個精簡校對的分析框架,通過錯誤檢測及突觸聚類以高度交互的三維可視化方式來進行校對工作;曹遠杰等[3]則采用改進后的第三代YOLO模型對過往人群是否佩戴口罩進行篩選,利用BN層剪枝算法將網絡進行壓縮和BN層合并來加速網絡;Lu C Y等[4]結合顏色及形狀特征進行輪廓匹配進而有效提高識別精度;Feng Y等[5]研究出視覺識別深度模型(H-KPCANet),該模型將單級KPCANet及兩級KPCANet優勢結合起來提高識別性能;Liu X Y等[6]通過圖像預處理算法提高了排序目標對比度,進而構造出圓形和線性結構元素對最大類間方差法分割的多目標區域進行填充和平滑。基于當前起重機金屬結構缺陷數據集樣本數量較少的事實,本文引入最新的GDR-Net[7]網絡對雙網絡并行模型進行改進,從而使起重機金屬結構缺陷檢測準確度得到一定程度的提高。
淺層次卷積神經網絡框架結構如圖1所示。考慮到Sigmoid函數具有單調連續性且輸出值在(0,1)之間,采用Sigmoid函數作為框架激活函數。

圖1 淺層次卷積神經網絡結構圖(圖中數值為數據維度)
為了提取圖像主要特征,在淺層次神經網絡架構中引入4個卷積層(采用空洞卷積擴大其感受野[8]),卷積層后緊跟最大池化層以降低數據處理量。數據特征提取完畢之后通過全連接層對特征進行扁平化處理,淺層次模型最后為損失函數層。損失函數選用Softmax,即

式中:Y為真實值,f(x)為模型預測值。
在對淺層次網絡進行訓練時,可利用BP算法對模型參數進行修正[9]。為了加快網絡收斂速度,使用隨機梯度下降法[10]對模型參數進行迭代訓練,進而縮短模型訓練時間,參數可表示為

當數據信息處理完畢后,網絡會將最終得到的數值輸入Softmax分類器中,從而得到不同缺陷類別對應概率,Softmax分類器可表示為

式中:xi為輸入圖像,E為輸出結果期望,θ1、θ2、…、θl為標簽對應參數構成矩陣,p為當輸入數據為xi時輸出值為1或0的概率。
將起重機金屬結構缺陷數據以隨機抽樣的方式按照70%、20%、10%的比例分為3個批次,分別將其作為網絡結構的訓練集、測試集及驗證集對網絡進行訓練及性能測試。利用CCD相機前往起重機使用現場采集缺陷圖片,采集到的圖像像素大小為1 024×2 048,考慮到網絡訓練需求,將其以五行十列的方式進行均勻裁剪得到共50張子圖。從子圖中選取3 000張缺陷類型一致的圖像,將其縮放為100×100、227×227規格。100×100規格的圖像因其數據量較小,故應用于淺層次網絡的訓練工作。以227×227規格的圖像對GDRNet進行訓練,通過人為的方式對各類數值代表的缺陷類別進行定義。為了更好地將圖像中的缺陷凸顯出來,使網絡在訓練時能夠更快收斂,需要對圖像進行中心式歸一化處理,計算圖像各像素平均值并將其與像素值相減。實際效果如圖2所示。

圖2 中心式歸一化示意圖
疊加卷積神經網絡如圖3所示。為了充分利用GDR-Net,在全連接層加入一個卷積層分支。考慮到GDR-Net與淺層次網絡結合需求,卷積核數量為200,卷積核大小為7×7,這樣的設置方式可使其感受野大小得到保證。為了將深層網絡的校正作用充分發揮出來,將GDR-Net與淺層次網絡通過交叉熵損失函數連接,最后以GDR-Net的最終輸出結果對淺層次模型中的參數進行校正。疊加卷積神經網絡損失函數為

圖3 雙網絡模型示意圖(省略激活函數層、中心歸一化層)

式中:Lclassification(θ)為分類器損失函數,Lcross為淺層次網絡與GDR-Net網絡之間的交叉熵損失函數,t=(ti)為GDR-Net中最后一個卷積層對數據特征處理后輸出的特征向量,s=(si)為C4層輸出的特征向量。
在訓練時對GDR-Net與淺層卷積神經網絡進行分開訓練,其中GDR-Net模型的卷積核函數參數初始化時利用Glorot初始化的方式進行選取,而淺層次卷積神經網絡模型在整體訓練過程中為了使其參數能夠快速收斂,參數利用標準高斯分布進行合理選取[11]。淺層次網絡模型數據輸入大小為100×100×1,并利用梯度下降法對其進行變換。
此外,對疊加卷積神經網絡進行訓練。式(2)中α=1-β,只需通過大量訓練確定β超參數值即可求得α。根據網絡參數規模,最終決定訓練中采用的參數:訓練次數為30,每批次圖片數量為128,權重衰減系數為0.000 1,α初始值為0.001。根據模型在測試集中的具體表現選擇最合理的超參數β值。由圖4可知,當取0.2時較合理。

圖4 β與模型分類準確率關系圖
為了更加直觀地觀察到不同樣本大小對3種模型準確率影響,經分析采用同樣的數據以及訓練策略分別對疊加卷積神經網絡及原模型進行訓練測試。根據實驗表現將相應數據進行整合,最終結果如圖5所示。由圖5可知,疊加卷積神經網絡準確率高達97.9%,誤檢量僅為62;而并行網絡模型最大準確率僅為95.4%,誤檢量為123。通過對比可知,疊加卷積神經網絡可有效降低誤解率,準確率提高了2.5%。

圖5 雙網絡模型與單網絡模型不同樣本集對比曲線圖
為了對疊加卷積神經網絡的實際檢測效果進行檢驗,現將該模型與并行模型、SENet模型及傳統機器學習方法支持向量機庫、BP神經網絡進行對比。
圖6為利用不同技術對同一缺陷圖片檢測后得到的最終結果。圖中的綠色方框為雙網絡模型[12]算法測試效果,LibSVM算法測試結果顯示為藍色方框,BP神經網絡測試結果顯示為白色方框,本文所提出改進模型檢測結果顯示為紅色。由該圖不難發現疊加卷積神經網絡檢測更為精確。

圖6 起重機金屬結構檢測結果圖
考慮到當前起重機金屬結構缺陷數據集數量少,識別準確率低的問題。本文為傳統的雙網絡并行模型引入了最新的高性能識別網絡GDR-Net并將其用于大型起重機金屬結構缺陷識別應用中。新的網絡通過空洞卷積方式擴大了模型的感受野。經過不同模型對機械結構缺陷圖片檢測對比之后發現本文所提出的疊加卷積神經網絡和并行網絡模型相比效果更加優異,具體數據為準確率97.9%,誤檢量僅為62,檢測效果更好。