馬培廣 鄧稀肥
(中鐵廣州投資發(fā)展有限公司1) 廣州 510335) (中鐵四局集團有限公司2) 合肥 230023)
連拱隧道是我國近幾年高速公路建設的一種新型的跨度較大的隧道,淺埋連拱隧道具有線性流暢、無需很大占地面積和空間利用最大化等優(yōu)勢[1].由于該隧道埋深較淺,且開挖和支護交錯,淺埋地段的圍巖穩(wěn)定性較差,如果施工過程中發(fā)生人員行為不規(guī)范[2],易導致安全隱患.因此,該隧道在施工過程中,均會采用監(jiān)控的方式掌握施工現(xiàn)場的安全情況.由于隧道施工的環(huán)境因素,會影響視頻采集圖像的清晰度和圖像質(zhì)量,導致無法及時對風險行為進行預警.
針對施工場景風險行為檢測,Mao等[3]對黃土連拱隧道的漏水敏感區(qū)進行了檢測,通過設置不同數(shù)量的環(huán)形和縱向裂紋,分析圍巖滲流場的變化,確定漏水敏感區(qū)域.Li等[4]通過三維有限差分模擬研究了三重隧道的成拱機理,及時實施管棚和帷幕灌漿,確保后續(xù)開挖中的開挖安全,監(jiān)測和分析了三個截面的力學響應.吳賢國等[5]基于物元理論和證據(jù)理論,研究了盾構(gòu)隧道施工對鄰近建筑物的風險評價.龍丹冰等[6]基于知識圖譜改進相關施工行為安全風險檢測方法,但是光纖交時的檢測精度仍需進一步提升.
文中研究淺埋連拱隧道施工場景風險行為視覺關系檢測仿真方法,以淺埋連拱隧道施工場景的特性分析為基礎,針對監(jiān)控視頻畫面色彩對比度不足、畫面清晰度較低等問題實行修復后,采用YOLOv3檢測算法,完成施工場景風險行為檢測,算法獨特性在于僅僅實際標注的特征圖目標框的位置信息以及目標框中物體的類別信息即可計算出網(wǎng)絡的預測輸出與實際標框之間的誤差,同時,其多尺度特性也使得視覺關系參數(shù)不受施工場景風險行為定位初始點坐標的約束,為視覺定位提供新方法.
基于YOLOv3風險行為檢測方法,包含風險行為數(shù)據(jù)集的構(gòu)建和標注、監(jiān)控視頻圖像修復、風險行為檢測以及檢測結(jié)果優(yōu)化.方法架構(gòu)見圖1.
圖1 基于YOLOv3的風險行為檢測框架
在風險行為數(shù)據(jù)集構(gòu)建和標注過程中,采用VOC格式完成監(jiān)控視頻圖像的標注,標注后,生成xml格式的視頻圖像標注文件,對該文件進行圖像修復.
為保證檢測的實時性和精準性,對完成標注的監(jiān)控視頻圖像實行修復處理,以此提升圖像的分辨率[7],文中基于對抗網(wǎng)絡完成監(jiān)控視頻圖像修復.該網(wǎng)絡由生成器和判別器組成,兩者均采用非線性映射函數(shù),網(wǎng)絡模型結(jié)果見圖2.
圖2 基于對抗網(wǎng)絡模型結(jié)構(gòu)
模型在訓練過程中,以反向傳播算法完成,該網(wǎng)絡模型的目標表函數(shù)公式為
Ex~pz(z)lgD(1-G(z))]
(1)
式中:V(D,G)為交叉熵函數(shù),對應二分類;D和G分別為判別器和生成器;z為噪聲向量;x為監(jiān)控視頻圖像的采樣值;pdata(x)為該圖像的真實值;pz(z)為噪聲的真實值;E為期望結(jié)果.
如果G為給定,求解最優(yōu)D,其目標函數(shù)公式為
ObjD(θD,θG)=-Ex~pdata(x)[lgD(x)-
Ex~pz(z)lgD(1-G(z))]
(2)
式中:D的訓練數(shù)據(jù)是由兩部分組成,分別為G生成的圖像數(shù)據(jù)pg(x)和pdata(x);在G為給定的前提下,對該公式實行最小化處理后[8],即可獲取D的最優(yōu)解.因此,在連續(xù)空間內(nèi)該公式可轉(zhuǎn)換成:
pg(x)lgD(1-G(z))]dx
(3)
如果pg(x)和pdata(x)分別采用m、n表示,y∈[0,1],對式(3)實行簡化后得出:
ObjD(θD,θG)=-mlg (y)-nlg (1-y)
(4)
(5)
網(wǎng)絡模型在訓練過程中,對D和G分別進行訓練,對于前者需訓練其最大化數(shù)據(jù)占據(jù)真實數(shù)據(jù)的概率,對于后者則生成最小化lgD(1-G(z))值.依據(jù)不斷迭代完成D和G的優(yōu)化和固定,以此保證D具有最大的判別概率.將其固定后[9],進行G的優(yōu)化,此時保證D具有最小的判別概率.在pdata(x)=pg(x)的情況下,可獲取全局最優(yōu)解.
網(wǎng)絡模型的D和G都有自身對應損失函數(shù),因此,為了獲取視覺質(zhì)量更佳、清晰度更高的監(jiān)控視頻圖像,采用多維損失函數(shù)描述G的損失函數(shù)LG,其公式為
LG=Ladv+αLper+βLtex
(6)
式中:α和β為權(quán)重參數(shù);Ladv、Lper、Ltex均為不同的多維損失函數(shù),依次分別對應對抗、感知,以及紋理.三者的計算公式分別為
Ladv=D(x)(Ex~pG-Ex~pdata)+
λEx~penalty[(‖xD(x)‖-1)2]
(7)
(8)
(9)
式中:λ為變量;x為數(shù)值差;Wij和Hij分別為圖像的寬和高;φij為特征圖譜,對應第j層卷積層;IHR和ILR為特征圖的高維語義信息,前者對應生成特征圖,后者對應真實特征圖.Ltex可完成監(jiān)控視頻圖像紋理信息的局部配準,引入該函數(shù)后,可在圖像修復生成過程中,避免發(fā)生偽影現(xiàn)象[10],保證更好的圖像紋理信息,提升淺埋連拱隧道施工場景視頻監(jiān)控圖像清晰度和質(zhì)量.
1.3.1施工場景風險行為檢測模型
YOLOv3檢測模型是由較多的殘差模塊構(gòu)成,其主要結(jié)構(gòu)包含特征提取、特征融合以及目標檢測三個部分,特征提取是由模型中的卷積層完成,各個卷積層的核心為卷積核[11-12],并且結(jié)合殘差模塊保證特征提取的精準性.完成特征提取后進行特征融合,該融合主要依據(jù)上采樣方式完成,保證圖像深層和淺層特征的有效融合,為風險行為檢測提供可靠特征依據(jù)[13],最后依據(jù)融合后的特征完成風險行為檢測.
YOLOv3檢測模型的損失函數(shù)包含坐標、類別以及置信度,依次分別用l1、l2、l3表示,三者的計算公式為
(10)
(11)
l3=(cξ-cζ)2
(12)
式中:N為訓練的圖像樣本數(shù)量;r為四個屬性值r∈(x,y,ω,h);(x,y)為初始點坐標;特征圖的寬和高分別用w和h表示;λo為二值變量,依據(jù)該變量判斷檢測單元格內(nèi)是否存在目標,如果存在該變量結(jié)果為1,反之為0;k為行為類別,其取值范圍(0,K-1),其中K為行為類別總數(shù)量;ctruth和cpredict分別為行為的類別的實際結(jié)果和檢測結(jié)果;cξ和cζ分別為置信度的實際結(jié)果和檢測結(jié)果.
總損失函數(shù)為
l=l1+l2+l3
(13)
1.3.2施工風險行為檢測模型優(yōu)化求解
YOLOv3檢測模型在進行淺埋連拱隧道施工場景風險行為檢測時,需先完成圖像的特征提取.為了提升模型的特征提取效果,在模型的殘差層和特征層之間,引入通道域注意力機制,以此使模型能夠自動完成特征圖對應的各個通道權(quán)重的學習,強化特征圖,顯著降低背景信息的干擾[14],為風險行為檢測提供更豐富的特征信息,提升施工場景風險行為檢測的精準性,其步驟如下:
步驟1設U表示獲取的特征圖,其大小為s×w×h,通道域注意力機制引入后,采用壓縮方式對U實行處理;同時,通過全局池化對卷積層的輸出結(jié)果進行處理[15],以此可獲取新的特征圖Zs,其大小為s×1×1.則壓縮后通道s的特征計算公式為
(14)
式中:ψsq為壓縮操作;Us為二維矩陣,且為第s個通道;(i,j)為像素特征,對應第i行第j列.
步驟2采用非線性變換對壓縮獲取的s通道的特征圖Z實行處理,該變換通過連續(xù)的兩個全連接神經(jīng)網(wǎng)絡完成;以此可得出卷積核σ,其大小s×1×1.壓縮公式為
c=ψsq(Z,σ′)
(15)
式中:σ′為其中一個卷積核,其可用于完成權(quán)值的學習;ψsq為乘法操作.
(16)
式中:ψsc為us和σs的乘積操作.
獲取某淺埋隧道工程施工時的視頻監(jiān)控圖像作為測試圖像,該圖像的大小為512 px×521 px,圖像數(shù)量共有2 000張.通過Vensim PLE軟件完成風險行為檢測的仿真測試,獲取的圖像數(shù)據(jù)通過MySQL存儲,利用OpenCV和Tensorflow兩種圖像處理庫編寫圖像算法.網(wǎng)絡模型參數(shù)設置:檢測網(wǎng)絡的訓練輪次為50,學習率為0.001,每經(jīng)過兩次迭代則完成一次權(quán)重更新.
為衡量本文方法的檢測性能,采用二值變量λo作為衡量指標,隨機抽取10張圖像進行測試,其中包含4張無人圖像,6張有人施工圖像,獲取10張圖像的λo結(jié)果,見表1.
表1 二值變量測試結(jié)果
由表1可知:采用本文方法對隨機抽取的10張圖像進行檢測后,10張圖像的λo結(jié)果與實際圖像的一致,其中圖像2、4、5、6為無施工人員圖像,因此λo值為0;其余6張圖像的λo值均為1,表示檢測的圖像中存在人員施工.因此,本文方法檢測性能良好,能夠精準判斷施工場景內(nèi)是否存在檢測目標.
為更進一步衡量本文方法對于施工場景風險行為的檢測性能,采用圖像的前景和背景的誤檢率作為評價指標,其中前景指的是圖像中的施工人員,除此之外均稱為背景,其計算公式分別為
(17)
(18)
式中:Ap和Ab為面積,前者對應檢測框區(qū)域,后者人體最小外接矩形;S為Ap和Ab相交面積.文中兩個指標的期望結(jié)果低于7%.
隨機抽取一張圖像,依據(jù)上述兩個公式獲取本文方法在不同大小的檢測窗口下,兩個指標的計算結(jié)果,見圖3.
圖3 兩個指標的計算結(jié)果
由圖3可知:在不同的檢測窗口大小下,采用本文方法對進行風險行為檢測后,φff和φbf兩個指標結(jié)果最高值分別為4.5%和5.5%左右,最小值分別為1.7%和1.5%.因此,本文方法的檢測性能良好,可有效區(qū)別圖像中的前景和背景,以此保證精準的檢測效果.
獲取采用本文方法對全部的測試圖像實行檢測,并獲取風險行為結(jié)果,見圖4.
由圖4可知:本文方法應用后,能夠完成施工場景內(nèi)各種風險行為的檢測,并且可顯示當前施工場景內(nèi)存在的施工人員數(shù)量、風險行為人員數(shù)量;同時發(fā)送風險行為預警提醒.除此之外,還可查看歷史不安全行為記錄以及發(fā)生區(qū)域,見表2.
表2 不安全行為漏檢率測試結(jié)果 單位:次
由表2可知:與其他方法相對比,本文方法只有在1 601~2 000的情況下,漏檢一個,表明應用性良好,能夠?qū)崟r、可靠檢測施工場景內(nèi)的風險行為.
1) 基于對抗網(wǎng)絡模型結(jié)構(gòu),對完成標注的監(jiān)控視頻圖像實行修復處理,保證圖像的曝光現(xiàn)象和陰暗現(xiàn)象有效改善,提升圖像質(zhì)量和清晰度,可靠完成圖像中的目標檢測.
2) 在連續(xù)空間內(nèi),采用多維損失函數(shù),去除偽影現(xiàn)象,進行監(jiān)控視頻圖像紋理信息的局部配準,保證檢測目標前景、后景與實際圖像的一致,可動態(tài)顯示當前施工場景內(nèi)存在的施工人員數(shù)量、風險行為人員數(shù)量.
3) 引入通道域注意力機制,構(gòu)建施工場景風險行為YOLOv3檢測模型,自動完成特征圖對應的各個通道權(quán)重的學習,強化特征圖,獲取不同風險行為結(jié)果,降低漏檢現(xiàn)象的同時發(fā)送風險行為預警提醒.