梅國新,姚慶華,陳 瑤,劉 華
(1.云南省交通投資建設集團有限公司,云南 昆明 650228;2.云南省交通科學研究院有限公司,云南 昆明 650011)
目前,檢測方法由于監控攝像機的位置距離監控場景較遠,視頻內工作人員圖像像素尺寸小(一般30像素左右),同時背景較為復雜,這對于檢測安全帽佩戴構成了重大挑戰.針對以上問題,本項目提出了一種邊緣環境下面向大監控視頻背景的安全帽檢測方法。針對邊緣環境下面向復雜背景遠距離監控視頻中安全帽檢測問題,本文討論了jetson tx2環境下基于EfficientDet的檢測方法的性能。
EfficientDet包含兩部分:特征提取網絡EfficientNet和面向多目標檢測的加權雙向特征金字塔網絡。該架構解決了深度網絡的深度、寬度和分辨率之間的平衡問題,可以提高生成模型的泛化能力。如圖1所示,單一提高某個參數,模型對圖像的分類準確率很快會達到上限。

圖1 單獨提升模型寬度、深度、以及圖像分辨率的效果
為了有效調整深度、寬度和分辨率參數,EfficientNet使用了“復合系數”來動態調整這3個參數。(α,β,γ)分別代表網絡的深度、寬度和輸入分辨率。根據前期研究可知網絡寬度和分辨率每增加一倍,計算代價會多四倍,因此EfficientNet對目標函數的約束相進行了調整,分別考慮了網絡深度、網絡寬度和分辨率三個維度:網絡深度約束網絡深度約束分辨率約束其中圖2給出了達到同樣檢測準確率,使用增加網絡寬度、網絡深度、分辨率的策略和使用EfficientNet策略的不同結果。

圖2 (a)baseline model,(b)-(d)單一提參數策略,(e)EfficientNet策略
同時,谷歌大腦團隊對EfficientNet網絡進行了優化,使之適應多種目標檢測,提出加權雙向特征金字塔網絡,從而快速地實現多尺度特征融合,對小目標的檢測起到了顯著的作用。其次采用了EfficientNet作為特征提取網絡,大大減少了參數量,為我們將模型部署到移動邊緣計算設備上提供了可能性。
實驗數據集來自于(https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset),該數據集總共有7581張圖像,包含9044個佩戴安全帽圖像(正類圖像),以及111514個未佩戴安全帽的圖像(負類圖像),所有的圖像都標注出了目標區域及類別。
本文采用mAP(Mean Average Precision)作為算法的性能評價指標,平均精度均值(mAP)是預測目標位置以及類別的這一類算法的性能度量標準。mAP指標能較好地評估目標定位模型、目標檢測模型以及實例分割模型性能。
mAP指標定義如下,其中C為檢測類別數目,AP為每一個檢測類的平均檢測精度。

AP值刻畫了檢測準確率和召回率(precision-recall)曲線面積

準確率和召回率計算公式如下:

式 中,TP表 示 真 正 例(True Positives);TF表示 假 正 例(False Positives);TN表 示 真 負 例(True Negatives);FN表示假負例(False Negatives)。
本文將CascadeRCNN、YOLO V3作為基線算法,對比了不同參數設置的EfficientDet(即EfficientDet-D0、EfficientDet-D3,EfficientDet-D4)在jetson tx2邊緣環境下的性能。其與基線方法模型大小及性能對比情況分別如圖3、圖4所示:

圖3 模型大小對比

圖4 模型性能對比
如下表1所示,EfficientDet在同等精度的前提下,模型只使用了52M參數,僅為主流模型的十幾分之一,計算量為326B FLOPS的EfficientDet-D7在COCO數據集上實現了當前最優的51.0 mAP,準確率超越之前最優檢測器(+0.3% mAP),其規模僅為之前最優檢測器的1/4,而后者的計算量FLOPS更是EfficientDet-D7的9.3倍。從實際檢測效果來看,EfficientDet模型克服了檢測目標間存在著明顯遮擋、重疊率高、圖像分辨率低等問題,取得了比較好的效果,達到了推理速度更快,模型占用空間較小的要求,也為部署在邊緣計算環境上提供了可能。

表1 同等精度下EfficientDet差數對比表