999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進Tiny-yolov3算法的安全帽佩戴檢測

2021-02-07 02:37:42鐘鑫豪龍永紅何震凱李培云
湖南工業大學學報 2021年2期
關鍵詞:實驗檢測

鐘鑫豪,龍永紅,何震凱,李培云

(湖南工業大學 交通工程學院,湖南 株洲 412007)

0 引言

在鐵路施工中,安全是施工項目中最重要的一部分,每年在施工工程中由于未佩戴安全帽導致的安全事故時有發生。在國內,人工監測安全帽的佩戴占大多數,這不僅耗時耗力,如果監管不力還會導致嚴重的后果。因此,智能檢測施工人員佩戴安全帽就十分有益,對此,本文通過圖像處理的方式對施工人員佩戴安全帽的檢測進行了研究。

國內外學者對此都做了大量的工作和研究,現有的檢測佩戴安全帽的目標檢測方法主要為兩類。

另一種方法則是基于深度學習的目標檢測識別算法。該方法憑借著卷積神經網絡的無需手動設計圖像特征這一優勢[4-5],逐漸獲得許多研究者的青睞。對于該類方法目前的目標檢測方法主要有兩類,第一類是“two-stage”深度學習方法,它基于區域提名,輸入圖片進去先生成候選框,然后對生成的候選框進行分類。例如R-CNN[6-8]、R-FCN[9]等算法。第二類則是“one-stage”的端對端深度學習算法,輸入圖片后直接對整個圖片進行預測、定位和分類。例如yolo、SSD[10]等算法,此類方法由于在檢測步驟上比第一種方法簡化了一些步驟,因此檢測速度較第一類快,但是精度較低。雖然基于深度學習的目標檢測方法相比于傳統的目標檢測方法有著魯棒性較高、檢測精度較好的特點,但是由于卷積神經網絡的復雜性,對圖片集的訓練將消耗許多計算資源,并且要達到實時檢測的目的對計算機的配置要求很高。因此,本文提出一種改進Tiny-yolov3 的安全帽檢測方法。

1 Tiny-yolov3 算法改進

1.1 Tiny-yolov3 算法簡介

yolo 系列算法是J. Redmon 等[11-13]提出的基于深度學習的目標檢測模型,由于它的提出是為實現高精度的在線目標檢測,因此yolo 系列算法采用的是one-stage 的目標檢測算法,其中yolov3 是該系列中最新提出的改進算法。并且該算法在Coco 等數據集上有不俗表現,在工業和商用上均有廣泛的應用。而本次采用的Tiny-yolov3 算法是在yolov3算法的平臺上的輕量級的實時檢測算法,將yolov3上的特征網絡Darknet-53 的53 層神經網絡簡化為13 層,因此它的檢測速度比yolov3 快許多。其卷積結構仍然使用與yolov3 相同的全卷積網絡(convolutionl networks,FNC)和批量標準化(batch normalization)等。

Tiny-yolov3 結構如圖1 所示,它主要由卷積層和池化層構成,分別有7 層卷積層和6 層池化層(max pooling),網絡中每層卷積層或者池化層后的特征圖尺寸分別表示分辨率寬、分辨率高、通道數。

圖1 Tiny-yolov3 網絡結構圖Fig. 1 Tiny-yolov3 network structure diagram

Tiny-yolov3 的工作流程如下:首先,輸入一張圖片,將圖片劃為S×S的網格,而每個網格內出現B個預測框;然后對預測框內的目標進行類型檢測;最后輸出檢測目標的置信度和檢測框。而置信度的計算式為

式中:Pr(o)為目標o存在的概率,一般為0 或者1;Riou為預測框和真實包含目標框的交并比。

因此,置信度的數值是由每個網格中包含檢測目標的概率和預測框的準確度共同決定的。

訓練模型時,Tiny-yolov3 使用的損失函數與yolov3 相同,主要由預測框的位置(x,y),預測框的長寬(w,h),預測類別(class),以及預測置信度(confidence)確定。損失函數公式如下:

肺癌患者機體免疫功能低下,臨床上采用放化療、手術以及侵襲性操作治療增加了患者對病原菌的易感性,極易引起患者院內感染[1-8]。由于臨床上大量廣譜抗生素的應用,以前無致病或致病能力弱的細菌導致的感染不斷增多,細菌也出現嚴重耐藥性。合并感染會增加患者的治療難度,影響預后,嚴重者可導致死亡[3-4]。為探討肺癌患者院內感染的相關危險因素,本文回顧性分析83例肺癌患者合并院內感染的臨床資料,現報告如下。

式中:n為預測框個數;Lxy為預測框位置誤差;Lwh為預測框長寬誤差;Lclass為類別預測誤差;Lconfidence為置信度誤差。

1.2 添加殘差網絡

由于Tiny-yolov3 的神經網絡采用了yolov3 的簡化神經網絡模型,因此與yolov3 相比,其速度快上許多,但是檢測精度隨之下降。提高深度學習模型的檢測精度最常用的方法是增加網絡深度,即增加卷積層數。卷積神經網絡層數越深,收斂的可能性越小,淺網絡提取的小對象的特征隨著網絡的加深而被稀釋。如果網絡太深,當在圖層之間傳遞要素信息時,也會導致要素信息丟失。因此,課題組在原始網絡的第4 層和第7 層之間添加了殘差網絡結構。殘差網絡使用1×1 個卷積層和3×3 個卷積層提取特征。將輸入結構之前的特征圖添加到殘差結構之后生成的特征圖中,同時將淺層信息和深層信息傳輸到下一個卷積層以提取特征。這樣,可以減少在層之間通過時特征信息的這種丟失,并且可以提高網絡檢測的準確性。殘差模塊如圖2 所示,其中n指輸入通道數,C指通道數,t指通道擴張或壓縮的倍數。

圖2 殘差網絡結構Fig. 2 Residual network structure

1.3 損失函數與篩選預測框的改進

Tiny-yolov3 的評估方法與yolov3 相同,交并比(intersection over union,IOU)是預測框與真實框的交并集,是目標檢測重要的評估方法。由交并比能得出損失函數,目標檢測的損失函數一般由分類損失函數(classificition loss)和回歸損失函數(bounding box)構成。而由于Tiny-yolov3 的初始Riou存在一些問題:

1)當預測框和真實框不相交,即Riou=0 時,Loss 值無法進行評估;

2)當存在兩框重疊并且Riou相同的情況,但是位置預測框位置不相同時,Loss值無法區分相交情況下的不同。因此,課題組提出用距離交并比DIOU_Loss(Distance_IOU_Loss)來代替IOU_Loss做損失函數的評估。距離交并比計算式如式(3)。

式中:A為真實框;B為預測框;為真實框和預測框的交集區域;為真實框和預測框的并集區域;Deuclidean為最小外接框對角線距離;Dcenter為兩個中心點的歐氏距離。

本文將原算法中的篩選預測框的NMS 算法Rdiou改進為Ldiou算法,如式(4)所示:

當使用DIOU 算法來檢測目標時,將會考慮預測框、真實框的重疊面積和兩者的中心距離,當存在預測框在真實框里面時,直接計算兩個框之間的距離,從而達到快速收斂的目的,并且解決了無法區分預測框在真實框內部時無法區分相對位置的問題。

2 實驗

2.1 實驗平臺

本文的實驗是在windows10 環境下完成的算法搭建,硬件環境如下:處理器,AMD Ryzen5 3600 3.6 GHz;GPU 顯卡,RTX2060SUPER,顯卡的內存為8 GB;計算機內存為16 GB。軟件上安裝了Visual Studio2015、python 3.6.5,并且同時安裝了CUDA10.3 和cudnn9.0.0,以支持NVIDIA GPU 的使用,深度學習框架為Caffe[14]。

2.2 數據集制作

本文針對所研究的問題,制作了一個規模適中的數據集。數據來源于監控視頻截圖、網絡爬蟲和圖片庫收集。為保證訓練出的模型具備較高魯棒性和多場景檢測能力,樣本圖片中的施工人員的拍攝角度各異,光照的條件也有所不同。課題組按照Pascal VOC 的數據集格式構建了自己的數據集,數據集包括5 323 張圖片,并采用labellmg 工具對圖像進行分類和標定后生成XML 文件,界面見圖3 所示。

圖3 labellmg 界面Fig. 3 Labellmg interface

標記者的類型和坐標位置信息,通過程序將XML 文件轉換為TXT 文件輸入到訓練集中。本實驗按照7:2:1 的比例設置訓練集、驗證集和測試訓練后的模型集。

2.3 實驗指標

本實驗的結果評估標準主要為識別準確率p(precision)、召回率r(recall)、平均精確率均值(mean average precision,mAP)和檢測速度FPS。首先,p表示在識別的正樣本中,真實樣本所占的比率,即

式中:TP為正確分類為正樣本的數;FP為將目標錯誤分為正樣本的數。

r表示識別正確的正樣本在總樣本數中所占的比例,即

式中FN為被錯誤劃分為負樣本的正樣本數。

如果只用precision 或recall 作為衡量一個模型檢測精度的優劣顯然不合適。因此,課題組還需要目標檢測中最重要的指標之一的mAP,是多個驗證集的平均AP 值,mAP 是由Precision-recall 曲線與坐標軸包圍區域的面積。n為計算的組數,則差值近似的公式為

2.4 實驗結果分析

課題組使用官網上提供的Tiny-yolov3 的權重參數作為權重訓練的初始參數,并根據自制的訓練集進行參數微調以達到最佳訓練效果,部分試驗參數調整如表1 所示。

網絡參數按照表1 進行了Tiny-yolov3 和本文改進后的Tiny-yolov3 算法訓練和驗證,并分別計算了識別準確率p、召回率r、平均精確率均值mAP和檢測速度FPS,結果如表2 所示。

表1 網絡參數說明表Table 1 Network parameter description table

表2 各算法的檢測結果參數Table 2 Parameters of detection results of each algorithm

從表2 所示結果來看,改進后的Tiny-yolov3 在準確率和召回率上分別有著4.6%和3.9%的提升,在最關鍵的mAP上也有4.1%的提升。由于改進的網絡上增加了殘差結構,因此比原網絡的FPS慢一點,但是影響不大,依然能滿足實時性的要求。另外,為了更直觀地表現兩種算法的差異,選取了一些兩種算法檢測的效果圖。圖4 為本文安全帽佩戴檢測改進算法與原算法Tiny-yolov3 的比較結果圖。其中,圖a、d、g 為原圖,圖b、e、h 為Tiny-yolov3 檢測結果,圖c、f、i 為本文改進的Tiny-yolov3 算法的實驗結果。對原圖1 的檢測中,圖b 漏檢了左前的一位佩戴了安全帽的人,圖c 沒有漏檢;對原圖2 的檢測中,圖e 漏檢了后面佩戴了安全帽的人和被遮擋的人,圖f 沒有漏檢佩戴安全帽人員,但是漏檢了一些被遮擋的人;對原圖3 的檢測中,圖h 中漏檢了后面的2 人與右側的人,圖i 無人漏檢。從實驗結果比較來看,本文的改進算法能更好地檢測出小目標。

圖4 實驗結果Fig.4 Experimental results

3 結語

本文基于Tiny-yolov3 的深度學習算法,通過在特征提取網絡上加入殘差網絡模塊,在不太影響檢測速度的情況下,提高了小目標特征的獲取。同時,在損失函數與篩選框的優化中,引入了DIOU_Loss 的重合邊界框的誤差計算以提高目標的識別準確率。通過理論分析與實驗結果表明:改進后的Tiny-yolov3與原算法相比,識別準確率提高了4.6%,召回率提高了3.9%,平均精確率均值提高了4.1%,幀率達到63 幀/s,滿足實時監測的要求。但是,與yolov3 等大型檢測網絡比起來,小目標檢測的識別準確率有待加強。因此,接下來的工作是如何提高更小目標的檢測準確率。

猜你喜歡
實驗檢測
記一次有趣的實驗
微型實驗里看“燃燒”
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 91亚洲精选| 97在线视频免费观看| 在线精品视频成人网| 五月天丁香婷婷综合久久| 日本高清有码人妻| 一本综合久久| 欧美一级一级做性视频| 精品三级网站| 亚洲综合天堂网| 精品久久久久久中文字幕女| 国产99在线观看| 免费一级毛片在线播放傲雪网| 亚洲精品中文字幕无乱码| 国产三级毛片| 成人福利在线看| 青草国产在线视频| 亚洲国产综合精品中文第一| 秋霞午夜国产精品成人片| 91最新精品视频发布页| 国产精品白浆无码流出在线看| 亚洲成人网在线播放| 99热这里只有精品在线观看| 欧美综合一区二区三区| 91视频区| 欧美笫一页| 精品少妇人妻一区二区| 亚洲成A人V欧美综合天堂| 欧美精品另类| 国产精品刺激对白在线| 国产午夜精品鲁丝片| 在线国产毛片| 日韩AV无码一区| 麻豆国产精品视频| 蜜臀AV在线播放| 国产菊爆视频在线观看| 青草视频免费在线观看| 91在线国内在线播放老师| 亚洲中文在线视频| 亚洲三级电影在线播放| 91精品啪在线观看国产60岁| 久久a级片| 丝袜亚洲综合| 欧美在线伊人| 91久久精品日日躁夜夜躁欧美| 亚洲swag精品自拍一区| …亚洲 欧洲 另类 春色| 国产欧美亚洲精品第3页在线| 国产精品露脸视频| 亚洲欧美成人影院| 国产精品露脸视频| 情侣午夜国产在线一区无码| 在线看片中文字幕| 国产人碰人摸人爱免费视频| 呦女亚洲一区精品| 亚洲三级色| 亚洲无限乱码| 这里只有精品国产| 亚洲最大福利视频网| 91麻豆精品视频| 青青青国产在线播放| 国产毛片一区| 色婷婷亚洲十月十月色天| 日本成人不卡视频| 欧美国产日本高清不卡| 色综合久久久久8天国| 综合成人国产| 福利在线一区| 看看一级毛片| 免费人成视网站在线不卡| 青青青国产免费线在| 欧美激情综合一区二区| 国产本道久久一区二区三区| 九九热这里只有国产精品| 国产成人亚洲毛片| 精品少妇人妻av无码久久| 99精品视频九九精品| 日韩精品一区二区深田咏美| 欧美一级在线播放| 99精品免费在线| 波多野结衣在线一区二区| 日本免费高清一区| 国内a级毛片|