999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

適用于嵌入式平臺的E-YOLO人臉檢測網絡研究

2020-03-11 13:15:42阮有兵徐海黎
計算機應用與軟件 2020年2期
關鍵詞:嵌入式檢測模型

阮有兵 徐海黎 萬 旭 邢 強 沈 標

1(南通大學機械工程學院 江蘇 南通 226019)2(南京藍泰交通設施有限責任公司 江蘇 南京 210019)

0 引 言

人臉檢測技術是計算機視覺中圖像處理的一個重要分支,無論是在日常生活中常見的監控相機,還是高鐵機場安檢時的人證比對,通常都需要對相機采集的視頻流中人物進行辨別,這就需要對人臉進行檢測。人臉檢測需要檢驗出圖像中是否含有人臉,并獲得信息,諸如人臉在圖像中的位置、傾斜角度以及姿態等。傳統的人臉檢測方法包括基于知識規則方法、統計模型方法以及模板匹配的方法,如支持向量機(SVM)和Adaboost框架等。傳統檢測方法,比如結合Haar-like特征的Adaboost分類算法[1-2],在速度上具有一定的優勢,可以達到實時檢測,但是在實際使用中,光照變化以及人臉姿勢表情變化因素下魯棒性較差。近年來,隨著深度學習技術的日益完善,深度學習逐漸被運用在眾多領域,并獲得巨大的應用價值。基于深度學習的檢測方法已經成為目前人臉檢測的趨勢。如Li等提出的Cascade CNN算法、Redmon等在2015年提出的YOLO(You Only Look Once)算法以及R-CNN、SPP-net、Fast R-CNN、Faster-R-CNN等經典的目標檢測算法[3-6]。

Cascade CNN算法是對Violajones算法的深度卷積網絡實現,人臉檢測速度較快,但是在第一級窗口過濾時采用基于密集滑動窗口的方式,對識別高分辨率中存在大量小人臉的圖像有一定的限制。YOLO算法的思想是將目標檢測作為回歸問題,將整幅圖作為網絡輸入,在輸出層回歸出邊界框的位置及屬性[7-8],算法識別速度快,但是在識別小人臉時存在缺陷,精確度較低。R-CNN主要步驟有三步,首先是對輸入的圖像進行掃描獲得2 000個預選區域,然后將這些區域通過卷積神經網絡提取特征,最終將特征輸入支持向量機和線性回歸器進行分類計算和目標定位計算。Fast R-CNN是R-CNN的升級版本,只需要訓練一個神經網絡,相比而言,計算速度更好。這些深度網絡模型運行在配置有GPU的PC客戶端上時,這類平臺的計算和處理能力較強,可以處理相應的人臉檢測算法,基本可以達到對人臉的實時檢測,但對于基于嵌入式系統的移動設備,將人臉檢測應用于移動端時,由于嵌入式平臺的處理能力和資源的限制,GPU處理器性能的差異,即使采用實時效果較好的Fast R-CNN,效果也不是很理想,只能達到1 FPS以下的幀率,不能夠達到實時檢測的效果[9-10]。

在移動端的目標檢測上,為了提高檢測的速度,研究者們提出了一些小型化的網絡模型,如SSD和YOLO,為了解決在嵌入式平臺上目標檢測性能下降的問題,Redmon提出了tiny-yolo網絡模型,通過減少YOLO模型上卷積層的數量來減少模型大小,同時減少了算法中浮點運算的次數,以達到在嵌入式平臺上實時檢測,但這樣檢測精度也大幅下降[11]。

為了兼顧人臉檢測的快速性和準確性,同時減小模型體積,本文基于YOLO算法提出一種輕量化的人臉檢測網絡模型結構E-YOLO(Enhance-YOLO),摒棄YOLO算法中的全連接層,采用K-means聚類獲取基準區域,采用基準區域來預測邊框,提升檢測的精度。通過降低卷積神經網絡中的網絡層數和卷積核數目,以達到降低模型大小的目的,使網絡模型輕量化。

1 YOLO算法基本原理

圖1為YOLO算法模型。

圖1 YOLO算法模型

2 改進YOLO網絡結構

2.1 精準化

文獻[13]提出Fast Yolo模型,為了降低模型大小以及處理功耗以用于嵌入式平臺的檢測,指出:并非所有捕獲的視頻幀中都包含唯一信息,因此不需要對所有視頻幀進行深度推斷。模型中通過運動概率圖判斷是否需要進行深度推斷,這種方式可以降低功耗,但會導致模型的精準度不高,同時影響識別的幀率。

YOLO檢測網絡模型中包括24個卷積層和2個全連接層,通過卷積層得到卷積特征后,經過最后的2個全連接層得到7×7×30的特征向量,其中輸出的特征向量中每個1×1×30的特征向量都與原始圖像中每個單元格存在映射關系,然后利用生成的1×1×30的特征向量來預測目標的位置和相關屬性。但是通過這種方式,在經過全連接層時會丟失很多圖像的空間信息,造成定位精度下降。

本文提出的網絡模型借鑒Faster R-CNN算法,Fast R-CNN算法中使用基于基準區域和分類的檢測方式,有較好的目標檢測效果。E-YOLO網絡模型采用基準區域來預測邊界框,具體做法為去掉卷積網絡中最后的兩個全連接層,在最后一層卷積層上進行基準區域預測,以減少圖像中目標信息的丟失,同時將輸入圖片的尺寸縮小為416×416,在每個單元格上利用五個基準區域預測,最終在每個單元格上預測出五個候選框,然后利用候選框直接預測目標的坐標和寬度、高度以及置信度。在Fast R-CNN算法中,獲得基準區域的方式是采用人工設定的方式,手動隨機選擇基準區域的個數和大小,以這種方式獲得最終的區域需要重復篩選,耗時較長。本文提出的網絡模型采用K-means聚類以解決獲取基準區域的問題,采用統計學的思想,對數據集中人工手動的標定框信息進行統計分析、聚類,然后依據分析的結果得到基準區域個數和寬高等參數信息。

2.2 小型化

為了能夠在嵌入式平臺上對人臉進行實時檢測,需要對現有模型進行精簡,由于使用場景是人臉檢測,只需要將圖片中的人臉和背景進行分類,不需要如此深的網絡結構。E-YOLO在YOLO的基礎上減少了卷積核的數目,在YOLO網絡模型中,卷積核的數目和網絡層數呈正相關關系,隨著算法中網絡層數的增加,卷積核也呈現遞增的趨勢,通過減少每層的卷積核數量,使網絡模型變得輕便。具體做法為將網絡中卷積層的卷積核數目減少一半,但池化層中卷積核數量以及卷積層最后一層的數量保持不變。同時為了進一步降低在嵌入式平臺的大小問題,對輸入的圖片進行處理,在訓練過程中采用多尺度訓練,將不同的圖片裁剪為統一的大小,通過1×1的卷積對圖像進行降維處理,將處理后的特征用于人臉檢測,進而加快在嵌入式平臺上的處理速度。改進后的網絡模型如圖2所示。

圖2 E-YOLO網絡模型示意圖

3 實驗與分析

3.1 實驗數據集及訓練平臺

為了測試本文提出的E-YOLO網絡模型性能,采用FDDB以及WIDER FACE人臉數據集進行測試,模型訓練是在NVIDIA GTX1080顯卡的工作站上進行。FDDB(Face Detection Data Set and Benchmark)是一款針對人臉檢測算法的評判標準,在人臉檢測領域具有較大的權威性,該數據集共提供了包含5 171個人臉的2 845幅圖片,人臉的狀態特征多樣化,包含遮擋、低分辨率、不同姿態等情況,顏色包含彩色圖像以及灰度圖。WIDER FACE是由香港中文大學提供的人臉檢測數據集,它比其他數據集更廣泛,該數據集共有32 000幅圖像,包含39 000個人臉數據,數據集中有非常多的小尺度人臉圖像,并且背景復雜,對于人臉檢測的評估更具有權威性[15-16]。圖3是FDDB和WIDER FACE數據集中的示例圖片。

圖3 FDDB和WIDER FACE數據集的示例圖片

3.2 評價標準

實驗中用準確率(Precision)、召回率(Recall)以及速度三個參數作為檢測結果的評價指標。

準確率(Precision)為數據集中實際檢測出的正樣本數與數據集中檢測出所有的正樣本的數的比值:

召回率(Recall)為數據集中實際檢測出的正樣本數與數據集中預測的樣本數的比值:

式中:TP為數據集中實際為正例,同時被分類器標記為正例的樣本數;FP為數據集中實際為負例,同時被分類器標記為正例的樣本數;FN為數據集中實際為正例,同時被分類器標記為負例的樣本數。

檢測速度(Speed)的定義為每秒鐘處理的圖片數量,單位為FPS。

3.3 實驗結果及分析

為了測試本文提出的網絡模型人臉檢測的效果,對網絡模型進行訓練和實驗,由于本文提出的網絡是針對于嵌入式平臺,所以選擇TINY-YOLO和Fast YOLO網絡模型[13]作為對比模型。分別使用E-YOLO、TINY-YOLO以及Fast YOLO在WIDER FACE和FDDB數據集上訓練和測試。測試結果如表1所示,在FDDB和WIDER FACE數據集上的PR曲線如圖4所示。

表1 使用FDDB和WIDER FACE數據集實驗測試結果

(a) FDDB數據集

(b) WIDER FACE數據集圖4 在數據集上人臉庫 PR 曲線

由表1可知,本文提出的網絡模型E-YOLO和TINY-YOLO、Fast YOLO在檢測的準確度上差別不大,但是相比TINY-YOLO和Fast YOLO模型,E-YOLO模型的召回率要高。因此本文提出的網絡模型相比TINY-YOLO和Fast YOLO有更高的平均精度,在recall-precision方面能達到一個更好的平衡狀態,其次在檢測速度方面E-YOLO要明顯優于另外兩個網絡。

隨后將E-YOLO、TINY-YOLO以及Fast YOLO分別移植到嵌入式平臺上中,測試其速度和模型大小。本文選擇的嵌入式處理器為NVIDIA Jetson TX1,它是英偉達公司推出的第二代嵌入式平臺開發組件,體積只有身份證大小,有256個CUDA核心,采用計算機視覺技術、深度學習技術以及GPU計算圖像處理技術。

在實驗中,將E-YOLO、TINY-YOLO以及Fast YOLO分別移植到TX1嵌入式平臺中,輸入300幀640×480的視頻數據,對輸入的視頻進行幀采樣,對每幀圖像進行預處理然后輸入到三個模型中,對每幀圖像進行人臉檢測,檢測結果如表2所示。

表2 在TX1平臺上不同模型對比結果

由表2可知,TINY-YOLO的模型大小為61 MB,E-YOLO的模型大小為TINY-YOLO模型大小的70.5%,為43 MB,相比Fast YOLO模型稍大,但在檢測速度方面,TINY-YOLO的檢測速度為19 FPS,Fast YOLO檢測速度約為18 FPS,而目前市場上大多數攝像機的幀率為25 FPS,均達不到對攝像機視頻數據的實時檢測,而E-YOLO模型的檢測速度為26 FPS,是TINY-YOLO檢測速度的1.37倍,基本可以實現在嵌入式平臺下的實時人臉檢測。圖5是不同模型在數據集中測試的結果示例圖。

圖5 模型在FDDB和WIDER FACE數據集上測試效果圖

4 結 語

為了解決嵌入式平臺計算能力弱、資源有限、不能部署深度學習人臉檢測網絡的問題,提出了一種改進E-YOLO網絡,模型的主體思想沿用YOLO算法的方案,在YOLO的基礎上簡化模型,減少卷積核的數目,使得模型可以應用于嵌入式平臺,同時去掉全連接層,保留全連接層丟失的信息,提升檢測的準確度。實驗結果表明,本文提出的算法在模型大小、檢測速度以及檢測精度上均優于TINY-YOLO模型算法,在準確率和召回率之間取得一個較好的平衡狀態,同時移植到嵌入式平臺上能夠對圖像進行實時檢測。

下一步的研究工作是將E-YOLO人臉檢測網絡應用于工業領域,如無人駕駛、智能安防等新產品的開發中。

猜你喜歡
嵌入式檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
搭建基于Qt的嵌入式開發平臺
嵌入式軟PLC在電鍍生產流程控制系統中的應用
電鍍與環保(2016年3期)2017-01-20 08:15:32
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 欧美一区二区啪啪| 99在线视频免费| 亚洲国产日韩欧美在线| 国产综合在线观看视频| 最新国产成人剧情在线播放| 欧美成人午夜在线全部免费| 国产丝袜无码精品| 就去吻亚洲精品国产欧美| 91久久偷偷做嫩草影院免费看 | 日韩精品高清自在线| 久久精品人人做人人爽电影蜜月 | 丁香亚洲综合五月天婷婷| 免费看久久精品99| 99re在线视频观看| 久久青青草原亚洲av无码| 欧美成在线视频| 亚洲中文字幕av无码区| 久操线在视频在线观看| 人妻丰满熟妇AV无码区| 久久男人资源站| 一级香蕉人体视频| 国产SUV精品一区二区| 欧美精品三级在线| 久久精品国产国语对白| 亚洲欧美激情另类| 国产99在线观看| 夜夜操天天摸| 五月激情综合网| 最新国产高清在线| 国产在线观看第二页| 欧美国产在线一区| 四虎精品免费久久| 久久精品只有这里有| 亚洲福利视频一区二区| 精品少妇人妻无码久久| 欧美一级在线播放| 青青国产成人免费精品视频| 中文无码精品A∨在线观看不卡| 日本免费福利视频| 国产一区二区福利| 重口调教一区二区视频| 亚洲日韩欧美在线观看| 国产1区2区在线观看| 亚州AV秘 一区二区三区| 999国内精品久久免费视频| 久久综合色天堂av| 欧美无专区| 日本亚洲国产一区二区三区| 亚洲免费三区| 国产欧美在线视频免费| 一级片免费网站| 欧美19综合中文字幕| 波多野结衣一区二区三区四区视频| 毛片免费高清免费| 免费人成又黄又爽的视频网站| 国产在线视频自拍| 亚洲AV无码乱码在线观看代蜜桃| 亚洲人成亚洲精品| 免费播放毛片| 国产亚洲欧美另类一区二区| 伊人久热这里只有精品视频99| 免费久久一级欧美特大黄| 亚洲成A人V欧美综合| 久久国产精品麻豆系列| 久热re国产手机在线观看| 久久婷婷六月| 国产精品亚洲精品爽爽| 成年av福利永久免费观看| a在线观看免费| 国产精品美女在线| 久久不卡国产精品无码| 91原创视频在线| 成人国产精品2021| 老司机精品一区在线视频| 制服无码网站| 日韩中文字幕亚洲无线码| 三级国产在线观看| 亚洲品质国产精品无码| 国产黄在线观看| 日韩欧美国产成人| 久久久久人妻一区精品| 99久久精品国产精品亚洲|