999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SSD卷積神經(jīng)網(wǎng)絡(luò)的公交車下車人數(shù)統(tǒng)計(jì)①

2019-03-11 06:02:10李繼秀李嘯天劉子儀
關(guān)鍵詞:檢測

李繼秀,李嘯天,劉子儀

(西南交通大學(xué) 唐山研究生院,唐山 063016)

在各大城市公共交通系統(tǒng)中,隨著人口密度的不竭增長,城市公共交通系統(tǒng)經(jīng)常出現(xiàn)滿載現(xiàn)象.乘客進(jìn)出公交車的人數(shù)信息是控制和管理公交車交通系統(tǒng)非常重要的一環(huán).早期計(jì)數(shù)的方法大部分為人工計(jì)數(shù),不僅耗時(shí)長,效率低下,而且消耗大量的人力物力,加重交通系統(tǒng)運(yùn)營成本.深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展在特征提取上給視頻監(jiān)控下的交通控制帶來了驚人的便捷,可以端對(duì)端訓(xùn)練公交車視頻監(jiān)控場景下人群計(jì)數(shù)算法模型,省去了前景分割和人為地設(shè)計(jì)和提取特征等步驟,通過神經(jīng)網(wǎng)絡(luò)多層卷積之后得到的高層特征,能使得人群計(jì)數(shù)算法的功能愈加卓越,增強(qiáng)了人數(shù)統(tǒng)計(jì)數(shù)目的可信度.因此,本文提出基于深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)的公交車視頻監(jiān)控場景下的人數(shù)統(tǒng)計(jì)系統(tǒng),給公交車管理人員合理地調(diào)度車輛提供參考.

在許多基于視頻圖像處理的人流量統(tǒng)計(jì)技術(shù)中,根據(jù)檢測模塊的不同,可以分為人頭檢測[1,2]、頭肩檢測[3,4]和全身檢測[5].近些年,又發(fā)展了運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)[2,6]實(shí)現(xiàn)人流量統(tǒng)計(jì).公交車的視頻監(jiān)控場景下進(jìn)行人數(shù)統(tǒng)計(jì)主要有三種:基于差分統(tǒng)計(jì)的公交車人流量統(tǒng)計(jì)[7,8]、基于計(jì)數(shù)線法和閾值法的公交車人流量統(tǒng)計(jì)[9]和基于使用塊運(yùn)動(dòng)功能的公交車人流量統(tǒng)計(jì)[1].

本課題的難點(diǎn)有三:首先,所針對(duì)的公交車視頻數(shù)據(jù)分辨率較低(352×288).且由視頻獲取的視頻幀圖像往往存在運(yùn)動(dòng)模糊的缺點(diǎn).其次,攝像頭角度覆蓋范圍廣.最后,本課題攝像頭角度與已知文獻(xiàn)中的公交車攝像頭角度有較大區(qū)別,傳統(tǒng)過線計(jì)數(shù)統(tǒng)計(jì)的方法無法適用本課題.本論文利用 SSD (Single Shot Detector)深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行人頭目標(biāo)檢測,SORT (Simple Online and Real-time Tracking)目標(biāo)追蹤算法實(shí)現(xiàn)人頭的多目標(biāo)追蹤,跨區(qū)域人群計(jì)數(shù)方法統(tǒng)計(jì)公交車下車人數(shù).系統(tǒng)準(zhǔn)確率達(dá)到78.38%,實(shí)現(xiàn)了基于深度卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)公交車監(jiān)控場景下的人數(shù)統(tǒng)計(jì).

1 系統(tǒng)框架

基于深度卷積神經(jīng)網(wǎng)絡(luò)算法實(shí)現(xiàn)公交車視頻監(jiān)控場景下的人群數(shù)量統(tǒng)計(jì),并實(shí)現(xiàn)一個(gè)監(jiān)控系統(tǒng),對(duì)人群數(shù)量和人群密度實(shí)施實(shí)時(shí)監(jiān)控、數(shù)據(jù)剖析.公交車視頻監(jiān)控場景下的人數(shù)統(tǒng)計(jì)的系統(tǒng)框架如圖1所示.主要是三大部分:公交車人頭目標(biāo)檢測、對(duì)人頭運(yùn)動(dòng)軌跡進(jìn)行目標(biāo)跟蹤、跨區(qū)域人數(shù)統(tǒng)計(jì).

圖1 系統(tǒng)框架

2 本文算法

本章首先闡述數(shù)據(jù)集的分析和處理,然后運(yùn)用YOLO (You Only Look Once)兩個(gè)不同的版本和 Faster-RCNN (Faster Region based Convolutional Neural Network)以及SSD目標(biāo)跟蹤算法對(duì)公交車乘客進(jìn)行全身檢測.然而在公交車這一特定視頻監(jiān)控場景空間里,由于攝像頭涉及空間狹小,行人之間遮擋嚴(yán)重,效果并不理想,漏檢率和誤檢率較高.故綜合考慮,本論文目標(biāo)檢測采取運(yùn)用Caffe-SSD網(wǎng)絡(luò)模型進(jìn)行人頭檢測的方法.再利用SORT目標(biāo)追蹤算法實(shí)現(xiàn)人頭的多目標(biāo)追蹤,最后結(jié)合跨線人群計(jì)數(shù)方法統(tǒng)計(jì)公交車下車人數(shù).

2.1 數(shù)據(jù)集的分析及處理

輸入視頻源,使用OpenCV計(jì)算機(jī)視覺庫的相關(guān)API庫,來對(duì)輸入的200個(gè)原始視頻幀率為15FPS的視頻文件按每秒抽取一幀的方式切幀,得到公交車后門攝像頭所能覆蓋區(qū)域的306 712張圖片,圖片的分辨率是352×288.圖片涉及多種場景,包括白天、黑夜;涉及多種人群密度,包括擁擠、疏散等.

為了驗(yàn)證對(duì)乘客進(jìn)行全身檢測的可行性,本系統(tǒng)首先分別使用不同深度神經(jīng)網(wǎng)絡(luò)模型,如YOLO[10]模型,Faster-RCNN[11]模型,SSD[12]模型,設(shè)置置信度均為50%,對(duì)本論文使用的公交車上下車數(shù)據(jù)進(jìn)行目標(biāo)檢測.檢測結(jié)果如圖2所示,圖2(a)是 YOLOv1-darknet網(wǎng)絡(luò)模型對(duì)行人進(jìn)行全身檢測的檢測結(jié)果,由圖可知,檢測結(jié)果較準(zhǔn)確,但系統(tǒng)識(shí)別框內(nèi)為“person”類的概率較低,置信度太低.圖2(b)是 YOLOv3-darknet模型檢測結(jié)果,由圖可知,識(shí)別框內(nèi)為“person”類的概率較高,但框中把兩個(gè)人識(shí)別為同一人.圖2(c)是VGG+Faster-RCNN模型檢測結(jié)果.識(shí)別框內(nèi)識(shí)別框內(nèi)為“person”類的概率較高,但把背景中的不是“person”的類別識(shí)別成了“person”類,誤檢率較高.圖2(d)是使用 SSD 模型對(duì)人數(shù)較少情況進(jìn)行全身檢測的檢測結(jié)果,圖2(e)是SSD模型對(duì)人數(shù)較多情況進(jìn)行全身檢測的檢測結(jié)果.由檢測結(jié)果可知,SSD模型無論在哪種人群密度下,都能較準(zhǔn)確識(shí)別出車中所有乘客,但全身檢測面積太大,不利于后續(xù)的目標(biāo)跟蹤和人群計(jì)數(shù).這是本論文選擇使用SSD模型作為目標(biāo)檢測的原因之一.

由圖2所知,圖片中的矩形框是模型識(shí)別出的乘客,雖然這些深度學(xué)習(xí)網(wǎng)絡(luò)模型都能在一定程度上識(shí)別出乘客,但由于公交車攝像頭覆蓋區(qū)域空間狹小,乘客之間存在嚴(yán)重遮擋,還有視頻抽幀存在的運(yùn)動(dòng)模糊等問題.對(duì)乘客進(jìn)行全身檢測,漏檢率和誤檢率都很高.考慮攝像頭角度問題和乘客頭部面積較小且遮擋不嚴(yán)重等特征,同時(shí)為了便于實(shí)現(xiàn)目標(biāo)幀之間的乘客追蹤和人群計(jì)數(shù).因此本論文目標(biāo)檢測采用SSD深度神經(jīng)網(wǎng)絡(luò)模型對(duì)乘客進(jìn)行頭部檢測.經(jīng)過手工標(biāo)注數(shù)據(jù)集,本論文最終選取了10 654張圖像用于標(biāo)注,其中70%的數(shù)據(jù)集用于訓(xùn)練,30%的數(shù)據(jù)集用于測試.

圖2 不同網(wǎng)絡(luò)模型對(duì)乘客進(jìn)行全身檢測結(jié)果

2.2 運(yùn)用Caffe-SSD模型進(jìn)行公交車人頭檢測

SSD[12]深度學(xué)習(xí)目標(biāo)檢測算法是在YOLO[10]算法上改進(jìn)而來,基于端對(duì)端方法,無區(qū)域提名,使用 VGG-16-Atrous作為基礎(chǔ)網(wǎng)絡(luò),沿用了YOLO中直接回歸bbox和分類概率的方法,SSD與YOLO差異之處是除了在選取的5個(gè)特征圖上進(jìn)行預(yù)測,還有在最終特征圖上做目標(biāo)檢測.SSD還參考了Faster R-CNN目標(biāo)檢測算法,大批使用anchor來提升識(shí)別精確度,應(yīng)用全圖全部位置的多尺度區(qū)域特征并進(jìn)行回歸.由于結(jié)合這兩種結(jié)構(gòu),SSD 綜合了 Faster R-CNN 的 anchor box 和YOLO端對(duì)端的單個(gè)神經(jīng)網(wǎng)絡(luò)檢測思路.所以SSD能保持較高的識(shí)別準(zhǔn)確度和識(shí)別速度.

相比YOLO模型,SSD模型不僅在檢測速度上有了很大的提升,而且檢測識(shí)別精確度也有所加強(qiáng).SSD是YOLO的多尺度版本,由于YOLO對(duì)小目標(biāo)檢測效果不好,所以SSD在不同的feature map上分割成grid然后采用類似RPN的方式做回歸,較好地解決了這一問題,因此本論文選擇的目標(biāo)檢測算法為SSD算法.

本論文首先創(chuàng)建VOC格式的數(shù)據(jù)集,所有人頭數(shù)據(jù)集均為手工標(biāo)注,耗費(fèi)了大量的人力.難點(diǎn)在于將自己的數(shù)據(jù)集整合到SSD卷積神經(jīng)網(wǎng)絡(luò)中,以期提高實(shí)驗(yàn)性能.數(shù)據(jù)集有多種種類,如JPG圖像、帶有數(shù)據(jù)標(biāo)注的XML文件、帶有圖像信息和標(biāo)注圖像坐標(biāo)等信息的TXT文件.文件歸類、訓(xùn)練集和測試集分別處理,并將數(shù)據(jù)集轉(zhuǎn)換為LMDB格式.接著需要修改卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)代碼中相關(guān)路徑;修改Max_iter,分別為4000和8000,即訓(xùn)練和測試的迭代次數(shù);修改Batch_size,本文設(shè)為 16,既能較好提高內(nèi)存利用率,又能使修正方向得到較好的收斂;修改學(xué)習(xí)率,使得學(xué)習(xí)率隨著訓(xùn)練幀數(shù)的變化而變化,防止過擬化;設(shè)置置信度為50%,當(dāng)目標(biāo)檢測結(jié)果在置信區(qū)間內(nèi),就能檢測出來;最后是設(shè)置了類的數(shù)量,本文只需用到一個(gè)類,故num_class設(shè)置為一加上類別數(shù)等于二.在VGG16+SSD網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,結(jié)合本論文使用的公交車人頭檢測數(shù)據(jù)集,進(jìn)行了訓(xùn)練和測試.參考VGG16+SSD原文的網(wǎng)絡(luò)框架,配置網(wǎng)絡(luò)框架環(huán)境,讀取數(shù)據(jù)集中驗(yàn)證集和測試集的數(shù)據(jù).訓(xùn)練過程可視化結(jié)果如下:

(1)訓(xùn)練過程中迭代 40 000 次,準(zhǔn)確率呈曲線增長,后逐漸平緩,并逐漸穩(wěn)定在84.18%左右.訓(xùn)練迭代40 000次準(zhǔn)確率過程變化圖如圖3(a)所示;訓(xùn)練過程中迭代 80 000 次,準(zhǔn)確率在 84.20% 附近波動(dòng),最終準(zhǔn)確率為84.22%,比迭代40 000次的準(zhǔn)確率高了0.04%.訓(xùn)練迭代80 000次,準(zhǔn)確率過程變化圖如圖3(b)所示.

(2)為了獲得更好的訓(xùn)練效果,迭代 40 000 次訓(xùn)練過程中,學(xué)習(xí)率呈梯狀逐漸減小,迭代 40 000 次的學(xué)習(xí)率變化如圖4(a)所示;迭代 40 000 次到 80 000 次的學(xué)習(xí)率都是 0.000 000 01,如圖4(b)所示.

(3)迭代 40 000 次訓(xùn)練過程中,loss 函數(shù)的值呈曲線逐漸減小,并漸漸穩(wěn)定.在訓(xùn)練過程中l(wèi)oss丟失變化圖如圖5(a)所示;迭代 40 000 次到 80 000 次訓(xùn)練過程中,loss丟失值在 3 附近波動(dòng),和迭代 40 000 次效果差不多.在訓(xùn)練過程中l(wèi)oss丟失變化圖如圖5(b)所示.

2.3 公交車人頭跟蹤和人群計(jì)數(shù)

本論文使用的目標(biāo)追蹤算法:SORT目標(biāo)追蹤算法[13].SORT目標(biāo)追蹤算法是一個(gè)通過對(duì)MOT基準(zhǔn)進(jìn)行測試來實(shí)現(xiàn)的基于深度學(xué)習(xí)的多目標(biāo)追蹤算法.盡管SORT目標(biāo)追蹤算法只是簡單的結(jié)合了卡爾曼濾波器追蹤算法和匈牙利跟蹤算法,但是卻能有效將對(duì)象與聯(lián)機(jī)和實(shí)時(shí)應(yīng)用程序關(guān)聯(lián)起來.同時(shí)又由于本論文使用的SORT算法方法簡單,復(fù)雜度低,所以速度性能不錯(cuò),較好地協(xié)調(diào)了精度和速度,算法實(shí)時(shí)性好,能夠?qū)崿F(xiàn)在線更新.比其他在線追蹤器要快20倍左右.在本章中,由于基于CNN的檢測器的靈活性,它自然可以推廣到公交車頭部對(duì)象類.因而該方法適用于在公交車視頻監(jiān)控場景下對(duì)乘客進(jìn)行頭部跟蹤.

圖3 訓(xùn)練過程準(zhǔn)確率變化

本論文運(yùn)用了跨區(qū)域人群計(jì)數(shù)方法來做人流量統(tǒng)計(jì).算法的核心思想是通過劃定一個(gè)矩形區(qū)域,也就是劃線.如果框內(nèi)有人,結(jié)合目標(biāo)跟蹤,如果目標(biāo)運(yùn)動(dòng)N個(gè)像素點(diǎn)后消失,或人本不在框內(nèi),等待進(jìn)入框內(nèi)后,運(yùn)動(dòng)M個(gè)像素點(diǎn)后消失,上下車人數(shù)就加一.本文的人群計(jì)數(shù)算法增加了判斷功能,也就是誤檢的情況.誤檢的判斷條件為:是否小于60個(gè)像素點(diǎn).最終確定的計(jì)數(shù)算法的一些關(guān)鍵約束:行人在Y方向運(yùn)動(dòng)的距離閾值設(shè)置為25,劃線檢測的位置設(shè)置為85.本論文跨線人群計(jì)數(shù)技術(shù)的流程圖如圖6所示.

3 實(shí)驗(yàn)結(jié)果及分析

本文基于卷積神經(jīng)網(wǎng)絡(luò)的人頭檢測訓(xùn)練過程中,所使用的數(shù)據(jù)集包含多種人流量情況和不同的公交車行車環(huán)境,如圖7所示.保留置信度在 50%,模型每訓(xùn)練10張,記錄一次輸出結(jié)果.訓(xùn)練總時(shí)長達(dá)50小時(shí),記錄了模型迭代 40 000 次和迭代 80 000 次的結(jié)果.設(shè)置訓(xùn)練過程中圖像的高為352,寬為288,每次訓(xùn)練的圖像數(shù)為16張,為了防止模型過擬化,所以學(xué)習(xí)率隨著訓(xùn)練圖像的增多,要逐漸減少.本系統(tǒng)目標(biāo)檢測無需分類,只有一個(gè)類.用于訓(xùn)練的數(shù)據(jù)集包括測量環(huán)境變化和乘客數(shù)量變化等多種情況,如圖7(a)-(d)所示,SSD網(wǎng)絡(luò)模型訓(xùn)練本論文使用的數(shù)據(jù)集的檢測結(jié)果如圖8所示,人頭目標(biāo)檢測準(zhǔn)確率約為84.22%.圖8(a)是乘客比較稀疏的檢測結(jié)果,雖然大部分人頭都檢測到了,但仍然存在一定的漏檢.圖8(b)是乘客比較密集的檢測結(jié)果,幾乎圖片中所有的人頭都檢測到了.圖8(c)是比較稀疏且光照環(huán)境為黑夜下的檢測,檢測結(jié)果比較準(zhǔn)確,只有一個(gè)人頭沒有檢測到.圖8(d)是光照環(huán)境為黑夜,但漏檢率較高的情況.綜上所知,本系統(tǒng)公交車人頭檢測適用于各種光照環(huán)境.

圖4 訓(xùn)練過程中學(xué)習(xí)率的設(shè)定

圖5 訓(xùn)練過程中 loss丟失變化圖

圖6 跨線人群計(jì)數(shù)流程圖

本文對(duì)數(shù)據(jù)進(jìn)行了訓(xùn)練集、測試集進(jìn)行了公交車人頭檢測.使用的檢測架構(gòu)是Caffe-SSD深度神經(jīng)網(wǎng)絡(luò)模型,人頭檢測結(jié)果準(zhǔn)確率約為84.22%.再由SORT目標(biāo)跟蹤算法集中處理幀到幀之間的關(guān)聯(lián),實(shí)現(xiàn)人頭檢測目標(biāo)的跟蹤.整合公交車人頭檢測、SORT目標(biāo)跟蹤和本論文使用的感興趣區(qū)域計(jì)數(shù)方法后,就完成了基于深度卷積神經(jīng)網(wǎng)絡(luò)的公交車人數(shù)統(tǒng)計(jì)系統(tǒng).由于每個(gè)視頻都包括很多下車片段,故隨機(jī)抽取了三個(gè)視頻樣本,運(yùn)行速率等于運(yùn)行總幀數(shù)和運(yùn)行時(shí)間的比值,視頻準(zhǔn)確率的計(jì)算方法等于時(shí)間段內(nèi)檢測人數(shù)和實(shí)際下車人數(shù)的比值.三段視頻運(yùn)行速率和準(zhǔn)確率信息表如表1所示,得出實(shí)驗(yàn)結(jié)果:本論文的公交車人數(shù)統(tǒng)計(jì)的系統(tǒng)準(zhǔn)確率約為78.38%,運(yùn)行速率約為每秒識(shí)別19.79幀.

3.1 正常情況

人數(shù)稀疏情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)的追蹤效果如圖9(a)-(f)所示,這是比較有代表性的一組照片.是實(shí)現(xiàn)目標(biāo)跟蹤,以及乘客一旦下車就進(jìn)行的計(jì)數(shù)的效果連幀中能表現(xiàn)出下車過程的抽幀.圖中由點(diǎn)連成的曲線是乘客的運(yùn)動(dòng)軌跡,圖像左上角數(shù)字是當(dāng)前視頻的下車人數(shù),圖像中的兩條橫線是越區(qū)域人數(shù)統(tǒng)計(jì)劃定的矩形框,人頭上的數(shù)字是視頻中系統(tǒng)創(chuàng)建的第N條軌跡.可以看到乘客人頭形心中點(diǎn)離開矩形框后幾幀內(nèi),下車人數(shù)加一.

人數(shù)擁擠情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)的追蹤效果如圖10(a)-(f)所示,是檢測效果連幀中能表現(xiàn)出下車過程的抽幀.該視頻片段中,上一次下車的人數(shù)共有4人,故下車人數(shù)統(tǒng)計(jì)之前,左上角的數(shù)字即為4.圖10(a)和圖10(b)是乘客開始下車,圖10(c)是第一個(gè)人下車后,左上角下車人數(shù)加一;圖10(d)是第二個(gè)人下車后,下車人數(shù)再加一.接下來的檢測效果幀都是乘客下車,人數(shù)就自動(dòng)加一.圖10(e)是該下車片段的第40幀,可以看到左上角的數(shù)字由剛開始的4變成了11,圖10(f)中公交車開始關(guān)門,本次下車人數(shù)統(tǒng)計(jì)結(jié)束,共統(tǒng)計(jì)到7名乘客下車,實(shí)際下車人數(shù)為8名,可見系統(tǒng)有較高準(zhǔn)確率.

黑暗行車環(huán)境情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)的追蹤效果如圖11(a)-(f)所示.由于本論文使用的所有視頻數(shù)據(jù)中,黑暗行車環(huán)境數(shù)據(jù)本不多,而黑暗行車環(huán)境下乘客下車的數(shù)據(jù)為零,故只能在圖11系列圖片中看到系統(tǒng)檢測到乘客人頭,并對(duì)乘客人頭進(jìn)行追蹤的檢測效果.

圖7 數(shù)據(jù)集的多樣性

圖8 訓(xùn)練SSD網(wǎng)絡(luò)模型后的人頭檢測結(jié)果

表1 三段視頻運(yùn)行速率和準(zhǔn)確率信息表

3.2 誤檢情況

特殊情況下,計(jì)數(shù)系統(tǒng)會(huì)存在小概率的誤檢漏檢.如圖12(a)到圖12(b)所示誤檢情況,如圓圈圈中的人頭所示,乘客未下車,卻進(jìn)行計(jì)數(shù).這種情況是乘客一直在劃定的矩形框內(nèi),若視頻連續(xù)幾幀沒有檢測到該人頭,計(jì)數(shù)系統(tǒng)則認(rèn)為是目標(biāo)運(yùn)動(dòng)了N個(gè)像素點(diǎn),并消失,并且大于60個(gè)像素點(diǎn),所以圖片左上角的計(jì)數(shù)加一.

圖9 稀疏情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)效果圖

圖10 擁擠情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)效果圖

圖11 黑夜情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)效果圖

圖12 誤檢情況

3.3 漏檢情況

計(jì)數(shù)系統(tǒng)也存在小概率的漏檢情況.檢測過程中可能出現(xiàn)如圖13(a)-(d)所示情況,圓圈內(nèi)的乘客就是漏檢情況,乘客已經(jīng)下車,計(jì)數(shù)系統(tǒng)卻沒有加一.這是因?yàn)槌丝偷纳砀哌_(dá)不到我們劃定的矩形框感興趣區(qū)域,或者僅能達(dá)到矩形框的下框線,這樣就不能再框內(nèi)判斷乘客運(yùn)動(dòng)軌跡是否是向上運(yùn)動(dòng).同樣,圖13中左上角顯示的是此段視頻當(dāng)前已下車人數(shù)的總和.

最后,選取了和本文實(shí)現(xiàn)人群計(jì)數(shù)方法比較相近的文獻(xiàn)[2],并從目標(biāo)檢測方法、目標(biāo)跟蹤方法和人數(shù)統(tǒng)計(jì)方法和人數(shù)統(tǒng)計(jì)系統(tǒng)的準(zhǔn)確率這四個(gè)方面和本文所引用的文獻(xiàn)[2]做一個(gè)比較,比較結(jié)果如表2所示.本文運(yùn)用了較為先進(jìn)的SSD深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了公交車人頭目標(biāo)檢測,獲得了更高的人數(shù)統(tǒng)計(jì)系統(tǒng)準(zhǔn)確率.

圖13 漏檢情況

表2 實(shí)驗(yàn)結(jié)果和引用文獻(xiàn)的比較

4 結(jié)論與展望

本系統(tǒng)提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)公交車視頻監(jiān)控場景中的人數(shù)統(tǒng)計(jì).該系統(tǒng)分三步走,首先是用Caffe-SSD神經(jīng)網(wǎng)絡(luò)框架進(jìn)行目標(biāo)檢測,準(zhǔn)確率約為84.22%,運(yùn)行速率約為每秒識(shí)別19.79幀.然后是運(yùn)用SORT目標(biāo)跟蹤算法實(shí)現(xiàn)了公交車乘客多目標(biāo)追蹤,最后依靠越線人數(shù)統(tǒng)計(jì)技術(shù)對(duì)人群進(jìn)行人數(shù)統(tǒng)計(jì).兼顧檢測質(zhì)量與速度,實(shí)現(xiàn)了一個(gè)前后端均較穩(wěn)定的公交車人數(shù)統(tǒng)計(jì)系統(tǒng),且系統(tǒng)準(zhǔn)確率達(dá)78.38%.能夠較準(zhǔn)確對(duì)公交車下車人數(shù)進(jìn)行統(tǒng)計(jì),但也存在部分漏檢和誤檢的情況.本系統(tǒng)可初步試驗(yàn)用于城市公交系統(tǒng),幫助公交車運(yùn)營管理人員分析客流量結(jié)果,從而合理地調(diào)度車輛.

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數(shù)的乘除法”檢測題
“有理數(shù)”檢測題
“角”檢測題
“幾何圖形”檢測題
主站蜘蛛池模板: 欧美v在线| 久久久久免费精品国产| 亚洲天堂精品在线观看| 在线观看无码a∨| 国产成人亚洲综合A∨在线播放| 国产chinese男男gay视频网| 亚洲中文字幕97久久精品少妇| 亚洲精品色AV无码看| 国产乱人免费视频| www精品久久| 永久免费无码日韩视频| 亚洲大尺度在线| www中文字幕在线观看| 丁香亚洲综合五月天婷婷| 一区二区三区成人| 一区二区三区国产精品视频| 久久青草精品一区二区三区| 久久精品亚洲中文字幕乱码| 欧美日韩另类在线| 激情综合网激情综合| 欧美一区日韩一区中文字幕页| 国产精品一区二区国产主播| 91精品免费高清在线| 免费国产福利| 久久综合亚洲鲁鲁九月天| 97视频免费在线观看| 欧美精品二区| 国产在线无码av完整版在线观看| 精品伊人久久久久7777人| 久久久久无码国产精品不卡| 国模极品一区二区三区| 无码国内精品人妻少妇蜜桃视频| 激情在线网| 欧美精品xx| 国产91全国探花系列在线播放| 97在线国产视频| 亚洲三级色| 亚洲永久免费网站| 久久精品国产999大香线焦| 啦啦啦网站在线观看a毛片| 91精品网站| 99视频在线免费看| 国产91在线|中文| 美女一区二区在线观看| 国产H片无码不卡在线视频| 色综合天天视频在线观看| 久久亚洲国产最新网站| 91视频精品| 在线无码私拍| 日韩在线播放中文字幕| 亚洲最新网址| 久久国产精品国产自线拍| 亚洲欧美另类专区| 四虎亚洲国产成人久久精品| 九九九九热精品视频| 精品伊人久久久久7777人| 国产特级毛片aaaaaa| 国产黑人在线| 在线播放国产一区| 亚洲色图欧美一区| 成人一区在线| 亚洲高清中文字幕| 国产成人在线小视频| 久综合日韩| 欧美精品不卡| 亚洲男人在线| 无码精品一区二区久久久| 亚洲第一极品精品无码| 久久久久夜色精品波多野结衣| 国产91丝袜在线观看| 一级毛片网| 制服无码网站| 99re在线观看视频| 日韩精品成人网页视频在线| 中国一级特黄大片在线观看| m男亚洲一区中文字幕| 亚洲Va中文字幕久久一区| 在线高清亚洲精品二区| 国产在线专区| 91精品在线视频观看| 亚洲成人免费在线| 美女黄网十八禁免费看|