999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLO算法的全景多目標(biāo)實(shí)時(shí)檢測(cè)

2018-10-24 02:29:50蔡成濤吳科君劉秋飛程海濤
關(guān)鍵詞:檢測(cè)

蔡成濤,吳科君+,劉秋飛,程海濤,馬 強(qiáng)

(1.哈爾濱工程大學(xué) 自動(dòng)化學(xué)院,黑龍江 哈爾濱 150001;2.哈爾濱建成集團(tuán)有限公司,黑龍江 哈爾濱150001)

0 引 言

常規(guī)視覺(jué)系統(tǒng)由于視場(chǎng)角固定,且不具有旋轉(zhuǎn)不變性,不適于旋轉(zhuǎn)全視場(chǎng)的監(jiān)控。折反射全景視覺(jué)系統(tǒng),能獲取水平方向360°、垂直方向240°范圍內(nèi)場(chǎng)景的高清晰圖像[1],且結(jié)構(gòu)簡(jiǎn)單、成本低廉、反射面易于設(shè)計(jì)和加工,應(yīng)用廣泛[2]。然而由于全景圖像成像變形的特點(diǎn),待檢目標(biāo)的快速準(zhǔn)確檢測(cè)一直是困擾其發(fā)展的難題,目前常用的全景目標(biāo)檢測(cè)方法多為基于目標(biāo)運(yùn)動(dòng)檢測(cè)方法,文獻(xiàn)[3-6]提出了背景差分法、幀間差分法、光流法等,然而只能對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè),對(duì)靜止目標(biāo)或緩慢移動(dòng)目標(biāo)無(wú)法有效檢測(cè),更無(wú)法對(duì)目標(biāo)進(jìn)行精確分類。得益于深度學(xué)習(xí),主要是卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network)和候選區(qū)域(region proposal)算法[7],目標(biāo)檢測(cè)取得了巨大的突破,文獻(xiàn)[8-10]定義了RCNN、Fast-RCNN、Faster-RCNN及YOLO檢測(cè)器。其中YOLO(you only look once)為一種全新的目標(biāo)檢測(cè)方法,把目標(biāo)判定和目標(biāo)識(shí)別合二為一,真正的端到端(end to end)的檢測(cè),實(shí)現(xiàn)快速檢測(cè)的同時(shí)還達(dá)到較高的準(zhǔn)確率[10]。

為了達(dá)到對(duì)全景目標(biāo)的實(shí)時(shí)精確檢測(cè)的目的,本文提出一種E-D-YOLO(expand density YOLO)全景多目標(biāo)實(shí)時(shí)檢測(cè)方法。通過(guò)不同環(huán)境下的對(duì)比實(shí)驗(yàn),表明了該方法具有優(yōu)秀快速性、良好的準(zhǔn)確性和魯棒性。適用于對(duì)速度和準(zhǔn)確度同時(shí)有要求的場(chǎng)景,如關(guān)鍵敏感地帶的實(shí)時(shí)監(jiān)控,以及復(fù)雜作戰(zhàn)環(huán)境下裝甲車,結(jié)合全景視覺(jué)快速發(fā)現(xiàn)周圍可疑目標(biāo),并做出相應(yīng)回應(yīng)以排除危險(xiǎn)。

1 全景圖像解算

雙曲面全景系統(tǒng)及全景圖像如圖1所示,由于折反射全景視覺(jué)成像原理會(huì)使全景目標(biāo)成像比發(fā)生變化如圖1(b)所示,不便于我們直接在全景圖像中提取特征進(jìn)而進(jìn)行多目標(biāo)檢測(cè),可以考慮將全景圖按照其成像模型變換為柱面展開(kāi)圖,然后對(duì)其展開(kāi)圖進(jìn)行多目標(biāo)檢測(cè)。

圖1 雙曲面全景系統(tǒng)及全景圖像

1.1 折反射全景模型

根據(jù)折反射式全景系統(tǒng)反射面曲面類型,對(duì)系統(tǒng)成像原理進(jìn)行模型分析,得到反射面的三維成像方程如式(1)所示

(1)

(2)

使用球坐標(biāo)系表示

(3)

其中,θ為入射光線與T軸的夾角,R為球面的半徑,可表示為

(4)

1.2 柱面展開(kāi)

全景柱面展開(kāi)圖像是將環(huán)形全景圖像投影到一個(gè)距反射鏡指定半徑的圓柱面上所獲得的圖像。將圓柱面沿徑向切開(kāi)平鋪,得到一個(gè)二維矩形的柱面全景圖[11],如圖3所示,仍然取全景系統(tǒng)有效視點(diǎn)為反射鏡坐標(biāo)系OmXmYmZm的原點(diǎn),虛擬成像面為一個(gè)與全景視覺(jué)系統(tǒng)共軸的圓柱面,半徑為f,假設(shè)柱面展開(kāi)圖像分辨率為W×H,其上下邊緣的俯仰角度分別為α1、α2,則柱面圖像的高為H=ftanα1+ftanα2。記為柱面展開(kāi)圖像上一點(diǎn)m′=[i,j]T,則點(diǎn)m′在反射鏡坐標(biāo)系下的三維坐標(biāo)x可表示為

x=[fcosθ,fsinθ,ftanα1-j]T

(5)

其中,θ=2π/L。

圖3 柱面展開(kāi)圖

2 YOLO算法原理及改進(jìn)

傳統(tǒng)目標(biāo)檢測(cè)先提取特征,如LBP(local binary pattern)特征、HOG(histogram of oriented gradient)特征[12],然后采用SVM(surpport vector machine )訓(xùn)練得到物體的模型,再進(jìn)行模型和目標(biāo)匹配。YOLO使用了回歸的思想,將目標(biāo)區(qū)域預(yù)測(cè)和目標(biāo)類別預(yù)測(cè)整合于單個(gè)神經(jīng)網(wǎng)絡(luò)模型中。該方法采用單個(gè)神經(jīng)將候選框提取、特征提取、目標(biāo)分類、目標(biāo)定位統(tǒng)一起來(lái),實(shí)現(xiàn)端到端的目標(biāo)檢測(cè)。

文獻(xiàn)[10]給出了YOLO與其它物體檢測(cè)方法如Fastest DPM、R-CNN、Fast R-CNN等,在檢測(cè)速度和準(zhǔn)確性方面的比較,通過(guò)比較可知YOLO在速度方面的優(yōu)勢(shì)明顯。

2.1 YOLO檢測(cè)過(guò)程

全景圖像中可能包含多個(gè)目標(biāo)或者多種類別的目標(biāo),故需對(duì)每個(gè)預(yù)測(cè)框的多種類別給出判斷。具體檢測(cè)過(guò)程為:

(6)

(2)CNN提取特征和預(yù)測(cè),每個(gè)網(wǎng)格給出有物體存在時(shí)的C個(gè)分類的條件概率Pr(class|object),進(jìn)而得到整幅網(wǎng)絡(luò)中的各類別的概率,通過(guò)各檢測(cè)框內(nèi)某類別的概率與其對(duì)應(yīng)的置信度相乘來(lái)得到該類別置信值,如式(7)所示

(7)

(3)通過(guò)非極大值抑制(non-maximum suppression)過(guò)濾邊框,輸出最終判斷結(jié)果。

YOLO為了優(yōu)化模型,設(shè)計(jì)上使用S*S*(B*5+C)維向量與圖像真值的均方和誤差,作為損失函數(shù)(loss function)的參數(shù)。然而由于很多網(wǎng)格內(nèi)并無(wú)目標(biāo)物體存在,所以在設(shè)計(jì)YOLO的損失函數(shù)時(shí),分別給有目標(biāo)與無(wú)目標(biāo)存在的預(yù)測(cè)邊框設(shè)置不同的比例因子進(jìn)行平衡,此外還需差異化邊界框的損失因子和類別判斷的損失因子,如設(shè)定邊界框的損失權(quán)重是類別判斷損失因子的10倍,以上設(shè)計(jì)使得邊界框有目標(biāo)存在的損失因子處于較高權(quán)重。損失函數(shù)的形式如式(8)所示

(8)

YOLO完整的檢測(cè)過(guò)程如圖4所示。

圖4 YOLO模型檢測(cè)原理

2.2 改進(jìn)YOLO網(wǎng)絡(luò)結(jié)構(gòu)

文獻(xiàn)[10]中指出YOLO檢測(cè)網(wǎng)絡(luò)包括24個(gè)級(jí)聯(lián)的卷積層(convolution layer)和兩個(gè)全連接層(fully connected layer),用來(lái)提取圖像特征及預(yù)測(cè)圖像位置和類別,能達(dá)到快速檢測(cè)的目的,但其弊端也很明顯,經(jīng)全連接層處理后的預(yù)測(cè)邊框,會(huì)丟失較多的空間信息,導(dǎo)致目標(biāo)在雖能被檢測(cè)到但其定位不準(zhǔn)確。參考Faster R-CNN中的錨點(diǎn)(anchor)設(shè)計(jì)思路,去掉全連接層,直接在卷積層上進(jìn)行滑窗操作。在網(wǎng)絡(luò)結(jié)構(gòu)的末端使用全局平均池化(global ave-rage pooling),把1*1的卷積核置于3*3的卷積核之間,對(duì)特征圖(feature map)壓縮,構(gòu)成YOLOv2網(wǎng)絡(luò)[13]。

YOLO檢測(cè)方法中,圖像被分成S×S的網(wǎng)格,即橫向縱向檢測(cè)權(quán)重相同,然而經(jīng)全景解算后得到的展開(kāi)圖中待檢目標(biāo)的長(zhǎng)寬比并不是其真實(shí)值的精確反映,而是呈現(xiàn)出矮粗的趨勢(shì),目標(biāo)變形是非線性的,且同一方向上的變形密度不同,如圖5中人和椅子,呈現(xiàn)出上下部分比例失調(diào)現(xiàn)象。

圖5 修改后的檢測(cè)框

針對(duì)這一問(wèn)題,改變預(yù)測(cè)邊框在縱軸方向數(shù)量,本文是將縱向數(shù)量增加一倍,橫向數(shù)量不變,即網(wǎng)格數(shù)量從S×S變化到S*2S,并在YOLO網(wǎng)絡(luò)結(jié)構(gòu)的末端增加一個(gè)特征層。網(wǎng)絡(luò)結(jié)構(gòu)包含20個(gè)卷積層、5個(gè)最大值池化層(maxpooling layers),從而生成YOLO網(wǎng)絡(luò)的改進(jìn)版E-D-YOLO網(wǎng)絡(luò),如圖6所示,以滿足全景展開(kāi)而來(lái)的圖像檢測(cè)需求。

圖6 E-D-YOLO網(wǎng)絡(luò)結(jié)構(gòu)

3 訓(xùn)練E-D-YOLO網(wǎng)絡(luò)

使用python爬蟲(chóng)程序爬取圖片作為訓(xùn)練素材,構(gòu)建標(biāo)準(zhǔn)VOC數(shù)據(jù)集,在構(gòu)建好的VOC數(shù)據(jù)集上完成100次循環(huán)(epoch)后得到預(yù)訓(xùn)練參數(shù),每完成10次循環(huán)就隨機(jī)改變網(wǎng)絡(luò)的輸入圖像大小。

3.1 構(gòu)建VOC數(shù)據(jù)集

按照VOC數(shù)據(jù)集的架構(gòu)來(lái)構(gòu)建自己的數(shù)據(jù)集,用OpenCV讀取文件夾下的所有圖像然后統(tǒng)一命名并改格式,備好數(shù)據(jù)后,需要按VOC數(shù)據(jù)集的結(jié)構(gòu)放置圖像文件,如圖7所示。

圖7 構(gòu)建VOC數(shù)據(jù)集

3.2 標(biāo)記圖像目標(biāo)區(qū)域

使用labelImg軟件標(biāo)記原始圖像中的目標(biāo)區(qū)域以便訓(xùn)練使用。基本用法是框住目標(biāo)區(qū)域然后雙擊類別,標(biāo)記完整張圖像后點(diǎn)擊保存即可,類別選取常見(jiàn)的20類物體,如人、餐桌、椅子、箱子、自行車等。

3.3 訓(xùn) 練

計(jì)算機(jī)配置為:Windows 7系統(tǒng),CPU為Intel Core i5-3470,GPU為NVIDIA GeForce GTX1080,內(nèi)存32 G,安裝有cuda8.0,python3.5并配置相應(yīng)的庫(kù)如tensorflow v1.1、numpy,、OpenCV 3和Cython擴(kuò)展庫(kù)。將折反射全景系統(tǒng)與搭載1394采集卡的計(jì)算機(jī)連接。設(shè)置YOLO參數(shù),沖量常數(shù)(momentum)0.9,權(quán)值衰減系數(shù)(decay)為 0.0005,以防止過(guò)擬合現(xiàn)象,訓(xùn)練時(shí)參數(shù)選取見(jiàn)表1,參數(shù)設(shè)置完成后進(jìn)行實(shí)驗(yàn)。

表1 關(guān)鍵參數(shù)選取

4 實(shí)驗(yàn)測(cè)試與結(jié)果分析

使用1000張圖片進(jìn)行測(cè)試,其中全景圖100張,全景展開(kāi)圖800張,展開(kāi)圖中遮擋、無(wú)遮擋、光照正常與光照微弱4種環(huán)境各200張圖片。設(shè)置對(duì)照實(shí)驗(yàn),分別在YOLO、E-D-YOLO及主流檢測(cè)方法Faster-RCNN下進(jìn)行檢測(cè),其中YOLO和E-D-YOLO使用Darknet框架,F(xiàn)aster-RCNN使用Tensorflow框架實(shí)現(xiàn)。在實(shí)驗(yàn)環(huán)境下person(人)和chair(椅子)運(yùn)動(dòng)屬性明顯,可分別代表靜止目標(biāo)和運(yùn)動(dòng)目標(biāo)參與檢測(cè),故選擇其為統(tǒng)計(jì)對(duì)象,實(shí)驗(yàn)操作界面如圖8所示。

圖8 實(shí)驗(yàn)操作界面

對(duì)目標(biāo)檢測(cè)算法有3個(gè)要求,即快速性(rapidity)、準(zhǔn)確性(accuracy)、魯棒性(robustness)。對(duì)應(yīng)分別取檢測(cè)幀率(FPS)、準(zhǔn)確率(accuracy rate)、平均重疊率(average overlap rate)為對(duì)比參數(shù)。

4.1 快速性

分別對(duì)YOLO 、E-D-YOLO及Faster R-CNN這3個(gè)檢測(cè)器,在CPU和GPU下進(jìn)行測(cè)試,并根據(jù)測(cè)試圖片平均耗時(shí)計(jì)算出檢測(cè)幀率,統(tǒng)計(jì)結(jié)果見(jiàn)表2。可知CPU下三者均無(wú)法滿足實(shí)時(shí)性要求。GPU下使用YOLO或E-D-YOLO速度均超過(guò)30 FPS,遠(yuǎn)遠(yuǎn)滿足實(shí)時(shí)性要求,而目前主流的檢測(cè)方法Faster R-CNN檢測(cè)速度不及每秒5幀。體現(xiàn)了YOLO及E-D-YOLO在實(shí)時(shí)檢測(cè)方面優(yōu)異的性能。

表2 檢測(cè)速度對(duì)比

4.2 準(zhǔn)確性

目標(biāo)檢測(cè)的準(zhǔn)確性可由檢測(cè)的錯(cuò)誤率間接反映,錯(cuò)誤率越低,對(duì)應(yīng)模型檢測(cè)的準(zhǔn)確性越可靠。其中,F(xiàn)alse positive (錯(cuò)檢)表示對(duì)目標(biāo)分類錯(cuò)誤,F(xiàn)alse negative (漏檢)表示未能定位到目標(biāo),如圖9所示。

使用YOLO檢測(cè)器分別對(duì)全景展開(kāi)圖以及未經(jīng)展開(kāi)的全景圖進(jìn)行測(cè)試,E-D-YOLO及Faster R-CNN對(duì)全景展開(kāi)圖進(jìn)行測(cè)試,統(tǒng)計(jì)各自錯(cuò)誤率,見(jiàn)表3。可得出結(jié)論:

(1)對(duì)未經(jīng)過(guò)預(yù)處理的全景圖直接進(jìn)行檢測(cè),即表中YOLO Panoramic一欄,其錯(cuò)誤率均接近90%,檢測(cè)效果非常不理想,失去實(shí)用價(jià)值。使用YOLO全景展開(kāi)圖進(jìn)行檢測(cè),錯(cuò)誤率40%左右,是因?yàn)榇龣z目標(biāo)處于“矮粗化”狀態(tài),常規(guī)檢測(cè)器不能適應(yīng)。使用E-D-YOLO檢測(cè)器,通過(guò)增大縱向預(yù)測(cè)框數(shù)量,使其適應(yīng)矮粗化目標(biāo),錯(cuò)誤率控制在30%,性能遠(yuǎn)遠(yuǎn)優(yōu)于YOLO檢測(cè)器。

圖9 錯(cuò)檢與誤檢表示

(2)對(duì)比E-D-YOLO和Faster R-CNN兩個(gè)檢測(cè)器,F(xiàn)aster R-CNN錯(cuò)誤率低于30%,是準(zhǔn)確度方面最優(yōu)秀的檢測(cè)器,E-D-YOLO檢測(cè)器錯(cuò)誤率較其稍高3%左右,但考慮到E-D-YOLO檢測(cè)速度方面的巨大優(yōu)勢(shì),使得其在全景檢測(cè)方面更具有實(shí)用性。

表3 檢測(cè)準(zhǔn)確性對(duì)比

4.3 魯棒性

選取人為目標(biāo)對(duì)象,椅子、箱子、桌子等室內(nèi)其它物體為干擾對(duì)象。統(tǒng)計(jì)檢測(cè)結(jié)果中人的準(zhǔn)確率(accuracy rate)、平均重疊率(average overlap rate)作為定量性統(tǒng)計(jì)指標(biāo)。重疊率是指檢測(cè)結(jié)果的區(qū)域和目標(biāo)真實(shí)值的區(qū)域之間的重疊部分所占的比率,數(shù)值越大表示檢測(cè)結(jié)果的區(qū)域越準(zhǔn)確。使用E-D-YOLO在各種實(shí)驗(yàn)環(huán)境下檢測(cè),其中圖10(a)、圖10(c)為無(wú)遮擋組且光照正常組,圖10(b)、圖10(d)為遮擋組和弱光組,選取4張檢測(cè)結(jié)果如圖10所示,其中白色框?yàn)槟繕?biāo)對(duì)象的檢測(cè)框,其它框?yàn)楦蓴_目標(biāo)的檢測(cè)框。準(zhǔn)確率和平均重疊率的統(tǒng)計(jì)結(jié)果見(jiàn)表4,其中Normal表示正常組,Overlap表示遮擋重疊組,Weak light表示弱光組。

由檢測(cè)結(jié)果可知,當(dāng)目標(biāo)被遮擋,E-D-YOLO會(huì)出現(xiàn)一定程度漏檢,準(zhǔn)確率比正常環(huán)境下低6個(gè)百分點(diǎn),平均重疊率低7個(gè)百分點(diǎn),但仍高于65%。當(dāng)光照不足導(dǎo)致目標(biāo)與背景有一定程度的融合,檢測(cè)準(zhǔn)確率下降5個(gè)百分點(diǎn),平均重疊率降低3個(gè)百分點(diǎn)。可見(jiàn)在遮擋和光照不足環(huán)境下,基于E-D-YOLO方法的檢測(cè)雖性能有所下降,仍保持了較高的準(zhǔn)確率和平均重疊率,表現(xiàn)出較好的魯棒性。

表4 魯棒性定量檢驗(yàn)

圖10 4種情況下的檢測(cè)結(jié)果注:(a)無(wú)遮擋 (b)遮擋 (c)光照正常 (d)光照不足

5 結(jié)束語(yǔ)

考慮到全景圖像中的待檢測(cè)目標(biāo)長(zhǎng)寬比和輪廓特征均發(fā)生顯著變化,使用常規(guī)手段無(wú)法可靠檢測(cè),提出了基于改進(jìn)YOLO算法的全景目標(biāo)實(shí)時(shí)檢測(cè)方法, 即E-D-YOLO方法。實(shí)驗(yàn)結(jié)果表明,GPU環(huán)境下E-D-YOLO方法對(duì)全景目標(biāo)檢測(cè)速率高達(dá)每秒31幀,遠(yuǎn)遠(yuǎn)滿足實(shí)時(shí)性要求,且穩(wěn)定保持70%以上目標(biāo)識(shí)別正確率。在實(shí)驗(yàn)中還存在各類目標(biāo)數(shù)量偏少的問(wèn)題,下一步將大幅增加目標(biāo)數(shù)量,如地鐵站密集人群或車流量較大的交通樞紐路段,以驗(yàn)證E-D-YOLO方法在目標(biāo)密集場(chǎng)景下檢測(cè)的能力。

猜你喜歡
檢測(cè)
QC 檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
“有理數(shù)的乘除法”檢測(cè)題
“有理數(shù)”檢測(cè)題
“角”檢測(cè)題
“幾何圖形”檢測(cè)題
主站蜘蛛池模板: 一本久道久综合久久鬼色| 91九色国产porny| 国产免费人成视频网| 久久窝窝国产精品午夜看片| 凹凸国产分类在线观看| 欧美成人综合视频| 极品国产在线| 国产精品视频公开费视频| 成人无码区免费视频网站蜜臀| 日日拍夜夜嗷嗷叫国产| 日韩一区精品视频一区二区| 视频一区视频二区日韩专区 | 国产欧美精品一区aⅴ影院| 久久亚洲精少妇毛片午夜无码| 91无码人妻精品一区二区蜜桃| 欧美福利在线| 广东一级毛片| 国模视频一区二区| 日本免费精品| 日本妇乱子伦视频| 国产男人的天堂| 免费在线不卡视频| www.99在线观看| 日本欧美成人免费| 91丨九色丨首页在线播放| 在线看AV天堂| 亚洲午夜片| 国产1区2区在线观看| 国产三区二区| 日韩欧美国产另类| 福利视频一区| 高潮爽到爆的喷水女主播视频| 国产在线一区视频| 欧美成人综合在线| 欧美国产日本高清不卡| 国产成人亚洲精品色欲AV| 99无码熟妇丰满人妻啪啪| a级毛片免费在线观看| 99久久成人国产精品免费| 玩两个丰满老熟女久久网| 成人在线欧美| 成人在线第一页| 国产性生大片免费观看性欧美| 另类欧美日韩| 日韩精品视频久久| 97国产精品视频人人做人人爱| 国产午夜一级毛片| 亚洲欧美日韩精品专区| 乱系列中文字幕在线视频 | 在线观看免费黄色网址| 亚洲无码视频图片| 热久久国产| 精品人妻无码区在线视频| 四虎成人精品| 亚洲日韩久久综合中文字幕| AV熟女乱| 国产精品无码久久久久久| AV网站中文| 在线观看国产黄色| 91精品国产91久久久久久三级| 亚洲第一极品精品无码| 亚洲欧美人成人让影院| 国产成人8x视频一区二区| 亚洲AV人人澡人人双人| 高h视频在线| 强奷白丝美女在线观看| 国产香蕉在线| 国产九九精品视频| 女高中生自慰污污网站| 日本国产在线| 亚洲欧洲日韩久久狠狠爱| 三级国产在线观看| 伊人激情久久综合中文字幕| 免费精品一区二区h| 婷婷伊人五月| 中文字幕在线播放不卡| 欧美成人精品一级在线观看| 欧美日韩在线第一页| 午夜爽爽视频| 亚洲黄网视频| 亚洲精选无码久久久| 亚洲综合色区在线播放2019|