999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于SSD 與FRN 相結(jié)合的密集連接行人檢測算法

2020-12-21 02:44:28馮婷婷葛華勇孫家慧
關(guān)鍵詞:語義特征融合

馮婷婷,葛華勇,孫家慧

(東華大學(xué) 信息科學(xué)與技術(shù)學(xué)院,上海 201620)

0 引言

行人檢測作為計算機視覺技術(shù)的重要分支和智能化產(chǎn)品的核心技術(shù),受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,其能夠從圖像或視頻中識別出行人,并給出其具體的位置,在車輛輔助駕駛和行人重識別技術(shù)等方面有巨大的研究價值和應(yīng)用前景。行人檢測作為車輛輔助駕駛技術(shù)中不可或缺的一部分,可以及時檢測出車輛前方的行人并針對實際狀況及時提醒司機或者緊急制動,從而避免交通事故的發(fā)生;在刑偵工作中,刑偵人員經(jīng)常要瀏覽多個攝像頭中的視頻,此時先進行行人檢測判斷視頻中是否存在行人,把視頻中的行人篩選出來,再利用行人重識別技術(shù)查找某個特定的行人在哪些攝像頭曾經(jīng)出現(xiàn)過,可為刑偵工作帶來便利。

近十幾年間,基于深度學(xué)習(xí)的行人檢測技術(shù)取得了巨大進步,能夠自動學(xué)習(xí)從圖像像素中提取的基于邊緣的低級特征和基于語義信息的高級特征。其分為兩階段檢測算法和單階段檢測算法。在兩階段檢測算法中,文獻(xiàn)[1]提出了基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(Region based Convolutional Neural Network,R-CNN),文獻(xiàn)[2]提出了空間金字塔池化(Spatial Pyramid Pooling,SPP)網(wǎng)絡(luò),文獻(xiàn)[3]提出了快速基于區(qū)域的卷積網(wǎng)絡(luò)方法(Fast-RCNN),文獻(xiàn)[4-5]提出了Faster-RCNN。這些目標(biāo)檢測算法的訓(xùn)練過程步驟繁瑣,檢測速度慢,沒有達(dá)到實時的檢測標(biāo)準(zhǔn)。基于此,以REDMON J[6]提出的統(tǒng)一實時目標(biāo)檢測框架(You only look once,Yolo)和以Liu Wei[7]提出的單階段多尺度檢測器(Single Shot MultiBox Detector,SSD) 框架為代表的單階段檢測算法由此產(chǎn)生。Yolo 存在定位精度、召回率等較低的問題,泛化能力相對較弱,為了解決該算法的缺陷,2016 年Liu Wei等提出SSD 算法進行多尺度檢測,在保證速度的同時提高了檢測精度,但是其對于小目標(biāo)檢測不精準(zhǔn),加之在實際生活中,由于行人穿著、姿態(tài)、尺度、視角、光照和復(fù)雜背景等多方面原因,在檢測精度及速度方面的提高仍是研究重點。由此針對行人多尺度問題,本文提出一種FRN 提升模型性能的密集連接的SSD 行人檢測算法,嘗試引入不依賴批尺寸大小的上下文語義信息的多層特征融合的密集連接網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合行人檢測任務(wù)特點進行優(yōu)化與改進。

1 SSD 算法框架及原理

SSD 采用VGG16 空洞卷積作為基礎(chǔ)模型,在其后添加額外的卷積層,通過在不同尺度的特征圖下對可能存在的目標(biāo)進行預(yù)測,包括邊框回歸和分類,最后通過非極大值抑制算法(Non-Maximum Suppression,NMS)從候選框中篩選出置信度最高、存在目標(biāo)的區(qū)域,從而降低預(yù)測框的冗余度[7]。SSD 網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1 所示。

圖1 SSD 算法框架

不同特征圖具有不同感受野,SSD 算法的核心之一就是利用特征金字塔結(jié)構(gòu)在不同特征層上設(shè)置不同的候選框以適應(yīng)不同大小的目標(biāo),從而進行分類和邊框回歸。在訓(xùn)練時,為了使默認(rèn)框與真實框相匹配,SSD 采用困難樣本挖掘技術(shù),將正、負(fù)樣本比例設(shè)置為1:3 以得到更快的權(quán)值優(yōu)化和更穩(wěn)定的訓(xùn)練;在測試階段,直接預(yù)測每個默認(rèn)框的位置偏移量和屬于每種類別的概率,再通過NMS 篩選出最佳默認(rèn)框,即最終的檢測結(jié)果。使用NMS 算法前后檢測框?qū)Ρ热鐖D2 所示,其步驟可總結(jié)為:首先對輸入集合E 中的窗口按照置信度由高到低排列,選擇置信度最高的窗口,計算它與剩余所有窗口的交并比(Intersection Over Union,IOU);其次刪除IOU 大于閾值的窗口;最后將E 中剩余檢測框再次排序,重復(fù)上述步驟,直至E 中的窗口都被處理后,得到輸出窗口集合F。

圖2 使用NMS 算法前后檢測框?qū)Ρ?/p>

2 基于SSD 的FRN 密集連接行人檢測算法

由于卷積神經(jīng)網(wǎng)絡(luò)的池化操作,不同特征層具有不同特點,低層特征分辨率高,包含更多位置、細(xì)節(jié)信息,其語義性低、噪聲多;高層特征具有更強的語義信息,但分辨率低,對細(xì)節(jié)的感知能力較差。因此本文針對多尺度檢測問題,將串聯(lián)式的基礎(chǔ)網(wǎng)絡(luò)修改為引入上下文語義信息的多層特征融合的FRN 密集連接結(jié)構(gòu),需要對SSD 模型進行雙線性插值之后添加FRN 歸一化層再進行特征融合,從而實現(xiàn)不同特征圖的多尺度檢測。

因為在 SSD 中對 Conv4_3、Conv_7、Conv8_2、Conv9_2、Conv10_2、Conv11_2 這6 個不同大小的特征層進行多尺度檢測,它們每層卷積運算輸入僅為與之相連的上一卷積層,并未考慮之前的卷積層,也并未考慮該卷積層之后的其他卷積層,喪失了大量的特征信息,因此進行特征融合需要首先將卷積特征圖規(guī)范化,統(tǒng)一為相同尺寸大小,從而進行不同特征層的相互融合,使其得到的特征圖包含更多的語義信息和空間位置信息。文獻(xiàn)[8]將SSD 中Conv4_3 與Conv5_3 反卷積得到的特征圖進行融合,文獻(xiàn)[9]將Faster RCNN 中Conv3_3、Conv4_3 與Conv5_3三層特征圖相融合,本文采取不同的采樣策略融合不同層的特征,即將不相鄰的卷積層進行融合,從而減少冗余。SSD 改進模型結(jié)構(gòu)如圖3 所示,其步驟可總結(jié)為:首先將Conv4_3 特征層進行雙線性插值再進行FRN 歸一化,得到的特征圖分別與Conv8_2、Conv9_2、Conv10_2、Conv11_2 融合;其次將Conv11_2特征層采用相同的方法分別與Conv9_2、Conv8_2、Conv7、Conv4_3 融合;最后將經(jīng)過拼接得到的融合特征圖進行檢測,其低層特征層可增加更多的語義特征,高層特征層可包含更多空間信息,魯棒性更強,更具有判別能力。

圖3 SSD 改進模型結(jié)構(gòu)圖

FRN 歸一化層包括歸一化函數(shù)FRN 和激活函數(shù)TLU(Threshold Linear Normalize),其操作是在(H,W)維度上的,F(xiàn)RN 層結(jié)構(gòu)示意圖如圖4 所示,其中x 是一個N(H×W)維度向量,v2是x 的二次范數(shù)的平均值,ε 是一個極小的正常量,γ、β、τ 是可學(xué)習(xí)參量。其步驟可總結(jié)為:首先對每個樣本的每個通道單獨進行歸一化,沒有對批尺寸batch 的依賴,并且在batch 比較大的時候,其性能還優(yōu)于批處理歸一化(Batch Normalization,BN);其次在FRN 之后連接閾值化激活函數(shù)TLU,這樣做的原因是FRN 缺少去均值操作,在其后若連接激活函數(shù)ReLU,可能會使得歸一化后的結(jié)果任意地偏移0,對模型訓(xùn)練結(jié)果和性能不利。

圖4 FRN 層結(jié)構(gòu)示意圖

表1 SSD 各層特征圖寬高比r

SSD 中每層特征圖寬高比r 如表1 所示,但是對于行人檢測絕大多數(shù)情況下,行人圖像信息基本都是高度大于寬度,但由于部分?jǐn)?shù)據(jù)標(biāo)簽的制作錯誤,則將融合數(shù)據(jù)集經(jīng)過聚類后得到的候選框分布范圍示意圖如圖5 所示,其橫坐標(biāo)為行人高度,單位為像素,縱坐標(biāo)為行人寬高比。根據(jù)聚類思想本文每層特征圖寬高比r 如表2 所示。另外在SSD 中對于r 取1′的時候,本文取不同的縮放因子r′={[0.8],[0.8],[0.8],[0.9],[1.0],[1.0]},對于行人檢測,一共會產(chǎn)生48 490 個結(jié)果。

圖5 候選框分布范圍示意圖

表2 改進SSD 各層特征圖寬高比r

3 實驗與結(jié)果分析

為了驗證改進SSD 算法對行人檢測的有效性,通過融合數(shù)據(jù)集與VOC2007TEST 數(shù)據(jù)集進行評估測試,并將測試結(jié)果與其他方法的結(jié)果進行對比與分析。

3.1 數(shù)據(jù)集

分別在融合數(shù)據(jù)集(包括VOC2007、VOC2012、COCO、SYSU、PRW)與VOC2007TEST 數(shù)據(jù)集上評估了本文方法,其中融合數(shù)據(jù)集一共3 776 張行人圖片,SYSU 數(shù)據(jù)集包括公園、地鐵等地方的行人,PRW 數(shù)據(jù)集是中學(xué)、大學(xué)校內(nèi)的攝像頭連拍的一些行人圖片,VOC2007、VOC2012、COCO 中僅提取行人的部分照片;VOC2007TEST 中僅是行人的照片,共2 097 張。

3.2 測試結(jié)果及分析

模型訓(xùn)練結(jié)束后通過測試集評估模型性能。融合數(shù)據(jù)集與僅含行人的VOC2007TEST 數(shù)據(jù)集的查準(zhǔn)率-查全率 (Precision Recall,PR) 曲線分別如圖6和圖7 所示,其橫坐標(biāo)為查全率,縱坐標(biāo)為查準(zhǔn)率,曲線下方的面積值將作為行人檢測的最終指標(biāo)AP,AP 值越高表示算法的行人檢測性能越好,即PR 曲線越靠近右上角其模型性能越好。對于呈交叉狀態(tài)的曲線圖,往往不能直觀地反映算法性能,此時可通過平衡點即P=R(P 表示查準(zhǔn)率,R 表示查全率)時取值的大小來說明學(xué)習(xí)器的性能,其值越大,性能越好。融合數(shù)據(jù)集與VOC2007TEST 數(shù)據(jù)集測試結(jié)果對比如圖8 所示。

圖6 融合數(shù)據(jù)集測試結(jié)果

圖7 VOC2007TEST 數(shù)據(jù)集測試結(jié)果

圖8 融合數(shù)據(jù)集與VOC2007TEST 數(shù)據(jù)集測試結(jié)果對比

在圖6 和圖7 中,由于各圖兩曲線呈明顯的交叉狀態(tài),同時改進SSD 算法平衡點與SSD 算法的平衡點相比較而言較大,所以改進SSD 算法性能較好。根據(jù)圖8 知,融合數(shù)據(jù)集在改進SSD 算法的AP值高于SSD 算法5.8 個百分點,VOC2007TEST 數(shù)據(jù)集在改進SSD 算法的AP 值高于SSD 算法2.9 個百分點。

本文方法還與文獻(xiàn)[8]、[9]所示方法進行對比,結(jié)果如表3 所示。

表3 不同檢測方法AP 對比(%)

文獻(xiàn)[8]中SSD 在KITTI 數(shù)據(jù)集上表現(xiàn)一般,而本文中融合數(shù)據(jù)集在SSD 上的表現(xiàn)也同樣如此;文獻(xiàn)[9]中Faster RCNN 在VOC2007TEST 數(shù)據(jù)集上AP為69.9%,其改進方法在相同數(shù)據(jù)集上AP 達(dá)到72.8%,而由本文得到的VOC2007TEST 數(shù)據(jù)集PR 曲線輪廓能夠完全包住融合數(shù)據(jù)集PR 曲線,體現(xiàn)了SSD 在復(fù)雜背景與小目標(biāo)檢測場景下的不足。本文在SSD 檢測框架基礎(chǔ)上,其網(wǎng)絡(luò)結(jié)構(gòu)由原來的串聯(lián)連接變換為引入上下文語義信息的提升模型性能的FRN 密集連接特征融合結(jié)構(gòu),使得各檢測層既包含了低層特征層所具有的更多輪廓、梯度的細(xì)節(jié)信息,同時又包含高層特征層所具有的更強的語義信息,并且消除了模型對批尺寸的依賴,使其在融合數(shù)據(jù)集上的AP 由52.9%增加至58.7%,提高了5.8%,在僅含行人的VOC2007TEST 數(shù)據(jù)集上AP 由73.9%增加至76.8%,提高了2.9%。

不同于VOC2007TEST 數(shù)據(jù)集,融合數(shù)據(jù)集包含遮擋較嚴(yán)重的多尺度行人小目標(biāo),當(dāng)行人目標(biāo)較小、較模糊時,SSD 算法會出現(xiàn)漏檢、錯檢問題,而本文的方法在這方面改進很多。SSD 算法改進前后測試對比圖如圖9 所示。

4 結(jié)論

圖9 SSD 算法改進前后測試對比圖

本文首先闡述了SSD 算法理論基礎(chǔ)及行人檢測算法,然后詳細(xì)介紹了改進思路及成果:吸取了雙線性插值和特征融合的研究思路,將SSD 模型中串聯(lián)式的基礎(chǔ)網(wǎng)絡(luò)修改為引入上下文語義信息的多層特征融合的FRN 密集連接網(wǎng)絡(luò)結(jié)構(gòu),即將經(jīng)過雙線性插值和FRN 歸一化的特征層Conv4_3 分別與Conv8_2、Conv9_2、Conv10_2、Conv11_2 融合,同時Conv11_2 特征層也采用相同的方法分別與Conv9_2、Conv8_2、Conv7、Conv4_3 融合,這一改進保證了提取特征的魯棒性及其精度;在FRN 歸一化層中添加TLU 激活函數(shù)而不是ReLU,不僅避免產(chǎn)生很多零值,而且消除了模型訓(xùn)練對批尺寸的依賴,這對于模型性能提升是至關(guān)重要的;在行人候選框這一模塊中,根據(jù)聚類思想設(shè)置了不同特征層不同的寬高比從而進行行人檢測。通過實驗表明,本文提出的檢測模型的精度相對于SSD 模型有很大的提升,其準(zhǔn)確率在融合數(shù)據(jù)集與僅含行人的VOC2007TEST 數(shù)據(jù)集上分別提升5.8%、2.9%。在未來的研究工作中,將繼續(xù)改進網(wǎng)絡(luò)模型,增強特征信息的共享,提高計算效率,使得速度與精度達(dá)到優(yōu)異的平衡。

猜你喜歡
語義特征融合
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
語言與語義
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語義模糊
主站蜘蛛池模板: 成年人视频一区二区| 91色在线观看| 黑色丝袜高跟国产在线91| 91精品国产自产在线老师啪l| 国产欧美专区在线观看| 欧美日韩一区二区三| 国产手机在线ΑⅤ片无码观看| 亚洲国产日韩欧美在线| 久久亚洲中文字幕精品一区| 久久国产热| 精品久久久久久中文字幕女| 久久久亚洲色| 日韩无码视频网站| 亚洲美女一级毛片| 欧美激情第一区| 凹凸国产分类在线观看| 免费人成视网站在线不卡| 99热这里都是国产精品| 国产爽妇精品| 日本人妻一区二区三区不卡影院 | 在线五月婷婷| 亚洲精品视频免费观看| 无码AV动漫| 91欧美亚洲国产五月天| 色妞www精品视频一级下载| 日本一本在线视频| 国产综合精品日本亚洲777| 二级特黄绝大片免费视频大片| 婷婷色一二三区波多野衣| 久草视频中文| 免费在线成人网| 日日拍夜夜操| 免费xxxxx在线观看网站| 99热这里只有精品国产99| 欧美日韩在线亚洲国产人| 国产成人高清亚洲一区久久| 久久精品人妻中文系列| 爱爱影院18禁免费| 国产欧美日韩精品综合在线| 好吊色国产欧美日韩免费观看| 午夜一级做a爰片久久毛片| 免费国产黄线在线观看| 欧洲极品无码一区二区三区| 精品国产美女福到在线不卡f| 久久精品一品道久久精品| 国产永久在线视频| 亚洲免费黄色网| 午夜不卡视频| 国产成年无码AⅤ片在线 | 茄子视频毛片免费观看| 亚洲专区一区二区在线观看| 欧美中文一区| 久热re国产手机在线观看| 国产97视频在线| 天天综合天天综合| 91在线无码精品秘九色APP| 在线国产毛片手机小视频| 国产精品主播| 日日拍夜夜操| 91精品人妻互换| 人妻精品久久久无码区色视| 婷婷色婷婷| 99视频免费观看| 久久久久久久蜜桃| 国产白浆在线观看| 人妻丝袜无码视频| 亚洲 日韩 激情 无码 中出| 日韩av电影一区二区三区四区 | 波多野结衣亚洲一区| 亚洲中文字幕手机在线第一页| 日韩在线永久免费播放| 久久久久久久97| 久草视频精品| 国产成人91精品| 国产三级毛片| 国产精女同一区二区三区久| 国产激情无码一区二区三区免费| 亚洲综合色区在线播放2019| 中文无码日韩精品| 国产在线观看成人91| 无遮挡一级毛片呦女视频| 亚洲五月激情网|