999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的監(jiān)控視頻車(chē)輛實(shí)時(shí)監(jiān)測(cè)

2019-10-11 11:24:36張文輝
軟件導(dǎo)刊 2019年7期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:針對(duì)傳統(tǒng)車(chē)輛檢測(cè)算法不能自適應(yīng)地完成復(fù)雜道路場(chǎng)景變化下提取車(chē)輛特征的問(wèn)題,結(jié)合焦點(diǎn)損失、K-means聚類(lèi)與mobilenet網(wǎng)絡(luò),提出改進(jìn)的RFB-VGG16與RFB-MobileNet模型進(jìn)行車(chē)輛檢測(cè)。從開(kāi)源數(shù)據(jù)集UA-DETRAC的24個(gè)視頻中每隔一定幀數(shù)抽取8 209張已標(biāo)注的圖片構(gòu)成數(shù)據(jù)集,在相同的超參數(shù)與訓(xùn)練策略下,改進(jìn)后RFB-VGG16網(wǎng)絡(luò)的AP值比原模型提高了3.2%。基于mobilenet網(wǎng)絡(luò)重新設(shè)計(jì)RFB骨架網(wǎng)絡(luò),使RFB-MobileNet模型在犧牲一定性能的情況下,具有更快的檢測(cè)速度,能較好地滿足監(jiān)控視頻對(duì)車(chē)輛檢測(cè)實(shí)時(shí)性的要求。

關(guān)鍵詞:深度學(xué)習(xí);車(chē)輛檢測(cè);焦點(diǎn)損失;RFBNet;K-means

DOI:10. 11907/rjdk. 182835 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

中圖分類(lèi)號(hào):TP306文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2019)007-0037-04

Real-time Vehicle Detection in Surveillance Video Based on Deep Learning

ZHANG Wen-hui

(School of Automation,Guangdong University of Technology, Guangzhou 510006, China)

Abstract: Aiming at the problem that the traditional vehicle detection algorithm can not adaptively extract the vehicle characteristics under the complex road scene change, this paper combines the focus loss, K-means clustering and mobilenet network, and proposes the improved RFB-VGG16 and RFB-MobileNet models for the vehicle detection. First, 8209 images of the labeled images are extracted from the 24 videos of the open source dataset UA-DETRAC. Second,Under the same hyperparameters and training strategies, the AP value of the improved RFB-VGG16 network is 3.2% higher than the original model. Redesigning the RFB's skeleton network based on the mobilenet network enables the RFB-MobileNet model to have a faster detection speed at the expense of a little performance, thus meeting the real-time requirements of vehicle detection in surveillance video.

Key Words:deep learning; vehicle detection; focus loss; RFBNet; K-means

作者簡(jiǎn)介:張文輝(1992-),男,廣東工業(yè)大學(xué)自動(dòng)化學(xué)院碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺(jué)。

0 引言

隨著中國(guó)經(jīng)濟(jì)及城市化的快速發(fā)展,城市人口與車(chē)輛數(shù)量急劇增長(zhǎng),交管部門(mén)道路車(chē)輛監(jiān)管壓力也與日俱增。目前我國(guó)大部分路口已安裝了高清監(jiān)控?cái)z像頭,每天會(huì)產(chǎn)生大量監(jiān)控視頻,使交管部門(mén)在進(jìn)行車(chē)輛違法行為判斷、不同時(shí)段車(chē)流量統(tǒng)計(jì)與跨攝像頭車(chē)輛追蹤等工作時(shí)面臨嚴(yán)峻挑戰(zhàn)。通過(guò)人工進(jìn)行視頻實(shí)時(shí)監(jiān)控處理不僅成本較高,而且費(fèi)時(shí)費(fèi)力,同時(shí)長(zhǎng)時(shí)間工作容易使人產(chǎn)生疲勞,易出現(xiàn)監(jiān)控遺漏的情況,所以迫切需要一種自動(dòng)化方法輔助人工進(jìn)行視頻監(jiān)控處理。

由于不同路段的交通監(jiān)控系統(tǒng)建設(shè)時(shí)間與監(jiān)控需求不同,導(dǎo)致攝像頭的拍攝角度、分辨率與方向具有很大差異,同時(shí)視頻質(zhì)量容易受到光照、下雨及霧霾等天氣因素的嚴(yán)重影響。傳統(tǒng)檢測(cè)方法對(duì)視頻質(zhì)量要求較高,因此在面對(duì)復(fù)雜道路場(chǎng)景時(shí)往往效果較差。隨著深度學(xué)習(xí)在檢測(cè)、識(shí)別等計(jì)算機(jī)視覺(jué)任務(wù)中取得重大突破,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法憑借卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,替代傳統(tǒng)機(jī)器學(xué)習(xí)中的人工設(shè)計(jì)特征,能夠應(yīng)對(duì)復(fù)雜的道路場(chǎng)景,具有更高的檢測(cè)準(zhǔn)確率與更強(qiáng)的魯棒性,效果遠(yuǎn)優(yōu)于傳統(tǒng)檢測(cè)算法。

目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法主要分為以SSD[1]與YOLO系列[2-4]為代表的“一步法”模型,以及以RCNN系列[5-7]為代表的“兩步法”模型。在權(quán)衡實(shí)時(shí)性與性能后,本文引入基于SSD改進(jìn)的RFBNet(Receptive Field Block Net)[8]模型實(shí)現(xiàn)監(jiān)控視頻的車(chē)輛檢測(cè),并對(duì)RFBNe模型結(jié)構(gòu)與參數(shù)進(jìn)行如下優(yōu)化:①在RFBNet訓(xùn)練階段引入焦點(diǎn)損失方法[9],以加大難訓(xùn)練樣本權(quán)重值;②采用K-means聚類(lèi)查找anchor的最佳數(shù)量和大小;③基于MobileNet[10]設(shè)計(jì)出更輕量化的骨架網(wǎng)絡(luò)進(jìn)行特征提取。實(shí)驗(yàn)結(jié)果顯示,經(jīng)過(guò)上述方法改進(jìn)的RFB-VGG16模型效果優(yōu)于基礎(chǔ)模型,且能保持原有處理速度,而RFB-MobileNet速度雖然快于RFB-VGG16,但準(zhǔn)確度有所降低。因此,對(duì)于在線監(jiān)控可以選擇速度更快的RFB-MobileNet模型,而離線處理可以選擇準(zhǔn)確度更高的RFB-VGG16模型。

1 RFBNet整體結(jié)構(gòu)

RFBNet整體結(jié)構(gòu)與SSD模型相似,主要由基礎(chǔ)網(wǎng)絡(luò)與多尺度預(yù)測(cè)層組成,并加入仿人類(lèi)視覺(jué)系統(tǒng)的RF Block(Receptive Field Block)模塊,以增強(qiáng)CNN網(wǎng)絡(luò)的特征提取能力,可同時(shí)滿足對(duì)速度與精度的要求。在車(chē)輛檢測(cè)過(guò)程中,首先將圖片縮放為300×300大小,然后將其輸入到骨干網(wǎng)絡(luò)VGG16頭部的部分層中進(jìn)行特征提取,接著繼續(xù)通過(guò)卷積與池化形成6個(gè)特征圖。在不同尺度的特征圖上采用3×3卷積進(jìn)行框回歸和類(lèi)別分類(lèi)。其中框回歸是對(duì)包含前景的框位置進(jìn)行修正,而類(lèi)別分類(lèi)采用softmax,類(lèi)別包括背景和前景的k個(gè)類(lèi)別,共有(k+1)個(gè)類(lèi)別,RFBNet網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 RFBNet網(wǎng)絡(luò)結(jié)構(gòu)

2 改進(jìn)方法

本文方法是在監(jiān)控視頻中抽取一幀幀圖像,再進(jìn)行車(chē)輛檢測(cè)。以RFB 模型框架為基礎(chǔ),結(jié)合K-means、焦點(diǎn)損失與MobileNet進(jìn)行改進(jìn),下面對(duì)每部分進(jìn)行介紹。

2.1 anchor大小優(yōu)化

在車(chē)輛檢測(cè)過(guò)程中,RFB網(wǎng)絡(luò)通過(guò)調(diào)整anchor大小匹配待檢測(cè)目標(biāo)的位置框,從而得到一個(gè)準(zhǔn)確的預(yù)測(cè)框。如果一開(kāi)始設(shè)定一組合適的anchor,RFB網(wǎng)絡(luò)將更容易得到準(zhǔn)確的預(yù)測(cè)框。對(duì)于anchor大小設(shè)定有以下3種方式:①憑借以往經(jīng)驗(yàn)人為設(shè)定anchor大小;②通過(guò)統(tǒng)計(jì)手段找到合適的anchor;③采用聚類(lèi)算法發(fā)現(xiàn)合適的anchor。由于前兩種方式過(guò)度依賴人的調(diào)參經(jīng)驗(yàn),同時(shí)本文研究對(duì)象為車(chē)輛,該對(duì)象相對(duì)于其它目標(biāo)具有特定形狀,一般為扁長(zhǎng),因此本文采用K-means聚類(lèi)算法尋找最佳a(bǔ)nchor大小。傳統(tǒng)K-means算法的度量函數(shù)采用歐幾里得距離,具體公式如下:

[d(x,y)=i=1n(xi-yi)] (1)

采用式(1)作為度量函數(shù)后,會(huì)出現(xiàn)大位置框比小位置框貢獻(xiàn)更多損失的情況,即訓(xùn)練過(guò)程中大框與小框地位不平等,最終會(huì)影響模型對(duì)小框的預(yù)測(cè)結(jié)果。為了避免以上情況發(fā)生,采用以下改良的度量函數(shù):

[d(box,centroid)=1-IOU(box,centroid)] (2)

[IOU=Area of OverlapArea of Union] (3)

其中式(3)IoU(Intersection over Union)是兩個(gè)框面積區(qū)域的交集除以兩個(gè)框面積區(qū)域的并集。本文采用改進(jìn)后的K-means對(duì)UA-DETRAC數(shù)據(jù)集中抽取的8 209張數(shù)據(jù)集進(jìn)行聚類(lèi),如圖3所示。

圖2 聚類(lèi)中心與平均IOU分布

在圖2中橫軸是聚類(lèi)中心個(gè)數(shù),縱軸是平均IOU值。聚類(lèi)中心個(gè)數(shù)越多,平均IOU值也越大,但平均IOU值的增幅相應(yīng)減緩。在RFBNet模型中采用越多的anchor,其檢測(cè)性能將得到提升,但模型運(yùn)算時(shí)間也相應(yīng)增加。從圖2中可看出,當(dāng)聚類(lèi)中心為6時(shí),平均IOU值增幅已逐漸放緩,因此在權(quán)衡模型運(yùn)行時(shí)間與準(zhǔn)確率兩方面后,本文設(shè)定RFBnet模型的anchor個(gè)數(shù)為6。

2.2 anchor數(shù)量?jī)?yōu)化

RFB網(wǎng)絡(luò)中采用6個(gè)不同尺度特征圖預(yù)測(cè)位置框,從而增強(qiáng)模型預(yù)測(cè)小位置框的能力,其中6個(gè)特征圖大小分別為38×38、19×19、10×10、5×5、3×3和1×1。從數(shù)據(jù)集中不放回地隨機(jī)抽樣1 000張照片放入RFB網(wǎng)絡(luò)中,同時(shí)從6個(gè)特征圖的預(yù)測(cè)結(jié)果中篩選出IOU大于0.5的預(yù)測(cè)框,接著將滿足以上條件的位置框畫(huà)在一個(gè)300*300的圖中,其中橫軸為位置框長(zhǎng)度,縱軸為位置框高度,不同顏色代表其由不同特征圖預(yù)測(cè)得到,如圖3所示。

通過(guò)統(tǒng)計(jì)6個(gè)特征圖預(yù)測(cè)結(jié)果,得到以下結(jié)論:①小目標(biāo)數(shù)量遠(yuǎn)多于大目標(biāo)數(shù)量,如圖3所示,左下角是小目標(biāo)分布圖,右上角是大目標(biāo)分布圖;②車(chē)輛檢測(cè)貢獻(xiàn)程度排序如下:P38>P19>P10>P5>P3>P1。從圖3中可明顯看出,不同特征圖負(fù)責(zé)檢測(cè)不同大小的車(chē)輛,同時(shí)大特征圖能準(zhǔn)確預(yù)測(cè)出更多車(chē)輛位置框。因?yàn)閍nchor數(shù)量越多,會(huì)相應(yīng)增大模型復(fù)雜度,因此可以通過(guò)減少低貢獻(xiàn)度特征圖的anchor個(gè)數(shù)以降低模型復(fù)雜度,從而降低模型浮點(diǎn)數(shù)計(jì)算量,加快網(wǎng)絡(luò)運(yùn)行速度。本文模型采用的anchor類(lèi)別個(gè)數(shù)如表1所示。

2.3 聚焦損失

以SSD為代表的“一步法”摒棄了候選框提取方式,而是直接預(yù)測(cè)類(lèi)別與框坐標(biāo),以保證算法的實(shí)時(shí)性,但準(zhǔn)確率不如“二步法”。“一步法”準(zhǔn)確率低是因類(lèi)別數(shù)量失衡引起的,即負(fù)樣本個(gè)數(shù)遠(yuǎn)多于正樣本個(gè)數(shù)。在模型訓(xùn)練過(guò)程中,大量的簡(jiǎn)單負(fù)樣本提供了無(wú)用信息,從而使模型訓(xùn)練無(wú)效。聚焦損失是在交叉熵?fù)p失基礎(chǔ)上引入α和β因子,以解決類(lèi)別數(shù)量失衡的問(wèn)題。

交叉熵?fù)p失是多分類(lèi)中最常用的算法函數(shù)。假設(shè)數(shù)據(jù)集中有n個(gè)樣本,類(lèi)別個(gè)數(shù)為C,同時(shí)背景作為一類(lèi),總類(lèi)別個(gè)數(shù)為C+1,則交叉熵CE定義如下:

[CE=1ni=1nj=1C+1-y(i)jlog(p(x(i))j)] (4)

其中,y是真實(shí)類(lèi)別概率值,[p(x)]是預(yù)測(cè)類(lèi)別概率值。交叉熵?fù)p失中正負(fù)樣本地位平等,因此訓(xùn)練過(guò)程中容易使模型出現(xiàn)偏移,從而使模型訓(xùn)練無(wú)效。

對(duì)于類(lèi)別不平衡問(wèn)題,通過(guò)加入α以降低大數(shù)量類(lèi)別的影響。

[CE=1ni=1nj=1C+1-?jy(i)jlog(p(x(i))j)] (5)

對(duì)于難檢測(cè)樣本,在原有基礎(chǔ)上加入[β]因子,公式如下:

[β(i)j=(1-p(x(i))j)γ] (6)

其中[γ]是一個(gè)可調(diào)節(jié)的超參數(shù),[β]因子的作用是減少簡(jiǎn)單樣本的損失權(quán)重,從而使模型能專(zhuān)注于對(duì)難檢測(cè)樣本的訓(xùn)練,以避免大量簡(jiǎn)單負(fù)樣本使模型訓(xùn)練失效的問(wèn)題。焦點(diǎn)損失FL公式定義如下:

[CE=1ni=1nj=1C+1-?jβ(i)jy(i)jlog(p(x(i))j)] (7)

本文將焦點(diǎn)損失方法應(yīng)用于RFBnet中,并測(cè)試不同[α]與[γ]對(duì)模型的影響。

2.4 骨架網(wǎng)絡(luò)設(shè)計(jì)

深度學(xué)習(xí)在圖像分類(lèi)、檢測(cè)等任務(wù)中顯示出巨大優(yōu)勢(shì),但是隨著模型準(zhǔn)確率的提高,也導(dǎo)致計(jì)算量與存儲(chǔ)空間消耗大幅提升。對(duì)于卡口車(chē)輛檢測(cè),要保證任務(wù)的實(shí)時(shí)性,需要降低模型計(jì)算量,以達(dá)到去除冗余計(jì)算與提高檢測(cè)模型速度的目標(biāo)。本文采用谷歌團(tuán)隊(duì)推出的mobileNet對(duì)RFB基礎(chǔ)網(wǎng)絡(luò)進(jìn)行改良,從而使模型參數(shù)量大大下降。該網(wǎng)絡(luò)使用depthwise卷積與點(diǎn)卷積代替標(biāo)準(zhǔn)的3D卷積,以減少卷積操作的計(jì)算量。RFB-mobilenet骨架網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。

本文從骨架模型參數(shù)量、浮點(diǎn)數(shù)計(jì)算量與模型大小幾方面進(jìn)行對(duì)比,可看出RFB-Mobilenet比RFB-VGG16更節(jié)省空間,且計(jì)算量更少,如表3所示。

表3 兩種骨架網(wǎng)絡(luò)模型參數(shù)與計(jì)算量

3 實(shí)驗(yàn)

3.1 數(shù)據(jù)集

本文采用的UA-DETRAC數(shù)據(jù)集由北京和天津不同地區(qū)的24個(gè)監(jiān)控視頻組成,總幀數(shù)超過(guò)14萬(wàn),圖片像素為960×540。由于每幀之間相似度較高,本文每隔一定幀數(shù)采集1張圖片,共采集圖片8 209張,其中70%用于模型訓(xùn)練,即訓(xùn)練集有5 747張,測(cè)試集有2 462張。

3.2 模型訓(xùn)練

所有模型采用Pytorch框架實(shí)現(xiàn),在Nvidia1060上訓(xùn)練200個(gè)周期,并采用相同的學(xué)習(xí)率和優(yōu)化器等訓(xùn)練策略。優(yōu)化器采用RMSProp,動(dòng)量因子為0.9,同時(shí)初始學(xué)習(xí)率為0.001,每隔60個(gè)eopch乘以0.1。在訓(xùn)練過(guò)程中,每一次迭代過(guò)程先隨機(jī)采集32張圖片,統(tǒng)一縮放到300*300,然后經(jīng)過(guò)水平翻轉(zhuǎn)、隨機(jī)裁剪與色彩變化等操作進(jìn)行數(shù)據(jù)增強(qiáng)操作。

3.3 實(shí)驗(yàn)結(jié)果與分析

本文采用AP(Average Precision)作為模型預(yù)測(cè)結(jié)果的評(píng)價(jià)指標(biāo),該評(píng)價(jià)指標(biāo)綜合考慮了召回率和準(zhǔn)確率,將預(yù)測(cè)框與位置框的IOU閾值設(shè)定為0.5。在模型訓(xùn)練過(guò)程中引入焦點(diǎn)損失方法,并測(cè)試不同α與[γ]對(duì)模型的影響,如表4所示。當(dāng)a=0.25,[γ]=1時(shí),AP值最高。

表4 不同α和y測(cè)試結(jié)果

在模型測(cè)試時(shí),每次只處理一張圖片,將測(cè)試集中所有圖片處理時(shí)間的平均值作為模型處理速度指標(biāo)。實(shí)驗(yàn)結(jié)果表明,在不影響監(jiān)測(cè)速度的情況下,模型性能獲得了一定提升。采用焦點(diǎn)損失后REBNet的AP值相比原模型提高了0.47%,同時(shí)采用焦點(diǎn)損失與改進(jìn)框后RFBNet的AP值相比原模型提高了3.2%。采用改進(jìn)骨架網(wǎng)絡(luò)的RFB_mobileNet模型在犧牲部分性能的情況下,處理速度為RFB_VGG16的1.62倍,能更好地處理需要實(shí)時(shí)運(yùn)行的任務(wù)。

表5 各模型在UA-DETRAC數(shù)據(jù)集上測(cè)試結(jié)果

4 結(jié)語(yǔ)

本文將深度學(xué)習(xí)應(yīng)用于視頻監(jiān)控的車(chē)輛檢測(cè)中,在REBNet檢測(cè)模型基礎(chǔ)上通過(guò)聚類(lèi)算法找到合適的anchor,引入焦點(diǎn)損失方法以減緩樣本失衡問(wèn)題,并基于mobilenet改進(jìn)骨架網(wǎng)絡(luò),從而解決了傳統(tǒng)機(jī)器學(xué)習(xí)算法無(wú)法實(shí)現(xiàn)復(fù)雜場(chǎng)景下車(chē)輛檢測(cè)的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的RFB_VGG16模型在不影響監(jiān)測(cè)速度的情況下,其性能得到了一定提升,而RFB_mobileNet在犧牲部分性能的情況下,處理速度得到了顯著提升。同時(shí),本文研究也為后續(xù)車(chē)輛識(shí)別(品牌、顏色、類(lèi)型等)、車(chē)輛跟蹤與車(chē)流分道統(tǒng)計(jì)等工作奠定了基礎(chǔ)。

參考文獻(xiàn):

[1] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]. European Conference on Computer Vision,2016:21-37.

[2] REDMON J,F(xiàn)ARHADI A. YOLO9000: better, faster, stronger[C]. Honolulu:2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016.

[3] REDMON J,F(xiàn)ARHADI A. YOLOv3: an incremental improvement[DB/OL]. https://arxiv.org/abs/1804.02767.

[4] REDMON J,DIVVALA S,GIRSHICK R, et al. You only look once: unified, real-time object detection[C]. Computer Vision and Pattern Recognition,2016:779-788.

[5] GIRSHICK R. Fast R-CNN[J]. Computer Science, 2015:1440-1448.

[6] REN S,HE K,GIRSHICK R,et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]. International Conference on Neural Information Processing Systems,2015:91-99.

[7] HE K,GKIOXARI G,DOLLáR P,et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,99:1.

[8] LIU S,HUANG D,WANG Y. Receptive field block net for accurate and fast object detection[C].Computer Vision-ECCV,2018:404-419.

[9] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017, 99: 2999-3007.

[10] HOWARD A G, ZHU M, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications[DB/OL]. https://arxiv.org/abs/1704.04861.

[11] FU C Y,LIU W,RANGA A,et al. DSSD: deconvolutional single shot detector[DB/OL]. https://arxiv.org/abs/1701.06659.

[12] ZHANG S,WEN L,BIAN X,et al. Single-shot refinement neural network for object detection[DB/OL]. https://arxiv.org/abs/1711.06897.

[13] 劉操,鄭宏,黎曦,等. 基于多通道融合HOG特征的全天候運(yùn)動(dòng)車(chē)輛檢測(cè)方法[J]. 武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2015, 40(8): 1048-1053.

[14] 宋曉琳,鄔紫陽(yáng),張偉偉. 基于陰影和類(lèi)Haar特征的動(dòng)態(tài)車(chē)輛檢測(cè)[J]. 電子測(cè)量與儀器學(xué)報(bào),2015,29(9): 1340-1347.

[15] LI Z,ZHOU F. FSSD: feature fusion single shot multibox detector[DB/OL]. https://arxiv.org/abs/1712.00960v1.

[16] IANDOLA F, MOSKEWICZ M, KARAYEV S, et al. DenseNet: implementing efficient ConvNet descriptor pyramids[J]. Eprint Arxiv,2014.

[17] SZEGEDY C,LIU W, JIA Y, et al. Going deeper with convolutions[DB/OL]. http://arxiv.org/abs/1409.4842.

[18] IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[DB/OL]. https://arxiv.org/abs/1502.03167.

[19] SZEGEDY C,VANHOUCKE V,IOFFE S,et al. Rethinking the inception architecture for computer vision[C]. In:Computer Vision and Pattern Recognition,2016:2818-2826.

[20] SZEGEDY C,IOFFE S,VANHOUCKE V. Inception-v4, inception-ResNet and the impact of residual connections on learning[DB/OL]. https://arxiv.org/abs/1602.07261.

(責(zé)任編輯:黃 健)

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 亚洲成人免费看| 国产一级毛片网站| 亚洲A∨无码精品午夜在线观看| 在线播放国产一区| 亚洲中文精品人人永久免费| 国产欧美成人不卡视频| 国产精品尹人在线观看| 日韩欧美中文字幕一本| 日本久久网站| 中文字幕在线不卡视频| 欧美一区精品| 国产aⅴ无码专区亚洲av综合网| 91丝袜美腿高跟国产极品老师| 色综合热无码热国产| 国产特一级毛片| 色偷偷一区二区三区| 国产精品成人久久| 99热线精品大全在线观看| 国产簧片免费在线播放| 一区二区三区四区精品视频 | 日韩精品专区免费无码aⅴ| 黄色一级视频欧美| 91精品情国产情侣高潮对白蜜| 无码粉嫩虎白一线天在线观看| 国产精品v欧美| 在线精品亚洲国产| 亚洲一区免费看| 日韩a在线观看免费观看| 欧美日韩中文国产| 在线看国产精品| 欧日韩在线不卡视频| 一级毛片免费不卡在线| 一级不卡毛片| 国产在线精彩视频二区| 亚洲有码在线播放| 狠狠色香婷婷久久亚洲精品| 欧美日韩动态图| 国产一级无码不卡视频| 无码中文字幕精品推荐| 尤物午夜福利视频| 国产在线一区二区视频| 国产成人麻豆精品| 亚洲浓毛av| 亚洲高清国产拍精品26u| 人妻无码AⅤ中文字| 精品91视频| jijzzizz老师出水喷水喷出| 91福利免费视频| 思思热精品在线8| 国产熟睡乱子伦视频网站| 亚洲第一网站男人都懂| 国产亚洲精| 欧美在线一级片| 国产精品第一区在线观看| 日本免费福利视频| 一区二区影院| 毛片免费试看| 国产国语一级毛片在线视频| 天天躁日日躁狠狠躁中文字幕| 毛片免费观看视频| 爆操波多野结衣| 亚洲无码高清一区二区| 久久久噜噜噜久久中文字幕色伊伊| 蜜桃视频一区| 色网站在线免费观看| 高清精品美女在线播放| 国产亚洲欧美日韩在线一区| 日本一本正道综合久久dvd| 亚洲国产综合自在线另类| 久久久精品无码一二三区| 国产白浆在线| 欧美日韩国产系列在线观看| 国产福利大秀91| 免费国产高清视频| 免费毛片网站在线观看| 日韩高清在线观看不卡一区二区| 一区二区在线视频免费观看| 国产无码精品在线播放 | www.99在线观看| 久久超级碰| 久久99蜜桃精品久久久久小说| 在线中文字幕网|