999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于增強型輕量級網絡的車載熱成像目標檢測方法

2021-03-26 01:22:44周思堯朱競銘
紅外技術 2021年3期
關鍵詞:檢測模型

易 詩,周思堯,沈 練,朱競銘

基于增強型輕量級網絡的車載熱成像目標檢測方法

易 詩,周思堯,沈 練,朱競銘

(成都理工大學信息科學與技術學院,四川 成都 610059)

車載熱成像系統不依賴光源,對天氣狀況不敏感,探測距離遠,對夜間行車有很大輔助作用,熱成像自動目標檢測對夜間智能駕駛具有重要意義。車載熱成像系統所采集的紅外圖像相比可見光圖像具有分辨率低,遠距離小目標細節模糊的特點,且熱成像目標檢測方法需考慮車輛移動速度所要求的算法實時性以及車載嵌入式平臺的計算能力。針對以上問題,本文提出了一種針對熱成像系統的增強型輕量級紅外目標檢測網絡(Infrared YOLO,I-YOLO),該網絡采用(Tiny you only look once,Tiny-YOLO V3)的基礎結構,根據紅外圖像特點,提取淺層卷積層特征,提高紅外小目標檢測能力,使用單通道卷積核,降低運算量,檢測部分使用基于CenterNet結構的檢測方式以降低誤檢測率,提高檢測速度。經實際測試,Enhanced Tiny-YOLO目標檢測網絡在熱成像目標檢測方面,平均檢測率可達91%,檢測平均速度達到81Fps,訓練模型權重96MB,適宜于車載嵌入式系統上部署。

車載熱成像系統;夜間智能駕駛;I-YOLO紅外目標檢測網絡;CenterNet結構;車載嵌入式平臺

0 引言

車載熱成像系統目前在一些高端汽車上作為夜間駕駛輔助設備有所部署。由于熱成像系統依據物體的溫差進行成像,不受光源影響,同時受到天氣變化的影響較小,且具備較長的探測距離[1],因此車載熱成像對于高級駕駛輔助系統(advanced driving assistance system, ADAS)的夜間行車模塊具備很強的應用價值[2-3]。結合近年來高度發展的機器視覺,人工智能深度學習技術,希望提出一種針對車載熱成像系統的高效目標檢測方法。

目標檢測領域,得益于深度卷積神經網絡[4](convolutional neural network, CNN)的算法,目標檢測的準確率得到大幅提升。學術界涌現出一系列基于R-CNN的檢測算法,如SPP-Net(Spatial Pyramid Pooling Net)[5],Fast-RCNN[6],Faster-RCNN[7-9]等,檢測精度得到大幅度提升。同時出現了區別于R-CNN系列兩步檢測方法的端到端檢測算法,如SSD(Single Shot Multi Box Detector)[10]和YOLO(You Only Look Once)[11]等,檢測速度得到較大提升。其中YOLO系列目標檢測框架相對現行其他目標檢測框架具備檢測精度高,速度快的優點[12]。

對于車載熱成像系統而言,目標檢測方法需要考慮以下3個方面的問題:

1)對紅外圖像中遠距離低分辨率,細節模糊的小目標識別檢測精度。目前車載熱成像儀在兼顧成本,視場角與探測識別距離情況下普遍采用19mm鏡頭,384×288分辨率機芯(奧迪,寶馬,奔馳等高端車型所部署的車載熱成像成像系統)。該配置成本較低,同時成像視場較大,可在100m距離上提供可識別人體紅外圖像,200m距離上提供可識別機動車紅外圖像,而較遠距離上成像像素較低,普遍為10×10像素級別。

2)在車載動態環境中目標檢測方法的實時性。車載熱成像機芯刷新頻率普遍為50Hz,可在行車速度低于60km/h的情況下實時提供流暢紅外圖像,紅外視頻傳輸速率為25fps,因此目標檢測算法要求平均處理速度需高于30fps。

3)網絡的精簡程度,是否適宜部署于車載嵌入式系統。目前最新可用于車載嵌入式系統的邊緣計算ASIC如Google Edge TPU,要求網絡輕量級,模型權重大小在100MB之內,方可部署。

結合以上3個問題考慮,如使用YOLO系列中檢測精度較高,滿足紅外小目標檢測精度的YOLOV3目標檢測網絡,存在網絡結構復雜,模型權重大(234MB),實時性低的缺點,無法部署于邊緣計算系統。如使用YOLO系列中針對移動端,邊緣計算領域的輕量級目標檢測網絡Tiny-YOLOV3[13]將提高檢測實時性,網絡輕量級,模型權重大小(34MB)適宜部署車載嵌入式系統,但該類輕量級目標檢測網絡對紅外小目標檢測精度較低,難以滿足車載熱成像目標檢測率方面要求。

針對車載熱成像系統目標檢測的實時性與輕量化需求,本文基于目前目標檢測效果良好的輕量級目標檢測網絡Tiny-YOLOV3基礎框架,針對紅外圖像特點提出了一種增強型輕量級紅外目標檢測框架I-YOLO,該網絡構架分為主干網絡與檢測網絡兩部分:主干網絡在Tiny-YOLOV3基礎結構上進行增強設計,根據紅外小目標低像素特點,提取淺層卷積層特征,構造淺層卷積特征輸出層,增加原網絡特征金字塔網絡尺度,提高紅外小目標檢測率,同時根據紅外圖像格式,在主干網絡中第一個卷積層使用單通道卷積核,降低運算量。檢測層參考文獻[14]使用CenterNet的檢測方式以降低目標的誤檢率,提高檢測實時性。

1 車載熱成像目標檢測網絡

1.1 Tiny-YOLOV3目標檢測模型

Tiny-YOLOV3目標檢測模型為YOLO系列中針對移動端與邊緣計算設計的輕量級目標檢測網絡,特點為精簡、高實時性、檢測精度較高。

Tiny-YOLOV3主干網絡為YOLOV3的簡化,由13個卷積層,6個最大池化層,1個維度連接層構成,結構如圖1所示。

Tiny-YOLOV3檢測層根據輸入的圖像數據,在2個尺度上運用回歸分析法輸出圖像數據的多個滑動窗口位置及該窗口中檢測到的目標類別,設置多個錨點框(anchor box)以檢測目標。

Tiny-YOLOV3的分類函數使用獨立的logistic分類器,分類器表達式如下:

式中:tttt表示模型的預測輸出;cc表示網絡柵格的坐標;pp表示預測前邊框的尺寸;bbbb就是預測得到的邊框的中心的坐標和尺寸。

圖1 Tiny-YOLOV3網絡結構

在每一個預測尺度上Tiny-YOLOV3檢測層將輸入圖像分成×個單元格,每個單元格的神經元負責檢測落入該單元格的對象,最多可包括兩個預測對象的滑動窗口。為目標置信度,它反映當前滑動窗口是否包含檢測對象及其預測準確性的估計概率,計算如下式:

=o×I(2)

圖2 Tiny-YOLOV3檢測原理

Fig.2 Detection principle of Tiny-YOLOV3

1.2 I-YOLO增強型輕量級紅外目標檢測網絡

Tiny-YOLOV3目標檢測網絡具備輕量級,高實時性的優點,適宜部署移動端,嵌入式系統,邊緣計算單元,但針對車載熱成像遠距離小目標分辨率低(10×10像素級別),細節模糊的特點,該檢測網絡需進一步強化其目標檢測性能,且根據紅外圖像單通道特點,可進一步降低運算量,提高實時性。本文提出的I-YOLO增強型輕量級紅外目標檢測模型,在Tiny-YOLOV3目標檢測網絡基礎上進行主干網絡與檢測網絡的改進,提升其目標檢測性能,降低計算量,提升實時性。

對于遠距離低分辨率紅外小目標的特征提取,Tiny-YOLOV3目標檢測網絡淺層卷積Conv4層能夠較為有效地表征紅外小目標的語義信息,而Conv3層感受野太小,Conv5層則感受野太大,包含一定的背景噪聲干擾。因此,為提升紅外小目標檢測能力,I-YOLO目標檢測網絡將Tiny-YOLOV3中Maxpool3 層更換為Conv4層,并且為了減少無用參數,增加了Conv5層的壓縮維度;除此以外,在Tiny-YOLOV3模型的基礎上增加上采樣層Upsample2,將Conv5層和Upsample2在通道維度上進行連接操作,Conv7通過Upsample2進行升采樣操作,從而形成特征金字塔增加的一個特征圖層,特征金字塔網絡由Tiny-YOLOV3的13×13和26×26像素提升為13×13、26×26和52×52像素的3檢測尺度結構。同時,由于紅外圖像的單通道特點,為了減少運算量并提高算法的實時檢測能力,可通過在第一個卷積層中采用單通道卷積核的方式來實現。而對于檢測網絡模塊,使用CenterNet結構以替換原有YOLO層,對于檢測方法進行優化,降低誤檢率,進一步提高實時性。I-YOLO網絡結構如圖3所示。

圖3 I-YOLO網絡結構

為進一步提高紅外圖像中紅外目標的檢測精度,提高算法的實時檢測能力,有效減少運算量,檢測網絡模塊采用了CenterNet結構,用無錨點方式(anchor free)代替原有基于錨點(anchor box)的YOLO檢測層。使改進后的目標檢測網絡更適合檢測紅外小目標。

CenterNet是ICCV2019大會上提出的目標檢測最新方法[14],其基本思想為:因為缺少對于相關裁剪區域的附加監督,致使基于錨點(anchor box)的方法會出現大量有誤的邊界框,因此原Tiny-YOLOV3在檢測層中需要大量的anchor box進行目標檢測。而CenterNet是一個ont-stage的關鍵點檢測模型,在檢測時不預先生成候選框進行分類,而是直接通過三元組(中心點及上下對角點),在降低運算量提高實時性的同時提高檢測準確率及召回率。I-YOLO所使用的CenterNet通過Cascade corner pooling及Center pooling來豐富3個關鍵點處的信息提取。本文使用CenterNet檢測結構如圖4所示。

圖4 CenterNet網絡結構

CenterNet網絡中的Center Pooling模型由2個Conv-BN-ReLU,1個Left Pooling,1個Right Pooling,1個Top Pooling以及1個Bottom Pooling組成,可以有效地感知proposal的中心區域。Cascade corner pooling模型由2個Conv-BN-ReL,1個Left Pooling,1個Conv-BN以及1個Top Pooling構成,其目的是增加原始的corner pooling以感知內部信息的功能。以尺度=13為例CenterNet檢測原理如圖5所示。

在使用CenterNet進行檢測時,邊界框的檢測情況受中心區域面積的影響較大,為了適應不同尺寸的目標物,這里采取尺度敏感區域,以生成可以適應不同大小目標的中心區域。比如,如果要對一個邊界框的保留情況做出判斷,lx,ly代表邊界框左上角的點,rx,ry代表邊界框右下角的點。這里定義一個中心區域,設左上角的點的位置坐標為(l,l),右下角點的位置坐標為(r,r)。這些參數定義滿足如下式:

式中:代表中心區域的大小(為奇數)。當邊界框小于150時=3,大于150時=5。實驗證明,此設置對于單通道紅外小目標圖像仍然適用。

I-YOLO在原Tiny-YOLOV3目標檢測網絡基礎上增加了一定數量卷積層以提取低層卷積特征增加檢測尺度,在檢測模塊使用了CenterNet結構從而在一定程度上提升檢測算法的實時性并降低誤檢率。因此在原目標檢測網絡基礎上加深了網絡結構,使得訓練模型權重由34MB增加至96MB,而相比小目標檢

圖5 CenterNet檢測原理

測性能良好的YOLO V3目標檢測網絡模型權重234MB,I-YOLO屬于輕量級目標檢測網絡,其模型權重大小可滿足在嵌入式系統與邊緣計算單元上的部署。除此以外,對于尺度在8×8像素級別以上的紅外小目標,I-YOLO可產生較好的目標檢測效果。機動車紅外圖像小目標尺度普遍在10×10像素級別,因此,I-YOLO適用于車載熱成像的目標識別。

2 實驗結果及分析

2.1 實驗平臺

實驗硬件數據采集平臺為氧化釩384×288分辨率機芯,19mm鏡頭的戶外熱成像探測儀,輸出為單通道16bit數據。車載紅外熱成像數據采集平臺如圖6所示。

圖6 車載紅外熱成像平臺

模型訓練與測試使用硬件平臺為Core i7-8750H 2.2GHz處理器+16GB內存+Geforce GTX 1080 8GB顯卡。軟件平臺使用Win10+tensorflow1.9.0+CUDA9.2+VS2017+Open CV4.0。

2.2 評價標準

為評價I-YOLO在車載熱成像目標檢測應用方面性能,采用平均準確率p,平均誤檢率f,平均漏檢率m,平均運算速度o,以及模型權重大小w作為評價指標,其中p、f、m計算如下式:

式中:TP表示視紅外圖像中正確檢測出的目標數量;FN表示紅外圖像中沒有檢測出來的目標數量;FP表示紅外圖像中誤檢出來的目標數量;TN表示紅外圖像中沒有誤檢的目標數量;o與w由實際測試及訓練得到。

2.3 實驗數據集及模型訓練

實驗訓練數據集使用了2018年傳感器系統開發商FLIR公司發布的自動駕駛開源紅外熱成像數據集,該數據集匯集了12000個白天和夜間場景的熱圖像。該紅外熱成像數據集的應用將有助于駕駛員或未來的自動駕駛車輛適應黑暗,霧,煙等具有挑戰性的環境。

按5:1比例將該數據集劃分為訓練集與測試集,標注需要檢測的4類目標。FLIR部分數據集如圖7所示。

圖7 FLIR紅外數據集

在模型訓練環節,對數據集中的圖像樣本進行預處理,產生416×416像素的圖像,訓練時選取100幅的圖像數量作為小批量訓練的樣本數量閾值,權重在每一批圖像訓練之后得到一次更新。將衰減率設為0.0005,動量設置為0.9,學習率初始化為0.001,對I-YOLO網絡進行20000次迭代,保存等間隔的10次模型版本,最終選取精度最高的模型。

整個訓練的目標損失函數計算公式如下:

經過20000次迭代,模型平均損失降至0.2以下。如圖8所示。

圖8 模型訓練平均損失

2.4 測試結果及分析

實際測試使用車載熱成像在夜間城市街道實地拍攝的紅外視頻,視頻總長400幀,包括需要檢測的4類感興趣目標,為對比I-YOLO性能指標,采用相同數據集與訓練參數進行訓練的SSD300×300,RetinaNet-50-500,Tiny-YOLOV3,YOLOV3模型進行對比測試,隨機選取測試視頻中3幀檢測結果進行對比,測試效果如圖9所示。

圖9中,(a)為SSD300×300檢測結果,(b)為RetinaNet-50-500檢測結果,(c)為Tiny-YOLOV3檢測結果,(d)為YOLOV3檢測結果,(e)為本文方法檢測結果。由實際檢測結果可見,SSD300×300在121幀檢測出轎車6輛,行人1人,在318幀,檢測出轎車6輛,卡車1輛,在326幀,檢測出轎車5輛,平均檢測速度13FPS。RetinaNet-50-500在121幀檢測出轎車7輛,行人1人,在318幀,檢測出轎車7輛,卡車1輛,在326幀,檢測出轎車5輛,平均檢測速度7FPS。Tiny-YOLOV3在121幀檢測出轎車6輛,行人1人,在318幀,檢測出轎車6輛,卡車1輛,在326幀,檢測出轎車4輛,平均檢測速度62FPS。YOLOV3在121幀檢測出轎車7輛,行人1人,在318幀,檢測出轎車7輛,卡車1輛,在326幀,檢測出轎車5輛,卡車1輛,平均檢測速度21FPS。本文方法在121幀檢測出轎車7輛,行人1人,在318幀,檢測出轎車7輛,卡車1輛,在326幀,檢測出轎車5輛,平均檢測速度81fps。根據以上結果分析得出,本文方法在檢測精度上十分接近YOLOV3,與RetinaNet-50-500相當,超過SSD300×300,Tiny-YOLOV3,檢測實時性上超過所有對比檢測方法。

檢測模型對整個測試紅外視頻中4類感興趣目標的平均準確率p,平均誤檢率f,平均漏檢率m,統計分析如表1所示。

表1 4類檢測目標統計數據分析

由表1的統計結果對比可見,本文提出的I-YOLO紅外目標檢測網絡在對車載熱成像系統中4類主要檢測目標的平均準確率,平均漏檢率方面相對SSD300×300,Tiny-YOLOV3表現更為優良,與RetinaNet-50-500相當,非常接近YOLOV3,平均誤檢率方面相對SSD300×300,RetinaNet-50-500,Tiny-YOLOV3,YOLOV3均表現更為優良。

在整個測試紅外視頻中,對檢測模型平均準確率p,平均誤檢率f,平均漏檢率m,平均運算速度o,以及模型權重大小w的綜合統計分析如表2所示。

表2 綜合性能測試對比分析

由表2綜合測試對比分析結果可見,I-YOLO紅外目標檢測網絡平均檢測率達到YOLOV3目標檢測網絡95%,超出SSD300×300目標檢測網絡24%,RetinaNet-50-500目標檢測網絡1%,Tiny-YOLOV3目標檢測網絡25%,平均誤檢率相對SSD300×300目標檢測網絡降低5%,相對RetinaNet-50-500目標檢測網絡降低9%,相對YOLOV3目標檢測網絡降低10%,相對Tiny-YOLOV3目標檢測網絡降低6%,平均漏檢率超出YOLOV3目標檢測網絡6%,相對SSD300 300目標檢測網絡降低19%,相對RetinaNet-50-500目標檢測網絡降低1%,相對Tiny-YOLOV3目標檢測網絡降低20%,平均運算速度上高于SSD300×300網絡68fps,高于RetinaNet-50-500網絡74fps,高于YOLOV3網絡60fps,高于Tiny-YOLOV3網絡19fps,模型權重大小上為96MB,大大低于SSD300×300,RetinaNet-50-500,YOLOV3網絡模型權重,高于Tiny-YOLOV3網絡模型權重,由于Tiny-YOLOV3檢測精度不能滿足對紅外目標的檢測。因此I-YOLO在紅外目標檢測精度,檢測實時性與模型大小幾項指標上滿足車載熱成像系統實時目標檢測的需求,適宜于部署Edge-TPU類型的最新邊緣計算嵌入式設備上。

3 結論

文中針對車載熱成像系統對紅外目標檢測的需求,提出了一種增強型輕量級紅外目標檢測網絡模型I-YOLO,該網絡基于Tiny-YOLOV3的構架,在基礎網絡部分,為提高紅外小目標檢測率,提取低層卷積特征增加構建檢測尺度,根據紅外圖像單通道輸出特點在網絡第一個卷積層中采用單通道卷積核從而減少了網絡的計算量,在檢測部分搭建CenterNet檢測結構,進一步提高算法實時性,降低誤檢率。通過紅外數據集制作,模型訓練,實際測試的結果分析,本文提出的I-YOLO目標檢測框架對于車載熱成像中的目標檢測方面在平均檢測率,平均漏檢率上優于Tiny-YOLOV3,接近于YOLOV3,在平均誤檢率,實時性上優于YOLOV3與Tiny-YOLOV3。權重模型精簡,適宜于在新一代車載嵌入式系統中部署,輔助夜間智能駕駛。

[1] 崔美玉. 論紅外熱像儀的應用領域及技術特點[J]. 中國安防, 2014(12): 90-93.

CUI Meiyu. On the Application Field and Technical Characteristics of Infrared Thermal Imager[J]., 2014(12): 90-93.

[2] 范延軍. 基于機器視覺的先進輔助駕駛系統關鍵技術研究[D]. 南京: 東南大學, 2016.

FAN Yanjun. Research on Key Technologies of Advanced Auxiliary Driving System Based on Machine Vision[D]. Nanjing: Southeast University, 2016.

[3] 楊陽, 楊靜宇. 基于顯著性分割的紅外行人檢測[J]. 南京理工大學學報: 自然科學版, 2013, 37(2): 251-256.

YANG Yang, YANG Jingyu. Infrared Pedestrian Detection Based on Significance Segmentation[J].: Natural Science Edition, 2013, 37(2): 251-256.

[4] LE Cun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]., 1998, 86(11): 2278- 2324.

[5] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//, 2014: 580-587.

[6] HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]., 2015, 37(9): 1904-1916.

[7] Girshick R. Fast R-CNN[C]//, 2015: 1440-1448.

[8] REN S Q, HE K M, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]., 2017, 39(6): 1137-1149.

[9] LI Y, HE K, SUN J. R-FCN: Object detection via region-based fully convolutional networks[C]//, 2016: 379-387.

[10] LIU W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//, 2016: 21-37.

[11] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger[C]//, 2017: 6517- 6525.

[12] Redmon J, Farhadi A. Yolov3: An incremental improvement[EB/OL]. (2018-04-08)[2018-09-07]. https://arxiv.org/abs/1804.02767

[13] ZHANG Y, SHEN Y L, ZHANG J. An improved Tiny-YOLOv3 pedestrian detection algorithm[J]., 2019(183): 17–23.

[14] DUAN Kaiwen, BAI Song, XIE Lingxi, et al. CenterNet: Keypoint triplets for object detection[C]//2019, 2019: 6569-6578.

[15] 吳天舒, 張志佳, 劉云鵬, 等. 基于改進SSD的輕量化小目標檢測算法[J]. 紅外與激光工程, 2018, 47(7): 703005-0703005(7).

WU Tianshu, ZHANG Zhijia, LIU Yunpeng, et al. A lightweight small object detection algorithm based on improved SSD[J]., 2018, 47(7): 703005-0703011.

[16] 唐聰, 凌永順, 鄭科棟, 等. 基于深度學習的多視窗SSD目標檢測方法[J]. 紅外與激光工程, 2018, 47(1): 126003-126011.

TANG Cong, LING Yongshun, ZHENG Kedong, et al. Object detection method of multi-view SSD based on deep learning[J]., 2018, 47(1): 126003-0126011.

[17] 張祥越, 丁慶海, 羅海波, 等. 基于改進LCM的紅外小目標檢測算法[J]. 紅外與激光工程, 2017, 46(7): 726002-0726008.

ZHANG Xiangyue, DING Qinghai, LUO Haibo, et al. Infrared dim target detection algorithm based on improved LCM[J]., 2017, 46(7): 726002-0726008.

[18] 張小榮, 胡炳梁, 潘志斌, 等. 基于張量表示的高光譜圖像目標檢測算法[J]. 光學精密工程, 2019, 27(2): 488-498.

ZHANG Xiaorong, HU Bingliang, PAN Zhibin,et al. Tensor Representation Based Target Detection for Hyperspectral Imagery[J]., 2019, 27(2): 488-498.

[19] 王洪慶, 許廷發, 孫興龍, 等. 目標運動軌跡匹配式的紅外-可見光視頻自動配準[J]. 光學精密工程, 2018, 26(6): 1533-1541.

WANG Hongqing, XU Tingfa, SUN Xinglong, et al. Infrared-visible video registration with matching motion trajectories of targets[J]., 2018, 26(6): 1533-1541.

Vehicle-based Thermal Imaging Target Detection Method Based on Enhanced Lightweight Network

YI Shi,ZHOU Siyao,SHEN Lian,ZHU Jinming

(College of Information Science and Technology, Chengdu University of Technology, Chengdu 610059, China)

A vehicle-based thermal imaging system does not depend on a light source, is insensitive to weather, and has a long detection distance. Automatic target detection using vehicle-based thermal imaging is of great significance for intelligent night driving. Compared with visible images, the infrared images acquired by a vehicle-based thermal imaging system based on existing algorithms have low resolution, and the details of small long-range targets are blurred. Moreover, the real-time algorithm performance required to address the vehicle speed and computing ability of the vehicle-embedded platform should be considered in the vehicle-based thermal imaging target detection method. To solve these problems, an enhanced lightweight infrared target detection network (I-YOLO) for a vehicle-based thermal imaging system is proposed in this study. The network uses a tiny you only look once(Tiny-YOLOV3) infrastructure to extract shallow convolution-layer features according to the characteristics of infrared images to improve the detection of small infrared targets. A single-channel convolutional core was used to reduce the amount of computation. A detection method based on a CenterNet structure is used to reduce the false detection rate and improve the detection speed. The actual test shows that the average detection rate of the I-YOLO target detection network in vehicle-based thermal imaging target detection reached 91%, while the average detection speed was81 fps, and the weight of the training model was96MB, which is suitable for deployment on a vehicle-based embedded system.

vehicle thermal imaging system, night intelligent driving, I-YOLO infrared target detection network, CenterNet structure, vehicle embedded platform

TN919.5

A

1001-8891(2021)03-0237-09

2018-09-11;

2018-12-21.

易詩(1983-),男,四川成都人,副教授,高級實驗師,主要從事機器視覺研究,深度學習算法研究,信號與信息處理研究。E-mail:549745481@qq.com。

國家自然科學基金項目(61771096);國家大學生創新創業項目(S201910616142)。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 亚洲高清在线播放| 国产一区亚洲一区| 亚洲人网站| 色婷婷电影网| 一边摸一边做爽的视频17国产| 成人免费一级片| 九色免费视频| 在线观看国产小视频| 欧美三级自拍| 麻豆精品国产自产在线| 全部无卡免费的毛片在线看| 久久夜色精品国产嚕嚕亚洲av| 久久精品国产亚洲AV忘忧草18| 欧美中文字幕一区二区三区| 日韩美一区二区| 欧美亚洲欧美| 成人欧美日韩| 成人免费黄色小视频| 精品一区二区三区四区五区| 91年精品国产福利线观看久久| 一级毛片免费的| 国产区在线观看视频| 欧美成人在线免费| 亚洲成肉网| 特级欧美视频aaaaaa| 狼友视频一区二区三区| 日韩欧美中文亚洲高清在线| 91网站国产| 久久性视频| 国产全黄a一级毛片| 亚洲男人在线| 99福利视频导航| 亚洲精品无码av中文字幕| 97亚洲色综久久精品| 国产91小视频| 国产波多野结衣中文在线播放| 精品三级在线| 国产成人8x视频一区二区| 在线观看亚洲天堂| 午夜色综合| 日本欧美中文字幕精品亚洲| 国产第三区| 国产在线拍偷自揄拍精品| 九九九国产| 精品免费在线视频| 中国国产一级毛片| 久久国产成人精品国产成人亚洲| 日本在线免费网站| 青青青国产精品国产精品美女| av在线无码浏览| 在线精品亚洲一区二区古装| 国产精品成人久久| 亚洲精品日产AⅤ| 日韩美女福利视频| 97人妻精品专区久久久久| 国产成年女人特黄特色大片免费| 青青草综合网| 亚洲无线一二三四区男男| 99视频精品全国免费品| 性色在线视频精品| 欧美视频在线不卡| 91在线丝袜| 日韩精品无码免费一区二区三区| 亚洲视频三级| 国产高颜值露脸在线观看| 精品无码国产自产野外拍在线| 在线欧美日韩国产| 欧美中文字幕无线码视频| 亚洲IV视频免费在线光看| 日本91视频| 欧美性精品不卡在线观看| 久久婷婷色综合老司机| 91国内在线观看| 亚洲欧洲日产无码AV| 国产精品lululu在线观看| 91久草视频| 欧美97色| 奇米精品一区二区三区在线观看| 五月婷婷综合网| 午夜影院a级片| 中文纯内无码H| 久久96热在精品国产高清 |