999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的高速公路隧道車輛和人員檢測

2024-03-30 10:13:44彭紅星袁暢柯威曳梁敏君馬永強
科學(xué)技術(shù)與工程 2024年6期
關(guān)鍵詞:特征實驗檢測

彭紅星, 袁暢, 柯威曳, 梁敏君, 馬永強

(1.河南理工大學(xué)計算機科學(xué)與計算學(xué)院, 焦作 454003; 2.浙江交投高速公路運營管理有限公司, 杭州 310000)

由于光線昏暗、視野受限、車速較快等因素,高速公路隧道環(huán)境內(nèi)極易發(fā)生交通事故。為了保障隧道內(nèi)的交通安全,需要對隧道內(nèi)的車輛和人員進行實時檢測,并對故障車輛、違停車輛等隱患進行及時預(yù)警。然而,目標識別在高速公路隧道內(nèi)面臨著很多挑戰(zhàn),如車輛圖像受燈光影響、攝像頭視角存在大量遠距離小目標等。這些因素導(dǎo)致常規(guī)的檢測算法難以準確地識別出隧道內(nèi)的目標,從而極大地影響檢測效果。因此,研究出一種適用于高速公路隧道內(nèi)的高效且穩(wěn)定的車輛和人員檢測算法,對于減少交通事故和保障人員安全具有重大意義。

縱觀目標檢測的發(fā)展,可以將目標檢測劃分為傳統(tǒng)的目標檢測和基于深度學(xué)習(xí)的目標檢測[1]。傳統(tǒng)的目標檢測通常通過手動設(shè)計特征并結(jié)合滑動窗口的方式進行目標檢測和定位,較為關(guān)注物體特征的提取和區(qū)域分類算法的選擇。基于深度學(xué)習(xí)的目標檢測算法主要有基于候選區(qū)域的Two-stage算法如R-CNN系列算法[2-4]和基于回歸問題的One-stage算法如YOLO系列算法[5-8]以及SSD算法[9]。而近年來一些基于anchor-free系列算法[10-14]也在一些檢測任務(wù)中大放光彩。

近年來已有許多學(xué)者對各種環(huán)境下的車輛、人員檢測進行研究并取得了顯著的成果。李松江等[15]基于YOLOv4模型引入ECA注意力機制和深度可分離卷積實現(xiàn)對車輛的精準檢測。袁小平等[16]基于YOLOv4引入輕量化Ghost模塊和提出一種混合注意力提高了算法在復(fù)雜交通場景下的檢測效果。李挺等[17]在MobileNetv2中加入Bottom-up連接和引入Inception結(jié)構(gòu)提出了一種更加高效且魯棒的行人檢測算法。厙向陽等[18]基于殘差網(wǎng)絡(luò)進行特征融合,提高了對小型車輛的檢測精度。涂媛雅等[19]基于Tiny-YOLOv3利用卷積代替下采樣防止特征提取損失,使用改進的瓶頸層并引入深度可分離卷積降低網(wǎng)絡(luò)計算量的情況下提升了行人和車輛的檢測精度。李啟明等[20]在YOLOv5的基礎(chǔ)上使用Ghost模塊進行減枝和引入CA注意力,實現(xiàn)模型的輕量化的同時進一步提高了對X射線圖像危險品的檢測。馬志鋼等[21]通過在YOLOv5中加入CBAM來解決主干網(wǎng)絡(luò)中特征提取能力不足問題,引入EIOU Loss和Focal Loss解決難易樣本不均衡問題,并加速模型收斂,最終提高了對于人員檢測精度低,收斂速度慢的問題。院老虎等[22]基于YOLOv5算法,自制霧天場景數(shù)據(jù)集,在模型預(yù)測端加入注意力機制,并優(yōu)化非極大值抑制篩選先驗框,提高了在霧天場景下對車輛的精準檢測。Zhang等[23]提出一種混合注意力機制,并基于該注意力機制提出一種自適應(yīng)的特征提取模塊和特征增強模塊,實現(xiàn)了對小物體的精準檢測。

雖然基于深度學(xué)習(xí)的車輛和人員檢測算法已經(jīng)逐漸趨于成熟,但隧道環(huán)境下背景復(fù)雜,攝像頭視角下存在大量遠距離小目標車輛和人員,小目標檢測效果不佳的問題仍然存在。現(xiàn)基于當前流行的單階段目標檢測算法YOLOv5進行多方面優(yōu)化來進一步提升高速公路隧道環(huán)境下車輛及人員的檢測效果,首先使用高斯混合聚類算法 (gaussian mixture model,GMM)生成更適合隧道數(shù)據(jù)集的錨框,增強模型對目標形狀和尺度的適應(yīng)性,然后引入CARAFE算子,擴大感受野,降低上采樣過程中的特征細節(jié)信息損失,最后在模型的頸部加入坐標注意力CA[24],強化特征位置信息的相關(guān)性,提升模型關(guān)注目標區(qū)域的能力。旨在為智慧化交通管理和規(guī)劃提供有力的科學(xué)依據(jù),以期望創(chuàng)建更加高效安全的交通通行環(huán)境。

1 改進YOLOv5的高速公路隧道車輛和人員檢測方法

改進的YOLOv5網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。它由主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和預(yù)測模塊(Prediction)組成。主干網(wǎng)絡(luò)主要用于特征提取,它包含CBS、C3和SPPF模塊。CBS模塊是一個卷積、批歸一化和SiLU激活函數(shù)的組合,可以高效地提取特征。C3模塊是一個包含三個標準卷積層和多個Bottleneck的殘差學(xué)習(xí)模塊。SPPF模塊是空間金字塔池化SPP的快速版本,它通過串聯(lián)不同尺度的池化操作并拼接結(jié)果來增強特征圖的表達能力,速度更快。頸部主要用于特征融合,它包含CBS、C3、Concat層和CARAFE上采樣算子。CBS模塊和C3模塊可以學(xué)習(xí)更深層次的語義信息。CARAFE上采樣算子可以將中間特征圖上采樣并與高維特征拼接,使得模型能同時學(xué)習(xí)定位信息和語義信息,同時減少上采樣過程中的細節(jié)信息損失。CA模塊是一個輕量級的注意力機制模塊,它可以在已有特征的基礎(chǔ)上施加權(quán)重,學(xué)習(xí)網(wǎng)絡(luò)中缺乏的長距離依賴信息,更加關(guān)注有用的特征,進一步提升特征提取能力。預(yù)測模塊在檢測任務(wù)中起著非常重要的作用,它將經(jīng)過FPN+PAN特征融合后的三種尺度的特征圖輸入預(yù)測模塊中,使用聚類得到的9種不同尺度的錨框進行目標位置和類別信息的預(yù)測。

CBS為歸一化激活卷積模塊;C3為C3模塊;SPPF為快速的空間金字塔池化模塊;CA為坐標注意力模塊;Concat為特征拼接;CARAFE為內(nèi)容感知重組上采樣;Detect為檢測模塊

1.1 聚類算法的優(yōu)化

錨框是一種用于預(yù)測目標對象位置和尺寸的固定形狀的邊界框,它對模型的檢測效果有著重要的影響。原模型在訓(xùn)練之前會根據(jù)預(yù)設(shè)的一組錨框和數(shù)據(jù)集中的真實框之間的最佳召回率(best possible recall,bpr)來判斷是否需要重新生成錨框。如果bpr<0.98,原模型會使用K-means算法對數(shù)據(jù)集中的真實框進行聚類分析,從而得到一組更適合數(shù)據(jù)集的錨框。然而,K-means算法有一些缺點,如對初始值敏感、容易陷入局部最優(yōu)、不能處理非球形的數(shù)據(jù)分布等。為了解決這些問題,本文采用了GMM算法來替代K-means算法。GMM算法是一種基于概率密度的聚類算法,它可以用多個高斯分布來擬合任意形狀的數(shù)據(jù)分布,從而得到更靈活的聚類結(jié)果。GMM算法的優(yōu)點是不需要指定初始值、能夠找到全局最優(yōu)、算法復(fù)雜度低、運算成本低等。通過使用GMM算法,可以獲得一組更符合數(shù)據(jù)集特征的錨框,從而提高模型的檢測效果。

GMM由一組加權(quán)線性組合的獨立高斯模型組成。對于數(shù)量為N的訓(xùn)練集真實框(高為h、寬為w)的樣本集X={x1=(w1,h1),x2=(w2,h2),…,xN=(wN,hN)},對于二維隨機變量x,其概率分布p(x)為

(1)

(2)

(3)

式中:K為高斯混合模型所包含高斯子模型的個數(shù);μk為第k個高斯子模型的均值向量;Σk為第k個高斯子模型的協(xié)方差矩陣; |Σ|為協(xié)方差矩陣Σ的行列式;πk為樣本x是由第k個高斯子模型生成的概率;N(x|μk,Σk)為第k個高斯子模型的概率密度;x|μ為μ條件下x的分布。

高斯混合模型使用EM算法求解隱變量模型參數(shù)來不斷優(yōu)化模型,EM算法以E(Expectation)步驟和M(Maximum)步驟為一輪進行參數(shù)更新迭代。但在運行EM算法之前需要先給定高斯混合模型參數(shù)進行模型初始化,初始化的參數(shù)分別包括高斯子模型個數(shù)K,各高斯子模型的均值μ={μ1,μ2,…,μK}、協(xié)方差矩陣Σ={Σ1,Σ2,…,ΣK}以及權(quán)重π={π1,π2,…,πK}。初始化完成之后開始進行E步驟計算,即根據(jù)高斯混合模型的參數(shù)μ、Σ和π計算第i樣本點xi是由第k個高斯子模型的生成的概率,即

(4)

然后進行M步驟更新參數(shù)μ、Σ和π,分別計算μ、Σ和π的最大似然函數(shù),即

(5)

(6)

(7)

式中:Nk為屬于第k個高斯子模型的樣本數(shù)量;N為樣本總數(shù)。

若參數(shù)不收斂,則不斷進行E步驟和M步驟的迭代,直到參數(shù)收斂,得到最終高斯混合模型聚類結(jié)果。由于YOLOv5模型輸出端對三種尺度分別為80 px×80 px、40 px×40 px、20 px×20 px的特征圖實現(xiàn)對小、中、大目標的多尺度預(yù)測,且每種尺寸的特征圖又需要使用三種不同尺度的錨框進行預(yù)測,因此K取值為9。

1.2 上采樣層優(yōu)化

在模型的特征融合部分,模型會先將獲取的低分辨率特征圖進行上采樣縮放到與骨干網(wǎng)絡(luò)中提取的高分辨率特征圖相同尺寸大小,然后進行特征拼接形成高質(zhì)量特征,特征融合能夠?qū)π∥矬w檢測和目標邊界的檢測擁有更好的效果。YOLOv5算法使用最近鄰插值的方法進行特征圖的上采樣,該方法使用原始特征圖中最接近目標像素點的像素值進行插值操作,實現(xiàn)簡單,但會造成一定的特征損失且沒有利用到特征圖的語義信息。本文研究使用輕量化的上采樣算子CARAFE基于輸入內(nèi)容進行上采樣,上采樣過程中上采樣核與特征圖語義信息相關(guān),具有較大的感受野,能夠有效避免上采樣過程中細節(jié)信息的損失,且保持模型的輕量。

CARAFE算子由上采樣核預(yù)測模塊ζ和內(nèi)容感知重組模塊λ組成。對于特征圖FC×H×W,首先傳入上采樣核預(yù)測模塊,在原特征圖每個位置l(i,j)上預(yù)測用于內(nèi)容感知重組的上采樣核wl′,然后在內(nèi)容感知重組模塊中使用預(yù)測到的上采樣核重組特征F′l′,最終得到上采樣比例為γ的特征圖F′C×γH×γW。

wl′=ζ[N(Fl,kencoder)]

(8)

F′l′=λ[N(Fl,k),wl′]

(9)

對于輸出特征圖F′上任意位置l′(i′,j′),都可在原特征圖F上找到相應(yīng)位置l(i,j)。其中i=?i′/γ」,j=?j′/γ」,N(Fl,k)表示以l為中心原特征圖k×k的子域。

在特征圖F傳入上采樣核預(yù)測模塊后,首先會使用1×1的卷積將特征圖通道壓縮為Cm,之后基于壓縮的特征圖使用卷積核大小為kencoder的卷積層進行特征編碼生成尺寸為k2×γH×γW的特征圖,并對特征圖每個位置上所有通道值使用softmax歸一化生成用于內(nèi)容感知重組的預(yù)測核wl′。最后,內(nèi)容感知模塊通過預(yù)測核重組特征生成上采樣后的特征圖F′C×γH×γW,其流程如圖2所示。

F為原特征圖;F′為目標特征圖;W、γW為特征圖的寬;H、γH為特征圖的高;C、C m、γ2×k2、k2為特征圖的通道數(shù);k為卷積核的尺度;N(Fl,k)為以l為中心原特征圖k×k的子域;wl′為內(nèi)容感知重組的預(yù)測核

1.3 添加注意力模塊

注意力機制可以應(yīng)用于計算機視覺領(lǐng)域并取得良好的效果,其通過對輸入特征圖的不同通道和空間位置施加不同的權(quán)重,讓模型更加關(guān)注有用的特征信息。本文研究通過對多種注意力進行實驗最終選取CA作為將要施加的注意力。受Liu等[25]的啟發(fā),本文研究將注意力模塊加入模型中的Neck部分,進一步增強模型對圖像各位置特征提取的能力,實現(xiàn)更加精準的預(yù)測。

本文研究提出一種基于CA注意力的目標檢測優(yōu)化方法,該注意力在計算圖像中每個位置點與其他位置點的相關(guān)性時,不僅考慮了它們的特征值,還考慮了它們的坐標信息。與之相比,SE[26]注意力只對通道之間進行顯式建模,自適應(yīng)的重新校準通道間的相應(yīng)關(guān)系,但忽略了位置信息的重要性; CBAM[27]注意力則同時獲取通道信息和局部空間位置信息,但沒有利用全局的坐標信息。CA注意力通過獲取卷積神經(jīng)網(wǎng)絡(luò)中較為匱乏的長遠程依賴表征,減少位置信息的丟失,進一步提升了模型特征提取的性能。

CA注意力的工作流程如圖3所示,該注意力首先通過在兩個方向上做平均池化將通道注意力分解為兩個一維特征編碼的過程,之后通過進行一系列特征拼接、卷積、歸一化、非線性激活、維度分裂等操作分別獲取一個空間方向上的遠程依賴關(guān)系和另一個空間方向上的位置關(guān)系信息。最后將獲得的空間和位置信息注意力作用到輸入特征圖上,達到進一步增強輸入特征圖對感興趣對象的特征表示的目的。

W為寬度;H為高度;C為通道數(shù);X Avg Pool和Y Avg Pool分別為在特征圖上做最大池化;Concat+Conv為特征拼接并進行卷積;BN+Non-Linear為歸一化和非線性激活;Split為特征分割;Sigmoid為Sigmoid激活

2 實驗結(jié)果與分析

2.1 實驗環(huán)境

本次實驗在Unbutu20.04.4 LTS操作系統(tǒng)上進行訓(xùn)練,使用的是pytorch深度學(xué)習(xí)框架,CPU為Intel酷睿i7-8700,GPU為NVIDIA Titan XP(12 G),軟件環(huán)境為CUDA11.6。

在模型的訓(xùn)練過程,網(wǎng)絡(luò)輸入端圖片尺寸設(shè)置為640 px×640 px,初始學(xué)習(xí)率為0.01,隨機梯度下降動量為0.937,采用Adam優(yōu)化器優(yōu)化,優(yōu)化器權(quán)重衰減為0.000 5,batch-size設(shè)置為16,訓(xùn)練開始先迭代3次warmup訓(xùn)練,訓(xùn)練總迭代次數(shù)設(shè)置為150次。

2.2 數(shù)據(jù)集

本文研究使用的高速公路隧道數(shù)據(jù)集是從溫麗高速隧道內(nèi)和網(wǎng)絡(luò)上采集的2 467張圖片,圖像尺寸為1 920 px×1 080 px。該數(shù)據(jù)集的目標類別只有car和person兩類,且拍攝環(huán)境多為昏暗或受車燈干擾的隧道內(nèi),如圖4所示。這些因素導(dǎo)致目標檢測的難度較高。為了提高模型的魯棒性,對原始數(shù)據(jù)進行了平移、旋轉(zhuǎn)、縮放、裁剪等數(shù)據(jù)增強操作,將數(shù)據(jù)量擴充到9 868張,并按照8∶1∶1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗證集和測試集,然后用訓(xùn)練集和驗證集訓(xùn)練模型,用測試集評估模型的性能。

圖4 隧道實景數(shù)據(jù)集圖片F(xiàn)ig.4 Images of tunnel dataset

2.3 聚類算法改進對比試驗

為驗證GMM聚類算法在聚類錨框時的表現(xiàn),這里分別使用K-means算法和GMM算法進行實驗。各模型在訓(xùn)練過程中的損失曲線對比如圖5所示,由圖5可以發(fā)現(xiàn)通過GMM聚類生成的錨框用于模型訓(xùn)練在同階段而言邊界框損失Box_Loss更小,使得模型更快收斂,能夠?qū)崿F(xiàn)更佳的訓(xùn)練效果。

Epoch為訓(xùn)練的輪數(shù)

GMM聚類出的一組錨框(17,15)、(18,43)、(32,27)用來檢測大目標,(49,40)、(48,66)、(77,58)用來檢測中等目標, (132,90)、(104,120)、(194,174)用來檢測小目標,如表1所示。在使用GMM聚類出的錨框進行檢測時,模型的平均檢測精度達到了94.0%,較原模型提升2.1%,GMM聚類能夠更好地適應(yīng)數(shù)據(jù)集的特點,生成更優(yōu)的錨框,從而提高模型的檢測效果。

表1 不同聚類算法模型對比實驗

2.4 上采樣優(yōu)化對比實驗

為了驗證上采樣算子CARAFE的有效性,這里將原模型中的最近鄰插值上采樣替換為CARAFE上采樣,并將替換后的模型與原模型進行對比實驗來驗證更換上采樣方式對模型的影響,其實驗結(jié)果如表2所示。

表2 上采樣優(yōu)化對比實驗Table 2 Comparison experiment of upsampling

由實驗結(jié)果可知,在將模型的上采樣層更換為上采樣算子CARAFE后,模型的參數(shù)量未發(fā)生較大變化,但檢測精度顯著提高了2.2%,達到了94.1%,檢測速度降低了15FPS。這說明CARAFE能夠在保持模型輕量化的同時,提高模型對細節(jié)信息的感知能力,降低了模型上采樣過程的特征細節(jié)信息損失,從而提升檢測性能。

2.5 注意力機制對比實驗

為驗證當下較為流行的幾種注意力機制在本實驗中的表現(xiàn),分別在卷積注意力模塊CBAM、通道注意力SE、坐標注意力CA、更加高效的通道注意力ECA[28]和Swin Transformer[29]上做橫向?qū)Ρ葘嶒?實驗結(jié)果如表3所示。結(jié)果顯示,在模型中引入SE注意力和ECA注意力后,模型的檢測精度分別下降了1.4%和0.9%,可能是因為在本次實驗中僅獲取通道特征關(guān)系的注意力并不能很好適配該實驗數(shù)據(jù)集。Swin Transformer雖然提高了檢測精度,但是參數(shù)量和計算量也大幅增加,且在本數(shù)據(jù)集上的效果不夠顯著。而在模型中分別引入CBAM和CA注意力后,模型的檢測精度分別提高了0.9%和1.1%,模型參數(shù)量分別增加了0.4×105,考慮到CA注意力能夠獲取到CBAM注意力中較為匱乏的長遠程依賴關(guān)系,且CA注意力在實驗中平均檢測精度表現(xiàn)更優(yōu),這里選擇添加CA注意力機制來達到優(yōu)化模型的效果。

表3 加入各注意力機制對比實驗Table 3 Comparison experimentunder different attention mechanisms

為了探究注意力機制在YOLOv5s模型中的最佳插入位置,分別在Backbone的C3和SPPF之間以及Neck的三個C3之后添加CA注意力機制,進行了不同模型的檢測效果對比實驗,結(jié)果如表4所示。從表4中可以看出,在Neck部分加入CA注意力機制的模型,平均檢測精度有較大提升,說明CA注意力機制在特征融合部分可以幫助模型更好地提取和融合特征,提高檢測性能。因此,選擇在Neck部分使用CA注意力機制,以達到最佳效果。

表4 不同位置下加入CA的對比實驗Table 4 Comparison experiment of adding CA at different positions

2.6 消融實驗

為驗證提出的三種不同優(yōu)化方法對YOLOv5s模型性能的影響,在高速公路隧道車輛數(shù)據(jù)集上進行消融實驗,結(jié)果如表5所示。從表5可知,僅更換聚類算法的情況下,模型的平均檢測精度較原模型提升了2.1%;更換CARAFE上采樣時,模型的平均檢測精度提升了2.2%,模型檢測速度降低了15FPS;僅添加CA注意力的情況下,模型的平均檢測精度提升了1.1%,檢測速度降低了29FPS;在使用GMM聚類出錨框基礎(chǔ)上更換CARAFE上采樣時,模型的平均檢測精度提升了2.9%,檢測速度降低了17FPS;在使用GMM聚類出錨框基礎(chǔ)上添加CA注意力時,模型的平均檢測精度提升了2.5%,檢測速度降低了29FPS;完全使用以上三種優(yōu)化方法時,模型的平均檢測精度提升達到最優(yōu)水平,為95.7%,提升了3.8%,同時保持了123FPS的檢測速度。

表5 消融實驗Table 5 Ablation experiment

2.7 檢測結(jié)果對比

為了驗證本文提出的改進算法的實際性能,在高速公路隧道車輛數(shù)據(jù)集上進行了不同模型的檢測效果對比,結(jié)果如圖6所示。從圖6中可以看出,使用原YOLOv5s算法進行檢測時,會漏檢一些遠距離的小目標車輛和受燈光影響的車輛目標,而使用本文的改進算法則可以準確識別這些復(fù)雜目標,并且提高了檢測精度,能夠更好地完成復(fù)雜隧道場景下的車輛和人員的檢測任務(wù)。

圖6 檢測效果對比Fig.6 Comparison of detection results

2.8 對比實驗

為進一步驗證所提算法的優(yōu)越性,分別將所提算法與當前較為主流的一些算法如Faster RCNN、SSD、YOLOv3、YOLOv4、YOLOX、TCS-YOLO[30]、SEFocal-YOLO[31]、YOLOv8在高速公路隧道車輛數(shù)據(jù)集上進行對比實驗,結(jié)果如表6所示。

表6 各主流算法對比實驗Table 6 Comparison experiments of various mainstream algorithms

表6中的結(jié)果顯示,本文提出的改進算法在檢測精度上比原YOLOv5s模型提高了3.8%,達到了95.7%,在檢測速度上也保持了123FPS的水平,相比于Faster RCNN、SSD、YOLOv3、YOLOv4、YOLOX和YOLOv8等算法,仍然具有優(yōu)勢。而其他一些新提出的算法,如TCS-YOLO和SEFocal-YOLO,由于數(shù)據(jù)集選擇、參數(shù)設(shè)置等因素,在本次實驗中并未表現(xiàn)出良好的效果。本文所提算法在保證高精度的同時,也保持了較快的速度,能夠適應(yīng)大多數(shù)工業(yè)場景的需求,整體性能優(yōu)異,證明了該算法在高速公路隧道復(fù)雜環(huán)境下檢測的優(yōu)越性。

3 結(jié)論

針對高速公路隧道內(nèi)車輛和人員檢測的難點,基于YOLOv5s模型提出了一種優(yōu)化的檢測方案。通過對該方案進行一系列實驗可以得出以下結(jié)論。

(1) 采用高斯混合聚類算法優(yōu)化了K-means算法對錨框的聚類,從而獲得了一組適用于隧道場景數(shù)據(jù)目標的更精準的錨框,不僅加快了模型的收斂速度,還提高了檢測精度。

(2) 引入CARAFE算子對最近鄰插值上采樣過程中的特征損失進行了優(yōu)化,使特征融合更加準確。該算子在保持模型輕量的同時,有效地增大了模型的感受野,減少了上采樣過程中的特征細節(jié)損失,從而提升了模型的性能。

(3) 通過在模型的頸部引入CA注意力機制,并對不同位置和類型的注意力模塊進行實驗,成功利用了有用的特征,增強了模型網(wǎng)絡(luò)的特征提取能力,降低了隧道內(nèi)燈光對圖像中車輛等目標的干擾。

該方案在受燈光影響且存在遠距離小目標車輛和人員的隧道環(huán)境下,能夠?qū)崿F(xiàn)更好的檢測效果,改善了原模型在高速公路隧道復(fù)雜環(huán)境下檢測困難、遠距離小目標車輛及人員漏檢的問題。接下來將會在此基礎(chǔ)上對模型輕量化做研究使得該方案能夠在更多領(lǐng)域得到更加廣泛的應(yīng)用。

猜你喜歡
特征實驗檢測
記一次有趣的實驗
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 久久综合丝袜长腿丝袜| 天天色综网| 欧美不卡在线视频| 永久成人无码激情视频免费| 色妞永久免费视频| 日韩高清在线观看不卡一区二区| 久久青青草原亚洲av无码| 欧美激情第一欧美在线| 欧美久久网| 99视频有精品视频免费观看| 亚洲男人的天堂在线观看| 亚洲成人77777| 精品一区二区三区波多野结衣| 少妇极品熟妇人妻专区视频| 国产精品欧美日本韩免费一区二区三区不卡| 亚洲看片网| 极品私人尤物在线精品首页 | 国产97视频在线观看| 久久亚洲中文字幕精品一区| 国产激爽爽爽大片在线观看| 国产极品嫩模在线观看91| 国产精品无码在线看| 国产人成在线视频| 国产精品美女免费视频大全| 国产超碰在线观看| 视频一本大道香蕉久在线播放| 国产成在线观看免费视频| 波多野结衣中文字幕一区| 国产a在视频线精品视频下载| 久久视精品| 亚洲欧洲一区二区三区| 久久精品中文字幕免费| 91无码国产视频| 美女被躁出白浆视频播放| 亚洲国产综合第一精品小说| 亚洲中文精品人人永久免费| 成人日韩视频| 国产杨幂丝袜av在线播放| 亚洲综合二区| 欧美啪啪精品| 欧美无遮挡国产欧美另类| 欧美在线精品一区二区三区| 亚洲天堂视频在线观看免费| 欧美一区国产| 狠狠综合久久久久综| 国产激爽大片高清在线观看| 日韩毛片免费| 少妇人妻无码首页| 日韩高清欧美| 国产99精品久久| 无码福利视频| 午夜三级在线| 国产精品永久免费嫩草研究院| 亚洲床戏一区| 无码'专区第一页| 色哟哟色院91精品网站| 国产精品粉嫩| 最新国产成人剧情在线播放| 麻豆国产在线观看一区二区| 成人福利在线视频免费观看| 国产成人免费高清AⅤ| 一区二区欧美日韩高清免费| 国产真实乱了在线播放| 日韩精品高清自在线| 亚洲无码视频图片| 日韩欧美中文字幕一本| 一区二区三区成人| 久视频免费精品6| 亚洲色图综合在线| 久久久久夜色精品波多野结衣| 国内a级毛片| 亚洲综合九九| 91小视频在线观看| 幺女国产一级毛片| 无遮挡国产高潮视频免费观看 | 无码久看视频| 国产SUV精品一区二区| 伊人久久婷婷| 97色婷婷成人综合在线观看| 在线观看国产精品第一区免费| 九色国产在线| 国产女人水多毛片18|