999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

復雜環境下基于改進DeepSORT的行人實時穩定跟蹤方法

2023-08-16 07:02:00張麗娟張紫薇姜雨彤李東明胡夢達劉英雪
液晶與顯示 2023年8期
關鍵詞:檢測模型

張麗娟, 張紫薇, 姜雨彤, 李東明, 胡夢達, 劉英雪

(1.無錫學院 物聯網工程學院, 江蘇 無錫 214105;2.長春工業大學 計算機科學與工程學院, 吉林 長春 130012;3.中國北方車輛研究所, 北京 100072;4.吉林農業大學 信息技術學院, 吉林 長春 130118)

1 引言

多目標跟蹤(Multiple Object Tracking, MOT)是指輸入一段視頻,在沒有任何對目標的先驗知識(外形或數量)的前提下,追蹤其中一類或多類物體的運動軌跡。多目標跟蹤作為計算機視覺中的一項重要任務,在智能監視、自動駕駛、醫療診斷和軍事視覺引導等方面具有極其重要的應用價值[1]。Aydogan Ozcan等人[2]提出一種全新的方法,無需計算機和任何數字處理即可立即透過未知、隨機生成的相位漫射介質,全光學重建被扭曲的物體圖像。本文主要研究行人多目標跟蹤任務。

在多目標跟蹤問題中,首先需要通過目標檢測器如Faster R-CNN[3]、YOLOv3[4]、SSD[5]等對輸入幀完成目標檢測;進行ROI區域特征提取;然后進行相似度計算,計算前后兩幀目標之間的匹配程度(前后屬于同一目標的之間的距離比較小,不同目標的距離比較大);最后進行數據關聯,為每個對象分配目標的ID。基于上述步驟的算法可以歸為基于檢測算法(Tracking by Detection, TBD)的跟蹤,此類跟蹤算法的準確率依賴于檢測器精度。在Bewley A等人[6]的研究中提到,僅換一個更好的檢測器就可將目標跟蹤表現提升18.9%。

目前有許多相關方法用于實時多目標的檢測跟蹤,但是仍存在很多問題。首先,多目標跟蹤精度還有待提高。當視頻中出現遮擋或者目標框的特征不明確時,易造成誤檢、漏檢或匹配錯誤,這些會大幅削弱模型跟蹤的精度,應著眼目標檢測的精度以及檢測框和軌跡的匹配兩部分來提升多目標跟蹤的精度。其次,多目標跟蹤的速度仍需提升。基于深度學習的方法相比于傳統的跟蹤方法,雖然精度有明顯的優勢,但深度學習的運行速度較慢,尤其Re-identification(Re-ID)極大地增加了模型的復雜度和時間成本,跟蹤的幀率較低。

為了解決上述問題,本文基于Deep SORT[7]的框架提出了改進的行人多目標跟蹤算法。首先給定視頻初始幀;然后使用目標檢測器進行檢測,本文使用YOLOv5來提取檢測框;將檢測框中對應的目標進行特征提取;進行相似度計算,計算前后兩幀目標之間的匹配程度,這里會設定一個閾值,大于這個閾值的認為匹配成功,將更新這個軌跡;最后為每個對象分配ID。

本文算法的貢獻如下:

(1)在檢測分支的主干網絡設計融入注意力機制,幫助模型更加精準地定位和識別感興趣的目標,進而提升目標跟蹤的精度。

(2)數據關聯部分設計預測軌跡算法并行,該機制配合Deep SORT中的級聯匹配形成了預測-跟蹤-校準體系。

(3)在MOT16、MOT17數據集上評估本文算法,并在MOT16(MOTA達到66.5%,IDF1達到64.2%,IDSW達到641)和MOT17(MOTA達到65.7%,IDF1達到62.8%,IDSW達到2072)上獲得了競爭性的結果。

2 相關工作

2.1 相關濾波跟蹤算法

在相關濾波和深度學習出現之前,傳統的視覺跟蹤方法研究進展較慢且跟蹤精度差。相關濾波的跟蹤方法打破了當時算法研究的局限性,成為該領域最被認可的算法研究方向之一。MOSSE算法[8]利用快速傅里葉變換(Fast Fourier Transform,FFT)處理圖像和濾波器,跟蹤速度極快并且在實時跟蹤下也能保持良好的魯棒性。核相關濾波算法(Kernelized Correlation Filters, KCF)[9]第一次證明了脊回歸與周期性變化的樣本和經典相關濾波器之間的聯系。KCF使用循環矩陣采集樣本,使用FFT加速算法運算。KCF不論在跟蹤效果還是在跟蹤速度上都有十分亮眼的表現。李等人[10]提出了自適應多濾波器的目標跟蹤算法。

2.2 深度學習跟蹤算法

近些年,深度學習受到了廣泛關注。左超等人[11]認為深度學習在光學計量中受到越來越多的關注,為光學計量技術的概念帶來了顛覆性的變革。司徒等人[12]認為深度神經網絡(DNN)已經成為解決許多在不同的領域具有挑戰性問題的方法。隨著目標檢測領域深度學習算法的不斷發展,更多的跟蹤算法采用基于檢測跟蹤的框架,即先對視頻的每一幀進行目標的檢測,再對不同幀的檢測對象之間建立對應關系以獲得軌跡。

基于TBD范式,Bewley A等人[6]提出的在線實時跟蹤算法SORT是最早利用卷積神經網絡檢測行人的多目標跟蹤算法之一。該算法將多目標跟蹤問題分為目標檢測部分、狀態預測部分和數據關聯部分。該算法經過目標檢測部分得到目標的位置和類別,再通過卡爾曼濾波對每個檢測目標預測和更新,最后使用匈牙利算法求解預測后的目標和當前幀中檢測到的目標IOU匹配的代價矩陣。SORT運行速度極快,但易出現漏跟蹤或誤跟蹤的情況。Wojke等人[7]對SORT算法進行了改進,提出了DeepSORT算法。DeepSORT算法在SORT算法基礎上加入卷積神經網絡來提取外觀特征,并加入級聯匹配策略。DeepSORT算法在精度上有所提升,但運行速度較慢。Bergmann等人[13]提出了一種基于錨框和檢測器回歸的方式進行下一幀的跟蹤預測的模型Tracktor。同時,提出的跟蹤器甚至不需要額外的跟蹤數據訓練、僅僅依靠訓練好的兩階段(Two-stage)檢測器就能實現。其次,通過添加ReID模型和CMC相機補償模型將提出的模型擴展為Tracktor++。但該算法仍有許多局限,跟蹤中若存在嚴重的遮擋時不能較好地處理,對尺寸較小的目標的跟蹤沒有較好的魯棒性。賀等人[14]改進外觀模型,將原始的寬殘差網絡更換為ResNeXt網絡,在主干網絡上引入卷積注意力機制,構造新的行人重識別網絡。席等人[15]針對復雜場景下目標之間遮擋造成跟蹤精度降低的問題,提出基于Fairmot框架的多目標跟蹤改進算法。

目前的跟蹤算法的檢測分支分為二步檢測和一步到位檢測兩種。其中二步檢測需要先生成建議框,然后再進行細致的目標檢測和分類;一步檢測會直接在網絡中提取特征來預測目標位置,僅送入網絡一次就可以預測出所有的檢測框。顯然,目標檢測中二步檢測算法相較于一步到位算法的速度會較慢,所以本文用YOLOv5來作為我們的檢測器。

3 行人多目標穩定跟蹤模型

本文采用的多目標跟蹤算法是基于檢測的跟蹤范式,在復雜環境下對行人可以進行在線跟蹤且滿足實時性的要求。如圖1所示,軌跡預測分支采用卡爾曼濾波和核相關濾波并行預測軌跡。目標檢測分支采用YOLOv5框架完成行人檢測,數據關聯分支采用Deep SORT算法的框架實現行人跟蹤。

圖1 本文提出的行人多目標算法框架Fig.1 Pedestrian multi-objective algorithm framework proposed in this paper

多目標跟蹤首先需要通過目標檢測器YOLOv5對輸入幀完成目標檢測;進行ROI區域特征提取;然后進行相似度計算,計算前后兩幀目標之間的匹配程度;最后進行數據關聯,為每個對象分配目標的ID。本文提出的算法在YOLOv5檢測器中引入了注意力機制,并采用多任務并行的數據關聯來實現行人多目標跟蹤。首先通過得到的跟蹤序列(第一幀得到的檢測框默認為跟蹤序列)通過卡爾曼濾波和核相關濾波兩種算法并行預測視頻跟蹤序列得到預測軌跡,預測軌跡和這一幀的檢測框進行級聯匹配或者IOU匹配成功后的軌跡和新軌跡納入跟蹤序列,若不確定軌跡連續匹配失敗且超出最大時間則刪除該軌跡。

3.1 軌跡預測分支

本文的跟蹤場景定義在八維狀態空間(u,v,γ,h,x',y',γ',h')上,其中(u,v)是檢測框中心點坐標,γ是長寬比,h為檢測框高度,(x',y',γ',h')是在圖像坐標中的各自速度。然后使用卡爾曼濾波更新,其觀測變量為(u,v,γ,h)。預測部分的完整表達式如式(1)所示:

匹配成功的軌跡將更新為檢測框的信息,卡爾曼濾波更新公式如式(2)所示:

其中:Pk是協方差矩陣,K是卡爾曼增益矩陣,H是測量矩陣,I是單位矩陣,R是噪聲,z是測量值。

目標跟蹤中實時性是非常重要的。為了保證一定的幀率,我們考慮將核相關濾波和卡爾曼濾波并行預測軌跡序列。因為目標跟蹤中目標和背景是非線性的,在二維圖像我們不能做到將目標和背景相分離,所以我們使用核函數k將圖像從低維轉換到高維,將目標和背景線性可分,如式(3)所示:

其中:(xi,xj)是訓練樣本,測試集z轉換成線性的?(z)。假設要預測第二幀圖中目標的位置,就在上一幀框的附近劃分一個感興趣區域z,對這個感興趣區域進行移位操作。KCF中引入了循環矩陣,巧妙地規避了矩陣的逆運算,大幅減少了運算量。并引入高斯核函數,可以將非線性問題轉換為高維空間中的線性問題,如式(4)所示,使算法更具有一般性。

其中:α∈n×1,?(x)∈n×n。

選擇f(z)值最大的區域作為新目標區域,由z可知目標移動的位置,由此得到α=(K+λI)-1y。K是所有訓練樣本的和相關矩陣,通過傅里葉變換FFT得到式(5),其中是核相關矩陣第一行。

接下來使用HOG來提取特征。將樣本區域劃分若干區域,并在每個區域提取32維特征。同樣對f(z)進行傅里葉變換得到式(6):

其中:λ是權重,y是維度輸入,kxz是高斯核函數,x、z是任意兩組循環移位得到的樣本集,F是循環矩陣。

KCF使用目標周圍區域的循環矩陣采集正負樣本,利用脊回歸訓練目標檢測器,并利用循環矩陣在傅里葉空間可對角化的性質將矩陣的運算轉化為向量的Hadamad積,降低了運算量,提高了跟蹤速度,使算法滿足實時性要求[16]。

檢測和跟蹤是兩個相輔相成的問題,良好的跟蹤可以彌補檢測的漏檢,良好的檢測可以防止跟蹤的軌跡偏離。所以我們考慮加入預測來解決目標軌跡丟失、目標編號跳轉等問題,提升目標跟蹤的穩定性。

KCF中用到的是HOG特征,主要包括高空間分辨率和高目標定位精度的紋理信息。但是在復雜的跟蹤背景下,僅依靠HOG特征無法實現精確的目標跟蹤。考慮到復雜背景和光照變化情況下的深度特征,CNN特征具有豐富的紋理信息和較強的魯棒性,但對目標的空間分辨率和定位精度較低,所以融合手工制作和深度特征相應,利用它們的互補性來提升跟蹤的魯棒性。HOG表示的是梯度特征,可以表示局部的形狀信息。位置和方向空間的量化可以限制平移和旋轉的負面影響,所以HOG特征在跟蹤具有明顯邊沿輪廓的運動目標,比如行人時效果較優。KCF在目標的一些規則運動中對目標也能穩定跟蹤,彌補了DeepSORT中使用馬氏距離處理運動信息的缺陷。KCF跟蹤速度較快,不會對實時跟蹤處理過程造成太大壓力。

3.2 目標檢測分支

本文使用YOLOv5模型完成目標檢測。YOLOv5的網絡結構如圖2所示,主要包括特征提取網絡、加強特征提取網絡和預測網絡。其中,主干特征提取網絡(圖2中Backbone)的功能是進行初步特征提取,利用主干網絡得到3個有效特征層;加強特征提取網絡(圖2中Neck)的功能是進行進一步的特征提取,利用特征金字塔加強特征提取網絡,YOLOv5對從主干網絡中得到的有效特征層進行特征融合,提取更有效的特征,獲得3個更加有效的特征層;預測網絡(圖2中Head)的功能是利用更有效的有效特征層獲得預測結果。YOLOv5主干網絡使用的是Focus結構和跨階段局部網絡(CSPDarkNet),加強特征提取網絡采用路徑聚合網絡(PANet),預測網絡是YOLOv5通用檢測層。

圖2 YOLOv5框架Fig.2 YOLOv5 framework

視頻跟蹤中往往存在攝像頭的運動和行人運動。運動的不確定性會導致目標跟蹤的精度大幅降低。YOLOv5網絡的特點是精度高、速度快。但視頻中若是人流量密度較高或是跟蹤背景復雜,跟蹤中會出現一定的漏檢、誤檢等情況。尤其是目標被遮擋或目標特征信息較少時,YOLOv5很難將目標的位置檢測準確。

通道注意力給模型帶來顯著的性能提升,但通道注意力通常會忽略位置信息。因此,Hou等人[17]設計了一種新的注意力機制(Coordinate Attention,CA),將位置信息嵌入到通道注意力。

CA模塊可以看作是一個用來增強特征表示能力的計算單元。如圖3所示,CA模塊進行了平均池化、拼接、卷積等操作后輸出同尺寸的張量。CA模塊簡單靈活而且高效,可在幾乎不帶來額外計算開銷的前提下提升網絡的精度。

圖3 CA模塊結構圖架Fig.3 Coordinate attention structure diagram

為了改善目標檢測中的誤檢漏檢,在YOLOv5網絡中考慮采用添加注意力機制(CA)的方法來強化目標對象的位置信息,增強特征表示能力,如圖4所示。注意力機制(CA)不僅可以捕獲跨通道信息,還可以捕獲方向感知和位置敏感信息,這可以幫助模型更準確地定位和識別目標并且可以輕松插入移動網絡的經典構建塊。除此之外,作為預訓練模型還可以有效提升模型的精度,并為下游的跟蹤任務帶來顯著的性能提升。坐標注意力機制將通道注意力分解為兩個并行的一維特征編碼過程,可以有效地將空間坐標信息整合到生成的注意力圖中。在實時目標跟蹤中,盡管精度是我們一直努力追求的目標,但是能夠實時跟蹤保持畫面流暢度是第一前提,所以我們將坐標注意力機制融合進檢測模型,在不大量降低跟蹤速度的前提下提升檢測的精度。

圖4 YOLOv5主干網絡Fig.4 Improved YOLOv5 backbone network

3.3 數據關聯分支

在對被測圖元進行測量之前,本文的跟蹤場景定義在八維狀態空間(u,v,γ,h,x',y',γ',h')上,其中(u,v)是檢測框中心點坐標,γ是長寬比,h為檢測框高度,(x',y',γ',h')是它們在圖像坐標中的各自速度。然后使用卡爾曼濾波預測更新,其觀測變量為(u,v,γ,h)。DeepSORT首先采用卡爾曼濾波來預測已經存在的軌跡,對預測得到的預測框和當前幀的檢測框進行級聯匹配和IOU匹配,圖5所示為匹配成功的軌跡序列。

圖5 成功匹配的軌跡Fig.5 Successfully matched tracks

如圖6所示,級聯匹配主要分為兩部分,一部分主要是使用外觀模型和運動模型來計算相似度,得到代價矩陣,并通過門控矩陣來限制代價矩陣中的最大值,經多次實驗,本文將閾值設置為9.487 7。

圖6 DeepSORT中的級聯匹配Fig.6 Cascade matching in DeepSORT

馬氏距離度量如式(7)所示:

其中:dj代表第j個檢測框信息(u,v,y,h),Si是軌跡卡爾曼濾波器在當前時刻觀測空間的協方差矩陣。yi是軌跡在當前時刻的預測觀測量。式(7)表示第j個預測結果與第i條軌跡的適配度。使用馬氏距離可以考慮狀態估計的不確定度,通過閾值來排除不可能的關聯。如果第i個軌跡和第j個預測之間的關聯是可接受的,則其計算結果為1。

除馬氏距離外,使用余弦距離衡量外觀差異。對于每個檢測框dj,計算外觀描述符rj,其中||rj||=1。此外,對于每個軌跡k,存放最近的100個外觀描述符。最后,度量第i個軌跡和第j個探測之間的最小余弦距離,如式(8)所示:

如果第i個軌跡和第j個預測之間的關聯是可接受的,則其計算結果為1。

上述兩個度量是相互補充的。馬氏距離提供了目標的可能位置信息,對短期預測有用;余弦距離更多考慮預測信息和軌跡的外觀特征。將二者加權相加,得到代價矩陣,如式(9)所示:

其中λ是權重系數,可以有效控制兩者的占比。

當目標被長時間遮擋、卡爾曼濾波的預測較長時間不更新時,僅進行匈牙利算法匹配具有不準確性。DeepSORT中的級聯匹配有效避免了這種情況,提升了軌跡的精準度。但是,當目標在遠距離快速移動時,目標可能會發生尺度變化或被遮擋,而這時跟蹤的軌跡將不再準確。

本文設計了KCF和KF雙軌道預測機制,該機制配合DeepSORT中的級聯匹配形成了預測-跟蹤-校準體系。當跟蹤過程中卡爾曼濾波出現跟蹤目標軌跡與檢測框位置差別較大時,這個預測軌跡則被認為是未被匹配的軌跡。若KCF中此目標軌跡的預測框和當前幀的檢測框匹配成功,那么目標軌跡在當前幀被認為是仍存在的軌跡,同時跟蹤框更新為當前幀的檢測框,并學習框內目標的特征返回給卡爾曼濾波進行更新。否則,目標軌跡在當前幀跟蹤失敗,設定為非確定的軌跡,但仍舊保存軌跡70幀且進行軌跡的預測操作。這段時間內若有任何一幀目標的預測框和檢測框匹配成功,目標軌跡則被重新認為是確認的軌跡。預測軌跡的準確連續是跟蹤算法穩定跟蹤目標的前提,而這種預測與跟蹤并行的機制極大地提升了預測軌跡的準確性和連續性。

4 實驗結果與分析

4.1 實驗環境與數據集

實驗環境為Ubantu16.04操作系統,Nvidia GeForce RTX 2080Ti顯卡,運行內存為64 GB,采用Pytorch1.5.0深度學習框架,在python3.7的服務器上實現。本文算法目標檢測訓練數據集使用CrowdHuman數據集。CrowdHuman數據集[18]包含訓練集15 000張,測試集5 000張,驗證集4 370張。訓練集和驗證集中共有470 000個實例,約每張圖片包含23個人,同時存在各種各樣的遮擋。特征提取中的訓練集用到的是Market-1501數據集。Market-1501數據集[19]的訓練集中有12 936張圖片,標注751個行人,測試集中有19 732張圖片,標注750個行人,訓練集和測試集中沒有重復的行人ID。

為驗證本文算法在復雜環境下行人多目標穩定跟蹤任務的有效性,選擇在公開數據集MOT16數據集上進行消融實驗,在MOT16、MOT17數據集上與其他先進算法進行對比實驗。該數據集中包含室內外復雜的環境。實驗評價指標如表1所示。

表1 多目標跟蹤的評價指標Tab.1 Evaluation index of multi-target tracking

4.2 消融實驗和對比實驗

對YOLOv5檢測器采用坐標注意力機制進行消融實驗,得到的熱力圖如圖7所示。第一列為CrowdHuman數據集中原始圖像,第二列為YOLOv5檢測器原始模型的熱力圖,第三列為改進后的模型的熱力圖。歸一化后,網絡在顏色越紅的地方分配的權重越大。第二列原始模型的熱力圖中紅色不集中,且部分分布在復雜背景中;改進后的模型較好地改善了這一問題,第三列熱力圖中紅色集中在目標上,背景為淺藍色。所以,引入注意力機制后的模型可以更加精準地定位和識別感興趣的目標,檢測效果更優。

圖7 檢測算法的消融實驗Fig.7 Ablation experiment of detection algorithm

對基于YOLOv5檢測器的DeepSORT模型,采用坐標注意力機制和核相關濾波的模型(YOLOv5+CoorATT+DeepSORT+KCF)進行實驗,結果如表2所示。

表2 3種模型在MOT16數據集上的消融實驗結果Tab.2 Ablation experiment results of three models on MOT16 dataset

由表2可知,相比于原始YOLOv5算法,采用坐標注意力機制后的MOTA達到60.6%,提升了7.1%,并減少了大約200個軌跡碎片。坐標注意力機制能夠提供更可靠的目標檢測,進而提升跟蹤精度。在此基礎上,融合了KCF的本文算法在HOTA上達到53.1%,與原模型相比,提升了近10%,且在MOTA、IDF1、MT、ML上的指標都明顯優于原模型,身份跳轉次數也由原模型的1 051降低至641,軌跡碎片數減少到620。可見,改進的模型在檢測精度和軌跡關聯上的指標明顯優于原模型,證明了本文所提出的改進算法對跟蹤網絡具有很好的優化效果。

為了充分驗證本文改進算法的結果,本文選擇在MOT16、MOT17數據集上與幾種先進的多目標跟蹤算法結果進行對比。表3和表4分別為在MOT16、MOT17數據集上的測試對比結果。

表3 本文算法與其他先進算法在MOT16數據集上的對比結果Tab.3 Comparison results between the algorithm in this paper and other advanced algorithms on MOT16 dataset

表4 本文算法與其他先進算法在MOT17數據集上的對比結果Tab.4 Comparison results between the algorithm in this paper and other advanced algorithms on MOT17 dataset

可以看出,對比其他主流算法,本文算法在接近實時跟蹤的同時具有更好的檢測精度和跟蹤效果。在MOT16數據集中,就檢測精度而言,FairMOT跟蹤算法對比本文算法的MOTA值高于1.6%。但綜合其他指標來看,本文算法比Fair-MOT的IDSW值減少約230,身份跳轉次數的大幅減少會降低目標的誤檢。就目標檢測和數據關聯精度的平均性測量來看,HOTA值提升了0.9%。本文算法以24.0幀/s接近實時跟蹤速率的同時擁有較高的跟蹤精度。

以MOT16數據集中的MOT16-04為例,FPS與GPU占用如圖8所示。在MOT17數據集上,本文算法在領先CenterTrack跟蹤算法7幀/s的情況下,MOTA值提升了4.2%,IDF1提升了5.4%,IDSW值減少了826,再次驗證了本文引入坐標注意力機制和KCF模塊的有效性,更高維跟蹤精度提升8.1%以及正確軌跡跟蹤數的提升證明了本文設計的多級匹配關聯模塊具有簡單、有效的優點。

4.3 模型改進前后的跟蹤效果可視化

圖9展示了原模型和本文改進的模型在MOT16數據集上對行人跟蹤結果的可視化。從MOT16-02中截取出5幀連續幀作為對比。視頻背景較為復雜,有高度參差不齊的樹木,建筑物前擺放有石樁木樁,街邊有圣誕樹等。當路邊出現干擾物體時,易將此檢測為目標進行跟蹤,形成漏檢誤檢,影響檢測精度,如圖9中箭頭所示,將建筑物檢測為目標并在接下來的幀圖片中繼續進行檢測跟蹤,形成大量的誤檢和不正確的跟蹤軌跡,而左側坐在椅子上的行人沒有被檢測跟蹤,遺失了正確的目標軌跡。圖9(c)改進算法能夠有效地改善在復雜環境中背景部分被誤檢為目標以及正確目標的漏檢。一方面檢測分支引入了坐標注意力機制,豐富了特征信息,有了更好的檢測效果;另一方面數據關聯引入KCF算法構建了新的匹配體系,提升了軌跡的跟蹤穩定性。從可視化圖中可知,改進算法有更好的跟蹤精度。

圖9 改進算法在MOT16-02中的跟蹤效果可視化Fig.9 Visualization of tracking effect of improved algorithm in MOT16-02

5 結論

本文針對復雜背景下行人跟蹤易出現的漏檢誤檢,跟蹤效果差的問題,提出了一種改進算法。該算法改進了YOLOv5目標檢測算法,加入了坐標注意力機制來提升檢測精度,在復雜環境下減少了目標的誤檢和漏檢;改進了關聯分支,引入KCF算法構建多級匹配機制,確保正確跟蹤的軌跡個數,進而提升跟蹤的精度。實驗結果表明,本文所提模型明顯優于其他模型,在MOT16、MOT17數據集中,本文模型MOTA達到了66.5%;IDF1達到了64.2%;IDSW達到了641;跟蹤速率達到24 FPS,接近實時跟蹤的跟蹤速率;且有效改善了復雜環境下跟蹤中出現的漏檢誤檢的問題。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 成年片色大黄全免费网站久久| 九色综合伊人久久富二代| 亚洲欧美激情小说另类| 欧美日韩国产精品va| 真人高潮娇喘嗯啊在线观看| 亚洲成人播放| 久夜色精品国产噜噜| 国内精品免费| 98精品全国免费观看视频| 国产日韩欧美中文| 国产成+人+综合+亚洲欧美| 久久综合伊人77777| 亚洲男人天堂网址| 三上悠亚一区二区| 最新国产网站| 国产精品丝袜在线| 青青青国产视频| 久久精品亚洲专区| 久久精品这里只有国产中文精品| 一级毛片不卡片免费观看| 国产极品嫩模在线观看91| 欧美日韩精品综合在线一区| 全部无卡免费的毛片在线看| 91精品啪在线观看国产91九色| 国产自在线拍| 五月天香蕉视频国产亚| 国产一区二区网站| 欧美成人a∨视频免费观看| 无码aaa视频| 午夜在线不卡| 怡红院美国分院一区二区| 国产综合欧美| 91视频青青草| 亚洲人妖在线| 在线欧美a| 欧美日韩另类国产| 亚洲毛片网站| 香蕉eeww99国产精选播放| 2022精品国偷自产免费观看| 欧美一级高清片久久99| 99国产在线视频| 免费在线成人网| 99久久国产综合精品2023| 九九视频免费在线观看| 亚洲免费毛片| 激情综合网址| 欧美午夜精品| 青青草一区| 亚洲另类第一页| 欧美色图久久| 在线免费亚洲无码视频| 国产九九精品视频| 国产精品视频导航| 97超级碰碰碰碰精品| 国产微拍一区| 澳门av无码| 国产综合在线观看视频| 国产后式a一视频| 国产精品浪潮Av| 亚洲an第二区国产精品| 91免费片| 亚洲欧州色色免费AV| 在线观看91香蕉国产免费| 99草精品视频| 一级福利视频| 亚洲精品高清视频| 亚洲日本中文字幕天堂网| 亚洲制服丝袜第一页| 国产情侣一区二区三区| 亚洲欧美一区二区三区麻豆| av一区二区无码在线| 亚洲天堂视频在线观看免费| 亚洲欧美人成电影在线观看| 久久久久人妻精品一区三寸蜜桃| 99精品高清在线播放| 奇米精品一区二区三区在线观看| 亚洲男人天堂网址| 波多野结衣二区| 国产日韩欧美精品区性色| 久久亚洲综合伊人| 国产黑丝视频在线观看| 国产一级毛片yw|