999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進的Transformer加Anchor-free網絡的多目標跟蹤算法

2022-03-25 02:27:36張文利辛宜桃陳開臻趙庭松
測控技術 2022年2期
關鍵詞:特征信息

張文利,辛宜桃,楊 堃,陳開臻,趙庭松

(北京工業大學 信息學部,北京 100124)

近年來,基于深度學習的計算機視覺應用快速發展,多目標跟蹤領域作為重要的研究方向之一,其在視頻監控、智能安防、智慧建筑等領域[1-3]有非常廣泛的應用。多目標跟蹤主要是對場景中各個目標進行定位,隨后基于時序上下文信息實現目標之間的關聯匹配,形成各個目標的跟蹤軌跡。雖然近年來多目標跟蹤領域取得了很大成果,但是實際場景中目標之間的遮擋、背景雜亂問題使得該領域仍然面臨挑戰。

目前有許多研究人員對多目標跟蹤算法進行研究,部分研究人員[4-5]采用錨框的方式定位目標,即從預先設置的多個錨框篩選出置信度最大的錨框,然后回歸定位場景中的各個目標,因此將此類算法統稱為Anchor-based多目標跟蹤算法。

但是,Anchor-based多目標跟蹤算法存在未解決的問題,當場景中目標聚集時,由于設置了多個錨框,導致一個錨框對應多個目標或多個錨框對應一個目標,從而產生錯誤的目標位置,降低了多目標跟蹤算法的準確性。因此,有研究人員[6-7]提出采用Anchor-free多目標跟蹤算法跟蹤場景中的各個目標,即拋棄復雜的錨框設置,通過特征圖直接區分目標和背景,并回歸邊界框以獲取目標的位置。

盡管Anchor-free多目標跟蹤算法降低了目標定位和特征表示的歧義性,可以比較準確地區分密集場景下的各個目標,但實際場景中目標間的相互遮擋仍是多目標跟蹤算法面臨的重大挑戰。目前,有研究人員提出一些改進的多目標跟蹤算法以提高算法在遮擋情況下的準確性。左國才等[8]通過引入注意力加權機制,設計了基于VGG16網絡抗遮擋的多目標跟蹤模型,使模型更加關注對運動目標有用的正樣本信息,解決了多目標跟蹤過程中目標相互遮擋而導致的跟蹤漂移問題;劉金文等[9]通過檢測器對場景中的目標進行定位,并使用CNN(Convolutional Neural Network,卷積神經網絡)估計場景的人群密度圖,用于修正檢測器的定位結果,從而解決遮擋情況下多目標跟蹤算法定位精度差的問題;周志海等[10]采用了區域質量的評估網絡技術,再聯合多幀的檢測結果,用加權的形式恢復被遮擋部分,提高跟蹤結果的準確率。上述算法雖然有效提高了遮擋情況下目標的定位精度,但沒有判斷目標間的遮擋情況與保存被遮擋目標的身份信息,這使得遮擋消失后重新出現的目標的身份信息發生錯誤切換,降低了多目標跟蹤算法的準確性。

目前,有許多研究人員提出了遮擋判斷方法來確定目標的遮擋狀態。依據遮擋判斷方法使用的輸入圖像,可將遮擋判斷方法分為基于RGB圖像的遮擋判斷方法和基于RGB-D圖像的遮擋判斷方法。

① 基于RGB圖像的遮擋判斷方法。An等[11]利用CNN分別提取檢測目標特征與模板目標特征,根據檢測目標與模板目標之間的IoU(Intersection-Over-Union)和檢測目標特征與模板目標特征的相似度得分判斷目標的遮擋狀態。但是基于CNN的方法對于圖像的有效感受野小于理論感受野[12],僅利用了輸入圖像的局部空間特征做遮擋判斷,導致密集場景下遮擋判斷任務的精度較差。就遮擋判斷任務而言,可以依據場景中目標之間的空間位置關系將目標之間的狀態分類為遮擋狀態與未遮擋狀態,Transformer模型作為自然語言處理領域的主流模型,最近有研究人員[13]將其遷移至圖像分類領域并取得了良好效果。Transformer模型通過空間等分將輸入序列切分為多個尺寸相同的子區域,充分利用了輸入圖像的全局空間位置關系,有利于判斷目標之間的遮擋狀態。

② 基于RGB-D圖像的遮擋判斷方法。深度圖像可以較好地反映目標的深度距離信息和邊緣輪廓信息,可以輔助RGB圖像更好地完成遮擋判斷任務。Luiten等[14]通過分割網絡得到目標區域的分割掩碼,并利用分割掩碼內各點的深度值確定掩碼區域的有效性,隨后將掩碼區域映射到三維世界坐標,通過判斷掩碼的三維點和預估的三維邊界框的位置關系判斷目標的遮擋狀態,但是該方法需要三維場景重構,導致網絡結構復雜且需要大量的計算資源。

因此提出了一種基于改進的Transformer加Anchor-free網絡的多目標跟蹤算法TransAnfMOT(Transformer-Anchor-free-MOT),該算法可以有效解決目標遮擋引起的身份信息切換問題,提升多目標跟蹤算法的穩定性和準確性。所提的算法具有以下創新點:

① 針對輸入信息無法被有效利用從而導致遮擋判斷方法精度低的問題,提出RGB-D特征融合方法提高Transformer模型判斷遮擋情況的精度。通過跨層特征融合(Cross-Layer Feature Fusion)方法和注意力機制(Convolutional Block Attention Module,CBAM)對RGB圖像和Depth圖像進行特征融合以獲取高質量的RGB-D特征,之后通過Transformer分類模型判斷目標的遮擋狀態,提高遮擋判斷任務的精度。

② 針對密集場景下目標遮擋導致身份信息變化的問題,設計了基于搜索區域和外觀特征的身份信息恢復策略對遮擋消失后重新出現的目標繼續跟蹤,減少被遮擋目標的軌跡斷連次數,從而提升目標跟蹤軌跡質量。

1 總體框架

在前期研究中,為了解決目標軌跡偏移和中斷問題,提出了AD-SiamMOT-RGB-D[15]多目標跟蹤算法,該算法首先將輸入序列切分為多個視頻子序列,對每個子序列進行軌跡生成和軌跡分析。其中在軌跡生成模塊中,使用YOLOv3目標檢測器對視頻子序列的第1幀中的目標進行定位,之后用非對稱Siamese網絡跟蹤器對視頻序列的剩余幀中的各個目標進行跟蹤,最后在軌跡分析模塊中使用匈牙利匹配算法連接各個視頻子序列的目標軌跡,以此生成多條目標跟蹤軌跡。該算法在特定的時間內使用單目標跟蹤輔助多目標跟蹤,同時通過判斷目標軌跡質量確定目標的跟蹤軌跡,在一定程度上緩解了遮擋情況引起的目標身份信息丟失問題,而單目標跟蹤算法的引入使多目標跟蹤的速度受到影響。筆者以CenterTrack算法[6]為基礎模型,提出了一種基于改進的Transformer加Anchor-free網絡的多目標跟蹤算法TransAnfMOT。

1.1 算法整體結構

所提算法TransAnfMOT的整體結構如圖1所示。整個算法以RGB圖像和Depth圖像作為輸入,首先將RGB圖像輸入至目標檢測模塊,獲取當前幀中各個目標的位置信息;其次關聯匹配模塊通過貪婪匹配對當前幀各個目標的檢測結果以及上一幀圖像中各個目標的跟蹤結果進行關聯,獲得關聯成功的結果和關聯失敗的結果,其中關聯失敗的結果包括未匹配的檢測結果和未匹配的跟蹤結果;之后遮擋恢復模塊對關聯匹配結果分別進行處理,得到當前幀各個目標的跟蹤結果,獲取多條目標跟蹤軌跡。然后利用當前幀各個目標的跟蹤結果篩選出可能發生遮擋情況的相鄰目標,通過RGB-D相鄰目標裁剪模塊裁剪相鄰目標對應的RGB圖像和Depth圖像,并將裁剪后的RGB圖像和Depth圖像輸入至遮擋判斷模塊,判斷目標之間的遮擋狀態,若目標之間處于遮擋狀態,則保存被遮擋目標的跟蹤信息。

圖1 基于改進的Transformer加Anchor-free網絡的多目標跟蹤算法整體結構

1.2 遮擋判斷模塊

由于目標之間的遮擋經常導致被遮擋目標的身份信息頻繁切換,因此需要準確地判斷目標的遮擋狀態并設置良好的恢復策略。根據目標之間的空間位置關系,可以將目標之間的狀態劃分為遮擋狀態與未遮擋狀態,因此對目標之間空間關系的充分利用至關重要。而Transformer模型通過對輸入數據進行空間等分操作,充分發揮了輸入數據中全局空間關系的作用,有利于完成遮擋判斷的分類任務。現有的Transformer模型利用RGB圖像作為輸入數據,雖然可以有效區分外觀特征明顯不同的目標之間的遮擋狀態,但是難以應對場景中目標外觀特征相似、位置距離相近的情況。

為解決上述問題,設計了一種基于跨層融合和注意力機制的遮擋判斷模塊。該模塊通過CFF模塊和CBAM模塊實現RGB圖像特征和Depth圖像特征的有效融合,獲取高質量的RGB-D圖像特征,之后通過Transformer模型判斷目標之間的遮擋狀態。在獲取到當前幀的各個目標跟蹤結果后,通過各個目標位置之間的歐式距離以及IoU篩選出可能發生遮擋情況的相鄰目標,將保留下來的相鄰目標對應的RGB圖像和Depth圖像進行裁剪,作為遮擋判斷模塊的輸入。遮擋判斷模塊的流程如圖2所示,具體步驟如下。

圖2 基于跨層融合和注意力機制的遮擋判斷

(1)以RGB圖像和Depth圖像作為輸入,對二者進行通道合并操作。

(2)設計CFF模塊得到融合后的RGB-D圖像特征。首先通過兩層卷積網絡Conv1、Conv2增強RGB圖像和Depth圖像之間的輸入信息相關,然后對卷積網絡Conv1和Conv2輸出的特征進行通道合并操作,獲取更加豐富的特征表達,其中卷積網絡Conv1、Conv2均由卷積核為7*7、填充為3的卷積層和ReLU激活層組成。

(3)利用CBAM模塊提取RGB-D圖像特征中的目標語義信息和目標空間位置信息,獲取高質量的RGB-D特征。通道注意力和空間注意力的計算公式為

(1)

(2)

(4)將融合后的RGB-D特征進行空間等分操作,充分利用輸入RGB-D特征的全局信息,隨后通過Transformer遮擋判斷模塊對目標之間的遮擋狀態進行判斷,若目標之間發生遮擋,則將深度距離大的目標記為被遮擋目標,并保存其跟蹤信息(包括被遮擋目標位置信息、被遮擋目標外觀特征信息、被遮擋目標身份信息),隨后將跟蹤信息輸出至遮擋恢復模塊;若目標之間未發生遮擋,則不進行任何操作,直接進入遮擋恢復模塊。其中,Transformer遮擋判斷模塊主要包括以下部分。

① 圖像特征預處理。首先通過空間等分操作得到多個大小相同的RGB-D圖像特征塊,之后對每個圖像特征進行線性變換,以降低圖像特征維度。隨后,使用一維的Position Embedding對圖像特征塊的位置信息進行編碼,同時,通過Class Token的處理,可以從Transformer編碼器的輸出獲取圖像特征,進而實現對圖像的分類。其中,Position Embedding的設置與圖像特征塊的數量和維度有關。

② Transformer編碼器處理。Transformer編碼器包括12層編碼塊,每一層編碼塊主要包括多頭自注意力(Multi-Head Attention,MHA)模塊和多層感知器(Multi-Layer Perceptron Neuralnetworks,MHP)模塊。輸入特征在MHA模塊和MHP模塊的計算過程分別為

(3)

(4)

式中:LN代表卷積層歸一化處理。

Transformer編碼器的結構如圖3所示。

圖3 Transformer編碼器的結構

③ 目標類別判斷。該模型根據Transformer編碼器輸出的特征,輸入至分類器中判斷目標間的遮擋狀態。在實際場景中,可以根據目標之間的位置距離關系,將目標間的遮擋狀態分為兩種:目標遮擋狀態、目標未遮擋狀態。

為了直觀展示Transformer的功能與效果,對多頭注意力進行了可視化,可視化結果如圖4所示。

圖4 Transformer多頭注意力可視化結果

由圖4可以看到,Transformer模型對輸入圖像的不同區域分配了不同權重的注意力,紅色黃色區域代表Transformer模型分配的注意力權重較大,藍色紫色區域代表Transformer模型分配的注意力權重較小。其中,與遮擋分類任務相關的目標區域獲得了較大權重的注意力,與遮擋分類任務無關的背景區域獲得了更小權重的注意力,這表明Transformer模型的多頭注意力有效提取了對遮擋分類任務最有幫助的目標區域的特征,進而準確完成目標遮擋狀態的分類任務。

1.3 遮擋恢復模塊

在目標人員運動過程中,經常發生目標間的相互遮擋情況,導致被遮擋目標短暫消失在視野中,其身份信息會被多目標跟蹤算法消除,當消失的目標重新出現后,會被賦予新的身份信息,從而造成目標軌跡斷連。筆者提出基于搜索區域和外觀特征距離的遮擋恢復模塊,對遮擋消失后重新出現的目標繼續跟蹤,提升目標跟蹤軌跡的穩定性和準確性。

遮擋恢復模塊流程如圖5所示,其具體步驟如下。

圖5 基于搜索區域和外觀特征距離的遮擋恢復

① 獲取關聯匹配模塊的結果(包括匹配成功的目標、未匹配的跟蹤目標、未匹配的檢測目標)和遮擋判斷模塊的結果(包括被遮擋目標位置信息、被遮擋目標外觀特征信息、被遮擋目標身份信息)。

② 對于匹配成功的目標,將互相匹配的跟蹤目標的身份信息設置為檢測目標的身份信息,之后將包含身份信息的檢測目標添加至跟蹤結果中。

③ 對于未匹配的跟蹤目標,通過比較未匹配的跟蹤目標身份信息與被遮擋目標的身份信息,若二者身份信息相同,則表明未匹配的跟蹤目標中存在被遮擋的目標,因此設置被遮擋目標標志,包含被遮擋目標搜索區域、被遮擋目標外觀特征信息、被遮擋目標身份信息。將目標消失之前的跟蹤位置作為搜索區域以捕獲重新出現的目標。

④ 對于未匹配的檢測目標,若被遮擋目標標志存在,則計算檢測目標的邊界框的中心點,若被遮擋目標搜索區域內包含檢測目標的中心點,則計算被遮擋目標的外觀特征與未匹配的檢測目標的外觀特征之間的余弦距離,計算公式為

dis=cos(Freid1,Freid2)

(5)

式中:dis為兩個目標的外觀特征Freid1、Freid2間的距離;Freid1為目標1的外觀特征;Freid2為目標2的外觀特征。目標之間外觀特征的余弦距離越大,代表兩個目標是同一目標的可能性越大。若目標的外觀特征之間的余弦距離大于預先設定的閾值,則將被遮擋目標的身份信息賦給未匹配的檢測目標身份信息,保證二者的身份信息相同,恢復對同一目標的持續跟蹤。

2 實驗分析

2.1 實驗細節

2.1.1 硬件設備

提出的改進的多目標跟蹤算法TransAnfMOT是基于PyTorch框架完成的,所用的計算機環境配有GeForce GTX 3090型號GPU、Intel i7 8th型號CPU。

2.1.2 數據集

在3個公共數據集(MICC數據集[16]、EPFL數據集[17]、UM數據集[18])進行實驗,這些數據集包括了不同程度的人員密集、人員遮擋情況,具有較大的挑戰性。

MICC數據集包括Flow、Groups和Queue序列,這些序列均由固定拍攝角度的RGB-D相機拍攝,分別模擬了實驗室場景中人員雙向流動、人員聚集、人員順序排隊的運動情況。

EPFL數據集包括EPFL-LAB序列和EPFL-CORRIDOR(EPFL)序列。其中,EPFL-LAB序列由架設在實驗室場景下的RGB-D相機拍攝;EPFL序列由架設在室內走廊場景下的RGB-D相機拍攝,這些序列包括人員交替前進的運動情況,并且場景中人員數量較多,人員遮擋情況嚴重,具有很大的挑戰性。

UM數據集包括4條視頻序列,它們由架設在實驗室場景下的RGB-D相機拍攝,包括了不同程度的人員遮擋情況。

從MICC數據集選取了3363對RGB-D圖像、從EPFL數據集選取了4190對RGB-D圖像以及從UM數據集選取了2662對RGB-D圖像用于實驗。根據7∶3的比例對10215對RGB-D圖像進行劃分,7148對圖像用于算法訓練,3067對圖像用于算法測試。其中,訓練數據集包括Flow序列、EPFL2-EPFL5序列和UM_Scene1、UM_Scene2序列,測試數據集包括Groups序列、Queue序列、EPFL1序列。在訓練基于CFF和CBAM的遮擋判斷模塊時,將距離較遠的目標設置為未遮擋狀態,將距離較近且目標之間有重疊的目標設置為遮擋狀態。

2.1.3 評價指標

① 為驗證所提遮擋判斷模塊的有效性,使用分類精度(Accuracy)評估模塊的性能。該指標是指正確預測的目標數目與真實目標數目之間的比值,其數值越大,代表遮擋判斷模塊的判斷精度越高,計算公式為

(6)

式中:TP為正確預測的正例;TN為正確預測的負例;FP為錯誤預測的正例;FN為錯誤預測的負例。

② 為驗證所提遮擋恢復模塊和所提算法TransAnfMOT的有效性,使用了MOT[19]挑戰賽提出的評價指標作為評估標準。在多目標跟蹤算法的評估標準中,主要關注的是MOTA指標和MOTP指標。其中,MOTA指標主要關注跟蹤器的出錯次數,跟蹤器發生錯誤的次數越少,MOTA指標越高,代表跟蹤器性能越好。其計算公式為

(7)

式中:FN為跟蹤器未檢測到目標的次數;FP為跟蹤器錯誤預測目標的次數;IDS為目標身份信息切換的次數;GT為真實目標的數量。

MOTP指標主要關注目標位置邊界框與真值邊界框之間的距離,該距離越小,MOTP指標越高,代表跟蹤器定位越準確。其計算公式為

(8)

式中:dt,i為目標的預測框和真值框之間的平均度量距離(這里指IoU距離);ct為當前幀匹配成功的數目。

另外,評估標準中所用的FM指標代表跟蹤過程中一條目標軌跡斷連的次數,該指標越低,代表目標跟蹤軌跡越穩定。

2.2 實驗結果與討論

2.2.1 消融實驗

(1)遮擋判斷模塊有效性。

進行了消融實驗,以驗證所提遮擋判斷模塊中各個組件(包括RGB圖像、Depth圖像、CFF和CBAM)對遮擋判斷精度的影響。使用Transformer模型作為基礎的遮擋判斷模型,通過采取不同的組件對輸入圖像進行處理以提升遮擋判斷模塊的精度。在Groups序列、Queue序列、EPFL1序列上進行測試,并將3個序列的遮擋判斷精度均值作為最終評價指標,不同組件下遮擋判斷模塊的精度如表1所示。

表1 不同組件下的遮擋判斷精度

如表1所示,通過引入Depth圖像,遮擋判斷模塊的精度提升了8.20%,表明RGB圖像和Depth圖像可以實現多模態信息互補;通過引入CFF,遮擋判斷模塊的精度提升了8.25%,表明CFF通過融合不同卷積層的特征,獲取了豐富的特征信息;最后,通過引入CBAM,遮擋判斷模塊的精度提升了1.73%,表明CBAM關注對遮擋判斷任務最有幫助的特征,獲得了更具判別力的特征表達。

綜上所述,所提遮擋判斷模塊中各個組件(包括Depth圖像、CFF和CBAM)均有利于提升輸入信息的質量,進而提高了遮擋判斷模塊判斷目標之間遮擋狀態的精度。

(2)遮擋恢復模塊有效性。

為驗證提出的遮擋恢復模塊有效性,采用CenterTrack多目標跟蹤算法和所提出的TransAnfMOT多目標跟蹤算法分別在Groups序列、Queue序列、EPFL1序列上進行測試,測試結果如表2所示。

由表2可以看出,所提出的TransAnfMOT的MOTA指標在Groups序列、Queue序列、EPFL1序列上均優于原始CenterTrack算法。在遮擋情況較多的Groups序列、Queue序列上,與原始CenterTrack算法相比,所提出的TransAnfMOT算法的MOTA指標分別提升了11.47%、4.86%,需要注意的是,在人員數量較多的EPFL1序列上,MOTA指標從75.4提升至96.5,獲得了27.98%的MOTA指標增長。其中在Groups序列、Queue序列和EPFL1序列上,FN指標均有不同程度下降,FP指標除在Groups序列有一定程度上升以外,在其他兩個序列都呈下降趨勢;同時在3個序列上,衡量目標身份信息變化次數的IDS指標、目標跟蹤軌跡的斷連次數的FM指標也實現了不同程度的下降。上述結果表明所提出的遮擋恢復模塊可以減少目標身份信息切換次數,有效解決了目標軌跡斷連錯誤,提升了多目標跟蹤算法的穩定性和準確性。

表2 不同數據集下添加遮擋恢復模塊前后的多目標跟蹤結果

2.2.2 對比實驗

為證明所提多目標跟蹤算法TransAnfMOT的有效性,選擇了Anchor-based的經典多目標跟蹤算法Sort[4]、Deepsort[5],Anchor-free的經典多目標跟蹤算法FairMOT[7]、基準算法CenterTrack[6]以及近年來解決遮擋跟蹤效果較好的多目標跟蹤算法AD-SiamMOT-RGB[15]、

采用AD-SiamMOT-RGB-D[15]、SST[20]、KV-IOU[21]。分別在Groups序列、Queue 序列和EPFL1序列上進行測試,測試結果如表3所示。

表3 不同測試數據集下各個多目標跟蹤算法的跟蹤結果

如表3所示,提出的算法TransAnfMOT在Groups、Queue、EPFL1這3個序列上的MOTA指標分別達到了55.4、86.3和96.5,均取得了比較有競爭力的結果。針對MOT挑戰賽中主要關注的MOTA指標,對各個算法從高到低排序,各個算法的排序結果由表3中的Rank指標展示。

具體地,在Groups序列上,與MOTA指標排名第二的FairMOT相比,所提算法TransAnfMOT的MOTA指標提升了7.78%,其中FN指標和FM指標的下降說明TransAnfMOT可以有效減少漏檢次數和軌跡斷連次數,有利于提高目標跟蹤軌跡的穩定性;在Queue序列上,與MOTA指標排名第二的FairMOT相比,所提算法TransAnfMOT的MOTA指標獲得了3.11%的增長,同時FN指標和FM指標都有所下降,這證明了TransAnfMOT對于提高目標跟蹤軌跡質量的有效性。需要注意的是,在人員數目較多的EPFL1序列上,與MOTA指標排名第二的FairMOT算法相比,所提算法TransAnfMOT的MOTA指標大幅提升,從77.9提升至96.5,實現了23.88%的指標增長。其中衡量跟蹤器未檢測到目標次數的FN指標和衡量跟蹤器錯誤預測目標次數的FP指標均明顯下降。

上述結果表明,所提的算法TransAnfMOT在3個數據集上均取得了比較有競爭力的結果,可以有效減少目標漏檢和目標軌跡斷連的次數,有利于提升多目標跟蹤算法的跟蹤精度和穩定性。

為了直觀地展示所提TransAnfMOT的跟蹤效果,圖6分別展示了TransAnfMOT在Groups、Queue、EPFL1這3個序列下的可視化跟蹤結果。

圖6 不同序列下的可視化跟蹤結果

另外,就多目標跟蹤算法的跟蹤速度而言,所提算法的跟蹤速度有所下降。未來的改進方向是對Transformer模型進行輕量化操作,通過刪減網絡結構中冗余的模塊,均衡Transformer模型的精度和速度。對于外觀特征距離恢復模塊,將設計精簡有效的外觀特征提取網絡,保證外觀特征質量的同時降低外觀特征維度以提升外觀特征恢復模塊的速度。通過上述操作將進一步提高多目標跟蹤算法的速度,以均衡多目標跟蹤算法的精度和速度。

3 結束語

提出了一種基于改進的Transformer加Anchor-free網絡的多目標跟蹤算法TransAnfMOT。該算法有2個主要的特點:首先通過CFF和CBAM融合RGB圖像和Depth圖像,可以提升融合的RGB-D圖像特征的質量,從而提高Transformer模型判斷目標間遮擋狀態的精度;另外,通過分析目標的運動情況,設置了被遮擋目標的搜索區域,并通過外觀特征距離方法對遮擋消失后重新出現的目標繼續跟蹤,減少了被遮擋目標身份信息切換的次數。實驗結果表明,所提算法在Groups序列、Queue序列、EPFL1序列上均取得了比較有競爭力的結果,這說明該算法可以解決目標身份信息切換的問題并提高目標跟蹤軌跡的穩定性和準確性。未來,將設計輕量化的Transformer模型結構和精簡有效的外觀特征提取網絡以均衡所提多目標跟蹤算法的精度和速度。

猜你喜歡
特征信息
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 毛片基地美国正在播放亚洲 | 久久香蕉国产线看观| 精品1区2区3区| 黄色国产在线| 2020亚洲精品无码| a级毛片一区二区免费视频| 亚洲二三区| 自拍亚洲欧美精品| 亚洲中文字幕23页在线| 免费毛片在线| 久久综合干| 久久综合五月| 国内精品久久久久鸭| 国产白浆在线观看| 亚洲人成网站观看在线观看| 成人午夜亚洲影视在线观看| 成人在线亚洲| 国产高清在线观看91精品| 欧美特黄一免在线观看| 爱爱影院18禁免费| 国产精品无码作爱| 亚洲天堂成人| 久久无码免费束人妻| 在线欧美国产| 亚洲日韩国产精品综合在线观看| 97免费在线观看视频| 538国产视频| 国产主播福利在线观看| 国产在线一区二区视频| 免费aa毛片| 看国产一级毛片| 欧美视频在线第一页| 99久久精品无码专区免费| 2021天堂在线亚洲精品专区| 国产亚洲精品yxsp| 国产AV毛片| 日韩精品一区二区深田咏美| 欧美曰批视频免费播放免费| 狠狠色综合网| 免费视频在线2021入口| 欧美一区二区三区不卡免费| 国产成人盗摄精品| 香蕉伊思人视频| 中文字幕一区二区视频| 久草视频中文| 久久国产精品麻豆系列| 国产剧情一区二区| 不卡视频国产| 国产精品视频a| 久久99国产综合精品女同| 2022国产91精品久久久久久| 国产成人精品一区二区免费看京| 亚洲国产清纯| 国产在线拍偷自揄拍精品| 国产视频自拍一区| 国产精品成人不卡在线观看| 精品自窥自偷在线看| 国产在线一区视频| 精品久久久久久中文字幕女| 久久国产高清视频| 国产成人AV综合久久| 国产精女同一区二区三区久| 日韩无码视频播放| 在线观看视频一区二区| 免费不卡在线观看av| 久久这里只精品热免费99| 亚洲第一香蕉视频| 日本成人一区| 久久亚洲国产视频| 本亚洲精品网站| 精品欧美一区二区三区在线| 亚洲第一成年网| 亚洲无码37.| 在线欧美a| 亚洲精品麻豆| 欧美日韩中文国产va另类| 国产在线自乱拍播放| 中文字幕在线观看日本| 亚洲欧美自拍中文| 四虎成人在线视频| 鲁鲁鲁爽爽爽在线视频观看| 亚洲自拍另类|