










摘要:為解決群養生豬多目標跟蹤中的挑戰,如豬只外觀相似、互相遮擋和動態交互等導致的身份識別錯誤、跟蹤不連續問題,提出一種改進型FairMOT模型。該模型在主干網絡中嵌入EMA注意力機制,優化下采樣階段的特征圖,增強豬只位置特征的表達能力。同時,引入區分特征學習網絡,通過加強不同豬只之間外觀特征的細粒度差異,提高個體間的區分度。此外,模型采用特征匹配、IoU匹配和遮擋恢復匹配的三階段策略,以增強跟蹤的準確性。測試結果顯示,改進FairMOT在高階跟蹤精度HOTA、多目標跟蹤準確率MOTA、多目標定位精度MOTP、識別F1得分等關鍵指標上表現卓越,在自制數據集的平均得分分別達到85.87%、96.53%、96.07%和94.82%,明顯優于原始FairMOT和其他五種跟蹤器。且在不同光照和遮擋條件下,其展現出高準確性和穩定性,證明在復雜環境中的有效性和實用性。
關鍵詞:群養生豬;動物檢測;豬只多目標跟蹤;行為識別;遮擋匹配
中圖分類號:S828; TP391.4" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2024) 08?0049?11
Real?time intelligent tracking of group?raised pigs based on improved FairMOT
Zhou Yifan1, 2, Liu Dongyang3, Zhou Yuping4
(1. School of Information Engineering, Zhumadian Vocational and Technical College, Zhumadian, 463000, China;"2. Henan Rural Smart Agriculture Engineering Research Center, Zhumadian Vocational and Technical College, Zhumadian, 463000, China; 3. College of Information and Electrical Engineering, China Agricultural University, Beijing, 100083, China; 4. College of Animal Science and Technology, Shandong Agricultural University, Tai'an, 271018, China)
Abstract: In this study, an improved FairMOT model was proposed to tackle the challenges encountered in multi?object tracking of group?raised pigs, such as issues related to similar appearances, mutual occlusions, and dynamic interactions, which led to errors in identity recognition, missed detections and 1 detections. An EMA attention mechanism was embedded within the backbone network to optimize the feature maps obtained during the down?sampling stage and to enhance the representation of pig position features. Furthermore, a discrimination feature learning network was introduced, aiming to strengthen the fine?grained differences in appearance features among different pigs, thereby improving individual discrimination. Additionally, the model adopted a three?phase strategy for feature matching, IoU matching, and occlusion recovery matching, which enhanced the tracking accuracy. The test results in self?made datasets demonstrated that the improved FairMOT model excelled in key metrics such as HOTA, MOTA, MOTP, and IDF1, with average scores reaching 85.87%、96.53%、96.07% and 94.82% respectively. These scores significantly outperformed those of the original FairMOT model and other five trackers. The model also exhibited high accuracy and stability under various lighting and occlusion conditions, proving its effectiveness and practicality in complex environments.
Keywords: group?raised pigs; animal detection; pig multi?object tracking; behavior recognition; occlusion matching
0 引言
豬只作為一種關鍵的畜牧動物,實時監測其行為模式對于疾病預警、生長發育評估以及福利狀況的判斷具有重要意義[1, 2]。傳統的豬只行為觀測主要依賴人工方法,這種方式不僅耗時費力,而且容易受到觀察者主觀影響。鑒于此,開發一種高效且準確的豬只實時多目標跟蹤方法對提高畜牧業管理的效率和確保動物福利具有重要價值。
目前,牲畜跟蹤技術主要分為接觸式和非接觸式兩種。接觸式跟蹤通過在動物身上安裝跟蹤設備來實現[3?5],該類方法存在成本高、易損壞和可能對動物造成壓力等不足。相比之下,結合計算機視覺和深度學習的多目標跟蹤(Multi?Object Tracking,MOT)則提供了一種非接觸的替代方案,并有效提高監測效率和準確性[6],當前MOT技術主要分為兩種類型:基于檢測的跟蹤(Tracking by Detection, TBD)和聯合檢測與嵌入(Joint Detection and Embedding, JDE)。
TBD類方法[7?9]先利用高效的目標檢測算法識別感興趣的對象,再通過特征關聯跨幀跟蹤目標,最終結合卡爾曼濾波和匈牙利算法完成跟蹤。例如,張宏鳴等[10]通過整合改進的YOLOv3與DeepSORT,實現對肉牛的多目標跟蹤。張麗雯等[2]結合YOLOX和Transformer技術,采用綜合特征匹配、IoU匹配及遮擋恢復策略,實現對群養生豬的準確跟蹤。張偉等[11]提出了基于CenterNet的目標檢測方法,并結合優化后的DeepSORT算法對斷奶仔豬進行準確跟蹤。TBD類方法能很好的保證跟蹤的準確性,但在提高跟蹤準確度的同時,但其模塊化的處理方式增加了模型計算負擔,降低了處理速度,制約了其在實時監控領域的應用。
為克服TBD類算法在實時牲畜行為監測方面的局限性,JDE類算法[12?14]將目標檢測和外觀嵌入集成于單一的深度學習網絡,從而顯著提高運行速度。例如,涂淑琴等[15]開發一種JDE模型,成功實現了群養生豬在多變環境下的精準檢測與實時跟蹤;Guo等[16]基于JDE框架,提出了一種加權關聯算法以優化目標再識別,顯著提高了在農場環境下對群養生豬個體的跟蹤性能。Zhang等[17]提出了一種具有代表性的多目標跟蹤模型FairMOT,該模型在檢測精度上相比其他同類的JDE模型表現更為出色。這一優勢主要得益于FairMOT采用的無錨框的CenterNet模型作為其核心架構,不僅提高了模型的檢測精度,也使得跟蹤速度和精度相比TBD類模型有了顯著提升。因而,以該模型為基礎的改進方法被用于行人跟蹤[18, 19]、蠶蟲跟蹤[20]、車輛跟蹤[21]、目標檢測[22, 23],并展現出優越的實時跟蹤和檢測性能。
鑒于以上背景,本文提出一種基于改進FairMOT模型的群養生豬跟蹤模型,實現對豬只的準確跟蹤,尤其是在復雜環境中,如面存在遮擋和不同尺寸豬豬只的準確跟蹤。通過試驗比較和實時監控平臺上的嵌入式測試,驗證本文所提模型的性能。
1 數據采集與標注
1.1 試驗數據采集
本文使用的數據集包括以下兩個數據集。
1) PBVD公開數據集[24]。該數據集包含從2019年11月5日至12月11日在長×寬為5.8 m×1.9 m豬圈內收集的視頻。視頻由英特爾RealSense D435i相機于250 cm高處拍攝,分辨率1 280像素×720像素,6 fps,每段5 min。由于采集地點在夜間缺乏照明,故數據僅在日間時間段(07:00至19:00)收集。公開數據集中的部分樣本示例如圖1所示。
2) 自建數據集。該數據集由本研究團隊于2020年11月2日在遼寧省沈陽市遼中區的豬場進行全天采集,目標為一群處于育肥階段的豬只,所在群養欄尺寸(長×寬)為14.4 m×5.6 m,含有13~17只豬。視頻由海康威視DS-E11型攝像頭于距豬欄邊緣50 cm,高350 cm的位置拍攝,分辨率為1 920像素×1 080像素,10 fps,每段5 min。自建數據集中的部分樣本示例如圖2所示。
1.2 豬只跟蹤數據集構建
1) 劃分訓練集和測試集。本文從原始PBVD數據集中挑選12個視頻片段,共計7 200幀圖像,覆蓋不同時間和飼養環境的代表性場景。隨機選擇其中8個視頻片段用于模型訓練,剩余4個用于模型測試。同時,從自建數據集中挑選9個視頻片段,共3 600幀圖像,涵蓋不同豬只密度和光照條件的多樣場景。隨機選擇其中6視頻片段用于模型訓練,其余3個用于模型測試。詳細的視頻信息及樣本劃分情況如表1所示。
2) 圖片標注。本研究使用DarkLabel標注軟件,對PBVD公開數據集和自建數據集中的每幀圖像進行精細標注,以支持模型的訓練與測試。標注時,用矩形框圈選圖像中每個豬的位置,邊框位置坐標以(xmin, ymin, xmax, ymax)的格式表示。每個豬只還被賦予特定的類別標簽和唯一的ID編號,以便跟蹤同一實體在序列中的運動,圖片標注實例如圖3所示。
2 群養生豬跟蹤方法
2.1 FairMOT模型原理
FairMOT包括主干網絡、檢測分支和Re-ID分支。其中主干網為DLA34,用于特征提取并整合輸入圖像的多層特征[17]。檢測分支接收主干網絡的輸出圖像,并通過應用3×3和1×1的卷積操作對這些特征進行進一步處理,然后估計出目標的中心位置、邊界框尺寸和中心偏移量。該過程的損失函數
[LDet=λcLc+λsLs+λoLo] (1)
式中: Lc——中心位置損失;
Ls——邊界框尺寸損失;
Lo——中心偏移量損失;
λc——中心位置損失平衡系數;
λs——邊界盒尺寸損失平衡系數;
λo——中心偏移量損失平衡系數。
與現有大多數研究一致[10],將λc、λs和λo分別設置為0.01、1和0.1。
Re-ID分支同樣接收主干網絡提取的深層圖像特征,其核心目標是提取能夠明確區分不同目標的特征,確保不同目標間的特征相似度遠低于同一目標在不同時間幀中的相似度。該分支通過應用具有128個核的卷積層于深層特征,以提取每個位置的Re-ID特征。該過程的損失函數
[Lid=-i=1Nk=1KLi(k)log[p(k)]] (2)
式中: N——樣本總數;
K——類別總數;
Li(k)——示性函數,當樣本i屬于類別k時為1,否則為0;
p(k)——模型預測樣本屬于類別k的概率。
目標檢測分支和Re-ID分支的損失函數共同構成了FairMOT模型的總損失,這種設計使模型在執行多目標跟蹤任務時,能夠同時關注目標的檢測精度和身份識別的準確性。
2.2 改進FairMOT群養生豬跟蹤算法
2.2.1 FairMOT模型改進思路
目前,基于FairMOT框架的改進方法被用于目標檢測以及多目標跟蹤[18?23]。其中席一帆等[18]指出FairMOT框架的主干網絡產生的高維信息缺乏維度之間的信息交互問題,采用三重注意力機制,可以提高對目標中心點的定位能力和特征提取能力。張紅穎等[19]的研究結果也證實了加入空間注意力模塊可以有效提升模型的準確性。此外,孫衛紅等[20]指出Re-ID檢測分支,通過顏色、紋理等區分同一類目標的不同實例。因而,對高度相似度、重疊的目標識別難度增大。
受文獻[18?19]的啟發,引入EMA注意力機制,構建EMA-DLA-34網絡,使網絡更加專注于感興趣區域,提升檢測分支的準確性,具體如2.2.1節。受文獻[20]啟示,在Re-ID分支中嵌入鑒別特征學習網絡(Discriminative Feature Learning Network,DFLN)。通過雙分支結構學習生豬個體的局部和全局特征,提高對遮擋目標識別的準確性,具體如2.2.2節。
檢測分支提取的包含位置信息的目標特征和經過改進的Re-ID分支處理的特征,最終共同輸入到數據關聯網絡。夏雪等[22]指出,數據關聯是多目標跟蹤的關鍵環節,有效的關聯策略可以顯著提升跟蹤器的性。現有研究的匹配策略多為外觀特征匹配和IoU(交并比)匹配[18, 22]。張麗雯等[2]在以YOLOX為基礎的跟蹤的關聯階段提出了遮擋回復匹配策略,試驗證實了該匹配策略的有效性。與張麗雯等[2]的研究思路類似,本文在改進FairMOT模型的關聯階段實施觀特征匹配、IoU(交并比)匹配和遮擋恢復匹配的三階段匹配策略進行目標關聯,減輕目標丟失和ID切換錯誤對跟蹤精度的影響,具體如2.2.3節。
基于改進FairMOT群養生豬跟蹤模型如圖4所示。相對現有多目標跟蹤算法的區別是以FairMOT模型為基礎框架,并在模型主干網絡中引入了EMA注意力機制,在Re-ID分支加入了鑒別特征學習網絡,并在關聯階段采用特征匹配、IoU匹配和遮擋恢復匹配的三階段策略。
2.2.2 構建EMA-DLA-34網絡
在骨干網絡的第2層至第5層中嵌入EMA注意力機制模塊,構建EMA-DLA-34網絡。
EMA注意力機制是一種高效的多尺度注意力機制,不僅采用跨空間學習方法,還設計一個多尺度并行網絡來構建短和長的依賴關系[25]。這種機制通過交叉維度的互動作用,保持每個通道上的信息完整性,并將通道維度分組為多個子特征,使得空間語義特征在每個特征圖中均勻分布。此外,EMA的特征分組和多尺度結構有效地降低檢測任務所需的參數量和計算開銷,其結構詳見圖5。
對于輸入的特征圖X∈RC×H×W,EMA將通道維度劃分為G個子特征組X=[X0,Xi,...,XG-1],其中Xi∈RC×H×W,使得G遠小于總通道數C。這樣,學習到的注意力權重可以用來增強所有注意力中的子特征表示。EMA通過三條路徑來提取注意力權重,前兩條路徑中使用1×1卷積,而第三條路徑中使用3×3卷積。在1×1卷積的分支中,添加全局平均池化操作,以在通道的兩個方向上進行編碼;而在3×3卷積分支中,則省略歸一化和平均池化操作,用于更有效地提取多尺度特征表示。
EMA還提供一種跨空間信息聚合的方法,該方法可以顯著擴展特征空間,有效地提取三個路徑間的依賴關系,并將空間結構信息保存在信道中,同時還降低計算開銷。具體來說,EMA引入兩個張量,分別為1×1和3×3卷積分支的輸出。然后,使用2D全局平均池化對1×1分支輸出的全局空間信息進行編碼,同時對最小分支的輸出的信道特征轉換為相應的維度形狀。這種池化操作的具體細節為
[Zc=1H×WjHiWxc(i,j)] (3)
式中: H——特征圖的高;
W——特征圖的寬;
xc(i, j)——第c個通道上,位置(i, j)的特征元素值。
EMA注意力機制在2D全局平均池化的輸出處采用非線性SoftMax歸一化函數來適應線性變換。這一過程最終將三條路徑的輸出特征計算為兩個空間注意力權重值的聚合,通過Sigmoid激活函數強調所有像素的上下文關系,確保最終輸出的特征圖X'∈RC×H×W與輸入特征圖在維度大小上保持一致。
2.2.3 改進Re-ID分支
Re-ID分支通常利用外觀特征來計算視覺相似度[26],但豬只屬于細粒度物體,其個體間的差異微妙,這導致其識別難度較大。為此,本文在Re-ID分支引入鑒別特征學習網絡(Discriminative Feature Learning Network, DFLN)。DFLN的核心目標是定位豬只個體的區分性局部區域,并通過增強不同豬只個體之間外觀特征的細粒度差異,提高個體間區分度。這種方法不僅能夠更準確地識別和跟蹤個體豬只,而且有助提升整體的跟蹤效率和準確性,DFLN的架構如圖6所示。
DFLN網絡使用ResNet50主干網絡和兩個分支,這兩個分支分別專注于提取局部特征和全局特征。具體來說,給定一個大小為3×128×128的輸入圖像,網絡將ResNet50的全局平均池化輸出作為全局特征的來源。此外,在ResNet50的第3個殘差塊之后,DFLN使用1×1卷積濾波器對中間特征圖進行處理,隨后通過全局最大池化技術選取那些具有細微鑒別特征的高響應局部特征塊。全局特征和局部特征均被輸入到一個多層感知器中,隨后應用識別損失,即式(2)的交叉熵損失來增強這兩個分支的識別能力。
通過以上方式,模型能夠針對每個豬只個體生成一個具體的識別概率。在優化局部-全局集成識別損失(Lid)的過程中,模型可以隱式地學習到區分性的外觀特征,這對于提高豬只個體的識別準確率至關重要。值得一提的是,在推理階段,每個豬只個體的鑒別特征是通過元素級乘法融合局部特征和全局特征來獲取的。這種融合方法不僅增強模型對豬只個體的區分能力,還提高模型在實際應用中的效率和準確性。
2.2.4 多級數據關聯
在多目標跟蹤領域,有效的在線關聯策略對于準確解釋軌跡至關重要。本文所提改進FairMOT群養生豬跟蹤模型,利用預測的目標位置和外觀嵌入特征來實現這一目標。該模型的核心是一個多級數據關聯流程,通過精細的匹配步驟,將檢測到的對象與其對應軌跡關聯起來,多級數據關聯具體流程如圖7所示。
首先,模型通過卡爾曼濾波技術,基于先前幀的軌跡序列來預測當前幀的軌跡。關聯過程中考慮目標的視覺特征、空間位置和遮擋情況,實施外觀特征匹配、IoU匹配和遮擋恢復匹配的三階段匹配策略,三個階段的匹配流程旨在共同保證跟蹤過程的連續性和準確性。
第一階段外觀特征匹配:利用特征提取網絡,分析預測軌跡框和檢測框的外觀特征,通過計算它們之間的余弦距離來估算相似度,從而確定軌跡與檢測結果之間的匹配。
第二階段IoU匹配:對那些在第一輪未匹配或狀態不確定的軌跡,該階段通過計算檢測框之間的交并比(IoU)來確定相似度,進一步確認軌跡與檢測結果之間的匹配。
第三階段遮擋恢復匹配:針對最后的未匹配軌跡和新的未匹配檢測框,再次使用IoU作為匹配標準,以確定軌跡與檢測結果之間的最終匹配。
所有匹配步驟均采用匈牙利算法,以最優化相似度匹配。當軌跡因檢測丟失或非線性運動而中斷時,第二次匹配可能會失效。在這種情況下,第三次匹配的作用顯得尤為重要,它能夠在合理的時間間隔內處理對象的漏檢或遮擋情況。此外,模型還包括一項機制,用于處理長時間未匹配的軌跡。如果軌跡在三次匹配后仍未匹配,且自上次更新以來的間隔幀數小于30幀,則保留該軌跡;否則,將其從軌跡序列中刪除。最終,該模型輸出當前幀的軌跡結果,包括成功匹配且處于激活狀態的軌跡的邊界框和標識。
3 群養生豬多目標跟蹤試驗
3.1 試驗環境
本文的試驗工作在裝備NVIDIA GeForce RTX 3090 GPU的Ubuntu操作系統上完成。試驗語言環境為Python 3.8.13和PyTorch 1.10.1。
在模型的訓練階段,輸入圖片的尺寸被設定為512像素×512像素,批處理大小定為8,設置0.001的初始學習率和0.9的動量。對于PBVD數據集,模型經歷30個Epoch的訓練周期,而對自建數據集則進行50個Epoch的訓練,模型的優化均采用隨機梯度下降法(SGD)。本文模型的默認檢測分數閾值為0.4,對檢測置信度超過閾值的檢測框進行多級數據關聯。在特征匹配階段,若檢測框和軌跡框之間的特征相似度小于0.5,則放棄匹配。在第二次與第三次匹配階段,若IoU小于0.6,則不予匹配。為了評估模型的性能,選取訓練過程中精度最高的模型參數進行測試。
3.2 評價指標
本文選擇高階跟蹤精度(HOTA)、多目標跟蹤準確率(MOTA)、多目標定位精度(MOTP)和識別F1得分(IDF1)作為豬只多目標跟蹤的評價指標。
HOTA(Higher Order Tracking Accuracy)是一個先進的多目標跟蹤性能指標,旨在更全面和均衡地評估跟蹤器的性能,計算如式(4)所示。
[HOTA=DetA?AssA=c∈TPA(c)TP+FN+FP] (4)
[A(c)=TPA(c)TPA(c)+FPA(c)+FNA(c)] (5)
式中: DetA——檢測精度評分;
AssA——關聯精度評分;
TP——正確預測為陽性的樣本數量;
FN——錯誤預測為陰性的樣本數量;
FP——錯誤預測為陽性的樣本數量;
A(c)——關聯精度;
TPA(c)——正確關聯的準確性;
FPA(c)——無關聯或錯誤關聯的預測軌跡數量;
FNA(c)——無關聯或關聯錯誤的預測軌跡數量。
MOTA(Multiple Object Tracking Accuracy)是一種評估多目標跟蹤性能的關鍵指標,主要用于測量跟蹤器在檢測目標和維持跟蹤連續性方面的能力,計算如式(6)所示。
[MOTA=1-t(FP+FN+IDS)tgt] (6)
式中: IDS——第t幀中跟蹤目標標簽ID發生切換的次數;
gt——第t幀觀測到的目標數量。
MOTP(Multiple Object Tracking Precision)測量探測器的定位精度,計算如式(7)所示。
[MOTP=t,idi,ttct×100%] (7)
式中: di,t——第t幀當前檢測目i標的給定位置與成對假設位置之間的距離;
ct——t幀中目標與假設位置之間的匹配數。
IDF1測量跟蹤器的穩定性,值越高,表明算法可以在更長的時間內準確地跟蹤目標,計算如式(8)所示。
[IDF1=2IDTP2IDTP+IDFP+IDFN] (8)
式中: IDTP——ID不變時,正確跟蹤的目標數量;
IDFP——ID不變時,不正確跟蹤的目標數量;IDFN——ID不變時,跟蹤丟失的目標數量。
此外,本文還采用其他4個指標對模型的性能進行評估,包括誤檢測數(FP)、漏檢數(FN)、身份開關數(IDS)和檢測速度(FPS)。本文所用的八個評價指標中,HOTA、MOTA、MOTP、FP、FN用于衡量跟蹤目標位置的準確性。IDF1用于反映身份標簽的準確性和一致性,IDS可以衡量跟蹤過程身份保持的穩定性。FPS衡量系統處理速度,反映效率。
3.3 試驗結果與分析
3.3.1 改進FairMOT和其他MOT方法對比
本文所提的改進FairMOT從特征提取、重識別和關聯等方面進行了優化升級。為驗證改進FairMOT跟蹤模型的優越性,分別將其與原始FairMOT跟蹤器[19]以及JDE[27]、ByteTrack[28]、DeepSORT[10]、StrongSORT[29]、TransTrack[30]這五種近期主流的跟蹤模型比較。
1) 公開數據集上的跟蹤測試結果分析。(1)多種跟蹤模型在公開數據集上的跟蹤測試結果如表2所示。(2)跟蹤的準確性分析。改進FairMOT模型在高階跟蹤精度(HOTA)、多目標跟蹤準確率(MOTA)和多目標定位精度(MOTP)這三個關鍵指標上,其性能均優于六種對比跟蹤模型。其中,改進FairMOT在多目標定位精度(MOTP)方面的優勢尤為顯著:與JDE模型相比,提高了4.17%;與ByteTrack模型相比,提高了2.94%;與DeepSORT模型相比,提高了14.07%;與StrongSORT模型相比,提高了10.08%;與TransTrack模型相比,提高了3.78%;與原始FairMOT模型相比,提高了4.58%。這是由于本文在主干網絡中引入的注意力機制和改進Re-ID分支,使得模型的特征提取與區分能力增強,得以準確定位目標。加之,三階段的匹配策略也提高了目標追蹤的連續性和準確性,這直接反映在HOTA、MOTA和MOTP的提升上。此外,改進FairMOT模型的誤檢數(FP)、漏檢數(FN)分別為327只和329只,表現的不如TransTrack的299只和293只,這可能是因為TransTrack采用的懲罰函數策略有助于減少誤檢,但可能會以犧牲一定的追蹤連續性和識別率為代價[30]。總體而言,改進FairMOT在準確性方面的取得顯著提升。(3)跟蹤的穩定性和連續性分析。改進FairMOT模型的身份保持的F1分數(IDF1)和身份切換數(IDS)分別為95.34%和68次。相較JDE模型提高了1.79%和90次;相較ByteTrack模型提高了7.95%和107次;比DeepSORT模型提高了5.12%;比StrongSORT模型提高了2.50%和44次;比TransTrack模型提高了13.71%和24次;比原始FairMOT模型提高了9.93%和64次。由以上結果可知,改進FairMOT在維持跟蹤對象身份方面更為穩定,這得益于三階段的匹配策略,即特征匹配、IoU匹配和遮擋恢復匹配策略的共同作用,極大地提高了跟蹤的準確性和穩定性。(4)模型的效率分析。FPS反映了模型的處理效率,其數值越大表明模型處理能力越強。由表2可知,ByteTrack模型FPS為26.30 幀/s,遠超于其他模型。本文所提的改進FairMOT模型FPS為18.20 幀/s,模型的處理效率低于ByteTrack模型和FairMOT模型。這是優于改進FairMOT模型融入了注意機制、鑒別特征學習網絡以及采用三階段的匹配策略,模型的計算量增,處理效率降低。然而,這種設計上的權衡是為了提升跟蹤的準確性和穩定性,特別是在復雜場景下的表現。盡管處理速度有所下降,但總體比較而言,改進FairMOT模型仍保持了相對較高的效率。
2) 自建數據集上的跟蹤測試結果分析。表3為多種跟蹤模型在自建數據集上的跟蹤測試結果。
由表3可知,與JDE、ByteTrack、DeepSORT、StrongSORT、TransTrack、FairMOT這六種方法對比,改進FairMOT在高階跟蹤精度(HOTA)、多目標跟蹤準確率(MOTA)、身份保持的F1分數(IDF1)和身份切換數(IDS)這些綜合反映跟蹤性能的指標上都取得了顯著提升,尤其是在身份切換數上,只有84次,遠低于其他模型,表明其在跟蹤過程中能更好地保持目標的身份一致性。除此之外,改進FairMOT在誤檢測數(FP)、漏檢數(FN)和檢測速度(FPS)這三個指標中也表現良好。自建數據集的結果進一步證實了改進FairMOT是一種有效的多目標跟蹤模型,尤其適用那些對跟蹤準確性和身份保持有較高要求的應用場景。
注:HOTA、MOTA、MOTP、IDF1、FPS這五個指標為自建數據3個測試集視頻的跟蹤結果均值;FP、FN、IDS這三個指標為自建數據3個測試集視頻的跟蹤結果的總和。
3.3.2 改進FairMOT和FairMOT在每個測試視頻的結果與分析
為進一步驗證改進FairMOT模型相較與原始FairMOT的提升效果,本文在表4和表5中分別展示基于FairMOT和改進FairMOT在每個測試視頻中的跟蹤結果。
由表4和表5數據可知,在高階跟蹤精度(HOTA)、多目標跟蹤準確率(MOTA)和多目標定位精度(MOTP)這三個多目標跟蹤綜合指標上,改進FairMOT在公開數據集上的結果比FairMOT分別提升了5.68%、4.17%和4.58%,在自建數據集上分別提升4.15%、6.36%和3.82%。這是因為EMA注意力機制的引入,可以有效地抑制背景干擾和不相關信息,減少了漏檢和誤檢現象,從而提升了整體的跟蹤性能。
在身份保持的F1分數(IDF1)這個反映維持目標身份一致性的指標上,與FairMOT相比,改進FairMOT在公開數據集上和自建數據集上分別提升了10.03%和6.20%,這一顯著的提升源于算法中鑒別特征學習網絡的應用,通過加強學習生豬個體的局部和全局特征,顯著提高了個體識別的準確性。
對于身份切換數(IDS),相對FairMOT,改進FairMOT在公開數據集上和自建數據集分別減少了64次和71次,該結果驗證了三階段匹配策略再復雜場景下目標對目標追蹤的優越性。此外,改進FairMOT的群養生豬MOT的可視化結果如圖8所示。其中圖8(a)為在PBVD公開數據集跟蹤效果示意圖,在視頻5的第60、180、340幀都保持穩定的跟蹤,最大ID標號為8,與表1中所述在視頻5中的真實豬只數量相同。圖8(b)為在自建數據集跟蹤效果示意圖,在豬只數量更多的條件下,改進FairMOT在視頻16的第54、127、302幀也都保持穩定的跟蹤,最大ID編號為18,比真實豬只數量多了一只,這主要是由于豬只的頻繁移動造成遮擋,導致發生IDS的變化。盡管如此,也能夠說明改進FairMOT可以實現對群養生豬多目標跟蹤的穩定性能,可以實現軌跡的連續和穩定。
3.3.3 不同光照和遮擋下的跟蹤結果對比分析
1) 改進FairMOT和FairMOT跟蹤器在不同光照強度的跟蹤結果對比。圖9為改進FairMOT和FairMOT跟蹤器對同一豬圈,在早晨和夜間不同光照強度下的視頻圖像跟蹤結果。
從圖9(a)所示的視頻16第217幀和視頻20第121幀的跟蹤結果可以觀察到,原始FairMOT算法存在一定程度的漏檢和誤檢,尤其是在夜間光照不足的條件下。而改進FairMOT算法則通過采用注意力機制有效地提取了更加準確的位置信息。此外,結合DFLN特征提取網絡用于提取像素級特征,并利用多級匹配關聯策略,使得改進版FairMOT在穩定跟蹤方面表現得更加出色。即便在光照條件較差的夜間環境中,也能夠準確地定位和跟蹤豬只,如圖9(b)所示,充分展示了改進FairMOT在復雜光照條件下的優越性能和實用價值。
2) 改進FairMOT和FairMOT跟蹤器在不同遮擋情況下的跟蹤結果對比。改進FairMOT和FairMOT結果對比如圖10所示。
在輕微遮擋的條件下,例如視頻17第351幀所示,原始FairMOT跟蹤器表現出了一定程度的漏檢和誤檢,并伴隨著頻繁的ID變換,最大ID編號達到了22。相比之下,改進后的FairMOT在同樣的條件下沒有出現漏檢,且保持了正確的ID識別,沒有錯誤的ID變換。在更加嚴重的遮擋條件下的表現更為突出。以視頻16第132幀為例,在這一劇烈遮擋的場景中,原始FairMOT遺漏了多只豬的檢測,最大ID編號增加到了27。對于改進FairMOT,得益于其引入的注意力機制,結合DFLN的像素級外觀特征提取和多級匹配關聯策略,即便在嚴重的遮擋情況下,也能實現穩定而準確的跟蹤。這一對比表明,改進后的FairMOT在處理遮擋問題上具有明顯的優勢,能夠有效提高跟蹤的準確性和魯棒性。
3.3.4 嵌入式裝置下的群養生豬跟蹤
針對多目標跟蹤算法在嵌入式移植過程中實時性損失巨大至無法滿足實時檢測需求的實際應用難題,本文選擇高性能NVIDIA Jetson Nano開發板為計算平臺。其預裝Ubuntu 18.04 LTS系統,板載英偉達自主研發的128核Maxwell GPU,可提高模型運行速度。軟件環境包擴TensorRT-6.8.4.7和JetPack-3.6.5,圖像輸入大小設置為512像素×512像素。為了檢驗改進后的算法在嵌入式平臺上的識別性能和檢測速度,將訓練好的算法模型部署到嵌入式平臺NVIDIA Jetson Nano上。選擇自建數據集進行性能測試,并與FairMOT算法進行比較,結果如表6所示。在嵌入式端平臺,改進FairMOT算法在自建群養生豬跟蹤數據集的所有指標上均優于原始FairMOT。其中,HOTA達到85.87%,MOTA達到96.53%,IDS達到84次,相較于服務器上精度指標并未出現降低。但是,由于嵌入式端計算能力受限,跟蹤幀率下降至7.40幀/s,仍然有待提高。
4 結論
為提高群養生豬的跟蹤效率和準確性,本研究提出一種基于改進FairMOT架構的方法。這一方法通過在主網絡中加入EMA注意力機制,提高對關鍵區域的專注度和特征提取效果。同時,引入的DFLN網絡增強豬只間外觀特征的區分度。此外,通過多級數據關聯流程,確保對象與軌跡的精確匹配,增強跟蹤的準確性和魯棒性。
1) 在PBVD公開數據集和自建數據集上的試驗結果顯示,改進FairMOT跟蹤器在這兩個數據集上的平均HOTA達到86.31%、平均MOTA達到96.14%、平均IDF1達到95.08%、平均IDS為76次,顯著優于JDE、ByteTrack、DeepSORT、StrongSORT、TransTrack五種常用跟蹤器。
2) 在每個測試視頻上的結果比較顯示,改進FairMOT跟蹤器在HOTA、MOTA、MOTP和IDF1關鍵跟蹤性能指標上相比原版FairMOT平均分別提升4.91%、5.26%、4.20%、8.12%,并且IDS平均減少67.5次。
3) 在不同光照和遮擋條件下的對比結果表明,即便在光照不足的夜間或嚴重遮擋的情況下,改進FairMOT仍能保持高準確性、穩定性和魯棒性。此外,在嵌入式平臺上的試驗結果表明,本文方法能夠滿足生豬實時跟蹤的需求。
綜上,本文所構建群養生豬行為跟蹤算法可以滿足實際養殖環境中的需要,能夠為無接觸式自動監測生豬提供技術支持,在智慧養殖群養生豬中,具有良好的應用前景。
參 考 文 獻
[ 1 ] 涂淑琴, 劉曉龍, 梁云, 等. 基于改進DeepSORT的群養生豬行為識別與跟蹤方法[J]. 農業機械學報, 2022, 53(8): 345-352.
Tu Shuqin, Liu Xiaolong, Liang Yun, et al. Behavior recognition and tracking method of group?housed pigs based on improved DeepSORT algorithm [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(8): 345-352.
[ 2 ] 張麗雯, 周昊, 朱啟兵. 基于PigsTrack跟蹤器的群養生豬多目標跟蹤[J]. 農業工程學報, 2023, 39(16): 181-190.
Zhang Liwen, Zhou Hao, Zhu Qibing. Multi?target tracking of group?raised pigs based on PigsTrack tracker [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(16): 181-190.
[ 3 ] Shu H, Bindelle J, Guo L, et al. Determining the onset of heat stress in a dairy herd based on automated behaviour recognition [J]. Biosystems Engineering, 2023, 226: 238-251.
[ 4 ] Williams M, Lai S Z. Classification of dairy cow excretory events using a tail?mounted accelerometer [J]. Computers and Electronics in Agriculture, 2022, 199: 107187.
[ 5 ] Zambelis A, Wolfe T, Vasseur E. Technical note: Validation of an ear?tag accelerometer to identify feeding and activity behaviors of tiestall?housed dairy cattle [J]. Journal of Dairy Science, 2019, 102(5): 4536-4540.
[ 6 ] Bergamini L, Pini S, Simoni A, et al. Extracting accurate long?term behavior changes from a large pig dataset [C]. 16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, VISIGRAPP 2021. SciTePress, 2021: 524-533.
[ 7 ] Bewley A, Ge Z, Ott L, et al. Simple online and realtime tracking [C]. 2016 IEEE International Conference on Image Processing (ICIP). IEEE, 2016: 3464-3468.
[ 8 ] Wojke N, Bewley A, Paulus D. Simple online and realtime tracking with a deep association metric [C]. 2017 IEEE International Conference on Image Processing (ICIP). IEEE, 2017: 3645-3649.
[ 9 ] Sun Z, Chen J, Mukherjee M, et al. Online multiple object tracking based on fusing global and partial features [J]. Neurocomputing, 2022, 470: 190-203.
[10] 張宏鳴, 汪潤, 董佩杰, 等. 基于DeepSORT算法的肉牛多目標跟蹤方法[J]. 農業機械學報, 2021, 52(4): 248-256.
Zhang Hongming, Wang Run, Dong Peijie, et al. Beef cattle multi?target tracking based on DeepSORT algorithm [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(4): 248-256.
[11] 張偉, 沈明霞, 劉龍申, 等. 基于CenterNet 搭配優化DeepSORT算法的斷奶仔豬目標跟蹤方法研究[J]. 南京農業大學學報, 2021, 44(5): 973-981.
Zhang Wei, Shen Mingxia, Liu Longshen, et al. Research on weaned piglet target tracking method based on CenterNet collocation optimized DeepSORT algorithm [J]. Journal of Nanjing Agricultural University, 2021, 44(5): 973-981.
[12] Wang Z, Zheng L, Liu Y, et al. Towards real?time multi?object tracking [C]. European Conference on Computer Vision. Cham: Springer International Publishing, 2020: 107-122.
[13] Zhang Y, Wang C, Wang X, et al. Fairmot: On the fairness of detection and re?identification in multiple object tracking [J]. International Journal of Computer Vision, 2021, 129: 3069-3087.
[14] Zhou X, Koltun V, Kr?henbühl P. Tracking objects as points [C]. European Conference on Computer Vision. Cham: Springer International Publishing, 2020: 474-490.
[15] 涂淑琴, 黃磊, 梁云, 等. 基于JDE模型的群養生豬多目標跟蹤[J]. 農業工程學報, 2022, 38(17): 186-195.
Tu Shuqin, Huang Lei, Liang Yun, et al. Multiple object tracking of group?housed pigs based on JDE model [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(17): 186-195.
[16] Guo Q, Sun Y, Orsini C, et al. Enhanced camera?based individual pig detection and tracking for smart pig farms [J]. Computers and Electronics in Agriculture, 2023, 211: 108009.
[17] Zhang Y, Wang C, Wang X, et al. Fairmot: On the fairness of detection and re?identification in multiple object tracking [J]. International Journal of Computer Vision, 2021, 129: 3069-3087.
[18] 席一帆, 何立明, 呂悅. 基于改進Fairmot框架的多目標跟蹤[J]. 液晶與顯示, 2022, 37(6): 777-785.
Xi Yifan, He Liming, Lü Yue. Multi?object tracking based on the improved Fairmot framework [J]. Chinese Journal of Liquid Crystals and Displays, 2022, 37(6): 777-785.
[19] 張紅穎, 賀鵬藝, 彭曉雯. 基于改進高分辨率神經網絡的多目標行人跟蹤[J]. 光學精密工程, 2023, 31(6): 860-871.
Zhang Hongying, He Pengyi, Peng Xiaowen. Multi?object pedestrian tracking method based on improved high resolution neural network [J]. Optics and Precision Engineering, 2023, 31(6): 860-871.
[20] 孫衛紅, 于思佳, 梁曼, 等. 基于改進FairMOT模型的多類別蠶繭跟蹤算法[J]. 蠶業科學, 2023, 49(4): 340-348.
Sun Weihong, Yu Sijia, Liang Man, et al. Multi?category cocoon tracking algorithm based on improved FairMOT model [J]. Acta Sericologica Sinica, 2023, 49(4): 340-348.
[21] 康盛, 范益群, 李錚偉. 基于FairMOT的隧道交通車輛檢測及追蹤系統研究[J]. 電氣自動化, 2022, 44(5): 75-77.
Kang Sheng, Fan Yiqun, Li Zhengwei. Research of vehicle detection and multi?object tracking in tunnel traffic systembased on FairMOT [J]. Electrical Automation, 2022, 44(5): 75-77.
[22] 夏雪, 柴秀娟, 張凝, 等. 用于邊緣計算設備的果樹掛果量輕量化估測模型[J]. 智慧農業(中英文), 2023, 5(2): 1?12.
Xia Xue, Chai Xiujuan, Zhang Ning, et al. A lightweight fruit load estimation model for edge computing equipment [J]. Smart Agriculture, 2023, 5(2): 1-12.
[23] 胡昊, 史天運, 楊文. 基于改進FairMOT的鐵路周界入侵檢測方法[J]. 中國鐵道科學, 2023, 44(5): 222-232.
Hu Hao, Shi Tianyun, Yang Wen. Railway perimeter intrusion detection method based on improved FairMOT [J]. China Railway Science, 2023, 44(5): 222-232.
[24] Bergamini L, Pini S, Simoni A, et al. Extracting accurate long?term behavior changes from a large pig dataset [C]. 16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, VISIGRAPP 2021. SciTePress, 2021: 524-533.
[25] Ouyang D, He S, Zhang G, et al. Efficient multi?scale attention Module with cross?spatial learning [C]. ICASSP 2023?2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2023: 1-5.
[26] Ristani E, Tomasi C. Features for multi?target multi?camera tracking and re?identification [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 6036-6046.
[27] 王俊, 王鵬, 李曉艷, 等. 融合多階語義增強的JDE多目標跟蹤算法[J].西北工業大學學報, 2022, 40(4): 944-952.
Wang Jun, Wang Peng, Li Xiaoyan, et al. JDE multi?object tracking algorithm integrating multi?level semantic enhancement [J]. Journal of Northwestern Polytechnical University, 2022, 40(4): 944-952.
[28] Zhang Y, Sun P, Jiang Y, et al. Bytetrack: Multi?object tracking by associating every detection box [C]. European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022: 1-21.
[29] Li F, Chen Y, Hu M, et al. Helmet?wearing tracking detection based on StrongSORT [J]. Sensors, 2023, 23(3): 1682.
[30] Kalyanaraman A, Griffiths E, Whitehouse K. Transtrack: Tracking multiple targets by sensing their zone transitions [C]. 2016 International Conference on Distributed Computing in Sensor Systems (DCOSS). IEEE, 2016: 59-66.