




摘 要:針對現有的高精度行人檢測模型因資源要求高而導致的難以應用于邊緣計算場景的問題,提出了一種適用于邊緣GPU設備的輕量級實時密集行人檢測算法。該算法通過在檢測頭中融合全維度動態卷積,降低了冗余信息對于檢測效果的影響,并通過優化損失函數增強了算法區分待檢測目標和背景的能力。實驗結果表明,在密集人群場景下的行人檢測任務中,該算法在精確度方面較本文基線算法YOLOv7-tiny提升了4.1百分點,這證明該算法能夠在邊緣計算場景下實現準確的密集人群檢測。
關鍵詞:行人檢測;小目標識別;深度學習;邊緣計算
中圖分類號:TP391 文獻標志碼:A
0 引言(Introduction)
行人檢測在密集人群場景中的應用面臨諸多挑戰,例如行人之間的互相遮擋、行人尺度較小、低分辨率圖像處理及復雜多變的背景環境等。這一技術已經被廣泛應用于汽車自動駕駛、安全監控及人機交互等場景[1]。近年來,許多行人檢測算法在密集人群場景下的行人檢測任務中表現出較高的檢測準確率,然而真實的部署場景通常為邊緣計算場景,進行行人檢測的設備大多為計算能力較低的邊緣GPU甚至是CPU,它們難以為這些高精度的模型提供充足的內存和較高的計算能力。針對上述問題,本文提出一種輕量級密集人群場景行人檢測算法。該算法通過在YOLOv7-tiny的頭部網絡應用全維度動態卷積,降低了密集人群場景中冗余信息的影響,同時針對密集人群場景中前景背景難以區分的問題,對損失函數做出優化。實驗結果表明,相較于原始的YOLOv7-tiny,本文提出算法在保持輕量化的前提下,在準確率上實現了4.1百分點的提升。