Fast MOT快速多对象追踪

深度学习模型通常是Deep SORT的瓶颈,这使得Deep SORT无法用于实时应用。此回购协议甚至可以在Jetson上显着加快整个系统的实时运行速度。它还提供了足够的灵活性,可以在没有轻量级模型的情况下自定义速度精度的权衡。

为了实现更快的处理,跟踪器每N帧仅运行一次检测器和特征提取器。然后使用光流填充间隙。我在Deep SORT中交换了特征提取器,以获得更好的ReID模型OSNet。我还添加了一项功能,可以重新识别移出框架的目标,以便跟踪器可以保留相同的ID。我在CrowdHuman上训练了YOLOv4,而SSD是TensorFlow的预训练的COCO模型。

检测器和特征提取器均使用TensorRT后端并执行异步推理。此外,使用Numba可以优化大多数算法,包括卡尔曼滤波器,光流和数据关联。

Fast MOT快速多对象追踪

性能测试:

编号 密度 MOTA(SSD) MOTA(YOLOv4) MOTA(public) FPS
MOT17-13 5至30 19.8% 45.6% 41.3% 38
MOT17-04 30-50 43.8% 61.0% 75.1% 22
MOT17-03 50-80 -- -- -- 15

使用py-motmetrics在Jetson Xavier NX上使用MOT17数据集评估性能。当使用来自MOT17的公开检测时,MOTA分数接近最新的跟踪器。跟踪速度可以达到38 FPS,具体取决于对象的数量。在台式机CPU / GPU上,FPS应该更高。

这意味着即使跟踪器运行得更快,它仍然是高度准确的。更轻巧的检测器/功能提取器可能会用于获得更高的加速比。请注意,普通的Deep SORT + YOLO很难在大多数边缘设备和台式机上实时运行。

环境要求:

  • CUDA >= 10
  • cuDNN >= 7
  • TensorRT >= 7
  • OpenCV >= 3.3
  • PyCuda
  • Numpy >= 1.15
  • Scipy >= 1.5
  • TensorFlow <= 1.15.2 (for SSD support)
  • Numba >= 0.48
  • cython-bbox

,
相关链接:
https://github.com/GeekAlexis/FastMOT
https://arxiv.org/pdf/1911.06073v1.pdf

文章链接:https://www.ai2025.cn/2815.html
文章标题:Fast MOT快速多对象追踪
文章版权:AI2025 所发布的内容,部分为原创文章,转载请注明来源,网络转载文章如有侵权请联系我们!

(0)
上一篇 2020年12月23日 下午3:12
下一篇 2020年12月23日 下午3:13

相关推荐

发表回复

您的电子邮箱地址不会被公开。

分享本页
返回顶部