MAC M2芯片执行yolov8 + deepsort 实现目标跟踪

MAC M2芯片执行yolov8 + deepsort 实现目标跟踪

MAC M2 YoloX + bytetrack实现目标跟踪

实验结果 MAC mps显存太小了跑不动 还是得用服务器跑 需要实验室的服务器跑 因为网上花钱跑4天太贵了!!!

步骤过程尝试:

执行mot17 数据集 到coco格式

复制代码
python3 tools/convert_mot17_to_coco.py

执行mps发现显存不够用

选择autodl 上的服务器进行训练

安装conda install git

然后重新进行 pycocotools.进行

step 2 安装docker 环境

复制代码
sudo apt-get install \
    apt-transport-https \
    ca-certificates \
    curl \
    gnupg-agent \
    software-properties-common

添加官方秘钥

复制代码
$ curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/ubuntu/gpg | sudo apt-key add -

安装docker环境失败 也是可以运行的

不影响bytetrack训练

这个是使用best权重计算得到的

下面是使用pretrain自己生成的得到的

同时 可以比较其他的追踪器

使用sort跟踪【结果】:

训练自己上传自定义的跟踪视频

下载比较结果

10个轮次的结果不够分析 需要实验室的服务器进行深度训练

传统理解为,IoU大于50%的时候,认为是目标检测到了。

为了更细化区分网络的性能,COCO数据集的评价标准中,把IoU的值从50%到95%每隔5%进行了一次划分。

具体来说,0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 ,一共十个,每次测试的时候都是在IoU=这个数上测试的。

在这10组precision-recall对中,我们对这十个值 取平均(我理解为,10个PR曲线下得到的AP值,然后对这10个AP进行平均),得到了一个AP@[0.5:0.95]

有时固定IoU的阈值,比如50%或75%,也就是AP50和AP75,意味着IoU为50%或者75%时的AP值。

·为什么要在不同的IoU情况下求AP和AR?

方便模型进行惩罚差的结果,优化好的结果。

相关推荐
Faker66363aaa5 小时前
指纹过滤器缺陷检测与分类 —— 基于MS-RCNN_X101-64x4d_FPN_1x_COCO模型的实现与分析_1
人工智能·目标跟踪·分类
Coovally AI模型快速验证15 小时前
“看起来像世界”≠“真世界”!WorldLens全维度解构自动驾驶世界模型
人工智能·机器学习·计算机视觉·目标跟踪·自动驾驶·ocr
zy_destiny1 天前
【工业场景】用YOLOv26实现桥梁检测
人工智能·深度学习·yolo·机器学习·计算机视觉·目标跟踪
ZCXZ12385296a1 天前
YOLO13-C3k2-ConverseB改进:CCTV监控场景下车辆目标检测详解
人工智能·目标检测·目标跟踪
【赫兹威客】浩哥1 天前
基于 YOLO 多版本模型的路面缺陷识别实践与分析
人工智能·计算机视觉·目标跟踪
无人装备硬件开发爱好者1 天前
RV1126B 边缘端 AI 实战:YOLOv8+DNTR 微小目标跟踪监测全栈实现 1
人工智能·yolo·目标跟踪
Loacnasfhia91 天前
卷烟爆珠气泡缺陷检测与分类_YOLO11创新点改进_C3k2与MLCA模块融合结构研究_1
人工智能·目标跟踪·分类
zy_destiny2 天前
【工业场景】用YOLOv26实现8种道路隐患检测
人工智能·深度学习·算法·yolo·机器学习·计算机视觉·目标跟踪
Faker66363aaa2 天前
夹具状态识别与分类——基于YOLO11-EfficientHead的目标检测实现与性能分析
目标检测·目标跟踪·分类
无人装备硬件开发爱好者2 天前
RV1126B 边缘端 AI 实战:YOLOv8+DNTR 微小目标跟踪监测全栈实现 2
人工智能·yolo·目标跟踪