YOWOv2(yowov2)动作识别+Fastreid身份识别 详细安装与实现

  • 首先yowov2是一款简单且实时的时空动作检测方案,fastreid是行人重识别(身份识别)

    • yowov2介绍链接直达
    • fastreid链接直达
    • 为时空动作检测任务设计实时框架仍然是一个挑战。YOWOv2 提出了一种新颖的实时动作检测框架,利用三维骨干和二维骨干进行准确的动作检测。经过改进,YOWOv2 明显优于 YOWO,并且仍然可以保持实时检测。YOWOv2 在数据集 UCF101-24 上以超过 20 FPS 的速度实现了 87.0% 的视频帧 mAP 和 52.8% 的全视频 mAP。在数据集 AVA 上,YOWOv2 在提速 20 FPS 的同时实现了 21.7% 的视频帧 mAP。
  • 引入身份识别可以精确记录某个人的动作信息

  • 效果图

    • ui界面 含有摄像头和视频检测, 同时右侧可以选择模型, 摄像头, 和是否使用CUDA

    • 动作识别预览(弯腰和站立, 动作很多(摔倒动作,骑马动作都有, 如果需要自己训练动作,则自己制作ava数据集进行模型训练))

    • 身份识别预览(左下角)身份识别 FastReID利用预训练的深度卷积神经网络(如ResNet、MobileNet等)作为基础模型,通过特征提取网络来提取图像中的行人特征。可以用来描述行人的外观特征、姿势等信息。并通过计算余弦相似度来度量在特征空间中度量行人之间的相似度。

  • 详细实现:

    • 首先创建YOWOv2环境,分为虚拟环境和Anaconda环境两种

    • 先讲使用虚拟环境的,linux上主环境的是 python3.8,

      1 创建虚拟环境, 当前文件夹就会有一个yowov2-virtual的文件夹

      python 复制代码
      python3 -m vene yowov2-virtual

      2, 激活环境

      python 复制代码
      source yowov2-virtual/bin/activate 

      3, 安装环境(pytorch1.10.1和cuda10.2) (这个因为是外网的,需要梯子(不然很慢))

      python 复制代码
      pip install torch==1.10.1+cu102 torchvision==0.11.2+cu102 -f https://download.pytorch.org/whl/cu102/torch_stable.html
      1. 进入项目安装依赖
      python 复制代码
      pip install -r requirements.txt

      如果使用anaconda, 则

      1. 创建anaconda环境
      python 复制代码
      conda create -n yowov2-fastreid python==3.8
      1. 然后激活环境(如果activate 不行, 则试试source)
      python 复制代码
      conda activate yowov2-fastreid
      1. 与上面第三步一致 之后再运行ui_main.py 启动ui界面
  • 详细使用信息

相关推荐
喵手几秒前
Python爬虫实战:国际电影节入围名单采集与智能分析系统:从数据抓取到获奖预测(附 CSV 导出)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集数据csv导出·采集国际电影节入围名单·从数据抓取到获奖预测
Next_Tech_AI4 分钟前
别用 JS 惯坏了鸿蒙
开发语言·前端·javascript·个人开发·ai编程·harmonyos
chillxiaohan8 分钟前
GO学习记录——多文件调用
开发语言·学习·golang
2301_8223663512 分钟前
C++中的命令模式变体
开发语言·c++·算法
一刻钟.14 分钟前
C#高级语法之线程与任务
开发语言·c#
OpenCSG20 分钟前
对比分析:CSGHub vs. Hugging Face:模型管理平台选型对
人工智能·架构·开源
云上凯歌20 分钟前
传统老旧系统的“AI 涅槃”:从零构建企业级 Agent 集群实战指南
人工智能
追逐梦想的张小年28 分钟前
JUC编程03
java·开发语言·idea
cskywit29 分钟前
破解红外“魅影”难题:WMRNet 如何以频率分析与二阶差分重塑小目标检测?
人工智能·深度学习
派葛穆30 分钟前
Python-PyQt5 安装与配置教程
开发语言·python·qt