Alphapose训练自己数据集指南

代码下载

复制代码
git clone https://github.com/MVIG-SJTU/AlphaPose.git

数据集格式

数据集格式最好使用COCO数据集格式,如果你的当前不是COCO格式的话,可以参考COCO的说明将数据集格式进行修改,网站如下

https://cocodataset.org/#home

运行之前自行编写脚本将自己的数据集转换成COCO格式

更换权重

alphapose默认使用的是yolov3模型作为其检测器,但是这个检测器只能检测人体目标姿态,所以如果你的检测目标不是人的话还需要单独训练一个yolov3或者yolox的权重替换原有的权重,否则alphapose是没办法用的.将训练好的权重放入对应位置detector/yolo/data

https://github.com/MVIG-SJTU/AlphaPose/blob/master/docs/INSTALL.md 中的Models找到你需要使用的权重并下载

配置

配置文件 这里这个例子

复制代码
DATASET:
  TRAIN:
    TYPE: 'ConcatDataset'
    SET_LIST:
      - TYPE: 'Mscoco'
        MASK_ID: 0
        ROOT: '/media/disk2/yzy/data_set/all_dataset_yzy_wzh/alphapose_data' # 根路径
        IMG_PREFIX: 'images'  #图像文件夹名称
        ANN: 'annotations/train.json'  #标注文件
        AUG:
          FLIP: true
          ROT_FACTOR: 40
          SCALE_FACTOR: 0.3
          NUM_JOINTS_HALF_BODY: 8
          PROB_HALF_BODY: -1
  VAL:
    TYPE: 'Mscoco'
    ROOT: '/media/disk2/yzy/data_set/all_dataset_yzy_wzh/alphapose_data'
    IMG_PREFIX: 'images'
    ANN: 'annotations/val.json'
  TEST:
    TYPE: 'Mscoco_det'
    ROOT: '/media/disk2/yzy/data_set/all_dataset_yzy_wzh/alphapose_data'
    IMG_PREFIX: 'images'
    DET_FILE: './exp/json/test_det_yolo.json'
    ANN: 'annotations/test.json'
DATA_PRESET:
  TYPE: 'simple'
  SIGMA: 2
  NUM_JOINTS: 33
  IMAGE_SIZE:
  - 256
  - 192
  HEATMAP_SIZE:
  - 64
  - 48
MODEL:
  TYPE: 'FastPose'
  PRETRAINED: ''
  TRY_LOAD: ''
  NUM_DECONV_FILTERS:
  - 256
  - 256
  - 256
  NUM_LAYERS: 50
LOSS:
  TYPE: 'MSELoss'
DETECTOR:
  NAME: 'yolo'
  # CONFIG: 'detector/yolo/cfg/yolov3-spp.cfg'
  # WEIGHTS: 'detector/yolo/data/yolov3-spp.weights'
  CONFIG: '/media/disk2/yzy/behavior_framework/AlphaPose-master/detector/yolo/cfg/yolov3-spp.cfg'
  WEIGHTS: '/media/disk2/yzy/behavior_framework/AlphaPose-master/detector/yolo/data/yolov3-spp.weights'
  NMS_THRES: 0.6
  CONFIDENCE: 0.05
TRAIN:
  WORLD_SIZE: 4
  BATCH_SIZE: 32
  BEGIN_EPOCH: 0
  END_EPOCH: 200
  OPTIMIZER: 'adam'
  LR: 0.001
  LR_FACTOR: 0.1
  LR_STEP:
  - 90
  - 120
  DPG_MILESTONE: 140
  DPG_STEP:
  - 160
  - 190

做好这些准备后 还需要校验coco的校验文件

COCO数据格式的校验文件在:AlphaPose-master/alphapose/datasets/mscoco.py

找到这个文件,

修改这部分内容

复制代码
CLASSES = ['pig']
   EVAL_JOINTS = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13]
   num_joints = 14
   joint_pairs = [[0,1],[4,10],[10,11],[1,2],[3,4],[4,12],[12,13],[2,3],[6,7],[4,5],[8,9],[2,6],[2,7]]

这样通过coco的校验之后 就可以成功训练起模型了

相关推荐
m0_6501082411 分钟前
【论文精读】Diffusion Mamba:基于双向 SSM 的高效图像与视频生成架构
计算机视觉·图像生成·视频生成·dim·论文精读·双向状态空间模型·高效生成模型
编程让世界美好20 分钟前
选手评分问题(python)
python
格林威30 分钟前
AOI在传统汽车制造领域中的应用
大数据·人工智能·数码相机·计算机视觉·ai·制造·aoi
java1234_小锋37 分钟前
PyTorch2 Python深度学习 - PyTorch2安装与环境配置
开发语言·python·深度学习·pytorch2
CClaris38 分钟前
深度学习——反向传播的本质
人工智能·python·深度学习
伊玛目的门徒41 分钟前
Jupyter Notebook 配置使用虚拟环境中(virtualenv) 内核
python·jupyter·virtualenv
双翌视觉2 小时前
机器视觉的手机模组背光贴合应用
人工智能·机器学习·智能手机·1024程序员节
B站计算机毕业设计之家2 小时前
计算机视觉:pyqt5+yoloV5目标检测平台 python实战 torch 目标识别 大数据项目 目标跟踪(建议收藏)✅
深度学习·qt·opencv·yolo·目标检测·计算机视觉·1024程序员节
知来者逆2 小时前
计算机视觉——从环境配置到跨线计数的完整实现基于 YOLOv12 与质心追踪器的实时人员监控系统
人工智能·yolo·目标检测·计算机视觉·1024程序员节·目标追踪·yolov12
Geoking.2 小时前
PyTorch torch.ones()张量创建详解
人工智能·pytorch·python