【论文复现】摩尔线程版AnimateAnyone

code:MooreThreads/Moore-AnimateAnyone (github.com)

paper:Animate Anyone (humanaigc.github.io)

1. Inference

Inference没啥难度,按照readme来就行,就是分开下载权重比较慢,注意权重文件严格按照文档目录树来放。

复制代码
python -m scripts.pose2vid --config ./configs/prompts/animation.yaml -W 512 -H 784 -L 64

默认的参数我cuda.OutOfMemoryError了(服务器12G显存),调小为-W 256 -H 392 -L 32就可以了,但是测试出来的demo效果非常差,视频放不上来

2. Training

Data Preparation

用MEAD数据集试一下

Extract keypoints from raw videos:

复制代码
python tools/extract_dwpose_from_vid.py --video_root /path/to/your/video_dir

Extract the meta info of dataset:

复制代码
python tools/extract_meta_info.py --root_path /path/to/your/video_dir --dataset_name anyone 

Stage1

Stage2

相关推荐
学习中的数据喵4 分钟前
机器学习之逻辑回归
人工智能·机器学习·逻辑回归
龙腾AI白云16 分钟前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动
深度学习·数据挖掘
拾零吖42 分钟前
CS336 Lecture_03
人工智能·pytorch·深度学习
有Li43 分钟前
基于k空间渐进式学习与图像空间混合注意力融合的多对比度低场MRI加速|文献速递-文献分享
深度学习
盼小辉丶1 小时前
视觉Transformer实战 | Token-to-Token Vision Transformer(T2T-ViT)详解与实现
pytorch·深度学习·计算机视觉·transformer
高洁011 小时前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动
人工智能·深度学习·算法·aigc·知识图谱
嵌入式-老费2 小时前
自己动手写深度学习框架(最终的ncnn部署和测试)
人工智能·深度学习
LO嘉嘉VE2 小时前
学习笔记十五:连续与缺失值
机器学习
阿十六2 小时前
OUC AI Lab 第七章:ViT & Swin Transformer
人工智能·深度学习·transformer