FollowYourPose - 生成可编辑、姿态可控制的人物视频

文章目录


关于 FollowYourPose


摘要

生成文本可编辑、姿态可控制的人物视频是创造各种数字人的迫切需求。然而,这项任务受到了限制 由于缺乏具有配对视频姿势字幕和视频生成先验模型的综合数据集。

在这项工作中,我们设计了一种新的两阶段训练方案,可以利用容易获得的数据集(即图像姿态对和无姿态视频)和预训练的数据集 文本到图像(T2I)模型,以获得姿态可控的字符视频。

具体来说,在第一阶段,关键点-图像对仅用于可控制的文本-图像生成。我们学习了一个零初始化的卷积 对姿态信息进行编码的传统编码器。

在第二阶段,我们通过添加可学习的时间自注意和改革的跨帧自注意,通过无姿态视频数据集对上述网络的运动进行微调 块。

在我们的新设计的支持下,我们的方法成功地生成连续的姿势可控的角色视频,同时保持编辑和概念组成 预训练T2I模型的能力。代码和模型将公开提供。


🍻🍻🍻设置环境

我们的方法是使用cuda11、加速器和xformer在8a100上进行训练的。

shell 复制代码
conda create -n fupose python=3.8
conda activate fupose

pip install -r requirements.txt

为了节省内存和运行时间,A100 GPU推荐使用xformers

单击xformer安装

我们发现它的安装不稳定。你可以试试下面的轮子:

shell 复制代码
wget https://github.com/ShivamShrirao/xformers-wheels/releases/download/4c06c79/xformers-0.0.15.dev0+4c06c79.d20221201-cp38-cp38-linux_x86_64.whl
pip install xformers-0.0.15.dev0+4c06c79.d20221201-cp38-cp38-linux_x86_64.whl

我们的环境类似于Tune-A-video(官方的,非官方的)。你可以查看更多的细节。


💃💃💃培训

我们在8 A100上修复了Tune-a-video和微调稳定扩散-1.4中的错误。 要微调文本到图像的扩散模型,以生成文本到视频,请执行以下命令:

shell 复制代码
TORCH_DISTRIBUTED_DEBUG=DETAIL accelerate launch \
    --multi_gpu --num_processes=8 --gpu_ids '0,1,2,3,4,5,6,7' \
    train_followyourpose.py \
    --config="configs/pose_train.yaml" 

🕺🕺🕺推理

训练完成后,运行inference:

python 复制代码
TORCH_DISTRIBUTED_DEBUG=DETAIL accelerate launch \
    --gpu_ids '0' \
    txt2video.py \
    --config="configs/pose_sample.yaml" \
    --skeleton_path="./pose_example/vis_ikun_pose2.mov"

你可以用mmpose来制作姿势视频,我们用HRNet来检测骨骼。你只需要运行视频演示来获得姿势视频。记得用黑色代替背景。


💃💃💃 本地 Gradio 演示

您可以在本地运行梯度演示,只需要一个 A100/3090

python 复制代码
python app.py

那么演示在本地URL上运行: http://0.0.0.0:Port


🕺🕺🕺权重

Stable Diffusion\] [Stable Diffusion](https://arxiv.org/abs/2112.10752) 是一种潜在的文本到图像扩散模型,能够在给定任何文本输入的情况下生成逼真的图像。预训练的稳定扩散模型可以从拥抱脸下载(例如,稳定扩散v1-4) 我们还在Huggingface中提供了预训练的检查点。您可以下载它们并将它们放入 `checkpoints` 文件夹中来推断我们的模型。 ```python FollowYourPose ├── checkpoints │ ├── followyourpose_checkpoint-1000 │ │ ├──... │ ├── stable-diffusion-v1-4 │ │ ├──... │ └── pose_encoder.pth ``` *** ** * ** *** ### 💃💃💃结果 我们展示了关于各种姿势序列和文本提示的结果。 注意这个github页面中的mp4和gif文件是压缩的。 请查看我们的项目页面,获取原始视频结果的mp4文件。 ![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/618b601acd994d2db00dcac59e7969af.png) ![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/725225ac98974e7fa14b4d286aedb014.png) *** ** * ** *** 2024-09-24 (二)

相关推荐
TEL1892462247713 小时前
IT6225B:USB-C(DP Alt 模式)及电源传输控制器 内置双通道 DP 1.4 转 HDMI 2.0 转换器
音视频·实时音视频·视频编解码
Guheyunyi17 小时前
智慧消防管理平台的关键技术突破与创新
大数据·运维·人工智能·安全·音视频
卜锦元17 小时前
EchoChat搭建自己的音视频会议系统01-准备工作
c++·golang·uni-app·node.js·音视频
杀生丸学AI17 小时前
【视频生成】HY-World 1.5:实时延迟和几何一致的交互式世界模型系统(腾讯混元)
人工智能·深度学习·3d·音视频·transformer·三维重建
aqi0019 小时前
FFmpeg开发笔记(九十九)基于Kotlin的国产开源播放器DKVideoPlayer
android·ffmpeg·kotlin·音视频·直播·流媒体
小鹿软件办公21 小时前
从视频里提取干净人声?人声分离正从云端回归桌面
音视频·简鹿人声分离·如何提取人声
檀越剑指大厂1 天前
摆脱局域网束缚!MoneyPrinterTurbo利用cpolar远程生成短视频超实用
音视频
郝学胜-神的一滴1 天前
使用QVideoWidget实现高效视频播放:从基础到高级应用
开发语言·c++·qt·程序人生·音视频
黄美美分享1 天前
【音频编辑工具】跨平台轻量音频编辑器!音频剪辑工具!新手也能玩转专业处理
windows·安全·音视频
狮子座明仔1 天前
FlowAct-R1:字节跳动实时交互式人形视频生成框架
人工智能·深度学习·音视频