Wan2.2-Animate动作迁移 图片同步视频姿态 懒人整合包

Wan2.2-Animate

github地址:https://github.com/Wan-Video/Wan2.2

Wan2.2 是一个开源的 AI视频生成模型框架,主要用于 文本→视频、图片→视频、音频→视频生成。它属于当前比较先进的一类 Video Diffusion(视频扩散模型)。

它支持多种生成方式:

  • Text-to-Video (T2V):文本生成视频
  • Image-to-Video (I2V):图片生成视频
  • Text+Image-to-Video (TI2V):文本+图片生成视频
  • Speech-to-Video (S2V):音频驱动生成视频
  • 角色动画 / 替换(Animate)

本文主要是 角色动画 / 替换(Animate)

下图是测试效果

左侧是你的目标图片,让你的图片可以学习视频里面的人物动起来

中间是你要模仿的视频文件,可以是跳舞视频,也可以是其他动作视频

右侧是图片根据中间视频生成的视频结果

可以看到结果视频基本和中间视频的动作一致,但是人物不相同

同时原本只有一个头像的图片,在ai的处理下,自动添加了背景墙和下半身身体以及对应颜色和款式的衣物

建议模仿中间视频时,图片的人物最好和视频的人物一致,比如都是全身像,这样效果更好一些

使用步骤

双击run_nvidia_gpu.bat,启动终端

等待终端执行完成

文件夹名称建议不要有中文路径

终端界面

确认终端无报错,自动打开对应的网页

如果127.0.0.1打不开,可以换为localhost,有代理的记得关掉代理

选择图片,选择图片要模仿的视频(比如跳舞视频),点击run

等待视频处理完成

本文使用3060 12Gb显卡测试,内存为64GB ddr4,测试过程中,本项目先使用cpu处理,然后内存爆满到60Gb,最后使用显卡峰值大约为8.2GB

整个视频处理时间大致为10分钟,不同的分辨率处理的时间各不相同,配置好的可以尝试1080p等高清分辨率,具体使用细节可以查看界面的参数自行调整

低显存8G可尝试,但是不一定成功,12GB显存可行

Tips

点击此处 网盘下载

目前已发布了LTX2.3 文生视频和图生视频,之前也体验了wan2.2文生视频和图生视频,不过还没有整理出来

有的人评价wan2.2某些场景好过LTX2.2,各有各的优点和特色

本文懒人包是wan2.2的一个动作迁移功能分支

相关推荐
zc.z4 小时前
JAVA实现:纯PCM格式音频转换成BASE64
java·音视频·pcm
一苇以航328 小时前
LE Audio低功耗蓝牙音频详解 (三)
音视频·蓝牙·ble·le audio
a里啊里啊11 小时前
软考-软件评测师:知识点整理(九)——其他杂项
音视频
苏州汇成元电子科技13 小时前
为什么越来越多AI设备开始使用I-PEX 81463-100B-02-D 30Pin极细同轴线束?
人工智能·音视频·硬件工程·信号处理·材料工程
ZC跨境爬虫14 小时前
跟着 MDN 学 HTML day_36:(深入理解 Comment 接口与 DOM 注释节点)
前端·javascript·ui·html·音视频·视频编解码
reasonsummer16 小时前
【教学类-160-25】20260507 AI视频培训-练习025“豆包AI视频《一日生活》+豆包图片风格:二次元
音视频·豆包
LCG元18 小时前
STM32实战:基于STM32F407的FFT频谱分析(音频信号处理)
stm32·音视频·信号处理
小何开发19 小时前
ffmpeg 安装与使用: 将视频分片与组装
ffmpeg·音视频
EasyDSS19 小时前
私有化视频会议系统/智能会议管理系统EasyDSS打造全场景音视频协作新生态
音视频
淘小白_TXB219619 小时前
微博图文视频批量采集软件用户手册
音视频