阿里最新开源视频生成模型Wan2.1 介绍和实践

介绍

Wan2.1是由Wan团队推出的开源视频生成模型套件,通过创新的架构设计和工程优化,在视频生成领域实现了多项技术突破。该模型系列基于扩散变换器范式 开发,支持从文本/图像输入生成720P高清视频,同时保持对消费级显卡的兼容性,为视频创作提供了新的可能(github.com/Wan-Video/W...%25E3%2580%2582 "https://github.com/Wan-Video/Wan2.1)%E3%80%82")

1. 核心功能亮点

- 多模态生成能力

支持文本到视频(T2V)、图像到视频(I2V)、视频编辑、文本到图像(T2I)、视频到音频(V2A)五大核心功能,覆盖完整的创作流程。其中T2V模型1.3B版本在RTX 4090上仅需4分钟即可生成5秒480P视频 huggingface.co/Wan-AI/Wan2...

- 跨语言文本生成

首次实现视频内中英文字幕的动态生成,支持自动生成信息卡、字幕条等视觉文本元素,显著提升视频信息传达效率。

- 革命性视频编解码

采用自主开发的Wan-VAE架构,突破性地支持无限时长1080P视频的编解码处理,通过3D因果编码结构保持时空连贯性,压缩效率较传统方案提升40%

2. 技术架构创新

扩散变换器(DiT)优化

  • 集成Flow Matching框架,通过T5编码器实现多语言文本嵌入
  • 创新调制参数预测机制,每个transformer块学习独立偏置
  • 14B模型采用5120维度隐空间,40头注意力机制

模型规格对比

参数 T2V-1.3B I2V-14B
隐空间维度 1536 5120
注意力头数 12 40
网络层数 30 40
前馈维度 8960 13824

1.3B 实践

1. 下载官方仓库

bash 复制代码
git clone https://github.com/Wan-Video/Wan2.1.git

2. 安装环境

shell 复制代码
cd Wan2.1
pip install -r requirements

3.启动本地gradio

python 复制代码
#注意没有足够显存不要使用local_qwen,使用api,启动一个qwen2.5 14B太耗资源了,权重下载用下面的就好了

DASH_API_KEY=sk-xx python t2v_1.3B_singleGPU.py \
--prompt_extend_method 'dashscope' --ckpt_dir /root/autodl-tmp/Wan-AI/Wan2.1-T2V-1.3B


#from modelscope import snapshot_download
#model_dir = snapshot_download('Wan-AI/Wan2.1-T2V-1.3B', cache_dir='/root/autodl-tmp')
#model_dir = snapshot_download('Wan-AI/Wan2.1-i2V-1.3B', cache_dir='/root/autodl-tmp')

计算时显存占用18G

4.结果

感觉上1.3B生成的视频还是差了一点,得上14B

相关推荐
Mr.Ja28 分钟前
【LeetCode热题100】No.11——盛最多水的容器
算法·leetcode·贪心算法·盛水最多的容器
冷徹 .40 分钟前
2024ICPC区域赛香港站
数据结构·c++·算法
浅川.251 小时前
xtuoj string
开发语言·c++·算法
韩非1 小时前
if 语句对程序性能的影响
算法·架构
用户916357440952 小时前
LeetCode热题100——15.三数之和
javascript·算法
ting_zh2 小时前
导数、偏导数与梯度:机器学习数学基础
算法·基础数学
灰灰老师2 小时前
七种排序算法比较与选择[Python ]
java·算法·排序算法
秃头狂魔2 小时前
DAY1 数组一
算法
CM莫问2 小时前
推荐算法之粗排
深度学习·算法·机器学习·数据挖掘·排序算法·推荐算法·粗排
rengang663 小时前
10-支持向量机(SVM):讲解基于最大间隔原则的分类算法
人工智能·算法·机器学习·支持向量机