有哪些开源的视频生成模型

1. 阿里巴巴通义万相2.1(WanX 2.1)

  • 技术架构:基于Diffusion Transformer(DiT)架构,结合自研的高效变分自编码器(VAE)和Flow Matching训练方案,支持时空上下文建模。
  • 参数规模:提供14B和1.3B两种参数规格,后者支持本地部署(仅需8.2GB显存)。
  • 生成能力
    • 支持无限长1080P视频的高效编解码,首次实现中文文字视频生成。
    • 可生成复杂运镜效果,并还原物理规律(如雨滴溅水效果)。
  • 应用场景:广告设计、宣传片、短视频创作。
  • 性能指标
    • 在VBench评测中以86.22%得分位居榜首,超越Sora、Luma等模型。
    • 生成速度比原有SOTA模型快2.5倍,运动质量指标达商用级别。

2. 腾讯混元大模型(Hunyuan Video)

  • 技术架构:130亿参数的图生视频模型,基于Hybrid-Mamba-Transformer混合架构,支持中英文输入和多尺寸视频生成。
  • 生成能力
    • 生成5秒短视频,支持对口型、唱歌功能及动漫角色制作。
    • 提供视频配音与数字人驱动功能。
  • 应用场景:写实视频、广告、教育内容。
  • 性能指标
    • 在文本一致性、运动质量等评测维度领先,总体评分41.30%,显著高于第二名。

3. 阶跃星辰Step-Video-T2V

  • 技术架构:300亿参数的Diffusion Transformer(DiT),采用Flow Matching训练和3D全注意力机制,支持动态幅度与镜头轨迹控制。
  • 生成能力
    • 生成204帧(约8秒)540P视频,支持复杂动作(如芭蕾舞)和物理规律复现。
    • 通过通道维度拼接技术保持画面与原图一致性。
  • 应用场景:动画制作、短视频创作、教育培训。
  • 性能指标
    • 在VBench-I2V基准测试中达到SOTA级别,运动控制能力突出。

4. Open-Sora 2.0

  • 技术架构:基于3D自编码器和MMDiT架构(Masked Motion Diffusion Transformer),11B参数,结合Flow Matching训练。
  • 生成能力
    • 支持720P分辨率、24 FPS视频生成,最长128帧,支持文生视频(T2V)和图生视频(T2I2V)。
    • 训练成本仅20万美元(224张GPU),接近闭源模型性能。
  • 应用场景:影视预演、广告创意、游戏开发。
  • 性能指标
    • VBench评测与Sora差距缩小至0.69%,用户偏好测试超越HunyuanVideo等模型。

5. 昆仑万维SkyReels-V1

  • 技术架构:13B参数,基于好莱坞影视数据训练,集成3D因果卷积和自研推理优化框架「SkyReels-Infer」。
  • 生成能力
    • 支持33种微表情和400+自然动作组合,生成544P分辨率视频。
    • 单卡4090推理仅需80秒,支持分布式多卡并行。
  • 应用场景:AI短剧创作、电影特效。
  • 性能指标
    • 在开源视频生成模型中性能最强,画面达电影级质感。

6. LTX Video

  • 技术架构:基于DiT和潜在扩散模型(Latent Diffusion),采用高压缩比Video-VAE(1:192)。
  • 生成能力
    • 实时生成768×512分辨率、24 FPS视频(2秒生成5秒视频)。
    • 支持文生视频和图生视频,画面过渡自然。
  • 应用场景:广告、短视频、游戏图形升级。
  • 性能指标
    • 在速度和视觉质量上超越传统模型,支持低显存设备运行。

7. 智谱CogVideoX

  • 技术架构:基于3D因果VAE和专家Transformer,支持INT8量化(显存需求7.8GB)。
  • 生成能力
    • 生成6秒、720×480分辨率视频,支持低显存显卡(如1080 Ti)。
    • 通过渐进式训练生成长时动态视频。
  • 应用场景:教育、影视预演。
  • 性能指标
    • 在人类评估中表现SOTA,支持多分辨率帧打包。

总结对比

模型 参数规模 分辨率/帧率 核心优势 应用场景
通义万相2.1 14B/1.3B 1080P/不限长 中文文字生成、物理规律复现 广告、短视频
腾讯混元 130B 多种尺寸/5秒 对口型、多语言支持 写实视频、动漫
Step-Video-T2V 300B 540P/8秒 动态控制、复杂动作生成 动画、特效
Open-Sora 2.0 11B 720P/24 FPS 低成本、高性能 影视预演、教育
SkyReels-V1 13B 544P/80秒推理 微表情与动作组合 AI短剧、电影特效
LTX Video - 768×512/24 FPS 实时生成、高压缩比 广告、游戏
CogVideoX - 720×480/6秒 低显存需求、长视频生成 教育、影视预演

关键趋势

  1. 技术突破:主流模型普遍采用DiT架构和3D VAE,显著提升时空建模能力。
  2. 开源生态:阿里、腾讯、阶跃星辰等企业推动模型开源,加速技术普及。
  3. 应用扩展:从短视频生成向影视、教育、游戏等专业场景延伸。

这些模型的开源降低了AI视频生成门槛,推动了多领域创新,未来将进一步缩小与闭源模型的差距。

相关推荐
站在巨人肩膀上的码农8 小时前
全志T507 音频ALSA核心层注册流程分析
驱动开发·音视频·安卓·全志·alsa·声卡
】余1853816280018 小时前
碰一碰发视频源码搭建与定制化开发:支持OEM
音视频
张晓~1833994812119 小时前
数字人分身+矩阵系统聚合+碰一碰发视频: 源码搭建-支持OEM
线性代数·矩阵·音视频
山登绝顶我为峰 3(^v^)321 小时前
如何录制带备注的演示文稿(LaTex Beamer + Pympress)
c++·线性代数·算法·计算机·密码学·音视频·latex
却道天凉_好个秋1 天前
音视频学习(三十六):websocket协议总结
websocket·音视频
【余185381628001 天前
碰一碰发视频源码搭建定制化开发:支持OEM
音视频
EQ-雪梨蛋花汤1 天前
【Part 3 Unity VR眼镜端播放器开发与优化】第四节|高分辨率VR全景视频播放性能优化
unity·音视频·vr
菜包eo1 天前
基于二维码的视频合集高效管理与分发技术
音视频
文浩(楠搏万)1 天前
用OBS Studio录制WAV音频,玩转语音克隆和文本转语音!
大模型·音视频·tts·wav·obs·声音克隆·语音录制
aqi002 天前
FFmpeg开发笔记(七十二)Linux给FFmpeg集成MPEG-5视频编解码器EVC
android·ffmpeg·音视频·流媒体