AI 视频 | Stable Video Diffusion 来了!(附体验地址)

11 月 21 日,Stability AI 推出了 Stable Video Diffusion,这是 Stability AI 的第一个基于图像模型 Stable Diffusion 的生成式视频基础模型。

目前 Stability AI 已经在 GitHub 上开源了 Stable Video Diffusion 的代码,在 Hugging Face 上也可以找到模型本地运行所需要的 weights。

GitHub

github.com/Stability-A...

Hugging Face

huggingface.co/stabilityai...

目前该视频模型可以很容易地适配下游各种任务,并计划基于此基础模型建立一系列模型,类似于围绕 stable diffusion 建立一个生态系统。

在外部评估中,Stable Video Diffusion 发布的两种图片生视频的模型 SVD 和 SVD-XT,在用户偏好研究中,已经超过了 Runway 和 Pika Labs。

需要注意的是:

1、Stability AI 强调,此模型现阶段还不适用于实际或者商业应用。

2、网页的体验目前还未向所有人开放,可以在这里申请候补(stability.ai/contact)

另外,stable-video-diffusion-img2vid-xt 还有一些局限性,在 Hugging Face 上也说明了,该模型仅用于研究目的。

局限性

1、生成的视频相当短(<=4秒),并且该模型无法实现完美的照片级别的视频。

2、当前模型可能会生成没有运动的视频,或非常缓慢的相机平移的视频。

3、无法通过文本控制模型。

4、模型无法呈现清晰的文本。

5、面孔和人物可能无法正确生成。

6、模型的自编码部分是有损耗的。

如何体验

Hugging Face 上的体验地址:huggingface.co/spaces/mult...

不过上传图片点生成后,提示「This application is too busy」。

后来看到国外一位大佬的分享:colab.research.google.com/github/mksh...

打开链接后,点击「代码执行程序」-「全部运行」就可以了,过程有点慢,感兴趣的小伙伴可以跑一下~

关于 Stable Video Diffusion 更多详细的介绍,可以查看论文:stability.ai/research/st...

参考网址

stability.ai/news/stable...

相关推荐
EdisonZhou16 分钟前
MAF快速入门(11)并行工作流
llm·aigc·agent·.net core
意疏24 分钟前
节点小宝4.0 正式发布:一键直达,重新定义远程控制!
人工智能
一个无名的炼丹师33 分钟前
GraphRAG深度解析:从原理到实战,重塑RAG检索增强生成的未来
人工智能·python·rag
Yan-英杰1 小时前
BoostKit OmniAdaptor 源码深度解析
网络·人工智能·网络协议·tcp/ip·http
用泥种荷花1 小时前
【LangChain学习笔记】Message
人工智能
阿里云大数据AI技术1 小时前
一套底座支撑多场景:高德地图基于 Paimon + StarRocks 轨迹服务实践
人工智能
云擎算力平台omniyq.com1 小时前
CES 2026观察:从“物理AI”愿景看行业算力基础设施演进
人工智能
想用offer打牌1 小时前
一站式了解Spring AI Alibaba的流式输出
java·人工智能·后端
黑符石2 小时前
【论文研读】Madgwick 姿态滤波算法报告总结
人工智能·算法·机器学习·imu·惯性动捕·madgwick·姿态滤波
JQLvopkk2 小时前
智能AI“学习功能”在程序开发部分的逻辑
人工智能·机器学习·计算机视觉