从几秒走向几分钟:长视频生成进入 LongCat 时刻

在短短一年里,AI 视频生成已经从「炫技几秒」进化到「真的能讲故事」。而真正能撑起国内开源长视频创作的一员猛将,也终于登场了------来自美团的 LongCat-Video。

它的能力很好概括:

一句话?给你拍成一段剧情;

一张图?它能让画面自己动起来;

视频断在一半?它立刻替你续拍下去。

LongCat-Video 基于 136 亿参数的视频生成大模型,同时支持文字转视频、图片转视频和视频续写,让创意能够持续往前推进。它不是只会做几秒炫酷短片,而是从训练阶段就融入了长时序逻辑,让光影不飘、角色不丢、剧情不突兀,几分钟的视频也能顺畅连贯。

效率方面也非常能打:720p、30fps 的长视频几分钟即可生成,再配合强化学习不断提升文本对齐、画质与动作一致性,让开源模型也能拥有行业级竞争力。

教程链接:https://go.openbayes.com/rqq43

使用云平台: OpenBayes

http://openbayes.com/console/signup?r=sony_0m6v

首先点击「公共教程」,找到「LongCat-Video:美团开源的AI视频生成模型」,单击打开。

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

在当前页面中看到的算力资源均可以在平台一键选择使用。平台会默认选配好原教程所使用的算力资源、镜像版本,不需要再进行手动选择。点击「继续执行」,等待分配资源。

数据和代码都已经同步完成了。容器状态显示为「运行中」后,点击「 API 地址」,即可进入模型界面。

若显示「Bad Gateway」,这表示代码正在后台执行,请等待约 5-6 分钟后刷新页面。

以下分别是 4 种视频生成方式的使用步骤和效果展示:

1.图像到视频(Image-to-Video)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Resolution:指定生成图像的宽 × 高像素尺寸。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。

2.文本到视频(Text-to-Video)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Height:指定生成图像的高。
  • Width:指定生成图像的宽。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。

3.长视频生成(Long-Video Generation)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Number of Segments:段落数量,数量越大,视频越长。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。

4.视频续写(Video-Continuation)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Resolution:指定生成图像的宽 × 高像素尺寸。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。
相关推荐
weixin_156241575761 天前
基于YOLO深度学习的动物检测与识别系统
人工智能·深度学习·yolo
水如烟1 天前
孤能子视角:“人+AI“孤能子,跨物种自指闭环?以及医学人机接口BMI
人工智能
IT_陈寒1 天前
Python的asyncio把我整不会了,原来问题出在这儿
前端·人工智能·后端
Database_Cool_1 天前
Tair 短期记忆架构实践:淘宝闪购 AI Agent 的秒级响应记忆系统
人工智能·架构
叶舟1 天前
LYT-NET:一个超级轻量的低光照图像增强Transformer网络
人工智能·深度学习·transformer·llie·低光照图像增强
乾元1 天前
《硅基之盾》番外篇二:算力底座的暗战——智算中心 VXLAN/EVPN 架构下的多租户隔离与防御
网络·人工智能·网络安全·架构
ALL_IN_AI1 天前
本地部署 Ollama 大模型:零成本开启 AI 开发之旅
人工智能
木心术11 天前
设备管理网管系统:详细下一步行动指南
前端·人工智能·opencv
ai产品老杨1 天前
异构计算时代的视频底座:基于 ZLMediaKit 与 Spring Boot 的 X86/ARM 跨平台架构解析
arm开发·spring boot·音视频