从几秒走向几分钟:长视频生成进入 LongCat 时刻

在短短一年里,AI 视频生成已经从「炫技几秒」进化到「真的能讲故事」。而真正能撑起国内开源长视频创作的一员猛将,也终于登场了------来自美团的 LongCat-Video。

它的能力很好概括:

一句话?给你拍成一段剧情;

一张图?它能让画面自己动起来;

视频断在一半?它立刻替你续拍下去。

LongCat-Video 基于 136 亿参数的视频生成大模型,同时支持文字转视频、图片转视频和视频续写,让创意能够持续往前推进。它不是只会做几秒炫酷短片,而是从训练阶段就融入了长时序逻辑,让光影不飘、角色不丢、剧情不突兀,几分钟的视频也能顺畅连贯。

效率方面也非常能打:720p、30fps 的长视频几分钟即可生成,再配合强化学习不断提升文本对齐、画质与动作一致性,让开源模型也能拥有行业级竞争力。

教程链接:https://go.openbayes.com/rqq43

使用云平台: OpenBayes

http://openbayes.com/console/signup?r=sony_0m6v

首先点击「公共教程」,找到「LongCat-Video:美团开源的AI视频生成模型」,单击打开。

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

在当前页面中看到的算力资源均可以在平台一键选择使用。平台会默认选配好原教程所使用的算力资源、镜像版本,不需要再进行手动选择。点击「继续执行」,等待分配资源。

数据和代码都已经同步完成了。容器状态显示为「运行中」后,点击「 API 地址」,即可进入模型界面。

若显示「Bad Gateway」,这表示代码正在后台执行,请等待约 5-6 分钟后刷新页面。

以下分别是 4 种视频生成方式的使用步骤和效果展示:

1.图像到视频(Image-to-Video)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Resolution:指定生成图像的宽 × 高像素尺寸。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。

2.文本到视频(Text-to-Video)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Height:指定生成图像的高。
  • Width:指定生成图像的宽。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。

3.长视频生成(Long-Video Generation)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Number of Segments:段落数量,数量越大,视频越长。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。

4.视频续写(Video-Continuation)

使用步骤:

参数说明:

  • Negative Prompt:通过输入不希望出现的元素,引导模型避开这些特征,从而提升生成质量。
  • Resolution:指定生成图像的宽 × 高像素尺寸。
  • Seed:控制生成过程的随机性起点。固定 Seed 值可实现结果可复现。
相关推荐
风象南6 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶6 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶6 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考9 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab10 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab10 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸11 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云11 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny86512 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔12 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能