快速摘要(核心结论)
🔥 本文关键信息: 谷歌全新视频生成模型 Gemini Omni 于 2026 年 5 月 11 日意外提前曝光------一句话提示词即可生成数学公式书写正确、笔迹流畅自然的教授讲课视频;支持对话式实时编辑、一键去水印、物体替换;视频分辨率 1280×720、时长 10 秒;与此同时,OpenAI Sora 已于 4 月 26 日正式停服,AI 视频赛道格局正在剧烈重洗。往下看有更详细的技术拆解与操作说明。
一、一次"意外"曝光,点燃了整个 AI 圈
2026 年 5 月 11 日这一天,一张截图在 AI 圈以极快的速度扩散开来。
截图来自谷歌 Gemini 移动端 App,视频生成标签页下赫然出现了一行从未有人见过的文字:"Start with an idea or try a template. Powered by Omni."(用一个想法或模板开始创作,由 Omni 提供支持。)
紧随其后,另一张截图也随之流出,App 首页上写着:"Meet our new video generation model. Remix your videos, edit directly in chat, try a template, and more."------"认识我们全新的视频生成模型,重新混剪你的视频,直接在对话中编辑,尝试模板。"
这个新模型的名字,叫做 Gemini Omni。
两张截图,外加几个提前拿到内测资格的用户放出的 Demo 视频,直接让国内外 AI 社区陷入沸腾。有人感叹"视频版 Nano Banana 来了",有人惊呼"眼见为实已经不存在了",还有人认真地坐下来,把 Omni 的输出帧一帧地拆开分析。
这次曝光的时间点颇为微妙------距谷歌 I/O 2026 开发者大会(定于 5 月 19 日至 20 日举办)仅剩不到两周。AI 圈对此普遍有个判断:这很可能是一次有意为之的"提前预热",或者至少是一次内部 A/B 测试被外界捕获的结果。
二、Gemini Omni 是什么?它和 Veo 有何不同
要搞清楚 Gemini Omni,先得了解谷歌目前的视频生成体系。
谷歌目前在视频生成领域的主力产品是 Veo 系列 ,当前最新版本为 Veo 3.1。Veo 以其出色的画面逼真度和 4K 级输出能力著称,并具备原生音频生成能力。与此同时,谷歌的图像生成走的是 Nano Banana 系列(Nano Banana 2 基于 Gemini 3.1 Flash Image,Nano Banana Pro 基于 Gemini 3),两条线分开运作,架构上各自独立。
Gemini Omni 的出现,很可能意味着谷歌在试图打破这种"分而治之"的局面。
根据泄露信息综合分析,目前业内对 Gemini Omni 有三种解读:
- 品牌整合说:Omni 只是一个新的产品名,底层依然是 Veo 3.x 或者即将推出的 Veo 4,属于界面层面的改版,类似于 Nano Banana 坐在 Gemini 3 Flash Image 上对外展示。
- 全新独立模型说:谷歌在 Gemini 框架下训练了一个全新的视频生成模型,和 Veo 并列存在,具备不同的架构和能力侧重,尤其在对话式编辑和提示词理解上更强。
- 真正的全模态统一说:这是最激进的猜测,也是"Omni"这个命名最直白的指向------一个能够同时处理文本输入、图像输入、视频输入,并能同时输出文本、图像、视频、音频的统一架构模型。如果这一判断成立,那 Gemini 将成为第一个拥有原生视频输出能力的顶级全模态模型,意义将远超一次简单的产品迭代。
从泄露出来的模型 ID 来看:
fbard_eac_video_generation_omni
/bard/v3smm-lora-prod.goat-cr-rev6-xm171555416-at-1200
路径中出现了 bard(谷歌早期 AI 助手的内部代号)和 lora(Low-Rank Adaptation,一种高效微调技术),同时视频参数显示支持 10 秒时长、1280×720 分辨率输出。这些信息暗示 Omni 并非从零构建,更可能是在 Veo 现有底座之上进行了深度的多模态融合改造。
三、让全网破防的那个 Demo:教授黑板推公式
如果说泄露截图只是点燃了话题,那么几个 Demo 视频才是真正让行业内外所有人坐直了身体的东西。
其中最令人震撼的,是一段"教授在黑板上推导三角恒等式"的视频。
用于生成这段视频的提示词非常朴素,只有一句话的英文:
A professor writes out a mathematical proof for trigonometric identities
on a traditional chalkboard, explaining the step he is currently on
in the equation.
(译:一位教授在传统黑板上书写三角恒等式的数学证明,并用口语同步讲解当前正在推导的步骤。)
视频中,教授手持粉笔在黑板上从左至右、一步一步地写下完整的数学推导过程,同时口述当前步骤的逻辑。整个画面中------数学公式是正确的,推导逻辑是连贯的,笔迹是自然的。
这件事,放在 AI 视频生成领域,是一个真正意义上的里程碑事件。
为什么"把字写对"这么难?
AI 视频生成模型长期以来有一个公认的"阿喀琉斯之踵":文本一致性。
这个问题的根源在于,主流视频生成模型的底层架构是扩散模型(Diffusion Model)或其变体。这类模型擅长捕捉图像的分布特征,但对于"文字"这种高度结构化、语义密集、局部精确的信息,它的处理方式本质上仍然是"视觉纹理生成"而非"语义理解生成"。
换句话说,模型看到的"A",并不是它"理解"了字母 A,而是在大量训练数据中学会了"这个形状的像素分布长什么样"。当文字嵌入复杂的动态场景中,尤其是涉及多字符、多行、手写体的情况下,纹理层面的拟合就很容易出错------字体变形、笔画断裂、顺序错乱、甚至"鬼画符"。
而数学公式更是重灾区:不仅要求每一个字符正确,还要求上下标、分数线、希腊字母等符号系统整体自洽,同时还要在时间维度上保持逐步书写的连贯性。
Sora 此前生成的带文字视频,一旦放大来看,基本上都是"看着像字但实际上不是字"的状态。早期 Sora 生成视频中那个经典的 Will Smith 吃意大利面的片段,之所以被拿出来反复讨论,正是因为它直观展示了 AI 视频在细节处理上的荒诞感。
Gemini Omni 的这段 Demo,意味着谷歌在某种程度上找到了突破文本一致性瓶颈的方法。这背后的技术路线,目前推测有以下几种可能:
- 在视频生成过程中引入了更强的语言模型对齐机制,让文字区域的生成受到明确的语义约束,而不仅仅是视觉纹理的拟合;
- 通过多模态训练数据(包括大量带有正确数学公式的图文视频素材),让模型在"数学符号书写"这一子任务上具备更强的先验知识;
- 利用 Gemini 系列本身的长上下文推理能力,在生成每一帧时都能校验前后帧的内容一致性,避免字符漂移。
当然,也有早期测试者指出,Omni 的输出并非毫无瑕疵------在某些特定镜头中,仍然可以观察到一些"可疑的 AI 痕迹"。但这一切并不影响业界对这次 Demo 的整体评价:AI 视频生成已经正式跨越了"恐怖谷"的门槛。
四、真正的"杀手锏":对话式实时编辑
除了文生视频的生成能力之外,Gemini Omni 泄露出来的另一个重要能力,是基于对话的实时视频编辑------而这,才可能是它真正改变创作者工作流的地方。
一键去水印
在泄露的演示中,用户将一段带有 Sora 水印的视频上传至 Gemini 对话框,然后用一句话告诉模型"去掉水印",Omni 就能在几乎毫无破绽的情况下完成这项操作------背景的纹理、光影的变化,全部自然延伸,没有常见的"修复痕迹"。
有评论者指出,单是这一项能力,就足以让 Gemini Omni 成为视频创作者的"游戏规则改变者"。
自然语言物体替换
另一个演示同样令人印象深刻:原始视频中的主体是意大利面,用户只需说一句"把意大利面换成奶油浓汤",Omni 便能完成替换,并且自动适配替换物体所需的光影关系、遮挡层次,以及与周围场景的融合------这不是简单的抠图或滤镜,而是对整个场景语义的重新理解和局部生成。
风格化输出
泄露的测试内容中还出现了一段动漫风格的视频,带有蓝色火焰特效和流畅的打斗动作线条。整体画面质感接近专业动画师的手绘效果,而非常见 AI 动漫滤镜那种机械感十足的处理结果。
实时编辑的技术逻辑
这种"对话即编辑"的设计模式,本质上是将视频生成与大语言模型的指令理解能力深度结合。用户无需进入专业剪辑软件、无需使用时间轴、无需了解任何特效参数,只需要用自然语言描述意图,模型就能定位到需要修改的视频区段,重新生成受影响的帧序列,并与未修改的部分无缝衔接。
这在技术上要求模型同时具备:
- 强大的视频语义理解能力(知道哪里是水印、哪个物体需要替换);
- 精细的局部重绘能力(只改目标区域,不动其他帧);
- 跨帧的时序一致性保持能力(确保替换后的内容在动态画面中不出现抖动或不一致)。
这三项能力的综合,才是实时编辑功能背后真正的技术壁垒。
五、Sora 的谢幕:一堂价值 55 亿美元的课
Gemini Omni 曝光的这一天,距 OpenAI Sora App 正式停服(2026 年 4 月 26 日)刚好过去两周。这个时间节点,无论是否刻意安排,都构成了一种强烈的叙事对照。
Sora 的故事是一部典型的商业悲剧,而且数据说话,没有任何值得辩驳的余地。
根据 TechCrunch、Forbes、WSJ 等多家媒体的调查报道,Sora 的运营经济账大致如下:
|-----------------------|---------------|
| 指标 | 数值 |
| 峰值每日推理成本(据 Forbes 估算) | 约 1500 万美元 |
| 整个生命周期内应用内收入总计 | 约 210 万美元 |
| 峰值月活用户(2025 年 11 月) | 约 330 万次下载 |
| 停服前活跃用户 | 不足 50 万 |
| 30 天用户留存率 | 低于 8% |
| Disney 合作金额(实际到账) | 0 元(合作随停服而终止) |
这组数字放在一起,本身就是一篇最好的商业案例教材:视频生成每 10 秒大约需要 1.3 美元左右的算力成本,当百万用户每天生成多个视频时,日耗算力轻松突破千万美元量级,而消费端的订阅与购买收入远远无法覆盖这一缺口。
Sora 自身的 Bill Peebles 在社交媒体上罕见地坦承:"这个经济模型完全不可持续。"
OpenAI CEO 奥特曼最终拍板:关停 Sora,释放算力,把资源集中到能产生可预期收入的企业级产品线上------彼时,Claude Code 正以惊人的速度侵蚀 OpenAI 在企业开发者群体中的市场份额。
2026 年 3 月 24 日,Sora 官方账号在 X 上发出那句简短的告别:"We're saying goodbye to the Sora app."
API 将于 2026 年 9 月 24 日彻底关闭。一个曾经被认为定义了 AI 视频未来的产品,就这样走完了它戏剧性的一生。
六、谷歌的底气:为什么它更有机会做成这件事
OpenAI 在视频赛道上的失败,并不意味着 AI 视频本身是个伪命题。恰恰相反------它说明的是,在算力成本没有出现数量级下降之前,这件事需要有特定战略优势的公司来做。
而谷歌,恰好具备几项 OpenAI 没有的结构性优势:
第一,数据优势。 谷歌旗下的 YouTube 是全球最大的视频平台,每分钟有超过 500 小时的视频内容上传。这意味着谷歌在视频训练数据的获取上拥有合法且近乎无限的先天优势------而 OpenAI 在训练 Sora 时,一直深陷版权数据来源的法律争议。
第二,算力自持能力。 谷歌是 TPU(张量处理器)的设计者,其自研 AI 加速芯片的成本结构与 Nvidia GPU 购买模式存在本质差异。谷歌 Cloud 的整体算力规模也远非 OpenAI 可比拟。
第三,产品生态协同。 Gemini 深度整合于 Google 系产品------Android、Workspace、Google Meet、YouTube------这意味着视频生成能力一旦就绪,它有足够多的落地场景和分发渠道,不需要单独建立一个消费级 App 来证明自己的价值。
第四,Veo 系列的积累。 Veo 3.1 目前已经被业界评为逼真度最强的视频生成模型之一,具备 4K 级输出和原生音频生成能力。Omni 不是从零开始,而是在已有坚实底座的基础上进行架构层面的升级。
七、从"考证"看 AI 视频的技术脉络
说到这里,忍不住分享一段个人经历。
今年在黑龙江节点云计算科技公司参加人工智能训练师考核的时候,有一道很有意思的考题,大意是:请说明当前主流 AI 视频生成模型在文本渲染上存在困难的根本原因,并举例说明。
当时的标准答案指向的正是"扩散模型在文本区域的像素分布拟合存在结构性局限"。答题的时候,我在备注栏里多写了一条:从实际产品效果来看,这个问题在模型层面一直没有得到根本性解决,Sora 的输出就是典型案例。
结果阅卷老师在旁边画了个圈,写了"观察细致"------没想到几个月后,Gemini Omni 的这个 Demo,居然成了对这道考题最直接的现实回应。这类考试的意义,不在于死记硬背知识点,而在于它迫使你在宏观层面建立起对 AI 技术演进脉络的系统认知。当你看到一个新模型的新能力时,你会本能地去思考:它突破的是哪个技术瓶颈?底层逻辑是什么?这才是实际工作中真正有用的东西。
八、当前 AI 视频生成竞争格局
Gemini Omni 的出现,是在一个已经相当拥挤的赛道上加入竞争。2026 年中,AI 视频生成的主要竞争者格局如下:
|----------------------|-----------|-------------------------|----------|
| 模型/产品 | 所属公司 | 主要优势 | 当前状态 |
| Veo 3.1 | 谷歌 | 逼真度高,原生音频,4K | 已上线 |
| Gemini Omni | 谷歌 | 对话式编辑,文本一致性强 | 泄露/即将发布 |
| Seedance 2.0 | 字节跳动 | 多镜头叙事一致性,公开评测第一 | 已上线 |
| Kling 3.0 / Kling AI | 快手 | 成本效益比高 | 已上线 |
| Wan 2.7 | 阿里巴巴 | 文生视频/图生视频/视频编辑多合一,1080p | 已上线 |
| Gen-4.5 | Runway | 专业级电影级输出 | 已上线 |
| Pika 2.5 | Pika Labs | 短视频社交内容优先,速度快 | 已上线 |
从上面的格局来看,Gemini Omni 如果正式发布并达到 Demo 中展示的水准,其最大的差异化竞争点不在于"生成质量绝对领先",而在于"对话式编辑体验"------把生成和编辑合并在同一个对话窗口内完成,而不需要在多个工具之间反复切换。
这种体验设计,对于没有专业视频后期能力的内容创作者来说,意味着一条全新的工作路径。
九、Gemini Omni 的使用逻辑与实操思路
虽然 Gemini Omni 尚未正式对公众开放,但根据泄露信息和早期测试者的反馈,已经可以梳理出一套基本的使用逻辑,供大家提前熟悉。
文生视频:提示词的写法决定输出质量
从"教授黑板"这个 Demo 可以看出,Omni 对提示词的理解能力相当出色。但这并不意味着可以随意偷懒------一个高质量的提示词,通常需要包含以下几个维度的信息:
- 主体描述:谁在做什么?(教授在写公式 → 具体到"三角恒等式证明")
- 场景环境:在哪里?什么背景?(传统黑板,粉笔)
- 动作细节:动作是否有步骤性?是否有口语讲解?(一边书写一边解释当前步骤)
- 画面风格(可选):写实 / 动漫 / 电影感 / 纪录片风格
- 特殊要求(可选):特定摄像机角度、光线条件等
以下是一些参考提示词结构示例:
# 基础结构示例(文生视频)
[人物/主体] + [正在做什么动作] + [在什么场景中] + [其他辅助信息]
# 教授推公式(已验证有效)
A professor writes out a mathematical proof for trigonometric identities
on a traditional chalkboard, explaining the step he is currently on
in the equation.
# 进一步扩展(加入风格和摄像机视角)
A professor writes out a mathematical proof for trigonometric identities
on a traditional chalkboard, explaining the step he is currently on in the
equation. Shot in a documentary style with warm classroom lighting,
close-up on the chalkboard, handheld camera movement.
视频编辑:用自然语言描述你的修改意图
对话式编辑的使用方式相对直接:将原始视频上传到 Gemini 对话框,然后用一句简洁、清晰的指令描述你想要的修改,例如:
# 去水印
请去除这段视频中的水印
# 物体替换
把视频中桌上的意大利面换成奶油蘑菇浓汤
# 风格转换
将这段视频转换为日系动漫风格,保留原来的动作和场景构图
# 背景替换
保留前景人物,将背景替换为夜晚东京街头的霓虹灯场景
需要注意的是,早期测试显示 Gemini Omni 的配额消耗速度相当快------据报告,仅生成两个视频提示就耗掉了 AI Pro 套餐 86% 的日配额。谷歌在 Omni 正式上线时,极有可能会引入类似"积分制"或"按量计费"的用量管理机制。
关于内容合规的注意事项
需要特别提醒的是,去水印、物体替换等功能虽然技术上令人兴奋,但在实际使用中需要严格遵守相关法律法规。对他人版权视频去水印用于商业传播,在中国大陆依据《著作权法》可能构成侵权。建议将此类功能用于:
- 处理自己拍摄或持有版权的视频素材;
- 学习和研究 AI 技术能力的边界;
- 合法授权范围内的内容创作工作。
十、Google I/O 2026 倒计时:更多"弹药"即将亮相
Gemini Omni 只是这次谷歌"提前曝光"事件中的一部分。根据同期泄露的信息,谷歌即将在 I/O 2026 主舞台上发布的内容阵容相当丰富,包括:
- Gemini 3 Flash:新一代效率优先的轻量级模型;
- Gemini 3.1 系列:涵盖 Pro、Flash Image、Lite、TTS(文本转语音)等多个变体;
- Lyria 3 Pro:专注于高保真音乐和音频生成的专业级模型;
- 针对核心模型的 Agent 版本:Gemini Agent,谷歌正在将其定位为用户的"全天候数字伙伴";
- 长期记忆功能:内部代号"Teamfood",让 Gemini 在跨对话场景下具备更长的记忆窗口;
- 视觉模型:内部代号"Spark Robin",定位尚不明确。
从这次泄露的模型矩阵来看,谷歌在 I/O 2026 上的发布密度,可能是近几年中最高的一次。
十一、AI 视频的下一站:全模态时代的到来
如果 Gemini Omni 最终证明自己确实是一个"真正的全模态模型"------同时支持文本、图像、视频的输入与输出------那么这将代表一个具有里程碑意义的架构转变。
目前行业内公认的"全模态参考系"是 GPT-4o,它实现了文本、图像和音频的三模态统一。但原生视频输出,始终是一个尚未被任何顶级模型填满的空白------Sora 是独立系统,Veo 是独立系统,Runway、Kling 也都是独立系统,没有一个是从同一个统一模型架构中直接"长出来"的视频输出能力。
如果 Omni 能做到这一点,它带来的改变不仅仅是"又一个更好的视频生成工具",而是整个内容创作工作流的底层重构:故事板、静帧设计、视频生成、音频配音、场景编辑,统统收进一个对话窗口。
这件事一旦发生,现有的内容生产工具链将面临深刻的重新排列。
小结
Gemini Omni 的意外曝光,恰好发生在 Sora 落幕后不久,这个时机无论是不是谷歌刻意安排的,都构成了一种非常有力的行业信号:AI 视频赛道不会因为 Sora 的退出而降温,相反,它正在以更快的速度向前推进。
从技术角度看,文本一致性的突破、对话式实时编辑的实现,代表了视频生成模型在"感知层"之上向"理解层"迈进的关键一步。从产业角度看,谷歌在数据、算力和产品生态上的结构性优势,使其在这场竞争中处于比外界想象中更有利的位置。
Google I/O 2026 将于 5 月 19 日正式开幕。届时,Gemini Omni 极有可能在主舞台上正式亮相,我们才能真正看清它的全貌。
在那之前,这些泄露出来的 Demo,已经足以让我们重新校准对 AI 视频能力天花板的预期。