OpenAI 还在卷跑分,谷歌已经打穿应用层了。
北京时间周四零点,Google 发布了高速、低成本模型 Gemini 3 Flash,作为其今年大模型领域的收官之作。
该模型基于上个月发布的 Gemini 3,明显带有抢 OpenAI 风头的意味。与此同时,Google 还将 Gemini 3 Flash 设为 Gemini 应用和搜索 AI 模式中的默认模型。
这款新的 Flash 模型距离 Google 发布 Gemini 2.5 Flash 仅过去六个月,但在性能上实现了显著跃升。基准测试显示,Gemini 3 Flash 相比前代模型有大幅提升,并在部分指标上达到了 Gemini 3 Pro 和 GPT-5.2 等前沿模型的水平。
在智能 / 成本上,它成为了全球性价比最高的模型。

例如,在 Humanity's Last Exam 基准测试中(该测试旨在评估模型在不同专业领域的综合能力),在不使用工具的情况下,Gemini 3 Flash 取得了 33.7% 的成绩。作为对比,Gemini 3 Pro 的得分为 37.5%,Gemini 2.5 Flash 为 11%,而新发布的 GPT-5.2 则为 34.5%。
与此同时,谷歌也将这款新模型在全球范围内向数以百万计的用户开放,覆盖以下渠道:
-
开发者:通过 Google AI Studio 中的 Gemini API、Gemini CLI,以及全新的智能体开发平台 Google Antigravity
-
所有用户:通过 Gemini 应用,以及搜索中的 AI 模式(AI Mode in Search)
-
企业用户:通过 Vertex AI 和 Gemini Enterprise
Gemini 3 Flash 发布后,大家第一时间进行了使用测试,发现这个 AI 回答问题的响应速度基本都在 1 秒以内,的确是跟搜索引擎一样快。而且它在回答问题的时候相比以前更加详细,知识的覆盖面、准确性也很高,看起来像是默认联网的。
网友们猜测,Gemini 3 Flash 可以被谷歌用来代替搜索引擎,或是逐渐移植到移动端侧。不论如何,新模型都预示着 AI 模型的新时代正在到来。
Gemini 3 Flash:规模化的前沿智能
Gemini 3 Flash 证明了,速度与规模并不必然以牺牲智能为代价。在多项博士级推理与知识基准测试中,例如 GPQA Diamond(90.4%) 和 Humanity's Last Exam(在不使用工具的情况下为 33.7%),Gemini 3 Flash 均展现出前沿级性能,可与更大规模的前沿模型相媲美,并在多项基准测试中显著超越了此前最强的 2.5 代模型 ------Gemini 2.5 Pro。
同时,在多模态推理基准 MMMU Pro 上,Gemini 3 Flash 以 81.2% 的高分达到了当前最先进水平,其表现与 Gemini 3 Pro 不相上下。

从基准测试上可以看到,Gemini 3 Flash 性能强大,在各方面都超越了 Gemini 2.5 Pro,甚至在 ARC-AGI-2 和 SWE-Bench Verified 测试中胜过了 Gemini 3 Pro。
现在,精简后的模型(体积缩小 3-4 倍)已经超越了 6 个月前的「前沿」模型。
除了具备前沿级的推理能力和多模态能力之外,Gemini 3 Flash 在设计之初就以极高的效率为目标,进一步推动了质量与成本、速度之间的帕累托前沿。
在最高思考等级下运行时,Gemini 3 Flash 能够动态调节自身的思考深度:面对更复杂的使用场景,它会投入更长时间进行推理;而在处理日常任务时,则能以更高性能完成目标,同时在典型业务流量下,平均使用的 token 数量比 Gemini 2.5 Pro 减少约 30%。
这使得 Gemini 3 Flash 能够在保证准确性的同时,以更低的成本和更高的效率完成日常任务。

Jeff Dean 表示:「我们再次突破了效率与智能之间的帕累托边界。」
Gemini 3 Flash 的核心优势在于其极致的原生速度,延续并强化了开发者和消费者早已青睐的 Flash 系列特性。根据 Artificial Analysis 的基准测试结果,Gemini 3 Flash 在性能上超越 Gemini 2.5 Pro 的同时,速度提升达到 3 倍,而成本仅为其一小部分。
在定价方面,Gemini 3 Flash 的费用为:
-
输入:每 100 万 token 收费 0.50 美元
-
输出:每 100 万 token 收费 3 美元
-
音频输入:仍为每 100 万 token 收费 1 美元
Gemini 3 Flash 在速度和效率上均显著优于 Gemini 2.5 Pro。在上一代模型尚未完成处理之前,Gemini 3 Flash 已经生成了复杂图形、3D 模型以及一个 Web 应用。
面向开发者:始终跟得上节奏的智能
Gemini 3 Flash 专为高频迭代开发而打造,在保持低延迟的同时,提供 Gemini 3 Pro 级别的代码能力,能够在高并发、快节奏的工作流中迅速进行推理并解决问题。
在用于评估代码智能体能力的基准测试 SWE-bench Verified 上,Gemini 3 Flash 取得了 78% 的成绩,不仅超越了 2.5 系列模型,也优于 Gemini 3 Pro。
这使 Gemini 3 Flash 在智能体编程(agentic coding)、生产级系统以及高响应性的交互式应用场景中,实现了性能、速度与成本之间的理想平衡。
Gemini 3 Flash 在推理能力、工具使用以及多模态能力方面的强劲表现,使其非常适合希望开展更复杂的视频分析、数据抽取和视觉问答(Visual Q&A) 的开发者。这也意味着,它能够支撑更具智能水平的应用场景 ------ 例如游戏内助手或 A/B 测试实验,在这些场景中,既需要快速响应,又要求深度推理能力。

Gemini 3 Flash 在一款手势追踪的投球解谜游戏中实现了多模态推理,提供了近乎实时的 AI 辅助。

Gemini 3 Flash 能够近乎实时地构建和进行 A/B 测试新的加载指示器设计,从而简化了从设计到编码的流程。
采用 Gemini 3 Flash 的企业反馈非常积极。包括 JetBrains、Bridgewater Associates 和 Figma 在内的多家公司,已经开始使用该模型推动业务转型,并认可其在推理速度、效率以及推理能力方面的表现,能够与更大规模的模型相媲美。
目前,Gemini 3 Flash 已通过 Vertex AI 和 Gemini Enterprise 正式向企业客户开放。
Cursor 开发者体验副总裁表示,他们的工程师发现,Gemini 3 Flash 与 Cursor 的 Debug Mode 配合使用效果非常出色。该模型在问题排查和定位 Bug 根本原因方面表现出速度快、准确性高的优势。

面向所有人:Gemini 3 Flash 全球上线
Gemini 3 Flash 现已成为 Gemini 应用的默认模型,取代了 2.5 Flash。这意味着全球 Gemini 用户都已能免费体验 Gemini 3,从而大幅提升日常任务的处理效率。
凭借 Gemini 3 Flash 卓越的多模态推理能力,你可以利用它更快地查看、聆听和理解各种类型的信息。例如,你可以让 Gemini 理解视频和图像,并在短短几秒钟内将这些内容转化为实用且可行的计划。
或者,你无需任何编程知识,即可使用语音快速从零开始构建实用的应用程序。只需随时随地向 Gemini 发出语音指令,它就能在几分钟内将人们零散的想法转化为功能完善的应用程序。
使用 Gemini 3 Flash 描述一个想法,并在几分钟内将其转化为可行的原型。
Gemini 3 Flash 也正在逐步推广,谷歌希望它能成为全球用户使用的搜索功能中 AI 模式的默认模型。
基于 Gemini 3 Pro 的推理能力,搭载 Gemini 3 Flash 的 AI 模式能够更有效地理解你问题的细微之处。它会考虑查询的各个方面,提供全面的回复,以易于理解的方式呈现 ------ 从网络上提取实时本地信息和有用的链接。最终结果有效地将研究与实际行动相结合:生成条理清晰的分析以及具体的建议。最后,一切都以搜索的速度完成。
在处理需要考虑多个因素的复杂目标时,例如计划一次说走就走的旅行,或快速学习复杂的教育概念,这项功能尤其出色。
谷歌表示,Gemini 3 Flash 现已通过 Google AI Studio、Google Antigravity、Vertex AI 和 Gemini Enterprise 中的 Gemini API 提供预览版。你还可以通过其他开发者工具(例如 Gemini CLI 和 Android Studio)访问新模型。此外,它也已开始在 Gemini 应用和搜索的 AI 模式中面向所有用户推出。