今日凌晨,谷歌DeepMind突然放出Gemma 4系列 开源模型,四颗"钻石"emoji直接把开发者圈炸锅。这次不是小修小补,而是直接把Gemini 3 的核心技术下放到开源领域,目标直指高级推理 和智能体工作流 。相比Gemma 3,Gemma 4在同等参数规模下能力实现大幅跃升,尤其适合本地部署场景。
模型规格:精准覆盖全场景硬件需求
Gemma 4一口气推出四款变体,精准覆盖从手机到工作站的不同硬件需求:
- E2B(约23亿有效参数)------极致轻量化
- E4B(约45亿有效参数)------平衡性能
- 26B A4B(MoE架构,总参数26B,激活约4B)------高效稀疏
- 31B(稠密模型,307亿参数)------高性能主力
上下文窗口 方面,E2B和E4B支持128K token ,26B A4B和31B直接拉到256K,处理长文档或复杂对话时不再捉襟见肘。
多模态能力:端侧真正"看听读写"
全系支持文本+图片 输入,E2B和E4B 额外原生支持音频和视频 (通过帧序列)。这意味着开发者可以在手机或树莓派上直接处理图文音视频混合输入,而不需要额外调用云端服务。
谷歌还为小模型引入**Per-Layer Embeddings(PLE)**技术,进一步压缩内存占用。量化后:
- E2B 在Q4_0精度下只需约3.2GB内存
- E4B 也只要5GB左右
真正做到"塞进手机就能跑"。
性能表现:直逼闭源大模型
根据官方基准,31B模型在以下指标上表现亮眼:
- MMLU Pro:85.2%
- AIME 2026(无工具):88.3%
- LiveCodeBench:80.0%
- Codeforces ELO:2150
- GPQA Diamond:84.3%
这些分数已经能和参数量大20倍的某些闭源模型掰手腕。更重要的是,它在函数调用 、思考模式 和系统提示 支持上做了深度优化,天然适合构建自主Agent。
实际开发价值:商用门槛大幅降低
Gemma 4 的开源属性(Apache 2.0协议)让商用落地门槛大幅降低。在poloapi这样的聚合平台上,开发者还能快速对比Gemma 4与Gemini等云端模型的实际表现,统一接口简化了多模型切换的麻烦。
行业影响:本地AI进入实用阶段
这次发布把"本地AI"从概念推向实用。以前想跑智能体必须依赖云端,现在手机、笔记本甚至边缘设备就能离线完成多步规划、代码生成和多模态处理 。隐私安全、延迟、成本三重优势同时解决。对国内开发者来说,尤其意味着在数据不出域场景下的新选择。
局限与未来展望
当然,模型仍有局限:训练数据带来的偏见、长上下文下的幻觉风险、复杂开放任务的稳定性,都需要开发者在prompt工程和后处理上多下功夫。但整体来看,Gemma 4把开源大模型的"可用性"拉到了新高度。
未来几个月,预计Hugging Face、Ollama、Kaggle上的生态会迅速跟进,量化工具、RAG插件、Agent框架都会围绕它优化。想尝鲜的开发者,现在就可以去Google AI Studio或Hugging Face下载权重直接跑起来。