Google发布了三款新的、"开放的"人工智能生成模型,并称这些模型比大多数模型"更安全"、"更小巧"、"更透明"。它们是Google Gemma 2生成模型系列的新成员,该系列于今年 5 月首次亮相。这些新模型包括 Gemma 2 2B、ShieldGemma 和 Gemma Scope,它们针对的应用和用例略有不同,但共同着眼点都是安全。
Google的 Gemma 系列模型与 Gemini 模型不同,Google不提供 Gemini 的源代码,Gemini 的源代码用于Google自己的产品,同时也提供给开发者。相反,Gemma 是Google为促进开发者社区的善意而做出的努力,就像Meta 试图通过 Llama 所做的那样。
Gemma 2 2B 是一个用于生成分析文本的轻量级模型,可在包括笔记本电脑和边缘设备在内的各种硬件上运行。它获得了某些研究和商业应用的授权,可以从Google的顶点人工智能模型库、数据科学平台 Kaggle 和Google的人工智能工作室工具包等渠道下载。
至于 ShieldGemma,它是一个"安全分类器"集合,试图检测仇恨言论、骚扰和色情内容等毒性。ShieldGemma 建立在 Gemma 2 的基础上,可用于过滤生成模型的提示以及模型生成的内容。
最后,Gemma Scope 允许开发人员"放大"Gemma 2 模型中的特定点,使其内部运作更易于解释。以下是Google在一篇博文中的描述:"[Gemma Scope 由]专门的神经网络组成,帮助我们解读 Gemma 2 处理的密集、复杂的信息,将其扩展为更易于分析和理解的形式。通过研究这些扩展视图,研究人员可以对 Gemma 2 如何识别模式、处理信息并最终做出预测获得有价值的见解"。
新的 Gemma 2 模型发布不久前,美国商务部在一份初步报告中认可了开放式人工智能模型。报告称,开放模型扩大了生成式人工智能对小公司、研究人员、非营利组织和个人开发者的可用性,同时也强调了监控此类模型潜在风险的能力需求。