谷歌自研AI大模型Gemini 2.0介绍以及API调用方法

背景介绍

去年12月谷歌发布了Gemini 2.0 Flash的预览版本,正式开启了AI代理称霸的时代。Gemini 2.0 Flash是一款专为开发者打造的高效模型,具备低延迟和高性能。今年年初谷歌在其Google AI Studio中又更新了2.0 Flash Thinking Experimental版本,结合了Flash的高速响应能力和更复杂问题的推理能力,从而提升了模型性能。

谷歌最近又进一步更新了2.0 Flash,使其面向所有Gemini应用用户开放,无论是在桌面端还是移动端,用户都可以探索更多使用Gemini进行创作、交互和协作的新方式。在正式发布了更新的Gemini 2.0 Flash后,用户可通过Gemini API在Google AI Studio和Vertex AI上访问该模型,开发者现在可以使用2.0 Flash构建生产级应用。

此外谷歌还推出了Gemini 2.0 Pro的实验版本,这是目前谷歌在代码性能和复杂提示处理方面表现最优的模型。该模型现已在Google AI Studio和Vertex AI上提供,并可供Gemini应用中的Gemini Advanced用户使用。此外谷歌还发布了一款新模型------Gemini 2.0 Flash-Lite,这是一款极具成本效益的模型,目前已在Google AI Studio和Vertex AI上公测。最后2.0 Flash Thinking Experimental版本将在桌面和移动端的Gemini应用中,通过模型下拉菜单提供给用户。

所有这些模型在发布时均支持多模态输入,并生成文本输出,未来几个月内将逐步支持更多模态。有关具体的定价信息,可在Google for Developers博客中查看。展望未来,我们正在为Gemini 2.0系列模型开发更多更新和增强功能。

2.0 Flash:正式发布+最新更新

在谷歌的I/O 2024大会上首次发布的Flash系列模型,因其强大的计算能力而深受开发者欢迎。这些模型特别适用于大规模、高频的任务,同时具备强大的多模态推理能力,可处理海量信息,并支持高达100万token的上下文窗口。目前来看开发者社区对该模型的反馈十分积极。

现在2.0 Flash已正式面向更多用户开放,并在关键AI模型基准测试中取得了更好的表现。此外图像生成和文本转语音(text-to-speech)功能也将在未来推出。目前大家可以在Gemini应用或通过Google AI Studio和Vertex AI的Gemini API体验Gemini 2.0 Flash。有关定价详情如下图。

2.0 Pro Experimental模型:当前最佳的代码生成与复杂任务处理模型

谷歌过去一直在向开发者提供Gemini 2.0的早期实验预览版本,例如Gemini-Exp-1206,并收到了许多有关模型的强势之处和最佳应用场景(如编程任务)的反馈。因此谷歌正式发布Gemini 2.0 Pro的实验版本以回应这些反馈。该模型在代码性能和复杂任务处理方面表现为当前最佳,相较于谷歌以往发布的任何模型,它具备更强的世界知识理解和推理能力。此外它拥有目前最大的上下文窗口(200万token),能够深入分析和理解海量信息,并具备调用Google Search和代码执行等多工具的能力。

以下表格对比了不同版本的Gemini,包括1.5 Flash、1.5 Pro、2.0 Flash-Lite、2.0 Flash和2.0 Pro在多个AI基准测试中的表现。这些测试涵盖了通用知识、代码生成、推理、事实性、多语言理解、数学能力、长上下文理解、图像理解、音频翻译和视频分析等任务场景。

Gemini 2.0 Pro现已作为实验版本向Google AI Studio和Vertex AI的开发者开放,并可在桌面和移动端的Gemini应用的模型下拉菜单中供Gemini付费用户使用。

2.0 Flash-Lite:最具成本效益的模型

1.5 Flash在价格和速度上的表现已经受到了用户的广泛好评。谷歌希望在保持成本和速度的同时进一步提高模型质量。因此他们推出了2.0 Flash-Lite版本,这款新模型在大多数基准测试中都优于1.5 Flash,同时保持相同的速度和成本。与2.0 Flash一样,Flash-Lite也支持100万token的上下文窗口和多模态输入。例如该模型可以为约4万张独特照片生成相关的一行标题,并且在Google AI Studio的付费版本下,总共成本加起来不到一美元。Gemini 2.0 Flash-Lite目前已在Google AI Studio和Vertex AI上公测。

构建安全和付责任的AI

随着Gemini模型家族能力的不断增强,谷歌正继续投资于强大的AI安全监管措施,以确保模型被安全和可控地使用。例如Gemini 2.0系列模型采用了新的强化学习技术,利用Gemini模型自己对模型的回答输出进行批判性评估。这种方式使得模型能够提供更准确的回复内容,并提高其处理敏感提示的能力。

此外谷歌还利用自动化红队测试(Automated Red Teaming)来评估安全风险,比如常见的间接提示注入(Indirect Prompt Injection)等攻击风险。这种攻击类型涉及攻击者在数据中以不被察觉的方式添加隐藏的恶意指令,而这些恶意指令很可能被AI系统检索并执行导致安全风险、数据泄露。

如何通过API形式以Python调用Gemini 2.0?

python 复制代码
import requests

# 替换为实际的 Gemini 2.0 API 端点
api_url = "https://api.google.com/gemini/v2.0/generate"

# 替换为你自己的访问令牌或 API key
access_token = "YOUR_GEMINI_2_ACCESS_TOKEN"

headers = {
    "Authorization": f"Bearer {access_token}",
    "Content-Type": "application/json"
}

# 定义请求负载(根据实际 API 文档修改参数)
payload = {
    "prompt": "请生成一段关于人工智能未来发展的描述。",
    "max_tokens": 200,
    "temperature": 0.7
}

response = requests.post(api_url, headers=headers, json=payload)

if response.status_code == 200:
    result = response.json()
    print("Gemini 2.0 返回结果:", result)
else:
    print("请求失败,状态码:", response.status_code)
    print("错误信息:", response.text)

结语

Gemini 2.0系列的发布标志着谷歌的AI模型在高效、低成本、多模态推理方面的又一进步。无论是用于大规模推理任务的2.0 Flash,还是为复杂编程和高上下文任务优化的2.0 Pro,亦或是成本效益极高的2.0 Flash-Lite,开发者现在可以在Google AI Studio和Vertex AI上构建更加智能的应用。未来几个月,我们将继续改进Gemini 2.0家族的能力,并进一步扩展其多模态功能,敬请期待。

相关推荐
waicsdn_haha2 分钟前
DBeaver 25.0 社区版安装与数据库连接配置指南(Windows平台)
数据库·人工智能·mysql·postgresql·sqlite·知识图谱·dbeaver
国家级退堂鼓1 小时前
YOLOv8改进SPFF-LSKA大核可分离核注意力机制
人工智能·python·深度学习·yolo·目标检测·yolov8
静心问道2 小时前
ubuntu24.04 经常更新内核,导致GPU不能用,如何锁定内核版本
人工智能
不确定性确定你我2 小时前
Checkpoint 模型与Stable Diffusion XL(SDXL)模型的区别
人工智能·stable diffusion
调皮的芋头3 小时前
【电影洗钱核心手段与产业链重构】
人工智能
调皮的芋头3 小时前
【消费主义与性别角色重构】
人工智能
邹霍梁@开源软件GoodERP3 小时前
【AI+智造】人工智能的前世今生:从图灵测试到DeepSeek革命——如何用技术重构效率边界
人工智能·物联网·制造
Pro_er3 小时前
Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
ai
Toady 元气满满4 小时前
下载魔塔社区模型文件
人工智能·git·ai