详解Gemini API的使用:在国内实现大模型对话与目标检测教程

摘要 :本博客介绍了如何利用Gemini API实现多轮对话和图像目标检测识别功能,在Python中快速搭建自己的大模型完成实际任务。通过详细的步骤解析,介绍了如何申请Gemini API密钥,调用API、对话实现的代码,给出了上传图片识别和检测的示例,并使用OpenCV绘制检测框显示结果。涵盖了从API交互到图像标记的全过程,使用户能够快速实现智能视觉应用,进一步降低了AI技术的使用门槛。

文章目录

  • [1. 前言:简述几个大模型](#1. 前言:简述几个大模型)
  • [2. 申请Gemini API步骤](#2. 申请Gemini API步骤)
  • [3. 使用Python调用Gemini API实现对话与目标检测](#3. 使用Python调用Gemini API实现对话与目标检测)
    • [3.1 调用Gemini API实现简单对话](#3.1 调用Gemini API实现简单对话)
    • [3.2 调用Gemini API实现多轮对话](#3.2 调用Gemini API实现多轮对话)
    • [3.3 调用Gemini API实现目标检测](#3.3 调用Gemini API实现目标检测)

1. 前言:简述几个大模型

今年的人工智能火上了诺贝尔奖,随着生成式预训练模型(GPT)和基于Transformer结构的神经网络模型的发展,AI技术迎来了"神仙打架"的局面。无论是美国的OpenAI、Google,还是中国的百度、阿里巴巴、华为,各大公司都纷纷推出了自己的大规模语言模型,推动了人工智能在自然语言处理、图像识别等多个领域的迅速发展。老思十分期待通用人工智能的出现,也希望能用上强大的AI工具解放生产力。

其实大模型的特点在于其强大的数据理解、生成和推理能力,可以广泛应用于对话、图像生成、文本生成、目标检测等任务。调用API可以用一种更方便、定制化地实现个人或企业需求,在后续的博客中也将介绍更多大模型API的使用方法。在全球范围内,以下是目前较为流行的几种大模型及其特点:

  1. OpenAI GPT-4

    OpenAI的GPT-4是当前全球知名的语言模型之一,具备极强的自然语言理解和生成能力,尤其擅长文本对话和创作。GPT-4的API接口通过OpenAI提供,并可嵌入到不同应用中。 访问链接

  2. Google Gemini

    作为Google的最新大语言模型,Gemini具备较强的语义理解和生成能力,尤其在多语言和多任务处理方面表现出色。Google Bard(现在是Gemini)在对话式AI助手和知识问答领域广泛应用。 访问链接

  3. Claude by Anthropic

    Anthropic的Claude模型以安全性和可控性著称,特别关注生成模型的安全性和公正性。Claude被应用于AI助理等场景,并在模型的价值观和合规性方面进行特殊优化。 访问链接

  4. 百度文心一言 (ERNIE Bot)

    作为国内领先的生成式语言模型,百度文心一言基于ERNIE(Enhanced Representation through Knowledge Integration)技术,尤其适合中文语境下的自然语言理解和生成任务。其能力覆盖对话、图像生成、视频处理等多个领域。 访问链接

  5. 阿里巴巴通义千问

    阿里的通义千问(Tongyi Qianwen)在自然语言生成、机器翻译、文本摘要等任务上表现出色,适合复杂的业务场景。通义千问在电商、客服等领域应用广泛,支持企业级API服务。 访问链接

  6. 华为盘古 (Pangu)

    华为推出的盘古大模型具有强大的数据处理和AI计算能力,特别适用于行业应用场景。盘古大模型适合企业需求,可支持金融、能源等领域的定制化解决方案。 访问链接

这里的前3个都需要科学上网才能访问,国内的一直在对标GPT和赶超,玩法倒是很多也有特色。另外,还有像智普清言、Kimi我也经常使用,可以利用这些大模型快速构建智能对话、图像识别等功能。而Gemini最近出了免费的API,整合起来真是方便好用,能更便捷地将大模型引入到自己的应用中。这里整一个API来玩一下,准备后续搭建一个个人的AI助手。


2. 申请Gemini API步骤

要使用Gemini API,首先需要注册账户并申请API权限。而要在国内访问则需要使用梯子,Gemini对国内或部分国家有限制,没选对节点也是用不了的,这点需要非常明确。如果这步无法进行,那后续确实也没必要看下去了,摊手。以下是申请API的详细步骤,能够顺利获取并配置Gemini API。

(1) 注册Gemini账户

首先,访问Gemini官网,这其实是官方给出的说明文档,文档上有"获取API密钥"按钮:

点击按钮可以进入到登录界面,这里输入谷歌账号,没有就创建一个(在页面中输入邮箱、密码等基本信息完成注册。请确保输入的信息准确无误,便于后续的账户管理和安全保护。注册完成后,您会收到一封确认邮件,点击邮件中的链接完成账户激活,这样就成功注册了一个Gemini账户。):

(2) 获取API密钥

打开Google AI Studio 申请api的网址:https://makersuite.google.com/app/apikey。当然你也可以打开Gemini的首页 http://ai.google.dev ,并点击 Get API key in Google AI Studio 按钮。你需要先同意使用条款才能继续使用。进入API的网址后,如果你的网络或配置不对,就会跳到下面的页面,原因这个网页已经告诉你了,你需要改到合适的点。

在网络正确的情况下,可以进入下面的网页,这里点击密钥或者"API key",如下图:

创建完成后点击"API密钥"那里,可以在弹出的复制窗口,那一串字符就是你的API key了:

(3)查看API文档

在申请API密钥并配置网络环境后,可以进入Gemini API文档页面查看详细的API使用说明。文档中列出了API的所有接口、请求参数和示例代码。阅读API文档能够帮助您更好地理解Gemini的接口设计和使用方法,为后续的代码开发打下基础。根据需求,您可以选择使用文本处理API(例如对话生成)或图像处理API(如目标检测等)。


3. 使用Python调用Gemini API实现对话与目标检测

3.1 调用Gemini API实现简单对话

一旦成功申请到Gemini API密钥,我们就可以通过Python代码调用Gemini的对话接口,实现智能对话功能。以下是一个完整的Python示例,演示如何使用google-generativeai库来配置和调用Gemini API,完成AI对话。

  1. 安装必要的库

    首先,确保安装了google-generativeai库,以便通过genai接口访问Gemini API。您可以使用以下命令安装:

    bash 复制代码
    pip install google-generativeai
  2. 配置并调用Gemini对话API

    使用以下代码进行初始化配置,并调用对话接口进行内容生成。请将YOUR_API_KEY替换为您在Gemini开发者中心生成的API密钥。

    python 复制代码
    import google.generativeai as genai
    
    # 配置API密钥和传输协议
    genai.configure(api_key="YOUR_API_KEY", transport='rest')
    
    # 初始化模型并生成内容
    model = genai.GenerativeModel("gemini-1.5-flash")
    response = model.generate_content("Explain how AI works")
    print(response.text)
  3. 解释代码

    • genai.configure(api_key="YOUR_API_KEY", transport='rest'): 此行配置API密钥和传输协议,其中api_key是您的个人密钥,transport='rest'指定了使用RESTful API进行访问。
    • model = genai.GenerativeModel("gemini-1.5-flash"): 通过GenerativeModel类指定要使用的Gemini模型。在此例中,gemini-1.5-flash表示我们选用Gemini的1.5版本模型,该版本模型速度快且能有效生成对话内容。
    • response = model.generate_content("Explain how AI works"): 使用generate_content方法发送一个文本输入(如"Explain how AI works"),获取AI生成的响应内容。
    • print(response.text): 输出AI生成的文本内容。

注意 :这里有个点很重要,你会发现用了个transport='rest',如果你搜网上Gemini API的教程,一堆人机或AI写的教程会告诉你用"genai.configure(api_key="YOUR_API_KEY")",实际就是在国内是用不了的,因为没有ti zi转接。

此代码块可以轻松应用于不同的文本对话任务,运行结果如下:

只需修改输入内容,即可生成不同的对话回复,用中文也是没得问题的。

python 复制代码
import google.generativeai as genai

# 配置API密钥和传输协议
genai.configure(api_key="YOUR_API_KEY", transport='rest')

# 初始化模型并生成内容
model = genai.GenerativeModel("gemini-1.5-flash")
response = model.generate_content("请使用中文,解释你是谁")
print(response.text)

这个代码运行,可以出现下面的回答,实际可以扩展到多轮对话。

3.2 调用Gemini API实现多轮对话

为了实现多轮对话,我们可以创建一个循环,让用户通过键盘输入内容,Gemini生成并输出回复,持续进行互动。以下是经过修改的Python代码,可以实现连续的问答对话。

python 复制代码
import google.generativeai as genai

# 配置API密钥和传输协议
genai.configure(api_key="YOUR_API_KEY", transport='rest')

# 初始化模型
model = genai.GenerativeModel("gemini-1.5-flash")

# 记录对话历史
conversation_history = []

print("开始对话吧!输入 'exit' 结束对话。")

while True:
    # 用户输入
    user_input = input("你: ")
    if user_input.lower() == "exit":
        print("对话结束。")
        break

    # 将用户输入添加到对话历史中
    conversation_history.append({"role": "user", "content": user_input})

    # 调用API生成回复
    response = model.generate_content(user_input)

    # 输出AI的回复
    ai_reply = response.text
    print("Gemini:", ai_reply)

    # 将AI回复也添加到对话历史中
    conversation_history.append({"role": "assistant", "content": ai_reply})

代码解释

  • 循环结构while True循环不断读取用户输入,并将输入内容发送给Gemini API实现多轮对话。
  • 用户输入检测 :当用户输入"exit"时,循环会终止,结束对话。
  • 对话历史conversation_history列表用于保存用户和AI之间的对话记录,以便后续扩展时,可以将对话上下文传递给模型,形成更连贯的对话。
  • API调用与输出 :调用generate_content生成回复,并将AI回复输出到屏幕上。

通过这个代码,您可以进行多轮对话,每次发送的内容都会作为新的输入,Gemini会基于最新的输入内容生成回复。下面是输入两轮对话的测试结果:

3.3 调用Gemini API实现目标检测

利用Gemini API,可以实现目标检测功能,不需要构建复杂的模型,仅需通过API便可完成物体识别并获取边界框信息。以下内容将逐步讲解如何使用Python与Gemini API交互,以实现目标检测并在图像中绘制标记。


(1)安装和配置必要的Python库

首先,确保已经安装google-generativeai库,这是调用Gemini API的关键库。还需要安装cv2numpyPillow等库,用于图像处理和绘制边界框:

bash 复制代码
pip install google-generativeai opencv-python-headless numpy pillow

完成安装后,在代码中配置API密钥,确保能够成功连接Gemini API。


(2)加载图像并与Gemini API进行交互

为了检测图像中的物体,我们首先加载本地图像文件,并通过Gemini模型发送目标检测请求。Gemini API将返回包含物体类别和边界框信息的文本数据,格式为[ymin, xmin, ymax, xmax, classification]。以下是加载图像并请求检测结果的代码:

python 复制代码
import google.generativeai as genai
from PIL import Image

# 设置API密钥
genai.configure(api_key="YOUR_API_KEY", transport='rest')

# 加载图像
input_image = 'picture.png'
img = Image.open(input_image)

# 与Gemini模型交互,获取边界框信息
model = genai.GenerativeModel(model_name='gemini-1.5-pro')
response = model.generate_content([
    img,
    (
        "Return bounding boxes for all classes observed in the image. "
        "Format each detection as [ymin, xmin, ymax, xmax, classification]."
    ),
])

result = response.text

在上面的代码中,generate_content方法将图像和说明性文本发送给Gemini模型,获取模型的检测结果。result变量中包含了物体检测的返回数据。


(3)解析模型返回的检测结果

Gemini API返回的结果包含了目标检测中的边界框和分类标签。我们可以通过正则表达式解析出这些信息,并将其转换为可以使用的数据格式:

python 复制代码
import re

def parse_bounding_box(response):
    bounding_boxes = re.findall(r'\[(\d+,\s*\d+,\s*\d+,\s*\d+,\s*[\w\s]+)\]', response)
    
    # 转换为列表
    parsed_boxes = []
    for box in bounding_boxes:
        parts = box.split(',')
        numbers = list(map(int, parts[:-1]))
        label = parts[-1].strip()
        parsed_boxes.append((numbers, label))
    
    return parsed_boxes

# 使用解析函数
bounding_box = parse_bounding_box(result)
print("检测结果:", bounding_box)

parse_bounding_box函数使用正则表达式从API返回的文本中提取边界框和类别标签。这样,我们可以获得清晰的物体位置信息和类别。


(4)绘制边界框和标签

接下来,我们使用OpenCV库在图像上绘制边界框和标签。代码会读取边界框的位置和类别信息,并为每个类别分配随机颜色,使标记更加清晰可辨:

python 复制代码
import cv2
import numpy as np
from PIL import Image

label_colors = {}  # 用于存储每个类别的颜色

def draw_bounding_boxes(image, bounding_boxes_with_labels):
    if image.mode != 'RGB':
        image = image.convert('RGB')
    image = np.array(image)

    for bounding_box, label in bounding_boxes_with_labels:
        width, height = image.shape[1], image.shape[0]
        ymin, xmin, ymax, xmax = bounding_box
        x1 = int(xmin / 1000 * width)
        y1 = int(ymin / 1000 * height)
        x2 = int(xmax / 1000 * width)
        y2 = int(ymax / 1000 * height)

        # 颜色分配
        if label not in label_colors:
            color = np.random.randint(0, 256, (3,)).tolist()
            label_colors[label] = color
        else:
            color = label_colors[label]

        # 绘制框和标签
        cv2.rectangle(image, (x1, y1), (x2, y2), color, 2)
        cv2.putText(image, label, (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 255, 255), 1)

    return Image.fromarray(image)

# 绘制并显示结果
output = draw_bounding_boxes(img, bounding_box)
output.show()
output.save("pic_annotated.jpg")

在代码中,draw_bounding_boxes函数根据模型返回的边界框信息在图像上绘制矩形框,并显示标签。绘制完成后,使用output.show()可以立即查看结果图像,或通过output.save()保存标记后的图像。


(5)运行结果

通过以上步骤,可以加载图像、发送目标检测请求、解析返回结果,并在图像中绘制出标记。运行结果如下,没想到吧,它居然直接识别出来了:

再换一张图还是能搞定,这个效果确实不错。

相关推荐
小陈phd2 小时前
OpenCV从入门到精通实战(九)——基于dlib的疲劳监测 ear计算
人工智能·opencv·计算机视觉
Guofu_Liao3 小时前
大语言模型---LoRA简介;LoRA的优势;LoRA训练步骤;总结
人工智能·语言模型·自然语言处理·矩阵·llama
gz7seven5 小时前
BLIP-2模型的详解与思考
大模型·llm·多模态·blip·多模态大模型·blip-2·q-former
ZHOU_WUYI7 小时前
3.langchain中的prompt模板 (few shot examples in chat models)
人工智能·langchain·prompt
如若1237 小时前
主要用于图像的颜色提取、替换以及区域修改
人工智能·opencv·计算机视觉
老艾的AI世界8 小时前
AI翻唱神器,一键用你喜欢的歌手翻唱他人的曲目(附下载链接)
人工智能·深度学习·神经网络·机器学习·ai·ai翻唱·ai唱歌·ai歌曲
DK221518 小时前
机器学习系列----关联分析
人工智能·机器学习
Robot2518 小时前
Figure 02迎重大升级!!人形机器人独角兽[Figure AI]商业化加速
人工智能·机器人·微信公众平台
浊酒南街9 小时前
Statsmodels之OLS回归
人工智能·数据挖掘·回归
畅联云平台9 小时前
美畅物联丨智能分析,安全管控:视频汇聚平台助力智慧工地建设
人工智能·物联网