五、OpenAi之函数调用(Function Calling)(一)

1.函数调用(Function Calling)

学习如何使大语言模型连接到外部工具

1.1介绍

在API调用中,您可以描述函数规范,让模型智能地选择输出包含参数的JSON对象,过程中你以调用一个或多个函数。聊天补全API自身不能调用函数;而是,让模型生成JSON,使用它调用函数代码

最新的模型(gpt-3.5-turbo-0125和gpt-4-turbo-preview)已通过训练,可以检测何时应该调用函数(取决于输入),并使用模型对符合函数签名的JSON进行响应。拥有这项能力的同时也伴随着风险。我们强烈建议在采取可能影响世界范围内的用户行为之前建立用户确认流程(例如:发邮件、发布网络、购物等待)

1.2常用案例

函数调用可以使你更可靠的从模型获得结构化的数据。可以这样:

  • 创建一些助理,通过调用外部的APIs来回答一些问题(例如:像ChatGPT的插件)
    • 例如:可以定义函数:send_email(to:string, body:string)或get_current_weather(location:string, unit:'celsius'|'fahrenheit')
  • 转换自然语言到API调用
    • 例如:转换"我的最主要的客户都有谁?" get_customers(min_revenue: int, created_before: string, limit: int) 并调用你系 统内部的API
  • 从文本中提取结构化的数据
    • 例如:定义一个函数调用:extract_data(name: string, birthday: string) 或 sql_query(query: string)

等等还有很多....

函数调用的基本步骤如下:

  1. 调用模型时,将"用户查询"和"多个函数"定义在"函数参数"中
  2. 模型可以选择调用一个或多个函数;这样,内容将是遵循自定义模式的字符串化JSON对象(注意:模型可能会产生幻觉参数)
  3. 在你的代码中将string解析成JSON对象,用之前提供的参数(如果存在)调用函数
  4. 追加函数的返回作为一个新的消息再次调用模型,然后让模型归纳结果并返回给用户

1.3支持模型

目前,不是所有模型的版本都是用函数调用数据训练的。支持函数调用的模型有:

  • gpt-4, gpt-4-turbo-preview
  • gpt-4-0125-preview
  • gpt-4-1106-preview
  • gpt-4-0613
  • gpt-3.5-turbo
  • gpt-3.5-turbo-0125
  • gpt-3.5-turbo-1106
  • gpt-3.5-turbo-0613

另外, 以下模型支持并行的函数调用:

  • gpt-4-turbo-preview
  • gpt-4-0125-preview
  • gpt-4-1106-preview
  • gpt-3.5-turbo-0125
  • gpt-3.5-turbo-1106

2.并行函数调用

并行函数调用就是模型一起执行多个函数调用的能力,允许这些函数的效果和结果的调用被并行的解析。如果函数调用要花很长的时间,并行调用就显得非常有用。例如,模型可能要调用函数同时返回三个不同地点的天气,在tool_calls数组中,要包含三个函数调用,并作为一个消息结果返回,每个调用含有一个ID.为响应这些函数调用,增加三个消息至会话中,每个消息包含一个函数调用的结果,从tool_calls引用id,并用tool_call_id表示。

在下面例子中,我们仅定义一个函数get_current_weather。模型调用了函数多次,并将调用函数的返回结果再次发送给模型,由模型决定下一步的返回消息。它会返回一个面向用户的消息,告诉用户一些地区的温度。根据查询结果,可能会在调用一次函数。

如果你想强制模型调用一个指定的函数,你可以设置tool_choice参数,指定具体的函数名。你也可以强制模型生成面向用户的消息,设置参数:tool_choice: none。请注意:参数默认设置为:tool_choice: auto ,含义是由模型决定是否调用函数,调用哪一个函数。

2.1多个函数调用案例

python 复制代码
# @Time : 2024/2/15 11:22
# @Author : NaiveFrank
# @Version : 1.0
# @Project : python_tutorial
from openai import OpenAI
import json

# 加载 .env 文件到环境变量
from dotenv import load_dotenv, find_dotenv

_ = load_dotenv(find_dotenv())

# 初始化 OpenAI 服务。会自动从环境变量加载 OPENAI_API_KEY 和 OPENAI_BASE_URL
client = OpenAI()


# 例子模拟函数调用的硬编码,返回相同数据格式的天气
# 在实际生产中,可以是后台API或第三方的API fahrenheit-华氏温度
def get_current_weather(location, unit="fahrenheit"):
    """返回指定地区的实时天气"""
    if "北京" in location.lower():
        return json.dumps({"location": "北京", "temperature": "16", "unit": unit})
    elif "上海" in location.lower():
        return json.dumps({"location": "上海", "temperature": "22", "unit": unit})
    elif "承德" in location.lower():
        return json.dumps({"location": "承德", "temperature": "12", "unit": unit})
    else:
        return json.dumps({"location": location, "temperature": "未知"})


def run_conversation():
    # 第一步:发送会话和函数调用给模型
    messages = [{"role": "user", "content": "北京、上海、承德3地的天气现在是什么样的?"}]
    tools = [
        {
            "type": "function",
            "function": {
                "name": "get_current_weather",
                "description": "返回指定地区的温度",
                "parameters": {
                    "type": "object",
                    "properties": {
                        "location": {
                            "type": "string",
                            "description": "承德市双桥区",
                        },
                        "unit": {"type": "string", "enum": ["celsius", "华氏温度"]},
                    },
                    "required": ["location"],
                },
            },
        }
    ]
    response = client.chat.completions.create(
        model="gpt-3.5-turbo-0125",
        messages=messages,
        tools=tools,
        tool_choice="auto",  # auto 默认值,明确给出
    )
    response_message = response.choices[0].message
    tool_calls = response_message.tool_calls
    # 第二步: 检查模型是否需要调用一个函数
    if tool_calls:
        # 第三步: 调用函数
        # 注意:返回的JSON消息不一定有效,一定要检查错误
        available_functions = {
            "get_current_weather": get_current_weather,
        }  # 这个例子只有一个参数调用,当然也可以有多个
        messages.append(response_message)  # 将助理的回复加入到消息中
        # 第四步: 将每一个函数调用及其相应的响应发送给模型
        for tool_call in tool_calls:
            function_name = tool_call.function.name  # 返回函数调用名
            function_to_call = available_functions[function_name]  # 返回JSON不一定有效,使其有效
            function_args = json.loads(tool_call.function.arguments)  # 将函数所用的参数解析为JSON
            function_response = function_to_call(  # 调用函数并传指定参数
                location=function_args.get("location"),
                unit=function_args.get("unit"),
            )
            """
             函数调用返回结果加入新的会话
             "tool_call_id": tool_call.id, -> 函数返回的ID
             "role": "tool", -> role 类型为tool
             "name": function_name, -> 动态解析的函数调用名
             "content": function_response, -> 内容为函数调用返回结果
            """
            messages.append(
                {
                    "tool_call_id": tool_call.id,
                    "role": "tool",
                    "name": function_name,
                    "content": function_response,
                }
            )
            # 模型理解函数返回的响应后,并返回一个新的响应
        second_response = client.chat.completions.create(
            model="gpt-3.5-turbo-0125",
            messages=messages,
        )
        return second_response


print(run_conversation())

输出结果:

json 复制代码
ChatCompletion(
	id='chatcmpl-8sMdpiaEJhSQhmbN9ONbd1ZR2pefZ', 
	choices=[
		Choice(
			finish_reason='stop', 
			index=0, 
			logprobs=None, 
			message=ChatCompletionMessage(
					content='目前,北京的气温是16摄氏度,上海的气温是22摄氏度,承德的气温是12摄氏度。', 
					role='assistant', 
					function_call=None, 
					tool_calls=None
			)
		)
	], 
	created=1707967437, 
	model='gpt-3.5-turbo-0125', 
	object='chat.completion', 
	system_fingerprint='fp_69829325d0', 
	usage=CompletionUsage(
		completion_tokens=49, 
		prompt_tokens=177, 
		total_tokens=226
	)
)

2.2Tokens

在底层,函数被训练成模型的语法注入到系统消息中。这意味着函数长度也要遵循模型的上下文限制,并作为输入的token进行计费。如果遇到上下文限制,我们建议限制函数的数量或函数参数长度。

如果定义了许多函数,也可以使用精调来减少使用的token数量。

OpenAi之函数调用(Function Calling)(二)

相关推荐
HPC_fac130520678161 小时前
科研深度学习:如何精选GPU以优化服务器性能
服务器·人工智能·深度学习·神经网络·机器学习·数据挖掘·gpu算力
猎嘤一号2 小时前
个人笔记本安装CUDA并配合Pytorch使用NVIDIA GPU训练神经网络的计算以及CPUvsGPU计算时间的测试代码
人工智能·pytorch·神经网络
天润融通2 小时前
天润融通携手挚达科技:AI技术重塑客户服务体验
人工智能
Elastic 中国社区官方博客4 小时前
使用 Elastic AI Assistant for Search 和 Azure OpenAI 实现从 0 到 60 的转变
大数据·人工智能·elasticsearch·microsoft·搜索引擎·ai·azure
江_小_白5 小时前
自动驾驶之激光雷达
人工智能·机器学习·自动驾驶
yusaisai大鱼6 小时前
TensorFlow如何调用GPU?
人工智能·tensorflow
珠海新立电子科技有限公司9 小时前
FPC柔性线路板与智能生活的融合
人工智能·生活·制造
IT古董9 小时前
【机器学习】机器学习中用到的高等数学知识-8. 图论 (Graph Theory)
人工智能·机器学习·图论
曼城周杰伦9 小时前
自然语言处理:第六十三章 阿里Qwen2 & 2.5系列
人工智能·阿里云·语言模型·自然语言处理·chatgpt·nlp·gpt-3
余炜yw10 小时前
【LSTM实战】跨越千年,赋诗成文:用LSTM重现唐诗的韵律与情感
人工智能·rnn·深度学习