快速入门 openai agents sdk

OpenAI Agents SDK让你能够以一个轻量、易用且几乎没有抽象层的包来构建智能体 AI 应用。它是我们此前用于智能体实验的项目 Swarm 的生产就绪升级版。Agents SDK 只有一小组基本组件:

  • 智能体,即配备了 instructions 和 tools 的 LLM
  • Agents as tools / 任务转移,允许智能体将特定任务委派给其他智能体
  • 安全防护措施,用于验证智能体的输入和输出

结合 Python,这些基本组件足以表达工具与智能体之间的复杂关系,并让你无需陡峭的学习曲线即可构建真实世界应用。此外,SDK 内置了追踪功能,可让你可视化并调试智能体工作流,还能对其进行评估,甚至为你的应用微调模型。

使用 Agents SDK 的原因

SDK 有两个核心设计原则:

  • 功能足够丰富,值得使用;同时基本组件足够少,能够快速上手。
  • 开箱即用,同时你也可以精确自定义实际发生的行为。

以下是 SDK 的主要特性:

  • 智能体循环:内置智能体循环,可处理工具调用,将结果发送回 LLM,并持续运行直到任务完成。
  • Python 优先:使用内置语言特性来进行智能体编排与链式调用,而无需学习新的抽象。
  • Agents as tools / 任务转移:一种强大的机制,用于在多个智能体之间协调和委派工作。
  • 沙箱智能体:在真实隔离的工作区中运行专用智能体,支持由清单定义的文件、沙箱客户端选择以及可恢复的沙箱会话。
  • 安全防护措施:与智能体执行并行运行输入验证和安全检查,并在检查未通过时快速失败。
  • 工具调用:将任意 Python 函数转换为工具,并自动生成 schema 和基于 Pydantic 的验证。
  • MCP 服务工具调用:内置 MCP 服务工具集成,其工作方式与工具调用相同。
  • 会话:一个持久化记忆层,用于在智能体循环中维护工作上下文。
  • Human in the loop:内置机制,用于在智能体运行过程中引入人工参与。
  • 追踪:内置追踪功能,用于可视化、调试和监控工作流,并支持 OpenAI 的评估、微调和蒸馏工具套件。
  • Realtime Agents:使用 gpt-realtime-1.5 构建强大的语音智能体,支持自动中断检测、上下文管理、安全防护措施等功能。

Agents SDK 还是 Responses API

对于 OpenAI 模型,SDK 默认使用 Responses API,但它在模型调用之上增加了一层更高层级的运行时。

在以下情况下,直接使用 Responses API:

  • 你想自己掌控循环、工具分发和状态处理
  • 你的工作流生命周期较短,主要是返回模型响应

在以下情况下,使用 Agents SDK:

  • 你希望运行时来管理轮次、工具执行、安全防护措施、任务转移或会话
  • 你的智能体需要产出工件,或跨多个协调步骤运行
  • 你需要真实工作区或通过沙箱智能体实现可恢复执行

你不需要在全局范围内二选一。很多应用会使用 SDK 来管理工作流,同时在更底层的路径中直接调用 Responses API。

快速入门

安装 Agents SDK

python 复制代码
pip install openai-agents 
或者 uv add openai-agents

创建你的第一个智能体

官网给的使用示例是默认你直接用的云端的大模型服务,但是实际在公司都用的是自己部署的大模型,甚至自己学习也都是通过本地用Ollama部署一个进行使用,因此我这里直接用这种方式写代码,方便大部分人可以直接看懂和使用:

python 复制代码
import asyncio
from openai import AsyncOpenAI
from agents import Agent, Runner, OpenAIChatCompletionsModel

async def main():
    # 1. 创建一个指向本地 Ollama 服务的客户端
    # api_key 可以随便填,Ollama 默认不校验
    local_client = AsyncOpenAI(
        api_key="ollama",
        base_url="http://localhost:11434/v1"
    )

    # 2. 使用这个客户端来定义一个模型配置
    # 确保 model 名称和你用 'ollama run' 启动的模型名一致
    local_model = OpenAIChatCompletionsModel(
        model="qwen2.5:7b",
        openai_client=local_client
    )

    # 3. 创建智能体时,使用我们自定义的模型配置
    agent = Agent(
        name="本地助手",
        instructions="你是一个运行在本地的 AI 助手。",
        model=local_model
    )

    result = await Runner.run(agent, "你好,请介绍一下你自己。")
    print(result.final_output)

if __name__ == "__main__":
    asyncio.run(main())

为智能体提供工具

光会聊天还不够,真正的智能体需要能"做事"。我们可以通过 @function_tool 装饰器为它赋予能力。

python 复制代码
import asyncio
from agents import Agent, Runner, function_tool

# 1. 定义一个工具函数
@function_tool
def 历史冷知识() -> str:
    """返回一个有趣的历史冷知识。"""
    return "你知道吗?鲨鱼比树木的历史还要悠久。"

# 2. 将工具添加到智能体中
agent = Agent(
    name="历史导师",
    instructions="回答历史问题。当用户想了解一些有趣的事实,或者你的回答需要佐证时,请使用历史冷知识工具。",
    tools=[历史冷知识], # 在这里注册工具
)

async def main():
    result = await Runner.run(
        agent,
        "给我讲讲远古地球上有什么 surprising 的生物。",
    )
    print(result.final_output)

if __name__ == "__main__":
    asyncio.run(main())

多智能体协作(任务转移)

当任务变得复杂时,一个"全能"智能体可能不如一个"专家团队"来得高效。SDK 支持"任务转移"(Handoff),让一个智能体将任务委派给更专业的同事。

定义专家团队

我们创建两个专家智能体,并用 handoff_description 告诉"前台"他们是干什么的。

python 复制代码
from agents import Agent

history_tutor_agent = Agent(
    name="历史专家",
    handoff_description="专门负责回答所有历史相关问题。",
    instructions="你是一位历史专家,回答要清晰简洁。",
)

math_tutor_agent = Agent(
    name="数学专家",
    handoff_description="专门负责解决所有数学问题,并逐步解释过程。",
    instructions="你是一位数学专家,解释问题要一步一步来,并给出演算示例。",
)
定义调度员(Triage Agent)

这个智能体不负责具体回答,只负责判断问题类型,并将其"转移"给正确的专家。

python 复制代码
triage_agent = Agent(
    name="调度员",
    instructions="你是一个调度员,负责分析用户的问题,并将其分配给最合适的专家。",
    handoffs=[历史专家, 数学专家], # 这是关键!定义了它可以转移任务的对象列表
)
运行智能体编排

Runner 会自动处理复杂的流程:接收问题 -> 调度员判断 -> 转移给专家 -> 专家回答。

python 复制代码
import asyncio
from agents import Runner

async def main():
    result = await Runner.run(
        triage_agent,
        "美国的第一任总统是谁?",
    )
    print(result.final_output)
    # 你可以看到最终是哪个专家回答了问题
    print(f"回答者:{result.last_agent.name}")

if __name__ == "__main__":
    asyncio.run(main())

参考文献

https://openai.github.io/openai-agents-python/zh/quickstart/

相关推荐
wangruofeng13 小时前
Codex 来到手机端:ChatGPT App 接入 Codex 完整指南
chatgpt·openai
七牛开发者17 小时前
用 Bub 和飞书搭一个更懂群聊上下文的小机器人
openai
掉鱼的猫18 小时前
Spring AI 2.0 GA 倒计时:先别急,来看看 Java AI 框架的另一条路
java·openai·agent
爱吃的小肥羊21 小时前
Codex 手机端连接教程:三分钟搞定,附完整步骤
aigc·openai·ai编程
爱吃的小肥羊1 天前
刚刚,Codex 上线手机端,免费用户也能用!
aigc·openai·ai编程
玖日大大1 天前
GPT-5.5 幻觉率砍半 52.5%、长文本理解翻倍、推理速度 3x 提升 — OpenAI 从「参数内卷」到「可靠性内卷」的实用主义转向
人工智能·gpt·openai·ai可靠性·gpt-5.5·幻觉治理·大模型商业化
阿耶同学2 天前
手把手构建一个轻量级AI Agent:支持记忆、计算与搜索的ReAct实践
openai
kyriewen3 天前
今天,百年巨头一次砍了9200人,而一个离职科学家的实话让全网睡不着觉
前端·openai·ai编程
柠檬威士忌9853 天前
2026-05-12 AI前沿日报:GPT-5.5-Cyber、预发布评测与AI科研加速
网络安全·大模型·openai·deepmind
掉鱼的猫3 天前
agentscope-harness vs solon-ai-harness:Java 智能体「马具引擎」的双雄对决
java·openai