使用Ollama测试OpenAI的Swarm多智能体编排框架

Ollama

https://ollama.com/

bash 复制代码
ollama run qwen2.5

Install

Requires Python 3.10+

bash 复制代码
pip install git+https://github.com/openai/swarm.git

代码V1

bash 复制代码
# 导入Swarm和Agent类
from swarm import Swarm, Agent
from openai import OpenAI 
# 实例化Swarm客户端
openai_client = OpenAI(base_url='http://192.168.1.100:11434/v1/',api_key='xxx')
client = Swarm(openai_client)

# 定义一个函数,用于将对话交接给智能体B
def transfer_to_agent_b():
    return agent_b

# 定义智能体A
agent_a = Agent(
    name="Agent A",
    instructions="You are a helpful agent.",
    functions=[transfer_to_agent_b]
)

# 定义智能体B
agent_b = Agent(
    name="Agent B",
    #model_override="qwen2.5",
    instructions="Only speak in Haikus.",
)

# 运行Swarm,并传入用户消息
response = client.run(
    agent=agent_a,
    model_override="qwen2.5",
    messages=[{"role": "user", "content": "I want to talk to agent B."}]
)

# 打印智能体B的回复
print(response.messages[-1]["content"])
bash 复制代码
Invisible thread connects,
Voice echoes, B responds now,
Silence brief then words.

代码V2

bash 复制代码
# 首先,安装Swarm框架(假设您已经在命令行中执行了此步骤)
# pip install git+ssh://git@github.com/openai/swarm.git

# 导入Swarm和Agent类
from swarm import Swarm, Agent
from openai import OpenAI
# 实例化Swarm客户端
openai_client = OpenAI(base_url='http://20.168.1.122:11434/v1/',api_key='x')
client = Swarm(openai_client)

# 定义一个函数,用于将对话交接给智能体B
def transfer_to_agent_b():
    return agent_b

# 定义智能体A
agent_a = Agent(
    name="Agent A",
    instructions="你是一个乐于助人的智能体。",
    functions=[transfer_to_agent_b]
)

# 定义智能体B
agent_b = Agent(
    name="Agent B",
    # model_override="qwen2.5",
    instructions="只用中文歇后语说话。",
)

# 运行Swarm,并传入用户消息
response = client.run(
    agent=agent_a,
    model_override="qwen2.5",
    messages=[{"role": "user", "content": "我想和智能体B对话。"}]
)

# 打印智能体B的回复
print(response.messages[-1]["content"])


#响应
好的,现在你将与智能体B对话。它是你的助手了,请对其说些什么吧!

智能体B:你好呀!准备好了可以开始我们的交流了呢。有什么问题或者想知道的内容尽管问哦。

参考链接:

https://github.com/openai/swarm

https://mp.weixin.qq.com/s/LpHfKX5SUKE19Dh9o9i7Fw

相关推荐
CS创新实验室4 分钟前
【译文】DeepSeek-OCR:上下文光学压缩
ai·大模型·llm·ocr·deepseek-ocr
hojyn7 小时前
LLM评估系列(二):LLM 乱输出难控?五篇顶会论文教你用 LLM 评估器破解五大关键场景
llm
hojyn7 小时前
别再先分块了!Late Chunking:长上下文嵌入模型如何终结 RAG 检索不准的魔咒?
llm
常先森7 小时前
【解密源码】 RAGFlow 切分最佳实践-navie 分词器原理
架构·llm
inx1777 小时前
一次完整的 Prompt Engineering 实战:让 AI 自动生成销售分析报告
openai
深藏blue477 小时前
OpenAI Codex & Codex CLI 国内使用教程:手把手教你安装与上手
openai·ai编程
RockHopper202510 小时前
海德格尔的“形式指示” vs LLM 的提示工程
llm·提示工程
ricktian122610 小时前
Warp:智能终端初识
人工智能·agent·warp
AI大模型10 小时前
【LM Studio篇】不懂编程也能学会!几分钟教你在本地部署大模型
程序员·llm·agent
钢蛋11 小时前
LangGraph 编排教程指南:从入门到精通的完整学习路径
langchain·llm