深度学习系列62:Agent入门

1 anget介绍和openai标准接口

agent的核心是其代理协同工作的能力。每个代理都有其特定的能力和角色,你需要定义代理之间的互动行为,即当一个代理从另一个代理收到消息时该如何回复。

agent目前大多使用openai标准接口调用LLM服务,说明如下。

标准接口示例如下,其中role包括:system(设定了 AI 的行为和角色,和背景),user(我们输入的问题或请求),assistant(自动生成)

复制代码
import openai
response = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
        {"role": "system", "content": "你正在与一位科幻小说的专家交谈。"},
        {"role": "user", "content": "我正在写一部科幻小说,故事发生在一个遥远的星球上,主人公是一个探险家。你有什么建议可以让我的故事更引人入胜吗?"},
    ]
)
print(response['choices'][0]['message']['content'])

2 autogen

微软家的autogen默认撰写python代码来求解问题。

2.1 直接调用接口

autogen中可以参考下面的代码,OpenAIWrapper封装openai标准接口服务后,可以直接使用create方法调用本地LLM服务:

复制代码
from autogen import OpenAIWrapper
client = OpenAIWrapper(api_key="NULL", base_url="http://localhost:2600/v1", api_type="open_ai")
question = '世界上最高峰是什么?'
response = client.create(messages=[{"role": "user", "content": "<用户>%s<AI>"%question}], model="guff")
print(client.extract_text_or_completion_object(response))

2.2 UserProxyAgent和AssistantAgent

autogen的AssistantAgent 设计为充当 AI 助手,默认使用 LLM。它可以编写 Python 代码(在 Python 编码块中),供用户在收到消息(通常是需要解决的任务的描述)时执行。它还可以接收执行结果并建议更正或错误修复。

而UserProxyAgent 是人类的代理代理,默认情况下,在每个交互回合中,将人工输入作为代理的回复,并且还具有执行代码和调用函数的能力。当它在收到的消息中检测到可执行代码块且未提供人类用户输入时,会自动 UserProxyAgent 触发代码执行。可以通过将 code_execution_config 参数设置为 False 来禁用代码执行。

下面是个简单的调用例子:

复制代码
from autogen import AssistantAgent, UserProxyAgent
config_list = [{"model": "minicpm","base_url": "http://127.0.0.1:2600/v1","api_type": "open_ai","api_key": "NULL"}]
assistant = AssistantAgent("assistant", llm_config={"config_list": config_list})
user_proxy = UserProxyAgent("user_proxy", code_execution_config={"work_dir": "coding","use_docker":False})
# 构造参与代理后,可以通过初始化步骤启动多代理对话会话,用户代理发起聊天
user_proxy.initiate_chat(assistant, message="给我讲个笑话。")

输出如下:

下面的例子展示了如何使用这两个agent一步步完成任务:

复制代码
from autogen import AssistantAgent, UserProxyAgent
config_list = [{"model": "minicpm","base_url": "http://127.0.0.1:2600/v1","api_type": "open_ai","api_key": "NULL"}]
assistant = AssistantAgent("assistant", llm_config= {"config_list": config_list,"temperature": 0.1,"max_tokens":16000,})
user_proxy = UserProxyAgent("user_proxy", code_execution_config={"work_dir": "coding", "use_docker": False})
user_proxy.initiate_chat(assistant, message="Plot a chart of NVDA and TESLA stock price change YTD.")

3. Qwen-gen

3.1 使用方法

和autogen不一样,Qwen-gen的角色名字需要写在函数的json中,下面是一个chatbot的示例:

其他的功能貌似不太好用(可能是因为用的不是Qwen的LLM功能)

相关推荐
机器学习之心10 小时前
TCN-Transformer-BiGRU组合模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析
深度学习·回归·transformer·shap分析
凯子坚持 c10 小时前
StreamingLLM:无需训练即可支持无限上下文的推理技术
人工智能
Tfly__10 小时前
在PX4 gazebo仿真中加入Mid360(最新)
linux·人工智能·自动驾驶·ros·无人机·px4·mid360
LLWZAI10 小时前
让朱雀AI检测无法判断的AI公众号文章,当创作者开始与算法「躲猫猫」
大数据·人工智能·深度学习
深圳市九鼎创展科技10 小时前
瑞芯微 RK3399 开发板 X3399 评测:高性能 ARM 平台的多面手
linux·arm开发·人工智能·单片机·嵌入式硬件·边缘计算
HELLO程序员10 小时前
Claude Code 2.1 发布:2026 年 AI 智能体开发的范式革命
人工智能
DFCED10 小时前
OpenClaw部署实战:5分钟搭建你的专属AI数字员工(附避坑指南)
人工智能·大模型·agent·openclaw
Java新手村10 小时前
基于 Vue 3 + Spring Boot 3 的 AI 面试辅助系统:实时语音识别 + 大模型智能回答
vue.js·人工智能·spring boot
Junlan2710 小时前
Cursor使用入门及连接服务器方法(更新中)
服务器·人工智能·笔记
robot_learner10 小时前
OpenClaw, 突然走红的智能体
人工智能