深度学习系列62:Agent入门

1 anget介绍和openai标准接口

agent的核心是其代理协同工作的能力。每个代理都有其特定的能力和角色,你需要定义代理之间的互动行为,即当一个代理从另一个代理收到消息时该如何回复。

agent目前大多使用openai标准接口调用LLM服务,说明如下。

标准接口示例如下,其中role包括:system(设定了 AI 的行为和角色,和背景),user(我们输入的问题或请求),assistant(自动生成)

复制代码
import openai
response = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
        {"role": "system", "content": "你正在与一位科幻小说的专家交谈。"},
        {"role": "user", "content": "我正在写一部科幻小说,故事发生在一个遥远的星球上,主人公是一个探险家。你有什么建议可以让我的故事更引人入胜吗?"},
    ]
)
print(response['choices'][0]['message']['content'])

2 autogen

微软家的autogen默认撰写python代码来求解问题。

2.1 直接调用接口

autogen中可以参考下面的代码,OpenAIWrapper封装openai标准接口服务后,可以直接使用create方法调用本地LLM服务:

复制代码
from autogen import OpenAIWrapper
client = OpenAIWrapper(api_key="NULL", base_url="http://localhost:2600/v1", api_type="open_ai")
question = '世界上最高峰是什么?'
response = client.create(messages=[{"role": "user", "content": "<用户>%s<AI>"%question}], model="guff")
print(client.extract_text_or_completion_object(response))

2.2 UserProxyAgent和AssistantAgent

autogen的AssistantAgent 设计为充当 AI 助手,默认使用 LLM。它可以编写 Python 代码(在 Python 编码块中),供用户在收到消息(通常是需要解决的任务的描述)时执行。它还可以接收执行结果并建议更正或错误修复。

而UserProxyAgent 是人类的代理代理,默认情况下,在每个交互回合中,将人工输入作为代理的回复,并且还具有执行代码和调用函数的能力。当它在收到的消息中检测到可执行代码块且未提供人类用户输入时,会自动 UserProxyAgent 触发代码执行。可以通过将 code_execution_config 参数设置为 False 来禁用代码执行。

下面是个简单的调用例子:

复制代码
from autogen import AssistantAgent, UserProxyAgent
config_list = [{"model": "minicpm","base_url": "http://127.0.0.1:2600/v1","api_type": "open_ai","api_key": "NULL"}]
assistant = AssistantAgent("assistant", llm_config={"config_list": config_list})
user_proxy = UserProxyAgent("user_proxy", code_execution_config={"work_dir": "coding","use_docker":False})
# 构造参与代理后,可以通过初始化步骤启动多代理对话会话,用户代理发起聊天
user_proxy.initiate_chat(assistant, message="给我讲个笑话。")

输出如下:

下面的例子展示了如何使用这两个agent一步步完成任务:

复制代码
from autogen import AssistantAgent, UserProxyAgent
config_list = [{"model": "minicpm","base_url": "http://127.0.0.1:2600/v1","api_type": "open_ai","api_key": "NULL"}]
assistant = AssistantAgent("assistant", llm_config= {"config_list": config_list,"temperature": 0.1,"max_tokens":16000,})
user_proxy = UserProxyAgent("user_proxy", code_execution_config={"work_dir": "coding", "use_docker": False})
user_proxy.initiate_chat(assistant, message="Plot a chart of NVDA and TESLA stock price change YTD.")

3. Qwen-gen

3.1 使用方法

和autogen不一样,Qwen-gen的角色名字需要写在函数的json中,下面是一个chatbot的示例:

其他的功能貌似不太好用(可能是因为用的不是Qwen的LLM功能)

相关推荐
冬奇Lab3 小时前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
没事勤琢磨5 小时前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户5191495848455 小时前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人5285 小时前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆6 小时前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare6 小时前
写一个你自己的Agent Skills
人工智能·程序员
机器之心6 小时前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai
后端小肥肠7 小时前
公众号躺更神器!OpenClaw+Claude Skill 实现自动读对标 + 写文 + 配图 + 存入草稿箱
人工智能·aigc·agent
爱可生开源社区7 小时前
SCALE | 重构 AI 时代数据库能力的全新评估标准
人工智能
Jahzo8 小时前
openclaw本地化部署体验与踩坑记录--飞书机器人配置
人工智能·开源