深度学习系列62:Agent入门

1 anget介绍和openai标准接口

agent的核心是其代理协同工作的能力。每个代理都有其特定的能力和角色,你需要定义代理之间的互动行为,即当一个代理从另一个代理收到消息时该如何回复。

agent目前大多使用openai标准接口调用LLM服务,说明如下。

标准接口示例如下,其中role包括:system(设定了 AI 的行为和角色,和背景),user(我们输入的问题或请求),assistant(自动生成)

复制代码
import openai
response = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
        {"role": "system", "content": "你正在与一位科幻小说的专家交谈。"},
        {"role": "user", "content": "我正在写一部科幻小说,故事发生在一个遥远的星球上,主人公是一个探险家。你有什么建议可以让我的故事更引人入胜吗?"},
    ]
)
print(response['choices'][0]['message']['content'])

2 autogen

微软家的autogen默认撰写python代码来求解问题。

2.1 直接调用接口

autogen中可以参考下面的代码,OpenAIWrapper封装openai标准接口服务后,可以直接使用create方法调用本地LLM服务:

复制代码
from autogen import OpenAIWrapper
client = OpenAIWrapper(api_key="NULL", base_url="http://localhost:2600/v1", api_type="open_ai")
question = '世界上最高峰是什么?'
response = client.create(messages=[{"role": "user", "content": "<用户>%s<AI>"%question}], model="guff")
print(client.extract_text_or_completion_object(response))

2.2 UserProxyAgent和AssistantAgent

autogen的AssistantAgent 设计为充当 AI 助手,默认使用 LLM。它可以编写 Python 代码(在 Python 编码块中),供用户在收到消息(通常是需要解决的任务的描述)时执行。它还可以接收执行结果并建议更正或错误修复。

而UserProxyAgent 是人类的代理代理,默认情况下,在每个交互回合中,将人工输入作为代理的回复,并且还具有执行代码和调用函数的能力。当它在收到的消息中检测到可执行代码块且未提供人类用户输入时,会自动 UserProxyAgent 触发代码执行。可以通过将 code_execution_config 参数设置为 False 来禁用代码执行。

下面是个简单的调用例子:

复制代码
from autogen import AssistantAgent, UserProxyAgent
config_list = [{"model": "minicpm","base_url": "http://127.0.0.1:2600/v1","api_type": "open_ai","api_key": "NULL"}]
assistant = AssistantAgent("assistant", llm_config={"config_list": config_list})
user_proxy = UserProxyAgent("user_proxy", code_execution_config={"work_dir": "coding","use_docker":False})
# 构造参与代理后,可以通过初始化步骤启动多代理对话会话,用户代理发起聊天
user_proxy.initiate_chat(assistant, message="给我讲个笑话。")

输出如下:

下面的例子展示了如何使用这两个agent一步步完成任务:

复制代码
from autogen import AssistantAgent, UserProxyAgent
config_list = [{"model": "minicpm","base_url": "http://127.0.0.1:2600/v1","api_type": "open_ai","api_key": "NULL"}]
assistant = AssistantAgent("assistant", llm_config= {"config_list": config_list,"temperature": 0.1,"max_tokens":16000,})
user_proxy = UserProxyAgent("user_proxy", code_execution_config={"work_dir": "coding", "use_docker": False})
user_proxy.initiate_chat(assistant, message="Plot a chart of NVDA and TESLA stock price change YTD.")

3. Qwen-gen

3.1 使用方法

和autogen不一样,Qwen-gen的角色名字需要写在函数的json中,下面是一个chatbot的示例:

其他的功能貌似不太好用(可能是因为用的不是Qwen的LLM功能)

相关推荐
山烛6 分钟前
KNN 算法中的各种距离:从原理到应用
人工智能·python·算法·机器学习·knn·k近邻算法·距离公式
盲盒Q17 分钟前
《频率之光:归途之光》
人工智能·硬件架构·量子计算
墨染点香25 分钟前
第七章 Pytorch构建模型详解【构建CIFAR10模型结构】
人工智能·pytorch·python
go546315846525 分钟前
基于分组规则的Excel数据分组优化系统设计与实现
人工智能·学习·生成对抗网络·数学建模·语音识别
茫茫人海一粒沙32 分钟前
vLLM 的“投机取巧”:Speculative Decoding 如何加速大语言模型推理
人工智能·语言模型·自然语言处理
诗酒当趁年华34 分钟前
【NLP实践】二、自训练数据实现中文文本分类并提供RestfulAPI服务
人工智能·自然语言处理·分类
静心问道1 小时前
Idefics3:构建和更好地理解视觉-语言模型:洞察与未来方向
人工智能·多模态·ai技术应用
sheep88881 小时前
AI与区块链Web3技术融合:重塑数字经济的未来格局
人工智能·区块链
奋进的孤狼1 小时前
【Spring AI】阿里云DashScope灵积模型
人工智能·spring·阿里云·ai·云计算
AIGC_北苏1 小时前
让UV管理一切!!!
linux·人工智能·uv