浅聊一下
有没有家财万贯的掘友家里请了管家的,在评论区举个手...众所周知,管家是一个管理者,负责安排工作给各方面的助手,让助手将事情完成,从而将你的家管理的井井有条。那么在AIGC时代,我们可以让AIGC来当我们的管家,本文将向大家展示如何让AIGC管家完成你的要求...
准备
我们需要使用到colab,这里会需要一点魔法打开哦~~
用谷歌账号登录即可
开始
- 安装pyautogen
- !pip install pyautogen~=0.1.0 -q -U
点击播放键运行
- 配置大模型
-
config_list
是一个包含字典的列表,每个字典描述一个语言模型的配置。'model'
: 表示要使用的语言模型的名称,这里是 'gpt-3.5-turbo',它是 OpenAI 提供的一个预训练模型。'api_key'
: 是用于身份验证的 API 密钥,确保只有授权的用户可以访问 OpenAI 的服务。
-
llm_config
是一个包含一些配置选项的字典,用于配置语言模型的行为。"timeout"
: 设置模型调用的超时时间,这里是 600 秒,超过则请求会中止"config_list"
: 引用了前面定义的config_list
,指定了要使用的语言模型的配置。"temperature"
: 是生成文本时的温度参数,用于调整生成文本的创造性。在这里被设置为 0,表示生成的文本更加确定性,更加接近模型的预测。
python
config_list = [{
'model': 'gpt-3.5-turbo',
'api_key': '**********************************'
}]
llm_config = {
"timeout": 600,
"config_list": config_list,
"temperature": 0
}
点击播放键运行
- 创建管家和助手
-
导入autogen库
- import autogen
-
实例化管家
name
: 给用户代理对象起的名称。human_input_mode
: 用户输入模式,这里是 "TERMINATE",表示用户输入后任务终止。max_consecutive_auto_reply
: 最大连续自动回复次数。超过10次则中止哦code_execution_config
: 代码执行的配置,包括工作目录。system_message
: 发送给用户的系统消息,说明用户应该如何回应。这里告诉管家,如果任务完成就返回结果,如果未完成,就返回任务尚未解决的原因
-
实例化助手
name
: 给助理代理对象起的名称。llm_config
: 使用之前定义的语言模型配置llm_config
。
python
import autogen
# 实例化用户代理agent对象 管家
# 授权
user_proxy = autogen.UserProxyAgent(
name="user_proxy",
human_input_mode="TERMINATE",
max_consecutive_auto_reply=10,
# 代码的执行目录是?当前目录
code_execution_config={"work_dir":"."},
system_message="Reply TERMINATE if the task has been solved at full satisfaction.Otherwise, reply CONTINUE, or the reason why the task is not solved yet."
)
# 助理Agent 干活的
assistant = autogen.AssistantAgent(
name="assistant",
# 由大模型给
llm_config=llm_config
)
点击播放键运行
4. 干活
-
管家吩咐助手干活
assistant
: 是之前实例化的助理代理对象。message
: 告诉助手他需要完成的任务,这里让助手把sample_data文件夹中的文件列举出来
python
user_proxy.initiate_chat(
assistant,
message="""
List all the files in the sample_data folder
"""
)
点击播放键运行,当看见如下结果时,运行成功!
助手完美的把任务完成,列举出来了这个文件夹中的所有文件,并且告诉管家,如果有更多需要,请吩咐我!
结尾
虽然在这里,我们只是让AIGC管家完成了一点很简单的事情,但是运用这种管家管理助手,助手完成任务的模式,可以让我们解决更多更复杂的问题!