序言
最近很长段时间没有更新AIGC文章了,但是始终在学习着、更新着自己的AIGC知识库,今天呢,我们来搞一个很有意思的体验。各位一起来尝试下我们自己造一个AI管家和一个AI助理,然后我们只需要派发命令,于是两个AI开始聊天,欸~,聊着聊着呢,就把任务办完了!不信?请看!
前奏(准备工作)
我们最重要的是我们能够获取一个还有Tokens(余额)的api_key,然后就是要用到的Colab网站。
如何获取APIkeys?
首先我们进入到OPENAI的官网并且登入,然后我们会看到两个选项框 点击API框

进入API页面后 鼠标移动到左侧选项栏并点击API keys创建一个APIkey

然后点击创建一个新的APIkey  点击
 点击Create secret key创建(随便给个名字) 然后点击复制按钮
 
  到这里你就获取到了你的API_key啦,于是我们准备工作就做完了,下一步直接进入我们今天的主题------把任务交给Autogen!
 到这里你就获取到了你的API_key啦,于是我们准备工作就做完了,下一步直接进入我们今天的主题------把任务交给Autogen!
使用Colab进行编写
1、首先我们需要创建一个新的笔记本

2、安装pyautogen包
点击+代码输入以下指令:
            
            
              python
              
              
            
          
          !pip install pyautogen~=0.1.0 -q -U然后点击运行 效果和我一样则说明你的包已经安装成功了

解释下代码:
- !符号是Colab中用于执行系统命令的标志。
- pip install是Python包管理器pip的命令,用于安装Python包。
- pyautogen~=0.1.0指定要安装的- pyautogen包的版本为0.1.0。- ~=0.1.0是一种版本约束,表示安装0.1.0版本及其向后兼容的版本,但不包括下一个主要版本。
- -q选项表示"安静"模式,即在安装过程中减少输出信息。
- -U选项表示升级已安装的包到最新版本。
总的来说呢,这行代码的目的是在Colab中安装
pyautogen包的特定版本,并确保安装过程中的输出信息较少。
配置多个大模型
点击+代码输入以下指令:
            
            
              python
              
              
            
          
          config_list = [{
    'model': 'gpt-3.5-turbo',
    'api_key': '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'
}]
llm_config = {
    "timeout": 600,
    "config_list": config_list,
    "temperature": 0
}然后点击运行 效果和我一样则说明你的包已经安装成功了

解释下代码:
- 'model': 指定要使用的模型,我们这里选择使用的是- 'gpt-3.5-turbo'模型
- 'api_key': 指定 OpenAI API 的密钥,博主的这个API Key已失效不用担心哈😋,但请注意,API 密钥通常是敏感信息,应当妥善处理。
接下来,我们定义了一个名为
llm_config的字典,用于进行一些信息的配置:
- 'timeout': 设置请求的超时时间为 600 秒,即如果请求在 600 秒内没有完成,就会超时。
- 'config_list': 键值就是之前我们定义的- config_list这个变量,用于指定使用的模型和 API 密钥。
- 'temperature': 设置生成文本时的温度参数为 0。用于控制生成文本的随机性,值越低自由度更低,值越高则反之。
总的来说,我们这段代码是为了配置一个 OpenAI 语言模型的使用环境,其中包括选择模型、设置 API 密钥以及其他生成文本的参数。
实例化用户代理agent对象 管家
安装完包和配置完环境后,我们就开始邀请我们今天的两位主角登场了~
点击+代码输入以下指令:
            
            
              python
              
              
            
          
          import autogen
# 实例化用户代理agent对象 管家
# 授权
user_proxy = autogen.UserProxyAgent(
    name="user_proxy",
    human_input_mode="TERMINATE",
    max_consecutive_auto_reply=10,
    # 代码的执行目录是?当前目录
    code_execution_config={"work_dir":"."},
    system_message="Reply TERMINATE if the task has been solved at full satisfaction.Otherwise, reply CONTINUE, or the reason why the task is not solved yet."
)
# 助理Agent
assistant = autogen.AssistantAgent(
   name="assistant",
  # 由大模型给予
   llm_config=llm_config
)然后点击运行 效果和我一样则说明你的包已经安装成功了

解释下代码:
- 
首先导入 autogen库。
- 
然后创建一个 管家对象,命名为user_proxy,我们实例化这个代理主要负责处理用户的输入和指令。后面就是一些基本的语法格式,用于给这个代理配置了一些参数,如代理的名称(name)、人工输入模式(human_input_mode)等等。
- 
最后创建一个 助理代理对象,命名为assistant,配置该代理使用我们之前定义的llm_config配置,表示使用 OpenAI 语言模型进行文本生成。
总的来说,我们是在设置一个自动生成文本的
环境,包括管家和助理,管家负责处理用户输入和交互,助理使用 OpenAI 语言模型生成文本回复。
开始派发任务 进行对话
点击+代码输入以下指令:
            
            
              python
              
              
            
          
          user_proxy.initiate_chat(
    assistant,
    message="""
    List all the files in the sample_data folder
    """
)然后我们点击运行,查看效果:

这里我们派发任务给管家让它落实一下任务给助理,任务内容(message)就是:List all the files in the sample_data folder,然后点击运行,我们可以看见它实现了我们的任务,并且还犹如真实的生命般给予效果反馈:

总结
今天的内容就到此结束啦,总的来说就是体验一下脱手当一回老板,派发任务给下属,感受一下坐收其成的Feeling!是不是感觉很有趣?当然今天要实现的任务并不是很复杂,主要带着大家一起来感受一下AIGC的力量,在未来的发展中,我相信通过更多丰富强大的大模型和轻巧的AI框架能够让更多的人接触并轻松使用AI的强大力量,让我们一起相信、贡献、学习着。