SuperAGI - 构建、管理和运行 AI Agent

文章目录


一、关于 SuperAGI

SuperAGI 一个开发优先的开源自治AI代理框架,使开发人员能够构建、管理和运行有用的自治代理。您可以无缝运行并发代理,使用工具扩展代理功能。代理有效地执行各种任务,并在每次后续运行中不断提高其性能。


💡特点

  • 配置、生成和部署自治AI代理-创建生产就绪和可扩展的自治代理。
  • 使用工具包扩展代理功能-将工具包从我们的市场添加到您的代理工作流程中。
  • 图形用户界面-通过图形用户交互界面访问您的代理。
  • Action Console-通过授予代理输入和权限与代理交互。
  • 多个向量DB-连接到多个向量DB以提高代理的性能。
  • 性能遥测-深入了解代理的性能并进行相应优化。
  • 优化令牌使用-控制令牌使用以有效管理成本。
  • 代理内存存储-通过存储他们的内存使您的代理能够学习和适应。
  • 模型-针对业务特定用途的自定义微调模型。
  • 工作流-使用ReAct LLM的预定义步骤轻松自动化任务。

🛠 工具包

工具包允许SuperAGI代理与外部系统和第三方插件进行交互。


二、⚙️安装

您可以使用以下三种方法之一安装SuperAGI。

☁️SuperAGI云

要快速开始尝试代理,而无需设置系统,请尝试Superagi Cloud

1、访问Superagi Cloud并使用您的github帐户登录。

2、在您的帐户设置中,转到"模型提供程序"并添加您的API密钥。

一切就绪!毫不费力地开始运行您的代理。


🖥️本地

1、打开您的终端并克隆SuperAGI存储库。

shell 复制代码
git clone https://github.com/TransformerOptimus/SuperAGI.git 

2、使用以下命令导航到克隆的存储库目录:

shell 复制代码
cd SuperAGI

3、创建config_template. yaml的副本,并将其命名为config.yaml。

4、确保您的系统上安装了Docker。您可以从这里下载并安装它。

5、运行Docker Desktop后,在SuperAGI目录中运行以下命令:

a、对于常规使用:

shell 复制代码
docker compose -f docker-compose.yaml up --build

b、如果您想将SuperAGI与本地LLM一起使用并拥有GPU,请运行以下命令:

shell 复制代码
docker compose -f docker-compose-gpu.yml up --build

6、打开您的网络浏览器并导航到http://localhost:3000以访问SuperAGI。


🌀 Digital Ocean

https://cloud.digitalocean.com/apps/new?repo=https://github.com/TransformerOptimus/SuperAGI/tree/main


三、架构

1、SuperAGI 架构


2、代理架构


3、代理工作流架构


4、Tools 架构


5、ER图


2025-01-27(一)

相关推荐
极限实验室16 分钟前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
杨过过儿27 分钟前
【学习笔记】4.1 什么是 LLM
人工智能
巴伦是只猫36 分钟前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
大千AI助手1 小时前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记1 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型
LCG元1 小时前
自动驾驶感知模块的多模态数据融合:时序同步与空间对齐的框架解析
人工智能·机器学习·自动驾驶
why技术1 小时前
Stack Overflow,轰然倒下!
前端·人工智能·后端
超龄超能程序猿2 小时前
(三)PS识别:基于噪声分析PS识别的技术实现
图像处理·人工智能·计算机视觉
要努力啊啊啊2 小时前
YOLOv3-SPP Auto-Anchor 聚类调试指南!
人工智能·深度学习·yolo·目标检测·目标跟踪·数据挖掘