开源自动GPT和BabyAGI将递归整合到AI应用中

开源Auto-GPT与BabyAGI:将递归融入AI应用

近期,Auto-GPT和BabyAGI的发展展示了自主智能体的巨大潜力,引起了AI研究和软件开发领域的极大关注。这些基于大型语言模型(LLM)的智能体能够响应用户提示,执行复杂的任务序列。通过利用互联网、本地文件访问、其他API和基本记忆结构等多种资源,这些智能体在将递归融入AI应用方面取得了初步进展。

什么是BabyAGI?

BabyAGI是由Yohei Nakajima于2023年3月28日通过Twitter推出的原始任务驱动自主智能体的简化版本。它利用OpenAI的自然语言处理(NLP)能力和Pinecone存储和检索任务结果,提供了高效且用户友好的体验。BabyAGI仅包含140行代码,易于理解和扩展。

BabyAGI的名称意义重大,因为这些工具正不断推动社会朝着AI系统发展,尽管这些系统尚未实现人工通用智能(AGI),但其能力正在指数级增长。AI生态系统每天都在经历新的进步,随着未来突破和可能出现的能够自我提示解决复杂问题的GPT版本,这些系统现在给用户留下了与AGI交互的印象。

什么是Auto-GPT?

Auto-GPT是一个旨在通过将目标分解为更小的子任务并自动循环利用互联网和其他工具来完成任务的人工智能智能体。这个智能体使用OpenAI的GPT-4或GPT-3.5 API,并且是首批使用GPT-4执行自主任务的应用之一。

与需要手动指令的交互式系统(如ChatGPT)不同,Auto-GPT为自己设定了实现更大目标的新目标,而不一定需要人类干预。Auto-GPT能够生成响应提示以完成特定任务,还可以根据新获得的信息创建和修改自己的提示以进行递归实例。

这对未来意味着什么?

尽管这些智能体仍处于实验阶段且存在一些局限性,但它们有望提高AI硬件和软件成本降低带来的生产力收益。根据ARK Invest的研究,到2030年,AI软件可能产生高达14万亿美元的收入和90万亿美元的企业价值。随着基础模型如GPT-4的不断发展,许多公司选择训练自己的小型、专用模型。虽然基础模型具有广泛的应用范围,但小型专用模型具有减少推理成本等优势。

此外,许多担心版权问题和数据治理的企业选择使用公共和私人数据的混合物开发自己的专有模型。一个显著的例子是,一个在PubMed生物医学数据上训练的27亿参数LLM在美国医学执照考试(USMLE)的问答测试中取得了令人鼓舞的结果。在MosaicML平台上的训练成本约为38,000美元,计算持续时间为6.25天。相比之下,GPT-3的最后一次训练运行的计算成本估计接近500万美元。

相关推荐
却道天凉_好个秋17 分钟前
深度学习(二):神经元与神经网络
人工智能·神经网络·计算机视觉·神经元
UQI-LIUWJ17 分钟前
unsloth笔记:运行&微调 gemma
人工智能·笔记·深度学习
THMAIL21 分钟前
深度学习从入门到精通 - 生成对抗网络(GAN)实战:创造逼真图像的魔法艺术
人工智能·python·深度学习·神经网络·机器学习·生成对抗网络·cnn
却道天凉_好个秋22 分钟前
计算机视觉(八):开运算和闭运算
人工智能·计算机视觉·开运算与闭运算
无风听海24 分钟前
神经网络之深入理解偏置
人工智能·神经网络·机器学习·偏置
JoinApper25 分钟前
目标检测系列-Yolov5下载及运行
人工智能·yolo·目标检测
闲看云起1 小时前
从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型
gpt·架构·llama
北京地铁1号线1 小时前
GPT(Generative Pre-trained Transformer)模型架构与损失函数介绍
gpt·深度学习·transformer
飞哥数智坊1 小时前
即梦4.0实测:我真想对PS说“拜拜”了!
人工智能
fantasy_arch1 小时前
9.3深度循环神经网络
人工智能·rnn·深度学习