论文 | LARGE LANGUAGE MODELS ARE HUMAN-LEVEL PROMPT ENGINEERS

作者: Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han, Keiran Paster, Silviu Pitis, Harris Chan, Jimmy Ba

发表时间: 2023 年 ICLR 会议论文

主要内容

本文提出了一种名为 APE (Automatic Prompt Engineer) 的方法,旨在自动生成和选择用于指导大型语言模型 (LLM) 的指令。文章的主要贡献可以概括为以下几点:

  • 自然语言程序合成: 将指令生成问题与程序合成问题进行类比,将指令视为"程序",并使用 LLM 进行优化,从而找到最优的指令。
  • 人类级别的零样本学习性能: 在多个任务中验证了 APE 的有效性,包括 24 个指令诱导任务和 21 个 BIG-Bench 任务。在所有这些任务中,APE 生成的指令在零样本学习方面达到了与人类标注者相当甚至更好的性能。
  • 性能分析: 论文进行了广泛的定性和定量分析,探索了 APE 的各个方面,包括提案分布、评分函数和迭代搜索。结果表明,使用更大的 LLM 和人类对齐的模型可以生成更好的提案分布,并且迭代蒙特卡洛搜索可以略微提高指令质量。
  • 应用案例: 论文展示了 APE 在几个任务中的应用,例如指令诱导、零样本思维链和真实性。APE 生成的指令可以显著提高零样本和少样本学习性能,找到比"让我们一步一步思考"更好的思维链提示,以及指导 LLM 生成更真实和更信息的答案。
  • 成本分析: 论文进行了成本分析,结果表明,尽管大型模型的每 tokens 成本更高,但它们在生成最佳指令方面更具成本效益。这主要是因为大型模型可以生成更简洁的指令,从而减少评分所需的计算资源。

结论

APE 是一种很有前景的方法,可以自动生成和选择用于指导 LLM 的指令。它具有效率高、性能好、可扩展性强等优点,为控制和管理生成式人工智能提供了新的思路。

个人思考

这篇论文展示了一个有趣的想法,即利用 LLM 自动生成和选择指令,从而提高模型在下游任务中的性能。这种方法可以显著减少人工编写和验证有效指令所需的时间,并使 LLM 更易于使用。未来,我们可以进一步探索 APE 的应用场景,例如将其用于其他具有自然语言界面的模型,并开发用于优化提示长度的方法,以进一步降低成本。

相关推荐
tinygone8 分钟前
OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp
人工智能·ubuntu·llama
建行一世15 分钟前
【Windows笔记本大模型“傻瓜式”教程】使用LLaMA-Factory工具来完成对Windows笔记本大模型Qwen2.5-3B-Instruct微调
windows·ai·语言模型·llama
正在走向自律16 分钟前
第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)
人工智能·chatgpt·aigc·可灵·deepseek·即梦·阿里通义千问
轩轩分享AI16 分钟前
DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评
人工智能·ai·ai写作·小说写作·小说·小说干货
Aevget34 分钟前
基于嵌入向量的智能检索!HOOPS AI 解锁 CAD 零件相似性搜索新方式
人工智能·hoops·cad·hoops ai·cad数据格式
nhc08839 分钟前
贵阳纳海川·花卉游戏行业解决方案
人工智能·游戏·微信小程序·软件开发·小程序开发
QC777LX43 分钟前
赋能智慧出行:传统旅游顾问进阶AI行程规划师的系统化培训与职业认证
人工智能·旅游
碳基硅坊1 小时前
在昇腾 910B2 上部署 Qwen3.5-35B-A3B
人工智能
冬奇Lab2 小时前
一天一个开源项目(第68篇):DeerFlow - 字节跳动出品的深度研究与超级智能体框架
人工智能·开源·资讯
NineData2 小时前
NineData V5.0 产品发布会:让 AI 成为数据管理的驱动力,4月16日!
数据库·人工智能·ai编程