大语言模型:Large Language Models Are Human-Level Prompt Engineers概述

研究内容

如何通过prompt,在不进行微调大语言模型的前提下,增加大语言模型的表现

研究动机

  • prompt非常有用,但是人工设置的非常不自然;
  • 因此提出了要自动使用大语言模型自己选择prompt;
  • 取得了很好的效果。

作者主要是提出了三件事:

如何让大语言模型生成prompt

LLM是可以分为两类的,

  • 其中一类GPT是只能从前到后的,他们不支持句子补全(在一段话当中填写空缺位置);
  • 另一类,则是可以反向的例如T5、GLM、 InsertGPT,这些模型就会支持句子补全。

因此作者为这两类模型分别设置了两种方法,例子如下:

同时作者指出,也不一定要和这俩完全相同,使用回答评价指标一定可以找到一个更加适合指令instruction生成的prompt这里只是样板(template)。作者给出了在本文实验当中实际采用的prompt:

如何评价这些prompt

就是简单的让其跑一下分

如何进一步优化prompt

可以使用大语言模型进一步resample跑一下选出来的高分指令instruction:

再在这些指令当做选择更好的指令。

相关推荐
风象南1 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶2 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶2 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考5 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab5 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab5 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸7 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云7 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8657 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔7 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能