Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

相关链接:arxiv

关键字:Questioning LLaMAGPT-3.5/4guiding principlespromptinglarge language models

摘要

本文介绍了26个旨在简化查询和提示大型语言模型(Large Language Models, LLMs)过程的指导原则。我们的目标是简化为各种规模的大型语言模型制定问题、检验它们的能力并增强用户对于输入不同提示时不同规模的大型语言模型行为的理解的概念。我们在LLaMA-1/2(7B、13B和70B)、GPT-3.5/4上进行了广泛的实验,以验证所提出原则在指令和提示设计上的有效性。我们希望这项工作能为从事大型语言模型提示的研究人员提供更好的指导。项目页面位于GitHub

核心方法

  • 简洁性和清晰性:避免过度冗长或含糊不清的提示,以免让模型混淆或导致不相关的回应。
  • 语境相关性:提示必须提供有助于模型理解任务背景和领域的相关语境。
  • 任务对齐:提示应与手头任务紧密对齐,使用清晰指示任务性质的语言和结构。
  • 示例演示:对于更复杂的任务,在提示中包含示例,展示期望的回应格式或类型。
  • 避免偏见:设计提示以减少激活模型由于其训练数据而固有的偏见。
  • 渐进式提示:对于需要一系列步骤的任务,提示可以逐步引导模型。

实验说明

  • 实验设置:评估是在ATLAS基准上进行的,这是一个手工制作的实验,用于评估原则提示。
  • 模型和指标:我们使用训练有素的LLaMA-1-{7,13},LLaMA-2-{7,13},LLaMA-2-70B-chat,GPT-3.5 (ChatGPT) 和 GPT-4 作为基础模型。我们将这些模型分为不同规模:小规模(7B模型),中等规模(13B)和大规模(70B,GPT-3.5/4)。
提升
  • 提升结果显示,纳入所引入的原则后所有原则都能显著改善三个规模LLMs的表现力。特别是对于原则14,在所有它适用的问题上表现出改进。
正确性
  • 绝对准确率:检验各种规模模型在应用原则后的绝对性能。普遍来说,这些模型在平均性能上达到了20%-40%的准确性。特别是对于小规模和中等规模模型来说,准确性通常可以达到10%-40%,对于大型模型,准确性可以超过40%。

结论

我们通过详尽的分析展示了26个原则,这些原则提高了LLM关注输入上下文的关键要素的能力,从而生成高质量的回应。通过在处理输入之前用精心制作的原则引导LLM,可以鼓励模型产生更优质的回应。我们的经验结果证明,这一策略可以有效地重塑可能损害输出质量的上下文,从而增加回应的相关性、简洁性和客观性。

未来的研究方向众多。在我们的实验中,我们使用了限制性提示方法来应用这些原则。有潜力进一步校准我们的基础模型,以与我们的原则说明更加吻合,例如通过微调、强化学习、直接偏好优化或使用我们生成的数据集进行不同的提示方法。此外,证明成功的策略可以被集成到标准的LLM操作中,例如通过微调具有原始/原则提示为输入和擦亮、原则回应为训练目标。

相关推荐
三千院本院12 小时前
LlaMA_Factory实战微调Qwen-LLM大模型
人工智能·python·深度学习·llama
珊珊而川12 小时前
MAC-SQL:SQL-Llama 的具体训练流程
sql·macos·llama
共绩算力19 小时前
Llama 4 Maverick Scout 多模态MoE新里程碑
人工智能·llama·共绩算力
yanzhilv2 天前
Ollama + Open WebUI
llama
喜欢吃豆4 天前
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf
illuspas6 天前
Ubuntu 24.04下编译支持ROCm加速的llama.cpp
linux·ubuntu·llama
缘友一世8 天前
LLama3架构原理浅浅学学
人工智能·自然语言处理·nlp·transformer·llama
迪三达8 天前
GPT-3 技术报告
gpt-3
我们没有完整的家9 天前
批量吞吐量实测:Llama-2-7b 昇腾 NPU 六大场景数据报告
llama
asfdsfgas9 天前
从加载到推理:Llama-2-7b 昇腾 NPU 全流程性能基准
人工智能·llama