Progressive-Hint Prompting Improves Reasoning in Large Language Models

本文是LLM系列的文章,针对《Progressive-Hint Prompting Improves Reasoning

in Large Language Models》的翻译。

渐进提示改进了大型语言模型中的推理

  • 摘要
  • [1 引言](#1 引言)
  • [2 相关工作](#2 相关工作)
  • [3 渐进提示Prompting](#3 渐进提示Prompting)
  • [4 实验](#4 实验)
  • [5 结论](#5 结论)
  • [6 实现细节](#6 实现细节)
  • [7 不足与未来工作](#7 不足与未来工作)
  • [8 广泛的影响](#8 广泛的影响)
  • [9 具有不同提示的模型响应](#9 具有不同提示的模型响应)

摘要

大型语言模型(LLM)在推理任务中的性能在很大程度上取决于提示设计,思想链(CoT)和自洽性是增强这种能力的关键方法。然而,这些方法并没有充分利用LLM生成的答案来指导后续响应。本文提出了一种新的提示方法,称为渐进提示(PHP),通过使用以前生成的答案作为提示,逐步引导用户找到正确的答案,实现用户和LLM之间的自动多次交互。PHP与CoT和自一致性正交,因此可以轻松地与最先进的技术相结合,以进一步提高性能。我们在七个基准上进行了广泛而全面的实验。结果表明,PHP在保持高效的同时显著提高了准确性。例如,使用text-davinci-003,我们观察到与复杂CoT相比,贪婪解码的GSM8K改进了4.2%,自一致性的样本路径减少了46.17%。通过GPT-4和PHP,我们在SVAMP上实现了最先进的性能(89.1%→ 91.9%)、GSM8K(92%→ 95.5%)、AQuA(76.4%→ 79.9%)和数学(50.3%)→ 53.9%)。

1 引言

2 相关工作

3 渐进提示Prompting

4 实验

5 结论

6 实现细节

7 不足与未来工作

8 广泛的影响

9 具有不同提示的模型响应

具有不同提示的模型响应。当呈现提示100时,该模型准确地解决了该问题。相反,如果提供的提示与正确答案偏离太远,则模型可能会被误导。例如,当提示为0时,模型计算出未使用的胡萝卜量为80磅,输出的答案为0。

相关推荐
硅谷秋水10 小时前
用于机器人控制的因果世界建模
深度学习·机器学习·计算机视觉·语言模型·机器人
文艺小码农10 小时前
PEFT 库中文本生成LoRA 教程
人工智能·深度学习·语言模型·自然语言处理·集成学习
MaoziShan14 小时前
CMU Subword Modeling | 09 Lexemes, or What Dictionaries Know about Morphology
开发语言·人工智能·机器学习·语言模型·自然语言处理·c#
SmartBrain17 小时前
经营洞察:三种经营哲学的核心内涵和实践机制
人工智能·语言模型·aigc
阿杰学AI17 小时前
AI核心知识104—大语言模型之 LLM Full Stack Engineer(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·大模型全栈工程师·新型职业
量子-Alex18 小时前
【大模型智能体】作为数字原子与分子的AI智能体:大型语言模型在计算生物物理领域开启新纪元
人工智能·语言模型·自然语言处理
AI资源库18 小时前
stepfun-ai/Step-3.5-Flash模型深入解析
人工智能·语言模型·架构
好家伙VCC21 小时前
# BERT在中文文本分类中的实战优化:从模型微调到部署全流程在自然语言处理(NL
java·python·自然语言处理·分类·bert
Elastic 中国社区官方博客1 天前
AI 可观察性:公共部门使命韧性的支柱
大数据·人工智能·功能测试·elasticsearch·搜索引擎·语言模型·全文检索
陈天伟教授1 天前
人工智能应用- 扫地机器人:02. 机器人 ≠ 人工智能
人工智能·神经网络·游戏·自然语言处理·机器人·机器翻译