论文 | LEAST-TO-MOST PROMPTING ENABLES COMPLEXREASONING IN LARGE LANGUAGE MODELS

论文主题: 这篇论文提出了"从简单到复杂提示"(Least-to-Most Prompting)这一新的提示策略,旨在解决大语言模型在解决比提示示例更复杂的问题时表现不佳的难题。

核心思想

  • 将复杂问题分解成一系列更简单的子问题。
  • 按顺序解决这些子问题,利用先前子问题的答案来辅助解决当前子问题。
  • 两阶段提示:分解阶段和子问题解决阶段。

优势

  • 泛化能力强: 能够将提示中未见过的问题解决得更好。
  • 无需训练或微调: 提示策略本身不需要训练或微调。
  • 可解释性强: 模型输出的推理过程清晰易懂。

实验结果

  • 符号操作: 在处理长度可变的问题时,从简单到复杂提示比思维链提示表现更优。
  • 组合泛化: 使用 GPT-3 模型,从简单到复杂提示在 SCAN 基准测试中取得了 99.7% 的准确率,而思维链提示只有 16%。
  • 数学推理: 在 GSM8K 和 DROP 基准测试中,从简单到复杂提示也优于思维链提示,尤其是在解决需要多步推理的问题时。

局限性

  • 分解提示泛化性差: 不同领域的分解提示需要单独设计。
  • 分解泛化困难: 即使在同一领域,分解复杂问题也难以实现。

结论与讨论

  • 从简单到复杂提示是提升大语言模型推理能力的重要一步。
  • 提示方法可以进一步改进,例如将提示转换为双向对话,以便更有效地学习。

未来研究方向

  • 探索如何使分解提示在不同领域之间更具有通用性。
  • 研究如何更有效地指导模型进行分解泛化。
  • 将从简单到复杂提示与其他提示方法结合使用,进一步提升模型的推理能力。

文中如何将复杂的问题分解为子问题?

论文中使用了思维链提示(Chain-of-thought Prompting)的思想,但将其与分解提示(Decomposition Prompting)结合,形成了"从简单到复杂提示"(Least-to-Most Prompting)。

分解提示 的核心思想是将复杂问题分解成一系列更简单的子问题,每个子问题都比前一个子问题更容易解决。分解提示的关键在于:

  • 构建示例: 设计一系列示例,展示如何将复杂问题分解成子问题。
  • 明确步骤: 在提示中明确指出每个子问题需要解决什么。

思维链提示 则通过引导模型进行推理过程的输出,帮助模型理解问题的本质和解决思路。

从简单到复杂提示 结合了这两种提示方法的优点,通过分解提示将复杂问题分解成子问题,再通过思维链提示引导模型逐步解决这些子问题,最终得到问题的答案。

具体操作:

  1. 分解阶段:
    • 设计包含分解示例的提示,例如:
      • 示例: "The last letter of 'thinking' is 'k'... So, 'think, machine' outputs 'ke'."
      • 问题: 将 "think, machine, learning" 分解成更简单的子问题。
    • 将模型生成的分解结果作为后续步骤的输入。
  2. 子问题解决阶段:
    • 设计包含思维链示例的提示,例如:
      • 示例: "The output of 'run left' concatenates: the output of 'turn left', the output of 'run'... So the output of 'run left' is 'TURN LEFT' + 'RUN'."
      • 先前答案: 模型在分解阶段生成的子问题答案。
      • 问题: 解决当前子问题。
    • 将模型生成的子问题答案作为后续步骤的输入,直到解决所有子问题,得到最终答案。

这种分解和解决相结合的方式,能够有效地引导模型逐步理解复杂问题,并将其解决。

相关推荐
寒秋丶8 分钟前
Milvus:集合(Collections)操作详解(三)
数据库·人工智能·python·ai·ai编程·milvus·向量数据库
寒秋丶10 分钟前
Milvus:Schema详解(四)
数据库·人工智能·python·ai·ai编程·milvus·向量数据库
CAD老兵12 分钟前
量化技术:如何让你的 3D 模型和 AI 模型瘦身又飞快
人工智能·深度学习·机器学习
算法与编程之美14 分钟前
探索不同的优化器对分类精度的影响和卷积层的输入输出的shape的计算公式
人工智能·深度学习·机器学习·分类·数据挖掘
大千AI助手14 分钟前
微软SPARTA框架:高效稀疏注意力机制详解
人工智能·深度学习·神经网络·llm·大千ai助手·sparta·稀疏注意力机制
林九生14 分钟前
【人工智能】使用 vLLM 高效部署大语言模型:以 secGpt14b 为例
人工智能·语言模型·自然语言处理
云茧20 分钟前
机器学习中的Hello World:线性回归(一)
人工智能·机器学习·线性回归
他们叫我技术总监37 分钟前
从开发者视角深度评测:ModelEngine 与 AI 开发平台的技术博弈
java·人工智能·dubbo·智能体·modelengine
minhuan38 分钟前
构建AI智能体:八十三、当AI开始“失忆“:深入理解和预防模型衰老与数据漂移
人工智能·模型衰老·数据偏移·psi群体稳定性指标·ks统计量检验
AI浩40 分钟前
深入级联不稳定性:从 Lipschitz 连续性视角探讨图像恢复与目标检测的协同作用
人工智能·目标检测·php