Decomposed Prompting: A MODULAR APPROACH FOR SOLVING COMPLEX TASKS

本文是LLM系列文章,针对《Decomposed Prompting: A MODULAR APPROACH FOR SOLVING COMPLEX TASKS》的翻译。

分解提示:一种求解复杂任务的模块化方法

  • 摘要
  • [1 引言](#1 引言)
  • [2 相关工作](#2 相关工作)
  • [3 分解提示](#3 分解提示)
  • [4 案例](#4 案例)
  • [5 结论](#5 结论)

摘要

小样本提示是一种使用大型语言模型(LLM)来解决各种任务的强大方法。然而,随着任务复杂性的增加,或者当任务本身的各个推理步骤很难学习时,尤其是当嵌入到更复杂的任务中时,这种方法会很困难。为了解决这一问题,我们提出了分解提示,这是一种通过将复杂任务分解(通过提示)为更简单的子任务来解决复杂任务的新方法,这些子任务可以委托给专用于这些子任务的基于提示的LLM的共享库。这种模块化结构允许每个提示都针对其特定的子任务进行优化,必要时进行进一步分解,甚至可以根据需要轻松地用更有效的提示、经过训练的模型或符号函数替换。

我们表明,分解提示的灵活性和模块性使其在使用GPT-3的小样本提示方面优于先前的工作。在符号推理任务中,我们可以将LLM难以解决的子任务进一步分解为更简单的可解子任务。当复杂性来自输入长度时,我们可以递归地将任务分解为相同的任务,但输入较小。我们还评估了我们在文本多步骤推理任务上的方法:在长上下文多跳QA上,我们可以通过单独的子任务提示更有效地教授子任务;在开放域多跳QA上,我们可以很容易地将符号信息检索模块纳入我们的分解框架中,从而提高这两项任务的性能。

1 引言

2 相关工作

3 分解提示

4 案例

5 结论

我们提出了一种新的方法,分解提示,通过将复杂任务分解为一个由更简单的子任务构建的提示程序,使用小样本提示来解决复杂任务。从软件库中汲取灵感,我们的分解器和共享子任务以模块化的方式设计:它们使用自己的少量提示,允许独立优化每个提示,必要时进一步分解子任务,甚至用符号系统无缝替换它。我们表明,分解提示在四种不同的任务和泛化设置上优于先前的工作,使其成为解决复杂任务的有效的小样本范例。

相关推荐
新智元7 分钟前
GPT-5系统提示词突遭泄露,17803 token曝光OpenAI小心思!
人工智能·openai
新智元19 分钟前
「机械飞升」18个月后,马斯克首位脑机植入者重磅发声:我重生了!
人工智能·openai
xuejianxinokok20 分钟前
大模型微调 Prompt Tuning与P-Tuning 的区别?
人工智能
用户51914958484528 分钟前
Authelia:开源双因素认证与单点登录解决方案
人工智能·aigc
martinzh32 分钟前
AI总让你失望?提示词链让我从骂'憨憨'变成夸'真棒'
人工智能
杨过过儿38 分钟前
Task03:CAMEL框架中的多智能体系统(课程第三章3.1节)
人工智能·自然语言处理
平行绳2 小时前
打通系统边界:外部应用如何无缝调用 Coze 工作流?全指南来了
人工智能·coze
小饼干超人2 小时前
详解triton.jit及PTX
人工智能·大模型·推理加速
西贝爱学习2 小时前
《Distilling the Knowledge in a Neural Network》论文PDF分享, 2015 年,谷歌提出了 “知识蒸馏” 的概念
人工智能·知识蒸馏
、水水水水水3 小时前
RAG学习(五)——查询构建、Text2SQL、查询重构与分发
人工智能·python·深度学习·nlp