Decoupling Knowledge from Memorization: Retrieval-augmented Prompt Learning

本文是LLM系列的文章,针对《Decoupling Knowledge from Memorization:

Retrieval

知识与记忆的解耦:检索增强的提示学习

  • 摘要
  • [1 引言](#1 引言)
  • [2 提示学习的前言](#2 提示学习的前言)
  • [3 RETROPROMPT:检索增强的提示学习](#3 RETROPROMPT:检索增强的提示学习)
  • [4 实验](#4 实验)
  • [5 相关实验](#5 相关实验)
  • [6 结论与未来工作](#6 结论与未来工作)

摘要

提示学习方法在仍然遵循基于参数的学习范式的同时,通过诱导更好的小样本表现,在自然语言处理中掀起了波澜;学习中的遗忘和死记硬背问题可能会遇到不稳定的泛化问题。具体来说,在完全监督的训练中,朴素的提示学习可能很难死记硬背地利用非典型实例,或者用低样本数据过度拟合浅层模式。为了缓解这些限制,我们开发了RETROPROMPT,其动机是将知识与记忆脱钩,以帮助模型在泛化和记忆之间取得平衡。与普通的提示学习相比,RETROPROPT从训练实例中构建了一个开卷知识库,并在输入、训练和推理过程中实现了检索机制,从而使模型能够从训练语料库中检索相关上下文作为增强的线索。大量的实验表明,RETROPROPT可以在小样本和零样本设置中获得更好的性能。此外,我们还进一步说明了我们提出的RETROPROPT可以在新的数据集上产生更好的泛化能力。对记忆的详细分析确实表明,RETROPROMPT可以减少语言模型对记忆的依赖;因此,提高了下游任务的泛化能力。

1 引言

2 提示学习的前言

3 RETROPROMPT:检索增强的提示学习

4 实验

5 相关实验

6 结论与未来工作

我们提出了通过引入检索增强来将知识与记忆解耦的RETROPROPT,以进一步提高输入端提示学习的泛化能力以及模型训练和预测的整个过程。RETROPROPT是一种简单而有效的检索方法,它结合了神经演示、用于训练和预测的kNN指南。我们的广泛研究结果表明,它在小样本、零样本和全监督设置中优于其他演示增强提示方法和知识增强提示方法。分析记忆的本质,验证了知识与记忆脱钩的有效性。有趣的未来方向包括:1)应用于其他任务,如QA和NLG,2)探索用于无监督学习的噪声数据挖掘,3)进一步提高大型数据集的检索效率,等等。

相关推荐
算法狗22 小时前
大模型面试题:有以下哪些方式可以在 prompt 中插入指令?
人工智能·深度学习·机器学习·语言模型·面试题
羊仔AI探索4 小时前
2025年度AI编程Prompt排行榜
人工智能·prompt·ai编程
renhongxia14 小时前
大型语言模型性能预测器:学习何时在混合人机-人工智能管理系统中升级
人工智能·深度学习·学习·机器学习·语言模型·自然语言处理
摸鱼仙人~9 小时前
针对大语言模型文本审核逻辑鲁棒性与精细化规则编排的深度研究报告
人工智能·语言模型·自然语言处理
狮子座明仔9 小时前
O-Researcher:多智能体蒸馏与强化学习打造开源深度研究新标杆
人工智能·深度学习·语言模型·自然语言处理·开源
CCPC不拿奖不改名9 小时前
大语言模型基础:大语言模型核心原理(大语言模型和传统的机器学习的差异)
人工智能·机器学习·语言模型
路多辛9 小时前
为大语言模型而生的节省成本数据格式 TOON 详解
人工智能·语言模型·自然语言处理
木头程序员10 小时前
生成式AI可靠性与可控性技术研究:从真实性到可控编辑
图像处理·人工智能·深度学习·机器学习·计算机视觉·语言模型
万里不留行10 小时前
【LangChain V1.0学习】第二课:批处理与持久化对话(通过完成情感机器人多轮对话进行学习)
人工智能·python·学习·语言模型·langchain
大模型任我行10 小时前
腾讯:动态树强化学习框架DART
人工智能·语言模型·自然语言处理·论文笔记