Relation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning

本文是LLM系列文章,针对《Relation Extraction as Open-book Examination:

Retrieval

关系提取作为开卷测试:检索增强提示调整

  • 摘要
  • [1 引言](#1 引言)
  • [2 方法](#2 方法)
  • [3 实验](#3 实验)
  • [4 相关工作](#4 相关工作)
  • [5 结论](#5 结论)

摘要

经过预训练的语言模型通过表现出显著的小样本学习能力,对关系提取做出了重大贡献。然而,用于关系提取的提示调优方法可能仍然无法推广到那些罕见或困难的模式。注意,以前的参数学习范式可以被视为将训练数据视为一本书的记忆,将推理视为闭书测试。在给定小样本实例的情况下,这些长尾或硬模式很难被记忆在参数中。为此,我们将RE视为一种开卷考试,并提出了一种新的半参数检索范式------增强关系提取的提示调整。我们构建了一个开放式书籍数据存储,用于检索基于提示的实例表示和作为存储键值对的对应关系标签。在推断过程中,该模型可以通过线性插值PLM的基本输出与数据存储上的非参数最近邻分布来推断关系。通过这种方式,我们的模型不仅通过训练期间存储在权重中的知识推断关系,而且通过展开和查询开卷数据存储中的示例来帮助决策。在基准数据集上进行的大量实验表明,我们的方法可以在标准监督和小样本设置中达到最先进的水平。

1 引言

2 方法

3 实验

4 相关工作

5 结论

在这项工作中,我们将RE视为一种开卷考试,并提出了检索增强的提示调优,这是一种新的RE范式,允许PLM引用开卷数据存储中的类似实例。RetrievalRE的成功表明,基于作为参考的提示调优来检索相关上下文,使PLM更容易预测长尾或硬模式。我们将考虑在未来的工作中使用更具体的功能来丰富开卷数据存储的组成。

相关推荐
文火冰糖的硅基工坊2 分钟前
[人工智能-大模型-74]:模型层技术 - 模型训练六大步:③神经网络,预测输出:基本功能与对应的基本组成函数
人工智能·深度学习·神经网络
mwq301232 分钟前
RLHF-奖励模型RM 的“引擎”:Pairwise Loss 梯度计算详解
人工智能
亚远景aspice5 分钟前
亚远景热烈祝贺保隆科技通过ASPICE CL2评估
大数据·人工智能·物联网
苍何10 分钟前
这款国产智能编码工具,竟然登顶全球TOP3!
人工智能
许泽宇的技术分享11 分钟前
提示词工程完全指南:从入门到精通的AI对话艺术 —— 用一句话驯服千亿参数的“大脑“
人工智能
淡漠的蓝精灵19 分钟前
深度解析Weights & Biases:让AI实验管理变得如此简单
人工智能·其他·机器学习
mwq3012339 分钟前
GPT-RLHF :深入解析奖励模型 (Reward Model)
人工智能
kk_net889939 分钟前
PyTorch Geometric 图神经网络实战利器
人工智能·pytorch·神经网络·其他
新智元40 分钟前
只要强化学习 1/10 成本!翁荔的 Thinking Machines 盯上了 Qwen 的黑科技
人工智能·openai
No.Ada43 分钟前
基于脑电图(EEG)的认知负荷检测实验范式与深度神经网络的系统综述 论文笔记
论文阅读·人工智能·dnn