Relation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning

本文是LLM系列文章,针对《Relation Extraction as Open-book Examination:

Retrieval

关系提取作为开卷测试:检索增强提示调整

  • 摘要
  • [1 引言](#1 引言)
  • [2 方法](#2 方法)
  • [3 实验](#3 实验)
  • [4 相关工作](#4 相关工作)
  • [5 结论](#5 结论)

摘要

经过预训练的语言模型通过表现出显著的小样本学习能力,对关系提取做出了重大贡献。然而,用于关系提取的提示调优方法可能仍然无法推广到那些罕见或困难的模式。注意,以前的参数学习范式可以被视为将训练数据视为一本书的记忆,将推理视为闭书测试。在给定小样本实例的情况下,这些长尾或硬模式很难被记忆在参数中。为此,我们将RE视为一种开卷考试,并提出了一种新的半参数检索范式------增强关系提取的提示调整。我们构建了一个开放式书籍数据存储,用于检索基于提示的实例表示和作为存储键值对的对应关系标签。在推断过程中,该模型可以通过线性插值PLM的基本输出与数据存储上的非参数最近邻分布来推断关系。通过这种方式,我们的模型不仅通过训练期间存储在权重中的知识推断关系,而且通过展开和查询开卷数据存储中的示例来帮助决策。在基准数据集上进行的大量实验表明,我们的方法可以在标准监督和小样本设置中达到最先进的水平。

1 引言

2 方法

3 实验

4 相关工作

5 结论

在这项工作中,我们将RE视为一种开卷考试,并提出了检索增强的提示调优,这是一种新的RE范式,允许PLM引用开卷数据存储中的类似实例。RetrievalRE的成功表明,基于作为参考的提示调优来检索相关上下文,使PLM更容易预测长尾或硬模式。我们将考虑在未来的工作中使用更具体的功能来丰富开卷数据存储的组成。

相关推荐
Serverless社区8 小时前
AgentRun实践指南:Agent 的宝藏工具—All-In-One Sandbox
人工智能
AngelPP8 小时前
拆解 OpenClaw 上下文引擎:一个 AI Agent 是如何管理"记忆"的
人工智能
老纪的技术唠嗑局8 小时前
OpenClaw + 6 个 Agent 运转半个月,从聊天到干活的完整工程实践
人工智能
Guo白给8 小时前
openclaw飞书部署手册
人工智能
itpretty8 小时前
如何用 skill-creator 创建、测试和优化 skill
人工智能·claude
蓝戒札记8 小时前
效率神器 NotebookLM:构建高质量知识库的完整教程与落地最佳实践
人工智能
chaors8 小时前
Langchain入门到精通0x02:ICEL
人工智能·langchain·ai编程
吴佳浩8 小时前
什么是算力?
人工智能·pytorch·llm
charlex9 小时前
【陈同学】走进 AI Agent:从“对话框”到“自主智能体”
人工智能·agent
百度Geek说10 小时前
打造高效易用的Agent Skill
人工智能