[实体关系抽取|顶会论文]Does it Really Generalize Well on Unseen Data_ 它真的能很好地概括看不见的数据吗_关联三重提取方法的系统评价

Does it Really Generalize Well on Unseen Data? Systematic Evaluation of Relational Triple Extraction Methods

三星研究院 | ACL 2022 | 原文链接

它真的能很好地概括看不见的数据吗?关联三重提取方法的系统评价

BackGround

对于过去的三元组抽取的模型中,大多针对于NYT\WebNLG两个数据集进行训练并验证,但是经过研究发现,对于在训练中从未遇见过的三元组中,不能有效的推广不可见的三元组,作者通过重新排列数据、筛选训练实习、增加训练试题来强调看不见的数据,并由此提出一种简单有效的技术进行解决泛化的问题。

在这篇文章中,三元组的类型被分为了3个类型:

  • 完全可见(在各自数据集中与三元组完全重叠)
  • 不完全可见(部分重叠)
  • 不可见(全新)

过去模型的泛化性能评估

如上图,数据集中的部分可见不可见的三元组的比例非常小,以至于多样性不够,由此导致泛化性能评估不可靠。提出三种策略增加部分可见和不可见的三元组比例。

重新排列

反复选择一个三元组,并将包含该三元组的每个实例分发到测试集,使他们在数据集中不可见,为了得到冗余最小化,选择一个出现次数较少的三元组。

重叠筛选

从测试集中删除包含该三元组的实力,从测试集中随机选择k%的唯一三元组,从训练集中删除所有包含所选三元组的实力,构建一个重叠筛选数据。

扩充数据集

构架了一个增强测试集合,使用mask语言模型,用可代替的词语替换每个三元组中定义的实体。

增强方式:实体噪声

使用完全随机的噪声词替换给定输入句中的实体。首先对每个实体w采样一个随机噪声词w',对w'的token进行采样,引入+-1扰动,防止模型记住令牌的数量,

与过去的方式不同,实体噪声使用完全随机的噪声词替换实体,这个特性允许模型利用不可知的信息,因此模型可以通过上下文信息,而不是实体本身来学习从句子中提取三元组。

实验

上表表示了RTE方法再重组数据集和原始数据集上缺乏泛化能力,实体噪声提高了对不可见三元组的繁华能力,对于部分可见的三元组,没有损害泛化能力。

总结

在这篇文章中,揭露了当前主流模型的对于未曾训练过的数据集的泛化能力不强,作者使用实体噪声方式,强化了模型对于未见数据的泛化能力,同时也保持了对于训练中出现过的三元组识别的泛化能力。所以,对于以后得模型训练可以多多考虑对于泛化能力的提升,或者使用作者提供的数据集进行训练,然后性能再对其他的模型在这个数据集上进行比较,对其他的模型造成降维打击。

相关推荐
拾忆-eleven5 小时前
NLP学习路线图(三十):微调策略
自然语言处理·nlp
拾忆-eleven9 小时前
NLP学习路线图(二十二): 循环神经网络(RNN)
rnn·自然语言处理·nlp
拾忆-eleven2 天前
NLP学习路线图(二十五):注意力机制
自然语言处理·nlp
拾忆-eleven4 天前
NLP学习路线图(二十):FastText
人工智能·算法·机器学习·nlp
用户302407093525 天前
多跳问答数据难找?试试 HopWeaver:首个基于任意语料库的自动合成框架,质量直逼人工标注
nlp
Elastic开源社区5 天前
Java生态中的NLP框架
java·开发语言·自然语言处理·nlp
拾忆-eleven5 天前
NLP学习路线图(十四):词袋模型(Bag of Words)
人工智能·学习·自然语言处理·nlp
拾忆-eleven6 天前
NLP学习路线图(十五):TF-IDF(词频-逆文档频率)
人工智能·学习·自然语言处理·nlp
拾忆-eleven7 天前
NLP学习路线图(十三):正则表达式
自然语言处理·nlp
LChuck8 天前
【大模型微调】魔搭社区GPU进行LLaMA-Factory微调大模型自我认知
人工智能·语言模型·自然语言处理·nlp·llama·魔搭社区·modelscope