[实体关系抽取|顶会论文]Does it Really Generalize Well on Unseen Data_ 它真的能很好地概括看不见的数据吗_关联三重提取方法的系统评价

Does it Really Generalize Well on Unseen Data? Systematic Evaluation of Relational Triple Extraction Methods

三星研究院 | ACL 2022 | 原文链接

它真的能很好地概括看不见的数据吗?关联三重提取方法的系统评价

BackGround

对于过去的三元组抽取的模型中,大多针对于NYT\WebNLG两个数据集进行训练并验证,但是经过研究发现,对于在训练中从未遇见过的三元组中,不能有效的推广不可见的三元组,作者通过重新排列数据、筛选训练实习、增加训练试题来强调看不见的数据,并由此提出一种简单有效的技术进行解决泛化的问题。

在这篇文章中,三元组的类型被分为了3个类型:

  • 完全可见(在各自数据集中与三元组完全重叠)
  • 不完全可见(部分重叠)
  • 不可见(全新)

过去模型的泛化性能评估

如上图,数据集中的部分可见不可见的三元组的比例非常小,以至于多样性不够,由此导致泛化性能评估不可靠。提出三种策略增加部分可见和不可见的三元组比例。

重新排列

反复选择一个三元组,并将包含该三元组的每个实例分发到测试集,使他们在数据集中不可见,为了得到冗余最小化,选择一个出现次数较少的三元组。

重叠筛选

从测试集中删除包含该三元组的实力,从测试集中随机选择k%的唯一三元组,从训练集中删除所有包含所选三元组的实力,构建一个重叠筛选数据。

扩充数据集

构架了一个增强测试集合,使用mask语言模型,用可代替的词语替换每个三元组中定义的实体。

增强方式:实体噪声

使用完全随机的噪声词替换给定输入句中的实体。首先对每个实体w采样一个随机噪声词w',对w'的token进行采样,引入+-1扰动,防止模型记住令牌的数量,

与过去的方式不同,实体噪声使用完全随机的噪声词替换实体,这个特性允许模型利用不可知的信息,因此模型可以通过上下文信息,而不是实体本身来学习从句子中提取三元组。

实验

上表表示了RTE方法再重组数据集和原始数据集上缺乏泛化能力,实体噪声提高了对不可见三元组的繁华能力,对于部分可见的三元组,没有损害泛化能力。

总结

在这篇文章中,揭露了当前主流模型的对于未曾训练过的数据集的泛化能力不强,作者使用实体噪声方式,强化了模型对于未见数据的泛化能力,同时也保持了对于训练中出现过的三元组识别的泛化能力。所以,对于以后得模型训练可以多多考虑对于泛化能力的提升,或者使用作者提供的数据集进行训练,然后性能再对其他的模型在这个数据集上进行比较,对其他的模型造成降维打击。

相关推荐
计算机软件程序设计2 天前
NLP自然语言处理中Word2Vec和GloVe概述
自然语言处理·nlp·word2vec
大模型铲屎官4 天前
玩转 LangChain:从文档加载到高效问答系统构建的全程实战
人工智能·python·ai·langchain·nlp·文档加载·问答系统构建
&永恒的星河&7 天前
深度剖析:NLP 领域基于 TF-IDF 和 Text-Rank 的关键字提取原理
人工智能·ai·自然语言处理·nlp·tf-idf·pagerank·textrank
goomind7 天前
Transformer之Decoder
人工智能·深度学习·llm·nlp·transformer
背水8 天前
Word2Vec中的CBOW模型训练原理详细解析
人工智能·机器学习·nlp·word2vec
致Great9 天前
RAG 切块Chunk技术总结与分块实现思路分享
人工智能·llm·nlp
爱python的王三金10 天前
【数据分析实战】马来西亚吉隆坡景点评论分析:多维度游客体验与运营优化洞察
大数据·python·nlp·数据可视化
珊珊而川10 天前
[Trainer类封装训练过程]和[手动实现训练循环]的区别
人工智能·深度学习·nlp
小饼干超人12 天前
BertTokenizerFast 和 BertTokenizer 的区别
python·机器学习·语言模型·nlp
致Great13 天前
掌握RAG查询优化技巧,让你的检索与生成效率翻倍!
人工智能·llm·nlp