Decomposed Meta-Learning for Few-Shot Named Entity Recognition

原文链接:

https://aclanthology.org/2022.findings-acl.124.pdf

ACL 2022

介绍

问题

目前基于span的跨度量学习(metric learning)的方法存在一些问题:

1)由于是通过枚举来生成span,因此在解码的时候需要额外处理重叠的span;

2)non-entites类别的原型通常都是噪声;

3)跨域时,最有用的信息就是当前领域有限的样本,之前的方法只将这些样本用于分类的相似性计算。

IDEA

作者提出分解元学习(decomposed meta-learning)的方法来解决Few-shot ner任务(实体的边界检测和实体的分类)。

将span检测作为序列标注问题,并通过引入MAML(model-agnostic metalearning 不是很懂 可以参考这篇文章Model-Agnostic Meta-Learning (MAML)模型介绍及算法详解 - 知乎)训练span detector,从而找到一个能快速适应新实体类别的模型参数进行初始化;对于实体分类,作者提出MAML-ProtoNet来找到一个合适的向量空间对不同类别的span进行分类。

方法

整个方法的整体结构如下所示:

Entity span Detection

span detection模型用于定位输入句子中的实体,该模块是类别无关的,学到的只是实体的边界信息(即领域不变的内部特征,而不是特定的领域信息),因此就能跨域进行实体定位。

Basci Detector

作者使用BIOES标注框架,给定一个有L个token的序列,使用encoder 来获得所有token的上下文表征,对于每个token 使用一个线性分类层来计算其是否是实体的一部分;

模型的损失如下所示:

使用每个token的交叉熵损失,这里引入最大值是为了缓解损失相对较高的token导致的学习不充分问题。推理阶段,通过Viterbi算法进行解码。

Meta-Learning Procedure

在该阶段,作者对边界检测模型进行训练。

首先,从train数据集中进行随机采样得到,对模型执行inner-update:

其中表示在学习率为α时n步的梯度更新,来最小化loss(公式3)。

然后在query set中对更新后的模型进行评估,同时通过汇总多个时间来执行meta-update:

上式中的二阶导数,使用其一阶近似值进行估算:

meta-test阶段,首先将在support set上训练好的span detection迁移到新领域,然后对query样本进行相应的预测。

Entity Typing

Basic Model: ProtoNet

给定输入序列L:,用公式1的方法计算word embedding hi,并按以下方式计算span的表征:

对于每个类别yk,使用这个support set中属于该类别的所有span来计算原型ck:

训练过程中,首先使用support set中的训练数据计算所有类别的原型,然后对于query set中的每个span,通过计算其表征与每个类别原型ck的距离来得到属于每个类别的分数:

最小化分类的交叉熵损失来训练原型网络:

推理阶段,首先利用训练好的模型计算所有训练集中所有类别的原型,然后使用边界检测模型得到span,按照公式10为每个span进行分类:

MAML Enhanced ProtoNet

在训练集中进行随机采样,得到。对于inner-update,首先为每个类别计算原型,然后将每个span作为query对模型参数进行更新:

在meta-update阶段,使用重新计算每个类别的原型,即在query set上对r进行验证,同样的使用一阶导数近似值提高计算效率:

训练过程中没有见过的数据,首先利用support中的样本来对meta-learned的模型进行微调,微调好后再计算每个类别的原型,最后基于这些原型进行分类。

实验

对比实验

在Intra和Inter这两种数据设置下进行实验,结果如下图所示:

在Cross-Dataset数据集上进行实验,结果如下所示:

消融实验

对主要模块进行了消融实验,结果如下所示:

其他

对不同类别的span表征进行了可视化:

结论

这篇论文没有很看懂,去看了以下Meta-learning的相关内容也没有很明白,似乎就是meta-learning就是为模型训练出一个更合适的参数,使其能够更快的应用于新领域。上周看的一篇论文感觉跟这篇很像,不过不知道是不是在Few-shot ner中用原型学习的很多,感觉还挺像的。

相关推荐
java1234_小锋17 分钟前
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现
深度学习·语言模型·transformer
大刘讲IT21 分钟前
面向中小企业的企业AI Agent未来3年构建蓝图规划
人工智能·经验分享·ai·开源·制造
yzx99101323 分钟前
深度学习的进化之路:从感知机到通用智能的曙光
人工智能·深度学习
是开心的栗子呀27 分钟前
阿里云天池:预测二手车交易价格的机器学习项目-高效实现MAE低于500分
人工智能·机器学习·阿里云·ai·云计算
智算菩萨36 分钟前
走向场景,走向融合:2025年末国产大模型的平台化竞赛与Agent新范式
人工智能·语言模型·aigc
KAI智习37 分钟前
一张图看懂AI Agent的6种模式—MAS
人工智能·agent·多智能体·mas
玩转单片机与嵌入式1 小时前
在STM32F103单片机上跑通AI模型:为什么选正弦波作为Hello World?
人工智能·stm32·单片机
闲谈共视1 小时前
基于去中心化社交与AI智能服务的Web钱包商业开发的可行性
前端·人工智能·去中心化·区块链
老马啸西风1 小时前
成熟企业级技术平台-10-跳板机 / 堡垒机(Bastion Host)详解
人工智能·深度学习·算法·职场和发展
c#上位机1 小时前
halcon求区域交集——intersection
图像处理·人工智能·计算机视觉·c#·halcon