正向生成、反向生成、正反向生成:LLM生成标注数据的几种方式

自然语言处理(NLP)中的低资源任务(例如医药文本的事件检测、关系三元组抽取等)往往缺乏大量的已标注数据,从而难以训练或微调专门的模型。在没有大量已标注数据的情况下,仅基于通用的预训练模型,采用Zero-Shot或者Few-Shot推理来完成这些任务,完成任务的效果目前来说往往较差[1][2]。

获得大量标注数据的一条途径是人工标注,但是人工标注的成本一般较高。另一条途径是使用大语言模型(LLM)来生成标注数据。根据近期发布的一篇论文[1],使用LLM生成标注数据有以下几种方式:正向生成(Forward Generation)、反向生成(Inverse Generation)、以及正反向生成(Forward-Inverse Generation,简称FIG)。

正向生成

正向生成(Forward Generation)比较容易理解。假设存在未标注的专门领域文本数据。正向生成就是针对未标注的文本数据,让LLM生成标注结果(或称"标签")。

正向生成可以用X→Y'来表示,其中,X表示原始的文本数据,Y'表示LLM生成的标签,'表示噪音;{(X,Y')}表示{(待标注文本,标签)}数据集。

正向生成的缺点是:所生成的标签的质量取决于LLM的推理能力;由于推理、尤其较复杂的推理目前还不是一般LLM的强项,所生成标签的准确性不高、且不容易控制。

反向生成

反向生成(Inverse Generation)根据已有的、或者已生成的标签,让LLM生成文本数据。

以一个信息抽取任务为例[3],反向生成简单来说首先根据种子数据生成具有一定结构的抽取信息,然后提示LLM生成含有抽取信息的文本。

反向生成可以用Y'→X'来表示,其中,Y'表示已有的、或者已生成的标签,X'表示LLM生成的文本,'表示噪音;{(X',Y')}表示{(待标注文本,标签)}数据集。

反向生成可以发挥LLM在文本生成方面的长处。同时,反向生成也存在以下的缺点:

  • LLM所生成的文本内容分布较广,较难限制在一个专门领域之内,即使在提示语中加入限制领域的要求,问题也得不到较好的解决[1];
  • LLM所生成的文本中可能含有属于其它标签的内容,从而使得标注不完整,影响生成文本的准确性以及已有的、或者已生成的标签的准确性。

正反向生成

正反向生成(FIG)是一种综合了正向生成和反向生成的混合式方法,目的是提高LLM所生成的标注数据的质量。在一篇以事件检测(Event Detection)标注数据的生成为背景的论文[1]中,对于正反向生成的描述大致是这样的:

  1. 假设存在未标注的专门领域文本数据。首先,针对未标注文本数据,通过正向生成来提取事件类型和触发词,并将事件类型和经过筛选的触发词组织成一定的结构;
  2. 根据上一步产生的信息、以及任务指示和事件定义,通过反向生成来生成文本数据X';
  3. 针对上一步产生的文本数据X',再次通过正向生成标注出全部标签,以确保所有应该被标注的信息均被标注。

上述论文[1]的实验结果表明,与正向生成相比,正反向生成所生成的标签更准确;与反向生成相比,正反向生成所生成的文本可以更好地限制在一个专门领域内。

在分别使用:

  • 正向生成、
  • 反向生成、以及
  • 正反向生成

生成标注数据,并训练下游的事件检测(Event Detection)模型后,正反向生成所生成的标注数据,其训练出的下游模型在测试中的表现最优。

测试的结果还表明,正反向生成所生成的标注数据,其训练出的模型明显优于ChatGPT的直接推理,但是落后于人工标注数据所训练出的模型。

不过对于低资源任务来说,由于缺乏人工标注数据,以上最后一项比较的实际意义也许并不大。

参考文献

1\] FIG: Forward-Inverse Generation for Low-Resource Domain-specific Event Detection. [arxiv.org/abs/2502.17...](https://link.juejin.cn?target=https%3A%2F%2Farxiv.org%2Fabs%2F2502.17394 "https://arxiv.org/abs/2502.17394") \[2\] TextEE: Benchmark, Reevaluation, Reflections, and Future Challenges in Event Extraction. [arxiv.org/abs/2311.09...](https://link.juejin.cn?target=https%3A%2F%2Farxiv.org%2Fabs%2F2311.09562 "https://arxiv.org/abs/2311.09562") \[3\] STAR: Boosting Low-Resource Information Extraction by Structure-to-Text Data Generation with Large Language Models. [arxiv.org/abs/2305.15...](https://link.juejin.cn?target=https%3A%2F%2Farxiv.org%2Fabs%2F2305.15090 "https://arxiv.org/abs/2305.15090") 封面图:CHUTTERSNAP、Unsplash

相关推荐
机器之心3 分钟前
单个4090就能跑,Mistral开源多模态小模型,开发者:用来构建推理模型足够香
人工智能
数智大号6 分钟前
XGPT x DeepSeek:微步AI安全助手满血升级
人工智能·安全
tpoog6 分钟前
[贪心算法]-最大数(lambda 表达式的补充)
算法·贪心算法
橘颂TA10 分钟前
【C++】树和二叉树的实现(上)
数据结构·算法·二叉树·
大囚长17 分钟前
黑客攻击deepseek服务原理解析
人工智能
maisui1213818 分钟前
牛客周赛 Round 85
算法·深度优先·codeforces
X.Cristiano19 分钟前
开源模型中的 Function Call 方案深度剖析
人工智能·function call·tools
机器之心20 分钟前
深度学习的平衡之道:港科大、港城大等团队联合发布多目标优化最新综述
人工智能
机器之心23 分钟前
先别骂队友,上交如何让DeepSeek R1在分手厨房再也不糊锅?
人工智能
机器之心24 分钟前
多模态也做到了强推理!工业界首个开源的R1V,让视觉思考进入o1时代
人工智能