正向生成、反向生成、正反向生成:LLM生成标注数据的几种方式

自然语言处理(NLP)中的低资源任务(例如医药文本的事件检测、关系三元组抽取等)往往缺乏大量的已标注数据,从而难以训练或微调专门的模型。在没有大量已标注数据的情况下,仅基于通用的预训练模型,采用Zero-Shot或者Few-Shot推理来完成这些任务,完成任务的效果目前来说往往较差[1][2]。

获得大量标注数据的一条途径是人工标注,但是人工标注的成本一般较高。另一条途径是使用大语言模型(LLM)来生成标注数据。根据近期发布的一篇论文[1],使用LLM生成标注数据有以下几种方式:正向生成(Forward Generation)、反向生成(Inverse Generation)、以及正反向生成(Forward-Inverse Generation,简称FIG)。

正向生成

正向生成(Forward Generation)比较容易理解。假设存在未标注的专门领域文本数据。正向生成就是针对未标注的文本数据,让LLM生成标注结果(或称"标签")。

正向生成可以用X→Y'来表示,其中,X表示原始的文本数据,Y'表示LLM生成的标签,'表示噪音;{(X,Y')}表示{(待标注文本,标签)}数据集。

正向生成的缺点是:所生成的标签的质量取决于LLM的推理能力;由于推理、尤其较复杂的推理目前还不是一般LLM的强项,所生成标签的准确性不高、且不容易控制。

反向生成

反向生成(Inverse Generation)根据已有的、或者已生成的标签,让LLM生成文本数据。

以一个信息抽取任务为例[3],反向生成简单来说首先根据种子数据生成具有一定结构的抽取信息,然后提示LLM生成含有抽取信息的文本。

反向生成可以用Y'→X'来表示,其中,Y'表示已有的、或者已生成的标签,X'表示LLM生成的文本,'表示噪音;{(X',Y')}表示{(待标注文本,标签)}数据集。

反向生成可以发挥LLM在文本生成方面的长处。同时,反向生成也存在以下的缺点:

  • LLM所生成的文本内容分布较广,较难限制在一个专门领域之内,即使在提示语中加入限制领域的要求,问题也得不到较好的解决[1];
  • LLM所生成的文本中可能含有属于其它标签的内容,从而使得标注不完整,影响生成文本的准确性以及已有的、或者已生成的标签的准确性。

正反向生成

正反向生成(FIG)是一种综合了正向生成和反向生成的混合式方法,目的是提高LLM所生成的标注数据的质量。在一篇以事件检测(Event Detection)标注数据的生成为背景的论文[1]中,对于正反向生成的描述大致是这样的:

  1. 假设存在未标注的专门领域文本数据。首先,针对未标注文本数据,通过正向生成来提取事件类型和触发词,并将事件类型和经过筛选的触发词组织成一定的结构;
  2. 根据上一步产生的信息、以及任务指示和事件定义,通过反向生成来生成文本数据X';
  3. 针对上一步产生的文本数据X',再次通过正向生成标注出全部标签,以确保所有应该被标注的信息均被标注。

上述论文[1]的实验结果表明,与正向生成相比,正反向生成所生成的标签更准确;与反向生成相比,正反向生成所生成的文本可以更好地限制在一个专门领域内。

在分别使用:

  • 正向生成、
  • 反向生成、以及
  • 正反向生成

生成标注数据,并训练下游的事件检测(Event Detection)模型后,正反向生成所生成的标注数据,其训练出的下游模型在测试中的表现最优。

测试的结果还表明,正反向生成所生成的标注数据,其训练出的模型明显优于ChatGPT的直接推理,但是落后于人工标注数据所训练出的模型。

不过对于低资源任务来说,由于缺乏人工标注数据,以上最后一项比较的实际意义也许并不大。

参考文献

1\] FIG: Forward-Inverse Generation for Low-Resource Domain-specific Event Detection. [arxiv.org/abs/2502.17...](https://link.juejin.cn?target=https%3A%2F%2Farxiv.org%2Fabs%2F2502.17394 "https://arxiv.org/abs/2502.17394") \[2\] TextEE: Benchmark, Reevaluation, Reflections, and Future Challenges in Event Extraction. [arxiv.org/abs/2311.09...](https://link.juejin.cn?target=https%3A%2F%2Farxiv.org%2Fabs%2F2311.09562 "https://arxiv.org/abs/2311.09562") \[3\] STAR: Boosting Low-Resource Information Extraction by Structure-to-Text Data Generation with Large Language Models. [arxiv.org/abs/2305.15...](https://link.juejin.cn?target=https%3A%2F%2Farxiv.org%2Fabs%2F2305.15090 "https://arxiv.org/abs/2305.15090") 封面图:CHUTTERSNAP、Unsplash

相关推荐
不停喝水9 小时前
【AI+Cursor】 告别切图仔,拥抱Vibe Coding: AI + Cursor 开启多模态全栈新纪元 (1)
前端·人工智能·后端·ai·ai编程·cursor
水如烟10 小时前
孤能子视角:AI智能原理,“所有智能,都是茧房里的耦合“,以及人的主场
人工智能
Xxtaoaooo10 小时前
【开源】灵魂讲述者:基于魔珐星云的AI交互式分支叙事应用,免费体验啦!
人工智能·开源·ai数字人·魔法星云·小说创作
2401_8653825010 小时前
AI询价与传统询价平台的区别
人工智能·信息化项目·政务信息化·信息化造价
liu_zhiyi10 小时前
生成式 AI 交互规范:提示词工程(Prompt Engineering)技术指南
人工智能·prompt·交互
前端不太难10 小时前
开源驱动的 AI 构建与治理
人工智能·开源
椰羊~王小美10 小时前
随机数概念及算法
算法
QYR_1110 小时前
2026年全球寡核苷酸合成用固相载体行业深度洞察与展望
大数据·人工智能
CS创新实验室10 小时前
CS实验室行业报告:自动驾驶领域就业分析报告
人工智能·自动驾驶·unix
泰迪智能科技0110 小时前
分享|人工智能方向职业技术培训:从入门到进阶,11个方向可选
人工智能