基于LLM合成高质量情感数据,提升情感分类能力!!摘要:大多数用于情感分析的数据集缺乏意见表达的上下文,而上下文对于理解情绪往往至关重要,并且这些数据集主要局限于几种情绪类别。像 GPT-4 这样的基础大型语言模型(Foundation Large Language Models,LLMs)存在过度预测情绪的问题,并且资源消耗过大。为此,我们设计了一个基于 LLM 的数据合成管道,并利用一个大型模型 Mistral-7b 来生成用于训练更易获取、轻量级的 BERT 类型编码器模型的训练样本。我们专注于扩大样本的语义多样性,并提出将生成过程锚定到一个叙事语