摘要
预训练语言模型(PLMs)通过微调在文本生成任务中取得了显著进展。然而,在数据稀缺的情况下对plm进行微调是具有挑战性的。因此,开发一个通用的、轻量级的、能够适应各种基于plm的文本生成任务的模型是非常重要的。为了实现这一目标,最近的基于提示的学习提供了一个潜在的解决方案。在本文中,我们改进了这一技术,并提出了一种新的基于提示的文本生成方法(PTG)。首先,PTG为各种源生成任务学习一组源提示,然后将这些提示作为目标提示传输,以执行目标生成任务。为了同时考虑任务级和实例级信息,我们设计了一种自适应注意机制来派生目标提示。对于每个数据实例,PTG通过关注高度相关的源提示来学习特定的目标提示。在广泛的实验中,PTG产生的结果与微调方法相比具有竞争力或更好。我们将源代码提示作为开放资源发布,用户可以添加或重用它们,以改进未来研究的新文本生成任务。代码和数据可在[http:// https://github.com/RUCAIBox/ Transfer-Prompts-for-Text-Generation.]( "http:// https://github.com/RUCAIBox/ Transfer-Prompts-for-Text-Generation.")
1 引言
在自然语言处理(NLP)中,文本生成是一个重要的研究课题,旨在从输入数据自动生成人类语言中可理解的文本(Li等人,2022年)。在最近几十年里,各种方法已广泛应用于各种文本生成任务(Li等人,2019年;Gehring等人,2017年;Li等人,2021a年),尤其是预训练语言模型(PLMs)(Li等人,2021c年)的出现。通过在大量通用语料库上预训练的大规模参数,像GPT-3(Brown等人,2020年)这样的PLMs在文本生成方面取得了实质性进展。
通过微调范式,PLMs可以通过直接用标记数据集调整模型参数,适应各种文本生成任务。
然而,在现实场景中,我们不可避免地会遇到只有有限标记数据的任务(例如,新领域)。在数据稀缺的情况下,微调文本生成模型通常很困难(Chen等人,2020年;Li等人,2021b年)。
尽管各种文本生成任务的输入和输出格式不同,这些任务本质上采用了相似的学习和生成机制(例如,Seq2Seq(Sutskever等人,2014年))。
此外,PLMs的成功揭示了开发通用或可迁移文本生成模型的可能性。例如,Radford等人(2019年)通过预测给定先前标记的下一个标记,将生成任务框定为语言建模。基于这些研究,我们旨在设计一种通用且轻量级的文本生成方法,该方法可以基于PLMs有效地适应各种新任务和数据集。
为了实现这一目标,最近提出的基于提示的学习提供了一种潜在的技术解决方案(Liu等人,2021b年)。在这种范式中,可以通过包含特定任务信息的提示来解决文本生成任务。例如,T5(Raffel等人,2020年)通过使用提示"summarize:"和"answer the question:"将摘要和问答转化为文本到文本格式。基于学习或手动设计的提示,PLMs可以在不进行调整的情况下执行现有或新的生成任务(Brown等人,2020年;Li和Liang,2021年),这为利用PLMs进行各种生成任务提供了一种统一的方法。此外,为了快速将PLMs适应新的NLU任务,一些工作直接使用从源NLU任务学习的软提示来初始化目标NLU任务的提示(Vu等人,2021年;Su等人,2021年)。受这些研究的启发,我们旨在将基于提示的方法应用于可迁移设置中的数据稀缺文本生成任务。
尽管前景光明,但在文本生成中转移提示仍存在两个主要挑战。
首先,已经发现提示具有高度的任务特定性(Gao等人,2020年),并且很难有效地转移或重用现有提示以用于新任务。其次,对于单一任务,即使是学习良好的提示也可能不适合来自大样本的所有数据实例(Scao和Rush,2021年),因此设计考虑任务和实例级特征的有效转移策略并非易事。
为了解决上述问题,我们提出了PTG:用于文本生成的提示转移,这是一种新颖的基于提示的文本生成迁移学习方法。PTG建立在迁移学习设置之上。具体来说,我们从一系列代表性的源生成任务中学习源提示,然后将这些提示作为目标提示转移到执行目标生成任务。核心思想是这些学到的源提示作为表示基础(即自注意力机制中的值向量)。对于新任务中的每个数据实例,我们通过关注高度相关的源提示来学习特定的目标提示。为了支持这种方法,我们构建了一个多键记忆网络,存储源提示和提示集群以进行键值提示查找,然后设计一个考虑任务和实例级信息的自适应注意力机制来推导目标提示。我们的方法不是为新任务使用固定提示,而是能够从源提示中为特定数据实例有效学习最合适的提示表示。这种自适应机制考虑了特定的实例级特征,使我们的方法更加灵活地转移到新的文本生成任务。
据我们所知,我们是第一个将提示迁移学习理念引入解决文本生成任务的。为了评估,我们在三个文本生成任务集的14个数据集上测试了PTG:i)压缩,以简洁文本表达显著信息,如摘要;ii)转导,在精确保留内容的同时转换文本,如风格转换;iii)创作,从输入上下文生成新内容,如故事生成。在完全监督和少量样本实验中,PTG比微调PLMs产生了具有竞争力或更好的结果。除了性能优势外,更重要的是,我们发布了我们的源提示,作为开源提示库。研究人员可以训练添加到我们库中的新任务提示,并重用这些学到的提示来改进未见文本生成任务。我们的库还可以作为一个分析工具,例如分析影响提示在生成任务间迁移性的因素,并通过测量相应的提示相似性来解释任务相似性。
2 相关工作
基于提示的语言模型。 基于提示的学习是一种利用PLMs的方法,通过在将任务输入喂给PLMs时,将特定于任务的指令前置。早期的方法主要使用手工制作的提示来适应不同的生成任务(Brown等人,2020年;Raffel等人,2020年;Zou等人,2021年)。然而,手动设计的提示不够灵活,不能应用于更多种类的新任务。因此,最近的工作集中在自动化学习离散提示(Shin等人,2020年;Gao等人,2020年)。然而,在离散空间中学习提示难以优化,且可能不是最优的。为了解决这些问题,许多工作提出了优化连续提示(Liu等人,2021c年;Li和Liang,2021年),这些提示对许多种类的任务更加灵活。在这些研究中,prefix-tuning(Li和Liang,2021年)在文本生成任务的输入前预置了一个向量序列。相比之下,我们利用软提示来研究文本生成的迁移学习,并证明生成任务通常可以通过提示转移相互帮助。
**自然语言处理的可迁移性。**我们与NLP任务中迁移学习的现有工作(Jeong等人,2020年;Wiese等人,2017年;Liu等人,2019年)密切相关。先前的研究表明,跨任务转移可以解决数据稀缺问题(Wiese等人,2017年),增强复杂推理和推断能力(Jeong等人,2020年),或学习有效的词表示(Liu等人,2019年)。对于解决NLU任务的提示转移也已有研究进展(Vu等人,2021年;Su等人,2021年)。作为代表性的工作,Vu等人(2021年)使用了学到的提示来直接初始化目标任务的提示,而没有考虑特定的输入。此外,Wang等人(2022年)在连续学习中使用基于提示的学习,逐个解决图像分类任务。我们的工作专注于通过利用提示提取隐含的任务相关知识和考虑特定模型输入以实现最有帮助的知识转移,在文本生成任务之间进行提示转移。
3 初步
3.1 问题提法
通常,文本生成的目标是要建模条件概率 Pr(y|x),其中 x = h w1; : : : ; wni 表示输入文本,y = h z1; : : : ; zmi 表示输出文本,它们分别由词汇表 V 中的令牌序列组成。
提示是一种技术,用于在生成输出文本的过程中将额外的任务信息作为条件注入PLMs(Brown等人,2020年)。通常,提示是通过将一系列令牌(离散提示)或连续向量(连续提示)前置到输入 x 来进行的。在我们的论文中,我们采用了连续提示。具体来说,给定一系列 n 个输入令牌,x = h w1; : : : ; wni,我们首先利用PLM嵌入令牌,形成一个矩阵 Ex ∈ R^(n×e),其中 e 是嵌入空间的维度。然后,我们的连续提示 p 表示为一个参数矩阵 Ep ∈ R^(l×e),其中 l 是提示向量的数量。提示 p 然后前置到嵌入的输入,形成一个单一的矩阵 [Ep; Ex] ∈ R^((l+n)×e),该矩阵由PLMs作为普通序列进行编码,使得模型最大化真实值 y 的可能性,即 Pr(y|[p; x])。
3.2 基于提示的迁移学习
在一般的迁移学习框架中,我们定义了一组源生成任务 S = {S1; : : : ; ST},其中第 t 个任务 St = {(x t i ; yt i )} nt i=1 包含 nt 个输入文本 x t i ∈ X 和其对应的输出文本 y t i ∈ Y 的元组。对于一个目标生成任务 T,迁移学习的目标是要利用之前学到的源任务 S 的特定于任务的知识来帮助提高在目标任务 T 中学习到的模型 fθ(由参数 θ 参数化)的性能。
在本文中,我们考虑了一种基于提示的新迁移学习设置。具体来说,底层PLM的参数是固定的,文本生成任务必须通过如第3.1节所述,将提示(连续向量)前置到输入中来完成。正式地说,我们将基于共享的固定PLM为每个源生成任务 St 学习一个独立源提示 pt,通过最大化可能性 Pr(y t i |[pt; x t i ])。我们的核心思想是将这些学到的源提示迁移到一个新的(目标)文本生成任务,使得目标生成任务可以在零样本或少量样本设置下完成。
4 方法
我们提出的方法,文本生成的提示传输(Prompt Transfer for Text Generation, PTG)如图1所示。该方法首先学习了各种具有代表性的源生成任务的大量源提示,然后利用一种新的自适应注意机制推导出目标生成任务的提示。接下来我们将详细描述每个部分。
4.1 学习可转移源提示
为了从源生成任务中提取与任务相关的知识,我们学习了一组源提示并将它们存储在一个源提示池中(Wang等人,2022年)。引入提示池的动机有两个方面。首先,我们期望识别源生成任务之间的相似性。其次,该池存储了每个源任务的特定于任务的提示,这些提示可以被所有目标任务共享。
构建源提示池。 对于每个源生成任务 St,我们的目标是给定其训练数据 {(x t i ; yt i )} nt i=1 学习一个源提示 pt。遵循第3.1节中的学习步骤,我们基于共享的固定PLM(即BART)为每个源任务 St 学习一个独立的源提示 pt。
这些源提示存储在一个提示池 P = {p1; : : : ; pt; : : : ; pT} 中,其中 T 是源文本生成任务的总数。为了构建源提示池,一个关键点在于选择源文本生成任务。根据文献(Deng等人,2021年),文本生成任务可以根据输入到输出传达信息的变化被分类为执行压缩、转换或创建。此外,最近的研究表明,少量但多样化的源任务/领域也能带来显著的迁移学习性能(Friedman等人,2021年;Zhuang等人,2021年)。因此,我们在三种类型的生成任务中选择六个文本生成任务(包括14个公开数据集)来学习它们对应的源提示。
**聚类源提示。**如上所述,提示池中的源任务是多样化的。对于PLMs来说,有效地为新任务转移或重用现有提示是一个挑战。因此,为了识别源任务(提示)之间的相似性,我们构建了一个源提示池,以实现更有效的跨任务知识转移。特别是,通过光谱聚类算法(Ding等人,2001年),我们将这些源提示分组到几个提示簇中。在这个算法下,每个提示 pt 被视为一个加权无向图 G 中的节点。节点(提示)pi 和 pj 之间的相似度(权重)是通过位置无关的欧几里得距离(Su等人,2021年)计算的:
其中 pi;k1 和 pj;k2 分别表示提示 pi 和 pj 的第 k1 个和第 k2 个向量。然后,我们采用最小最大切割策略(Ding等人,2001年)将图 G 分割成几个子图,代表不同的提示簇 C = {C1; : : : ; Cm},其中 m 是簇的总数。在转移源提示时,最好能识别合适的提示簇并选择最相关的源提示。相比之下,以前的工作考虑每个源提示都是等同的,忽略了不同任务之间的差异(Vu等人,2021年;Su等人,2021年)。
**多键记忆网络。**由于源提示编码了与任务相关的知识,第二个动机是要将它们与每个目标生成任务共享。为了促进从源任务到目标任务的提示转移,我们构建了一个多键记忆网络来存储这些聚类提示。具体来说,对于一个来自提示簇 Cz 的源提示 pt,即 pt ∈ Cz,它与一个可学习的簇键 k_c_z 和一个可学习的提示键 k_p_t 相关联,如下所示:
其中k c z;k p t 2r d, d是键嵌入大小。在我们的记忆网络中,这些学习到的源提示作为表示基,即值向量,可以通过键值提示查找转移到目标生成任务中。
4.2 传递实例自适应提示
以前的工作(Li和Liang,2021年;Vu等人,2021年)通常只考虑任务信息,但在推导提示时忽略了特定的输入数据。然而,对于单个任务来说,即使是学习得很好的提示也可能不适合所有数据实例(Scao和Rush,2021年),因此设计一个同时考虑任务和实例级别特征的有效转移策略并非微不足道。在我们的模型中,我们设计了一个自适应注意力机制来结合实例特征以构建目标提示。
**自适应注意力机制。**具体来说,对于目标任务 T 的一个实例 (x; y),我们使用任务级别和实例级别的查询来自适应地查找和选择源提示,以转移先前学到的与任务相关的知识。任务级别查询旨在选择与特定目标任务相关的整体信息,这被定义为一个可学习的任务查询向量 q_task ∈ R^d。然而,池中的源提示是多样但有限的,因此任务级别的提示可能不会很好地适应目标生成任务的所有数据实例。因此,我们设计了一个实例级别查询来通过关注高度相关的源提示来学习目标提示,以帮助提高模型在特定实例中的性能。实例级别查询是通过一个冻结的PLM(如BERT(Devlin等人,2019年))计算得到的输入编码 q_ins ∈ R^d:
其中我们对BERT编码的每个输入令牌的顶层表示取平均值。对于源提示符p2cz,我们使用q task和q ins分别查找其相应的集群键和源键,遵循多头关注(Vaswani et al ., 2017)。因此,实例x与提示符pt之间的最终匹配分数计算为:
其中 λ 是一个超参数。最后,根据权重分数,所选的源提示计算如下:p~ =ΣT_t=1 st · pt 。
与其他仅使用固定提示进行新任务的基于提示的迁移学习方法相比(Vu等人,2021年;Li和Liang,2021年),我们的自适应注意力机制能够有效地从源提示中为特定数据实例学习最合适的提示表示。这样的机制使得我们的模型在迁移到新的文本生成任务时更加灵活。
**基于提示的文本生成。**基于上述自适应注意力机制,我们检索提示 p~,它编码了最有用和相关的知识,以帮助模型执行特定的生成实例。如第3.1节所述,我们将提示 p~ 前置到输入 x 的嵌入中,然后通过生成式PLM(如BART(Lewis等人,2020年))流动以生成文本。生成式PLM通过最大似然估计(MLE)进行优化,如下所示:
在目标任务的学习过程中,检索到的提示符p~可以适应不同的实例,并且由于它编码了先前学习到的任务相关知识而被冻结。
4.3 模型讨论
对于文本生成中基于提示的迁移学习,关键在于如何在考虑任务级和实例级特征的情况下,有效地为新生成任务迁移或重用现有的提示(编码特定于任务的知识)。为了实现这一目标,我们首先从一些有代表性的源文本生成任务中学习一组编码任务特定知识的源提示符(第4.1节)。这些源提示作为表示基,即多键存储网络中的值向量。此外,我们设计了一种考虑任务级和实例级信息的自适应注意机制来构建目标提示(第4.2节)。来自新生成任务的每个数据实例都可以通过关注最相关的源提示来学习特定的提示。
与典型的迁移学习方法相比,我们的模型采用了一种轻量级的技术,即提示,从源任务中学习特定于任务的知识。我们的预训练源提示可以帮助plm执行更有效和有用的知识转移。
5 实验
在本节中,我们首先设置实验,然后报告结果和分析。
5.1 实验设置
数据集。 我们选择了14个公共数据集,分为三种文本生成任务类型:i) 压缩,以简洁的文本表达关键信息,包括摘要(CNN/Daily Mail(See等人,2017年),XSum(Narayan等人,2018年),MSNews(Liu等人,2021a),Multi-News(Fabbri等人,2019年),NEWSROOM(Grusky等人,2018年))和问题生成(SQuAD(Rajpurkar等人,2016年));ii) 转换,在精确保留内容的同时转换文本,包括风格转换(Wiki Neutrality(Pant等人,2020年))和文本释义(Quora(Wang等人,2017年));iii) 创作从输入上下文产生新内容,包括对话(PersonaChat(Zhang等人,2018年),TopicalChat(Gopalakrishnan等人,2019年),DailyDialog(Li等人,2017年),DSTC7-AVSD(Alamri等人,2019年),MultiWOZ(Budzianowski等人,2018年))和故事生成(WritingPrompts(Fan等人,2018年))。数据集统计信息见附录A。
基线。我们将我们提出的PTG与以下基线进行比较:
- GPT-2(Radford等人,2019年),BART(Lewis等人,2020年),和T5(Raffel等人,2020年):这三个是代表性的文本生成PLMs,其中所有预训练参数都在每个目标任务数据集上单独微调。我们采用了这些PLMs的LARGE版本。
- PREFIXTUNING(Li和Liang,2021年):这是一种最近的基于提示的PLM文本生成技术,通过将一系列向量和输入连接起来,保持PLM参数冻结,但优化一组连续的前缀向量。
- SPOT(Vu等人,2021年):它也采用了一种基于提示的迁移学习方法,首先在源任务上训练一个提示,然后用得到的提示初始化目标任务的提示。
- 多任务模型微调:这个强大的多任务基线首先在用于PTG的相同源任务上微调BART,然后单独在每个目标任务数据集上微调。
我们在相同的设置下进行所有方法,以获得它们的结果,不使用特殊技巧,如标签平滑。与其他基线相比,我们的模型极为轻量级,即在解决目标生成任务时,我们冻结转移的目标提示和主干PLM的参数,但只调整自适应注意力机制中的多头注意力参数(方程4)。
特别是,我们采用BART-LARGE来学习一组源提示。提示的长度设置为200,学习率设置为1 × 10^-3。对于目标生成任务,我们使用BART-LARGE作为生成主干,并使用冻结的BERT-LARGE来获取实例级别查询q_ins。维度d设置为1024,与BERT/BART-LARGE的嵌入大小e相同。自适应注意力机制中的多头注意力有16个头。在微调过程中,BART的学习率设置为3 × 10^-5,集群键kc、提示键kp、任务键q_task和多头注意力的学习率设置为1 × 10^-3。λ的值根据验证集的性能设置为0.5。基线的训练细节可以在附录B中找到。
**评估指标。**为了性能比较,我们采用了之前工作中广泛使用的三个自动评估指标,即BLEU(Papineni等人,2002年),ROUGE(Lin,2004年)和Distinct(Li等人,2016年)。具体来说,BLEU-n测量生成文本和真实文本之间n-gram的共同出现比率;ROUGE-n通过计算生成文本和真实文本之间重叠的n-gram来衡量文本质量;Distinct-n通过计算生成文本中不同n-gram的数量来衡量多样性程度。
5.2 全监督设置
表1和表2分别展示了我们模型和基线在跨任务和跨数据集迁移性方面的全监督结果。在全监督设置中,我们使用目标任务的所有训练实例来训练我们的模型。
对于跨任务实验,我们考虑了两对源任务和目标任务之间的迁移:1)目标任务是摘要(CNN/Daily Mail),源任务是其他五个任务的混合;2)目标任务是对话(PersonaChat),源任务是其他五个任务。对于跨数据集实验,我们考虑了摘要和对话内的数据集。对于摘要,目标数据集是CNN/Daily Mail或XSum,源数据集是其他四个摘要数据集的混合。对于对话,目标数据集是PersonaChat或DailyDialog,源数据集是其他四个对话数据集。
首先,通过从源任务迁移提示到目标任务,PTG在性能上超过了GPT-2、BART、T5和PREFIXTUNING。结果表明,PTG中的提示迁移是一种有效的方法,可以改善典型微调和提示方法的性能,因为我们的方法利用了从源任务中学到的知识。
其次,PTG的性能优于基于提示的迁移方法SPOT。在迁移提示时,SPOT平等地考虑每个源任务,并忽略了特定的实例信息。而且SPOT只为源任务学习一个通用提示,直接初始化目标提示。相比之下,PTG聚类了多样的源提示,并使用了一个自适应注意力机制,同时考虑了任务和实例级别的特征。
最后,PTG产生了有竞争力的性能,甚至超过了强大的多任务模型微调(MULTI-TASK MODELTUNING)。与大多数共享一些通用知识以理解表面词汇的语义和语法的NLU任务不同,文本生成任务需要根据不同的输入数据生成多样的文本,因此任务边界较大。
因此,在跨任务迁移中,简单地在不考虑任务相似性的任务混合上调整PLMs会导致性能下降。而我们的基于提示的迁移学习方法仍然可以实现最佳性能,显示出PTG在任务和数据集之间的稳定性有所提高。
5.3 少样本设置
在少量样本设置中,我们只采样了目标任务的一小部分训练实例来训练我们的模型。具体来说,我们对目标任务数据集进行子采样,以获得大小为{50, 100, 200, 500}的小型训练数据集。对于每个大小,我们采样5个不同的数据集,并在2个训练随机种子上取平均值。因此,我们在每个少量样本设置上平均了10个模型。在少量样本设置中,我们采用了与全监督设置相同的跨任务和跨数据集实验。表3和表4展示了我们模型和基线的少量样本结果。
我们可以清楚地看到,PTG在大多数低数据情况下实现了与强大基线(即多任务模型微调)相媲美(下划线字体)或更好的性能(粗体字体),但随着训练数据集大小的增加,差距在缩小。
此外,我们的模型在大多数情况下优于大多数普通PLMs。背后的原因可能是大型PLMs由于其庞大的参数在少量样本学习中容易过拟合(Gao等人,2020年)。而在我们的框架中,我们采用了一种轻量级技术,即提示,来学习源提示,这可以为PLMs提供在源任务中学到的先前知识,并在解决目标任务时作为一个更好的起点。
5.4 核心设计的有效性
我们进一步进行了消融研究,以展示PTG核心设计的有效性。
**源提示池。**为了确认提示池的重要性,我们设计了一个只有训练所有源任务共享提示的方法的对应版本。从表5(第1行)中,我们可以看到PTG显著优于只有一个提示的对应版本,这表明提示池能够很好地编码特定于任务的知识。
源提示簇。 我们移除了将源提示分组到不同簇的步骤,并直接根据查询查找源提示(见表5第2行)。性能的下降表明,当任务多样化时,聚类任务提示可以识别源任务之间的相似性,从而促进有效的知识转移。
多键记忆网络。 我们移除了与提示相关联的可学习键向量,并直接将源提示的平均值转移到目标任务。从表5(第4行)中,我们可以看到这导致了性能的显著下降,证明了引入可学习键以通过查询-键匹配动态选择提示的重要性。
**实例级别查询。**实例级别查询用于自适应注意力机制中。当我们移除它时(表5第3行),我们只使用任务级别查询来选择源提示。性能的下降表明,结合实例级别特征确实可以帮助将最有用的知识转移到目标任务中的特定实例。
5.5 任务相似度分析
图2显示了我们的6个文本生成任务中14个公共数据集的源提示之间的余弦相似度的聚类热图,使用由Eq. 1定义的位置不可知的欧几里得距离。我们可以清楚地观察到,我们学习的14个源提示符大致分为三类。类似的任务和数据集在这个热图中被分组成集群,这些集群捕获了许多直观的任务关系。
具体来说,这三个集群分别专注于压缩、转导和创建任务。例如,故事生成(WritingPrompts)和对话(PersonaChat)被分组到第三个集群中。这一观察结果进一步验证了我们的结论,即在我们的方法中,文本生成任务可以通过学习特定于任务的提示,然后将它们转移到目标任务中,从而相互帮助。研究结果还表明,该方法可以作为预测任务可转移性的有效手段
6 结论
提出了一种基于提示的文本生成迁移学习方法。我们从许多具有代表性的源生成任务中学习一组提示,然后将这些提示作为目标提示传输,以执行目标生成任务。在我们的模型中,我们设计了一个同时考虑任务级和实例级信息的自适应注意机制来构建目标提示。在全监督和少镜头环境下的实验证明了我们基于提示的迁移学习模型的有效性。在未来的工作中,我们将考虑纳入更多类型的文本生成任务。
7 道德问题
文本生成技术已广泛应用于对社会有益的众多领域,如游戏叙事生成、新闻报告生成和天气预报生成。然而,这项技术可能被用于有害的应用。我们的工作提高了生成文本的质量,与传统的文本生成方法相比有显著提升。
因此,我们工作生成的优质文本使得合成文本与人类撰写的文本难以区分,例如假新闻和故事。
在这里,我们主要关注两个潜在的伦理问题:我们方法被故意滥用的可能性和偏见问题。首先,预测我们方法的恶意用途具有一定的挑战性,因为这些用途通常涉及在我们的模型计划之外的完全不同的设置或用于意外目的的重新定位。为了减轻这个问题,我们可以寻求经典安全风险评估框架的帮助,例如检测威胁。其次,训练数据中的偏见可能导致我们的模型生成刻板的或带有偏见的文本。这是一个担忧,因为模型偏见有可能以意想不到的方式伤害相关群体中的某些人。为了避免偏见,可能有必要开发一个共同的词汇表,将我们模型减少偏见的规范、技术和实证困难联系起来。