SELF-INSTRUCT: Aligning Language Models with Self-Generated Instructions

本文是LLM系列文章,针对《SELF-INSTRUCT: Aligning Language Models with Self-Generated Instructions》的翻译。

自我指导:将语言模型与自生成的指令相结合

  • 摘要
  • [1 引言](#1 引言)
  • [2 方法](#2 方法)
  • [3 来自GPT3的自学数据](#3 来自GPT3的自学数据)
  • [4 实验结果](#4 实验结果)
  • [5 相关工作](#5 相关工作)
  • [6 结论](#6 结论)

摘要

大型"指令调整"语言模型(即,微调以响应指令)已经证明了将零样本推广到新任务的显著能力。然而,它们在很大程度上依赖于人类书面指令数据,而这些数据在数量、多样性和创造性方面往往是有限的,因此阻碍了调优模型的通用性。我们介绍了SELFINSTRUCT,这是一个通过自举自己的生成来提高预训练语言模型的指令跟随能力的框架。我们的管道从语言模型中生成指令、输入和输出样本,然后过滤无效或类似的样本,然后使用它们来微调原始模型。将我们的方法应用于普通的GPT3,我们证明了在SUPERNATURALINSTRUCTIONS上比原始模型有33%的绝对改进,与使用私人用户数据和人工注释训练的InstructionGPT001的性能相当。为了进一步评估,我们为新任务策划了一组专家书面指令,并通过人工评估表明,使用SELF-instruction调整GPT3的性能大大优于使用现有公共指令数据集,仅与InstructionGPT001相差5%的绝对差距。SELF-instruction提供了一种几乎无注释的方法,用于将预训练的语言模型与指令对齐,我们发布了我们的大型合成数据集,以促进未来对指令调整的研究

1 引言

2 方法

3 来自GPT3的自学数据

4 实验结果

5 相关工作

6 结论

我们介绍了SELF-instruction,这是一种通过LMs自己生成指令数据来提高其指令跟随能力的方法。在对普通GPT3进行实验时,我们为不同的任务自动构建了一个由52K指令组成的大规模数据集,并在此数据上微调GPT3,使SUPERNI比原始GPT3有33%的绝对改进。此外,我们还为新颖的任务策划了一套专家书面说明。对该集的人工评估表明,使用SELF-instruction调优GPT3的性能大大优于使用现有公共指令数据集,并且与InstructionGPT001的性能非常接近。我们希望"自我指导"可以作为调整预训练的LMs以遵循人类指令的第一步,未来的工作可以建立在这些数据的基础上,以改进指令遵循模型。

相关推荐
martian66519 分钟前
【人工智能离散数学基础】——深入详解数理逻辑:理解基础逻辑概念,支持推理和决策系统
人工智能·数理逻辑·推理·决策系统
Schwertlilien20 分钟前
图像处理-Ch7-图像金字塔和其他变换
图像处理·人工智能
凡人的AI工具箱26 分钟前
每天40分玩转Django:Django类视图
数据库·人工智能·后端·python·django·sqlite
千天夜32 分钟前
深度学习中的残差网络、加权残差连接(WRC)与跨阶段部分连接(CSP)详解
网络·人工智能·深度学习·神经网络·yolo·机器学习
一勺汤34 分钟前
YOLOv8模型改进 第二十五讲 添加基于卷积调制(Convolution based Attention) 替换自注意力机制
深度学习·yolo·计算机视觉·模块·yolov8·yolov8改进·魔改
凡人的AI工具箱36 分钟前
每天40分玩转Django:实操图片分享社区
数据库·人工智能·后端·python·django
小军军军军军军40 分钟前
MLU运行Stable Diffusion WebUI Forge【flux】
人工智能·python·语言模型·stable diffusion
诚威_lol_中大努力中1 小时前
关于VQ-GAN利用滑动窗口生成 高清图像
人工智能·神经网络·生成对抗网络
中关村科金1 小时前
中关村科金智能客服机器人如何解决客户个性化需求与标准化服务之间的矛盾?
人工智能·机器人·在线客服·智能客服机器人·中关村科金
逸_1 小时前
Product Hunt 今日热榜 | 2024-12-25
人工智能