分享|instructionfine-tuning 指令微调是提高LLM性能和泛化能力的通用方法

《生成式AI导论》课程中,李宏毅老师提到一篇关于" instruction fine-tuning" 指令微调的论文:

《Scaling Instruction-Finetuned Language Models》

摘要分享:

事实证明,

在一组以指令形式表达 的数据集上微调 语言模型可以提高模型性能和对看不见的任务的泛化

在本文中,我们探讨了指令微调,特别关注

(1) 扩展任务数量,

(2) 扩展模型大小,以及

(3) 对思维链数据进行微调。

我们发现,具有上述方面的指令微调极大地提高了各种模型类(PaLM、T5、U-PaLM)、提示设置(零样本、少样本、CoT)和评估基准(MMLU、BBH、TyDiQA、MGSM、开放式生成)的性能。

例如,在 1.8K 任务上进行指令微调的 Flan-PaLM 540B 性能大大优于 PALM 540B(平均+9.4%)。Flan-PaLM 540B 在多个基准测试中实现了最先进的性能,例如在五次 MMLU 上达到 75.2%。我们还公开发布了 Flan-T5 检查点,即使与更大的模型(如 PaLM 62B)相比,它也能实现强大的小样本性能。

总的来说,指令微调是提高预训练语言模型的性能和可用性的通用方法。

原文链接:

[2210.11416] Scaling Instruction-Finetuned Language Models

相关推荐
paid槮1 小时前
机器学习总结
人工智能·深度学习·机器学习
Hello123网站1 小时前
职得AI简历-免费AI简历生成工具
人工智能·ai工具
亚里随笔2 小时前
稳定且高效:GSPO如何革新大型语言模型的强化学习训练?
人工智能·机器学习·语言模型·自然语言处理·llm·rlhf
荼蘼2 小时前
机器学习之PCA降维
人工智能·机器学习
东方不败之鸭梨的测试笔记2 小时前
智能测试用例生成工具设计
人工智能·ai·langchain
失散135 小时前
深度学习——02 PyTorch
人工智能·pytorch·深度学习
图灵学术计算机论文辅导5 小时前
傅里叶变换+attention机制,深耕深度学习领域
人工智能·python·深度学习·计算机网络·考研·机器学习·计算机视觉
重启的码农7 小时前
ggml 介绍(4) 计算图 (ggml_cgraph)
c++·人工智能
重启的码农7 小时前
ggml 介绍(5) GGUF 上下文 (gguf_context)
c++·人工智能·神经网络
R-G-B7 小时前
OpenCV Python——报错AttributeError: module ‘cv2‘ has no attribute ‘bgsegm‘,解决办法
人工智能·python·opencv·opencv python·attributeerror·module ‘cv2‘·no attribute