Fine Tuning——Prompt-Learning && Delta Tuning

预训练大模型只能提供较好的初始化,面对纷繁复杂的NLP任务场景,需要进一步的微调训练。

T5
  • 110亿参数
  • 从训练"分类层"转为 训练 "encoder-decoder"
  • sequence to sequence 序列到序列的训练,输出token而不是分类
  • demonstration 例证
GPT3
  • 1750亿参数

    模型太大,单机根本无法微调

  • 没有任何参数被微调,通过prompt方式使用

  • Descriptions(Prompts) + Few-shot examples to generate tokens

    in-context leaning :大模型见过几个examples再输出

  • 优点

    更好的语言理解和语言生成效果

    更大的容积去学习新的知识

Fine tuning 的改变

以前的方法微调要改变全部模型的参数,在GPT3上是不现实的,在110b其实就很难了

每个任务对应一个100多亿的模型,100个任务就有100个模型,从存储角度来讲也不现实

高效的微调大模型 Effective Model Adaptation

从task 和 data的角度出发

prompt-learning

给模型加入一些额外的上下文 trigger出一些token

让输入数据变得更具体

从优化的角度出发

delta Tuning

用小参数去驱动大参数

相关推荐
tap.AI2 分钟前
Deepseek(九)多语言客服自动化:跨境电商中的多币种、多语种投诉实时处理
运维·人工智能·自动化
好奇龙猫8 分钟前
【人工智能学习-AI-MIT公开课第 20・21 概率推理】
人工智能·学习
实战项目10 分钟前
边缘计算在智慧物流中的实时跟踪应用
人工智能·边缘计算
绀目澄清12 分钟前
Unity 的AI Navigation 系统详细总结
人工智能·unity·游戏引擎
一招定胜负12 分钟前
图像形态学+边缘检测及CNN关联
人工智能·深度学习·cnn
dagouaofei13 分钟前
2026 年工作计划 PPT 制作方式对比:AI 与传统方法差异
人工智能·python·powerpoint
万行34 分钟前
机器学习&第五章生成式生成器
人工智能·python·算法·机器学习
独自破碎E34 分钟前
介绍一下Spring AI框架
java·人工智能·spring
laplace012335 分钟前
第三章 大语言模型基础
人工智能·语言模型·自然语言处理·agent·rag
Lun3866buzha1 小时前
轮胎胎面花纹识别与分类:基于solo_r50_fpn模型的实现与优化
人工智能·分类·数据挖掘