datawhale 大模型学习 第六章-大模型之Adaptation(未完)

一、为什么需要Adaptation

1.1 简介

从语言模型的训练方式来说,例如GPT-3,训练语料通常是海量的,各种领域的,不针对任何特定任务的文本信息。

这种方法的优点在于模型具有广泛的适用性,但也带来了一些挑战。比如下游任务的多样性,不同的下游任务与语言模型的预训练方式可以非常不同:

  • 格式不同 :BERT训练过程中使用了MASK标记,而许多下游任务可能并不使用这些标记。
    自然语言推理任务(NLI)涉及两个句子的比较以产生单一的二进制输出
  • 主题变化:专业领域的时候,需要的文本或者话术都需要集中在专业领域。
  • **时间转变:**下游任务中出现了预训练中没有出现过的knowledge。原因有:1. 训练时多数据集已经和预测数据集不同。2. 下游任务数据集不能公开使用

1.2 大模型Adaptation训练一般流程

  1. 准备一个预训练大模型(pre-trained LM) :适配阶段的开始,我们已经有了一个预训练的语言模型,用参数来表示
  2. 下游任务数据集(downstream task dataset) :下游任务的训练集。例如文本分类任务,由输入x和输出y组成:
  3. 适配参数(Adaptation Parameters) :为了使得预训练大模型(LM)适配下游任务,需要定义参数,调整参数以后使得大模型在下游任务上面表现更好
  4. 任务损失函数(Task Loss Function):损失函数 ℓtask 来衡量模型在下游任务上的表现。例如,交叉熵损失是一种常见的选择,用于衡量模型预测的概率分布与真实分布之间的差异。
  5. 优化问题(Optimization Problem):根据下面的方式优化,找到最好的

二、几种主流的Adaptaion方法

2.1 Probing

  • probing引入了新的模型参数,通常是线性层或者浅的网络层
  • probing通常用来探究模型得到的representation的意义,比如如果 模型的probe能预测词性,那么就存储了词性信息。
  • 在adaptation中,通过模型最后一层的输出来训练probe(prediction head)
  • 主要应用于encoder---only模型,但也能用骨decoder-only模型

2.2 Fine-tuning

  • 使用全部的预训练参数作为初始化:
    • 参数包括模型参数和prediction head参数
    • optimizer sate和预训练无关,会在训练过程中更新丢弃
    • 学习率至少比预训练少一个数量级(例如:预训练阶段的学习率是1*e-3,那么fine-tuning阶段的学习率是1*e-4),并且时间短。
  • 根据不同的下游任务都要存储特殊化的模型,expensive。
  • 通常比probing表现好

2.3 Lightweight Fine-tuning

轻量finetune 目的是提升模型的表现能力,通过一次full fine通用适配下游任务,而不需要针对每个下游任务finetune

2.3.1 常见的三中方法

相关推荐
从零开始学习人工智能37 分钟前
GPUStack:开源GPU集群管理工具,解锁AI模型高效运行新可能
人工智能·开源
WIN赢38 分钟前
【数据结构与算法_学习精华】
学习
C嘎嘎嵌入式开发1 小时前
(六)机器学习之图卷积网络
人工智能·python·机器学习
Msshu1232 小时前
PD快充诱骗协议芯片XSP25支持PD+QC+FCP+SCP+AFC协议支持通过串口读取充电器功率信息
人工智能
一RTOS一4 小时前
东土科技连投三家核心企业 发力具身机器人领域
人工智能·科技·机器人·具身智能·鸿道实时操作系统·国产嵌入式操作系统选型
黎宇幻生5 小时前
Java全栈学习笔记39
java·笔记·学习
ACP广源盛139246256735 小时前
(ACP广源盛)GSV1175---- MIPI/LVDS 转 Type-C/DisplayPort 1.2 转换器产品说明及功能分享
人工智能·音视频
胡耀超5 小时前
隐私计算技术全景:从联邦学习到可信执行环境的实战指南—数据安全——隐私计算 联邦学习 多方安全计算 可信执行环境 差分隐私
人工智能·安全·数据安全·tee·联邦学习·差分隐私·隐私计算
诸葛悠闲7 小时前
XCP协议在以太网上实现的配置
学习
停停的茶7 小时前
深度学习(目标检测)
人工智能·深度学习·目标检测