【Fine-Tuning】大模型微调理论及方法, Pytorch&HuggingFace微调实战

Fine-Tuning: 大模型微调理论及方法, Pytorch&HuggingFace微调实战

文章目录

  • [Fine-Tuning: 大模型微调理论及方法, Pytorch&HuggingFace微调实战](#Fine-Tuning: 大模型微调理论及方法, Pytorch&HuggingFace微调实战)
    • [1. 什么是微调](#1. 什么是微调)
      • [(1) 为什么要进行微调](#(1) 为什么要进行微调)
      • [(2) 经典简单例子:情感分析](#(2) 经典简单例子:情感分析)
      • [(3) 为什么微调work, 理论解释下](#(3) 为什么微调work, 理论解释下)
    • [2. 详细介绍微调的流程](#2. 详细介绍微调的流程)
      • [(1) 准备数据, 预处理](#(1) 准备数据, 预处理)
      • [(2) 微调策略](#(2) 微调策略)
        • [**前三种都差不多的逻辑, 古早**](#前三种都差不多的逻辑, 古早)
        • [1. 冻结, 逐层微调](#1. 冻结, 逐层微调)
        • [2. 部分参数微调](#2. 部分参数微调)
        • [3. 全参数微调](#3. 全参数微调)
        • [4. LoRA(低秩适应)](#4. LoRA(低秩适应))
        • [5. Prompt Tuning](#5. Prompt Tuning)
        • [6. RLHF(基于人类反馈的强化学习)](#6. RLHF(基于人类反馈的强化学习))
        • [7. Prefix Tuning](#7. Prefix Tuning)
        • [8. Adapter微调](#8. Adapter微调)
      • [(3) 设置微调超参数](#(3) 设置微调超参数)
      • [(4) 训练, 评估](#(4) 训练, 评估)
    • [3. 具体怎么做](#3. 具体怎么做)

1. 什么是微调

大模型微调是指在预训练的大型模型基础上,使用特定数据集进行进一步训练,以适应特定任务或领域。

(1) 为什么要进行微调

  1. 大模型虽然知识丰富(由于其极大批量的预训练任务),但在特定领域可能不够准确。微调能让模型更好地理解特定任务。
  2. 相比从头开始训练一个新模型,微调节省了大量时间和计算资源(站在前人的肩膀上), 只需少量的数据就能有效提升模型在特定领域的性能。

(2) 经典简单例子:情感分析

任务

训练一个情感分析模型

背景

硬件很烂, 不可能从头训练一个情感分析大模型

但已经有预训练的语言模型比如BERT,已经在大量文本上进行过训练(这叫预训练)。

微调

BERT本身没有直接判断情感的能力, 但由于其在大量文本上进行的预训练任务, 其具有很多自然语言领域的 知识(预训练的权重), 通过少量的情感分析数据, 和合适的微调策略, 就能低成本的(数据, 算力)来微调出一个能进行情感分析的BERT

(3) 为什么微调work, 理论解释下

  1. 迁移学习: 深度学习模型有分层学习特征的特点, 底层学习通用特征, 高层学习任务相关特征, 将通用特征的知识迁移到相关的特定领域, 合理
  2. 统计学: 预训练可以看作为参数分布的先验估计, 微调就是在已有先验知识的基础上结合新数据

2. 详细介绍微调的流程

(1) 准备数据, 预处理

首先收集数据, 分成训练验证测试, 老生常谈, 都2024年了就不多说了

预处理: 每种大模型都有特定的输入格式, 要把原始数据转换成预训练大模型认识的数据输入

(2) 微调策略

策略有很多, 也有很多新冒出来的策略, 说一些常见的

前三种都差不多的逻辑, 古早
1. 冻结, 逐层微调

冻结就是权重固定, 不会再反向传播调整了

在这种策略中,模型的一部分参数被冻结,仅对特定层进行微调。逐层解冻的方法允许从顶层开始逐步释放冻结状态,以平衡预训练知识与新任务学习之间的关系.

2. 部分参数微调

和逐层微调本质上类似, 仅选择性地更新模型中的某些权重,通常是顶层或最后几层,而保持底层的大部分权重不变(冻结).

3. 全参数微调

全部参数都会反向传播, 这种方法资源消耗很大, 对数据要求也很高, 而且容易导致灾难性遗忘

灾难性遗忘(Catastrophic Forgetting): 微调模型在学习新任务时,突然或彻底忘记其预训练所学到的知识

4. LoRA(低秩适应)

LoRA通过在模型的每一层引入可训练的低秩矩阵来进行微调, 自适应的调整部分参数.

5. Prompt Tuning

轻量级的微调方法,不改变模型的主参数(全部冻结),通过为特定任务设计可学习的提示(prompt)来引导模型生成期望的输出。

6. RLHF(基于人类反馈的强化学习)

利用人类的反馈来纠正模型, 生成符合期望的结果

7. Prefix Tuning

在输入的前面前拼一些可训练的参数,使得模型在处理任务时能够更好地理解输入意图

8. Adapter微调

模型层之间插入小型可训练模块,这些模块可以适应新任务,而不影响原始模型的参数

(3) 设置微调超参数

设置/调整 学习率, BatchSize等参数, 让模型能收敛和防止拟合不好, 后面介绍

(4) 训练, 评估

用现成的框架训练, 验证, 测试, 后面介绍

3. 具体怎么做

由于深度学习技术的不断成熟, 各种稳定易用的框架逐渐出现, 让微调过程仅需要少许代码就能实现, 下面看看例子

常用的微调框架

  • Hugging Face Transformer

  • Pytorch

HuggingFace版

用HuggingFace对GraphCodeBERT进行微调

python 复制代码
import torch
from transformers import RobertaTokenizer, RobertaForSequenceClassification, Trainer, TrainingArguments

# 加载预训练模型和tokenizer
tokenizer = RobertaTokenizer.from_pretrained("microsoft/graphcodebert-base")
model = RobertaForSequenceClassification.from_pretrained("microsoft/graphcodebert-base")

# 准备数据, 数据的预处理一般比较复杂
train_data = [...]  # 训练数据
train_encodings = tokenizer(train_data, truncation=True, padding=True)

# 定义训练参数
training_args = TrainingArguments(
    output_dir='./results',
    num_train_epochs=3,
    per_device_train_batch_size=16,
    save_steps=10_000,
    save_total_limit=2,
)

# 创建Trainer实例并开始训练
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=train_encodings,
)

trainer.train()

实际肯定不止这么简单, 细节比较多, 比如数据的预处理, 和自定义的训练和评估.

由于各种下游任务的多样性, 不同任务的数据/标签差异非常大,这里没办法根据每种任务详细介绍预处理流程, 故在此略过. 我们一般需要自己写很多数据预处理的代码, 构造数据, 使得预训练模型能够接受数据输入.

再或是训练和评估, 由于使用者对模型的需求不同, 训练和评估过程也不一定相同, 自定义的流程往往需要写一些代码, 但是基本的训练和评估流程是封装好的. 代码中给出来了

一些基本的东西在HuggingFace中都有稳定的接口, 比如微调的策略, 参数定义, 基本的训练评估流程, 都是即插即用的

Pytorch版

用pytorch对BERT 使用RLHF策略 在情感分析任务上进行微调

python 复制代码
import torch
import torch.nn as nn
from transformers import BertTokenizer, BertForSequenceClassification, AdamW
from torch.utils.data import DataLoader, Dataset

# 假设我们有一个简单的数据集
class CustomDataset(Dataset):
    def __init__(self, texts, labels):
        self.texts = texts
        self.labels = labels
        self.tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')

    def __len__(self):
        return len(self.texts)

    def __getitem__(self, idx):
        encoding = self.tokenizer(self.texts[idx], padding='max_length', truncation=True, return_tensors='pt', max_length=128)
        return {
            'input_ids': encoding['input_ids'].flatten(),
            'attention_mask': encoding['attention_mask'].flatten(),
            'labels': torch.tensor(self.labels[idx], dtype=torch.long)
        }

# 1. 监督微调(SFT)
def supervised_fine_tuning(model, dataloader):
    model.train()
    optimizer = AdamW(model.parameters(), lr=5e-5)

    for epoch in range(3):  # 假设训练3个epoch
        for batch in dataloader:
            optimizer.zero_grad()
            input_ids = batch['input_ids']
            attention_mask = batch['attention_mask']
            labels = batch['labels']
            
            outputs = model(input_ids=input_ids, attention_mask=attention_mask, labels=labels)
            loss = outputs.loss
            loss.backward()
            optimizer.step()
            print(f"Loss: {loss.item()}")

# 2. 奖励模型训练
def train_reward_model(model, reward_data):
    # 假设reward_data包含文本和对应的奖励分数
    model.train()
    optimizer = AdamW(model.parameters(), lr=5e-5)

    for epoch in range(3):  # 假设训练3个epoch
        for text, reward in reward_data:
            inputs = tokenizer(text, return_tensors='pt', padding=True, truncation=True)
            optimizer.zero_grad()
            
            outputs = model(**inputs)
            reward_loss = nn.MSELoss()(outputs.logits.squeeze(), torch.tensor(reward, dtype=torch.float32))
            reward_loss.backward()
            optimizer.step()
            print(f"Reward Loss: {reward_loss.item()}")

# 3. RLHF训练
def rl_training(actor_model, critic_model, dataloader):
    actor_model.train()
    critic_model.eval()  # 奖励模型在评估模式

    for epoch in range(3):  # 假设训练3个epoch
        for batch in dataloader:
            input_ids = batch['input_ids']
            attention_mask = batch['attention_mask']

            # 使用actor模型生成输出
            actor_outputs = actor_model(input_ids=input_ids, attention_mask=attention_mask)
            
            # 使用critic模型评估输出的奖励
            with torch.no_grad():
                critic_outputs = critic_model(input_ids=input_ids, attention_mask=attention_mask)

            # 根据奖励调整actor模型的参数(PPO等算法可在此实现)
            # 此处省略具体的PPO实现,需根据具体需求添加

# 示例数据集和模型初始化
texts = ["I love this!", "This is terrible."]
labels = [1, 0]  # 假设1为正面,0为负面

dataset = CustomDataset(texts, labels)
dataloader = DataLoader(dataset, batch_size=2)

model = BertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2)

# 执行微调流程
supervised_fine_tuning(model, dataloader)

# 假设我们有一些奖励数据用于训练奖励模型
reward_data = [("I love this!", 1.0), ("This is terrible.", 0.0)]
train_reward_model(model, reward_data)

# 最后,进行RLHF训练(需实现具体的PPO算法)
rl_training(model, model)  # 此处使用同一模型作为示例

Pytorch vs HuggingFace

易用性:

​ HuggingFace的API非常简洁, 并且有丰富的涵盖多个领域的预训练模型库, 集成了多种常用的微调策略, 比如上面提到的LoRA等, 还有活跃的社区和丰富的文档

​ Pytorch缺乏高层封装, 在比如数据处理, 模型保存上需要用户手动实现更多的功能, 学习曲线陡峭

灵活性

​ HuggingFace灵活性不如Pytorch, 在高度自定义场景下, Pytorch表现更佳

性能

​ 在一些情况下, Pytorch在计算上设计了专门的优化, HuggingFace的高层API不如Pytorch的性能优化高效

相关推荐
CountingStars61922 分钟前
目标检测常用评估指标(metrics)
人工智能·目标检测·目标跟踪
tangjunjun-owen30 分钟前
第四节:GLM-4v-9b模型的tokenizer源码解读
人工智能·glm-4v-9b·多模态大模型教程
冰蓝蓝35 分钟前
深度学习中的注意力机制:解锁智能模型的新视角
人工智能·深度学习
橙子小哥的代码世界43 分钟前
【计算机视觉基础CV-图像分类】01- 从历史源头到深度时代:一文读懂计算机视觉的进化脉络、核心任务与产业蓝图
人工智能·计算机视觉
黄公子学安全1 小时前
Java的基础概念(一)
java·开发语言·python
新加坡内哥谈技术1 小时前
苏黎世联邦理工学院与加州大学伯克利分校推出MaxInfoRL:平衡内在与外在探索的全新强化学习框架
大数据·人工智能·语言模型
程序员一诺1 小时前
【Python使用】嘿马python高级进阶全体系教程第10篇:静态Web服务器-返回固定页面数据,1. 开发自己的静态Web服务器【附代码文档】
后端·python
小木_.2 小时前
【Python 图片下载器】一款专门为爬虫制作的图片下载器,多线程下载,速度快,支持续传/图片缩放/图片压缩/图片转换
爬虫·python·学习·分享·批量下载·图片下载器
fanstuck2 小时前
Prompt提示工程上手指南(七)Prompt编写实战-基于智能客服问答系统下的Prompt编写
人工智能·数据挖掘·openai
lovelin+v175030409662 小时前
安全性升级:API接口在零信任架构下的安全防护策略
大数据·数据库·人工智能·爬虫·数据分析