transformers进行学习率调整lr_scheduler(warmup)

一、get_scheduler实现warmup

1、warmup基本思想

Warmup(预热)是深度学习训练中的一种技巧,旨在逐步增加学习率以稳定训练过程,特别是在训练的早期阶段。它主要用于防止在训练初期因学习率过大导致的模型参数剧烈波动或不稳定。预热阶段通常是指在训练开始时,通过多个步长逐步将学习率从一个较低的值增加到目标值(通常是预定义的最大学习率)。

2、warmup基本实现

from transformers import get_scheduler

scheduler = get_scheduler(
    name="cosine",  # 可以选择 'linear', 'cosine', 'polynomial', 'constant', 'constant_with_warmup'
    optimizer=optimizer,
    num_warmup_steps=100,  # 预热步数
    num_training_steps=num_training_steps  # 总的训练步数
)

#linear:线性学习率下降
#cosine:余弦退火
#polynomial:多项式衰减
#constant:常数学习率
#constant_with_warmup:预热后保持常数

# 上述代码等价于
from transformers import get_cosine_scheduler_with_warmup

scheduler = get_cosine_scheduler_with_warmup(
    optimizer=optimizer,
    num_warmup_steps=100,  # 预热步数
    num_training_steps=num_training_steps  # 总的训练步数
)

# 同理等价于linear, polynomial, constant分别等价于
from transformers import (get_constant_schedule, get_polynomial_decay_schedule_with_warmup, get_linear_schedule_with_warmup)

二、各种warmup策略学习率变化规律

1、get_constant_schedule学习率变化规律

2、get_cosine_schedule_with_warmup学习率变化规律

3、get_cosine_with_hard_restarts_schedule_with_warmup学习率变化规律

4、get_linear_schedule_with_warmup学习率变化规律

5、get_polynomial_decay_schedule_with_warmup学习率变化规律(power=2, power=1类似于linear)

6、注意事项

  • 如果网络中不同框架采用不同的学习率,上述的warmup策略仍然有效(如图二、5中所示)
  • 给schduler设置的number_training_steps一定要和训练过程相匹配,如下所示。

7、可视化学习率过程

python 复制代码
import matplotlib.pyplot as plt
from transformers import get_scheduler
from torch.optim import AdamW
import torch
import math

# 定义一些超参数

learning_rate = 1e-3  # 初始学习率

# 假设有一个模型
model = torch.nn.Linear(10, 2)

# 获得训练总的步数
epochs = 50
batch_size = 32
#train_loader = ***
#num_train_loader = len(train_loader)
num_train_loader = 1235

num_training_steps = epochs * math.ceil(num_train_loader/batch_size) # 总的训练步数

# 定义优化器
optimizer = AdamW(model.parameters(), lr=learning_rate)

# 创建学习率调度器
scheduler = get_scheduler(
    name="cosine",  # 可以选择 'linear', 'cosine', 'polynomial', 'constant', 'constant_with_warmup'
    optimizer=optimizer,
    num_warmup_steps=100,  # 预热步数
    num_training_steps=num_training_steps  # 总的训练步数
)

# 存储每一步的学习率
learning_rates = []

# for step in range(num_training_steps):
#    optimizer.step()
#    scheduler.step()
#    learning_rates.append(optimizer.param_groups[0]['lr'])

for epoch in range(epochs):
    # for batch in train_loader:
    for step in range(0, num_train_loader, batch_size):
        optimizer.zero_grad()
        # loss.backward()
        optimizer.step()
        scheduler.step()
        learning_rates.append(optimizer.param_groups[0]['lr'])


# 绘制学习率曲线
plt.plot(learning_rates)
plt.xlabel("Training Steps")
plt.ylabel("Learning Rate")
plt.title("Learning Rate Schedule")
plt.show()

实验结果:

相关推荐
NLP工程化6 天前
LLM模型的generate和chat函数区别
llm·chat·transformers·generate
obullxl21 天前
Transformers 框架 Pipeline 任务详解:文本转音频(text-to-audio 或 text-to-speech)
人工智能·ai·pipeline·transformers·文本转音频
money05341 个月前
XLA中生成Causal Mask上三角-inf矩阵
pytorch·线性代数·矩阵·transformers·xla
obullxl1 个月前
深入解析 Transformers 框架(四):Qwen2.5/GPT 分词流程与 BPE 分词算法技术细节详解
人工智能·gpt·ai·transformers·qwen2.5·bpe
Hoper.J2 个月前
BPE vs WordPiece:理解 Tokenizer 的工作原理与子词分割方法
transformers·tokenizer·1024程序员节·bpe·wordpiece·子词分割方法
HuggingFace2 个月前
更快的辅助生成: 动态推测
transformers
ZHOU西口3 个月前
ChromaDB教程_2024最新版(下)
python·langchain·大模型·embedding·transformers·chroma·all-minilm-l6
HuggingFace4 个月前
基于 Quanto 和 Diffusers 的内存高效 transformer 扩散模型
transformers·diffusers·quanto
enjoy编程4 个月前
hg transformers pipeline使用
ai·大模型·llm·pipeline·huggingface·transformers