lightning的hook顺序

结果

setup: 训练循环开始前设置数据加载器和模型。

configure_optimizers: 设置优化器和学习率调度器。

on_fit_start: 训练过程开始。

on_train_start: 训练开始。

on_train_epoch_start: 每个训练周期开始。

on_train_batch_start: 每个训练批次开始。

on_before_backward: 反向传播之前。

on_after_backward: 反向传播之后。

on_before_zero_grad: 清空梯度之前。

on_after_zero_grad: 清空梯度之后。

on_before_optimizer_step: 优化器步骤之前。

on_train_batch_end: 每个训练批次结束。

on_train_epoch_end: 每个训练周期结束。

on_train_end: 训练结束。

on_fit_end: 训练过程结束。

测试代码

py 复制代码
import torch
from torch.utils.data import DataLoader, TensorDataset
from pytorch_lightning import LightningModule, Trainer, Callback
from pytorch_lightning.callbacks import Callback

# 定义一个简单的线性回归模型
class LinearRegression(LightningModule):
    def __init__(self):
        super().__init__()
        self.linear = torch.nn.Linear(1, 1)

    def forward(self, x):
        return self.linear(x)

    def training_step(self, batch, batch_idx):
        x, y = batch
        y_hat = self(x)
        loss = torch.nn.functional.mse_loss(y_hat, y)
        return loss
    
    def on_after_backward(self, *args, **kwargs):
        print("After backward is called!", args, kwargs)
        return super().on_after_backward(*args, **kwargs)
    
    def on_before_zero_grad(self, *args, **kwargs):
        print("Before zero grad is called!", args, kwargs)
        return super().on_before_zero_grad(*args, **kwargs)
    
    def on_after_zero_grad(self, *args, **kwargs):
        print("After zero grad is called!", args, kwargs)
        return super().on_after_zero_grad(*args, **kwargs)
    
    def on_before_backward(self, *args, **kwargs):
        print("Before backward is called!", args, kwargs)
        return super().on_before_backward(*args, **kwargs)
    
    def on_before_optimizer_step(self, *args, **kwargs):
        print("Before optimizer step is called!", args, kwargs)
        return super().on_before_optimizer_step(*args, **kwargs)
    
    def on_after_optimizer_step(self, *args, **kwargs):
        print("After optimizer step is called!", args, kwargs)
        return super().on_after_optimizer_step(*args, **kwargs)
    
    def on_fit_start(self, *args, **kwargs):
        print("Fit is starting!", args, kwargs)
        return super().on_fit_start(*args, **kwargs)
    
    def on_fit_end(self, *args, **kwargs):
        print("Fit is ending!", args, kwargs)
        return super().on_fit_end(*args, **kwargs)
    
    def setup(self, *args, **kwargs):
        print("Setup is called!", args, kwargs)
        return super().setup(*args, **kwargs)
    
    def configure_optimizers(self, *args, **kwargs):
        print("Configure Optimizers is called!", args, kwargs)
        return super().configure_optimizers(*args, **kwargs)
    
    def on_train_start(self, *args, **kwargs):
        print("Training is starting!", args, kwargs)
        return super().on_train_start(*args, **kwargs)
    
    def on_train_end(self, *args, **kwargs):
        print("Training is ending!", args, kwargs)
        return super().on_train_end(*args, **kwargs)
    
    def on_train_batch_start(self, *args, **kwargs):
        print(f"Training batch is starting!", args, kwargs)
        return super().on_train_batch_start(*args, **kwargs)
    
    def on_train_batch_end(self, *args, **kwargs):
        print(f"Training batch is ending!", args, kwargs)
        return super().on_train_batch_end(*args, **kwargs)
    
    def on_train_epoch_start(self, *args, **kwargs):
        print(f"Training epoch is starting!", args, kwargs)
        return super().on_train_epoch_start(*args, **kwargs)
    
    def on_train_epoch_end(self, *args, **kwargs):
        print(f"Training epoch is ending!", args, kwargs)
        return super().on_train_epoch_end(*args, **kwargs)
    
    
# 创建数据集
x_train = torch.tensor([[1.0], [2.0], [3.0], [4.0]], dtype=torch.float)
y_train = torch.tensor([[2.0], [4.0], [6.0], [8.0]], dtype=torch.float)
train_dataset = TensorDataset(x_train, y_train)
train_loader = DataLoader(train_dataset, batch_size=2)

# 创建模型和训练器
model = LinearRegression()
trainer = Trainer(max_epochs=2)

# 开始训练
trainer.fit(model, train_loader)
相关推荐
向量引擎小橙几秒前
深度|AI浪潮已至:在2026年,我们真正需要掌握什么?
人工智能
2501_9240641111 分钟前
2025年APP隐私合规测试主流方法与工具深度对比
大数据·网络·人工智能
未来之窗软件服务22 分钟前
幽冥大陆(八十五)Python 水果识别ONNX转手机mobile —东方仙盟练气期
开发语言·python·模型训练·仙盟创梦ide·东方仙盟
莓有烦恼吖25 分钟前
基于AI图像识别与智能推荐的校园食堂评价系统研究 05-审核机制模块
java·服务器·python
用户51914958484525 分钟前
链式利用CVE-2024–24919:通过Checkpoint安全网关LFI漏洞挖掘敏感SSH密钥
人工智能
linghuocaishui34 分钟前
京东用工平台实践:亲测案例复盘分享
人工智能·python
da_vinci_x36 分钟前
【2D场景】16:9秒变21:9?PS “液态缩放” + AI 补全,零成本适配全面屏
前端·人工智能·游戏·aigc·设计师·贴图·游戏美术
你怎么知道我是队长40 分钟前
python---新年烟花
开发语言·python·pygame
算法狗242 分钟前
大模型面试题:大模型FFN中用SwiGLU为啥设置FFN的映射为8/3*d呢?
人工智能
智算菩萨44 分钟前
【Python机器学习】主成分分析(PCA):高维数据的“瘦身术“
开发语言·python·机器学习