📚 整体学习脉络
从工程化规范 到模型训练与推理 ,逐步完成从 "写代码" 到 "做工程" 的过渡,核心是可维护性、高效性与可解释性。
🔍 分日知识点拆解
DAY 30 模块和库的导入
- 核心目标:规范代码结构,避免命名冲突与冗余。
- 关键内容 :
- 基础导入:
import torch/from torch import nn等标准写法。 - 别名使用:
import torch.nn.functional as F简化调用。 - 局部导入:只导入需要的函数 / 类,减少内存占用(如
from torch.utils.data import DataLoader)。 - 避免问题:
import *会污染命名空间,不推荐使用。
- 基础导入:
DAY 31 文件的规范拆分和写法
- 核心目标:让代码可复用、易维护,符合工程标准。
- 关键内容 :
- 目录结构:将数据加载、模型定义、训练逻辑、工具函数拆分为不同文件(如
dataset.py/model.py/train.py/utils.py)。 - 模块化设计:每个文件只负责单一功能,降低耦合。
- 入口文件:用
main.py作为程序入口,统一调用各模块。 - 代码规范:添加类型提示、注释,遵循 PEP8 风格。
- 目录结构:将数据加载、模型定义、训练逻辑、工具函数拆分为不同文件(如
DAY 32 官方文档的阅读
- 核心目标:学会自主获取权威知识,解决实际问题。
- 关键内容 :
- 文档结构:熟悉 PyTorch 官方文档的模块划分(如
torch.nn/torch.optim/torch.utils.data)。 - 高效检索:通过搜索函数 / 类名,快速定位参数说明、示例代码和注意事项。
- 示例学习:通过官方示例代码理解 API 的实际使用场景。
- 版本兼容:关注不同 PyTorch 版本的 API 变化,避免踩坑。
- 文档结构:熟悉 PyTorch 官方文档的模块划分(如
DAY 33 MLP 神经网络的训练
- 核心目标:掌握完整的深度学习训练流程。
- 关键内容 :
- 模型定义:继承
nn.Module,实现__init__和forward方法。 - 数据准备:数据集加载、划分训练集 / 验证集、数据预处理。
- 损失函数与优化器:选择合适的损失(如
CrossEntropyLoss)和优化器(如SGD/Adam)。 - 训练循环:前向传播 → 计算损失 → 反向传播 → 参数更新。
- 验证逻辑:在验证集上评估模型性能,监控过拟合 / 欠拟合。
- 模型定义:继承
DAY 34 GPU 训练及类的 call 方法
- 核心目标:提升训练效率,理解类的调用机制。
- 关键内容 :
- GPU 加速:使用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu"),将模型和数据移至 GPU。 call方法:nn.Module的__call__方法会自动调用forward,因此可以直接用model(input)完成前向传播。- 设备管理:确保所有张量与模型在同一设备上,避免运行时错误。
- 性能优化:使用混合精度、数据加载并行等技巧进一步加速。
- GPU 加速:使用
DAY 35 模型可视化与推理
- 核心目标:让模型 "可解释",完成从训练到部署的最后一步。
- 关键内容 :
- 模型可视化:
torchinfo.summary:打印模型结构、参数量、输入 / 输出形状。- 权重分布可视化:绘制权重 / 梯度直方图,分析训练稳定性。
- 进度条:使用
tqdm或手动实现进度条,美化训练日志。 - 推理模式:
- 切换
model.eval()关闭 Dropout/BatchNorm 的训练行为。 - 使用
torch.no_grad()禁用梯度计算,节省显存并加速推理。
- 切换
- 结果评估:在测试集上生成预测,计算最终指标。
- 模型可视化:
💡 核心能力提炼
- 工程化能力:代码模块化、规范命名、高效阅读文档。
- 训练全流程掌控:从数据到模型,再到训练、验证、推理的完整闭环。
- 效率与可解释性:GPU 加速训练,可视化手段辅助调试与分析。
- 问题解决思维:能通过官方文档和工具定位并解决代码问题。
🎯 后续学习方向建议
- 深入卷积神经网络(CNN)、循环神经网络(RNN)等更复杂模型结构。
- 学习模型保存与加载,为部署做准备。
- 探索更高级的训练技巧(如学习率调度、正则化、迁移学习)。