Day44 简单 CNN 实战

1. 数据准备与增强
2. 模型设计路线

卷积块Conv2d → BatchNorm → ReLU → MaxPool 提取多尺度特征并逐步减小空间维度

分类头:将卷积输出展平成向量,接 1~2 层全连接 + Dropout,输出 10 维 logits。

正则化:BatchNorm 稳定分布、Dropout 降低 co-adaptation。

Batch Normalization 的作用
  • 以 batch 为单位对每个通道做标准化,缓解"内部协变量偏移";
  • 学习 gammabeta 进行再缩放,允许网络恢复到任意分布;
  • 由于分布稳定,可使用更大学习率,加速收敛并起到轻微正则化效果
特征图尺寸推导

假设输入尺寸为 (32\times32):

第 1 个卷积块:保持尺寸,池化后得到 32×16×16;

第 2 个卷积块:池化后得到 64×8×8;

第 3 个卷积块:池化后得到 128×4×4,展平即 2048 维向量。

这些中间输出就是"特征图",可借助 Grad-CAM 等方法做可视化解释。

class CNN(nn.Module):

3. 损失函数、优化器与学习率调度
  • 损失函数CrossEntropyLoss 直接接收 logits 和标签。
  • 优化器:Adam 适合快速验证,配合适度权重衰减稳定训练。
  • 调度器ReduceLROnPlateau 在验证指标停滞时自动降低学习率,比固定周期衰减更智能。
4. 训练与可视化流程

训练函数需要做几件事:

  1. 记录每个 batch 的损失,以观察局部波动情况;
  2. 每个 epoch 统计训练/测试损失与准确率,供调度器和图表使用;
  3. 训练结束后绘制迭代级别与 epoch 级别的曲线,帮助定位过拟合或欠拟合。
5. 启动训练
  • 增加卷积层深度或使用更大的特征维度;
  • 加入 CosineAnnealingLRMixup 等更强的数据/调度策略;
  • 使用 AutoAugmentCutMix 等进阶增强方式

@浙大疏锦行

相关推荐
梨子串桃子_7 小时前
推荐系统学习笔记 | PyTorch学习笔记
pytorch·笔记·python·学习·算法
文言一心8 小时前
LINUX离线升级 Python 至 3.11.9 操作手册
linux·运维·python
诗词在线9 小时前
中国古代诗词名句按主题分类有哪些?(爱国 / 思乡 / 送别)
人工智能·python·分类·数据挖掘
高锰酸钾_9 小时前
机器学习-L1正则化和L2正则化解决过拟合问题
人工智能·python·机器学习
天天睡大觉9 小时前
Python学习11
网络·python·学习
智航GIS9 小时前
11.11 Pandas性能革命:向量化操作与内存优化实战指南
python·pandas
写代码的【黑咖啡】10 小时前
Python中的Selenium:强大的浏览器自动化工具
python·selenium·自动化
抠头专注python环境配置10 小时前
解决Windows安装PythonOCC报错:从“No module named ‘OCC’ ”到一键成功
人工智能·windows·python·3d·cad·pythonocc
华研前沿标杆游学10 小时前
2026年华研就业实践营|走进字节跳动,解锁科技行业职业新航向
python