Day 43图像数据与显存机制@浙大疏锦行

Day 43 学习笔记:图像数据与显存机制@浙大疏锦行

一、 图像数据基础

  1. 数据形状 (Shape)

    • 结构化数据(样本数, 特征数)

    • 图像数据

      复制代码
      (通道数, 高, 宽)

      PyTorch 默认格式 (Channel First)

      • 灰度图 (如 MNIST):通道数 = 1
      • 彩色图 (如 CIFAR-10):通道数 = 3 (RGB)
  2. 维度陷阱

    • PyTorch 使用 (C, H, W)
    • Matplotlib/OpenCV 通常使用 (H, W, C)
    • 注意 :在使用 plt.imshow() 可视化 PyTorch 张量时,必须先使用 np.transposepermute 交换维度顺序。

二、 图像神经网络 (MLP) 定义

  1. 展平操作 (Flatten)
    • MLP 全连接层只能接收一维向量。
    • 必须在输入层前使用 nn.Flatten()x.view()(C, H, W) 拉平为 (C×H×W) 的一维向量。
  2. Batch Size 与模型定义
    • 模型定义阶段无关nn.Linear 等层定义时不涉及 Batch Size。
    • 数据加载阶段相关DataLoader 中设置 Batch Size。
    • 前向传播:PyTorch 会自动处理第一维度的 Batch,模型内部计算逻辑不变。

三、 显存 (VRAM) 占用分析

显存不仅仅用来存图片,主要由以下 4部分 组成:

组成部分 说明 估算公式 (Float32)
1. 模型参数 模型的权重 (Weights) 和偏置 (Bias) 参数量 ×× 4 Bytes
2. 梯度 反向传播计算出的导数 ≈≈ 参数量 ×× 4 Bytes
3. 优化器状态 优化器更新参数所需的额外信息 SGD : 0 Adam: ≈≈ 参数量 ×× 8 Bytes (动量+方差)
4. 中间变量 & 数据 输入数据 + 每一层的输出特征图 (Activations) 受 Batch Size 影响最大 Batch Size ×× (单样本大小 + 中间层大小)

结论 :模型参数和优化器占用是固定的(这也是为什么大模型很难跑起来),而调整 Batch Size 是控制显存占用的主要手段

四、 Batch Size 的选择策略

  1. 显存限制 (OOM)
    • Batch Size 设置过大会导致 Out Of Memory
    • 建议从 16, 32, 64 开始尝试,通常设置为显卡最大承载能力的 80% 左右。
  2. 对训练的影响
    • Batch Size = 1:梯度随机性大,震荡剧烈,难以收敛。
    • Batch Size 较大:利用矩阵并行计算加速;梯度是多个样本的平均值,方向更准,训练更稳定。

@浙大疏锦行

相关推荐
沈浩(种子思维作者)6 小时前
真的能精准医疗吗?癌症能提前发现吗?
人工智能·python·网络安全·健康医疗·量子计算
njsgcs6 小时前
ue python二次开发启动教程+ 导入fbx到指定文件夹
开发语言·python·unreal engine·ue
io_T_T6 小时前
迭代器 iteration、iter 与 多线程 concurrent 交叉实践(详细)
python
华研前沿标杆游学7 小时前
2026年走进洛阳格力工厂参观游学
python
Carl_奕然7 小时前
【数据挖掘】数据挖掘必会技能之:A/B测试
人工智能·python·数据挖掘·数据分析
AI小怪兽7 小时前
基于YOLOv13的汽车零件分割系统(Python源码+数据集+Pyside6界面)
开发语言·python·yolo·无人机
wszy18097 小时前
新文章标签:让用户一眼发现最新内容
java·python·harmonyos
Eric.Lee20218 小时前
python实现 mp4转gif文件
开发语言·python·手势识别·手势交互·手势建模·xr混合现实
EntyIU8 小时前
python开发中虚拟环境配置
开发语言·python
wszy18098 小时前
顶部标题栏的设计与实现:让用户知道自己在哪
java·python·react native·harmonyos