Dropout 和 BatchNorm 在训练和验证中的差异

文章目录

    • [1. Dropout](#1. Dropout)
      • [1.1 作用](#1.1 作用)
      • [1.2 训练和验证的差异](#1.2 训练和验证的差异)
      • [1.3 示例](#1.3 示例)
    • [2. Batch Normalization (BatchNorm)](#2. Batch Normalization (BatchNorm))
      • [2.1 作用](#2.1 作用)
      • [2.2 训练和验证时的差异](#2.2 训练和验证时的差异)
      • [2.3 示例](#2.3 示例)
    • [3. 总结](#3. 总结)
    • [4. 实际使用建议](#4. 实际使用建议)

在神经网络中,Dropout 和 Batch Normalization (BatchNorm) 是常见的层,其行为在 训练阶段 和 验证阶段(推理阶段) 是不同的。这种差异的原因是它们在两个阶段处理数据的方式不同,以适应训练和推理的需求。

1. Dropout

1.1 作用

  • Dropout 是一种正则化方法,用于防止过拟合。
  • 它通过在训练过程中随机"丢弃"一部分神经元(即将它们的输出置为 0)来增加模型的鲁棒性。

1.2 训练和验证的差异

  • 训练阶段: 随机丢弃部分神经元,按照设定的概率 p p p(比如0.5), 使某些神经元的输出置为0。但会通过放神经元的输出(即乘以 1 1 − p \frac {1} {1-p} 1−p1),补偿训练阶段丢弃部分神经元导致的输出缩减,从而确保输出的一致性。
  • 在验证阶段:,不再丢弃神经元,保留所有神经元的输出

1.3 示例

py 复制代码
import torch
import torch.nn as nn

dropout = nn.Dropout(p=0.5)

# Training phase
dropout.train()  # 启用训练模式
x_train = torch.ones(5)  # 输入为全1
output_train = dropout(x_train)  # 部分输出会被置为0

# Validation phase
dropout.eval()  # 启用验证模式
x_val = torch.ones(5)  # 输入为全1
output_val = dropout(x_val)  # 所有输出保持不变,但被缩放
  • 输出
shell 复制代码
output_train tensor([2., 2., 0., 2., 0.])
output_val tensor([1., 1., 1., 1., 1.])

2. Batch Normalization (BatchNorm)

2.1 作用

  • BatchNorm 用于加速训练,解决梯度消失和梯度爆炸的问题。
  • 它通过对每个mini-batch的数据进行归一化(使输出具有零均值和单位方差)来实现稳定的训练过程。

2.2 训练和验证时的差异

原理

  • 在训练过程中,BatchNorm 会计算每个 mini-batch 的均值和方差,同时更新全局的移动平均值(moving mean)和移动方差(moving variance)。
  • 在验证阶段,为了避免小批量数据引入偏差,直接使用训练阶段保存的全局统计信息进行归一化。

2.3 示例

py 复制代码
import torch
import torch.nn as nn

batchnorm = nn.BatchNorm1d(num_features=5)

# Training phase
batchnorm.train()  # 启用训练模式
x_train = torch.rand(10, 5)  # 随机生成输入
output_train = batchnorm(x_train)  # 使用 mini-batch 均值和方差进行归一化

# Validation phase
batchnorm.eval()  # 启用验证模式
x_val = torch.rand(10, 5)  # 随机生成输入
output_val = batchnorm(x_val)  # 使用全局的 moving mean 和 moving variance

3. 总结

注意事项:

  • 在验证或推理阶段,必须调用 model.eval(),否则 Dropout 和 BatchNorm 的行为会与训练阶段一致,导致验证结果或推理结果不正确。
  • 如果模型中没有 Dropout 或 BatchNorm,则 model.eval() 不会改变模型的行为。

4. 实际使用建议

典型推理代码

py 复制代码
model.eval()  # 切换到验证模式
with torch.no_grad():  # 关闭梯度计算
    output = model(input_tensor)  # 推理

训练代码

py 复制代码
model.train()  # 切换到训练模式
output = model(input_tensor)  # 进行前向传播
loss = loss_fn(output, target)  # 计算损失
loss.backward()  # 反向传播
optimizer.step()  # 更新参数
相关推荐
java1234_小锋1 小时前
TensorFlow2 Python深度学习 - TensorFlow2框架入门 - 使用Keras实现逻辑回归
python·深度学习·tensorflow·tensorflow2
JJjiangfz1 小时前
杭电 神经网络与深度学习 学习笔记
深度学习·神经网络·学习
java1234_小锋1 小时前
TensorFlow2 Python深度学习 - TensorFlow2框架入门 - Sequential顺序模型
python·深度学习·tensorflow·tensorflow2
不惑_3 小时前
【征文计划】AI+AR生态新未来,Rokid核心技术实战解析
人工智能·机器学习
小关会打代码3 小时前
深度学习之YOLO系列了解基本知识
人工智能·深度学习·yolo
振鹏Dong5 小时前
依托 <AI 原生应用架构白皮书>,看 AI 原生应用的发展与实践
人工智能
智行众维6 小时前
自动驾驶的“虚拟驾校”如何炼成?
人工智能·自动驾驶·汽车·智能驾驶·智能网联汽车·智能驾驶仿真测试·智驾系统
空白到白7 小时前
NLP-注意力机制
人工智能·自然语言处理
大千AI助手8 小时前
指数分布:从理论到机器学习应用
人工智能·机器学习·参数估计·概率密度函数·mle·指数分布·累积分布函数
MATLAB代码顾问8 小时前
MATLAB绘制多种混沌系统
人工智能·算法·matlab