归纳理解epoch、batch、batch size、step、iteration深度学习名词

名词理解

Epoch

在深度学习中,一个epoch表示模型完整遍历整个训练数据集一次。假设数据集有1000个样本,模型在训练过程中将这1000个样本全部学习一遍即为一个epoch。通常需要多个epoch才能使模型收敛。

Batch

Batch是训练过程中一次输入模型的一组样本。例如,若batch size为32,则每个batch包含32个样本。使用batch的目的是为了高效利用计算资源(如GPU的并行能力),同时避免一次性加载全部数据导致内存不足。

Batch Size

Batch size指每个batch中包含的样本数量。较大的batch size可以加快训练速度,但可能占用更多内存;较小的batch size可能增加训练时间,但有助于模型跳出局部最优。常见选择范围在16到512之间,具体取决于硬件条件和任务需求。

Step

Step(或称为training step)指模型完成一个batch的前向传播和反向传播的过程。例如,若数据集有1000个样本,batch size为100,则一个epoch需要10个steps。Step是模型参数更新的基本单位。

Iteration

Iteration通常与step同义,指模型完成一次参数更新的过程。在部分文献中,iteration可能指代一个epoch内的所有steps,需根据上下文区分。例如,"训练1000 iterations"可能指完成1000个batch的更新。

数学关系

假设:

  • 总样本数 = 1000

  • Batch Size = 32

    总样本数 = 1000
    batch_size = 32

    一个Epoch需要的迭代次数

    iterations_per_epoch = ceil(总样本数 / batch_size) # ceil(1000/32) = 32次

    10个Epoch的总迭代次数

    total_iterations = 10 * iterations_per_epoch # 10 * 32 = 320次

python示例代码

python 复制代码
# 示例数据集
dataset = list(range(1000))  # 1000个样本
batch_size = 32
epochs = 10

# 训练循环
for epoch in range(epochs):  # 外层循环:epoch
    print(f"Epoch {epoch + 1}/{epochs}")
    
    # 每次迭代处理一个batch
    for i in range(0, len(dataset), batch_size):  # 内层循环:iteration
        batch = dataset[i:i + batch_size]  # 当前batch的样本
        batch_size_actual = len(batch)      # 实际batch size(最后一个batch可能较小)
        
        # 模型前向传播、计算损失、反向传播
        # ... 训练代码 ...
        
        print(f"  Iteration {i//batch_size + 1}: 处理了{batch_size_actual}个样本")
    
    print(f"Epoch {epoch + 1} 完成,已看完所有1000个样本")

不同概念对训练的影响

参数 影响 常见取值范围
Batch Size - 越大,训练越稳定,但显存占用越大 - 越小,梯度噪声越大,但泛化能力可能更好 16, 32, 64, 128, 256
Epoch - 越多,模型拟合越好,但可能过拟合 10, 50, 100, 200
Iteration - 由batch size和总样本数决定,不是超参数 取决于数据量

常见混淆点澄清

1.Batch Size vs Global Batch Size

python 复制代码
# 单卡训练
batch_size = 32  # 就是32

# 多卡分布式训练
per_gpu_batch = 32        # 每张卡处理32个
global_batch = 32 * 4 = 128  # 所有卡总共处理128个

2.Iteration vs Step

  • 在深度学习中,iterationstep 通常指同一个概念

  • 一个step/iteration = 一次前向+反向传播

3.为什么最后一个batch可能较小

python 复制代码
# 1000个样本,batch_size=32
1000 / 32 = 31.25
# 前31个batch: 每批32个 (32*31=992)
# 最后一个batch: 只有8个样本 (1000-992=8)

一句话记忆

  • Batch Size = 每口吃多少

  • Iteration = 吃一口

  • Epoch = 吃完一整份

相关推荐
李伟_Li慢慢21 小时前
wolfram详解山峦算法
前端·算法
一叶飘零_sweeeet21 小时前
AI Agent 深潜:六大核心模块的设计本质与 Java 实现
java·人工智能·agent
Swift社区21 小时前
System + AI:下一代 鸿蒙App 架构
人工智能·架构·harmonyos
跨境摸鱼21 小时前
低价模型承压阶段跨境品牌如何把重心转向复购与客单
大数据·人工智能·跨境电商·亚马逊·跨境
上海云盾-小余21 小时前
边缘节点安全赋能:CDN 联动高防抵御复合型流量攻击
人工智能·安全
陈广亮21 小时前
AI Agent 成功率从 12% 到 66%:前端开发者该如何迎接"可用"的 Agent 时代
人工智能
CV-杨帆21 小时前
在 AutoDL 云服务器上将 NanoBot 养成为科研智能体
人工智能
counting money21 小时前
prim算法最小生成树(java)
算法
AI攻城狮21 小时前
CLAUDE.md 的最佳实践:为什么你的配置文件基本上是废的
人工智能·后端·openai
澈2071 天前
C++面向对象:类与对象核心解析
c++·算法