深度学习中常用概念总结

最近在做深度学习,里面涉及到很多概念,有的名称都差不多容易记混。所以写这篇文章总结一下。眼过千遍不如手过一遍。

  1. 轮数(Epochs):

一轮(Epoch)指的是整个训练数据集在训练过程中被完整使用一次。每个 Epoch 包含多个批次(batches),在每个 Epoch 结束后,模型通常会在验证集上进行评估。

  1. 步数(Steps):

步数(Steps)通常指的是训练过程中的迭代次数。在每个 Step 中,模型进行一次前向传播和后向传播。

  1. 批处理大小(Batch Size):

批处理大小(Batch Size)是指每次迭代中用于训练的样本数量。它影响计算资源的利用和模型训练的稳定性。

  1. 微批处理大小(Micro-batch-size):

微批处理大小是在模型并行或流水线并行中使用的概念,指的是在每个 GPU 或每个并行阶段中处理的批次大小。它是批处理大小的进一步划分。

  1. 学习率(Learning Rate):

学习率是优化算法中用于调整模型权重的步长。它决定了在每次迭代中参数更新的幅度。

  1. 训练吞吐量:

训练吞吐量指模型训练过程中单位时间内能够处理的数据量,通常以样本/秒或批次/秒来衡量。

  1. 加速器内存(Accelerator Memory):

加速器内存是专用于支持 GPU 或 TPU 等硬件加速器的高性能计算任务的内存,用于存储模型参数、中间计算结果等。

  1. 词大小(Word-size):

在深度学习中,词大小通常指的是模型中词嵌入(Word Embedding)的维度,即表示每个词的向量的长度。

  1. 数据并行(Data Parallel):

数据并行是一种并行化技术,通过将数据集分割成多个批次分配到多个处理器上同时训练,以此来加速训练过程。

  1. 上下文并行大小(Context Parallel Size):

上下文并行大小可能是指在使用特定深度学习框架时,如 Megatron-LM 中的设置,用于控制跨多个 GPU 分配模型的不同部分的方式。

  1. 张量模型并行大小(Tensor Model Parallel Size):

张量模型并行大小是指在模型并行中,模型的张量如何分配到不同的处理器上。它决定了模型的哪一部分将在不同的 GPU 上计算。

  1. 管道模型并行大小(Pipeline Model Parallel Size):

管道模型并行大小是指将模型分成多个阶段,每个阶段可以并行处理不同的数据微批次,从而提高计算效率和资源利用率。

相关推荐
Elastic 中国社区官方博客1 分钟前
Elasticsearch:智能搜索 - AI builder,workflow 及 skills
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
蓝博AI2 分钟前
基于深度学习的蔬菜识别系统,resnet50,vgg16,resnet34【pytorch框架,python代码】
人工智能·pytorch·python·深度学习·机器学习·cnn
一只数据集3 分钟前
机器学习多领域综合数据集分析-包含基因表达时间序列分类回归数据-适用于算法训练模型评估科研应用
人工智能·算法·数据分析
东坡肘子6 分钟前
Swift 并发正被更广泛地接纳 -- 肘子的 Swift 周报 #133
人工智能·swiftui·swift
chaofan9806 分钟前
AI 时代的云财务管理革命:如何利用聚合平台实现 GPT-5.5 成本的大幅优化与 Token 审计
人工智能·gpt·自动化·api
秦歌6666 分钟前
RAG-6-高级RAG实战案例:自适应路由 + 自评估重写 + 网络回退
java·服务器·前端·人工智能·python
AI服务老曹8 分钟前
架构实战 | 深度解析支持 X86/ARM 异构计算的 AI 视频管理平台:从 GB28181 接入到边缘推流与源码交付
arm开发·人工智能·架构
乐迪信息8 分钟前
乐迪信息:精准识别每一艘船:船舶AI类型分类算法技术解析
大数据·人工智能·物联网·安全·目标跟踪·分类·数据挖掘
财经资讯数据_灵砚智能9 分钟前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年4月27日
人工智能·python·信息可视化·自然语言处理·ai编程