技术栈
epoch
旅途中的宽~
1 年前
深度学习
·
神经网络
·
batch
·
epoch
·
梯度下降
【深度学习】神经网络中 Batch 和 Epoch 之间的区别是什么?我们该如何理解?
随机梯度下降(Stochastic Gradient Descent,SGD)是一种优化算法,用于在机器学习和深度学习中更新模型参数,以最小化损失函数。与传统的梯度下降算法不同,SGD在每次参数更新时只使用一个样本(或一小批样本),而不是使用整个训练数据集。这使得SGD具有更快的收敛速度,并且可以处理大规模的数据集。