【深度学习】学习笔记——批量和动量

批量

实际计算梯度时,并不是对所有数据的损失 L L L计算梯度,而是把所有数据分成一个一个的批量(batch)。遍历所有批量的过程称为一个回合(epoch),数据分为批量时,还会进行随机打乱(shuffle)。

在有并行计算的情况下,小的批量跟大的批量运算的时间没有太大的差距。除非大的批量非常大才会显示出差距。但是一个回合需要的时间,小的批量比较长,大的批量反而是比较快的。所以从一个回合需要的时间来看,大的批量是比较有优势的。而小的批量更新的方向比较有噪声,大的批量更新的方向比较稳定。但是有噪声的更新方向反而在优化的时候有优势,而且在测试的时候也会有优势。所以大的批量跟小的批量各有优缺点,批量大小是需要去调整的超参数。

动量

动量法是另外一个可以对抗鞍点或局部最小值的方法。

动量法是参考了真实的物理世界里一个球如果从高处滚下来,就算滚到鞍点,因为惯性的关系,他还是会继续往前走。如果球的动量足够大,其甚至翻过小坡继续往前走。

相关推荐
DKPT4 分钟前
数据结构之排序的基本概念
java·数据结构·笔记·学习·算法
厚学18 分钟前
JetLinks物联网学习(前后端项目启动)
学习
图学习的小张22 分钟前
论文笔记:交替单模态适应的多模态表征学习
论文阅读·学习
快下雨了L1 小时前
UE5学习笔记22-武器瞄准和武器自动开火
笔记·学习·ue5
圆头圆脑圆JAVA1 小时前
Doker学习笔记--黑马
笔记·学习
脚步的影子1 小时前
2024最新版MySQL详细学习教程
数据库·学习·mysql
马龙强_1 小时前
影刀RPE学习——自动化
学习·自动化
微刻时光2 小时前
Redis 主从复制
java·redis·笔记·github
wei_shuo2 小时前
神经网络的公式推导与代码实现(论文复现)
人工智能·深度学习·神经网络