Datawhale X 李宏毅苹果书 AI夏令营_深度学习基础学习心得Task2

本次学习主要针对自适应学习率;介绍了Adagrad,RMSprop和Adam优化器

1、为什么需要自适应学习率:

训练一个网络,在走到临界点的时候损失不再下降,而梯度并没有变得很小。相当于下坡路在两步之间,而步子迈大了,直接把下坡路跳过了,又走到上坡路上了。在这时候就需要把学习率(步幅)调低一点让梯度继续下降。

但是常规的 学习率下降方法是不够用的,我们希望在梯度大的时候走慢点,在梯度小的时候走快点,所以需要引入自适应学习率

2、Adagrad

Adagrad就可以做到上述的功能。更新公式:

其中η/σ这一项是不断更新的学习率,σ又随着迭代不断更新,新的σ来自之前每次迭代的梯度。根据公式可以看到梯度g小了,σ就小了,η/σ就大了,反之亦然。

3、RMSprop

公式:

可以看到每一阶段的σ都来自于继承于前一阶段,所以这种算法也是包含了过往所有的梯度信息,与Adagrad不同的是α是一个可以调整的超参数,可以根据需要来调整当前梯度的重要程度,如果设置α比较小,则代表比较侧重于当前梯度,在梯度下降大的时候可以很快的刹车。

4、Adam

Adam 可以看作 RMSprop 加上动量,其使用动量作为参数更新方向,并且能够自适应调整学习率。

5、学习率退火、预热

在训练后期遇到了梯度很小,而距离很近的情况时,积累的σ会变得很小,步伐会变得很大,导致往其他方向走,虽然能够修正回来,但是我们希望避免这种情况

因此引入学习率退火,即实时调整η大小,让η随着迭代不断变小,步伐也可以不断变小。

预热的方法是让学习率先变大后变小

##########################

本次学习了不同优化器调整学习率的策略,在我做课题的时候一般都是用Adam,问了别人也都说时Adam最好用,通过本次学习深入了解了它为什么好。通过查询资料了解到RMSprop更适合CNN网络,因为RMSprop 的平滑效果有助于加快收敛速度,以及RNN,因为这些模型的梯度更新具有较强的波动性;Adagrad更适合例如文本分类、自然语言处理(NLP)中的词嵌入训练等场景,因为不同的词汇或特征可能出现的频率差异很大。

相关推荐
小鸡吃米…几秒前
机器学习 - 轮次(Epoch)
人工智能·深度学习·机器学习
风栖柳白杨11 分钟前
【语音识别】Qwen3-ASR原理及部署
人工智能·python·语音识别·xcode·audiolm
Wang2012201316 分钟前
2026流行的 AI Agent开发框架 (构建“智能体”)
人工智能
张人玉17 分钟前
VisionPro Blob、条码识别、OCR 结构化速记版
人工智能·算法·机器学习·vsionpro
Elastic 中国社区官方博客24 分钟前
Elasticsearch:使用 Elastic Workflows 构建自动化
大数据·数据库·人工智能·elasticsearch·搜索引擎·自动化·全文检索
跨境卫士-小汪28 分钟前
选品更稳的新打法:用“用户决策阻力”挑品——阻力越大,越有机会做出溢价
大数据·人工智能·产品运营·跨境电商·内容营销·跨境
空中楼阁,梦幻泡影1 小时前
主流4 大模型(GPT、LLaMA、DeepSeek、QWE)的训练与推理算力估算实例详细数据
人工智能·gpt·llama
Dev7z1 小时前
基于改进YOLOv5n与OpenVINO加速的课堂手机检测系统设计与实现
人工智能·yolo·openvino·手机检测·课堂手机检测
Elastic 中国社区官方博客1 小时前
Elastic 9.3:与数据对话、构建自定义 AI agents、实现全自动化
大数据·人工智能·elasticsearch·搜索引擎·ai·自动化·全文检索
启友玩AI1 小时前
方言守护者:基于启英泰伦CI-F162GS02J芯片的“能听懂乡音”的智能夜灯DIY全攻略
c语言·人工智能·嵌入式硬件·ai·语音识别·pcb工艺