deep learning(李宏毅)--(六)--loss

一,关于分类问题及其损失函数的一些讨论。

在构建分类模型是,我们的最后一层往往是softmax函数(起到归一化的作用),如果是二分类问题也可以用sigmoid函数。

在loss函数的选择上,一般采用交叉熵损失函数(cross-entropy),为什么呢?因为交叉熵损失函数更容易使得optimisization到达低loss(如下图:cross-entropy的梯度图更为陡)

二,对于Adam和SGDM梯度优化算法的比较

Adam:训练速度很快,但是收敛效果不佳

SGDM:训练速度平稳,收敛性较好

SWATS算法:Adam和SGDM算法的结合:(训练开始用Adam,在收敛时用SGDM)

注意:使用Adam算法初始不稳定,需要进行预加热(Warm up) .

三,Radam算法与SWATS算法比较:

后面就有点听不懂了,以后了解更多再来听吧,做个记号。
(选修)To Learn More - Optimization for Deep Learning (2_2)_哔哩哔哩_bilibili
笔记先做到这hh,有的笨,当先了解了。

相关推荐
万行16 小时前
机器学习&第三章
人工智能·python·机器学习·数学建模·概率论
木卫四科技16 小时前
DocETL 入门:让非结构化数据处理变得简单智能
人工智能·木卫四
玖日大大16 小时前
OceanBase SeekDB:AI 原生数据库的技术革命与实践指南
数据库·人工智能·oceanbase
小润nature16 小时前
Spec-Driven Development (SDD) 框架与开源 AI 智能体-意图的进化
人工智能·开源
后端小肥肠16 小时前
复刻10W+爆款视频!我用Coze搭了个“人物故事”自动流水线,太香了!
人工智能·aigc·coze
轻竹办公PPT16 小时前
2026 年工作计划 PPT 内容拆解,对比不同 AI 生成思路
人工智能·python·powerpoint
浔川python社16 小时前
【版本更新提示】浔川 AI 翻译 v6.0 合规优化版已上线
人工智能
清 澜16 小时前
c++高频知识点总结 第 1 章:语言基础与预处理
c++·人工智能·面试
OpenMiniServer16 小时前
AI全周期开发平台设计方案
人工智能
明月照山海-17 小时前
机器学习周报三十
人工智能·机器学习·计算机视觉