deep learning(李宏毅)--(六)--loss

一,关于分类问题及其损失函数的一些讨论。

在构建分类模型是,我们的最后一层往往是softmax函数(起到归一化的作用),如果是二分类问题也可以用sigmoid函数。

在loss函数的选择上,一般采用交叉熵损失函数(cross-entropy),为什么呢?因为交叉熵损失函数更容易使得optimisization到达低loss(如下图:cross-entropy的梯度图更为陡)

二,对于Adam和SGDM梯度优化算法的比较

Adam:训练速度很快,但是收敛效果不佳

SGDM:训练速度平稳,收敛性较好

SWATS算法:Adam和SGDM算法的结合:(训练开始用Adam,在收敛时用SGDM)

注意:使用Adam算法初始不稳定,需要进行预加热(Warm up) .

三,Radam算法与SWATS算法比较:

后面就有点听不懂了,以后了解更多再来听吧,做个记号。
(选修)To Learn More - Optimization for Deep Learning (2_2)_哔哩哔哩_bilibili
笔记先做到这hh,有的笨,当先了解了。

相关推荐
SEO_juper2 分钟前
零基础快速上手:亚马逊CodeWhisperer实战入门指南
人工智能·机器学习·工具·亚马逊·codewhisperer
RanceGru4 分钟前
LLM学习笔记7——unsloth微调Qwen3-4B模型与vllm部署测试
人工智能·笔记·学习·语言模型·vllm
如意鼠6 分钟前
大模型教我成为大模型算法工程师之day20: 预训练语言模型 (Pre-trained Language Models)
人工智能·算法·语言模型
囊中之锥.7 分钟前
机器学习第二部分----逻辑回归
人工智能·机器学习·逻辑回归
_Li.12 分钟前
机器学习-DeepSeekR1
人工智能·机器学习
CodeLinghu14 分钟前
「 LLM实战 - 企业 」基于 markdown-it AST 的 Markdown 文献翻译实现详解
人工智能·ai
程序员哈基耄14 分钟前
一键生成专属形象照——AI智能相馆引领摄影新潮流
人工智能
DeeGLMath16 分钟前
机器学习中回归训练的示例
人工智能·机器学习·回归
勇气要爆发17 分钟前
【第二阶段—机器学习入门】第十五章:机器学习核心概念
人工智能·机器学习
山东小木19 分钟前
A2UI:智能问数的界面构建策略
大数据·人工智能·jboltai·javaai·springboot ai·a2ui