机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
sheeta19987 分钟前
Vue 前端基础笔记
前端·vue.js·笔记
贺子杰8 分钟前
潜意识“假推理”:LLM 幻觉的可解释性追踪方案
人工智能·深度学习
哆哆啦009 分钟前
obsidian远程同步方案:infiniCloud+remotely save方案
笔记·git·obsidian
古希腊掌管代码的神THU10 分钟前
【清华代码熊】MTP (Multi-Token Prediction)源码详解
人工智能·深度学习·自然语言处理
啦啦啦_999915 分钟前
1. 深度学习概述
人工智能·深度学习
薛定e的猫咪23 分钟前
【ICML 2025】MODULI:基于扩散模型解锁离线多目标强化学习的偏好泛化
人工智能·学习·算法·机器学习
咸鱼翻身小阿橙25 分钟前
Qt Quick 登录界面代码学习笔记
笔记·qt·学习
Brilliantwxx26 分钟前
【C++】priority_queue以及 仿函数 的学习
开发语言·c++·笔记·学习·算法
小+不通文墨34 分钟前
树莓派4b-wiringpi库的安装和使用
驱动开发·经验分享·笔记·嵌入式硬件·学习
初心未改HD38 分钟前
机器学习之朴素贝叶斯分类器详解
人工智能·机器学习·概率论