机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
LSQ的测试日记几秒前
深度学习_YOLO,卡尔曼滤波和
人工智能·深度学习·yolo
枫叶林FYL3 分钟前
【自然语言处理 NLP】前沿架构与多模态 状态空间模型(Mamba/SSM)深度实现
人工智能·机器学习
Gary jie24 分钟前
AI上下文管理与记忆架构详解
人工智能·机器学习·架构·openclaw
南境十里·墨染春水26 分钟前
linux学习进展 基础命令 vi基础命令
linux·运维·服务器·笔记·学习
Xudde.28 分钟前
班级作业笔记报告0x08
笔记·学习·安全·web安全
bst@微胖子29 分钟前
PyTorch深度学习框架之多分类交叉熵实现图像分类
pytorch·深度学习·分类
迷路爸爸18035 分钟前
Docker 入门学习笔记 05:卷到底是什么,为什么容器删了数据却还能保留
笔记·学习·docker
沅_Yuan40 分钟前
基于贝叶斯优化的稀疏高斯过程回归(BO-SGPR)多输入单输出回归模型【MATLAB】
神经网络·机器学习·matlab·回归·回归预测·贝叶斯优化
xuhaoyu_cpp_java1 小时前
Maven学习(一)
java·经验分享·笔记·学习·maven
独隅1 小时前
Keras 的主要特点和适用场景
人工智能·深度学习·keras