机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
AI木马人6 小时前
3.【Prompt工程实战】如何设计一个可复用的Prompt系统?(避免每次手写提示词)
linux·服务器·人工智能·深度学习·prompt
lwf0061646 小时前
导数学习日记
学习·算法·机器学习
ydmy7 小时前
transformer超参数配置(个人理解)
人工智能·深度学习
daanpdf8 小时前
新视野大学英语视听说教程2第四版听力音频原文及答案
笔记
U盘失踪了9 小时前
Playwright Trace 查看器
笔记
AI木马人10 小时前
6.深度学习入门:神经网络是如何“思考”的?
人工智能·深度学习·神经网络
小鱼~~11 小时前
TensorDataset简介
深度学习
喝醉酒的小白12 小时前
Elasticsearch 故障分析笔记:Pending Tasks 堆积与 Alias 风暴
笔记·elasticsearch
code_li12 小时前
自动驾驶的调度开源软件
人工智能·机器学习·自动驾驶
Cathy Bryant12 小时前
微分几何:曲面与坐标系
笔记·矩阵·高等数学·物理学·微分几何