机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
colfree7 分钟前
Scanpy
人工智能·机器学习
koo36420 分钟前
pytorch深度学习笔记12
pytorch·笔记·深度学习
慕容雪_2 小时前
运维笔记-网络共享
运维·笔记·网络共享
Yeats_Liao2 小时前
MindSpore开发之路(二十五):融入开源:如何为MindSpore社区贡献力量
人工智能·分布式·深度学习·机器学习·华为·开源
Blossom.1182 小时前
Transformer架构优化实战:从MHA到MQA/GQA的显存革命
人工智能·python·深度学习·react.js·架构·aigc·transformer
浩瀚地学2 小时前
【Java】异常
java·开发语言·经验分享·笔记·学习
Groundwork Explorer2 小时前
WSL Python Kivy Buildozer APK打包笔记
笔记
小明_GLC3 小时前
Falcon-TST: A Large-Scale Time Series Foundation Model
论文阅读·人工智能·深度学习·transformer
gravity_w3 小时前
UV常用命令总结
经验分享·笔记·uv
棒棒的皮皮3 小时前
【深度学习】YOLO模型精度优化 Checklist
人工智能·深度学习·yolo·计算机视觉