机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
左左右右左右摇晃3 分钟前
JDK 1.7 ConcurrentHashMap——分段锁
java·开发语言·笔记
云边散步1 小时前
godot2D游戏教程系列二(22)
笔记·学习·游戏
chushiyunen1 小时前
langchain实现agent智能体笔记
笔记·langchain
次旅行的库1 小时前
机器学习-多模态大模型(MLLM)
机器学习·语言模型
jyan_敬言2 小时前
【算法】高精度算法(加减乘除)
c语言·开发语言·c++·笔记·算法
¥-oriented2 小时前
数据集资源
笔记
高洁012 小时前
问题三:GraphRAG的研究现状、实例演示
人工智能·深度学习·信息可视化·数据挖掘·知识图谱
mingo_敏2 小时前
YOLO26 增加 LoRA 支持(参数高效微调 PEFT)
深度学习·神经网络·cnn
biuyyyxxx2 小时前
Power Query功能区 - 主页
笔记·学习·excel
今儿敲了吗2 小时前
DS-3 循环队列判断队满
数据结构·笔记·学习