机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
AI技术控12 小时前
论文解读:AE-TCN-SA——基于自编码器、TCN 与自注意力机制的锂电池内短路诊断方法
人工智能·python·深度学习·算法·机器学习·自然语言处理
wangcheng30313 小时前
关键词优化怎么理解最清楚
笔记
CCC:CarCrazeCurator13 小时前
DriveGen: 基于扩散 Transformer 的驾驶场景视频生成器
人工智能·机器学习·自动驾驶
数智工坊13 小时前
具身智能人形机器人:从实验室走向现实的下一代通用智能体
人工智能·深度学习·机器人
keineahnung234513 小时前
PyTorch symbolic_shapes 模組的 is_contiguous 從哪來?── sizes_strides_user 安裝與實作解析
人工智能·pytorch·python·深度学习
大模型推理14 小时前
Nano-vLLM 源码解读 - 7. Continuous Batching
深度学习·自然语言处理·vllm
土星碎冰机14 小时前
ai自学笔记(3.安卓篇,制作app
android·笔记·ai
多年小白14 小时前
芯片/半导体/CPO光模块 深度分析报告
人工智能·深度学习·microsoft·ai
初心未改HD14 小时前
深度学习之损失函数详解
人工智能·深度学习
土星碎冰机14 小时前
ai自学笔记 (2.prompt 踩坑与优化)
笔记·ai·prompt·claude