机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

Day 14 Classfication (short version)

二分类的时候 用sigmoid 那不就是 logistic 回归嘛(softmax 的二分类等价)

Loss

哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错
这里MSE离得很远的时候会梯度消失,致使训练变得困难;

tell me WHY?

非线性激活函数:当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。

但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 --- 因为本质上描述的是两个概率分布的差异

相关推荐
泡泡鱼(敲代码中)7 分钟前
C++-string学习笔记
c语言·开发语言·c++·笔记·学习·visualstudio
风巽·剑染春水10 分钟前
【扩散模型原理】(三)Score-Based Perspective: From EBMs to NCSN
人工智能·深度学习·生成模型·diffusion·扩散模型
ZHANG13HAO16 分钟前
蚁群算法(蚁聚算法)深度解析与 mTSP 实战:物流多车协同配送优化
人工智能·算法·机器学习
春末的南方城市23 分钟前
亚马逊提出FlowFixer,商品图生成告别模糊Logo和错字,电商广告的“最后一公里”神器来了!
人工智能·深度学习·计算机视觉
Storynone32 分钟前
【踩坑笔记】Geforce RTX5060 显卡对应的 Pytorch 安装
人工智能·pytorch·笔记
是馒头阿35 分钟前
90、馒头谈自处
深度学习·神经网络·脑机接口·神经同步采集与刺激平台·植入式脑机接口
指掀涛澜天下惊39 分钟前
AI 基础知识十三 Transformer注意力机制(Attention)
人工智能·深度学习·机器学习·transformer·q k v
鸽子一号42 分钟前
c#笔记之lambda表达式和linq
笔记·c#·linq