【深度学习笔记】Softmax 回归

本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与 deeplearning.ai 联合出品,主讲人是吴恩达 Andrew Ng 教授。感兴趣的网友可以观看网易云课堂的视频进行深入学习,视频的链接如下:

神经网络和深度学习 - 网易云课堂

也欢迎对神经网络与深度学习感兴趣的网友一起交流 ~

目录

[1 Softmax 激活函数](#1 Softmax 激活函数)

[2 Softmax 分类器](#2 Softmax 分类器)


1 Softmax 激活函数

对于分类问题,如果有多个分类结果,那么 Logistic 回归就不再适用了。Softmax 回归(Softmax Regression)是 Logistic 回归的一般形式,可以用于区分多个类别的情形,不只是两个分类。

假设有一个图片分类问题,你想要区分小猫、小狗、小鸡,不属于这三种图片的则归于其他。

用 C 表示类别的数量,分类器输出层包含的神经元数量应该等于 C,输出层每个神经元的输出表示该类别的概率值,并且所有输出概率之和应等于 1.

为了做到这一点,你需要使用 Softmax 激活函数,Softmax 激活函数首先对 z 值进行指数运算,得到非负数,然后作归一化处理。

相比其他激活函数,Softmax 激活函数的特殊之处在于,它的输入是一个 Cx1 维的向量,并且它的输出也是一个 Cx1 维的向量。

2 Softmax 分类器

实际上,Softmax 回归是 Logistic 回归的推广,如果分类结果恰好为 2,那么 Softmax 回归就变回到了 Logistic 回归(由于输出概率之和为 1,所以 Softmax 分类有一个输出节点是冗余的)。

Softmax 回归在单个样本上的损失函数定义为

当 yj = 1, j ∈ {0, 1, 2, ... , C-1} 时,其他分量为 0,因此最小化损失函数等价于最大化 log(\hat{y_{j}}),即最大化 \hat{y_{j}},又由于 \hat{y_{j}} 最大值为 1,所以优化算法会尽可能让 \hat{y_{j}} 接近 1,也就是接近 yj .

Softmax 回归在训练集上的代价函数定义为

相关推荐
Hcoco_me6 分钟前
大模型面试题88:cuda core的数量 与 开发算子中实际使用的线程 关系是什么?过量线程会发生什么情况?
人工智能·深度学习·机器学习·chatgpt·职场和发展·机器人
mjhcsp14 分钟前
[笔记] 线性规划 学习笔记
笔记·学习
2501_9377983918 分钟前
2026企业AI数字资产管理平台评测:谁在定义下一代无形资产?
笔记
dulu~dulu19 分钟前
英语改错知识点总结
笔记·英语·自用·英语改错
自不量力的A同学28 分钟前
Qwen3-TTS 全家桶开源上线
笔记
童话名剑28 分钟前
RNN类型、语言模型与新序列采样(吴恩达深度学习笔记)
rnn·深度学习·语言模型·rnn结构类型·新序列采样
claider35 分钟前
Vim User Manual 阅读笔记 usr_21.txt Go away and come back 跳转去跳转回来
笔记·编辑器·vim
LDG_AGI36 分钟前
【机器学习】深度学习推荐系统(三十一):X For You Feed 全新推荐系统技术架构深度解析
人工智能·深度学习·算法·机器学习·架构·推荐算法
茶栀(*´I`*)38 分钟前
PyTorch实战:手机价格区间预测(从64%到91%的模型优化之路)
pytorch·深度学习·神经网络
Yngz_Miao39 分钟前
【深度学习】动态交叉熵损失函数Focal Loss
人工智能·深度学习·损失函数·focalloss·动态交叉熵