Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
Mr数据杨7 小时前
加州房价中位数预测在房地产估值中的应用
机器学习·数据分析·kaggle
xiaotao1317 小时前
02-机器学习基础: 监督学习——线性回归
学习·机器学习·线性回归
曦樂~7 小时前
【机器学习】概述
人工智能·机器学习
DeniuHe7 小时前
机器学习模型中的偏置项(bias / 截距项)到底有什么用?
人工智能·机器学习
STLearner8 小时前
WSDM 2026 | 时间序列(Time Series)论文总结【预测,表示学习,因果】
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘
STLearner9 小时前
WSDM 2026 | 时空数据(Spatial Temporal)论文总结
人工智能·python·深度学习·机器学习·数据挖掘·智慧城市·推荐算法
Westward-sun.9 小时前
PyTorch迁移学习实战:用ResNet18实现20类食物图像分类(附代码详解)
pytorch·分类·迁移学习
龙腾AI白云11 小时前
智能体如何配知识库?
人工智能·机器学习·数据挖掘
郝学胜-神的一滴14 小时前
神经网络参数初始化:从梯度失控到模型收敛的核心密码
人工智能·pytorch·深度学习·神经网络·机器学习·软件构建·软件设计
AC178014 小时前
深入浅出 PID 算法:原理、实现与应用实战
人工智能·算法·机器学习