Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
nap-joker12 分钟前
基于基因的微生物组表示增强了宿主表型分类
人工智能·分类·数据挖掘
朱阿朱22 分钟前
机器学习数学基础
人工智能·机器学习·概率论·高数
Jmayday10 小时前
机器学习基本理论
人工智能·机器学习
王_teacher10 小时前
机器学习 矩阵求导 完整公式+严谨推导
人工智能·线性代数·考研·机器学习·矩阵·线性回归
xiaotao13111 小时前
02-机器学习基础: 无监督学习——scikit-learn实战与模型管理
学习·机器学习·scikit-learn
xiaotao13115 小时前
03-深度学习基础:循环神经网络(RNN)
人工智能·深度学习·机器学习
小糖学代码16 小时前
LLM系列:2.pytorch入门:3.基本优化思想与最小二乘法
人工智能·python·算法·机器学习·ai·数据挖掘·最小二乘法
叶子丶苏16 小时前
第二节_机器学习基本知识点
人工智能·python·机器学习·数据科学
DeepModel17 小时前
特征缩放(标准化/归一化)超通俗讲解
机器学习