Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
我材不敲代码14 小时前
机器学习入门02——新手学习的第一个回归算法:线性回归
学习·机器学习·回归
香芋Yu15 小时前
【深度学习教程——01_深度基石(Foundation)】04_分类问题怎么解?逻辑回归与交叉熵的由来
深度学习·分类·逻辑回归
小鸡吃米…15 小时前
机器学习 - 贝叶斯定理
人工智能·python·机器学习
不懒不懒15 小时前
【逻辑回归从原理到实战:正则化、参数调优与过拟合处理】
人工智能·算法·机器学习
源于花海15 小时前
迁移学习简明手册——迁移学习相关研究学者
人工智能·机器学习·迁移学习·研究学者
szcsun515 小时前
机器学习(四)--无监督学习
人工智能·学习·机器学习
.小墨迹16 小时前
apollo中车辆的减速绕行,和加速超车实现
c++·学习·算法·ubuntu·机器学习
科研计算中心16 小时前
机器学习数据处理太慢?从根源到解决方案的专业拆解
人工智能·机器学习
m0_6038887117 小时前
Structured Over Scale Learning Spatial Reasoning from Educational Video
人工智能·深度学习·机器学习·ai·论文速览
HyperAI超神经17 小时前
【TVM教程】设备/目标交互
人工智能·深度学习·神经网络·microsoft·机器学习·交互·gpu算力