Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
郄堃Deep Traffic1 小时前
机器学习+城市规划第十三期:XGBoost的地理加权改进,利用树模型实现更精准的地理加权回归
人工智能·机器学习·回归·城市规划
databook2 小时前
概率图模型:机器学习的结构化概率之道
python·机器学习·scikit-learn
AI视觉网奇2 小时前
调试快捷键 pycharm vscode
机器学习
摘取一颗天上星️4 小时前
深入解析机器学习的心脏:损失函数及其背后的奥秘
人工智能·深度学习·机器学习·损失函数·梯度下降
山顶听风5 小时前
多层感知器MLP实现非线性分类(原理)
人工智能·分类·数据挖掘
山顶听风5 小时前
MLP实战二:MLP 实现图像数字多分类
人工智能·机器学习·分类
智能汽车人6 小时前
自动驾驶---SD图导航的规划策略
人工智能·机器学习·自动驾驶
rit84324997 小时前
基于BP神经网络的语音特征信号分类
人工智能·神经网络·分类
一点.点7 小时前
AlphaDrive:通过强化学习和推理释放自动驾驶中 VLM 的力量
人工智能·机器学习·自动驾驶
机器学习之心7 小时前
机器学习用于算法交易(Matlab实现)
算法·机器学习·matlab