Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
财富自由且长命百岁14 小时前
移动端老兵转型端侧 AI:第一周,我跑通了 ResNet50 推理
机器学习
沅_Yuan16 小时前
基于核密度估计的CNN-LSTM-Attention-KDE多输入单输出回归模型【MATLAB】
机器学习·回归·cnn·lstm·attention·核密度估计·kde
爱学习的小仙女!16 小时前
机器学习面试题(二) 损失函数 常见损失函数
人工智能·机器学习
泰恒18 小时前
计算机体系结构基础
人工智能·深度学习·机器学习
05大叔18 小时前
优化器Adam,神经网络处理文本,CNN,RNN
开发语言·python·机器学习
liliangcsdn18 小时前
ChromaDB距离计算公式示例
人工智能·算法·机器学习
nancy_princess19 小时前
显式 + 隐式特征交叉融合模型
机器学习
SEO-狼术19 小时前
Visualize Org Charts and Decision Trees in WinForms
算法·决策树·机器学习
RuiBo_Qiu20 小时前
DPO 训练 loss 公式推导
人工智能·深度学习·机器学习·ai-native