Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
学生高德8 小时前
小模型结合大模型的加速方法关键笔记
人工智能·深度学习·机器学习
XINVRY-FPGA9 小时前
XC3S1000-4FGG320I Xilinx AMD Spartan-3 SRAM-based FPGA
嵌入式硬件·机器学习·计算机视觉·fpga开发·硬件工程·dsp开发·fpga
苏州知芯传感10 小时前
当AI遇见MEMS:机器学习如何优化微振镜的控制与可靠性预测
人工智能·机器学习·3d·mems·微振镜
roman_日积跬步-终至千里11 小时前
【模式识别与机器学习(10)】数据预处理-第二部分:数据预处理核心方法
人工智能·机器学习
Jerryhut12 小时前
sklearn函数总结四——归一化和标准化
人工智能·python·机器学习·jupyter·sklearn
LUU_7913 小时前
Day27 机器学习管道pipeline
人工智能·机器学习
严文文-Chris15 小时前
【半监督学习常见算法】
学习·算法·机器学习
祝余Eleanor15 小时前
Day 29 类的定义及参数
人工智能·python·机器学习
smile_Iris16 小时前
Day 28 元组和OS模块
python·机器学习
All The Way North-17 小时前
PyTorch SmoothL1Loss 全面解析:数学定义、梯度推导、API 规范与 logits 误用纠正
pytorch·深度学习·机器学习·smooth l1损失函数·回归损失函数