Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
哥布林学者14 小时前
高光谱成像(三)主成分分析 PCA
机器学习·高光谱成像
OpenBayes贝式计算15 小时前
边看、边听、边说,MiniCPM-0-4.5 全双工全模态模型;Pan-Cancer scRNA-Seq 涵盖三种生物学状态单细胞转录数据集
人工智能·深度学习·机器学习
OpenBayes贝式计算15 小时前
教程上新丨基于500万小时语音数据,Qwen3-TTS实现3秒语音克隆及精细调控
人工智能·深度学习·机器学习
小黎14757789853643 天前
OpenClaw 连接飞书完整指南:插件安装、配置与踩坑记录
机器学习
哥布林学者3 天前
高光谱成像(二)光谱角映射 SAM
机器学习·高光谱成像
哥布林学者3 天前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
罗西的思考3 天前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
HXhlx3 天前
CART决策树基本原理
算法·机器学习