Softmax多分类(机器学习)

之前的逻辑回归只能进行二分类。

我们现在使用Softmax进行多分类。

假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。

x是我们的输入

上面的z是通过输入,计算出的在这4个维度上的"中间值"。

经过这样处理,可以得到预测值为各数的概率。

推广:

接下来定义损失函数:

然后看一下Softmax在神经网络中的应用:

此时我们最后一层有10个神经元,那么输出向量也是10维的。

那么我们也应该有:

以此类推。

相关推荐
輕華1 小时前
LSTM实战(上篇):微博情感分析——词表构建与数据集加载
人工智能·机器学习·lstm
郝学胜-神的一滴8 小时前
深度学习必学:PyTorch 神经网络参数初始化全攻略(原理 + 代码 + 选择指南)
人工智能·pytorch·python·深度学习·神经网络·机器学习
幻风_huanfeng11 小时前
人工智能之数学基础:动量梯度下降法
人工智能·机器学习·动量梯度下降法
明月照山海-13 小时前
机器学习周报四十一
人工智能·机器学习
MOON404☾15 小时前
Chapter 001. Machine Learning Fundamentals
人工智能·机器学习
AC赳赳老秦16 小时前
程序员面试:OpenClaw生成面试题、模拟面试,高效备战面试
人工智能·python·机器学习·面试·职场和发展·deepseek·openclaw
源码之家18 小时前
计算机毕业设计:Python城市天气数据挖掘与预测系统 Flask框架 随机森林 K-Means 可视化 数据分析 大数据 机器学习 深度学习(建议收藏)✅
人工智能·爬虫·python·深度学习·机器学习·数据挖掘·课程设计
海天一色y20 小时前
基于PyTorch的Oxford-IIIT Pet宠物品种细粒度分类:全流程实战指南
pytorch·分类·宠物
配奇20 小时前
集成学习(Ensemble Learning)
人工智能·机器学习·集成学习
DeepModel20 小时前
通俗易懂讲透 EM 算法(期望最大化)
人工智能·python·算法·机器学习