之前的逻辑回归只能进行二分类。
我们现在使用Softmax进行多分类。
假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。
x是我们的输入
上面的z是通过输入,计算出的在这4个维度上的"中间值"。
经过这样处理,可以得到预测值为各数的概率。
推广:
接下来定义损失函数:
然后看一下Softmax在神经网络中的应用:
此时我们最后一层有10个神经元,那么输出向量也是10维的。
那么我们也应该有:
以此类推。
之前的逻辑回归只能进行二分类。
我们现在使用Softmax进行多分类。
假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。
x是我们的输入
上面的z是通过输入,计算出的在这4个维度上的"中间值"。
经过这样处理,可以得到预测值为各数的概率。
推广:
接下来定义损失函数:
然后看一下Softmax在神经网络中的应用:
此时我们最后一层有10个神经元,那么输出向量也是10维的。
那么我们也应该有:
以此类推。