文章目录
- [1. softmax的改进实现](#1. softmax的改进实现)
- [2. 多个输出的分类multi-label classification](#2. 多个输出的分类multi-label classification)
1. softmax的改进实现
- 在logistic regression里面,计算loss的两种方法里,直接把a放进式子的计算更加的精确。
- 那么在代码里的实现:将output layer的activation改成linear,再明确logstic里填写z。最后,代码的计算会变得更精确,虽然看起来麻烦一点。
- 在softmax里也一样的,把output layer里的activation改成linear。同时,编译的时候把from_logits = True加上。
- 有一点需要注意的:我们这里的output layer不再是softmax了,而是linear。所以我们的predict不会再输出a1-a10的概率了。(z1-z10)