目录
- 1.loss的种类
-
- [1.1 MSE](#1.1 MSE)
- [1.2 MSE推导](#1.2 MSE推导)
- [1.3 autograd.grad](#1.3 autograd.grad)
- [1.4 loss.backward](#1.4 loss.backward)
- [2. Softmax](#2. Softmax)
-
- [2.1 softmax推导](#2.1 softmax推导)
1.loss的种类
常见两种一种是均方差,一种是交叉熵
1.1 MSE
1.2 MSE推导
1.3 autograd.grad
1.4 loss.backward
注意:autograd.grad直接返回梯度,而backward梯度保存再w.grad中
2. Softmax
softmax函数范围是[0,1]所有分类概率和等于1,softmax的特性是使概率大的更大,概率小的更小。
2.1 softmax推导
- i=j
- i/=j
- 。总结
- 应用