线性回归,逻辑回归(线性回归+sigmoid),神经网络
linear regression , logistic regression , neutral network

里面的偏导的相量有几百万维,这就是neutral network的不同,他是计算量超级大的。
所以我们引入了一种新的训练方法
链式法则也就代表了反馈

这里需要引入的数学知识就是链式法则。
s对z的微分可以有两个路径。s对z的微分,这个提法还挺有意思的

现在是Backward pass
这里老师对权重做偏微分,得到的是输入值

第一项

其实是逆着往前推
