这里首先讲解了 局部加权回归/局部加权线性回归
讲得很好,我都听懂了
今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?
卧槽,吴恩达讲得太好了
22:20 - 41:00
接下来我们看交叉熵(逻辑回归)推导
逻辑回归定义
交叉熵推导
今天的机器学习就学到这里,先做作业
TODO: here
这里首先讲解了 局部加权回归/局部加权线性回归
讲得很好,我都听懂了
今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?
卧槽,吴恩达讲得太好了
22:20 - 41:00
接下来我们看交叉熵(逻辑回归)推导
逻辑回归定义
交叉熵推导
今天的机器学习就学到这里,先做作业
TODO: here