斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
我不是小upper13 分钟前
统计学核心概念与现实应用精解(偏机器学习)
算法·机器学习·统计学
深度之眼25 分钟前
贝叶斯深度学习!华科大《Nat. Commun.》发表BNN重大突破!
人工智能·深度学习·神经网络
IT_陈寒25 分钟前
一键生成活动页面的智能体开发实践:从策划到分发的全自动化解决方案
人工智能·程序员
MYH51626 分钟前
深度学习聊天机器人 需要考虑
人工智能·深度学习·机器人
starryrbs35 分钟前
AI视频生成API:一站式视频生成解决方案
人工智能
AI大模型技术社39 分钟前
线性代数:AI大模型开发的数学基石(附核心代码与图解)
人工智能
zhangts201 小时前
(二)TensorRT-LLM | 模型导出(v0.20.0rc3)
人工智能·语言模型
视觉语言导航1 小时前
中南大学无人机智能体的全面评估!BEDI:用于评估无人机上具身智能体的综合性基准测试
人工智能·深度学习·无人机·具身智能
机器之心1 小时前
「Next-Token」范式改变!刚刚,强化学习预训练来了
人工智能
(・Д・)ノ1 小时前
python打卡day47
人工智能·深度学习