斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
聚客AI6 分钟前
系统掌握PyTorch:图解张量、Autograd、DataLoader、nn.Module与实战模型
人工智能·pytorch·python·rnn·神经网络·机器学习·自然语言处理
穆易青25 分钟前
2025.06.09【读书笔记】|PromptBio:让生信分析更简单的AI平台
人工智能
音程25 分钟前
矩阵和向量范数的区别分析
人工智能·线性代数·矩阵
Zheng.Zeng27 分钟前
第一篇:Liunx环境下搭建PaddlePaddle 3.0基础环境(Liunx Centos8.5安装Python3.10+pip3.10)
人工智能·paddlepaddle
杨过过儿29 分钟前
【使用LLM搭建系统】5 处理输入: 链式 Prompt Chaining Prompts
人工智能·prompt
Chirp39 分钟前
代码层面上解读ACE-Step
人工智能·机器学习
MPCTHU40 分钟前
机器学习的数学基础:线性模型
数学·机器学习
海底火旺1 小时前
探索扣子:解锁中间技能模块的无限可能
前端·人工智能·coze
机器之心2 小时前
大模型是「躲在洞穴里」观察世界? 强化学习大佬「吹哨」提醒LLM致命缺点
人工智能
机器之心2 小时前
李飞飞团队新作:DiT不训练直接改架构,模型深度减半,质量还提高了
人工智能