斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
KKKlucifer几秒前
数据分类分级为基的跨域流通权限动态管控技术:构建安全可控的跨域数据流通体系
大数据·数据库·人工智能
机器之心5 分钟前
NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因
人工智能·openai
机器之心7 分钟前
NeurIPS 2025 | 英伟达发布Nemotron-Flash:以GPU延迟为核心重塑小模型架构
人工智能·openai
sali-tec9 分钟前
C# 基于halcon的视觉工作流-章65 点云匹配-基于形状
开发语言·人工智能·算法·计算机视觉·c#
科学最TOP11 分钟前
时间序列的“语言”:从语言模型视角理解时序基础模型
人工智能·深度学习·机器学习·时间序列
_codemonster11 分钟前
深度学习实战(基于pytroch)系列(四十四) 优化与深度学习
人工智能·深度学习
白日做梦Q13 分钟前
深度学习训练中 Loss 为 Nan 的 10 种原因及解决方案
人工智能·深度学习
组合缺一16 分钟前
Solon AI 开发学习8 - chat - Vision(理解)图片、声音、视频
java·人工智能·学习·ai·音视频·solon
星空的资源小屋18 分钟前
Explorer++:更强大的Windows文件管理器
javascript·人工智能·django·电脑