斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
dongpengli2 分钟前
2026年iPaas系统集成平台综合分析及选型参考
大数据·运维·人工智能·自动化办公·ipaas·企业系统集成
江汉似年2 分钟前
BEVfusion
人工智能·计算机视觉
微光守望者2 分钟前
游戏创意的构思技巧
人工智能·游戏
鼓风机发现4 分钟前
让 AI 走进物理世界:基于 MCP 协议构建工业级 IoT 智能实验室与语音自动化控制中枢
人工智能·物联网·自动化
BBTSOH159015160446 分钟前
VR每日热点简报2026.1.21
人工智能·vr·具身智能
SelectDB技术团队6 分钟前
AI 能力揭秘(五):Apache Doris 原生向量检索的设计及实现
人工智能·apache
格林威8 分钟前
多相机重叠视场目标关联:解决ID跳变与重复计数的 8 个核心策略,附 OpenCV+Halcon 实战代码!
人工智能·数码相机·opencv·算法·计算机视觉·分类·工业相机
得贤招聘官8 分钟前
AI面试破局深水区:从工具迭代到价值重构
人工智能·面试·重构
金融小师妹9 分钟前
基于AI多模态分析的日本黄金储备60%跃升研究:外汇结构重构与资产价格联动机制解构
大数据·数据结构·人工智能·深度学习
永远都不秃头的程序员(互关)9 分钟前
【K-Means深度探索(九)】K-Means与数据预处理:特征缩放与降维的重要性!
算法·机器学习·kmeans