斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
Aray12342 分钟前
CPU vs GPU vs TPU vs NPU vs LPU vs DPU:驱动现代 AI 的六大处理器解析
人工智能
动物园猫2 分钟前
公共安全打架行为识别数据集分享(适用于YOLO系列深度学习检测任务)
人工智能·深度学习·yolo
byte轻骑兵3 分钟前
【HID】规范精讲[10]: 蓝牙HID设备的连接基石——GAP协议如何掌控发现、连接与安全
人工智能·人机交互·蓝牙·键盘·鼠标·hid
OJAC1113 分钟前
软件工程应届生不想留在原路上,他一周内等来了上海offer
人工智能
小仙女的小稀罕3 分钟前
口碑推荐 | 解决会议记录功能单一的实用靠谱方案
人工智能
Dfreedom.4 分钟前
【实战篇】分类任务全流程演示——决策树
人工智能·算法·决策树·机器学习·分类
Joseph Cooper5 分钟前
大模型微调技术完全指南:从原理到实践的系统性入门(2026 版)
人工智能·chatgpt·lora·peft·qlora·大模型微调·dpo
我鑫如一5 分钟前
口碑好的AI API中转站哪家强
人工智能·python
无忧智库9 分钟前
从0开始全面认识高质量数据集建设指南
大数据·人工智能·知识图谱