斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
Francek Chen1 小时前
【自然语言处理】应用04:自然语言推断与数据集
人工智能·pytorch·深度学习·神经网络·自然语言处理
硬核创业者1 小时前
3个低门槛创业灵感
人工智能
冰西瓜6008 小时前
从项目入手机器学习——鸢尾花分类
人工智能·机器学习·分类·数据挖掘
爱思德学术8 小时前
中国计算机学会(CCF)推荐学术会议-C(人工智能):IJCNN 2026
人工智能·神经网络·机器学习
偶信科技9 小时前
国产极细拖曳线列阵:16mm“水下之耳”如何撬动智慧海洋新蓝海?
人工智能·科技·偶信科技·海洋设备·极细拖曳线列阵
Java后端的Ai之路9 小时前
【神经网络基础】-神经网络学习全过程(大白话版)
人工智能·深度学习·神经网络·学习
庚昀◟9 小时前
用AI来“造AI”!Nexent部署本地智能体的沉浸式体验
人工智能·ai·nlp·持续部署
喜欢吃豆9 小时前
OpenAI Realtime API 深度技术架构与实现指南——如何实现AI实时通话
人工智能·语言模型·架构·大模型
数据分析能量站10 小时前
AI如何重塑个人生产力、组织架构和经济模式
人工智能
wscats11 小时前
Markdown 编辑器技术调研
前端·人工智能·markdown