斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
FreeCode10 分钟前
LangChain1.0智能体开发:运行时(Runtime)
人工智能·langchain·agent
柳安忆12 分钟前
【论文阅读与项目复现】Hypothesis Generation with Large Language Models
论文阅读·人工智能·语言模型
汉克老师14 分钟前
CCF--LMCC大语言模型能力认证官方样题(第一赛(青少年组)第二部分 程序题 (26--30))
人工智能·语言模型·自然语言处理·lmcc
Mr_Oak19 分钟前
【multi-model】moco系列&SimCLR&BEiT
人工智能·深度学习·神经网络·算法·计算机视觉·transformer·对比学习
小白跃升坊20 分钟前
信息检索类智能体构建范式
人工智能·ai·全文检索·智能体
广州服务器托管23 分钟前
WIN11.26H1.27982.1中简优化版 45进程(2025.11.8)
运维·人工智能·计算机网络·云计算·可信计算技术
FreeCode25 分钟前
LangChain1.0智能体开发:安全防护机制
人工智能·langchain·agent
CV炼丹术34 分钟前
AAAI 2025 | 川大提出Mesorch:CNN与Transformer并行架构,革新图像篡改检测!
图像处理·人工智能·cnn·transformer
机器之心1 小时前
突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化
人工智能·openai
Juchecar1 小时前
利用AI辅助"代码考古“操作指引
人工智能·ai编程