斯坦福机器学习 Lecture3

这里首先讲解了 局部加权回归/局部加权线性回归

讲得很好,我都听懂了


今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?

卧槽,吴恩达讲得太好了

22:20 - 41:00


接下来我们看交叉熵(逻辑回归)推导

逻辑回归定义

交叉熵推导


今天的机器学习就学到这里,先做作业

TODO: here

相关推荐
浠寒AI42 分钟前
智能体模式篇(上)- 深入 ReAct:LangGraph构建能自主思考与行动的 AI
人工智能·python
weixin_505154461 小时前
数字孪生在建设智慧城市中可以起到哪些作用或帮助?
大数据·人工智能·智慧城市·数字孪生·数据可视化
Best_Me071 小时前
深度学习模块缝合
人工智能·深度学习
YuTaoShao1 小时前
【论文阅读】YOLOv8在单目下视多车目标检测中的应用
人工智能·yolo·目标检测
算家计算2 小时前
字节开源代码模型——Seed-Coder 本地部署教程,模型自驱动数据筛选,让每行代码都精准落位!
人工智能·开源
伪_装2 小时前
大语言模型(LLM)面试问题集
人工智能·语言模型·自然语言处理
gs801402 小时前
Tavily 技术详解:为大模型提供实时搜索增强的利器
人工智能·rag
music&movie2 小时前
算法工程师认知水平要求总结
人工智能·算法
量子位3 小时前
苹果炮轰推理模型全是假思考!4 个游戏戳破神话,o3/DeepSeek 高难度全崩溃
人工智能·deepseek
黑鹿0223 小时前
机器学习基础(四) 决策树
人工智能·决策树·机器学习