【machine learning-十-grading descent梯度下降实现】

grading descent

grading descent 算法就是更新参数,今天来学习下如何更新w和b

梯度下降

还是以线性回归的均方差损失函数如下为例:

损失函数的可视化图如下 :

横轴和纵轴分别是w和b,z轴是损失值。梯度更新w和b,让损失能走到局部最小值附近,这个局部的最小值意味着,在它周围损失的变化已经很小了。

参数更新方法 --导数和学习率

更新的方法如下:


是learning rate,也就是学习率。

它决定了梯度下降的幅度,也就是一次走大步,还是小步,通常学习率在0~1之间。

这一项是导数(其实是偏导数),微积分中的概念,不过不懂也没问题,下一节会简单介绍,且刚开始不需要深入的探究。

通常情况下,正确的做法是w和b同时更新:

当然也有特殊的情况,非同时更新,但是很少见,所以我们按照正确的左侧做法,同时更新w和b就可以。

从导数项直观理解梯度下降

为了直观理解,还是先假设b为0,损失函数映射到二维空间上

通过上面的图可以看出,损失函数的最小值是在曲线的底,所以我们的目标就是要损失靠近这个点。

而导数其实是某个具体点的斜率,于是就有图中的两种情况:

  • 导数为正数,w-学习率*导数 就是在减少w,此时刚好是在靠近最小值的点
  • 导数为负数,w-学习率*导数就是在增大w,此时也是是在靠近最小值的点

也就是说无论是在最小值的左侧或者右侧的w,都能通过上面的公式,更新到靠近最小值的w点

资料来源-吴恩达《机器学习》

相关推荐
思绪无限几秒前
YOLOv5至YOLOv12升级:快递包裹检测系统的设计与实现(完整代码+界面+数据集项目)
人工智能·python·深度学习·目标检测·计算机视觉·快递包裹检测
学习论之费曼学习法2 分钟前
AI 入门 30 天挑战 - Day 18 费曼学习法版 - 图像分割基础
人工智能·学习
花千树-01012 分钟前
AI Agent 模型成本控制实战:Token 消耗优化与监控技巧
人工智能·agent·token·function call·ai agent·mcp·agent memory
千寻girling13 分钟前
机器学习 | 逻辑回归 | 尚硅谷学习
java·人工智能·python·学习·算法·机器学习·逻辑回归
Mr数据杨14 分钟前
AIGC工具箱安装与使用
人工智能·aigc·语音识别
eve杭16 分钟前
AI时代工程师superpowers进化论
人工智能
豆豆23 分钟前
2026自助建站平台对比:5大主流方案(SaaS/CMS/AI)优缺点与费用解析
人工智能·cms·建站系统·自助建站·内容管理系统·网站管理系统·站群cms
Elastic 中国社区官方博客26 分钟前
Jina embeddings v3 现已在 Gemini Enterprise Agent Platform Model Garden 上可用
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
wukangjupingbb29 分钟前
AI驱动药物研发中的单模型幻象
人工智能
志栋智能33 分钟前
超自动化巡检的核心价值:效率、质量与洞察
运维·服务器·网络·人工智能·自动化