机器学习之梯度下降法直观理解

形象化举例,由上图所示,假如最开始,我们在一座大山上的某处位置,因为到处都是陌生的不知道下山的路,所以只能摸索着根据直觉,走一步算一步。在此过程中,每走到一个位置的时候,都会求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。不断循环求梯度,就这样一步步地走下去,一直走到我们觉得已经到了山脚。

当然这样走下去,有可能我们不能走到山脚,而是到了某一个局部的山势低处。由此,从上面的解释可以看出,梯度下降不一定能够找到全局的最优解,有可能是一个局部的最优解。当然,如果损失函数是凸函数,梯度下降法得到的解就一定是全局最优解。

核心思想归纳:

  1. 初始化参数,随机选取取值范围内的任意数;
  2. 迭代操作:
    a) 计算当前梯度;
    b) 修改新的变量;
    c) 计算朝最陡的下坡方向走一步;
    d) 判断是否需要终止,如否,返回a)
  3. 得到全局最优解或者接近全局最优解。
相关推荐
Lee川1 分钟前
深入解析:从内存模型到作用域陷阱——JavaScript变量的前世今生
javascript·算法
SickeyLee5 分钟前
AI产品经理-大模型的智力之源与能力边界
大数据·人工智能
㓗冽8 分钟前
回文数2(字符串)-基础题97th + 加法器(字符串)-基础题98th + 构造序列(字符串)-基础题99th
算法
dtsola12 分钟前
AI独立开发的道法术器:一个解决方案架构师的实践与思考
人工智能·ai编程·ai创业·独立开发者·vibecoding·个人开发者·一人公司
2501_9269783314 分钟前
概率分形理论--从离散到连续--从向量到模型
人工智能·经验分享·agi
A小码哥17 分钟前
Cowork 开源平替 OpenWork:打破 AI 协助垄断
人工智能·开源
paopao_wu23 分钟前
解析 skill-creator:如何编写高质量的 AI Skill
人工智能·ai编程
IvanCodes23 分钟前
人工智能、机器学习和深度学习,其实不是一回事
人工智能·机器学习
前端Fusion24 分钟前
一文讲透 MCP 和 Skills 的分工与协作
人工智能·vibecoding
逐梦苍穹31 分钟前
谷歌新研究:训练大模型时“偷懒跳过“50%更新,性能反而提升20%?
人工智能·google·论文·梯度更新