大模型面试题26:Adam优化器小白版速懂


Adam优化器:小白版速懂

Adam 是深度学习里超常用的 智能调参工具 ,它会自动给每个参数定制合适的学习率,比固定学习率训练更快、更稳,结合了 Momentum (动量)和 RMSProp(自适应学习率)的优点。


一、核心思路(小白类比)

想象你在开车下山找最低点(优化参数):

  1. Momentum:记住之前的行驶方向,让下坡更顺畅,减少来回摇摆。
  2. RMSProp:根据路面坡度的波动调整油门大小,波动大就减速,波动小就加速。
  3. 偏差修正:刚起步时(训练初期)校准仪表,避免数据不准。

二、数学公式(Markdown可识别)

初始化

  • 待优化参数:θ\thetaθ
  • 一阶矩(动量):m0=0m_0 = 0m0=0
  • 二阶矩(梯度平方的指数移动平均):v0=0v_0 = 0v0=0
  • 迭代次数:t=0t = 0t=0

1. 计算梯度

每次迭代先算当前参数的梯度:
gt=∇θJ(θt−1) g_t = \nabla_\theta J(\theta_{t-1}) gt=∇θJ(θt−1)

  • J(θ)J(\theta)J(θ) 是损失函数,∇θ\nabla_\theta∇θ 表示对 θ\thetaθ 求导。

2. 更新一阶矩(动量)

保留历史梯度的一部分,加上当前梯度:
mt=β1⋅mt−1+(1−β1)⋅gt m_t = \beta_1 \cdot m_{t-1} + (1 - \beta_1) \cdot g_t mt=β1⋅mt−1+(1−β1)⋅gt

  • β1\beta_1β1 通常取 0.9,代表保留 90% 的历史动量。

3. 更新二阶矩(梯度平方的移动平均)

保留历史梯度平方的一部分,加上当前梯度平方:
vt=β2⋅vt−1+(1−β2)⋅gt2 v_t = \beta_2 \cdot v_{t-1} + (1 - \beta_2) \cdot g_t^2 vt=β2⋅vt−1+(1−β2)⋅gt2

  • β2\beta_2β2 通常取 0.999,代表保留 99.9% 的历史梯度平方信息。

4. 偏差修正

因为初始值是 0,mtm_tmt 和 vtv_tvt 在训练初期会偏小,需要修正:
m^t=mt1−β1t \hat{m}_t = \frac{m_t}{1 - \beta_1^t} m^t=1−β1tmt
v^t=vt1−β2t \hat{v}_t = \frac{v_t}{1 - \beta_2^t} v^t=1−β2tvt


5. 更新参数

用修正后的动量和梯度波动,定制学习率:
θt=θt−1−α⋅m^tv^t+ϵ \theta_t = \theta_{t-1} - \alpha \cdot \frac{\hat{m}_t}{\sqrt{\hat{v}_t} + \epsilon} θt=θt−1−α⋅v^t +ϵm^t

  • α\alphaα:初始学习率(通常取 0.001)
  • ϵ\epsilonϵ:防止分母为 0 的小常数(通常取 10−810^{-8}10−8)

三、超参数的小白理解

超参数 常用值 大白话作用
α\alphaα 0.001 初始"油门大小",太大容易冲过最优值,太小走得慢
β1\beta_1β1 0.9 记忆旧方向的程度,越接近 1 惯性越大
β2\beta_2β2 0.999 记忆梯度波动的程度,越接近 1 越谨慎调整学习率
ϵ\epsilonϵ 10−810^{-8}10−8 防止除 0 的"安全垫"

四、为什么 Adam 好用

  • 自动调学习率:每个参数的学习率会根据梯度波动自动调整。
  • 训练稳定:动量 + 自适应学习率,减少震荡。
  • 收敛快:适合大数据、深模型,初期速度快,后期稳定。

五、极简伪代码(可直接实现)

python 复制代码
import numpy as np

def adam(params, grads, m, v, t, lr=0.001, beta1=0.9, beta2=0.999, eps=1e-8):
    t += 1
    m = beta1 * m + (1 - beta1) * grads
    v = beta2 * v + (1 - beta2) * grads**2
    m_hat = m / (1 - beta1**t)
    v_hat = v / (1 - beta2**t)
    params -= lr * m_hat / (np.sqrt(v_hat) + eps)
    return params, m, v, t

相关推荐
kevin_kang2 小时前
25-客服工单系统实战(二):RAG检索与智能问答
人工智能
njsgcs2 小时前
基于vlm+ocr+yolo的一键ai从模之屋下载模型
人工智能·python·yolo·ocr·vlm
DeepVis Research2 小时前
【Chaos/Neuro】2026年度混沌动力学仿真与机器遗忘算法基准索引 (Benchmark Index)
人工智能·算法·数据集·混沌工程·高性能计算
Stardep2 小时前
深度学习进阶:偏差方差分析与正则化策略全解析
人工智能·深度学习·dropout·正则化·过拟合·欠拟合·方差与偏差
kevin_kang2 小时前
11-SQLAlchemy 2.0异步ORM实战指南
人工智能
AI架构师易筋2 小时前
AI学习路径全景指南:从基础到工程化的资源与策略
人工智能·学习
计算机毕业设计指导2 小时前
基于深度学习的车牌识别系统
人工智能·深度学习
九章算科研服务2 小时前
九章算 JACS 解读-重庆大学黄建峰教授课题组:基于柯肯达尔效应构筑Cu/Ru异质界面空腔结构,用于高效NO3−电还原制NH3
人工智能·科研·dft计算·科研服务·硕博
Hcoco_me2 小时前
大模型面试题27:Muon优化器小白版速懂
人工智能·rnn·自然语言处理·lstm·word2vec