《A Theory on Adam Instability in Large-Scale Machine Learning》这篇论文深入探讨了大规模机器学习中Adam优化器不稳定的理论机制。该研究挑战了以往将损失突刺(loss spike)归因于损失景观尖锐化的观点,提出了自适应预条件器(adaptive preconditioners) 是触发不稳定的核心因素的新理论框架,并揭示了Adam与标准梯度下降(SGD)在稳定性方面的根本差异。

以下是对该理论主要内容的梳理:

🔍 1. Adam优化器不稳定的核心机制

该理论指出,Adam的不稳定性源于其自适应预条件器与损失景观Hessian矩阵的动态交互

  • 自适应预条件器的衰减:在训练中,当梯度 g_t 变小时(尤其在浅层如Embedding层),平方梯度的更新项 (1-β₂)g_t² 会远小于衰减项 β₂v_{t-1}。这使得二阶矩估计 v_t 进入以 β₂ 衰减为主导的 regime:v_t ≈ β₂ * v_{t-1}
  • 预条件后的Hessian特征值增大v_t 的衰减导致预条件器 diag(1/√v̂_t + ε) 的幅度增大,从而放大了预条件后Hessian矩阵 Ĥ_t 的特征值。
  • 超越稳定性阈值:增大的特征值可能使 λ_max(Ĥ_t) 超过稳定性阈值 2/η(学习率η的倒数),引发参数更新不稳定。
  • 梯度方向曲率与突刺发生:损失突刺的发生不仅需要 λ_max(Ĥ_t) > 2/η,更关键的是梯度方向上的曲率 λ_grad(Ĥ_t) = (∇Lᵀ Ĥ_t ∇L) / |∇L|² 必须超过 2/η。这表明梯度方向与不稳定的曲率方向对齐,直接导致损失值急剧上升。
  • 不稳定的持续与恢复:由于 v_t 是移动平均,其变化滞后(尤其当 β₂ 较大时),|g_t|² << v_{t-1} 的状态可能会持续,维持不稳定性并加剧损失突刺。随着突刺加深,梯度范数 |g_t| 最终会变大并主导 v_t 的更新,使其迅速增大。这会减小预条件器的幅度,从而降低 λ_grad(Ĥ_t)。当它回落到 2/η 以下时,稳定性恢复,损失开始下降,突刺周期结束。

⚖️ 2. 与SGD不稳定性的本质区别

该理论强调,Adam的失稳机制不同于SGD

  • SGD的不稳定性通常源于学习率η过高,导致其超过 2 / λ_max(H) 的经典稳定性边界。
  • Adam的不稳定性则是由其内部状态(二阶矩v_t)的衰减驱动的,这会导致有效学习率 (η / √v̂_t) 在梯度变小时异常增大,进而引发不稳定。即使使用一个原本对SGD而言稳定的全局学习率,Adam仍可能因内部自适应机制而失控

📊 3. 引发不稳定性的关键因素

论文指出以下因素会加剧Adam的不稳定性:

  • 大的β₂β₂越大(如0.99, 0.999),二阶矩 v_t 的记忆越长,衰减 regime 持续时间更久,更易引发剧烈突刺。
  • 大批次训练(Large Batch Sizes):大批次会使得梯度更平滑,减少波动,但也可能使梯度更早地变小,从而让模型更快地进入 v_t 的衰减 regime,提高了不稳定的风险。
  • 浅层梯度消失:在深层网络中,浅层参数(如Embedding层)的梯度可能比深层参数更早、更快地变小(因其表征已相对稳定)。这会导致浅层参数长时间得不到有效更新 (v_t 持续衰减),而深层参数仍在剧烈更新。这种“浅层停滞、深层活跃”的不协调状态(misalignment) 使得网络对后续训练数据中的分布变化异常敏感。一旦出现分布变化,可能引发浅层参数的梯度突然爆发,触发连锁反应,导致整个模型的剧烈不稳定。
  • 参数初始化:Adam标准实现中将一阶矩(m_t)和二阶矩(v_t)初始化为0也被认为是训练初期不稳定的一个原因。在第一步更新时,由于 v_0=0,更新步长会退化为纯粹的符号下降(Sign Descent),其大小仅取决于学习率,这可能导致第一步更新过大,不利于训练初期的稳定。

🛠️ 4. 缓解不稳定性的策略

基于该理论,论文和研究提出了多种 mitigation 策略:

  • 调整预条件器参数
    • 减小β₂:降低β₂值(如从0.999降至0.99)可以缩短v_t的记忆窗口,使其对梯度变化响应更迅速,避免陷入长时间的衰减。
    • 增大ϵ:适当增大分母中的常数ϵ(如从1e-8增至1e-6)可以直接限制预条件器 1/√(v̂_t + ϵ) 的最大幅度,为有效学习率设置一个上限,防止其过大。
  • 调整训练策略
    • 学习率预热(Learning Rate Warmup):在训练初期使用较小的学习率并逐步增大,有助于稳定初期训练,尤其配合Adam时能缓解v_t从零初始化和初始“符号下降”带来的问题。
    • 梯度裁剪(Gradient Clipping):虽然该理论指出梯度裁剪本身不能完全阻止Adam因预条件器变化引发的损失突刺,但它仍是控制梯度爆炸、防止训练崩溃的常用实践工具。
    • 动态样本选择或更换:在检测到loss spike或梯度异常时,回退到之前的检查点并更换后续的训练批次,或选择分布变化更平缓的样本,有助于减少对浅层参数的剧烈冲击。
    • 分层调整学习率或梯度:针对浅层梯度消失问题,可以为浅层(如Embedding层)设置更小的学习率,或对浅层梯度进行缩放(如乘以一个小于1的系数),以减缓其v_t的衰减速度。
  • 改进优化器设计
    • 二阶矩非零初始化:为解决初期不稳定性,提出对二阶矩v_t进行非零初始化。例如,数据驱动初始化利用少量训练数据计算初始梯度统计量;随机初始化则采用缩放的卡方分布等为v_t赋予初始值,避免第一步的纯符号更新。
    • 采用改进的优化算法:诸多研究致力于开发更稳定的Adam变体。例如:
      • AdamW:将权重衰减与梯度更新解耦,纠正了Adam中权重衰减可能被不当放大的问题。
      • LCMAdam:引入曲率控制梯度(Curvature-Controlled Gradient)线性插值策略,使梯度更新更平滑,并自适应调整学习率,提升了训练效率和鲁棒性。
      • 其他变体:如RAdam, AdaBelief, Adafactor等,也通过不同机制试图改善Adam的稳定性。

💎 总结

《A Theory on Adam Instability in Large-Scale Machine Learning》这篇论文的核心贡献在于揭示了Adam优化器内在不稳定性的一种新机制,即其自适应预条件器在梯度变小时的衰减行为放大有效学习率并破坏稳定性,这与SGD的失稳机制有本质不同。该理论为理解大规模训练(尤其是100B+参数模型)中出现的损失突刺(loss spike) 提供了关键见解,并指明了通过监控和调整预条件器动态(如β₂, ϵ)、改善参数初始化以及采用更先进的优化算法变体(如LCMAdam, AdamW)来提升训练稳定性的方向。

希望以上解读能帮助您更好地理解这篇论文的核心内容。请注意,这是一个活跃的研究领域,具体策略的有效性可能因模型架构、任务和数据集而异。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐