趋近智
在上一节中,我们介绍了梯度下降作为驱动神经网络学习过程的动力。它通过迭代调整模型的权重和偏差来使损失函数最小化。但是,每一步我们应该调整权重多少呢?这由一个重要的超参数控制:学习率。
可以把梯度下降想象成在山谷中寻找最低点(即损失函数的最小值)。梯度会指明最陡峭的上升方向,因此你需要朝相反的方向下坡。学习率则决定了你下坡时每一步的大小。
从数学角度看,学习率通常用希腊字母 alpha () 或 eta () 表示,是一个小的正标量值。它在从当前权重中减去梯度之前,先将梯度相乘。单个权重 的更新规则如下所示:
这里, 是损失函数 对当前权重 的梯度。学习率 对这个梯度进行缩放。
选择合适的学习率对模型训练的成功很重要。 的值直接影响收敛速度以及算法能否收敛。
学习率过小: 如果 非常小,权重更新将非常微小。算法将以极小的步长下坡。虽然这最终可能会导致一个不错的最小值,但训练过程将极其缓慢,可能需要大量的训练周期(对训练数据的遍历)才能达到收敛。在复杂的损失函数曲面中,它还可能增加陷入较差局部最小值的风险,因为步长不够大,无法跳出小的凹陷。
学习率过大: 如果 过大,所走的步长可能过大。算法可能完全越过最小值,而不是平稳地下降到最小值。它可能在山谷中来回震荡,无法稳定在最小值附近。在更糟的情况下,步长可能大到每次更新后损失反而 增加,导致算法完全发散。权重可能会变得非常大(NaN 或无穷大),训练过程失败。
考虑一个简单的抛物线损失函数。下面的图表展示了不同的学习率如何影响梯度下降走向最小值的路径。
梯度下降在一个简单损失函数 上从 开始的示例路径。合适的学习率会稳定收敛。小的学习率进展缓慢。大的学习率会越过并震荡,可能导致发散。
选择一个合适的学习率最初往往更像是一门艺术而非科学,通常需要通过实验确定。常见的起始值通常在 0.1 到 0.0001 的范围内,但最优值很大程度上取决于:
像学习率调度(在训练期间逐步减小学习率)和自适应学习率方法(如 Adam 或 RMSprop,将在第 4 章中介绍)等技术已被开发出来,旨在更有效地管理这个参数。然而,在使用这些更高级的技术之前,理解基础学习率的基本作用很重要。在模型开发过程中,你通常需要调整这个超参数,并监控训练损失,以查看其是否以合理的速度稳定下降。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造