趋近智
基于上一章对梯度的理解,我们现在关注如何使用它们进行模型优化。本章介绍梯度下降,这是一种迭代算法,用于寻找函数的最小值,在机器学习中通常是成本函数J(θ)。
您将掌握其原理以及通过沿着梯度∇J(θ)相反的方向移动来更新模型参数的具体步骤。我们将考察学习率α的作用,比较批量梯度下降、随机梯度下降和Mini-batch梯度下降等不同方法,并讨论常见的优化问题,例如局部最小值。本章包含一个关于实现基本算法的实践部分。
4.1 梯度下降的直观原理
4.2 梯度下降算法的步骤
4.3 学习率参数
4.4 批梯度下降
4.5 随机梯度下降 (SGD)
4.6 小批量梯度下降
4.7 挑战:局部最小值与鞍点
4.8 动手实践:实现简单的梯度下降
© 2026 ApX Machine Learning用心打造