趋近智
在上一章中,我们明确了训练目标:通过梯度下降 (gradient descent)调整网络权重 (weight),以最小化损失函数 (loss function) 。然而,在多层网络中有效计算关于所有权重的梯度 需要一种特定的方法。
本章将介绍反向传播 (backpropagation)算法,它是计算这些梯度的标准方法。我们将审视反向传播在微积分链式法则中的原理,并通过计算图来描绘其过程。随后,我们将超越基本的梯度下降,学习更精密的优化算法。这些算法包括 Momentum、RMSprop 和 Adam,它们有助于加速收敛,并能更有效地应对复杂的损失曲面。完成本章后,你将理解梯度是如何计算并反向传播通过网络的,以及高级优化器如何改进训练过程。
4.1 计算梯度:链式法则
4.2 计算图
4.3 反向传播算法详解
4.4 前向传播与反向传播
4.5 带有动量的梯度下降
4.6 RMSprop 优化器
4.7 Adam 优化器
4.8 选择优化算法
4.9 动手实践:反向传播逐步解析
© 2026 ApX Machine Learning用心打造