趋近智
训练深度神经网络可能具有挑战性。在训练过程中,由于前层参数的变化,后续层输入的分布也会发生偏移。这种现象,被称为内部协变量偏移,会减慢训练速度,并使其对初始化和学习率变得敏感。
本章着重介绍旨在解决这些问题的归一化方法。我们将查看:
在本章结束时,你将明白归一化层如何有助于深度学习模型训练更稳定和高效。
4.1 内部协变量偏移问题
4.2 批归一化介绍
4.3 批量归一化:前向传播计算
4.4 批标准化:反向传播计算
4.5 批量归一化的好处
4.6 测试时的批量归一化
4.7 网络中的考量与放置
4.8 层归一化简介
4.9 实现批量归一化
4.10 动手实践:整合批标准化
© 2026 ApX Machine Learning用心打造