趋近智
在确认过拟合 (overfitting)是模型在训练数据上学习得过好,但对未见过的数据性能下降的普遍问题后,我们现在转向一种直接限制模型复杂度的方法:权重 (weight)正则化 (regularization)。本章介绍通过根据网络权重的大小添加惩罚项来修改学习目标的方法。主要观点是,更简单的模型(通常表现为权重值较小)往往泛化能力更好。
你将学习到:
在本章结束时,你将学会如何应用这些方法来减少过拟合并提升神经网络 (neural network)的泛化能力。
2.1 权重正则化背后的理念
2.2 L2正则化(权重衰减):机制
2.3 L2 正则化:数学公式
2.4 L1 正则化:机制与稀疏性
2.5 L1 正则化:数学表述
2.6 L1和L2正则化的比较
2.7 弹性网络:L1与L2的结合
2.8 权重正则化的实现
2.9 动手实践:将L1/L2应用于网络
© 2026 ApX Machine Learning用心打造