趋近智
正如我们在本章引言中谈到的,过拟合 (overfitting)是深度学习 (deep learning)模型开发中的一个主要挑战。当模型在其训练数据上表现极好,但无法很好地泛化到新的、未见过的数据时,它很可能已经过拟合了。出现这种情况是因为模型不仅学习了数据固有的模式,还学习了只存在于训练集中的噪声和特定的特征。
一个表示过拟合的典型模式是:训练损失持续下降,而验证损失在某个点后开始上升。
为了解决这个问题,我们采用正则化 (regularization)方法。正则化包含了在训练过程中使用到的多种方法,它们专门用于减少过拟合并提升模型在新数据上的泛化性能。大多数正则化策略的主要思想是限制模型的复杂度,防止它过度适应训练数据。
可以从偏差-方差权衡的角度来考虑。一个过拟合的模型通常具有低偏差(它非常贴合训练数据)但高方差(它对训练数据中的微小波动敏感,导致泛化能力差)。正则化方法旨在降低这种方差,通常会略微增加偏差,以在新数据上获得更好的整体模型性能。它们通过添加约束或惩罚,有效地抑制了过度复杂的解决方案。
本章中,我们将考察几种广泛使用的正则化方法:
L2正则化、Dropout和早停法是常用的正则化策略,它们并非相互排斥;通常,将这些策略结合使用可以产生最好的效果。了解如何以及何时应用这些策略是构建在实践中表现良好的可靠深度学习模型的必要技能。对这些策略将进行详细的阐述和实际操作指导。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造