趋近智
在确定了构建和训练基本深度神经网络 (neural network)的过程后,我们现在关注实践中遇到的一个常见问题:过拟合 (overfitting)。过拟合的模型会过度学习训练数据,包括其噪声和特定模式,导致在新数据上的表现不佳。
本章介绍旨在对抗过拟合的技术,并提高模型泛化能力的方法。我们将审视几种重要的正则化 (regularization)方法:
最后,我们将介绍超参数 (parameter) (hyperparameter)调整的入门知识,涵盖网格搜索和随机搜索等基本策略,旨在帮助为学习率、网络大小或正则化强度等元素找到更好的配置。到本章结束时,您将掌握实用的工具,以构建更可靠、表现更好的深度学习 (deep learning)模型。
6.1 过拟合问题
6.2 正则化方法概述
6.3 L1 和 L2 正则化
6.4 Dropout正则化
6.5 早期停止
6.6 批标准化
6.7 超参数调整基本原理
6.8 超参数搜索策略(网格搜索、随机搜索)
6.9 实践操作:运用Dropout和Early Stopping