趋近智
让我们花点时间梳理一下前面章节讨论过的概念。请记住,在许多机器学习 (machine learning)任务中,我们的主要目的是创建一个能够进行准确预测或分类的模型。但是,我们如何确定何为“准确”,又如何系统地改进模型以达到此目的呢?这正是优化在微积分的指导下发挥作用之处。
机器学习 (machine learning)模型本质上通常可以表示为一个函数,它有输入(数据特征)和输出(预测)。这个函数也有决定其具体行为的内部参数或权重 (weight)。例如,对于 这样的简单线性模型,参数是斜率 和 y 截距 。 和 的不同值会产生不同的直线,从而产生不同的预测。
我们的目标是找到这些参数(在我们简单的情况下是 和 )的特定值,使模型在我们的数据上表现最佳。“最佳”通常意味着最小化模型产生的误差。
为了系统地找到最佳参数 (parameter),我们首先需要一种方法来衡量模型当前表现的优劣。这就是成本函数(也称损失函数 (loss function)或目标函数)的作用。
成本函数将模型的预测值与我们数据中的实际目标值进行比较,并计算出一个代表总误差或“成本”的单一数值。一个常见例子是均方误差(MSE),它计算预测值与实际值之间差异的平方的平均值。
我们的优化目标变得明确:找到最小化成本函数值的模型参数。
我们如何找到产生最小成本的参数 (parameter)值呢?我们可以尝试随机值,但这效率极低,尤其是当模型有许多参数时。一个更系统的方法是梯度下降。
想象成本函数是一个带有山丘和山谷的地形。任何一点的高度代表了特定参数值组合下的成本。我们的目标是找到山谷中的最低点(一个最小值)。
梯度下降是一种迭代算法,帮助我们“走”下这个成本的斜坡:
梯度下降算法的简化流程图。
本质上,梯度(由偏导数构成)充当我们的指南针,始终指引我们上坡。通过持续向反方向移动,梯度下降引导我们走向成本函数的一个最小值点,从而找到使模型表现更好的参数值。
既然我们已经回顾了优化目标和梯度下降过程,接下来让我们将这些思路应用于一个具体例子:优化一个简单的线性回归模型。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•