趋近智
在上一节中,我们讨论了优化的基本思想,即找到函数的最低点或最高点。在机器学习 (machine learning)中,这不仅仅是一个抽象练习。我们优化特定的函数,以使模型能够有效地从数据中学习。但我们究竟要最小化或最大化什么呢?
“想象一下训练一个机器学习模型。目标通常是使预测尽可能接近实际结果。例如,如果我们预测房价,我们希望模型的房价预测与房屋实际售价非常接近。如果我们分类图像,我们希望模型分配正确的标签(例如“猫”或“狗”)。”
我们需要一种方法来衡量模型预测与真实值之间“偏差”的程度。这种衡量方式由代价函数体现,它也常被称为损失函数 (loss function)或有时称为目标函数。
代价函数将模型的预测值和实际目标值作为输入,并输出一个数值。这个数值表示模型在训练数据上产生误差的代价或惩罚。
想象一下你在学习玩飞镖。你的代价函数可以是你的飞镖落在靶心外的平均距离。平均距离越低(代价越低)意味着你进步了。类似地,在机器学习 (machine learning)中,我们希望调整模型以实现尽可能低的代价。
最常见的代价函数之一,特别适用于回归问题(例如预测价格),是均方误差 (MSE)。
MSE的公式是:
这里,(西格玛)表示“求和”,而 到 告诉我们要对从第一个 () 到最后一个 () 的所有数据点求和。 用于求平均值。
我们使用MSE训练模型的目标是找到模型参数 (parameter)(例如线性模型 中的斜率 和截距 ),使这个MSE值尽可能小。
将代价函数视为定义一个曲面会很有帮助。这个曲面上的“位置”由为模型参数 (parameter)(例如 和 )选择的特定值决定。曲面上任何位置的“高度”表示这些参数对应的代价函数值。
对于一个试图拟合某些数据的简单线性模型 ,MSE代价取决于 和 的选择值。如果我们简化并假设固定 而只改变 ,我们可以绘制代价(MSE)与 的不同值之间的关系图。这通常看起来像一个碗状。
代价函数(如均方误差)与单个模型参数绘制时的一个典型形状。最低点表示使误差最小化的参数值。
当有多个参数时(例如 和 ),这会变得更高维度(像两个参数的3D碗状),但核心思想保持不变:我们正在这个代价空间中寻找最低点。该最低点的坐标为我们提供了模型的最佳参数值。
这让我们回到了优化。代价函数为我们提供了我们想要最小化的具体量。我们本章中学习的、使用导数的技术,正是我们用来有效找到那个最小点的工具。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•