趋近智
好的,我们来运用微积分工具。我们已经讨论了如何使用导数求最小值和最大值,以及梯度下降的思路。现在,我们将这些思路应用于一个基本的机器学习模型:简单线性回归。
简单线性回归的目标是找到一条最佳直线,来描述单个输入特征与目标输出之间的关系。想象一下,你有一些数据点绘制在图表上。线性回归试图在这些点中画一条尽可能拟合的直线。
直线的方程可能对你来说不陌生:
y=mx+b让我们在机器学习的背景下分析这些组成部分:
在机器学习术语中,m 和 b 是我们模型的参数(有时也称作权重或系数)。我们训练时的目标是找到 m 和 b 的最优值,使我们的直线最能拟合数据。
考虑一个表示学习时间 (x) 与考试分数 (y) 之间关系的小数据集。
蓝色点表示我们的数据。绿色虚线似乎很好地捕捉了趋势,而红色虚线显然拟合得很差。线性回归旨在找到能够产生最佳拟合(如绿线或更好)的直线参数(m 和 b)。
寻找“最佳拟合”线的过程是一个监督学习任务。我们得到示例对 (x,y)(学习时间,考试分数),并且我们希望机器学习算法学习它们之间的关系,这种关系由参数 m 和 b 表示。一旦学习完成,我们就可以使用模型 y=mx+b 来预测新的学习时间下的考试分数。
核心思路是我们可以衡量特定直线(由 m 和 b 的特定值定义)对数据的拟合程度。如果我们可以衡量这种“拟合优度”(或者反过来,衡量“拟合差度”或误差),那么我们就可以使用微积分,特别是梯度下降,系统地调整 m 和 b,使直线越来越好地拟合数据。
这种“拟合度量”就是我们所说的成本函数,我们将在下一节中定义它。请记住,对于我们的优化算法,m 和 b 是我们将要调整的变量,以使此成本最小化。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造