函数是接受输入并产生输出的规则。虽然将它们写成数学形式,例如 $f(x) = 2x + 1$,非常精确,但通常通过观察函数的作用会更有帮助。这时图形就有了用武之地。函数的可视化有助于我们直观理解它们的性质,这对我们后续理解变化和优化非常重要。坐标平面:我们的画板为了绘制函数,我们通常使用标准的二维坐标系,常被称为笛卡尔平面。您可能以前见过它:一条水平线,称为x轴。该轴表示函数的输入值。一条垂直线,称为y轴。该轴表示函数产生的输出值 $f(x)$。这些轴相交于一个点,称为原点,在该点,x和y都为零,记作 $(0, 0)$。该平面上的任何一点都可以由一对数字 $(x, y)$ 唯一确定,分别表示其水平和垂直位置。绘制函数点函数提供成对的(输入,输出)值。对于函数 $f$,每个输入 $x$ 对应一个输出 $y = f(x)$。我们可以将这对值表示为坐标平面上的点 $(x, f(x))$。我们来看一个简单的线性函数示例:$f(x) = 2x + 1$。如果输入是 $x = 0$,输出是 $f(0) = 2(0) + 1 = 1$。这得到点 $(0, 1)$。如果输入是 $x = 1$,输出是 $f(1) = 2(1) + 1 = 3$。这得到点 $(1, 3)$。如果输入是 $x = -1$,输出是 $f(-1) = 2(-1) + 1 = -1$。这得到点 $(-1, -1)$。我们可以计算任意数量的这些点。从点到图像:图形函数的图形就是坐标平面上所有可能的点 $(x, f(x))$ 的集合。当我们连接这些点时,它们通常形成一条直线或曲线,以视觉方式呈现函数在不同输入下的性质。对于我们的线性函数 $f(x) = 2x + 1$,如果我们绘制出计算出的点并将它们连接起来,就会得到一条直线。{"layout": {"xaxis": {"title": "输入 (x)", "range": [-3, 3]}, "yaxis": {"title": "输出 f(x)", "range": [-5, 7]}, "title": "函数 f(x) = 2x + 1 的图形", "margin": {"l": 50, "r": 30, "t": 50, "b": 50}, "height": 350}, "data": [{"x": [-3, 0, 1, 3], "y": [-5, 1, 3, 7], "type": "scatter", "mode": "lines", "name": "f(x)=2x+1", "line": {"color": "#228be6"}}]}线性函数 $f(x) = 2x + 1$ 的图形是一条直线。直线的斜率直观地显示了输出对于给定输入变化的改变速度。现在,我们来看一个略有不同的函数,一个二次函数:$g(x) = x^2$。如果 $x = 0$, $g(0) = 0^2 = 0$。点:$(0, 0)$。如果 $x = 1$, $g(1) = 1^2 = 1$。点:$(1, 1)$。如果 $x = -1$, $g(-1) = (-1)^2 = 1$。点:$(-1, 1)$。如果 $x = 2$, $g(2) = 2^2 = 4$。点:$(2, 4)$。如果 $x = -2$, $g(-2) = (-2)^2 = 4$。点:$(-2, 4)$。绘制这些点并连接它们会得到一条曲线,称为抛物线。{"layout": {"xaxis": {"title": "输入 (x)", "range": [-3, 3]}, "yaxis": {"title": "输出 g(x)", "range": [-1, 9]}, "title": "函数 g(x) = x^2 的图形", "margin": {"l": 50, "r": 30, "t": 50, "b": 50}, "height": 350}, "data": [{"x": [-3, -2, -1, 0, 1, 2, 3], "y": [9, 4, 1, 0, 1, 4, 9], "type": "scatter", "mode": "lines", "name": "g(x)=x^2", "line": {"color": "#40c057"}}]}二次函数 $g(x) = x^2$ 的图形是一条抛物线。请注意曲线的陡峭程度如何变化。当x从左侧接近0时,它(陡峭程度)减小,在x=0时平坦,当x向右远离0时,它(陡峭程度)增大。比较这两个图形,您可以看到函数性质的差异。线性函数以恒定速率变化(直线具有恒定斜率)。二次函数的变化率本身是变化的(曲线的陡峭程度不同)。这种视觉上的差异引出了我们即将学习的导数的想法。为何在机器学习中进行可视化?图形是理解事物的极其有用的工具。在机器学习中:模型表示: 简单的模型有时可以通过图形表示。例如,二维(一个输入特征,一个输出预测)的线性回归模型用一条直线表示,类似于我们的 $f(x) = 2x + 1$ 示例。将此表示出来有助于理解模型如何进行预测。理解成本函数: 机器学习训练通常涉及最小化“成本”或“损失”函数。此函数衡量模型预测的准确性如何。通常,成本是模型参数(如 $y=mx+b$ 中的 $m$ 和 $b$)的函数。尽管实际机器学习问题中的成本函数有许多输入(参数),但我们可以将简化版本(带有一个或两个参数)可视化为曲线或曲面。训练的目标通常是找到该图形上的最低点,这表示产生最小误差的参数值。观察图形有助于理解“最小化”的含义。建立直觉: 即使我们处理多变量函数(无法直接在二维或三维空间中可视化),从简单的一维和二维图形中获得的直觉也能够应用过去。“斜率”、“陡峭程度”和“最小点”等思想在更高维度中也有相似的意义,理解视觉表示使得这些抽象的想法更加具体。通过图形看到函数的形状,可以立即帮助我们了解其性质。当我们学习微积分时,我们将开发工具来精确测量这些图形上任意点的陡峭程度(斜率)等特点,这对于许多机器学习算法的学习和优化是基本的。