趋近智
定义 起初可能看起来比较抽象,但它有着清晰的几何意义。可以将向量 (vector) 乘以矩阵 看作是对 进行线性变换。这种变换通常涉及旋转、剪切、缩放或它们的某种组合,会改变向量的方向和大小。
然而,特征向量有所不同。当对特征向量 应用变换 时,所得向量 的方向与原始向量 的方向完全相同(如果 为负,则方向完全相反)。变换仅仅将特征向量按因子 (对应的特征值)进行缩放。
想象一下,空间沿着某些轴被拉伸或收缩。完全沿着这些轴的向量就是特征向量。它们的方向不变;只是变长或变短。
我们来描绘一下。考虑一个由以下矩阵表示的简单缩放变换: 这个矩阵将 x 分量缩放 2 倍,将 y 分量缩放 0.5 倍。
原始向量(灰色点)被变换为新向量(红色点)。请注意,原始在 (1, 0) 的向量被变换到 (2, 0)。它的方向(沿着 x 轴)没有改变,仅仅是按 的因子进行了缩放。类似地,在 (0, 1) 的向量变换到 (0, 0.5),停留在 y 轴上,但按 的因子进行了缩放。这些轴表示此变换的特征向量方向。像 (1, 1) 这样的向量变换到 (2, 0.5),改变了它的方向(灰色箭头)。
特征向量不总是与标准的 x 轴和 y 轴对齐 (alignment)。考虑矩阵: 这种变换同时涉及缩放和剪切。
这里,沿着 这条线(例如 [1, 1])的向量按 的因子进行缩放(橙色箭头和虚线),沿着 这条线(例如 [1, -1])的向量按 的因子进行缩放(紫色箭头和虚线)。这些是矩阵 B 的特征向量方向。像 [1, 0] 这样的向量变换到 [2, 1],改变了它的方向(灰色箭头)。
我们可以用一个图表来呈现这个核心思想:
如果 是 的特征向量,那么应用变换 会得到一个向量 ,它与 沿着穿过原点的同一条线。长度按因子 缩放,如果 为负,则方向反转 180 度。
当应用变换 时,非特征向量的向量通常会改变它们的方向。只有这些特殊的特征向量方向保持不变(在缩放范围内)。
这种几何视角是根本的。它帮助我们理解,特征值和特征向量显示了线性变换纯粹作为缩放操作的“轴”。这就是为什么它们在主成分分析(PCA)等方法中如此重要,在这些方法中,我们寻找数据中方差最大(与特征值相关)的方向(特征向量)。理解这种几何行为为我们提供了直观的感受,说明为什么这些数学对象在数据分析和理解系统动态方面很有用。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•