趋近智
奇异值分解(SVD)的公式 A=UΣVT 尽管看起来抽象,但它描述了一个基本的几何过程。理解这种几何性质有助于直观把握 SVD 为何在降维和理解线性变换等应用中如此有效。
设想一个由 m×n 矩阵 A 表示的线性变换。当我们对向量 x 应用此变换得到 y=Ax 时,SVD 告诉我们这个变换可以分解为三个不同的几何步骤:
旋转/反射 (VT): 矩阵 VT(V 的转置)是一个正交矩阵。当应用于输入向量 x 时,VTx 在输入空间 Rn 中执行旋转并可能进行反射。它不改变向量的长度或它们之间的夹角。可以将此步骤看作是让输入空间沿着一组特殊的正交方向对齐,这些方向由 V 的列(右奇异向量)给出。这些向量 v1,v2,…,vn 构成输入空间的一个标准正交基。VT 本质上是旋转空间,使得这些主输入方向与标准坐标轴对齐。
缩放 (Σ): 矩阵 Σ 是一个 m×n 矩形对角矩阵。其对角线元素是奇异值 σ1,σ2,…,σr(其中 r 是 A 的秩),所有其他元素均为零。此矩阵缩放旋转后的向量 VTx 的坐标。具体来说,它将第 i 个坐标(对应于 vi 的方向)按奇异值 σi 缩放。对应于零奇异值的方向有效地压缩为零。此步骤沿着新对齐的轴线拉伸或收缩空间。
旋转/反射 (U): 矩阵 U 也是一个正交矩阵(m×m)。这最后一步将缩放后的向量 ΣVTx 在输出空间 Rm 中执行另一次旋转并可能进行反射。U 的列 u1,u2,…,um(左奇异向量)构成输出空间的一个标准正交基。此步骤将缩放后的向量从轴对齐的方向(步骤 2 之后)旋转到它们在输出空间中的最终位置,使它们与由 U 的列定义的主输出方向对齐。
设想将变换 A 应用于 2D 单位圆(或 3D 单位球)上的所有点。SVD 几何上分解变换过程如下:
SVD 本质上告诉我们,任何线性变换 A 将输入空间中的标准正交基向量(V 的列)映射到输出空间中的正交向量(通过奇异值 σi 缩放的 U 的列)。也就是说,Avi=σiui,其中 i=1,…,r。
由矩阵 A=(1011) 定义的变换将单位圆(灰色)映射为椭圆(红色)。SVD 将这一整体变换分解为一系列的旋转 (VT)、轴对齐的缩放 (Σ) 和另一次旋转 (U)。
这种几何视角对于理解使用 SVD 进行降维尤其有帮助。奇异值 σi 量化了每个主方向的重要性。较大的奇异值对应于数据(或变换)具有最大方差或“扩散”的方向。通过仅保留对应于最大奇异值的分量,我们保留了变换最重要的几何特征,同时可能丢弃与小奇异值相关的维度(这些维度可能代表噪声或不重要的变化)。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造