趋近智
奇异值分解 (SVD) 是最通用且信息丰富的矩阵分解方法之一。与主要用于方阵的特征分解不同,SVD 适用于任意 的矩形矩阵。这种普遍性使其在多种机器学习 (machine learning)任务中表现出色,例如从降维到推荐系统。
SVD 的核心思想是将任意矩阵 分解为三个矩阵的乘积:
我们来详细了解这些组成部分:
: 一个 正交矩阵。其列向量 (vector) 被称为 的左奇异向量。正交意味着其列是标准正交的(单位长度且互相垂直),并且 ,其中 是 单位矩阵。这些向量构成矩阵 列空间(及其正交补空间)的标准正交基。
(Sigma): 一个 矩形对角矩阵。这是包含 的奇异值的矩阵,记作 。对角线元素 是非负实数,通常按降序排列(),其中 是矩阵 的秩。 的所有非对角线元素均为零。如果 ,则底部 行全为零。如果 ,则最右侧 列全为零。奇异值表示沿奇异向量确定的主方向上的“重要性”或大小。
: 一个 正交矩阵( 的转置)。 的列(或 的行),,是 的右奇异向量。与 类似, 是正交的,意味着 。这些向量构成矩阵 行空间(及其正交补空间,即零空间)的标准正交基。
SVD 将一个 矩阵 分解为一个 正交矩阵 ,一个包含奇异值的 对角矩阵 ,以及一个 正交矩阵 的转置。
SVD 对于任何矩阵的存在性是线性代数中的一项基本成果。它本质上说明,任何由矩阵 表示的线性变换都可以看作是三个简单操作的连续组合:旋转或反射 (),接着是沿正交轴的缩放(乘以 ),再接着是另一次旋转或反射 ()。
虽然我们在此不详细探讨其存在的完整证明或具体的计算算法(因为 NumPy 等库可以高效处理这些),但理解这种结构非常必要。在接下来的部分中,我们将进一步阐述这种分解的几何意义,并了解它如何支持降维和数据压缩等强大应用。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•