趋近智
奇异值分解 (SVD) 是最通用且信息丰富的矩阵分解方法之一。与主要用于方阵的特征分解不同,SVD 适用于任意 m×n 的矩形矩阵。这种普遍性使其在多种机器学习任务中表现出色,例如从降维到推荐系统。
SVD 的核心思想是将任意矩阵 A 分解为三个矩阵的乘积:
A=UΣVT
我们来详细了解这些组成部分:
U: 一个 m×m 正交矩阵。其列向量 u1,u2,...,um 被称为 A 的左奇异向量。正交意味着其列是标准正交的(单位长度且互相垂直),并且 UTU=UUT=Im,其中 Im 是 m×m 单位矩阵。这些向量构成矩阵 A 列空间(及其正交补空间)的标准正交基。
Σ (Sigma): 一个 m×n 矩形对角矩阵。这是包含 A 的奇异值的矩阵,记作 σi。对角线元素 Σii=σi 是非负实数,通常按降序排列(σ1≥σ2≥...≥σr>0),其中 r 是矩阵 A 的秩。Σ 的所有非对角线元素均为零。如果 m>n,则底部 m−n 行全为零。如果 n>m,则最右侧 n−m 列全为零。奇异值表示沿奇异向量确定的主方向上的“重要性”或大小。
VT: 一个 n×n 正交矩阵(V 的转置)。V 的列(或 VT 的行),v1,v2,...,vn,是 A 的右奇异向量。与 U 类似,V 是正交的,意味着 VTV=VVT=In。这些向量构成矩阵 A 行空间(及其正交补空间,即零空间)的标准正交基。
SVD 将一个 m×n 矩阵 A 分解为一个 m×m 正交矩阵 U,一个包含奇异值的 m×n 对角矩阵 Σ,以及一个 n×n 正交矩阵 V 的转置。
SVD 对于任何矩阵的存在性是线性代数中的一项基本成果。它本质上说明,任何由矩阵 A 表示的线性变换都可以看作是三个简单操作的连续组合:旋转或反射 (VT),接着是沿正交轴的缩放(乘以 Σ),再接着是另一次旋转或反射 (U)。
虽然我们在此不详细探讨其存在的完整证明或具体的计算算法(因为 NumPy 等库可以高效处理这些),但理解这种结构非常必要。在接下来的部分中,我们将进一步阐述这种分解的几何意义,并了解它如何支持降维和数据压缩等强大应用。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造