在前几节中,我们研究了向量如何进行组合(线性组合),以及一组向量如何生成整个空间或子空间(张成空间)。我们还考察了集合中的向量何时是多余的(线性相关),以及何时每个向量都提供独特的方向信息(线性无关)。现在,我们将这些知识结合起来,以阐明描述向量空间最有效的方法:使用一个基。
可以把基视为向量空间的基本构成单元或坐标系统。它是达到该空间中任何点所需的最小方向集合,且这些方向中的任何一个都不能用其他方向表示出来。
什么是基?
在向量空间V中,一组向量B={v1,v2,…,vn}被称为V的基,如果它满足以下两个条件:
- 线性无关性: B中的向量是线性无关的。这意味着集合中没有任何向量可以写成集合中其他向量的线性组合。每个向量都提供独特的方向信息。方程c1v1+c2v2+⋯+cnvn=0的唯一解是c1=c2=⋯=cn=0。
- 张成性质: 集合B张成向量空间V。这意味着V中的每个向量w都可以表示为B中向量的线性组合。也就是说,对于任何w∈V,都存在标量c1,c2,…,cn,使得w=c1v1+c2v2+⋯+cnvn。
如果一组向量张成空间但不线性无关,则它包含冗余向量。如果它线性无关但不能张成空间,则无法描述该空间内的所有向量。基实现了恰当的平衡。
例子:标准基
最常见的例子是Rn的标准基。
- 对于R2,标准基是{e1,e2}={[1,0]T,[0,1]T}。这两个向量显然线性无关(彼此都不是对方的倍数),并且任何向量[x,y]T都可以写成xe1+ye2。
- 对于R3,标准基是{e1,e2,e3}={[1,0,0]T,[0,1,0]T,[0,0,1]T}。同样,它们是线性无关的,并且任何向量[x,y,z]T都可以写成xe1+ye2+ze3。
R2中的标准基向量e1(蓝色)和e2(红色)。它们是正交的,长度为单位,并张成整个二维平面。
非标准基
一个向量空间可以有许多不同的基。例如,在R2中,集合B′={[1,1]T,[1,−1]T}也是一个基。
- 线性无关性: 令c1[1,1]T+c2[1,−1]T=[0,0]T。这得到方程组c1+c2=0和c1−c2=0。唯一解是c1=0,c2=0。因此,它们是线性无关的。
- 张成性: 我们需要表明任何向量[x,y]T都可以写成c1[1,1]T+c2[1,−1]T。这导致方程组c1+c2=x和c1−c2=y。求解后得到c1=(x+y)/2和c2=(x−y)/2。由于我们可以为任何x,y找到c1,c2,所以该集合张成R2。
由于两个条件都成立,B′是R2的一个有效基。
表示的唯一性
基的定义带来一个重要特性,即空间V中的每个向量都可以表示为基向量的唯一线性组合。如果表示不唯一,就意味着可以通过不止一种方式组合基向量以获得相同的目标向量,这将与线性无关性要求相悖。与基B相关的这组唯一系数(c1,c2,…,cn)构成了向量w相对于该基的坐标。
维数
向量空间的一个基本属性是,给定向量空间的所有基都包含相同数量的向量。这个相同的数量被称为向量空间的维数,通常表示为dim(V)。
- R2的维数是2,因为它的基(如标准基或B′)包含两个向量。
- R3的维数是3。
- 通常,Rn的维数是n。
R3中通过原点的平面是维数为2的子空间。R3中通过原点的直线是维数为1的子空间。只包含零向量{0}的空间维数为0(根据规定,它有一个空基)。
如果一个向量空间不能由有限组向量张成,它被称为无限维的。函数空间通常属于此类,但在大多数涉及特征向量的典型机器学习情况中,我们处理的是有限维向量空间。
与机器学习的关联
理解基和维数在机器学习中具有多方面作用,原因如下:
- 特征空间解释: 数据集所有可能的特征向量集合通常形成一个向量空间(或其子集)。这个空间(或相关子空间)的维数对应于特征的数量,更准确地说,是描述数据所需的独立特征的数量。
- 降维: 像主成分分析(PCA)这样的技术明确地寻找一个低维基(子空间的基),该基能够捕捉原始高维数据中最重要的变化。目的是使用更少的维度(基向量)有效表示数据。
- 识别冗余: 如果一组特征向量线性相关,这意味着某些特征可以表示为其他特征的组合。它们不会向新的方向扩展数据的张成空间。找到这些特征向量所张成空间的基,有助于识别一组核心的、非冗余的特征或潜在因素。维数告诉我们驱动数据的固有独立因素数量。
- 模型复杂度: 输入特征空间的维数通常会影响机器学习模型所需的复杂程度(例如,线性模型中的参数数量)。理解实际维数可以指导模型选择和正则化方法。
本质上,基和维数为量化特征空间的“大小”和结构提供了一种正式途径,有助于我们分析数据、降低复杂性并构建更有效的模型。在接下来的部分中,我们将查看与矩阵相关的特定子空间以及它们的维数如何关联。