趋近智
向量不仅仅是数值的有序列表。它们具有固有的几何属性:大小(长度)和方向。理解这些属性对于在机器学习中解读向量很重要,因为向量常用来表示数据点或特征属性。
向量的大小,常称作其范数,表示它的长度或尺寸。把向量想象成从坐标系原点出发指向特定位置的箭头。大小就是这个箭头的长度。
向量具有固有的几何属性,包括大小(长度)和方向。衡量向量的长度最常见的方式是使用欧几里得范数,也称为L2范数。对于n维空间中的向量v,表示为v=[v1,v2,…,vn],其L2范数(大小)使用推广到n维的勾股定理计算:
∣∣v∣∣=∣∣v∣∣2=v12+v22+⋯+vn2=∑i=1nvi2
以一个简单的二维向量v=[3,4]为例。这个向量沿着第一个轴指向3个单位,沿着第二个轴指向4个单位。它的大小是:
∣∣v∣∣=32+42=9+16=25=5
因此,向量v=[3,4]的长度是5个单位。
二维空间中的向量v=[3,4]。其大小计算为32+42,结果是5。这对应于由其分量构成的直角三角形的斜边长度。
在机器学习中,特征向量的大小有时能反映所表示数据点或特征集的强度或重要程度。例如,在自然语言处理中,文档向量的大小可能与文档的长度有关。但是,大小也可能受特征尺度影响。通常,会应用特征缩放技术(如归一化)来调整向量大小,以便模型不会被固有值较大的特征过度影响。我们将在“向量范数”一节中讨论衡量向量长度的其他方式(如L1范数)。
大小告诉我们向量“多长”,而方向则告诉我们它在向量空间中“指向何处”。方向与大小无关。例如,向量[1,1]和[3,3]指向同一方向,但第二个向量的长度是第一个的三倍。
方向对于理解向量之间的关系(如相似性或对齐)很基础。我们如何从数学上表示方向,同时将其与大小分离?我们使用单位向量。
单位向量就是大小为1的向量。任何非零向量v都可以通过将其除以自身大小来转换为指向相同方向的单位向量v^(通常用“帽子”符号表示):
v^=∣∣v∣∣v
这个过程叫做归一化。
让我们对示例向量v=[3,4]进行归一化。我们发现它的大小是∣∣v∣∣=5。对应的单位向量是:
v^=5[3,4]=[53,54]=[0.6,0.8]
让我们验证一下v^的大小是否为1:
∣∣v^∣∣=(0.6)2+(0.8)2=0.36+0.64=1.0=1
这个单位向量[0.6,0.8]捕捉了原始向量[3,4]的纯粹方向。
向量v及其对应的单位向量v^。两者都从同一点出发,指向同一方向,但v^的大小(长度)为1。
在机器学习算法中,关注方向通常很重要。例如,当比较以向量表示的文档的语义相似性时,向量之间的角度(与方向相关)通常比它们的大小更能提供信息。在这类情况下,将向量归一化为单位长度是常见的预处理步骤。
计算大小和归一化向量是常规操作。后续章节将展示像NumPy这样的库如何使这些计算变得简单高效。目前,请关注它们的不同之处:大小是长度,方向是方位,单位向量代表纯粹的方向。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造