趋近智
矩阵加法和标量乘法会改变矩阵内的值,而矩阵-向量乘法是一种能根本上转换向量的运算。你可以把矩阵看作一个函数或一台机器:你给它一个向量,它就会输出一个新的向量,这个向量可能有不同的长度并指向新的方向。这种运算是许多机器学习算法不可或缺的部分,从运行神经网络层到对数据执行几何变换都会用到它。
要将矩阵 A 乘以向量 v,有一个必要的兼容规则:矩阵的列数必须等于向量的元素数量。
如果你有一个 m×n 矩阵(m 行,n 列)和一个 n×1 向量(n 行,1 列),结果将是一个新的 m×1 向量。
结果向量中的每个元素都是通过取矩阵的一行与输入向量的点积来计算的。让我们通过一个例子来看一下。
假设我们有一个 2×3 矩阵 A 和一个 3×1 向量 v:
A=[301245],v=261为了找到新向量的第一个元素,我们取 A 的第一行与向量 v 的点积: (3⋅2)+(1⋅6)+(4⋅1)=6+6+4=16
为了找到第二个元素,我们取 A 的第二行与向量 v 的点积: (0⋅2)+(2⋅6)+(5⋅1)=0+12+5=17
因此,结果向量为:
Av=[1617]请注意我们是如何将一个三维向量转换为一个二维向量的。这种改变数据维度的能力是矩阵-向量乘法的直接结果。
还有另一种看待相同运算的方式,它能提供更多信息。结果向量实际上是矩阵各列的线性组合,其中输入向量的元素充当权重。
使用相同的矩阵 A 和向量 v:
A=[301245],v=261我们可以将乘法改写为:
Av=2[30]+6[12]+1[45]让我们计算一下:
Av=[60]+[612]+[45]=[6+6+40+12+5]=[1617]我们得到了完全相同的结果。这种观点很有用,因为它告诉我们,矩阵乘法 Av 是在 A 的列所定义的空间中查找一个点。在机器学习中,这通常表示根据一些输入权重(向量)来组合特征(列)。
理解矩阵-向量乘法最直观的方式之一是将其视为几何变换。矩阵可以在空间中旋转、缩放或剪切向量。
让我们取一个简单的二维向量和一个执行“剪切”变换的矩阵。剪切变换会使空间倾斜,将正方形变为平行四边形。
我们的向量是 v=[23],我们的剪切矩阵是 M=[100.51]。
让我们计算乘积 Mv:
Mv=[100.51][23]=[(1⋅2)+(0.5⋅3)(0⋅2)+(1⋅3)]=[2+1.50+3]=[3.53]矩阵 M 转换了我们的原始向量,将其头部向右推移,同时保持其 y 坐标不变。
向量 v (蓝色) 经矩阵 M 变换后变为向量 Mv (红色)。剪切变换使向量水平移动了。
NumPy 让矩阵-向量乘法变得简单明了。现代且建议使用的运算符是 @(矩阵乘法运算符)。
让我们用 Python 执行第一个例子中的相同计算。
import numpy as np
# 定义2x3矩阵A
A = np.array([
[3, 1, 4],
[0, 2, 5]
])
# 定义3x1向量v
v = np.array([2, 6, 1])
# 执行矩阵-向量乘法
result = A @ v
print(f"矩阵 A:\n{A}")
print(f"\n向量 v:\n{v}")
print(f"\nA @ v 的结果:\n{result}")
print(f"\n结果的形状: {result.shape}")
运行这段代码将产生以下输出:
Matrix A:
[[3 1 4]
[0 2 5]]
Vector v:
[2 6 1]
Result of A @ v:
[16 17]
Shape of the result: (2,)
这与我们手动计算的结果完全一致。NumPy 会自动处理每行的点积计算。在一些旧的代码库中,你可能还会看到使用 np.dot(A, v),它对于此运算也能达到相同的结果。不过,使用 @ 通常能让代码更易读,因为它专门用于矩阵乘法。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造