趋近智
在前面的部分,我们了解了如何通过对其输入进行加权求和、添加偏置 (bias),然后应用激活函数 (activation function)来计算单个神经元的输出。虽然这为我们提供了基本构成要素,但想象一下,如果一个层有数百或数千个神经元,你一个接一个地进行这种计算,然后对数百万个输入样本在多个层上重复此操作。这很快就会变得计算上不可行。
幸运的是,我们可以运用线性代数和优化的数值库(例如 Python 中的 NumPy),使用矩阵运算更有效地进行这些计算。这个过程通常被称为 向量 (vector)化。我们不再逐个神经元或逐个输入连接地迭代,而是同时处理整个层或批量数据。
让我们重新思考网络中单个层的计算。假设这一层有 个神经元,并从前一层(或输入特征)接收 个数值的输入。
回顾层中单个神经元 的加权和:
使用矩阵记法,我们可以在一次操作中计算该层中 所有 个神经元的加权和:
让我们分解一下维度:
矩阵乘法 得到一个大小为 () 的向量 (vector)。这个结果向量中的每个元素都是 中一行(一个神经元的权重 (weight))与输入向量 的点积。这精确地同时计算了每个神经元的 部分。
然后,我们将偏置 (bias)向量 (大小也是 )添加到 的结果中。这个加法是按元素进行的,将相应的偏置 加到为神经元 计算的加权和中。最终结果 是一个大小为 () 的列向量, 包含层中第 个神经元的加权和 。
使用矩阵运算进行单层正向传播。输入向量 使用层的权重矩阵 和偏置向量 进行转换,生成加权和向量 。然后,激活函数 (activation function) 被按元素应用于 ,得到激活向量 。
一旦我们有了包含层中所有神经元加权和的向量 (vector) ,我们就应用该层的激活函数 (如 Sigmoid、Tanh 或 ReLU)。这个操作是在向量 上 按元素 执行的:
如果 ,那么得到的激活向量 将是 。这个向量 的大小也是 (),它代表当前层的输出,并作为网络中下一层的输入。
神经网络 (neural network)通常一次使用多个训练示例的批量进行训练,而不是一次一个示例。矩阵运算可以很好地处理这种扩展。
现在,我们不再使用单个输入向量 (vector) (),而是有一个输入矩阵 ,它的每列代表一个不同的训练示例。如果我们有一个包含 个示例的批量,则输入矩阵 的维度将是 ()。
整个批量的正向传播计算变为:
让我们再次检查维度:
矩阵乘法 现在得到一个大小为 () 的矩阵。该结果矩阵的每列 都包含层中所有神经元的加权和,这些加权和是使用批量 中的第 个输入示例计算的。
将偏置 (bias)向量 ()添加到矩阵 ()时,大多数数值库会使用一个称为 广播 的功能。偏置向量 被有效地复制或“广播”到 矩阵的所有 列,因此对于批量中的每个示例,偏置 都被添加到第 个神经元的加权和中。结果矩阵 的维度是 ()。
最后,激活函数 (activation function) 被按元素应用于整个矩阵 :
得到的激活矩阵 的维度也是 ()。 的每一列代表该层神经元对批量中一个输入示例的激活。然后,这个矩阵 成为下一层的输入。
使用矩阵运算将遍历神经元和连接这种计算量大的过程,转换为高度优化的单行命令(例如 NumPy 中的 Z = W @ X + b)。这使用了通常用 C 或 Fortran 编写的底层库(如 BLAS/LAPACK),使得计算比显式 Python 循环快得多。这种速度提升对于在大型数据集上训练现代神经网络 (neural network)极其重要,这些网络可能拥有数百万甚至数十亿个参数 (parameter)。
这种使用矩阵进行正向传递的高效计算构成了神经网络生成预测的支柱,也是理解训练期间使用的后续反向传播 (backpropagation)算法的前提条件。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•