趋近智
编码器在 Transformer 架构中的主要职责是处理输入序列,并生成一系列语境表示,通常称为隐藏状态或上下文 (context)向量 (vector)。可以把它想象成在阅读输入句子时,对句子中每个词语与其他所有词语之间的关系形成充分的理解。这个处理过的序列不仅包含单个词语的含义,还包含它们在整个输入语境中如何彼此关联。
这种编码过程并非一步完成。相反,Transformer 采用堆叠的相同编码器层。最初的“Attention Is All You Need”论文使用了 N=6 个层,但这个数量可以根据具体的模型实现和任务而变化。一个层的输出成为堆叠中下一个层的输入。这种堆叠方式使模型能够逐步学习输入数据中更复杂的表示和关系。
让我们查看单个编码器层的内部结构。每个编码器层包含两个主要子层:
多头自注意力 (self-attention)机制 (attention mechanism): 这是第一个子层。如前一章所述,自注意力机制允许模型在编码特定词语时,权衡输入序列中不同词语的重要性。多头注意力 (multi-head attention)机制通过并行执行多次自注意力过程,并使用不同的学习到的线性投影(不同的 Q、K、V 权重 (weight)矩阵组)来增强这一点。这使得每个头能够潜在地专注于不同类型的关系或不同的表示子空间(例如,一个头可能专注于句法关系,另一个专注于语义相似性)。各头的输出被拼接并进行线性投影,以形成该子层的最终输出。
位置级别前馈网络 (FFN): 这是第二个子层。它是一个相对简单的全连接前馈网络,通常包含两次线性变换,中间夹有一个 ReLU(修正线性单元)激活函数 (activation function)。公式通常表示为:
这里, 是前一个子层在特定位置的输出,、、 和 是学习到的参数 (parameter)(权重矩阵和偏置 (bias)向量)。一个重要的细节是,虽然在给定层内所有位置使用相同的 FFN(相同的 ),但它被 独立地 应用于每个位置的向量表示。这意味着代表“词语 A”的向量的变换不直接依赖于在此 FFN 子层内为“词语 B”发生的变换(尽管上下文已由自注意力层纳入)。该网络通过引入非线性和允许对关注特征进行更复杂的变换,增加了模型的容量。中间层通常在将其投影回 之前,会扩展维度(例如,从 扩展到 )。
Add & Norm)很重要的一点是,在这两个子层(多头自注意力 (self-attention)机制 (attention mechanism)和位置级别前馈网络)的每一个之后,编码器采用另外两种操作:残差连接,然后是层归一化。这种组合通常被称为“Add & Norm”(加和归一化)。
因此,对于输入 ,一个编码器层内的计算过程如下所示:
然后, 成为堆叠中下一个编码器层的输入。
流程图显示了单个 Transformer 编码器层中的组件和连接。注意残差连接(虚线表示输入 'x' 在归一化之前被添加)汇入“加和归一化”块。
整个编码器层堆叠的最终输出(经过所有 N 个层之后)是一系列向量 (vector),每个输入 token 对应一个。这些向量包含从整个输入序列中通过堆叠的自注意力和前馈操作得到的丰富上下文 (context)信息。这组上下文向量随后通常传递给解码器层堆叠的每个层,作为生成输出序列的依据。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造