趋近智
单个图神经网络 (neural network) (GNN) 层通过考虑节点的直接邻居来处理节点特征。虽然该层是一个强有力的构建模块,但其视角局限于 1 跳邻域。为了获取图中更远部分的信息,我们可以将这些 GNN 层进行堆叠,从而形成深度图神经网络。这种分层技术模拟了标准深度神经网络创建特征层次结构的方式。
堆叠 GNN 层的主要原因是为了扩大每个节点的感受野。节点的感受野是指图中能够影响其最终表示的节点集合。
随着每增加一个 GNN 层,每个节点的感受野就会扩大一跳。因此,具有 层的 GNN 可以在相距最多 跳的节点之间传播信息。这使得模型能够根据图中更大的子结构来学习特征。
下图说明了这一过程。为了计算节点 A 在两层之后的最终表示,模型首先在第一层聚合其 1 跳邻居(B 和 C)的信息。在第二层中,它聚合 B 和 C 更新后的表示。由于 B 和 C 的表示已经包含了来自它们各自邻居(分别是 D 和 E)的信息,因此节点 A 的最终表示受到了其 2 跳邻居的影响。
经过两个 GNN 层后流向节点 A 的信息流。在第二层之后,节点 A 的表示融合了来自节点 D 和 E 的信息,而这两个节点与其相距两跳。
从形式上讲,多层 GNN 通过组合多个消息传递层来工作。第 层的输出嵌入 (embedding)(记为 )成为第 层的输入嵌入。该过程从初始节点特征 开始。
对于节点 ,前两层的计算过程如下:
此过程重复进行 层。每一层的 聚合 和 更新 函数通常拥有自己的一组可训练参数 (parameter)(例如权重 (weight)矩阵),使得网络能够在不同深度学习 (deep learning)不同的特征变换。第 层的最终输出 就是用于下游任务的节点嵌入。
虽然增加深度可以让 GNN 访问更广的图语境,但层数过深也有一个显著的弊端:过度平滑 (Over-smoothing)。过度平滑是指在多次消息传递迭代后,连通图中所有节点的表示都趋向于一个相似值的现象。
可以把它想象成向水池中滴入一点彩色染料。搅拌一次(一个 GNN 层)后,颜色会扩散到其附近。搅拌多次后,染料会均匀地扩散到整个水池中,从而无法分辨染料最初的来源。类似地,随着节点特征不断与其邻居进行平均化,它们会丢失初始的、具有辨识性的信息。
当节点嵌入 (embedding)变得难以区分时,模型在节点分类等任务上的表现就会显著下降,因为它不再能区分不同的节点。由于过度平滑,实际中使用的大多数 GNN 架构都相对较浅,通常只包含 2 到 4 层。缓解这一问题是 GNN 研究的一个活跃方向,目前已经产生了通过残差连接或其他机制来保留初始节点信息的复杂架构。
理解这种分层结构是十分基础的。在下一章中,我们将研究 GCN 和 GraphSAGE 等具体且有影响力的架构,它们在多层框架中定义了 聚合 和 更新 函数的具体形式。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•