趋近智
理解图神经网络 (neural network)的能力和局限性,需要评估它们的表达能力:即它们区分不同图结构和学习依赖这些结构函数的能力。图论中的一个基本问题是图同构问题:它判断两个图在结构上是否相同,即使它们的节点标签或绘制方式不同。虽然高效地解决图同构问题是一个长期未决的问题,但某些启发式方法为图相似性提供了有用的信息。与GNN高度相关的一种启发式方法是Weisfeiler-Lehman (WL)测试。
在GNN文献中讨论最普遍的变体是1维Weisfeiler-Lehman测试 (1-WL),也称为朴素顶点细化。它是一种迭代算法,用于根据局部邻域结构生成图的规范标签或签名。如果两个图在任何迭代后产生不同的签名,则它们肯定是非同构的。然而,如果它们产生相同的签名,它们可能是同构的,但不能保证(该测试是同构的必要条件但非充分条件)。
1-WL测试的工作方式如下:
考虑两个简单的图:
两个图的初始状态()。所有节点都具有相同的初始标签(灰色)。
在1-WL的一次迭代之后:
a2 有一个灰色邻居 (b2)。它的 是 {gray}。节点 b2 有两个灰色邻居 (a2, c2)。它的 是 {gray, gray}。节点 c2 有一个灰色邻居 (b2)。它的 是 {gray}。
a2 和 c2 哈希(gray, {gray}),得到新标签,比如“橙色”。b2 哈希(gray, {gray, gray}),得到新标签,比如“蓝色”。一次迭代()后的状态。G1有一种标签类型(蓝色),G2有两种(橙色、蓝色)。标签分布不同,因此1-WL区分了这些图。
由于在 后标签分布不同,1-WL测试得出结论,G1和G2是非同构的。
现在,我们回顾一下之前介绍的消息传递框架:
观察其相似之处:
AGGREGATE函数从邻居收集信息,类似于WL测试中将邻居标签 收集到多重集 中。常见的聚合器,如求和、平均或最大值,对邻居特征的多重集 进行操作。UPDATE函数将聚合后的邻域信息与节点自身的旧状态 结合,类似于WL测试如何使用对 来计算新标签 。这种结构相似性并非巧合。已经正式证明,消息传递GNN (MPNN) 的表达能力受到1-WL测试能力的上限限制。这意味着:
AGGREGATE 和 UPDATE 函数如何(只要它们遵循消息传递框架)或层数多少,GNN为结构等效节点(根据1-WL)学习到的节点表示将在两个图中收敛到相同的值。1-WL测试以及标准MPNN无法区分某些图结构。一个典型例子是区分不同的正则图(所有节点具有相同度的图)。例如,1-WL测试无法区分6节点循环图(所有节点度为2)和两个不相连的3节点循环图(所有节点度也为2)。一个MPNN在足够多的层数后,会在这两种情况下为所有节点计算出相同的节点嵌入 (embedding)。
示例图G3(6-循环)和G4(两个不相交的3-循环)。两者都是2-正则图。1-WL测试(以及标准MPNN)无法区分它们,会在两个图中为所有节点分配相同的最终标签/嵌入。
这一局限性表明,标准GNN主要能有效捕获局部邻域结构,但在处理某些全局特性或区分根据1-WL细化过程局部相似的结构时则表现不佳。理解这种联系对于选择或设计GNN架构具有重要意义。如果某项任务需要区分超出1-WL测试能力的图结构,那么GCN或GraphSAGE等标准MPNN架构可能不足以应对。这促使了更强大GNN的开发,这些GNN通常受到高阶WL测试(-WL)的启发,或者整合了图子结构计数或位置编码 (positional encoding)等机制,我们将在后续章节中审视这些机制。了解标准消息传递的理论上限有助于理解为何有时需要更先进的架构。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•