趋近智
虽然图卷积网络(GCN)的数学起源可以追溯到谱图理论(涉及图傅里叶变换等复杂运算),但更直观、更容易理解的方法是从空间视角来看待它。这种观点将图卷积视为直接在图结构上进行的消传递操作,这与邻域聚合框架完全一致。
为了建立直观认知,可以考虑卷积神经网络 (neural network)(CNN)在图像上的操作方式。CNN 使用一个小核或过滤器在像素网格上滑动。在每个位置,卷积核计算其结构化邻域内像素值的加权平均。这个过程有效地聚合了局部信息,为每个像素生成新的特征表示。
GCN 执行类似的功能,但在不规则、非结构化的图上运行。与图像中固定大小的邻域网格不同,GCN 中每个节点的邻域由其相连的边定义。针对某个节点的“卷积”操作包括聚合来自其邻居的特征向量 (vector)。
在最简单的形式中,GCN 层通过取邻居特征向量的平均值来更新节点的特征向量。这种操作直接反映了 CNN 卷积核的目标:根据局部环境的特征为某个点创建新的表示。
我们可以将 GCN 层的操作看作是针对每个节点进行的处理,而不仅仅是单一的矩阵乘法。单个节点 的更新可以理解为一个“聚合与更新”的过程:
第 层中节点 的隐层表示 的更新规则如下:
其中:
这个公式直接将空间想法转化为数学。对于每个节点 ,我们遍历其邻居 ,获取它们当前的特征向量 ,通过权重矩阵 进行变换,然后根据节点度数确定的权重进行加权求和。
以节点为中心的图卷积视图。节点 A 通过聚合来自其邻居(B、C、D)和自身的变换后的特征向量 (h) 来更新其表示。
归一化项 是 GCN 模型的显著特征。虽然简单地按照中心节点的度数取平均值()似乎也行,但这种对称归一化在实际应用中表现更好。它在消息传递步骤中兼顾了源节点和目标节点的度数,防止特征向量 (vector)的尺度受到高度数节点过度影响。
通过从空间角度观察图卷积,我们可以看到 GCN 层是消息传递方案的一种高效且专门的实现。它为 AGGREGATE 函数(度数归一化求和)和 UPDATE 函数(应用非线性变换)定义了特定的选择。这种视角使得 GCN 更容易与 GraphSAGE 和 GAT 等其他架构进行比较,因为那些架构只是为这些函数提供了不同的选择。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•