趋近智
多层感知机 (MLP)、卷积神经网络 (neural network) (CNN) 和循环神经网络 (RNN) 等标准深度学习 (deep learning)模型在处理图像、文本和表格数据方面表现优异。然而,当直接应用于图结构数据时,它们的核心架构假设就不再适用。图的特性带来了常规架构无法有效应对的挑战。
以基础的 MLP(或全连接密集网络)为例。它的设计初衷是接收固定大小的特征向量 (vector)。这产生了一个直接的问题:图的规模并非固定。社交网络的用户可能从 1,000 人增加到 1,001 人,或者分子数据库中不同化合物包含的原子数量各不相同。对于一组节点和边数量不等的图,很难直接创建一个统一大小的输入向量。
更为严重的是节点排序问题。图没有天然的顺序。下面的两张图表示的是完全相同的图结构,但节点的排列顺序不同。
一个简单的有向图结构。
如果我们用邻接矩阵来表示这个图,矩阵的具体形式完全取决于我们为节点选择的顺序。如果按照 (A, B, C) 排序,邻接矩阵 为:
但是,如果我们选择 (B, C, A) 的顺序,就会得到一个完全不同的矩阵 :
MLP 会将展平后的 和 视为完全不同的输入,无法识别出它们描述的是同一个对象。图模型必须具备置换不变性(用于图级任务)或置换等变性(用于节点级任务),这意味着其输出不应受到节点人为排序的影响。标准的 MLP 完全不具备这种属性。
卷积神经网络 (neural network) (CNN)已成为计算机视觉的标准,因为其设计利用了网格中像素的空间局部性。CNN 的核心操作是卷积,即一个小的可学习滤波器(或卷积核)在图像上滑动。这之所以有效,是因为每个像素的邻域都是规整、固定大小的网格(例如 3x3 或 5x5)。
而图并不具备这种网格状的规整性。节点的局部邻域由其连接关系定义,且邻域大小差异很大。在引用网络中,一个节点的连接数可能只有两个,而一篇奠基性的论文可能与两千个节点相连。图中没有“上”、“下”、“左”、“右”的概念,也无法应用一个适用于每个节点的固定大小滤波器。
CNN 处理的规整网格状邻域(左)与图中节点的不规则、变长邻域(右)的对比。
强行将图转换为网格格式会丢失定义其结构的准确关系信息,而这些信息往往正是我们希望模型学习的核心内容。
循环神经网络 (neural network) (RNN)适用于顺序具有意义的序列,例如句子中的单词或时间序列中的事件。有人尝试通过“随机游走”生成节点序列,从而将 RNN 应用于图。然而,正如没有标准的节点排序一样,图中也没有标准的路径。
从不同的节点开始游走,或者在交叉口选择不同的路径,都会产生完全不同的序列。将这些多样的序列输入 RNN 会导致对同一个图产生不一致的表示,使得模型难以学习到稳定且有意义的模式。
总之,这些限制共同指向了一个核心问题:标准神经网络并非为了处理图拓扑中显式的关系结构而设计。MLP 通过展平操作忽略了结构,CNN 要求图所不具备的规整网格,而 RNN 强加了人为的序列顺序。为了有效地在图上进行机器学习 (machine learning),我们需要一种能够直接在图上运行的新型模型,将节点及其连接作为计算的基本单元。这正是图神经网络的功能所在。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•