趋近智
深度学习 (deep learning)编译器中的优化流程通常表现为扩展与收缩的循环。循环分块或向量 (vector)化等阶段会增加代码的复杂程度以适应硬件限制,而图层级的清理阶段则负责收缩过程。死代码消除(DCE)和公共子表达式消除(CSE)在编译过程中扮演着“垃圾回收器”的角色。它们清除先前转换或高级框架引入的多余内容,确保硬件只运行生成模型输出所必需的逻辑。
在张量图的背景下,CSE 识别生成相同值的相同操作,并将其替换为单个计算。这种冗余常见于神经网络 (neural network)架构搜索(NAS)生成的复杂模型结构中,或者当高级框架将 Softmax 或 GELU 等复合运算符展开为其基本组成部分时。
如果一个图包含两个节点 和 ,它们满足以下条件时可被消除:
设想一个场景,模型的一个分支计算一个方差项,该项用于归一化 (normalization)和后续的缩放因子。如果框架将其降级为两个不同的子图,编译器将看到:
没有 CSE,硬件会计算两次方差。编译器的任务是检测生成 的子图在拓扑上与生成 的子图相同,重写对 的依赖使其指向 ,并移除冗余节点。
高效的 CSE 实现依赖于值编号或结构哈希。编译器按拓扑顺序遍历图,维护一个哈希表,其中键是运算符及其输入操作数的唯一标识符的复合哈希。
当访问一个节点时:
ML 编译器中的一个特殊难题是随机操作。像 dropout 或 random_uniform 这样的运算符并非纯粹;执行两次会产生不同的结果。CSE 阶段必须明确地将这些非确定性运算符列入黑名单,以保持模型随机行为的正确性。
应用公共子表达式消除前后拓扑结构的比较。冗余的 Conv2D 和 ReLU 分支被合并,有效将该部分的计算需求减半。
死代码消除移除对图的最终输出没有贡献的操作。在深度学习 (deep learning)中,死节点通常是其他优化的次要效果。例如,如果代数简化阶段将 替换为零张量,则计算 的子图就变成了死代码,前提是 没有在其他地方使用。
当部署带有辅助头(例如 Inception 或 R-CNN 架构)训练的模型时,DCE 也很有用,因为用于训练监督的中间输出在推理 (inference)期间不相关。
计算图中的标准 DCE 类似于内存管理中的垃圾回收。它通常采用标记-清除算法:
尽管简单,但这个过程必须是迭代的。移除一个死节点会减少其输入的引用计数。如果一个输入的引用计数降至零,它也变为死代码。因此,DCE 通常以循环方式运行或使用工作列表算法,直到无法移除更多节点。
考虑常量折叠阶段后的以下图状态:
一旦编译器用零张量替换乘法(因为乘以零),对 的依赖就被切断了。因此,MatMul 操作成为死代码。移除 MatMul 会使 (权重 (weight))成为死代码。最终的图只包含生成零张量的逻辑,通过完全避免权重加载来节省内存带宽。
DCE 和 CSE 很少单独运行。它们通常在循环中与其他阶段(如常量折叠和规范化)交错执行。这是因为转换通常会暴露新的清理机会。
这个循环重复进行,直到图达到一个不动点,即应用更多阶段也不会改变图拓扑的状态。
图的复杂程度降低通常分步进行。请注意,在 CSE 阶段之后运行的 DCE 阶段(阶段 4)如何移除通过分支逻辑合并而隔离的剩余节点。
MLIR 或 Relay 等高级 IR 在控制流和内存副作用方面带来复杂状况。在这些环境下,简单的图连接不足以判断活跃性。
例如,一个操作可能写入某个内存缓冲区,而该缓冲区随后会被读取。即使该操作的直接输出张量未使用,其副作用(内存写入)也保持了它的活跃性。处理有状态图(常见于循环网络或复杂训练图)的编译器必须执行内存 SSA(静态单赋值)分析或别名分析,以确保 DCE 不会移除必要的内存操作。
同样,条件分支(if/else)中的节点需要仔细处理。分支内的节点仅当分支本身不可达,或者节点的结果在控制流合并点之后的所有可能执行路径中都未使用时,才被认为是死代码。这需要构建支配者树来证明某个特定计算在所有路径中都是完全多余的。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•