趋近智
在硬件上处理高维张量,需要将逻辑维度映射到线性的物理内存地址空间。尽管框架出于用户方便或历史原因常采用特定布局,但选定的内存布局对卷积和矩阵乘法核的性能有显著作用。编译器通过改写图,使其使用与硬件内存层次结构和向量 (vector)指令集相符的内存布局,从而优化执行。
一个表示一批图像的4D张量,其维度通常表示为 (批次), (通道), (高), 和 (宽)。从数学角度看,访问 处的元素是抽象的。实际上,这个元素存在于RAM一维数组中的一个特定偏移量处。
步长配置决定了这个偏移量。深度学习 (deep learning)中存在两种主要的布局:
它们的地址计算方式不同。对于形状为 的张量,元素的线性地址计算如下:
NCHW 地址计算:
NHWC 地址计算:
布局的选择决定了计算所需的相邻元素之间的内存距离。如果卷积核需要对特定像素位置的所有通道进行求和,NHWC会将其值紧邻地放在内存中。在NCHW中,这些值会根据图像的空间大小 () 进行跨步,可能引起缓存抖动。
为了弄清编译器为何转换布局,需要考虑数据在线性内存中的存放方式。在下面的图表中,我们展示一个简化的 张量(1幅图像,3个通道,2x2空间分辨率)的内存排列。
NCHW 与 NHWC 格式的线性内存放置对比。
在NCHW示例中,访问像素 的红色、绿色和蓝色需要跳过所有其他空间位置。在NHWC中,像素 的R、G、B是相邻的。
布局转换的首要目的是提高硬件效率。现代CPU和GPU主要依靠SIMD(单指令多数据)指令和张量核来执行算术运算。这些单元在加载连续数据块时效率最高。
当ML编译器分析计算图时,它会查找在执行时间中占据主导地位的卷积和池化算子。如果目标硬件(例如ARM CPU或NVIDIA GPU)倾向于特定布局,编译器就会启动一个转换处理阶段。
这个过程不只涉及转置张量。它需要重写算子本身。如果原始图中包含为NCHW配置的Conv2D算子,编译器会用针对NHWC优化的Conv2D变体替换它。
然而,仅仅替换算子是不够的,因为来自用户或前一层的输入数据可能仍是原始格式。编译器必须插入布局转换节点,通常称为 Transpose 或 Permute,以使数据匹配。
设想一个子图,其中卷积后接着ReLU激活函数 (activation function):
编译器还会执行布局传播。如果多个卷积按顺序发生,在每层之间来回转置数据会降低效率。编译器通过逐元素运算(如ReLU,它与布局无关)传播首选布局,以减少转置操作的数量。
除了标准的NCHW和NHWC格式,编译器经常为特定后端目标使用分块布局(也称为平铺或打包布局)。这些是混合格式,旨在使数据精确地适配特定CPU架构(如AVX-512)的向量 (vector)寄存器或矩阵单元。
常见的块状布局是 NCHWc,通常表示为 。在这里,通道维度 被分成一个外部维度和一个大小为 的内部块。例如,如果 ,该布局将16个通道分组在一起。这确保了内部维度总是向量长度的倍数,从而消除了在核的最内层循环中进行复杂边界检查的必要。
使用分块布局需要编译器完全重写消费核的索引逻辑。尽管这增加了代码生成的复杂程度,但在CPU上的性能提升是可观的,通常比标准NCHW执行快2到3倍。
布局转换并非总是有利。编译器插入的Transpose操作会产生内存带宽开销。编译器使用成本模型来权衡其益处。
如果一个图包含单个轻量级卷积,后跟内存密集型操作,则数据重排的开销可能超过优化卷积核带来的速度提升。现代ML编译器使用启发式方法或自动调优结果来判断布局转换是否对特定模型和硬件组合来说是全局优化的。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•