趋近智
基本的训练后量化(PTQ)方法在严格应用时可能面临挑战,特别是对于INT4甚至INT8这样的低比特宽度,无论是权重还是激活值。这种困难的主要原因在于模型内部值的分布,特别是激活张量中存在大量级的值,通常被称为离群值。
大型语言模型经常出现激活张量中少数值远大于其余值的情况。这在注意力机制层或多层感知机(MLP)块的中间输出中很常见。对这些激活值进行量化时,这些离群值会极大地扩大用于确定量化比例因子和零点的所需范围 。如果采用按张量量化方案,比例因子会被拉伸以适应这少数几个大值。这会将大多数较小、更常见的激活值压缩到非常少的量化区间内,导致精度显著下降,并最终降低模型准确性。
想象一下,在一个房间里,既有普通人,也有身材高大的篮球运动员,你尝试用一根只标有英尺刻度的尺子来测量他们的身高。这位篮球运动员迫使你使用一个缺乏更精细分辨率(英寸)的刻度,而这种分辨率对于准确表示普通身材个体之间的身高差异是必需的。
SmoothQuant 为此问题提供了一个巧妙的解决办法。SmoothQuant 不直接尝试量化具有困难分布的激活值,而是旨在将量化难度从激活值(由于离群值而难以量化)转移到权重(通常更容易量化)。它通过在量化之前应用一个数学上等效的变换来实现这一点。
考虑LLM层中典型的矩阵乘法: 这里, 表示输入激活张量, 表示权重张量。SmoothQuant 引入了一个对角缩放矩阵 (意味着所有非对角元素均为零),并将方程变换如下: 我们定义变换后的激活值和权重: 计算在数学上保持一致:。然而,主要思路是仔细选择 中的缩放因子。目标是使变换后的激活值 "更平滑" —— 意味着它们具有更小的动态范围(即 相较于 减小),因此更容易准确量化。
应用于激活值 () 的缩放因子通过将逆缩放 () 应用于权重来抵消。这意味着 中的值通常会比 中的值更大。然而,权重的分布通常比带有离群值的激活值更规则,这使得它们在量化过程中对这种幅度的增加更具适应性。我们已有效地将缩放挑战从有问题的激活值转移到更容易处理的权重。
缩放因子 ( 的对角元素)通常按通道计算。该计算旨在平衡每个输出通道 中激活值和权重之间的动态范围。确定 的一个常见方法是: 这里:
使用 2 的幂作为缩放因子有时对硬件效率有益,尽管其原理保持不变。
上图说明了 SmoothQuant 如何减小激活值的最大绝对值(动态范围),同时可能增加权重的范围,使激活值更易于量化。
SmoothQuant 具有多项优点:
然而,也有一些需要考虑的地方:
与其他高级PTQ方法相比,SmoothQuant 特别关注激活值和权重分布之间的相互影响。虽然 GPTQ 等方法侧重于精密的权重量化,AWQ 基于激活值幅度保护显著权重,但 SmoothQuant 执行一个前置的数学平滑操作,使激活值和权重在之后都更适合标准的量化技术。它是一种有用的工具,用于实现精确的低精度量化,尤其是在激活离群值是主要问题时。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造