趋近智
尽管训练后量化 (PTQ) 旨在将浮点值范围映射到低精度整数范围,但由于异常值的存在,面临着一个重要的挑战。异常值是指权重或激活张量中远超典型值分布的值。即使一个极端值也可能不成比例地影响量化过程,从而可能导致精度大幅下降。
大多数基本的 PTQ 算法,如 MinMax 量化,是根据在张量中(或校准期间的子集中)观察到的绝对最小值和最大值来确定缩放因子的。设想一个张量,其中大多数值介于 -1.0 和 1.0 之间,但存在一个值为 100.0 的异常值。
如果我们使用 MinMax 缩放,则整个范围从 -1.0 到 100.0 必须映射到可用的整数范围(例如,对于 为 -128 到 127)。
如此大的缩放因子意味着大多数原始值(介于 -1.0 和 1.0 之间)将被压缩到整数范围的一个非常小的部分:
之前在 -1.0 和 1.0 之间表示的所有详细信息现在被挤压到大约 6 个整数值(从 -3 到 3)。整数范围的其余部分(从 -128 到 -4 以及 4 到 127)主要用于映射单个异常值 100.0(该值映射到 ,可能在调整零点后)。这种大部分值的解析度损失常常导致模型性能显著下降。
异常值的存在会大幅拓宽 MinMax 量化所需的范围,从而降低了大部分值的精度。
有几种技术可以减轻 PTQ 期间异常值的负面影响:
裁剪 (饱和): 我们可以不使用校准数据中的绝对最小值和最大值,而是选择阈值(裁剪值),并将超出这些阈值的任何值强制限定到边界值。这个过程也称为饱和。例如,我们可能决定根据校准期间观察到的值的第 1 和第 99 百分位数来裁剪范围。
裁剪通过将异常值饱和到预定义的最小和最大阈值来限制量化范围。
裁剪阈值的选择涉及权衡:裁剪过于激进会丢弃来自潜在重要的较大值的信息,而裁剪过少则会保留常见值分辨率差的问题。选择合适的阈值通常需要使用代表性验证数据集来评估对模型精度的影响。
替代校准方法: 除了简单的 MinMax 之外,其他算法,例如基于最小化 Kullback-Leibler (KL) 散度(熵)或使用均方误差 (MSE) 的算法,本身能更优雅地处理异常值。这些方法试图找到最佳保留整体分布形状或最小化大多数值误差的量化参数,而不是完全由极端值决定。使用基于百分位数的校准可以直接根据百分位数设置范围,从而有效地裁剪异常值。
更细致的量化粒度: 如第一章所述,量化可以按张量、按通道或按组应用。异常值通常不会均匀分布在大型权重张量中。例如,它们可能集中在线性层的特定输出通道中。
使用更细致的粒度会增加元数据开销(需要存储更多的缩放因子/零点值),并且可能需要特定的硬件支持才能获得最佳性能,但它显著提高了对局部异常值的鲁棒性。
高级技术(展望): 像 SmoothQuant(将在第三章讨论)这样的方法明确解决了激活异常值的问题,这些异常值在大型语言模型 (LLM) 中通常比权重异常值更成问题。SmoothQuant 的工作原理是通过数学方式将量化难度从激活(具有难以量化的动态范围)迁移到权重(静态且更易于量化),而不改变层的数学函数。这通常允许即使激活中包含显著异常值也能进行有效的 INT8 量化。
选择合适的异常值处理策略通常涉及实验。从代表性数据集上的 MinMax 校准开始,评估精度,然后如果精度显著下降,则尝试裁剪或更细致的粒度,这是一种常见的工作流程。监测权重和激活的分布也可以提供关于异常值是否是量化错误的可能原因的见解。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造