趋近智
梯度提升机 (GBM) 的灵活性源于其能够优化任何可微分的损失函数 (loss function)。对于回归问题,这意味着我们可以选择一个最能契合我们性能目标和数据误差特点的函数。损失函数通过界定每个后续树应尝试修正的“错误”,直接指引算法。
回归问题中最普遍的选择,也常是许多库中的默认设置,是均方误差 (MSE),亦称 L2 损失。它衡量误差平方的平均值。对于单个预测,损失计算如下:
引入 这个因子是为了数学上的便利,因为它简化了导数。
MSE 的主要特点是它对较大误差的惩罚远重于较小误差。一个 4 的误差受到的惩罚是 1 的误差的 16 倍。这一特性使得模型集中精力减少大误差,这通常是人们乐见的。
当我们求得该损失函数 (loss function)相对于预测 的负梯度时,与 GBM 核心算法的关联变得明确:
这展现了一个非常直观的结果:使用 MSE 时,负梯度正好是残差。这就是为什么标准的 GBM 回归算法常被描述为每个新树都被训练来预测前一个模型预测的残差。
然而,MSE 对大误差的敏感性也可能是一个弊端。如果您的数据集包含明显异常值,模型可能会将其过多能力用于修正这几个异常点,可能以牺牲其在其余数据上的表现为代价。
作为一种替代方案,我们可以使用平均绝对误差 (MAE),或 L1 损失。该函数衡量真实值与预测值之间绝对差的平均值。
与 MSE 不同,MAE 线性地惩罚误差。一个 4 的误差受到的惩罚仅是 1 的误差的 4 倍。这使得用 MAE 训练的模型对异常值更有抵抗力,因为单个大误差不会主导梯度计算。
MAE 的负梯度是残差的符号:
梯度为 +1 或 -1(取决于预测值是过低还是过高),表明误差的方向而非其大小。这阻止异常值在后续弱学习器的训练中产生过大的影响。
Huber 损失在 MSE 的敏感性与 MAE 的鲁棒性之间提供了一种折衷。它对于小误差呈二次方行为(如 MSE),对于大误差呈线性行为(如 MAE)。这使其对异常值不那么敏感,同时仍能精细调整接近真实值的预测。
该函数分段定义如下:
参数 (parameter) (delta) 是您可以调整的阈值。它界定了损失函数 (loss function)从二次方转变为线性的点。小于 的误差用平方项来最小化,而较大误差则用绝对项来最小化。
随着预测误差的增加,不同损失函数的行为表现。MSE 呈二次方增长,严厉惩罚大误差。MAE 呈线性增长,使其对异常值不那么敏感。Huber 损失结合了这些特性,对小误差呈二次方行为,对大误差呈线性行为。
损失函数的选择应由您的数据集和建模目标来引导。
最终,损失函数是您可用的另一种工具,用于构建一个与您的数据具体特征相符的模型。尝试不同的损失函数有时能明显提升模型表现。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•