趋近智
SHAP(SHapley 加性解释)值源自合作博弈论中的Shapley值,提供了一种系统性方法,将模型预测的输出归因于其输入特征。但是,是什么让SHAP值成为一种特别有吸引力的方法呢?它们的优势在于其独有的、在一众加性特征归因方法中满足的一系列理想数学特性。理解这些特性有助于阐明为什么SHAP提供一致且可靠的解释。
SHAP解释遵循从Shapley值继承而来的三个主要特性:
此特性确保对单个预测提供的解释能准确反映模型对该实例的输出。具体而言,给定预测的所有输入特征()的SHAP值()之和,等于模型对该实例的预测()与整个数据集或背景数据集上的平均预测(,也称为基准值或期望值)之间的差值。
在数学上,这表达为:
意义: 局部准确性确保特征贡献的总和精确地解释了特定预测与基准线之间的差异。它提供了在局部层面预测值的完整归因。如果一个特征使预测值更高,它将获得正的SHAP值;如果使其更低,它将获得负的SHAP值。这些影响的总和与模型偏离平均值的程度精确匹配。
缺失性特性表明,对预测确实没有影响的特征应被赋予零SHAP值。如果特征 在其值不影响模型对特定实例 的输出(可能是因为它未包含在正在评估的特征子集中,或者其值使得模型忽略它)的意义上是“缺失”的,那么其归因重要性应为零。
符号上,如果特征 没有边际贡献,则:
意义: 这与直觉一致。对预测结果没有贡献的特征,不应在解释中获得任何功劳或责任。这避免了归因方法将虚假重要性赋予不相关输入。
一致性可以说是区分SHAP与其他方法的最重要特性。它表明,如果模型发生变化,使某个特征的边际贡献增加或保持不变(无论是否存在其他特征),则分配给该特征的SHAP值也应增加或保持不变。如果特征的影响变得严格更大,其值绝不应减少。
让我们考虑两个模型, 和 。如果对于特定特征 和其他特征的所有可能子集 ,特征 在模型 中的贡献大于或等于其在模型 中的贡献:
那么,一致性特性确保特征 的SHAP值也将反映这种增加的重要性:
意义: 一致性确保特征重要性度量与模型实际使用特征的方式相符。如果一个特征在模型逻辑中变得统一地更重要,其SHAP值不会出现反常的下降。这提供了一个保证,即SHAP值能忠实地呈现特征影响,使得解释比可能违反此特性的方法更可靠、更值得信赖。例如,从基于树的模型(如增益或置换重要性)中得出的标准特征重要性度量并不总是满足一致性。
这三个特性根植于博弈论,为SHAP提供了坚实的理论根基。它们确保解释在局部层面是准确的(局部准确性),忽略不相关特征(缺失性),并可靠地反映特征贡献的变化(一致性)。这些特性使SHAP成为一个用于解释复杂机器学习模型的强大且被广泛采用的框架。在确立了这些特性之后,我们现在可以考虑计算SHAP值的实用方法。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造