趋近智
尽管“可解释性”和“解释性”这两个术语在讨论理解机器学习模型时常被互换使用,但它们拥有不同的含义。当我们研究查看“黑箱”内部的方法时,认识到这种区别会有所助益。
可解释性指的是人类能够持续预测模型输出或理解其内部机制的程度。可将其视为模型本身的固有透明度。您能多容易地掌握模型将输入特征(X)转化为预测(y)的过程?
模型固有的可解释性差异很大:
因此,可解释性根本在于模型本身的结构和参数是否可理解。
解释性侧重于为模型的输出提供人类可理解的原因,无论模型内部多么复杂。它关乎在模型做出预测或习得普遍行为之后提取见解或依据。解释性通常依赖辅助技术,特别是对于缺乏固有可解释性的模型。
解释性的目标是回答以下问题:
像LIME和SHAP这样的技术,我们将在稍后详细介绍,它们主要是实现解释性的工具。它们旨在为可能是复杂、不可解释的模型提供对其行为的见解。
以下是一种阐述区别的方式:
想象一位技艺精湛的厨师(即模型)。
尽管固有的可解释模型通常也具备解释性,但模型无需完全可解释即可具备解释性。我们通常正是因为模型缺乏固有的可解释性,才应用解释性技术。本课程的主要侧重点是那些能为复杂、强大的机器学习模型提供解释性的技术。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造