趋近智
本章介绍XGBoost(极限梯度提升),直接基于前面讨论的梯度提升基本思想和正则化 (regularization)方法。XGBoost是一种常用且有效的梯度提升实现方式,以多项重要改进为特点,旨在提升性能和准确性。
我们将分析使XGBoost高效的核心构成部分:
在本章结束时,您将掌握XGBoost背后的技术细节,并准备好使用其Python库进行实现,为实际应用配置其主要参数 (parameter)。
4.1 GBM 的原理及优化
4.2 正则化学习目标
4.3 分裂查找算法:精确贪心
4.4 分割查找算法:近似贪婪算法
4.5 稀疏感知分裂查找
4.6 系统优化:缓存感知与并行处理
4.7 XGBoost API: 参数与配置
4.8 实践操作:实现XGBoost
© 2026 ApX Machine Learning用心打造