ApX 标志ApX 标志

趋近智

梯度提升算法入门
章节 1: 集成学习与提升的基本原理
什么是集成方法?
Bagging 与 Boosting
提升(Boosting)原理介绍
AdaBoost算法:梯度提升算法的前身
了解弱学习器
集成学习中的偏差-方差权衡
章节 2: 梯度提升机 (GBM)
从提升到梯度提升
梯度与残差的作用
梯度提升机算法分步详解
回归任务的损失函数
分类任务的损失函数
动手实践:使用 Python 构建 GBM
章节 3: 使用 Scikit-Learn 实现梯度提升
Scikit-Learn的GradientBoostingClassifier
Scikit-Learn 的 GradientBoostingRegressor
梯度提升模型的拟合与预测
解读模型参数
GBM中的特征贡献度
偏依赖图用于模型解释
实战演练:构建预测模型
章节 4: 梯度提升进阶:XGBoost
为何选择XGBoost?速度与性能
相较于标准GBM的架构改进
XGBoost 中的正则化 (L1 和 L2)
自动处理缺失值
安装与设置XGBoost
XGBoost API:使用指南
动手实践:训练XGBoost模型
章节 5: 高级梯度提升:LightGBM与CatBoost
LightGBM 介绍:基于梯度的单边采样
LightGBM 的独占特征捆绑
CatBoost 简介:处理类别特征
CatBoost的有序提升和对称树
性能比较:XGBoost、LightGBM 与 CatBoost
动手实践:实现 LightGBM 和 CatBoost
章节 6: 超参数调整与模型优化
超参数调优的意义
梯度提升中的主要超参数
调整估计器数量和学习率
控制树的复杂度
正则化的抽样参数
调优的结构化方法
网格搜索与随机搜索的使用
动手实践:优化梯度提升模型