趋近智
梯度提升机 (GBM) 算法的理论基础包括函数梯度下降 (gradient descent)、损失函数 (loss function)、收缩和子抽样。它在实践中可使用 Python 主要机器学习 (machine learning)库之一 Scikit-learn 来有效实现。Scikit-learn 通过其 GradientBoostingRegressor 和 GradientBoostingClassifier 类别提供了良好集成的实现,在熟悉的 API 中封装了 GBM 的核心逻辑。
Scikit-learn 提供了两个主要类别用于梯度提升:
GradientBoostingRegressor: 用于回归任务。GradientBoostingClassifier: 用于分类任务(二元和多类别)。这些类别遵循标准的 Scikit-learn 估计器 API,这意味着它们拥有 fit、predict 和 predict_proba(用于分类器)等方法,以及其他辅助功能。这种一致性简化了它们在现有机器学习 (machine learning)流程中的集成。
本章前面讨论的理论构成部分直接对应于这些 Scikit-learn 类别中的超参数 (hyperparameter)。了解这种对应关系对于有效的模型配置来说是必要的:
loss): 此参数确定要优化的损失函数。
GradientBoostingRegressor:常见选项包括 'ls'(最小二乘回归,相当于平方误差)、'lad'(最小绝对偏差)、'huber'(LS 和 LAD 的组合)和 'quantile'(用于分位数回归)。默认值为 'ls'。GradientBoostingClassifier:主要选项为 'deviance'(对数损失,适用于概率估计,用于二元和多类别分类)和 'exponential'(这实际上重现了 AdaBoost 算法)。默认值为 'deviance'。n_estimators): 这控制了要构建的提升阶段或序列树的数量(在我们之前的符号中为 )。数量越多通常会导致模型越复杂,如果与其他正则化 (regularization)技术不平衡,可能会过拟合 (overfitting)。默认值为 100。learning_rate): 这对应于收缩参数 ()。它调整每棵树的贡献。较低的值在达到类似性能时需要更多的估计器,但通常会提高泛化能力。它通过减小单棵树的影响来作为一种正则化技术。默认值为 0.1。存在一个典型的权衡:较小的 learning_rate 通常需要较大的 n_estimators。subsample): 此参数通过指定用于拟合每个独立基础学习器(树)的样本比例来启用随机梯度提升。如果小于 1.0,它会引入随机性,降低方差,并可以提高泛化能力,通常会略微增加偏差。它还能加快计算速度。默认值为 1.0(无子抽样)。max_depth: 单个回归估计器的最大深度。限制深度可限制模型复杂度。默认值为 3。min_samples_split: 分割内部节点所需的最小样本数。默认值为 2。min_samples_leaf: 叶节点所需的最小样本数。默认值为 1。max_features: 在寻找最佳分割时要考虑的特征数量/比例。引入了类似于随机森林的随机性,并提供了列子抽样。默认值为 None(考虑所有特征)。init): 允许为初始预测 指定一个初始估计器。默认情况下,它使用基于训练数据的简单估计器(例如,回归的均值,分类的对数几率)。让我们演示如何使用 GradientBoostingRegressor。我们将使用一个简单的合成数据集。
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.ensemble import GradientBoostingRegressor
from sklearn.metrics import mean_squared_error
import plotly.graph_objects as go
# 1. 生成合成数据
rng = np.random.RandomState(0)
X = rng.rand(100, 1) * 10
y = np.sin(X).ravel() + rng.normal(0, 0.5, X.shape[0]) # 带有噪声的目标
# 2. 分割数据
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# 3. 初始化并训练 GBM 回归器
gbr = GradientBoostingRegressor(
n_estimators=100, # 树的数量
learning_rate=0.1, # 收缩
max_depth=3, # 每棵树的最大深度
subsample=0.8, # 每棵树使用 80% 的数据
loss='ls', # 最小二乘损失
random_state=42
)
gbr.fit(X_train, y_train)
# 4. 进行预测
y_pred = gbr.predict(X_test)
# 5. 评估模型
mse = mean_squared_error(y_test, y_pred)
print(f"测试均方误差: {mse:.4f}")
# 创建排序后的 X_test 以便更平滑地绘图
X_test_sorted_indices = np.argsort(X_test.ravel())
X_test_sorted = X_test[X_test_sorted_indices]
y_test_sorted = y_test[X_test_sorted_indices]
y_pred_sorted = gbr.predict(X_test_sorted) # 在排序后的 X_test 上进行预测
# 6. 可视化结果(可选)
fig = go.Figure()
fig.add_trace(go.Scatter(x=X_train.ravel(), y=y_train, mode='markers', name='训练数据', marker=dict(color='#a5d8ff', size=8)))
fig.add_trace(go.Scatter(x=X_test_sorted.ravel(), y=y_test_sorted, mode='markers', name='测试数据(实际)', marker=dict(color='#ffc9c9', size=8)))
fig.add_trace(go.Scatter(x=X_test_sorted.ravel(), y=y_pred_sorted, mode='lines', name='GBM 预测', line=dict(color='#f03e3e', width=2)))
fig.update_layout(
title='梯度提升回归器拟合',
xaxis_title='特征 X',
yaxis_title='目标 y',
legend_title='数据',
template='plotly_white',
width=700,
height=400
)
# 在 Jupyter 等环境中显示图表:fig.show()
# 转换为 JSON 以便在网页中显示(如果需要):
# print(fig.to_json())
训练好的梯度提升回归器模型的预测结果与实际测试数据点和原始训练数据进行比较。
分类过程类似,使用 GradientBoostingClassifier。
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_classification
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.metrics import accuracy_score, log_loss
import plotly.graph_objects as go
import pandas as pd
# 1. 生成合成分类数据
X, y = make_classification(n_samples=200, n_features=2, n_informative=2, n_redundant=0,
n_clusters_per_class=1, random_state=42, class_sep=1.0)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# 2. 初始化并训练 GBM 分类器
gbc = GradientBoostingClassifier(
n_estimators=100,
learning_rate=0.1,
max_depth=2, # 较浅的树通常适用于分类
subsample=0.8,
loss='deviance', # 用于概率输出的对数损失
random_state=42
)
gbc.fit(X_train, y_train)
# 3. 进行预测
y_pred = gbc.predict(X_test)
y_pred_proba = gbc.predict_proba(X_test)[:, 1] # 正类的概率
# 4. 评估模型
accuracy = accuracy_score(y_test, y_pred)
logloss = log_loss(y_test, y_pred_proba)
print(f"测试准确度: {accuracy:.4f}")
print(f"测试对数损失: {logloss:.4f}")
# 5. 特征重要性
importances = gbc.feature_importances_
feature_names = [f'特征 {i}' for i in range(X.shape[1])]
importance_df = pd.DataFrame({'特征': feature_names, '重要性': importances})
importance_df = importance_df.sort_values(by='重要性', ascending=False)
print("\n特征重要性:")
print(importance_df)
# 创建特征重要性的 Plotly 条形图
fig_imp = go.Figure(go.Bar(
x=importance_df['重要性'],
y=importance_df['特征'],
orientation='h',
marker_color='#3bc9db'
))
fig_imp.update_layout(
title='GBM 特征重要性',
xaxis_title='重要性得分',
yaxis_title='特征',
yaxis={'categoryorder':'total ascending'}, # 将最重要的显示在顶部
template='plotly_white',
width=600,
height=300
)
# 显示图表:fig_imp.show()
# print(fig_imp.to_json())
训练好的梯度提升分类器得出的特征重要性,表明了每个特征根据杂质减少对模型预测的相对贡献。
如演示所示,训练好的 GBM 模型提供了 feature_importances_ 属性。这些重要性通常是根据该特征在集成中所有树上的分割所带来的损失函数 (loss function)(或像 Friedman MSE 这样的杂质准则)的总减少量计算得出的,并根据受影响的样本数量进行加权。虽然这对于快速评估特征相关性有用,但请记住,这些重要性分数有时可能会产生误导,特别是在特征相关联或比较不同类型或尺度的特征时。后续章节将介绍更先进的解释方法,如 SHAP 值。
Scikit-learn 的 GradientBoostingRegressor 和 GradientBoostingClassifier 为本章讨论的算法提供了扎实、基础的实现。它们是解决许多问题的出色工具,也是理解更复杂提升库的起步。然而,对于要求更高性能、速度优化或高级处理分类数据或缺失值等特殊功能的任务,XGBoost、LightGBM 和 CatBoost 等库(我们将在后续章节中研究)通常提供显著优势。掌握了 GBM 的核心机制及其 Scikit-learn 实现后,您已做好准备来理解这些专门库带来的改进。
这部分内容有帮助吗?
subsample参数直接相关。© 2026 ApX Machine Learning用心打造