lightgbm.LGBMRanker
- class lightgbm.LGBMRanker(*, boosting_type='gbdt', num_leaves=31, max_depth=-1, learning_rate=0.1, n_estimators=100, subsample_for_bin=200000, objective=None, class_weight=None, min_split_gain=0.0, min_child_weight=0.001, min_child_samples=20, subsample=1.0, subsample_freq=0, colsample_bytree=1.0, reg_alpha=0.0, reg_lambda=0.0, random_state=None, n_jobs=None, importance_type='split', **kwargs)[source]
- 基类: - LGBMModel- LightGBM 排序器。 - 警告 - scikit-learn 尚不支持排序应用,因此此类别与 sklearn 生态系统不完全兼容。请主要在常见的 sklearn 式方式下使用此类别进行排序模型的训练和应用。 - __init__(*, boosting_type='gbdt', num_leaves=31, max_depth=-1, learning_rate=0.1, n_estimators=100, subsample_for_bin=200000, objective=None, class_weight=None, min_split_gain=0.0, min_child_weight=0.001, min_child_samples=20, subsample=1.0, subsample_freq=0, colsample_bytree=1.0, reg_alpha=0.0, reg_lambda=0.0, random_state=None, n_jobs=None, importance_type='split', **kwargs)[source]
- 构建梯度提升模型。 - 参数:
- boosting_type (str, 可选 (默认='gbdt')) – ‘gbdt’,传统的梯度提升决策树(Gradient Boosting Decision Tree)。‘dart’,Dropout meets Multiple Additive Regression Trees。‘rf’,随机森林(Random Forest)。 
- num_leaves (int, 可选 (默认=31)) – 基础学习器的最大叶子数。 
- max_depth (int, 可选 (默认=-1)) – 基础学习器的最大树深度,<=0 表示没有限制。如果设置为正值,请考虑将 - num_leaves也更改为- <= 2^max_depth。
- learning_rate (float, 可选 (默认=0.1)) – 提升学习率。您可以使用 - fit方法的- callbacks参数,通过- reset_parameter回调在训练中缩小/调整学习率。请注意,这将忽略训练中的- learning_rate参数。
- n_estimators (int, 可选 (默认=100)) – 要拟合的提升树数量。 
- subsample_for_bin (int, 可选 (默认=200000)) – 用于构建分箱的样本数量。 
- objective (str, callable 或 None, 可选 (默认=None)) – 指定学习任务和相应的学习目标或要使用的自定义目标函数(见下文注释)。默认:LGBMRegressor 为 ‘regression’,LGBMClassifier 为 ‘binary’ 或 ‘multiclass’,LGBMRanker 为 ‘lambdarank’。 
- class_weight (dict, 'balanced' 或 None, 可选 (默认=None)) – 与类相关的权重,形式为 - {class_label: weight}。仅用于多类别分类任务;对于二元分类任务,您可以使用- is_unbalance或- scale_pos_weight参数。请注意,使用所有这些参数将导致对个体类概率的估计不佳。您可能需要考虑对模型执行概率校准(https://scikit-learn.cn/stable/modules/calibration.html)。‘balanced’ 模式使用 y 的值根据输入数据中的类频率自动调整权重,调整方式为- n_samples / (n_classes * np.bincount(y))。如果为 None,则所有类别的权重假定为一。请注意,如果指定了- sample_weight(通过- fit方法传入),这些权重将与- sample_weight相乘。
- min_split_gain (float, 可选 (默认=0.)) – 在树的叶节点上进行进一步划分所需的最小损失减少。 
- min_child_weight (float, 可选 (默认=1e-3)) – 子节点(叶子)所需的最小实例权重(Hessian)总和。 
- min_child_samples (int, 可选 (默认=20)) – 子节点(叶子)所需的最小数据数量。 
- subsample (float, 可选 (默认=1.)) – 训练实例的子采样比例。 
- subsample_freq (int, 可选 (默认=0)) – 子采样频率,<=0 表示不启用。 
- colsample_bytree (float, 可选 (默认=1.)) – 构建每棵树时列的子采样比例。 
- reg_alpha (float, 可选 (默认=0.)) – 权重上的 L1 正则化项。 
- reg_lambda (float, 可选 (默认=0.)) – 权重上的 L2 正则化项。 
- random_state (int, RandomState 对象 或 None, 可选 (默认=None)) – 随机数种子。如果是 int,此数字用于为 C++ 代码设置种子。如果是 RandomState 或 Generator 对象(numpy),则根据其状态选择一个随机整数来为 C++ 代码设置种子。如果为 None,则使用 C++ 代码中的默认种子。 
- n_jobs (int 或 None, 可选 (默认=None)) – - 用于训练的并行线程数(可在预测时作为额外关键字参数传递来更改)。 - 为了更好的性能,建议将其设置为 CPU 中的物理核心数。 - 负整数的解释遵循 joblib 的公式 (n_cpus + 1 + n_jobs),与 scikit-learn 类似(因此例如 -1 表示使用所有线程)。零值对应于系统中为 OpenMP 配置的默认线程数。None 值(默认)对应于使用系统中的物理核心数(正确检测它需要安装 - joblib或- psutil工具库)。- 版本 4.0.0 中更改。 
- importance_type (str, 可选 (默认='split')) – 要填充到 - feature_importances_中的特征重要性类型。如果是 ‘split’,结果包含特征在模型中被使用的次数。如果是 ‘gain’,结果包含使用该特征的分割的总增益。
- **kwargs – - 模型的其他参数。有关更多参数,请参阅 https://lightgbm.cn/en/stable/Parameters.html。 - 警告 - sklearn 中不支持 **kwargs,这可能会导致意外问题。 
 
 - 注释 - 可以为 - objective参数提供自定义目标函数。在这种情况下,它应该具有以下签名:- objective(y_true, y_pred) -> grad, hess、- objective(y_true, y_pred, weight) -> grad, hess或- objective(y_true, y_pred, weight, group) -> grad, hess- y_true形状为 [n_samples] 的 numpy 1-D 数组
- 目标值。 
- y_pred形状为 [n_samples] 的 numpy 1-D 数组 或 形状为 [n_samples, n_classes] 的 numpy 2-D 数组(用于多类别任务)
- 预测值。预测值在任何转换之前返回,例如,对于二元任务,它们是原始边距而非正类概率。 
- weight形状为 [n_samples] 的 numpy 1-D 数组
- 样本权重。权重应为非负。 
- groupnumpy 1-D 数组
- 分组/查询数据。仅用于学习排序任务。sum(group) = n_samples。例如,如果您有一个包含 100 个文档的数据集,其中 - group = [10, 20, 40, 10, 10, 10],这意味着您有 6 个分组,其中前 10 条记录在第一个分组中,记录 11-30 在第二个分组中,记录 31-70 在第三个分组中,等等。
- grad形状为 [n_samples] 的 numpy 1-D 数组 或 形状为 [n_samples, n_classes] 的 numpy 2-D 数组(用于多类别任务)
- 损失函数对每个样本点 y_pred 的一阶导数值(梯度)。 
- hess形状为 [n_samples] 的 numpy 1-D 数组 或 形状为 [n_samples, n_classes] 的 numpy 2-D 数组(用于多类别任务)
- 损失函数对每个样本点 y_pred 的二阶导数值(Hessian)。 
 - 对于多类别任务,y_pred 是形状为 [n_samples, n_classes] 的 numpy 2-D 数组,并且 grad 和 hess 应以相同的格式返回。 
 - 方法 - __init__(*[, boosting_type, num_leaves, ...])- 构建梯度提升模型。 - fit(X, y[, sample_weight, init_score, ...])- 从训练集 (X, y) 构建梯度提升模型。 - 获取此对象的元数据路由。 - get_params([deep])- 获取此估计器的参数。 - predict(X[, raw_score, start_iteration, ...])- 返回每个样本的预测值。 - set_fit_request(*[, callbacks, ...])- 请求传递给 - fit方法的元数据。- set_params(**params)- 设置此估计器的参数。 - set_predict_request(*[, num_iteration, ...])- 请求传递给 - predict方法的元数据。- 属性 - 如果指定了 - early_stopping()回调,则为拟合模型的最佳迭代次数。- 拟合模型的最佳分数。 - 此模型底层的 Booster。 - 如果指定了验证集,则为评估结果。 - 特征重要性(越高越重要)。 - 特征名称。 - 与 scikit-learn 兼容的 - .feature_name_版本。- 执行的实际提升迭代次数。 - 拟合模型的特征数量。 - 拟合模型的特征数量。 - 执行的实际提升迭代次数。 - 拟合此模型时使用的具体目标。 - property best_iteration_
- 如果指定了 - early_stopping()回调,则为拟合模型的最佳迭代次数。- 类型:
- int
 
 - property best_score_
- 拟合模型的最佳分数。 - 类型:
- dict
 
 - property evals_result_
- 如果指定了验证集,则为评估结果。 - 类型:
- dict
 
 - property feature_importances_
- 特征重要性(越高越重要)。 - 注释 - importance_type属性被传递给函数以配置要提取的重要性值类型。- 类型:
- 形状为 [n_features] 的 - array
 
 - property feature_name_
- 特征名称。 - 注释 - 如果输入不包含特征名称,它们将在拟合期间以 - Column_0、- Column_1、...、- Column_N的格式添加。- 类型:
- 形状为 [n_features] 的 - list
 
 - property feature_names_in_
- 与 scikit-learn 兼容的 - .feature_name_版本。- 版本 4.5.0 新增。 - 类型:
- 形状为 [n_features] 的 - array
 
 - fit(X, y, sample_weight=None, init_score=None, group=None, eval_set=None, eval_names=None, eval_sample_weight=None, eval_init_score=None, eval_group=None, eval_metric=None, eval_at=(1, 2, 3, 4, 5), feature_name='auto', categorical_feature='auto', callbacks=None, init_model=None)[source]
- 从训练集 (X, y) 构建梯度提升模型。 - 参数:
- X (numpy 数组, pandas DataFrame, H2O DataTable 的 Frame (已弃用), scipy.sparse, int 或 float 列表的列表, 形状为 = [n_samples, n_features]) – 输入特征矩阵。 
- y (numpy 数组, pandas DataFrame, pandas Series, int 或 float 列表, 形状为 = [n_samples]) – 目标值(分类中的类标签,回归中的实数)。 
- sample_weight (numpy 数组, pandas Series, int 或 float 列表, 形状为 = [n_samples] 或 None, 可选 (默认=None)) – 训练数据的权重。权重应为非负。 
- init_score (numpy 数组, pandas DataFrame, pandas Series, int 或 float 列表, 形状为 = [n_samples] 或 形状为 = [n_samples * n_classes] (用于多类别任务) 或 形状为 = [n_samples, n_classes] (用于多类别任务) 或 None, 可选 (默认=None)) – 训练数据的初始分数。 
- group (numpy 数组, pandas Series, int 或 float 列表, 或 None, 可选 (默认=None)) – 分组/查询数据。仅用于学习排序任务。sum(group) = n_samples。例如,如果您有一个包含 100 个文档的数据集,其中 - group = [10, 20, 40, 10, 10, 10],这意味着您有 6 个分组,其中前 10 条记录在第一个分组中,记录 11-30 在第二个分组中,记录 31-70 在第三个分组中,等等。
- eval_set (list 或 None, 可选 (默认=None)) – 用作验证集的 (X, y) 元组对列表。 
- eval_names (str 列表, 或 None, 可选 (默认=None)) – eval_set 的名称。 
- eval_sample_weight (array 列表(与 - sample_weight支持的类型相同),或 None,可选(默认=None)) – 评估数据的权重。权重应为非负。
- eval_init_score (array 列表(与 - init_score支持的类型相同),或 None,可选(默认=None)) – 评估数据的初始分数。
- eval_group (array 列表(与 - group支持的类型相同),或 None,可选(默认=None)) – 评估数据的分组数据。
- eval_metric (str, callable, list 或 None, 可选 (默认=None)) – 如果是 str,则应为要使用的内置评估指标。如果是 callable,则应为自定义评估指标,更多详细信息请参阅下面的注释。如果是 list,则可以是内置指标列表、自定义评估指标列表,或两者的混合。在任何情况下,模型参数中的 - metric也将被评估和使用。默认:LGBMRegressor 为 ‘l2’,LGBMClassifier 为 ‘logloss’,LGBMRanker 为 ‘ndcg’。
- eval_at (int 列表 或 元组, 可选 (默认=(1, 2, 3, 4, 5))) – 指定指标的评估位置。 
- feature_name (str 列表, 或 'auto', 可选 (默认='auto')) – 特征名称。如果为 ‘auto’ 且数据是 pandas DataFrame,则使用数据列名。 
- categorical_feature (str 或 int 列表, 或 'auto', 可选 (默认='auto')) – 类别特征。如果是 int 列表,则解释为索引。如果是 str 列表,则解释为特征名称(也需要指定 - feature_name)。如果为 ‘auto’ 且数据是 pandas DataFrame,则使用 pandas 无序类别列。类别特征中的所有值都将被转换为 int32,因此应小于 int32 的最大值 (2147483647)。大值可能会消耗大量内存。考虑使用从零开始的连续整数。类别特征中的所有负值都将被视为缺失值。输出对于类别特征不能进行单调约束。类别特征中的浮点数将四舍五入到 0。
- callbacks (callable 列表, 或 None, 可选 (默认=None)) – 在每次迭代时应用的 callback 函数列表。更多信息请参阅 Python API 中的回调。 
- init_model (str, pathlib.Path, Booster, LGBMModel 或 None, 可选 (默认=None)) – LightGBM 模型的文件名、用于继续训练的 Booster 实例或 LGBMModel 实例。 
 
- 返回:
- self – 返回 self。 
- 返回类型:
 - 注释 - 自定义评估函数期望一个具有以下签名的可调用对象: - func(y_true, y_pred)、- func(y_true, y_pred, weight)或- func(y_true, y_pred, weight, group),并返回 (eval_name, eval_result, is_higher_better) 或 (eval_name, eval_result, is_higher_better) 列表- y_true形状为 [n_samples] 的 numpy 1-D 数组
- 目标值。 
- y_pred形状为 [n_samples] 的 numpy 1-D 数组 或 形状为 [n_samples, n_classes] 的 numpy 2-D 数组(用于多类别任务)
- 预测值。在自定义 - objective的情况下,预测值在任何转换之前返回,例如,在这种情况下,对于二元任务,它们是原始边距而不是正类的概率。
- weight形状为 [n_samples] 的 numpy 1-D 数组
- 样本权重。权重应为非负。 
- groupnumpy 1-D 数组
- 分组/查询数据。仅用于学习排序任务。sum(group) = n_samples。例如,如果您有一个包含 100 个文档的数据集,其中 - group = [10, 20, 40, 10, 10, 10],这意味着您有 6 个分组,其中前 10 条记录在第一个分组中,记录 11-30 在第二个分组中,记录 31-70 在第三个分组中,等等。
- eval_namestr
- 评估函数的名称(不含空格)。 
- eval_resultfloat
- 评估结果。 
- is_higher_betterbool
- 评估结果是否越高越好,例如 AUC 是 - is_higher_better。
 
 - get_metadata_routing()
- 获取此对象的元数据路由。 - 请查看 用户指南 了解路由机制的工作原理。 - 返回:
- routing – 封装路由信息的 - MetadataRequest。
- 返回类型:
- MetadataRequest 
 
 - get_params(deep=True)
- 获取此估计器的参数。 - 参数:
- deep (bool, 可选 (默认=True)) – 如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。 
- 返回:
- params – 参数名称映射到其值。 
- 返回类型:
- dict 
 
 - property n_estimators_
- 执行的实际提升迭代次数。 - 如果启用了早期停止,或者由于 - min_gain_to_split等复杂性限制导致提升提前停止,这可能小于参数- n_estimators。- 版本 4.0.0 新增。 - 类型:
- int
 
 - property n_features_
- 拟合模型的特征数量。 - 类型:
- int
 
 - property n_features_in_
- 拟合模型的特征数量。 - 类型:
- int
 
 - property n_iter_
- 执行的实际提升迭代次数。 - 如果启用了早期停止,或者由于 - min_gain_to_split等复杂性限制导致提升提前停止,这可能小于参数- n_estimators。- 版本 4.0.0 新增。 - 类型:
- int
 
 - property objective_
- 拟合此模型时使用的具体目标。 - 类型:
- str或- callable
 
 - predict(X, raw_score=False, start_iteration=0, num_iteration=None, pred_leaf=False, pred_contrib=False, validate_features=False, **kwargs)
- 返回每个样本的预测值。 - 参数:
- X (numpy 数组, pandas DataFrame, H2O DataTable 的 Frame (已弃用), scipy.sparse, int 或 float 列表的列表, 形状为 = [n_samples, n_features]) – 输入特征矩阵。 
- raw_score (bool, 可选 (默认=False)) – 是否预测原始分数。 
- start_iteration (int, 可选 (默认=0)) – 预测的迭代起始索引。如果 <= 0,则从第一次迭代开始。 
- num_iteration (int 或 None, 可选 (默认=None)) – 预测中使用的总迭代次数。如果为 None,如果存在最佳迭代且 start_iteration <= 0,则使用最佳迭代;否则,使用从 - start_iteration开始的所有迭代(无限制)。如果 <= 0,则使用从- start_iteration开始的所有迭代(无限制)。
- pred_leaf (bool, 可选 (默认=False)) – 是否预测叶子索引。 
- pred_contrib (bool, 可选 (默认=False)) – - 是否预测特征贡献。 - 注释 - 如果您想使用 SHAP 值(如 SHAP 交互值)获取模型的预测解释,可以安装 shap 包(https://github.com/slundberg/shap)。请注意,与 shap 包不同,使用 - pred_contrib时,我们返回一个额外列的矩阵,最后一列是期望值。
- validate_features (bool, 可选 (默认=False)) – 如果为 True,确保用于预测的特征与用于训练的特征匹配。仅当数据是 pandas DataFrame 时使用。 
- **kwargs – 预测的其他参数。 
 
- 返回:
- predicted_result (array-like, 形状为 [n_samples] 或 形状为 [n_samples, n_classes]) – 预测值。 
- X_leaves (array-like, 形状为 [n_samples, n_trees] 或 形状为 [n_samples, n_trees * n_classes]) – 如果 - pred_leaf=True,则为每个样本的每棵树的预测叶子。
- X_SHAP_values (array-like, 形状为 [n_samples, n_features + 1] 或 形状为 [n_samples, (n_features + 1) * n_classes] 或 长度为 n_classes 的此类对象列表) – 如果 - pred_contrib=True,则为每个样本的特征贡献。
 
 
 - set_fit_request(*, callbacks='$UNCHANGED$', categorical_feature='$UNCHANGED$', eval_at='$UNCHANGED$', eval_group='$UNCHANGED$', eval_init_score='$UNCHANGED$', eval_metric='$UNCHANGED$', eval_names='$UNCHANGED$', eval_sample_weight='$UNCHANGED$', eval_set='$UNCHANGED$', feature_name='$UNCHANGED$', group='$UNCHANGED$', init_model='$UNCHANGED$', init_score='$UNCHANGED$', sample_weight='$UNCHANGED$')
- 请求传递给 - fit方法的元数据。- 请注意,此方法仅在 - enable_metadata_routing=True时相关(参见- sklearn.set_config())。请参阅 用户指南 了解路由机制的工作原理。- 每个参数的选项如下: - True:请求元数据,并在提供时传递给- fit。如果未提供元数据,则忽略请求。
- False:不请求元数据,并且元估计器不会将其传递给- fit。
- None:不请求元数据,如果用户提供元数据,元估计器将引发错误。
- str:元数据应以给定的别名而非原始名称传递给元估计器。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。- 版本 1.3 新增。 - 注释 - 此方法仅当此估计器用作元估计器的子估计器时相关,例如,在 - Pipeline内使用。否则它无效。- 参数:
- callbacks (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- callbacks参数的元数据路由。
- categorical_feature (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- categorical_feature参数的元数据路由。
- eval_at (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_at参数的元数据路由。
- eval_group (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_group参数的元数据路由。
- eval_init_score (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_init_score参数的元数据路由。
- eval_metric (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_metric参数的元数据路由。
- eval_names (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_names参数的元数据路由。
- eval_sample_weight (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_sample_weight参数的元数据路由。
- eval_set (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- eval_set参数的元数据路由。
- feature_name (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- feature_name参数的元数据路由。
- group (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- group参数的元数据路由。
- init_model (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- init_model参数的元数据路由。
- init_score (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- init_score参数的元数据路由。
- sample_weight (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - fit方法中- sample_weight参数的元数据路由。
 
- 返回:
- self – 更新后的对象。 
- 返回类型:
- object 
 
 - set_params(**params)
- 设置此估计器的参数。 - 参数:
- **params – 参数名称及其新值。 
- 返回:
- self – 返回 self。 
- 返回类型:
- object 
 
 - set_predict_request(*, num_iteration='$UNCHANGED$', pred_contrib='$UNCHANGED$', pred_leaf='$UNCHANGED$', raw_score='$UNCHANGED$', start_iteration='$UNCHANGED$', validate_features='$UNCHANGED$')
- 请求传递给 - predict方法的元数据。- 请注意,此方法仅在 - enable_metadata_routing=True时相关(参见- sklearn.set_config())。请参阅 用户指南 了解路由机制的工作原理。- 每个参数的选项如下: - True:请求元数据,并在提供时传递给- predict。如果未提供元数据,则忽略请求。
- False:不请求元数据,并且元估计器不会将其传递给- predict。
- None:不请求元数据,如果用户提供元数据,元估计器将引发错误。
- str:元数据应以给定的别名而非原始名称传递给元估计器。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。- 版本 1.3 新增。 - 注释 - 此方法仅当此估计器用作元估计器的子估计器时相关,例如,在 - Pipeline内使用。否则它无效。- 参数:
- num_iteration (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - predict方法中- num_iteration参数的元数据路由。
- pred_contrib (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - predict方法中- pred_contrib参数的元数据路由。
- pred_leaf (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - predict方法中- pred_leaf参数的元数据路由。
- raw_score (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - predict方法中- raw_score参数的元数据路由。
- start_iteration (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - predict方法中- start_iteration参数的元数据路由。
- validate_features (str, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED) – - predict方法中- validate_features参数的元数据路由。
 
- 返回:
- self – 更新后的对象。 
- 返回类型:
- object