回归树#

算法描述链接: 决策树

class interpret.glassbox.RegressionTree(feature_names=None, feature_types=None, max_depth=3, **kwargs)#

浅深度回归树。

用低深度初始化树。

参数:
  • feature_names – 特征名称列表。

  • feature_types – 特征类型列表。

  • max_depth – 树的最大深度。

  • **kwargs – 传递给树的 __init__() 方法的 Kwargs 参数。

explain_global(name=None)#

提供模型的全局解释。

参数:

name – 用户定义的解释名称。

返回:

一个解释对象,将特征-值对可视化为水平条形图。

explain_local(X, y=None, name=None)#

为提供的实例提供局部解释。

参数:
  • X – 用于解释 X 的 Numpy 数组。

  • y – 用于解释 y 的 Numpy 向量。

  • name – 用户定义的解释名称。

返回:

一个解释对象。

fit(X, y, sample_weight=None, check_input=True)#

将模型拟合到提供的实例。

参数:
  • X – 用于训练实例的 Numpy 数组。

  • y – 作为训练标签的 Numpy 数组。

  • sample_weight (可选[np.ndarray]) – (n_samples,) 样本权重。如果为 None(默认),则样本权重相等。在每个节点中搜索分割点时,会忽略那些会创建净权重为零或负数的子节点的分割。

  • check_input (bool) – default=True。允许绕过一些输入检查。除非您知道自己在做什么,否则不要使用此参数。

返回:

自身。

predict(X)#

对提供的实例进行预测。

参数:

X – 用于实例的 Numpy 数组。

返回:

每个实例的预测值。

score(X, y, sample_weight=None)#

返回预测的决定系数。

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳可能得分为 1.0,也可能为负(因为模型可能任意差)。忽略输入特征,总是预测 y 期望值的常数模型会获得 \(R^2\) 得分 0.0。

参数:
  • X (形状为 (n_samples, n_features) 的类数组) – 测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个通用对象的列表,其形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是用于拟合估计器的样本数量。

  • y (形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组) – X 的真实值。

  • sample_weight (形状为 (n_samples,) 的类数组, default=None) – 样本权重。

返回:

scoreself.predict(X) 相对于 y\(R^2\) 值。

返回类型:

float

注意

在回归器上调用 score 时使用的 \(R^2\) 分数从 0.23 版本开始使用 multioutput='uniform_average',以与 r2_score() 的默认值保持一致。这会影响所有多输出回归器的 score 方法(MultiOutputRegressor 除外)。