回归树#
算法描述链接: 决策树
- class interpret.glassbox.RegressionTree(feature_names=None, feature_types=None, max_depth=3, **kwargs)#
浅深度回归树。
用低深度初始化树。
- 参数:
feature_names – 特征名称列表。
feature_types – 特征类型列表。
max_depth – 树的最大深度。
**kwargs – 传递给树的 __init__() 方法的 Kwargs 参数。
- explain_global(name=None)#
提供模型的全局解释。
- 参数:
name – 用户定义的解释名称。
- 返回:
一个解释对象,将特征-值对可视化为水平条形图。
- explain_local(X, y=None, name=None)#
为提供的实例提供局部解释。
- 参数:
X – 用于解释 X 的 Numpy 数组。
y – 用于解释 y 的 Numpy 向量。
name – 用户定义的解释名称。
- 返回:
一个解释对象。
- fit(X, y, sample_weight=None, check_input=True)#
将模型拟合到提供的实例。
- 参数:
X – 用于训练实例的 Numpy 数组。
y – 作为训练标签的 Numpy 数组。
sample_weight (可选[np.ndarray]) – (n_samples,) 样本权重。如果为 None(默认),则样本权重相等。在每个节点中搜索分割点时,会忽略那些会创建净权重为零或负数的子节点的分割。
check_input (bool) – default=True。允许绕过一些输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
自身。
- predict(X)#
对提供的实例进行预测。
- 参数:
X – 用于实例的 Numpy 数组。
- 返回:
每个实例的预测值。
- score(X, y, sample_weight=None)#
返回预测的决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,\(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最佳可能得分为 1.0,也可能为负(因为模型可能任意差)。忽略输入特征,总是预测 y 期望值的常数模型会获得 \(R^2\) 得分 0.0。- 参数:
X (形状为 (n_samples, n_features) 的类数组) – 测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个通用对象的列表,其形状为
(n_samples, n_samples_fitted)
,其中n_samples_fitted
是用于拟合估计器的样本数量。y (形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组) – X 的真实值。
sample_weight (形状为 (n_samples,) 的类数组, default=None) – 样本权重。
- 返回:
score –
self.predict(X)
相对于 y 的 \(R^2\) 值。- 返回类型:
float
注意
在回归器上调用
score
时使用的 \(R^2\) 分数从 0.23 版本开始使用multioutput='uniform_average'
,以与r2_score()
的默认值保持一致。这会影响所有多输出回归器的score
方法(MultiOutputRegressor
除外)。