逻辑回归#

算法描述链接:线性模型

class interpret.glassbox.LogisticRegression(feature_names=None, feature_types=None, linear_class=<class 'sklearn.linear_model._logistic.LogisticRegression'>, **kwargs)#

逻辑回归。

当前是 scikit-learn 中线性模型的包装器:scikit-learn/scikit-learn

初始化类。

参数:
  • feature_names – 特征名称列表。

  • feature_types – 特征类型列表。

  • linear_class – 一个 scikit-learn 线性类。

  • **kwargs – 初始化时传递给线性类的关键字参数。

explain_global(name=None)#

提供模型的全局解释。

参数:

name – 用户定义的解释名称。

返回:

一个解释对象,将特征-值对可视化为水平条形图。

explain_local(X, y=None, name=None)#

为提供的实例提供局部解释。

参数:
  • X – 用于解释的 X 的 Numpy 数组。

  • y – 用于解释的 y 的 Numpy 向量。

  • name – 用户定义的解释名称。

返回:

一个解释对象,将每个实例的特征-值对可视化为水平条形图。

fit(X, y)#

将模型拟合到提供的实例。

参数:
  • X – 用于训练实例的 Numpy 数组。

  • y – 作为训练标签的 Numpy 数组。

返回:

其自身。

predict(X)#

对提供的实例进行预测。

参数:

X – 实例的 Numpy 数组。

返回:

每个实例的预测类别标签。

predict_proba(X)#

对提供的实例进行概率估计。

参数:

X – 实例的 Numpy 数组。

返回:

每个实例对每个类别的概率估计。

score(X, y, sample_weight=None)#

返回给定测试数据和标签上的平均准确率。

在多标签分类中,这是子集准确率,这是一个严格的度量标准,因为它要求每个样本的每个标签集合都被正确预测。

参数:
  • X (shape 为 (n_samples, n_features) 的类数组对象) – 测试样本。

  • y (shape 为 (n_samples,) 或 (n_samples, n_outputs) 的类数组对象) – X 的真实标签。

  • sample_weight (shape 为 (n_samples,) 的类数组对象, 默认值=None) – 样本权重。

返回:

scoreself.predict(X) 相对于 y 的平均准确率。

返回类型:

float