理解模型。
负责任地构建。

帮助理解模型并实现负责任机器学习的工具包

解释模型行为的最新技术

全面支持多种模型和算法类型,涵盖训练和推理过程

社区驱动的开源工具包

为什么选择 InterpretML?

模型可解释性

模型可解释性帮助组织中的开发者、数据科学家和业务利益相关者全面理解他们的机器学习模型。它还可以用于调试模型、解释预测,并支持审计以符合监管要求。

易用性

通过开放统一的 API 集和丰富的可视化效果,访问最先进的可解释性技术。

灵活且可定制

使用各种解释器和技术,通过交互式可视化来理解模型。选择你的算法并轻松实验算法组合。

全面功能

探索模型属性,例如性能、全局和局部特征,并同时比较多个模型。操作数据并查看对模型的影响时,运行假设分析。

支持的模型类型

    白盒模型由于其结构而具有可解释性。示例包括:可解释提升机 (EBM)、线性模型和决策树。

    白盒模型提供无损解释,并且可以由领域专家编辑。

    黑盒模型难以理解,例如深度神经网络。黑盒解释器可以分析输入特征和输出预测之间的关系来解释模型。示例包括 LIME 和 SHAP。

多种多样的技术

全局

使用全局特征重要性,探索整体模型行为并找到影响模型预测的关键特征。

局部

使用局部特征重要性,解释单个预测并找到影响它的特征。

子集

使用群组特征重要性,解释预测的子集。

特征影响

使用假设分析等技术,查看输入特征的变化如何影响预测。

使用 InterpretML 可以做什么

探索数据和模型性能

  • 理解模型性能如何随数据子集变化,并比较多个模型。
  • 探索模型错误
  • 分析数据集统计信息和分布
  • 深入理解模型

  • 探索全局和局部解释
  • 过滤数据以观察全局和局部特征重要性
  • 运行假设分析,查看修改数据点特征时模型解释如何变化。
  • 谁能从 InterpretML 中受益?

    数据科学家

    理解模型,调试或发现问题,并将模型解释给其他利益相关者。

    审计师

    在模型部署前对其进行验证,并在部署后进行审计。

    业务负责人

    理解模型的行为方式,以便向客户提供关于预测的透明度。

    研究人员

    轻松集成新的可解释性技术,并与其他算法进行比较。

    为 InterpretML 贡献

    我们鼓励您加入这项工作,贡献反馈、算法、想法等,以便我们共同发展这个工具包!

    贡献