InterpretML
InterpretML: A Unified Framework for Machine Learning Interpretabilityhtml
https://github.com/microsoft/interpretgit
InterpretML 是一个为实践者和研究者提供机器学习可解释性算法的开源 Python 软件包。InterpretML 能提供如下两种类型的可解释性:(1)明箱(glassbox),这是针对可解释性设计的机器学习模型(好比线性模型、规则列表、广义相加模型);(2)黑箱(blackbox)可解释技术,用于解释已有的系统(好比部分依赖、LIME)。这个软件包可以让实践者经过在一个统一的 API 下,借助内置的可扩展可视化平台,使用多种方法来轻松地比较可解释性算法。InterpretML 也包含了可解释 Boosting 机(Explanable Boosting Machine,EBM)的首个实现,这是一种强大的可解释明箱模型,能够作到与许多黑箱模型同等准确的性能。github
其余库
LIME
“Why Should I Trust You?” Explaining the Predictions of Any Classifier机器学习
https://github.com/marcotcr/limepost
LIME是一种算法(库),能够解释任何分类器或回归量的预测。LIME是如何作到的呢?经过可解释的模型在局部不断接近预测值,这个模型解释器可用于生成任何分类算法的解释。性能
在机器学习模型中创建信任(在Python中使用LIME)学习
H2O
https://github.com/h2oai/mli-resourcesui
H2O的无人驾驶AI,提供简单的数据可视化技术,用于表示高度特征交互和非线性模型行为,经过可视化提供机器学习可解释性(MLI),说明建模结果和模型中特征的影响。url
原创文章,转载请注明出处!
本文连接:http://daiwk.github.io/posts/platform-interpret-ml.html