微软研究院释出解开AI黑盒子的工具包lnterpretML,提供开发人员多种方式来实验AI模型和系统,进一步解释模型,lnterpretML工具包含有许多可理解的模型和多种方法,可以针对黑盒子模型的个别预测行为产生解释。微软指出,当AI系统影响人类的生活时,令人们了解AI的行为就至关重要,了解AI模型的行为,也能让数据科学家为模型除错,而理解模型如何推论,则能够使设计模型的开发者传递模型如何运做的信息给终端用户。算法
通常模型的准确度和可理解性没法兼顾,微软研究院开发出一套兼顾准确度和理解性的算法Explainable Boosting Machine,透过现代机器学习技术,像是Bagging和Boosting分类方法,来改善传统的广义加成(Generalized Additive)模型。开发者能够用lnterpretML工具包,比较不一样的方法产生的解释,并选出一个最适合的方法,透过在不一样的方法之间比对一致性,可以协助开发者了解该解释的可信度。更多详细相关内容:sbf胜博发票务 http://www.ktnetks.com.tw机器学习