用可组合的构建块丰富用户界面?谷歌提出「可解释性」的最新诠释

本文转自雷克世界(ID:raicworld) 编译 | 嗯~阿童木呀 随着在神经网络领域不断取得新的发展成果,有一个相对应的需求也亟待解决,即能够对其决策进行解释,包括建立它们在现实世界中行为方式的置信度、检测模型偏差以及科学好奇心。为了做到这一点,我们需要构建深度抽象,并在丰富的界面中对它们进行修饰(或实例化)。可以说,除了极少数例外,现有的研究在关于可解释性这一点上并没有多少建树。 机器学习社
相关文章
相关标签/搜索