卷积神经网络模型可解释性

卷积神经网络模型可解释性 缺乏可解释性仍然是在许多应用中采用深层模型的一个关键障碍。在这项工作中,明确地调整了深层模型,这样人类用户可以在很短的时间内完成他们预测背后的过程。具体地说,训练了深度时间序列模型,使得类概率预测具有较高的精度,同时被节点较少的决策树紧密地建模。使用直观的玩具例子以及治疗白血症和HIV的医疗任务,这种新的树正则化产生的模型比简单的L1或L2惩罚更容易模拟,而不牺牲预测能力
相关文章
相关标签/搜索