干货 | 深度学习的可解释性研究(一):让模型「说人话」

在这篇文章中: 可解释性是什么? 我们为什么需要可解释性? 有哪些可解释性方法? 在建模之前的可解释性方法 建立本身具备可解释性的模型 在建模之后使用可解释性性方法作出解释 关于 BIGSCity 参考文献 不以人类可以理解的方式给出的解释都叫耍流氓,因此,我们要让模型「说人话」。只要记住这三个字,你就差不多把握了可解释性的精髓所在。 AI 科技评论按:本文为 BIGSCity 的知乎专栏内容,作
相关文章
相关标签/搜索