让我如何相信你 -- NLP模型可解释性的6种常用方法

导语 | 深度学习是黑盒模型。虽然它能在一些任务上表现得十分出色,但是人们却无法理解它是如何做出的决策。近年来,越来越多的研究者对于如何解释深度学习的推理过程产生了很大的兴趣,模型的可解释性方法也成为了学术界研究的热点。2020年ACL就新增了一个“可解释性和模型分析”的通道。本文总结梳理了一些NLP领域可解释性方法,以及对于如何将可解释性落地应用在实际业务中,提出一些笔者的拙见。文章作者:许元博
相关文章
相关标签/搜索