前沿丨DeepMind提出神经元删除法:通过理解每个神经元来理解深度学习

近日,DeepMind 发表博客介绍其对神经网络可解释性的最新研究成果。受神经科学启发,他们通过删除神经元来探索其对网络性能的影响。研究发现,和过去的经验直觉相反,选择性神经元(如「猫神经元」)对于网络的泛化能力并不重要。而某些行为难以理解的非选择性神经元却是不可或缺的。此外,作者还对比了泛化好和记忆好的网络对删除操作的响应行为。 深度神经网络由很多独立的神经元组成,这些神经元以一种复杂而反直觉的
相关文章
相关标签/搜索