机器学习中的 Shapley 值怎么理解?

导语:在集体合作中,如何公平分配奖励? 图片来源:https://unsplash.com/photos/TL5Vy1IM-uA  我第一次听说 Shapley 值是在学习模型可解释性的时候。我知道了 SHAP,它是一个框架,可以更好地理解为什么机器学习模型会那样运行。事实证明,Shapley 值已经存在了一段时间,它们最早起源于 1953 年的博弈论领域,目的是解决以下情况: 一群拥有不同技能的
相关文章
相关标签/搜索