机器学习的可解释性:因果推理和稳定学习

分享嘉宾:况琨 浙江大学 助理教授    编辑整理:有感情的打字机、闫建飞 导读:机器学习方法已经在许多领域取得了巨大的成功,但是其中大多数都缺乏可解释性和稳定性。其主要原因是目前机器学习方法是关联驱动的,且没有区分数据中的因果关联和虚假关联。 因果推理是用于解释分析的强大建模工具,可以帮助恢复数据中的因果关联,用于指导机器学习,实现可解释的稳定预测。在本次分享中,主要介绍了大数据背景下如何进行因
相关文章
相关标签/搜索