告别AI模型黑盒子:可解释性将是数据科学的下一个“超能力”

过去几年来,人工智能研究人员在图像识别、自然语言理解和棋类等领域取得了重大突破。但由于缺乏对复杂机器学习模型的真正理解,导致模型在传播时出现了偏见,这种偏见在零售、面部识别和语言理解等领域的应用中出现了多次。 说到底,机器学习模型大多数时候仍然是“黑盒子”,很多时候可以拿来用,但具体原理并不十分清楚,即缺乏足够的“可解释性”。 什么是模型的”可解释性“?不同人群定义不一样 所谓模型的可解释性,是指
相关文章
相关标签/搜索