Adversarial Examples 对抗样本

定义 深度模型具有良好的泛化能力同时,也具有极高脆弱性。以分类为例:只需要通过故意添加细微的干扰所形成的输入样本(对抗样本),模型以高置信度给出了一个错误的输出。当然这问题不仅出现在深度模型中,在其他机器学习模型也存在。“对抗样本”是安全方面非常好的一个议题,因为它代表了AI安全领域里的一种具体的问题。 如上样本x的label为熊猫,在对x添加部分干扰后,在人眼中仍然分为熊猫,但对深度模型,却将其
相关文章
相关标签/搜索