Adversarial Examples 对抗样本

定义 深度模型具备良好的泛化能力同时,也具备极高脆弱性。以分类为例:只须要经过故意添加细微的干扰所造成的输入样本(对抗样本),模型以高置信度给出了一个错误的输出。固然这问题不只出如今深度模型中,在其余机器学习模型也存在。“对抗样本”是安全方面很是好的一个议题,由于它表明了AI安全领域里的一种具体的问题。 如上样本x的label为熊猫,在对x添加部分干扰后,在人眼中仍然分为熊猫,但对深度模型,却将其
相关文章
相关标签/搜索